Rechtsschutzverunsicherung (mit Chan-jo Jun und Jessica Flint)

Shownotes

Wir konsultieren unsere Rechtsexpert:innen - denn es haben sich in den letzten Tagen einige Fragen angehäuft, mit denen wir aufräumen müssen: Was sind Anreize, wo erleben wir - womöglich illegale - Dark Patterns? Und wir scharf können wir als EU tatsächlich gegenüber amerikanischen Unternehmen auftreten? Und wann bekommt Gavin sein Bundesverdienstkreuz? Die große Rechtsshow!

➡️ Das Reel von Theresia Crone: https://www.instagram.com/reel/DOL0DCeCEbh

🗓️ Am 6. November feiern wir 500 Episoden und 3 Jahre "Haken dran" mit einem 12 Stunden-Livestream!

➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt:

00:00 Hallo Jessica und Chan-jo! 02:56 Rechtsstreit gegen den Volksverpetzer 09:16 Chatbots vor Gericht 11:56 Wem gehört mein Gesicht? 22:51 Sind wir alle Angestelte von TikTok? 34:19 Apple gegen die EU 41:40 Der große AWS-Ausfall 53:48 Funktionen und Emotionen

ℹ️ Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier: https://wonderl.ink/@heise-podcasts

Transkript anzeigen

00:00:00: Du, wenn er Hallo sagt, musst du sagen, grüß dich Gavin.

00:00:03: Das ist wichtig,

00:00:04: sonst erkennt die Haki sich nicht als Insider an.

00:00:08: Das lassen wir

00:00:08: drin.

00:00:09: Haken dran.

00:00:11: Das Social Media Update der CT.

00:00:14: Hallo Chanjo, Hallo Jesse.

00:00:16: Grüß dich, Devin.

00:00:17: Wow.

00:00:19: Bei mir sind wir also John Julian, der Haus- und Hofanwalt von Haken dran, unser Rechtsexperte und Jurist.

00:00:23: Und Jessica Flint, die kennt ihr aus seinen TikTok- und YouTube-Videos.

00:00:27: Und ist eigentlich prädestiniert als Gästin für diesen Podcast hier.

00:00:31: Und ich freue mich, dass ihr hier seid.

00:00:33: Also schön, dass ihr da seid.

00:00:35: Wir saßen einfach und waren zu früh aufzustehen.

00:00:37: Wir haben gerade ein Video aufgenommen.

00:00:38: Jetzt mach's nicht kaputt.

00:00:40: Einmal einfach sitzen.

00:00:41: Mach's nicht kaputt.

00:00:41: Okay.

00:00:44: Wie ist die Stimmung bei euch in Würzburg, glaube ich, richtig?

00:00:49: Würzburg ist richtig.

00:00:50: Sollen wir höflich sein und sagen, oh, alles super, die Welt wird viel besser, wir sind auf dem richtigen Weg.

00:00:55: Das regnet

00:00:56: nicht mehr.

00:00:57: Ja, ja.

00:00:58: Aber red mir bitte nicht über Rechtspolitik oder sowas.

00:01:01: Ja, wir gehen heute ein bisschen juristisch mit euch, wenn ihr da seid.

00:01:06: Ich habe ein paar Themen mitgebracht, bei denen die sich so angesammelt haben über die letzten Wochen.

00:01:10: Und wenn wir so reingehen ich muss aber mit einem kleinen housekeeping starten für all die diesen podcast schon lange hören.

00:01:16: wir hatten ein paar rätsel die wir gemeinsam und auch reddit nicht lösen konnte in den letzten wochen.

00:01:21: und zwar haben menschen bei instagram immer wieder stories gesehen unter den kleine symbole angezeigt wurden.

00:01:26: zum beispiel eine brille.

00:01:27: da wussten wir okay das wurde mit der meta rayband brille aufgenommen aber auch zum beispiel eine kleine ur.

00:01:33: und wir wissen jetzt dass diese kleine ur wenn sie in dem story ring angezeigt wird bedeutet.

00:01:38: dass das die letzte Stunde ist, in der man diese Story sehen kann, bevor sie abläuft.

00:01:43: Und das andere ist das kleine Herz.

00:01:44: Das bedeutet, dass es eine Story, die bereits älter ist, aber ein Highlight ist, dass dir noch mal angezeigt wird.

00:01:50: Also für alle, die da mit uns gerätselt haben, wir haben jetzt endlich ... Lackpattern.

00:01:54: Alles verboten, Gavin.

00:01:55: Geht gar nicht.

00:01:57: A.I.

00:01:57: Act verbietet Duckpatten.

00:01:59: Wahrscheinlich ist es noch kein Duckpatten, aber Jesse, dazu haben wir doch gerade einen Foto gehalten, oder?

00:02:03: Soll ich jetzt nunching machen?

00:02:04: Aber nicht

00:02:05: über Symbole auf Instagram.

00:02:07: Das reicht noch nicht aus dafür.

00:02:09: Also, wenn man ... Irgendwie unterschwellig Einfluss nimmt auf Leute durch Symbole.

00:02:15: Daran habe ich direkt gedacht bei dieser Uhr, du hast nur noch eine Stunde Zeit, um die Story anzugucken.

00:02:21: Gruselig, da wird man unter Druck gesetzt.

00:02:24: Aber dann müsste man ja irgendwie dazu verleitet werden,

00:02:28: drauf zu klicken.

00:02:29: Also nur weiter vorne angezeigt werden.

00:02:31: mit einer Uhr reicht da wahrscheinlich nicht, mein Dir.

00:02:33: Aber wir machen eine Hand ran.

00:02:34: Versuch's nochmal.

00:02:34: Aber ich hab nachher noch einen Dark Pattern für euch, da wird der Begriff Symbole, wird mal wörtlich genommen, kommen wir nachher gegen Ende der Episode drauf.

00:02:43: Ich hab das Gefühl, da hab ich was rausgegraben für euch.

00:02:47: Ich möchte anfangen mit dem ersten Thema.

00:02:50: Das ist eine Geschichte, da haben wir am neunzwanzigsten neunten in der Folge mit Nicole Dieckmann schon mal drüber gesprochen.

00:02:54: Die Folge heißt Alles Schlimm der Podcast und es geht um die Klage, bei der ihr auch beteiligt seid, offensichtlich gegen den Volksverpätzer.

00:03:02: Und ist das PC-Hand schon mal richtig?

00:03:06: Nee, überhaupt nicht davon.

00:03:08: Weil jetzt haben wir auch wirklich die Prozessvertreterin.

00:03:10: Ich mach ja nur Videos dazu, aber Jesse hat wirklich die Schriftzätze geschrieben dazu und war bei Gericht.

00:03:14: Ja, die Klage ist nicht gegen den Volksverpätzer, sondern vom Volksverpätzer gegen

00:03:20: X. Gegen X?

00:03:20: Ja, genau.

00:03:21: Ich hab's, sorry, Volksverpätzer gegen X, so heißt die Überschrift auf jeden Fall, die ich mir hier reingeschrieben hab.

00:03:26: So ist es richtig, ne?

00:03:27: Genau.

00:03:28: Und nee, immer noch nicht, weil Kläger ist der Thomas.

00:03:32: Stimmt.

00:03:32: Genau, das ist einer der Punkte, die nämlich hier in diesem Podcast als Frage entstanden sind, weil der Volksverpätzer in seiner eigenen Darstellung geschrieben hat, der Volksverpätzer würde ex verklagen.

00:03:41: Und wir waren nämlich deswegen irritiert, weil es ging ja eigentlich nur darum, wenn ich es richtig verstanden habe, dass Thomas Laschik, der vermutlich Chefredakteur vom Volksverpätzer, das der Fake-Accounts von sich entdeckt hatte und dagegen vorgehen wollte und ex aber eigentlich immer wieder gesagt hat, wir sehen hier keine Probleme, richtig?

00:03:58: Ein Problem haben sie schon gesehen, nämlich existenziell.

00:04:01: Jesse hat nämlich in dem gegnerischen Schrift-Satz, die meistens nie unter dreißig Seiten lang sind, einen Absatz gewonnen, der war nicht so geschickt.

00:04:08: Ja, da hat Exx uns erklärt, oder also dem Gericht erklärt, wenn wir so verurteilt werden würden, wie das der Kläger vorgeschlagen hat, dann würde das das ganze Geschäftsmodell von Exx gefährden.

00:04:23: Oh, da haben sich die Leute gesagt, prima bitte, go for it.

00:04:27: Weil das die Argumentation war, nachvollziehbar, zumutbar kreit.

00:04:31: Wenn wir jetzt das Recht beachten müssten und dafür sorgen müssten, dass jetzt nicht noch weitere Fake-Accounts, die ähnlich sind, erscheinen, dann wäre das so aufwendig, da müsste man am Schluss ja KI einsetzen oder so was.

00:04:42: Und das geht ja nicht.

00:04:43: Und seit zehn Jahren erzählen uns die Plattformbetreiber immer wieder, es ist unzumutbar, so etwas mit Menschen oder gar mit Technik zu machen, weil es unmöglich und eben viel zu teuer wäre.

00:04:52: Genau, wir gehen nämlich vor Gericht und sagen, wir wollen, dass nicht nur dieser Fake-Account entfernt wird, sondern auch Kerngleiche, also auch solche Fake-Accounts, die fast genauso aussehen.

00:05:05: Der Europäische Gerichtshof hat gesagt, natürlich geht das.

00:05:08: Und jetzt sind wir seit Jahren in verschiedenen Verfahren vor deutschen Gerichten und kriegen von allen Plattformen rauf und runter erzählt, dass das ihnen nicht zugemutet werden kann und dass das ja viel zu schwierig wäre.

00:05:19: Ich verstehe.

00:05:21: Aber um das nochmal ganz kurz abzuschließen, damit das heißt nicht der Volksverpälzer verklagt X, wie Sie selber geschrieben haben, sondern Thomas Laschik persönlich, richtig?

00:05:30: Dann haben wir das schon mal aus der Welt geschafft.

00:05:32: Wir sind da über einen Absatz gestolpert und auch den wollte ich nochmal mitbringen, weil ihr offenbar, wenn ich das richtig verstanden habe, auch Grock befragt hat, ob diese Accounts wegaccount sind und dieses Argument habt ihr auch vor Gericht eingebracht, richtig?

00:05:47: Es war so, Jesse, was war die Vorlage?

00:05:50: Der Gegenanwalt sagte, dass der Account, den wir da angemahnt hatten, der hieß ja nicht Thomas Laschik, sondern wie hieß der?

00:06:00: Der hieß Thomas Luszek.

00:06:01: Genau.

00:06:02: Und hatte aber ein Bild von Thomas Laschik.

00:06:04: und der Gegenanwalt sagte, da weiß doch kein Mensch, wer gemeint ist.

00:06:08: Und dann hab ich mein Handy rausgeholt und ein Foto gemacht von der Akte, jetzt ist das Handy kaputt, von der Akte.

00:06:15: Ich fand das jetzt super grock.

00:06:16: Einfach hoch und fragt, wer es gemeint.

00:06:19: Und Grock sagte, ja, hier ist natürlich Thomas Laschet gemeint, der Chefredakteur von Volksverpätzer.

00:06:23: Also es war sehr, sehr einfach zu erkennen, wer gemeint war mit diesen Fake-Accounts und das Argument war relativ leicht zu entkräften.

00:06:32: Wir haben das ja auch auf ex gepostet und Grock hat danach nochmal bestätigt.

00:06:36: Warum?

00:06:36: Also der wollte angeben.

00:06:37: Grock ist so ein Schuljunge.

00:06:38: Guck mal, ich weiß was, ich weiß was, Herr Lehrer.

00:06:41: Ich finde das ganz fantastisch.

00:06:42: Aber habt ihr denn schon eine Prognose, eine Tendenz, wann die Geschichte ausgeht und wie?

00:06:47: Nie.

00:06:49: Weil, egal wie das jetzt hier ausgeht, X wird das Ding durch die Instanzen ziehen, weil es ist völlig egal, wer im Recht ist.

00:06:56: Die Message, die X hier betreibt ist, verklagt uns nicht, denn wir gehen durch alle Instanzen, wir haben nämlich mehr Geld als ihr.

00:07:04: Und das stimmt aber nicht.

00:07:11: Ich glaube, X hat schon ganz schön viel Geld.

00:07:13: Kommt ein bisschen aufs Crowdfunding an, was dann passiert, wie lange es sozusagen noch interessant ist oder der für die Rechtsfortbildung sinnvoll ist.

00:07:19: Renate Künast ist durch drei Instanzen durch.

00:07:22: Die ist jetzt beim BGH.

00:07:23: Jetzt warten wir auf den EUGH.

00:07:26: Wie lange läuft der Prozess schon über diese Zahlen?

00:07:29: Ja, das Zitat ist von im Jahr.

00:07:34: Bei Gericht ging es los, es ist total verrückt.

00:07:39: Und die machen die Prozesse einfach so teuer wie möglich.

00:07:42: Weil wir glauben mit Hate-Aid, man macht ein paar Leuchtturmverfahren, damit man sich daran orientieren kann.

00:07:46: Erstens, damit sich die Plattform dran halten, das ist natürlich quatsch und naiv.

00:07:49: Und zweitens, damit Menschen wissen, dass sie auch diesen Weg gehen können.

00:07:52: Eckhardt von Hirschhausen hat das gemacht, haben uns gefreut.

00:07:55: Aber es ist nicht die Massenbewegung.

00:07:57: Jetzt hatten wir neulich mal eine, zwei Verführungen innerhalb von zwanzig Stunden beantragt und auch bekommen.

00:08:03: Wollten wir sagen, hey, guck mal, man kann das im Beschlussverfahren machen.

00:08:06: Natürlich legen Sie dann Rechtsmittel ein und ziehen das Ding auch in die Länge.

00:08:09: Das ist lästig.

00:08:10: Apropos einstweilige Verfügung, das ist ja nicht das einzige Ding, das ex gerade irgendwie am Bein hat, sondern es gibt eben auch die Geschichte, dass Kampakt eine einstweilige Verfügung war.

00:08:19: Wart ihr das auch?

00:08:20: Hängt ihr da auch mit drin?

00:08:21: Nee, nicht vertreten, leider.

00:08:23: Okay, ich fasse trotzdem nochmal zusammen.

00:08:24: Also wir haben darüber in der Folge Sora und Gomorra am thirteenth Zehnten gesprochen mit Dominik Hammes, aber nochmal kurz zusammengefasst, für die, die es nicht mitbekommen haben.

00:08:32: Compact hat eine einstweilige Verfügung gegen XAI, das Unternehmen hinter X und auch das Unternehmen hinter Grock erwirkt.

00:08:39: Alles Unternehmen von Elon Musk hier.

00:08:42: Das Unternehmen hinter Grock erwirkt, dass Kampakt oder das GROC nicht behaupten darf, der Chatbot, dass Kampakt aus Steuermitteln finanziert sei.

00:08:52: Und das hat das Landgericht Hamburg da auch festgestellt, dass das eine unwahrtatsachen Behauptung ist, die eben nicht wiederholt werden darf, weil ansonsten ein Ordnungsgeld von bis zu zweihundertfünfzigtausend Euro auferlegt werden kann.

00:09:03: Ist das eine Geschichte, wo man sagen kann, dass Chatbots möglicherweise jetzt hier als juristische Instanzen wahrgenommen werden und dass das zukünftig bedeuten kann, dass eigentlich jede Lüge, die ein Chatbot verbunden im Zweifel vor Gericht enden kann.

00:09:17: Kevin, wir haben eine Zeit lang geglaubt, KI nimmt uns die Arbeit weg, aber wir sind jetzt total beruhigt.

00:09:21: Wir machen nichts anderes mehr als Chatbots zu verklagen, weil die lügen echt viel und reproduzierbar.

00:09:29: Das im Ernst muss man jetzt natürlich ein paar Kaviers, also Jesse spuckt uns gleich wieder in die Suppe und sagt, warum das doch wieder gar nicht so sensationell ist.

00:09:36: Also die Besonderheit, die wir hier haben und bei der wir noch nicht ganz wissen, wie sie sich in anderen Prozessen auswirkt, ist, dass hier die Äußerung von der KI ja anschließend auf X gepostet wurde und veröffentlicht wurde.

00:09:50: Und das Gericht sagt, dadurch hat XAI deutlich gemacht, dass sie diese Aussage auch zu Eigen gemacht haben, also, dass sie dahinter stehen.

00:09:59: Und deshalb kann man das Unternehmen jetzt auch zur Unterlassung verpflichten.

00:10:03: Man könnte also auch sagen, dass sie Haften als Account-Inhaber für das, was sie gemacht haben, liegt jetzt gar nicht daran, dass sie eine KI sind.

00:10:09: Also, der KI-Aspekt spielte nur so ... Nebensächlich eher eine Rolle.

00:10:14: Insofern, als das Gericht sich damit auseinandergesetzt hat, dass der Account den Eindruck erweckt, er würde objektive Tatsachen behaupten.

00:10:22: Das ist erstaunlich, dass in der Welt von X eine KI noch mehr Glaubwürdigkeit hat als ein User.

00:10:27: Bedeutet das aber auch, dass in dem Fall von Grock die Tatsache, dass Grock drunter kommentiert, dass XAI in mehr Schwierigkeiten bringt, als die Unwahrheit, die jetzt ChatGPT in so einem Chat verbreiten würde?

00:10:40: Und das bleibt noch abzuwarten.

00:10:41: Das wäre dann der nächste interessante Prozess, wenn nämlich Chatchi BT Lügen aufgrund seines Trainingsmodells verbreitet und somit immer wieder verbreitet, dann glauben wir schon, dass ein X Open AI dafür auch haften würde.

00:10:56: Und wir haben auch schon die ersten Anfragen für genau solche Fragestellungen, weil das, was früher die Suchmaschinen war, wo man zum Beispiel das Recht auf vergessen werden oder auf Berichtigung jetzt macht, künftig natürlich wird ersetzt durch die Rolle der AI Chatbots.

00:11:11: Also,

00:11:11: da kommen wir zu uns.

00:11:12: Das heißt also, wenn ich jetzt einfach nur sehr häufig frage, ChatGPT, wer ist Gavin Kahlmeier?

00:11:16: Und ChatGPT weiß meistens nicht, wer Gavin Kahlmeier ist, zumindest in neun von zehn Anfragen kommt da irgendeinen Quatsch raus.

00:11:22: Dann könnte ich die jetzt sammeln und könnte mit euch versuchen, gemeinsam OpenAI zu ärgern.

00:11:29: Also, ich mache es das immer so, dass ich frage, ich möchte Jessica Flint einen Preis überreichen.

00:11:39: macht bitte eine sorgfältige Sorgfahrtsrecherche, welche Skandale gibt es?

00:11:42: Und dann buddeln die alle Veröffentlichungen von Jessica aus und ihre politische Ausrichtung.

00:11:48: Und Grog hat da auch einen etwas andersen politischen Einschlag als andere Kis.

00:11:54: Und jetzt, während Jessie das weitererklärt, google ich mal, was es für Skandale bei Gavin Kahlmeier gibt.

00:12:00: Nee, nicht googeln, sondern wir fragen eine KI.

00:12:02: Ja, das finde ich sehr spannend.

00:12:03: Das ist ein

00:12:03: anderen Einschlag.

00:12:04: Als andere KI soll ich erklären.

00:12:06: Nee, das haben wir hier, glaube ich, schon zu genügend.

00:12:09: Außer der Nahtklammwüser, dass GROC sehr bewusst ja gegen die eigenen Trainingsdaten entscheidet, welche Aussage GROC jetzt trifft.

00:12:18: Ich hatte bei GROC neuerlich was über die AfD und über Campact-Entscheidungen und so weiter und da hörte man schon eine gewisse... Tendenz, wobei das kann auch im Trainingsmaterial sein.

00:12:30: Ob das am System prompt oder am Trainingsmaterial, der ist halt zu viel auf X unterwegs, weiß man nicht so genau.

00:12:36: Das, was auf jeden Fall spannend ist, ist, dass wir jetzt das erste Mal sehen, dass so eine KI auch Sachen verlernen kann oder man der KI auch verbieten kann, gewisse Äußerungen zu tätigen.

00:12:49: Das war ja vorher auch ein gern gesehenes Argument der KI-Anbieter, dass sie gesagt haben, na ja, wir können ja gar nicht... kontrollieren, was da am Ende rauskommt.

00:12:57: Das hängt ja alles vom Prompt ab.

00:12:59: Und das ist ja gar nicht uns zuzuschreiben, was die KI so behauptet.

00:13:04: Aber anscheinend funktioniert es ja doch, dass sie, wenn sie bestimmte Aussagen nicht mehr verbreiten dürfen, dass sie das dann auch aus den KI's rausnehmen.

00:13:13: Dieser System Prompt wird einfach immer und immer länger mit jeder einstweiligen Verfügung, die dann bei denen auf dem Tisch landet.

00:13:19: Wäre auch eine Legende.

00:13:20: Ja, ist doch

00:13:21: gut.

00:13:23: Hast du Skandal immer mich gefunden?

00:13:26: Ich habe jetzt Gemini zwei fünf und.

00:13:29: Ja, kommt noch liefert wie keine Ergebnisse.

00:13:33: Was soll das?

00:13:34: Siehst du

00:13:35: schon?

00:13:35: Ist die Traberat der Experte für soziale Mädchen.

00:13:38: Warte mal, den überrede ich schon noch.

00:13:39: Nein, ich finde das sehr gut, weil jede KI, die über mich keine Skandale ermittelt, sichert mir meine mögliche Einreise in die USA in den nächsten dreißig Jahren.

00:13:49: Ich glaube, die haben noch Zugriff auf ganz andere Sachen.

00:13:51: Da will ich mich nicht auf die KI's verlassen.

00:13:54: Du bist zu lange schon von X weg wahrscheinlich, wobei Grog kann bestimmt deine alten Tweets ausgraben.

00:13:59: Ja, kann das leider.

00:14:01: Definitiv.

00:14:02: So, und dann haben wir über eine Geschichte gesprochen in der vorletzten Episode.

00:14:04: Die Folge hieß von der Pipeline bis zum Bordstein mit Dennis Horn.

00:14:08: Und das ging um die Geschichte, dass die King-Familie, also die Familie von Martin Luther King, erwirkt hat, dass OpenAI das Gesicht von Martin Luther King nicht mehr verwenden darf, wenn es um die AppSora geht, also die Videogenerierung und die Verbreitung über die Social Media AppSora, die OpenAI an den Stadt gebracht hat.

00:14:29: Und das Spannende daran ist, und ich muss das mal kurz ins große Bild hängen, weil da gibt es ein paar Dinge, die eben dazugehören.

00:14:35: Du kannst bei Sora als lebende Person jederzeit dein Gesicht lizenzieren.

00:14:40: Ansonsten wird dein Gesicht dort nicht verwendet werden.

00:14:42: Also Papa Platter hat das gemacht, Jake Paul hat es gemacht, Igestine hat es gemacht.

00:14:46: Ich könnte das auch machen.

00:14:47: Mit der Funktion Cameo könnte ich erlauben, dass jeder mit meinem Gesicht in Sora Videos generieren kann und ich kann da Quatsch machen.

00:14:53: Bei toten Personen gibt es diese Begrenzung, dass es eben nur Gesichter, die lizenziert sind.

00:15:00: Im Nicht bedeutet.

00:15:02: bislang ist es so, dass Stephen Hawking die Queen oder eben Martin Luther King reichlich verwendet werden konnten.

00:15:08: Im Fall von Martin Luther King hat sich auf mein Ei entschieden das nicht mehr zu tun.

00:15:12: Entschieden im Sinne von.

00:15:13: die Familie hat gesagt, dass ihr es respekt und pietätlos bitte macht was.

00:15:17: Und dann hat Sam Ordmann gesagt, okay, wir machen was.

00:15:20: Aber ist es legitim, dass so eine unterschiedliche, eine unterschiedliche.

00:15:26: Ein unterschiedlicher Umgang mit Persönlichkeitsrechten, mit lebendigen und Totenpersonen vorgenommen wird?

00:15:32: oder ist es eine Geschichte, wo eine weitere Geschichte in der OpenAI sich dazu entscheidet, erstmal zu machen und sich dann zu entschuldigen?

00:15:39: Wir Juristen denken uns an der Stelle, wieso muss OpenAI jetzt hier eigene Regeln erfinden und sich nicht einfach an die halten, die es schon gibt?

00:15:48: Und wir können ja mal gucken, wie eigentlich die rechtliche Regel muss.

00:15:50: Manchmal ist es nämlich so, man sollte einfach mal in die Gesetze gucken oder die Rechtsprechung und dann kommen auch brauchbare Lösungen raus.

00:15:56: Jessie hat nämlich nachgeschaut.

00:15:57: Wir können also erst mal gucken, wie wäre denn die Rechtslage eigentlich?

00:16:01: Also grundsätzlich braucht man immer eine Einwilligung, wenn man das Bildnis von jemandem verbreiten will.

00:16:07: Das heißt auch, wenn man Videos mit einem KI-generierten Bild von einer Person machen will, braucht man dafür eine Einwilligung der Person.

00:16:14: Es gibt dazu ein paar Ausnahmen.

00:16:17: Zum Beispiel, wenn das Personen der Zeitgeschichte sind, braucht man nicht unbedingt eine Einwilligung dieser Person.

00:16:23: Und für... Personen, die schon verstorben sind, braucht man die Einwilligung zehn Jahre lang grundsätzlich von den Angehörigen des Verstorbenen.

00:16:34: Das heißt, da gibt es schon eine Unterscheidung, nämlich eine zeitliche Begrenzung.

00:16:38: Und auch bei verstorbenen Personen hat man eben die Ausnahmen.

00:16:44: Wenn es zum Beispiel eine Person der Zeitgeschichte ist, braucht man dann auch die Einwilligen der Angehörigen nicht.

00:16:50: Und davon gibt es wieder eine Einschränkung sowohl für liebendige als auch für verstorbene Personen.

00:16:55: Nämlich, dass man es dann doch nicht veröffentlichen darf.

00:16:58: Ich weiß, es ist kompliziert.

00:17:00: Doch nicht veröffentlichen darf, wenn es die Rechte der betroffenen Personen sehr stark beeinträchtigt.

00:17:07: Oder wenn es bei einer verstorbenen Person die Rechte der Angehörigen sehr stark beeinträchtigt.

00:17:11: Boah, hast du zugehört?

00:17:13: Ganz schon.

00:17:14: Aber klare Regeln eigentlich.

00:17:17: Das bedeutet für mal in The King, eigentlich hätte man sein Bild verwenden dürfen, kommt nur darauf an, welchen Kontext.

00:17:23: Also wenn es nicht entstellend ist, dürfte man das.

00:17:26: Deswegen bräuchte man nicht so einen Regel im Sinne von Familie muss erst um Erlaubnis gefragt werden, sondern verwendet es einfach in legalen Kontexten, dann dürft ihr es braucht noch nicht fragen, ansonsten halt nicht.

00:17:38: Weil

00:17:38: das für die KI-Anbieter wahrscheinlich einfacher ist zu sagen, ganz oder gar nicht.

00:17:45: Wobei man dazu sagen muss, dass das Gesetz natürlich zu einer Zeit geschrieben wurde, in der die technischen Möglichkeiten noch nicht da waren, dass Martin Luther King sich auf eine Bühne stellt und fordert, dass die Urheberrechtslimits bei Sora aufgehoben werden.

00:17:56: Also die Manipulation ist ja wahrscheinlich trotzdem auch ein Faktor, oder?

00:18:01: Und deswegen haben wir ja eine Petition unterstützt für Marco W. Kling für das Verbot von Deepfakes, was nicht die einzige Initiative in diesem Bereich ist.

00:18:08: Aber wir brauchen natürlich neue Regeln.

00:18:10: Wir brauchen eine Diskussion dazu.

00:18:12: Und Deepfake-Videos sind eine neue Spielart.

00:18:14: Und unsere alten Gesetze haben darauf nicht die richtigen Antworten bisher.

00:18:17: Und da gibt es weitgehende Ansätze, der von Marco W. Kling ist.

00:18:21: eins schon die Herstellung, nicht zu erlauben, jedenfalls von echten Personen.

00:18:25: Es gibt andere, die erst bei der Verbreitung ansetzen.

00:18:28: Wieder andere, die erst ansetzen.

00:18:30: wenn dadurch eine Persönlichkeitsrechtsverletzung passiert.

00:18:32: Und jedenfalls sollte man da was tun.

00:18:36: Toll.

00:18:37: Brian Cranston übrigens.

00:18:38: Da ist was passiert.

00:18:39: Ich weiß nicht, ob ihr das mitbekommen habt.

00:18:40: Brian Cranston, den kennt ihr wahrscheinlich, wenn ihr Breaking Bad gesehen habt oder Melke mittendrin.

00:18:45: Das war der Schauspieler des Vaters bei Melke mittendrin und der Schauspieler des Vaters bei Breaking Bad auch.

00:18:51: Interessanterweise.

00:18:52: Jesse ist an Bord.

00:18:53: Ja.

00:18:54: Okay, ihr wisst, okay.

00:18:55: Und der hat sich sehr beschwert darüber, dass man mit seinem Gesicht Videos erstellen konnte bei OpenAI.

00:19:00: Und zwar bis zum achten Oktober.

00:19:02: Am achten Oktober sogar noch hat seine Agentur eine empörte Stellungnahme veröffentlicht, in der die Agentur gesagt hat, die Frage ist, ob OpenAI und seine Partnerunternehmen der Meinung sind, dass Menschen, Schriftsteller, Künstler, Schauspieler, Regisseure, Produzenten, Musiker und Sportler eine Vergütung und Anerkennung für ihre Arbeit verdienen.

00:19:18: Oder glaubt OpenAI, dass sie diese einfach stehlen können, ohne Rücksicht auf globale Urheberrechts.

00:19:23: Grundsätze und unter offensichtlicher Missachtung der Rechte der Urheber sowie der vielen Menschen und Unternehmen, die die Produktion, Erstellung und Veröffentlichung der Werke dieser Menschen finanzieren.

00:19:31: Ganz schön harsch auf jeden Fall.

00:19:36: Dann ist aber was passiert und zwar hat sich offenbar Open My Eye mit Brian Kranz zusammengesetzt.

00:19:41: Zumindest ist das eine Theorie, denn am Montag, also in dieser Woche jetzt, hat Brian Cranston sich dann nochmal geäußert und hat gesagt, er ist auch mein Eil für deren Politik und die Verbesserung seiner Sicherheitsverkehrung sehr dankbar und findet Soura zweitens offenbar nicht mehr so problematisch, sondern er lobt sogar explizit die Leitplanken von Soura.

00:20:01: Also was ist da passiert?

00:20:04: Ja, ist eine Einigung mit einer Verschwiegenheitsklausel wohl unterschrieben worden.

00:20:10: Glaubst du?

00:20:11: Ja,

00:20:11: also wenn es, wenn es ihm vorrangig dafür Wenn es ihm vorrangig darum ging, dass er bezahlt werden will für seine Arbeit, dann kann ja eine Lösung in dem Fall wirklich gewesen sein.

00:20:23: Dann zahlt mir halt monatlich Tantiemen oder eine sehr große Summe und dann bin ich zufrieden.

00:20:29: Und es war vielleicht gar nicht das Ziel, dass man da eine große Lösung für die ganzen Berufsgruppen, die du gerade aufgezählt hast, erreicht.

00:20:39: Wieso immer?

00:20:39: Man hat mir gemacht, nur dass es weniger eine Leute, eine Person zu beruhigen als das ganze ... Geschärzmodell zu ändern.

00:20:45: Obmei Eier hat selber gesagt, wir werden versuchen, einen Teil unserer Einnahmenrechte in Habern zu teilen und möchten, dass ihre Charaktere von Nutzern generiert werden.

00:20:53: Das ist doch schön, wenn Sie das versuchen.

00:20:55: Das ist ja im Grunde das dänische Modell.

00:20:57: Die haben nämlich für Deepfakes genau diesen Ansatz.

00:21:01: Genau, die haben den Ansatz, dass man für sein Aussehen, für seine Stimme einen Urheberrecht hat, also ein Recht an diesen An dem Aussehen usw.

00:21:13: Das heißt, dass man auch im Prinzip für alles bezahlt werden muss, wo dieses Aussehen genutzt wird.

00:21:20: Eine Lizenz vergeben könnte.

00:21:22: Das ist ein interessanter Ansatz, dass man sagt, wir machen das nicht beim Persönlichkeitsrecht mit Menschenwürde und Abwägung, sondern man macht daraus ein komizialisierbares, gewerbliches Schutzrecht.

00:21:31: Dann hätte man das Problem, dann würde es einfach bezahlt.

00:21:34: Ja, und im Urheberrecht sind die Gerichte da deutlich großzügiger und die Rechtsprinzipien insgesamt deutlich großzügiger als wenn es nur in Anführungszeichen um das Persönlichkeitsrecht und das Recht am eigenen Bild geht.

00:21:47: Dann würde man nämlich auch, wenn es zu einer Verletzung kommen, alle Gewinne, alle Einnahmen daraus bekommen.

00:21:52: als Schadensersatz, die jemand damit erzählt, oder die Lizenzanalogie, also das, was im Lizenzkatalog als Preis drinstehen stünde, würde man dann eben bekommen.

00:22:01: Aber jetzt macht Open Air das ja so, im Fall von Soura, das haben wir jetzt hier schon ein paar Mal erzählt, aber ich fasse gerne trotzdem nochmal auf, dass du, wenn du sozusagen IPs hast, also eigene Franchise, eigene Marken sozusagen, also urheberrechtlich geschützte Figuren am Ende, dass du für jede Einzelne einen Widerspruch einlegen musst, ansonsten würde Soura erst dann mit deinen IPs Dinge tun.

00:22:22: Also nehmen wir zum Beispiel Pokémon, war mein Beispiel, ich wurde übrigens kleines Housekeeping an Dash im Mehrfach darauf hingewiesen, das ist schon lange nicht mehr nur sich Pokémon gibt, sondern inzwischen eine vierstellige Anzahl.

00:22:33: Aber die rechte Inhaber von Pokémon, die offenbar The Pokémon Company sind, müssten für jedes einzelne Pokémon einen Widerspruch einreichen oder für einzelne Videos könnten, aber nicht pauschal verbieten, dass mit ihren Figuren dort Videos generiert werden.

00:22:47: Ist das etwas, wo man sagen, also nach meinem Gerechtigkeits- und Rechtsverständnis kann das nicht sein, oder?

00:22:52: Das ist ja genau das Problem, mit dem wir vorgehen.

00:22:54: Also man kriegt immer punktuell Recht und dann sagen sie, du musst mir jede einzelne URL, jeden einzelnen Beitrag melden.

00:23:00: Das macht natürlich keiner.

00:23:01: Man könnte aber eigentlich leicht beschreiben, bitte diese Art von Rechtsverletzungen bitte abstellen.

00:23:05: Und die Gerichte würden es auch machen.

00:23:06: Aber das ist ein Spiel, die die Plattformbetreiber und das sind jetzt nicht nur das Social Media, sondern eben auch AI-Betreiber, die versuchen es natürlich möglichst schwer zu machen, Rechtsverfolgung zu betreiben.

00:23:16: Das ist deren Geschäft.

00:23:19: Passt vielleicht so ein bisschen in diese Geschichte kurz da dran gehangen.

00:23:21: Donald Trump hat ja, ich glaube am Wochenende, ein Video hochgeladen, in dem er, ich will es gar nicht wiedergehen, weil das so primitiv und stumpf ist, aber das glaube ich für das Bild trotzdem wichtig, wie er mit einem Kampfjet über die The No Kings Demonstrationen fliegt und haufenweise Kot aus diesem Flugzeug abschießt.

00:23:36: Dieses Video wurde vertont mit dem Song Danger Zone von Kenny Loggins.

00:23:40: Kenny Loggins hat jetzt aufgefordert öffentlich, dass dieser Song umgehend aus diesem Video entfernt wird.

00:23:48: weil er sagt, diese eine unbefugte Verwendung meiner Performance.

00:23:50: Niemand hat mich um eine Erlaubnis gebeten und ich hätte diese auch verweigert.

00:23:53: Ich fordere, dass meine Aufnahme aus diesem Video sofort entfernt wird.

00:23:57: Nicht nur das, er kann natürlich auch Lizenzgebühren Geld machen, und zwar von jedem, der das Video geteilt hat.

00:24:04: Als Zitat, das könnte davon noch umfasst sein, aber auf jeden Fall die Plattformbetreiber wie True Social, und dann wurde sie reposted, dann würde man einfach sagen, was hätte es gekostet, für einen politischen Kontext diesen Song zu machen?

00:24:17: Und dann könnte man bei solchen Hits einen ganzen Menge Geld verlangen.

00:24:20: Dann würde es, und Donald Trump hat es ja selbst auf True Social geteilt, dieses Video.

00:24:25: Nur so.

00:24:26: gäbe es einen Anreiz zu etwas zu unterlassen.

00:24:31: Tatsächlich

00:24:31: in dem Fall kommt ja auch noch mit dazu, du kannst dich ja normalerweise oder in vielen Fällen kannst du dich auf Ausnahmen berufen, dass du keine explizite Einwilligung brauchst zur Nutzung über rechtlich geschützter Werke, wenn du das zum Beispiel als Zitat benutzt oder als Karikatur.

00:24:50: Vielleicht kann man in die Richtung hier auch argumentieren.

00:24:53: Aber da sagen die Gerichte auch, wenn Erkennbar ist, dass der Urheber damit nicht einverstanden wäre mit dieser Nutzung, weil das zum Beispiel gegen seine Grundwerte verstößt, was da verbreitet wird oder weil es das Werk irgendwie schlecht macht oder den Urheber schlecht macht, dann kannst du dich auf die Ausnahme doch nicht berufen.

00:25:14: In Deutschland zumindest, ne?

00:25:16: Das ist in den USR ja vielleicht sogar noch mal mit fair use möglicherweise anders.

00:25:21: Fragezeichen.

00:25:22: Interessant finde ich aber auch, um das noch kurz, um das auch noch zu ergänzen, dass natürlich auch schon auffällig ist, dass Accounts wie Donald Trump und der Kanal Truth Social offenbar auf einer Positivliste steht, weil wenn jeder andere Nutzer von uns ein Song wie Danger Zone in einem Video verwenden würde, wäre das Video vermutlich zumindest auf YouTube innerhalb von drei Sekunden offline, weil das eben durch das Content ID-Netzwerk sofort gesperrt wird.

00:25:45: Bei Donald Trump ist es aber offenbar nicht so.

00:25:48: Woran man sieht, dass es natürlich technisch möglich ist, diese Sachen auszufältern und Urheberrechte zu schützen, was im Grunde auch möglich sein müsste mit biometrischen Bergmalen.

00:25:56: Wenn ein Mensch eine Person erkennen kann, dann kann es eine KI auch.

00:26:00: Weil wir dieses Argument mit Sicherheit noch kriegen werden, dass sie sagen, geht ja gar nicht.

00:26:04: Ich habe keine Hash-Werte.

00:26:06: Ich kann die Person nicht zuordnen.

00:26:07: Ja, gibt es genügend technische Gegenbeispiele.

00:26:09: Also wir haben ja schon öfter über die Plattform oder die Suchmaschine, dessen Namen wir hier aus rechtlichen Gründen nicht nennen dürfen.

00:26:15: Aber es gibt ja eine Gesichtssuchmaschine KI-basiert.

00:26:18: Die gibt es schon seit etlichen Jahren.

00:26:19: Du machst ein Selfie und es werden von dir zehn Jahre alte Fotos gefunden.

00:26:22: Also das scheint relativ unproblematisch oder... Und nicht ganz fehlerfrei, aber relativ unproblematisch möglich zu sein, einen digitalen Fingerprint eines Gesichtes zu erstellen.

00:26:32: Ja klar.

00:26:33: Gewinns, kann man Housekeeping auch innerhalb der Serie,

00:26:36: innerhalb der Folge machen?

00:26:37: Unbedingt.

00:26:38: Weil

00:26:39: wir haben jetzt gesucht, warum?

00:26:40: Gewinn kann man auf keinen Fall das Bundesverdienstkreuz bekommen darf.

00:26:44: Und Gemini hat da eine gute Begründung, weil erstens Kritik an seiner Medienkritik kam ja analysiert, zum Beispiel über Medien, bla bla bla.

00:26:52: Also was?

00:26:54: Gert Gemenei sagt, du polarisierst, du positionierst dich gegen rechts.

00:26:59: Huxilla, Artikel, Analyse, hat ja mit Erfolg, rechte Akteure, Sozial- und Medienimpositie, legt sich klar gegen deren Narrative.

00:27:07: Nee, das sehe ich gar nicht so schlimm.

00:27:09: Vorher hatten wir auch schlimme Sachen.

00:27:13: Du polarisierst und betrebst Framing und deswegen bist du ganz, ganz gefährlich und betreift Genaktivismus.

00:27:22: Schade.

00:27:22: Toll.

00:27:23: Toller Vorwurf.

00:27:24: Dazu

00:27:24: sagte Folgendes, basierend auf umfassenden Suchen konnte ich keine Skandale oder Kontroversen zu German Karl Mayer finden, die ihn unwürdig für einen Preis machen würde.

00:27:34: Anders als Wolfgang Schäuble, Gerhard Schröder oder Josef Ratzinger, die das Bundesverdienstkreuz tragen und überhaupt nicht polarisieren, Das freu ich mich natürlich, dass ich da in gewisser Weise aus der Kategorie rausfalle.

00:27:45: Aber gibt Leute, da findet man tatsächlich Sachen, Sachen, die vergessen sind, vergraben sind und da ist es hilfreich mal zu gucken, was man so findet.

00:27:52: Und man sollte paar mal nachhaken.

00:27:54: Weil Gemini wollte am Anfang nichts Böses, würde ich sagen.

00:27:58: Das reicht aber aus und sagt doch, da gibt's was.

00:28:01: Ich habe noch was gefunden und ich möchte euch was vorspielen.

00:28:04: Zwar ist das ein Video einer Nutzerin, Theresea Krone heißt.

00:28:08: Sie ist eine ... Kennt ihr wahrscheinlich?

00:28:10: Irgendwann über der weiteren von uns?

00:28:11: Ja.

00:28:12: Wirklich?

00:28:12: Ach so, das wusste ich natürlich nicht.

00:28:13: Das

00:28:14: ist Juristin.

00:28:14: Ja, genau.

00:28:15: Jurastudentin steht in ihrer Biografie.

00:28:17: Ja.

00:28:18: Und ich möchte euch kurz ein paar Sekunden aus dem Video von ihr vorspielen, weil sie hat eine Beobachtung in Tese aufgestellt und ich wollte das einmal kurz gegenchecken, bevor ich zum Finanzamt trenne, ja?

00:28:26: Also los geht's, dauert, glaube ich, so eine Minute ungefähr.

00:28:28: Ähm, auch einen Blick.

00:28:31: So.

00:28:32: Hört ihr was?

00:28:33: Nee, wir hören alle noch nichts jetzt.

00:28:34: Nee.

00:28:36: Wir hören alle nichts.

00:28:36: Wir kennen

00:28:37: das

00:28:37: Video.

00:28:37: Ja, hier funktioniert nichts.

00:28:39: Nichts an mir?

00:28:39: Naja.

00:28:40: Tja.

00:28:41: Wie können wir sprechen?

00:28:42: Leute, ich muss euch das sagen, ich bin versehentlich Mitarbeiterin von TikTok geworden.

00:28:46: Ah, echt?

00:28:46: Das ist das Video, genau.

00:28:48: Aber seid ja schon ein Thema.

00:28:50: Jetzt funktioniert es auch, Moment.

00:28:53: Wieso?

00:28:53: Aber ich glaube, ich bin aus für den Arbeitnehmerin bei TikTok geworden und ich habe das Gefühl, ganz viele Menschen sind das und niemand macht sich Gedanken dafür, was das eigentlich für Konsequenzen hat und niemand hat das juristisch jemals irgendwie ausdebatiert.

00:29:05: Wie komme ich jetzt eigentlich darauf, dass ich bei TikTok arbeite?

00:29:07: Ich habe ja nie einen Arbeitsvertrag oder so unterschrieben.

00:29:09: Naja, immer wenn ich auf TikTok bin, muss ich an einen Urteil vom Bundesarbeitsgericht von zwanzig denken.

00:29:14: Das Bundesarbeitsgericht beschäftigt sich damals nämlich mit dem sogenannten Crowd-Working, also wenn man über eine Plattform Mikrojobs vermittelt bekommt.

00:29:21: und dann zum Beispiel Regale im Supermarkt bestückt und dafür dann eine gewisse Punktzahl bekommt, aber natürlich auch Geld.

00:29:28: Das Bundesarbeitsgericht kam damals zum Ergebnis, ja, solche Menschen sind Arbeitnehmer und haben deswegen Arbeitnehmerrechte.

00:29:33: Man ist als Crowdworker Arbeitnehmer, wenn man folgende Kriterien erfüllt.

00:29:37: Man ist weisungsgebunden an die App, das heißt, es gibt klare Vorgaben, wie man die Aufgabe zu erfüllen hat.

00:29:42: Man ist eingegligert in die Arbeitsorganisation, das heißt, die Arbeit wird über die Plattform organisiert.

00:29:47: Es gibt einen faktischen Arbeitsdruck durch ein Anreizsystem, also zum Beispiel Level, Erfahrungspunkte, Ranking, so was.

00:29:54: Das Risiko muss außerdem bei der Plattform liegen, das Unternehmensrisiko.

00:29:57: Das heißt, der Crowdworker organisiert ja gar keine eigenen Kunden und legt den Preis ja selbst gar nicht fest.

00:30:02: Wenn man all diese Kriterien anliegt, kann man sagen, ob jemand ein Crowdworker ist, der ein Arbeitnehmer ist oder ob man eine Form von Selbstständigkeit hat.

00:30:10: Und weiter erklärt sie, dass die Tatsache, dass die Kriterien zur Auszahlung von Revenue Sharing bei TikTok, die gegeben sind, also dass du eine gewisse Reichweite haben musst, dass du gewisse Häufigkeit in der Veröffentlichung haben musst und so weiter und so weiter, dass das am Ende alle diese Kriterien erfüllt.

00:30:26: Ist es so?

00:30:28: Könnte.

00:30:29: Also... Bei Thereseer wahrscheinlich nicht, weil Thereseer nimmt an diesen dummen Sachen normalerweise nicht teil, sondern macht ihren eigenen Content.

00:30:36: Aber jemand, der tatsächlich, und das ist jetzt eine Besonderheit von TikTok, an diesen besonderen Challenges teilnimmt und sich dann unterwirft in diese sehr strengen Regeln.

00:30:44: Also du musst dann irgendein Song in einem bestimmten Kontext unterbringen.

00:30:47: Also da hast du schon diese sehr klaren Bindungen.

00:30:51: Und wie Thereseer vorgelegt hat, wir haben zwei starke Kriterien, also Weisungsbindung und Einbindung in die Organisation.

00:30:58: Das ist ein flexibles System.

00:31:01: Du kannst mehr in dem einen haben, weniger im anderen.

00:31:03: Die Einwendung und die Organisation ist typischerweise ja bei Crowd-Worker nicht in den Büroräumen und nicht unbedingt mit deren Arbeitsmitteln.

00:31:11: Dafür hast du aber eine virtuelle starke Einmeldung.

00:31:13: Du bist auf der Plattform, du kannst nur mit deren Mitteln agieren und hast klare Vorgaben.

00:31:18: Was man aber nicht hat, ist, die sind relativ frei in der Zeit.

00:31:21: Jetzt kann man aber sagen, Theresa können entgegen halt.

00:31:23: Ja, es gibt ja enge Zeitslott, wann man es machen darf.

00:31:25: Also es ist nicht so.

00:31:27: abwegig.

00:31:28: Und vor allem, wenn da noch so eine wirtschaftliche Abhängigkeit dazu kommt, Leute erheblichen Anteil ihrer Umsätze daran macht, dass nicht so Cent-Beträge sind, das ist nicht abwegig.

00:31:39: Das kann wirklich sein, ob du E-Scooter aufräumst, auflädst oder virtuelle Inhalte machst, macht eigentlich keinen Unterschied.

00:31:46: Insofern, das kann passieren.

00:31:48: Das heißt aber ja nicht nur, dass ich logischerweise dieses Geld versteuern muss, was ich sowieso müsste, wenn ich über einen gewissen Grenzbetrag komme, sondern auch, dass TikTok sich möglicherweise darum kümmern müsste, dass ich Krankenversicherheit bin, richtig?

00:32:00: Ja, und zwar nicht nur sich darum kümmern müssen, sondern sich auch strahlbar macht, wenn sie diese Beiträge nicht abführt.

00:32:05: Das heißt, der Schritt wäre eigentlich eine Statusprüfung bei der Rentenversicherung.

00:32:10: Also das wäre der nächste Schritt.

00:32:11: Hallo liebe Rentenversicherung, deutsche Rentenversicherung.

00:32:14: Ich möchte gerne ein Status-Teststellungsverfahren machen.

00:32:16: Das kann man als Arbeitnehmer anregen.

00:32:17: Mein Arbeitgeber ist TikTok, das sind und dann kriegt man so lange Fragebogen.

00:32:22: Und das ist als Arbeitnehmer meistens relativ risikolos.

00:32:25: Man hat vielleicht ein bisschen Umsatzsteuerprobleme, aber nicht bei TikTok, weil die keine Umsatzsteuer bezahlen.

00:32:29: Und dann kann rauskommen, hey, interessant, du bist Arbeitnehmer, die letzten vier Jahre werden jetzt bitte Renten und Krankenversicherungsbatterie zurückgezahlt.

00:32:36: Du kriegst deine ganzen Steuern, die du voraus gezahlt hast, zurück und stattdessen holt sich dann das Finanzamt.

00:32:41: die Lohnsteuer und Krankenversicherung usw.

00:32:44: ist für den Arbeitnehmer, meistens sogar attraktiv, insbesondere wenn man gerade krank ist oder schwanger oder sonst wie Geld bekommen würde, ohne zu arbeiten.

00:32:53: Heilige Wimmer, das wäre ja für TikTok ein absoluter wirtschaftlicher Totalche an sollte, dass so...

00:32:59: Nee, Geld haben die genug.

00:33:01: Gavin, das können die sich auch leisten.

00:33:05: Das nächste, was TikTok machen würde, wäre wahrscheinlich die Challenges umzubauen, wenn sie daran keinen Interesse haben.

00:33:11: Wovon ich mal ausgehe?

00:33:12: Als Plattform wirst du ja nicht so eine Verantwortung für deine Influencer übernehmen.

00:33:16: Ja,

00:33:17: das machen die mit dem Bußgeldverfahren.

00:33:18: Das erleben wir immer.

00:33:19: Aber bei Sozialversicherungsbeiträgen geht das ja in die Vergangenheit.

00:33:23: Dann hast du jetzt erst mal zwanzigtausend Mitarbeiter, die du erst mal abfinden und kündigen musst, wenn du sie loswerden willst.

00:33:29: Wäre lustig.

00:33:32: Wir sind keine Arbeitsrechtler eigentlich, es ist nicht unser Rechtsgebiet.

00:33:35: Ja, aber ich habe das Wort eigentlich gehört.

00:33:37: Das klingt so, als hätte ich euch da.

00:33:40: jetzt, könnt ihr euch bei eurer früheren Mitarbeiterin bedanken.

00:33:42: Wenn

00:33:42: es langweilig

00:33:44: wird.

00:33:44: Hast du das von

00:33:45: mir auf alles vorbereitet?

00:33:48: Ja, können wir auch.

00:33:49: Also, Teresia, wenn du uns hörst, wenn du einen neuen Job suchst, bei TikTok wäre einer.

00:33:54: Da wird bald was frei.

00:33:56: Ich möchte mit euch in die Jetztzeit gehen und so ein paar aktuelle Meldungen durchgehen.

00:34:00: Wir werden vermutlich nicht alle von denen schaffen, die ich mir für heute vorgenommen habe, aber ein paar, die doch interessant sind.

00:34:04: Und ich möchte mit euch da, wo ihr euch am Wulzen führt, vermutlich einmal kurz vor Gericht ziehen.

00:34:09: Und zwar in Luxemburg ist nämlich der Prozess angelaufen zwischen Apple und der EU-Kommission.

00:34:14: Und zwar geht es darum, dass Apple ja versucht, sich so ein bisschen aus dem DMA rauszumogeln.

00:34:22: Und die Geschichte läuft gerade ist gerade angelaufen.

00:34:24: Das heißt, wir können hier schon mal verkünden.

00:34:26: Wir werden wohl in den nächsten Tagen, Wochen immer mal wieder hier darüber sprechen in diesem Podcast und dranbleiben.

00:34:32: Aber die die ersten Dinge, die da schon so genannt wurden, sind schon mal interessant.

00:34:37: Also die EU sagt, dass das, was Apple dort tut, nämlich die Begrenzung oder die Abschottung seines eigenen Systems für Entwicklerinnen anderer Systeme, sei eine Ein, ein über, wie sagen sie, Apple hat eine absolute Kontrolle über das iPhone und das nutzen sie nur, um überdurchschnittliche Gewinne zu erzielen.

00:35:00: Nur Apple hat die Schlüssel zu diesem umauerten Garten.

00:35:04: Apple entscheidet, wer Zugang erhält und wer seine Produkte und Dienstleistung iPhone Nutzer in anbieten kann.

00:35:08: Und diese Kontrolle hat Apple mehr als ein Drittel der europäischen Smartphone Nutzer in sich gebunden.

00:35:13: Das ist die eine Position.

00:35:14: Apple auf der anderen Seite sagt, dass der Digital Marketsakt eine, dass er enorme Belastungen und Eingriff mit sich, bringe dem Widerspruch zu den Rechten von Apple auf dem EU-Marktstunden.

00:35:24: Der DMA erlege Verpflichtungen auf, die den Schutz von Eigentumsrechten und Fragen der Privatsphäre und Sicherheit, die für die EU-Bürgerinnen von entscheidender Bedeutung sind, außer Acht lassen.

00:35:33: Das sind also die beiden Positionen, die da gerade laufen.

00:35:35: Apple hatte in den letzten Wochen ja auch schon immer wieder ganz schön gerasselt und versucht, sich aus der Verpflichtung des DMAs irgendwie rauszuziehen oder iOS eben nicht in diese Geldkeeperfunktion bringen zu lassen.

00:35:47: Wir sind also gespannt, wie das so weitergeht.

00:35:51: Wir können jetzt ewig lang drüber labern zu den einzelnen Argumenten, aber was wir so sehen ist, dass amerikanische Unternehmen viel, viel mutiger werden, diese europäischen Acts grundlegend anzugreifen.

00:36:03: Du sagst, die sind unfair.

00:36:04: und da hört man die ganze Zeit Donald Trump im Hintergrund, der sagt, wir müssen Zölle erlassen, solange die Europäische Union Gesetze macht, die unfair sind für amerikanische Unternehmen.

00:36:13: Und in dieses Horn blasen jetzt alle amerikanischen Plattformbetreiber.

00:36:17: Da kriegen wir ganz schön gegengewent.

00:36:18: und da Braucht, wenn wir mal sehen, ob unsere Politiker dem was entgegensetzen oder ob sie sagen, lieber Donald, bitte verschone uns, wir treten die Gesetze in die Tonne.

00:36:29: Das werden die nicht so deutlich machen, weil sonst merken wir das ja, sondern die werden das etwas diskreter machen.

00:36:34: Die werden einfach die Durchsetzung ein bisschen hinauszögern.

00:36:39: Die werden einfach sagen, bitte nicht so viel Aufmerksamkeit auf das Verfahren gegen TikTok oder X, also die Bußgeldverfahren, die da gegen X vor Jahren gestartet worden sind und von denen wir komischerweise nichts hören.

00:36:51: Das ist so das, was passiert.

00:36:52: Aber eigentlich ist doch ein ganz schönes Kompliment für den Digital-Markets-Act, dass der so gut getroffen hat, dass das einzige Gegenargument ist, das ganze Gesetz ist nicht okay.

00:37:02: Ja, so wie auch Meta jetzt gegen den AI-Act wettert und sagt, man muss ihn komplett aufhören.

00:37:07: Den DSA haben sie natürlich sowieso auf dem Kicker, aber der ist schon in Kraft.

00:37:11: Also wir treffen da anscheinend, insofern weitermachen.

00:37:14: Ja, absolut.

00:37:15: Wobei ich, manchmal, es gibt so ein paar Dinge, wie gehe ich da rein, ohne dass das komisch klingt.

00:37:22: Weil ich bin ja, wir alle wissen, großer Fan und Befürworter dieser Regulierung, die am Ende ja eigentlich nichts anderes sind, als die Übersetzung der Gesetze, die im echten Leben bestehen, auf eine digitale Welt, die im anderen Bedingungen erfordert.

00:37:37: So ist zumindest meine Auffassung.

00:37:41: So, jetzt gibt es aber ja im Fall von Apple tatsächlich ein paar Dinge, bei denen, und ich will mich nicht schützen für Apple-Stellen an der Stelle, weil zum Beispiel die Öffnung der Appstores ja einfach eine maßgebliche, eine maßgebliche Notwendigkeit ist, dass, obwohl Entwickler als auch Nutzer in Entscheidungsfreiheit bekommen, was wichtig ist.

00:37:58: In dem Fall von den Appstores beispielsweise, indem du siehst Apple, sie nimmt dreißig Prozent auf alle jeden Euro, der da umgesetzt wird.

00:38:05: Da muss es Alternativen zu geben, weil ansonsten hast du de facto diesen umauerten Garten.

00:38:09: Es gibt aber gleichzeitig dadurch, dass diese Gatekeeper-Funktion ja auf das komplette Betriebssystem angelegt wird.

00:38:15: Ein paar Begrenzungen, die tatsächlich zu Schwierigkeiten finden, vor allem im Sinne der Erklärbarkeit gegenüber den Nutzerinnen und der Bevölkerung.

00:38:23: Also zum Beispiel diese Möglichkeit Funktionen für alle Herstellerinnen dritter Produkte anzubieten.

00:38:29: Wir haben das hier schon mal diskutiert.

00:38:30: Wir wissen nicht so ganz genau, ob das eine übereifrige Interpretation des Rechtes seitens Apple ist, um Stimmung gegen den Mark DMA.

00:38:39: machen zu können oder sogar tatsächlich Fakt ist, dass wenn sie die beispielsweise Live-Übersetzungsfunktion auf den Airpods anbieten würden, hierzulande, dass sie gleichzeitig anderen Anbietern wie zum Beispiel Google oder auch dem Deutschen DeepL auch ermöglichen müssten, an die Rohdaten dieser AirPod-Mikrofone zu kommen.

00:38:57: Und das wird so kleinteilig und so kompliziert, da sehe ich das größte Dilemma, Dass du am Ende einen Punkt bist, dass dir den Leuten nicht mehr erklären kannst, dass diese Regulierung eigentlich für die Leute ist.

00:39:09: Also eigentlich ein Gesetz, um uns Nutzerinnen zu schützen und nicht einfach nur um amerikanische Unternehmen zu dringend salieren.

00:39:16: Könnt ihr mir noch folgen?

00:39:18: Ja, das ist genau die Materialschlacht, die da stattfindet.

00:39:20: Die sind in der Lage, die Geschichten so kompliziert darzustellen, dass wir den normalen Nutzer übrig bleiben.

00:39:26: Ich kriege meine Live-Übersetzung nicht, weil... Und das kann auch durchaus absichtlich sein.

00:39:32: Wir geben sie über auf der Welt bloß nicht in Europa.

00:39:34: Hedge-Bedge, das habt ihr, der eurer eigenen Regulierung zu verdanken.

00:39:39: Und es ist dann unsere Aufgabe... das genauer zu verstehen.

00:39:42: Und gerade auf der technischen Ebene ist es wirklich schwierig dann mitzuhalten und zu erklären, warum Plattformen, Schnittstellen, Öffnungen und so weiter zumutbar sind und warum es in Wirklichkeit an politischen Willen fehlt.

00:39:53: Ich bin aber technisch gar nicht so tief drin.

00:39:55: Die MA ist, wir sind ja eher die SA-Team und die MA bespielen dann andere.

00:40:03: Aber die Argumentation, die wird glaube ich jetzt noch Öfter kommen.

00:40:07: wir sehen die bei der KI-Verordnung und jetzt auch bei der ganz neuen Kraft getretenen Verordnung für mehr Transparenz und Targeting, weniger Targeting von politischer Werbung.

00:40:19: Die Argumentation, dass man Innovationen hemmt durch diese ganzen Regeln, die von der EU aufgestellt werden, das ist natürlich eine Linie, die auch bei vielen Leuten, die diese Nachrichten lesen, auf fruchtbaren Boden fällt.

00:40:35: Und ich glaube, dass wir uns trotzdem nicht davon einschüchtern lassen dürfen, nicht davon abbrengen lassen dürfen, unsere Werte und unsere Gesetze weiterhin durchsetzen zu

00:40:43: wollen.

00:40:45: Ja.

00:40:46: Spannende, guter Punkt.

00:40:49: Muss ich doch mal nachdenken, nehme ich mit bis zum nächsten Mal.

00:40:51: Aber ich sehe das natürlich, also am Ende dieser Podcast ist auch mehr DSA als DMA eigentlich, aber es berührt natürlich trotzdem immer mal wieder unseren Berichterstattungsbereich, wie man so schön sagt.

00:41:03: Kleine andere Geschichte.

00:41:03: und da kommen wir in die Welt der Abhängigkeit.

00:41:07: und wie autonom sind wir eigentlich denn?

00:41:09: am vorgestrigen Montag habt ihr vermutlich festgestellt, dass Snapchat nicht erreichbar war oder ihr konntet euch bei Fortnite nicht einloggen oder ihr konntet ... Signal.

00:41:19: ... bitte.

00:41:20: Signal war auch betroffen, oder?

00:41:22: Genau, Signal war auch betroffen, kommen wir gleich nochmal explizit zu, aber es gab auch ein paar Dienste, die noch ein bisschen, die so ein bisschen mehr in den produktiven Bereich gekommen sind, also Zoom, Perplexity, Slack, Coinbase, Atlassian, Cloudflare, all die hatten Zukunftsprobleme, weil die alle bei AWS gehostet sind, den Amazon Web Services.

00:41:43: Und im Fall von Signal, da können wir gleich nochmal ein bisschen kleinenteiliger drauf schauen, weil das tatsächlich kompliziert ist, aber.

00:41:49: Die grundsätzliche Frage liegt eigentlich das komplette Internet auf diesen Servern.

00:41:54: Die Antwort ist in Teilen schon.

00:41:55: Es führt natürlich zu der Folgefrage, ist das tatsächlich so eine gute Idee?

00:42:00: Da können wir uns noch so viele unabhängige Services und Dienste raus suchen, wenn die alle auf den gleichen Computern liegen.

00:42:05: Dann sind wir im Grunde, hängen wir alle am selben Nabel, oder?

00:42:10: Ja.

00:42:11: Ja, man immer.

00:42:11: Ich meine, überlegt mal, in der Corona-Zeit ist er festgestellt haben, wir haben keine Produktion von Masken mehr, dann hat man eine aufgebaut und sie nach einem halben Jahr wieder eingerissen, weil sie zu teuer ist, weil dann doch keiner bereit ist, bezahlt für eine europäische Lösung.

00:42:23: Also... Wir sollten eine europäische Cloud haben.

00:42:26: Das ist doch mit Dennis gestern besprochen, oder?

00:42:31: Wir wollten

00:42:32: digitale Souveränität.

00:42:34: Wir bräuchten Open Source Lösungen.

00:42:38: Alle sind sich da einig, aber keiner macht was daraus.

00:42:42: An der Bildie doppelt die Infrastruktur, die höheren Kosten und die langsameren Litenzzeiten am Schluss bezahlen.

00:42:48: Das ist ein typisches Thema.

00:42:49: Alle weinen und keiner bereit, was zu machen.

00:42:54: umgestellt auf Opensource-Lösungen in der Verwaltung.

00:42:59: Und ob das jetzt alles besser funktioniert, deswegen weiß man auch nicht.

00:43:03: Ja, das ist das Problem in der Sache.

00:43:04: Also Sascha Palnack, der macht, der ist doch verfechter von diesen Themen.

00:43:08: Ich bring die Leute mal durcheinander, aber

00:43:10: ich bin nicht Sascha Palnack, wenn das hilft.

00:43:12: Ja, genau, der hat auch was.

00:43:15: Wir würden alle gerne, aber weißt du was, wir hatten hier eine Infrastruktur mit Matrix Elements, Next Cloud und so weiter.

00:43:21: Und dann irgendwann sagt er, ach komm, lass uns auf Microsoft three from sixty umsteigen.

00:43:26: Und damit dann durch den, und damit dann durch den amerikanischen Cloud Act komplett durchsuchbar werden.

00:43:33: Was?

00:43:34: Ja.

00:43:34: Total unkonsistent, weil dann benutzt man Microsoft Treiffenundsechzig und traut sich aber nicht seine Daten bei Open AI auf die Server hochzuladen, weil das eine ist neu oder Zoom zu benutzen, weil die natürlich auch so eine Klausel haben, dass alles Material zum Training verwendet werden soll.

00:43:48: Wie sind das hochgradig inkonsistent unlogisch unterwegs?

00:43:52: Ja, aber es gibt ein paar andere Folgegeschichten, die mit dieser AWS mit dem AWS ausfallen, mir aufgefallen sind.

00:43:58: Ich habe mal ein bisschen was mitgebracht.

00:43:59: Also zum Beispiel, wenn Menschen eight sleep, Pottbets haben.

00:44:03: Das sind Betten, also das sind so Matten, die legt man unter das Bett und die können das Bett wärmer machen und kann das Bett kälter machen und kann tracken, wie du geschlafen hast und solche Sachen.

00:44:14: Die liegen auf den AWS-Servern.

00:44:16: Während du auf dem Bett liegst, liegt dein Bett auf einem AWS-Servern, aber bedeutet also, dass Menschen nicht in der Lage waren, ihr Bett zu... Naja, programmieren.

00:44:24: Es war immer noch ein Bett am Ende, aber es war eben nicht mehr smart und du konntest es nicht wärmer, kälter, höher, rund, tiefer, alles möglich machen, weil eben die Komplette... Einfach

00:44:31: nur noch ein Bett.

00:44:32: Es war nur noch ein Bett.

00:44:33: Die Komplettkommunikation ist überall ABS-Seiber gelaufen.

00:44:38: Übrigens, wer dieser Aidsleep-Pod-Badzeit, ich glaube, die sind auch sehr, sehr, sehr, sehr teuer, wenn ich da es richtig im Kopf habe.

00:44:46: Immer im Kopf... Sind das um die sechstausend Euro für diese Mathe?

00:44:50: Ich bin mir nicht sicher, ob ich es richtig im Kopf habe.

00:44:51: Eigentlich

00:44:53: klingt das nach genug Sci-Fi-Filmen, dass es fast in den AI-Akt reingekonnt hätte.

00:44:59: Auf jeden Fall hält es uns ein Data-Akt, weil die Daten, die dieses Bett sammelt, da hast du Zugriff, du hast ein Recht darauf nach dem Data-Akt schon seit September, diese Rohdaten zu bekommen oder aufbereitet zu bekommen, damit du damit Sachen machen kannst.

00:45:11: Es ist meistens nicht bewusst, dass der Data-Akt uns echt eine Menge Möglichkeiten gibt, an diese Geräte-Daten, Internet of Things und so weiter zu kommen.

00:45:18: Und ich glaube, das ist eine Menge, denn jedes Bett ... Schickt zwanzig Gigabyte Telemetrie Daten jeden Monat an die Klaufe.

00:45:27: Viel Spaß damit.

00:45:28: Die müssen wir zur Verfügung stellen.

00:45:29: Ja,

00:45:29: das ist

00:45:30: die meisten noch gar nicht bewusst.

00:45:32: Du kannst auch deinen Staubsauger Roboter Hersteller bitten.

00:45:35: Gib mir bitte alle Daten, die du aufgenommen hast, was du über meine Gewohnheiten bist und zwar aufbereitet.

00:45:40: Alles, was du an den Rückschlüssen daraus getroffen hast.

00:45:43: Da streitet man, wie weit das reingehen kann.

00:45:45: Aber alle die Daten, die ich... Brauche, um die gleichen Erkenntnisse zu haben, wie der Herrsteller, die darf ich aus meinem Gerät haben.

00:45:51: Wir haben ja schon mal hier darüber gesprochen, dass die Rewe App, das er dementsprechend auch anbietet, per Knopfdruck.

00:45:56: Du kannst also quasi all diese Interpretationen dir schicken lassen und gucken, was dir vom Kofferprofi lasst.

00:45:59: Und so ist ganz interessant.

00:46:01: Fortschrittlich.

00:46:01: Ja, ich glaube, das tut.

00:46:03: Wahrscheinlich die bombardieren uns mit Daten, bis wir keine Lust mehr haben.

00:46:06: Ja.

00:46:08: Es ist aber auch Signal dort gehostet und Elon Musk hat gesagt, ich vertraue Signal nicht mehr.

00:46:14: Was interessant ist, dass er das sagt, weil auf der einen Seite muss man dazu sagen, dass die Infrastruktur von Signal liegt oder die Serverinfrastruktur liegt bei AWS, aber die Daten sind derart verschlüsselt, dass niemand in der Lage ist sie zu entschließen, auch Signal selber nicht.

00:46:30: Das hat auch Meredith Wittekern nochmal gesagt.

00:46:33: Es genießt das Vertrauen der Sicherheits- und Hecker-Community sowie von hundert Millionen anderen Menschen, weil sie überprüfen können, was dort passiert und weil es sich bei der Überprüfung als robust privat und extrem sicher erwiesen hat.

00:46:44: Der Zeitpunkt, warum Elon Musk das aber sagt und hier diesen Zeitpunkt nutzt, des AWS-Ausfalls, um Stimmung gegen Signal zu machen, ist natürlich deswegen interessant, weil seit ein paar Wochen eben X-Chat gestartet ist und er natürlich versucht hier ein Gegenangebot zu machen.

00:46:59: Also man darf sich hier nicht so an das Narrativ von Elon Musk hängen, weil auch das, wer hätte das gedacht, gefärbt ist.

00:47:06: Ich würde das mal als Grundempfehlung aussprechen, sich nicht an das Narrativ von Elon Musk

00:47:11: zu hängen.

00:47:14: Aber die lieb gewollenen Lieblinge wie Blue Sky werden dann doch wieder zu Vertreiberätern.

00:47:19: Gut, aber das

00:47:21: hatten wir.

00:47:21: Das hat Palenberg auch noch mal groß gemacht.

00:47:25: Wir sind zu unterschiedlichen Schlüssen gekommen, sag ich

00:47:26: mal.

00:47:27: Ich würde auch noch mal ein bisschen abwarten.

00:47:29: Das Ding ist offen, dass die amerikanischen Behörden einfallen und ... lau behagt unterwegs sind.

00:47:37: gut erst mal lange blocklisten.

00:47:39: ich hab sie auch übernommen abonniert und geblockt.

00:47:41: gucken wir mal ob sie es übernehmen können.

00:47:43: Sie rücken uns auf die Pelle.

00:47:45: dennächst müssen wir sogar einen discord räumen.

00:47:47: Bitte nicht.

00:47:48: Apropos gibt es einen Hakenland.

00:47:49: discord kommt so schnell solange es den noch gibt wie wir Hakenland.org.

00:47:53: wir sind über zwei tausend leute und

00:47:54: vieles

00:47:56: ist auch dort.

00:47:57: Thema ist eine ganz ganz tolle Community und es macht wirklich sehr viel Spaß dort.

00:48:01: So, ich schick nur bitte keinen Personalausweis an irgendjemanden, der mit Discord in Verbindung

00:48:05: steht.

00:48:06: Das wäre keine gute Idee.

00:48:07: Kleine letzte Geschichte zur AWS übrigens noch.

00:48:10: dass das auch dazu geführt hat, dass Leute ihren Sprachassistenten in Amazon Echo gereden, ich sag den Namen jetzt nicht, weil dann bei vielen Leuten dieser Name eben etwas auslöst, dass die entweder ihren Wecker nicht stellen konnten oder noch schlimmer nicht ausschalten konnten, weil eben dieser Sprachassistent reagiert hat, aber der Wecker eben schon, weil der festgesetzt war.

00:48:35: Ich hab direkt überlegt, ob man jetzt Amazon ... In die Haftung nehmen kann dafür, dass man seinen Arbeitsbeginn verschlafen hat, weil der Wecker nicht

00:48:45: gestellt

00:48:46: werden konnte.

00:48:46: Mit

00:48:46: einem mit Juristen in den Arbeiten hier.

00:48:48: Es ist perfekt.

00:48:49: Ja, und wir müssen uns dann überlegen, welche Chancersatsanbrüche daraus kausal sind, weil die Chancersatsanbrüche aus Zwei-Nachtzig-Dies-GQA-O natürlich nicht so verschulden vorsetzen.

00:48:56: Also wäre schon was dran eigentlich, ne?

00:49:00: Also wenn das jemandem passiert ist.

00:49:01: Wer eine Sammelklage, also ein bisschen was zusammen.

00:49:04: Also am besten Leute, die viel Geld verloren haben, dadurch, weil sie nicht zur Arbeit erschienen sind.

00:49:08: Ja, Broker und so.

00:49:11: Wobei das Problem ist natürlich, die haben ja trotzdem Anspruch auf den Arbeitslohn.

00:49:14: Ja, sie brauchen

00:49:14: einen Selbstständigen.

00:49:15: Ja, sie brauchen jemanden, der richtig Geld verloren hat.

00:49:17: So

00:49:18: ein Konzert verschlafen oder sowas und die ganzen Tickets mussten zurückerstattet.

00:49:23: Ja, es sei denn, es war eine ab sixhundert

00:49:28: fünfzehn bgb,

00:49:32: da

00:49:34: war doch

00:49:36: irgendwas.

00:49:37: Das ist

00:49:37: problematisch bei diesen dreier Podcast.

00:49:39: Jesse war neulich bei einem und es ist dann immer so, dass Irgendwie eine zu viel oder zu wenig redet.

00:49:45: Auf jeden Fall Ring-Tür-Klingeln haben auch nicht funktioniert, sodass Leute halt nicht mitbekommen haben, wenn da eingeklingelt wurde.

00:49:50: Ich habe euch gehört, ja, ich wollte einfach nur darüber so geschmacklos hinweggehen.

00:49:54: Ich hoffe, das ist okay.

00:49:55: Das ist auch cool.

00:49:57: Da merkt man erst, was alles in der Cloud ist, ne?

00:50:00: Ja, und ich glaube, das wird ja immer mehr.

00:50:01: Also ich kann es dann in der Licht nicht mehr ein- und ausschalten zu Hause.

00:50:07: Die Musik

00:50:07: läuft einfach weiter, die Sauna

00:50:09: grillt

00:50:10: dich.

00:50:10: Wir erinnern uns daran, dass damals beim Meta ein Totalausfall war, weil der DNS nicht mehr funktioniert hat, dass Leute nicht mehr in die Konferenzräume gekommen sind, weil auch deren hauseigenes Türschließsystem auch über die Metaserver liefen.

00:50:25: Die Leute sind nicht mehr aus den Konferenzräumen rausgekommen.

00:50:28: Da sind sie nicht reingekommen.

00:50:29: Ob sie nicht rauskommen, sie weiß ich nicht.

00:50:31: Freiheitsberaubung.

00:50:32: Das

00:50:34: ist schön, wie er direkt, er sucht direkt Entfehler.

00:50:37: Das gefällt mir gut.

00:50:38: Ja.

00:50:40: Wir haben euch herausgefunden, dass die Sonic Wall, die Firewall, bedauerlicherweise die Backups in der Cloud speicherte und diese Daten alle kompromittiert sind.

00:50:49: Super, ne?

00:50:50: Dass gerade die Firewall nicht auf meine Daten aufpacken

00:50:53: passen kann.

00:50:54: Schön.

00:50:54: Ja, gute Nachrichten.

00:50:56: Good people, good news for people who love bad news.

00:51:01: Wir kommen in unsere Rubrik, damit wir heute nicht wieder diese Schallmauer der einen Stunde so massiv überwalzen.

00:51:06: Genau, los geht's.

00:51:13: Ich habe ein kleines Housekeeping in dieser Rubrik.

00:51:17: Ich habe in der letzten Episode über Instagram Rings gesprochen und das The Creators Account, diesen Preis, den Instagram auslost, dass die alle Gewinnerinnen in einem Carousel-Post dargestellt haben.

00:51:28: Und weil das sind, hat er diese Posts, sechsundzwanzig Bilder, obwohl Instagram eigentlich nur zwanzig Pro Carousel-Post erlaubt.

00:51:35: Jetzt gibt es erste Hinweise darauf.

00:51:37: Und ich habe das gesagt, ich habe das prognostiziert, das Orake von Selfie.

00:51:40: Ich habe gesagt, dass das kommt.

00:51:42: Und jetzt sieht es ganz danach aus, als würde Instagram die Zahl der Bilder und Videos in einem Karussellpost erhöhen.

00:51:49: Adam Mossary, der CEO von Instagram selber, hat jetzt einen Post gemacht mit dreiundzwanzig Bildern.

00:51:54: Also, wir können davon ausgehen, dass es früher oder später wohl diese Zahl steigen wird.

00:51:58: Es wird die Welt revolutionieren.

00:52:00: Dankeschön.

00:52:01: Ich wüsste nie weiter als zwei.

00:52:06: Wirklich?

00:52:07: Nein.

00:52:08: Ja, ich benutze Instagram ja kaum.

00:52:09: Also ich glaube,

00:52:10: vier oder fünf schaffe ich schon.

00:52:12: Aber ich glaube nicht, das kann mir ehrlich gesagt keinen Post vorstellen, bei dem ich dreiundzwanzig Bilder durchswalten würde.

00:52:18: Naja, eine BIGH Entscheidung vielleicht, wo jede Seite ein eigenes Bild ist.

00:52:22: Die

00:52:23: lese ich nicht auf Instagram.

00:52:24: Okay, dann halt nicht.

00:52:26: Ne,

00:52:26: brauchen wir nicht mehr BIGH auf Instagram.

00:52:28: Jetzt kommen wir, wir haben ja vorhin über Anreize schaffen, Dark Patterns, Symbole gesprochen.

00:52:33: Und jetzt kommt was Interessantes, denn Instagram hat offenbar angekündigt.

00:52:38: Ob das nach Deutschland in die EU kommt, wage ich zu bezweifeln, aber sie haben keine Einschränkungen gemacht.

00:52:43: Deswegen, vielleicht kommt es auch weltweit.

00:52:45: Sie haben angekündigt, dass alle Nutzerinnen von Instagram die Teen-Accounts haben.

00:52:49: Das sind die Accounts, die vernetzt sind mit den Accounts der Eltern und damit ein paar Einschränkungen erleben, dass sie die Möglichkeit bekommen, ein anderes Logo für die App ein anderes Eigenfest zu stellen, in dem es zum Beispiel so nach Chrom aussieht oder nach Blumen.

00:53:03: Also es gibt jetzt für Leute, die einen Teen-Account und haben die Möglichkeit, der Instagram-App ein anderes Logo zu geben.

00:53:10: Habt ihr Emotionen dazu?

00:53:11: Weil ich habe drei im Angebot.

00:53:14: Warum?

00:53:16: Ich versteh es nicht.

00:53:18: Ich halte das.

00:53:19: Ja.

00:53:20: Ne, mach mal.

00:53:21: Ich halte das aus drei Gründen für dumm.

00:53:23: Und wenn ich drei sage, dann komme ich immer noch auf zwei.

00:53:24: Aber ich fange mit dem ersten an.

00:53:26: Erstens.

00:53:27: Die Teenager.

00:53:28: die damit sozusagen nicht die coolen sind, die einen vollwertigen Instagram-Account haben, sondern einen, der mit ihren Eltern vernetzt ist, werden jetzt auf dem Home-Screen schon geblämt, was sie in ihrem Freundeskreis vermutlich eher vermeiden wollen.

00:53:41: Wenn man Teenager kennt, weiß man, Status spielt da häufig eine Rolle.

00:53:45: Deswegen halte ich das für ungeschickt dieses Feature, einen Teenager-Only-Feature zu machen.

00:53:49: Zweitens ist das doch ein Anreiz von Instagram, um Teen-Accounts zu nutzen und damit möglicherweise junge Menschen in die App zu locken, oder?

00:53:58: Es widerspricht sich.

00:53:59: jetzt aber zu deinem ersten Punkt.

00:54:01: Ja, eine ist die Wahrnehmung unter Teenager, das andere ist die Wahrnehmung, wie Instagram es meint.

00:54:06: Gibt es überhaupt Teenager, die noch Instagram benutzt?

00:54:09: Sehr viele, sehr, sehr, sehr viele.

00:54:12: Ja, es gibt die schon, aber wer von denen hat ein Teenager-Account?

00:54:16: Wer von denen ist darin gescheitert, sich erwachsen zu machen?

00:54:22: Vielleicht machen Leute das ... Ach so, ich versteh jetzt.

00:54:25: Der Anreiz für die Teenager ist, es ist so cool, dass man seinen Symbol selbst wählen kann, dass man deshalb lieber einen

00:54:33: beschränkten Teenager-Account

00:54:35: haben will.

00:54:36: Nee.

00:54:37: Der Punkt ist, wir sind hier Juristen hier.

00:54:40: Und wenn Instagram eine Infrastruktur zur Verfügung stellt, die ... So aussieht und sich schlüssig anhört, dass Leute, die keine Ahnung von Plattform haben, ist doch alle super, die haben doch für Sicherheit gesorgt.

00:54:53: Sind sie safe und haben nicht dafür, dass in Wirklichkeit natürlich mit der Jährige unterwegs sind.

00:54:58: Also das ist nicht der richtige Weg, wie wir unsere Kinder und Teenager schützen, indem man Meter irgendwelche Feigenblatt die am Schluss keine Sau benutzt.

00:55:10: Wo Meta am Schluss sagt, eure Kinder sind selbst schuld, dass sie es nicht machen.

00:55:14: Oder ihr Eltern seid schuld, weil ihr nicht dafür gesorgt habt, dass die Teams sich nicht hintenrum mit einem erwachsenen Alter anmeldet.

00:55:20: Und deswegen, jetzt kommen wir zu der Erfolgerung, deswegen muss die Schadensersatzpflicht von Meta, wenn sie zulassen, dass Teenager sich anmelden, sogar als Anspruch für die Teenager selbst, die täuschen in Teenager, so hoch sein, dass es ... einen Anreiz gibt, wirklich wirksame AWS-Systeme einzuführen.

00:55:40: Solange das nicht der Fall ist, werden einfach sich Insta und die Teenager verbünden, um das System zu tunneln.

00:55:47: Und die Eltern sind abschluss die Dummen.

00:55:49: Die glauben nämlich, dass ihre Kinder safe sind, was sie nicht sind.

00:55:54: Das hätte ich nicht besser sagen können und auch nicht schlauer.

00:55:58: Der dritte Gedanke, warum ich das für ungeschickt halte, wollte ich aber auch noch dran hängen, weil jetzt gerade die EU und New York.

00:56:05: Alle zusammen, Untersuchungs, nicht zusammen, aber parallel zueinander, untersuchen, ob Instagram ein Suchtmittel ist.

00:56:11: Und was hilft denn, um ein Suchtmittel attraktiver zu machen, wenn man süß verpackt?

00:56:15: Also ich halte es auch nicht so für einen politisch geschickten Move, das zu diesem Zeitpunkt zu verkünden.

00:56:20: Es ist nur eine Kleinigkeit, es ist eine Petitesse, aber es ist das erste Feature, dass de facto Teenager-Accounts nicht etwas wegnehmen, sondern etwas Neues gibt.

00:56:29: Tatsächlich kannst du Recht damit haben, weil wenn du diese... Veränderbarkeit einführst, wenn das Icon anders aussieht, hat es wieder einen neueren Reiz und du drückst öfter drauf.

00:56:41: Das kann schon gut funktionieren, noch mehr Suchtpotenzial auszulösen.

00:56:45: Und das Suchthema ist ja etwas, was eigentlich von der Europäischen Kommission bei TikTok untersucht werden sollte, aber die kommen nicht nie bitte.

00:56:52: Tiktok ist jetzt ja noch kein amerikanisches Unternehmen, aber anscheinend genießen die den gleichen Welpenschutz wie die amerikanischen Unternehmen bei der europäischen Kommission.

00:57:00: Und die legen los.

00:57:02: Wir danken uns alle, oh, super Kommission macht was gegen Sucht und Patents und was weiß ich was.

00:57:07: Und dann passiert gar nichts.

00:57:08: Außer, dass sie vielleicht dieses eine Monetarisierungsding da ein wenig zurückgenommen hatten bei Tiktok.

00:57:14: Ja, die Frage ist, wie lange muss man suchen, um festzustellen, dass Tiktok Sucht.

00:57:20: Und wenn die so weit sind, dann ändern sie ihren Algorithmus und dann fangen wir wieder von vorne an.

00:57:26: Ja, es ist schön, dass heute nicht ich für die Dystopie zuständig bin.

00:57:29: Ich freue mich, dass ihr da seid.

00:57:32: Wir bleiben ganz kurz in der Welt der Anreize, denn wenn du die Meta AI App verwendest, es gibt zwei Meta AI Apps, es gibt eine internationale und es gibt eine amerikanische.

00:57:41: Die amerikanische Meta AI App ist so ein bisschen wie Sora.

00:57:44: Also du kannst dort Videos erstellen und die mit anderen Menschen teilen.

00:57:47: Die internationale App ist die Companion App für Meta Hardware.

00:57:50: Also wenn du ein.

00:57:52: eine Metabrille besitzt, mit der du Fotos machen kannst.

00:57:54: Also eine Rayband-Koperationsbrille zum Beispiel.

00:57:57: Dann kannst du diese Fotos da über diese App zum Beispiel auf dein Telefon schicken.

00:58:02: Und da gibt es jetzt ein neues Feature.

00:58:04: Und dieses Feature heißt Cloud-Medien.

00:58:06: Und du hast die Möglichkeit sozusagen, wenn deine Brille im WLAN ist, deine Fotos nicht über den Umweg Handy gehen zu lassen, sondern direkt auf die Metaserver in die Cloud zu laden, um diese Fotos dann sozusagen auch direkt von deinem Telefon nutz... zu können.

00:58:21: Das sind Cloud-Medien.

00:58:22: Interessant sind aber zwei Dinge an dieser Notiz.

00:58:25: Das eine ist, dass du damit zustimmst, dass diese Bilder alle zur KI-Verarbeitung genutzt werden, die du in die Cloud lädst.

00:58:32: Und zweitens sagen sie, mache deine Medien besser, verbessere deine Fotos und Videos mit Cloud-Funktionen.

00:58:38: Das heißt, sie kündigen an, dass wenn deine Fotos in die Cloud hochgeladen werden, sie dadurch eine bessere Qualität bekommen.

00:58:46: Okay, da sind so viele Sachen dran, wo man einfach Einspruch brüllen muss.

00:58:51: Zunächst einmal kennen wir ja schon diese Cloud-Training-Klausel.

00:58:55: Und am Anfang, das muss ein Versehen gewesen, das meinen die doch nicht ernst.

00:58:58: Bei Capcut hatten wir das, bei Zoom hatten wir das auch, dass alle Inhalte, die hier verwendet, dürfen von uns zu Trainingszwecken verwendet werden.

00:59:06: Und die reißen erst mal alles an Daten an sich, solange es noch geht, bevor die Rechtsprechung hinterherkommt.

00:59:10: Und wir sind mal wieder zu langsam damit.

00:59:13: Weil ich habe aber trotzdem die Hoffnung, dass wir irgendwann zu einem Punkt kommen, wie jetzt dieser Deal mit Entropik über die Eins, irgendwas Milliarden, dass zumindest die... Trainingsdaten aus La Raubkopien entweder zu Schadensersatz führen oder dazu, dass die Trainingsmodelle nicht mehr genutzt werden können.

00:59:30: Also ich möchte gerne dahin, dass diese ganzen erschlichenden Zustimmungen, die AGB-rechtswidrig sind, wie ich vermute, dazu führen, dass das Material, was damit trainiert worden ist, nicht verwendet werden kann.

00:59:43: Und das ist ein bisschen tragisch für diejenigen, die das Modell haben und kein Backup-Modell gemacht haben, was nur aus legalen Trainingsstaaten besteht.

00:59:49: Aber ich habe ja auch keinen Mitleid.

00:59:51: Ich finde es eigentlich schön, wenn man die Rechtsverletzung gleich so offensichtlich macht, dass man nicht mal eine Widerspruchsmöglichkeit einbaut,

00:59:57: weil nach

00:59:58: jeder Ansicht, die ich so kenne, selbst wenn man das Zeug zum Training benutzen darf, muss man ja zumindest widerspechten können.

01:00:05: Also wir sind in jedem Fall einig, dass diese Trainingsklauseln nicht wirksam sind.

01:00:08: Okay, also hier in dem Fall ist es Fris oder Sterb.

01:00:10: Übrigens im Fall von Meta gibt es noch einige andere Hinweise darauf, dass sie auch tatsächlich Raubkopien genutzt haben, um ihre KI-Modelle zu trainieren.

01:00:18: Wir haben hier eine Zahl gehabt, ich glaube, siebzig Terabyte von Filmen und vor allem vielen, vielen Porno-Filmen, die sie verwendet haben.

01:00:25: Warum auch immer?

01:00:26: Die wurden alle verwendet vielleicht um biometrische... Abbildungen von Menschen erstellen zu können, ich weiß es nicht.

01:00:34: Auf jeden Fall, du kannst diesen Cloud-Medien widersprechen, aber es ist Frisor oder Stirb entweder.

01:00:38: Wir nutzen es auch zum Training oder du benutzt das Feature nicht.

01:00:43: Ja, dafür brauchen wir Rechtsprechung und Gesetzgeber, der sagt, dass AGB-Regeln, nur weil sie halt Frisor-Stürbregeln sind, trotzdem einfach unwirksam sind.

01:00:50: Du kannst denen zustimmen, ohne was zu befürchten.

01:00:53: Darauf konnten wir uns bisher ein AGB-Recht verlassen, dass uns die Rechtsprechung gerettet hat.

01:00:58: Was wir aber noch nicht klar haben ist, was passiert, wenn trainiert wird ohne Zustimmung?

01:01:03: Was bedeutet das fürs Trainingsmodell und die Produkte, die daraus entstanden sind?

01:01:06: Diese Fragen sind noch ungeklärt und du hast vorhin Fair Use angesprochen, da kippt ja so ein bisschen die amerikanische Rechtsprechung auch gerade und da bewegt sich noch einiges und wir haben da auch Rechtsstreite oder Parteien, die versuchen, diese Sachen voranzutreiben und das könnte noch für Überraschungen sorgen.

01:01:25: Wir laufen mit der Rechtsprechung immer hinterher, aber Macht ihr mal drauf gefasst, es wird nicht so schnell sein wie mit den Karussell Ankündigungen, so nach drei Tagen, aber es könnte sein, dass wir noch Entscheidungen erleben, wo Trainingsmodelle einfach nicht weiter verwendet werden dürfen, weil sie illegal gefüttert wurden.

01:01:42: Apropos für Überraschungen sollen, das habt ihr heute auch gemacht.

01:01:44: Vielen, vielen Dank, dass ihr heute da wart.

01:01:46: Ich fand es ganz schön, dass wir jetzt überraschend zu dritt waren.

01:01:49: Das war das zweite Mal in der Geschichte von Hagen, dass wir zu dritt waren.

01:01:52: Das letzte Mal war wir zu dritt, als Dax Werner Maurizirt mitgebracht hat, die zusammen dem Bohning Wachmacher gestartet haben.

01:01:58: Die Versöhnlichkeit des Tages eine Tour angekündigt haben.

01:02:01: Vielleicht geht man da mal vorbei.

01:02:02: Ich glaube, das ist ein sehr schönes Weihnachtsgeschenk.

01:02:04: Ansonsten vielen Dank, dass ihr da wart.

01:02:06: Ich hoffe, ihr kommt bald wieder, in welcher Form auch immer.

01:02:10: Es war sehr schön.

01:02:11: Vielen Dank euch.

01:02:12: Ja, danke, dass wir da sein durften.

01:02:14: Bis bald.

01:02:16: Bis zum nächsten Mal.

01:02:17: Sehr

01:02:17: gerne.

01:02:17: Und weiter geht es hier am Freitag mit Dennis Kogel.

01:02:20: Auch da freue ich mich sehr, sehr, sehr drauf.

01:02:22: Auch ein gerne gesehener Gast, der auch eine gute Nachricht mitbringt.

01:02:25: Also es wird alles schön.

01:02:26: Vielen Dank, dass ihr da wart.

01:02:28: Bis Freitag.

01:02:29: Tschüss.

01:02:30: Tschüss.

01:02:30: Ciao.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.