Ein Framework wird uns alle retten (mit Charlotte Voß)

Shownotes

Es ist also tatsächlich passiert. Die “Die Hölle friert zu”-Wochen gehen weiter, denn es scheint tatsächlich eine Art “TikTok”-Deal in den USA zu geben. Außerdem geht das Thema Kirk immer noch nicht aus unseren Köpfen (oder Musks, Bondis oder Vances) und Meta scheint bei Datenschutz und Schutz von Minderjährigen (abermals) nicht so genau hingesehen zu haben, wenn man klagenden Ex-Mitarbeiter:innen glauben darf.

➡️ Gavin für Übermedien über Internetkultur in Medienhäusern: https://uebermedien.de/109480/extrem-offline-warum-journalismus-von-der-internetkultur-ueberfordert-ist/ ➡️ Titus Blome für DIE ZEIT - “Wenn Mord zum Meme wird”: https://www.zeit.de/kultur/2025-09/attentat-charlie-kirk-kugeln-meme-internet

🗓️ Am 6. November feiern wir 500 Episoden und 3 Jahre "Haken dran" mit einem 12 Stunden-Livestream! ➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt: 00:00:00 - Hallo Charlotte! 00:01:02 - Gravierte Patronen 00:09:13 - Pam Bondi über Free Speech vs. Hate Speech 00:14:47 - TikTok-Verbot in den USA und mögliche Lösungen 00:20:29 - Cambridge Analytica: Meta-Zahlungen an Betroffene 00:23:01 - Whistleblower-Klage gegen WhatsApp wegen Sicherheitsmängeln 00:26:22 - Vorwürfe gegen Meta: VR-Inhalte & Kindergefährdung 00:30:03 - Meta Connect Leak: neue AR/VR-Brille 00:30:54 - Debatte: Sollten Medien und Regierung X verlassen? 00:35:29 - Rückblick: 3 Jahre Podcast & Ankündigung Livestream 00:37:02 - Google-KI-Übersichten und Klage von Penske Media 00:43:12 - Kontrolle, Barry Weiss & CBS 00:47:05 - Abschluss und Ausklang

Transkript anzeigen

00:00:00: Hallo Charlotte.

00:00:01: Hallo Gavin.

00:00:02: Bei mir ist heute Charlotte Foss.

00:00:03: Sie arbeitet im Audienstevelopement bei Deutschland Radio, ist immer wieder gerne hier und ich weiß nicht, wie privat das ist, wenn ich jetzt sage, du kommst quasi direkt aus dem Urlaub wieder und sitzt direkt hier bei Haken dran und machst mit mir direkt einen Rundumschlag durch die dystopische Realität.

00:00:19: Wie sehr hast du dich den ganzen Urlaub darauf gefreut?

00:00:23: Ich habe nie daran gedacht.

00:00:28: Fair, finde ich gut.

00:00:30: Wir haben in der letzten Folge mit Dennis, haben wir so ein bisschen über diese Tyler Robinson Geschichte gesprochen, den mutmaßlichen Attentäter im Fall Charlie Kirk.

00:00:38: Du merkst, ich gehe direkt Knallheit rein.

00:00:40: Wir haben keine Zeit für gute Laune.

00:00:42: Und also, das hat sehr, sehr, sehr viele Wellen geschlagen, worüber wir gesprochen haben und viele andere, weil eben diese Fassungslosigkeit unsererseits darüber, dass wenn, also... Für die, die es nicht mitbekommen haben, ich hole noch mal aus.

00:00:57: Du warst im Olaob.

00:00:57: Deswegen mache ich drei Schröte zurück.

00:01:00: Der mutmaßliche Attentäter, der den rechtsextremen Charlie Kirk erschossen hat bei einer Veranstaltung in der vergangenen Woche, hatte auf seine Munition Sätze graviert.

00:01:09: Darunter waren Sätze wie Bella Ciao oder Edad Fascist und dahinter so Pfeile.

00:01:17: Und auch noch zwei weitere.

00:01:19: Da kommen wir gleich zu.

00:01:20: Und diese beiden Sätze haben aber für viele Medien als Interpretationen ausgereicht um... Tyler Robinson in das Linksextreme Lager oder zumindest antifaschistische Lager zu verorten, obwohl es eigentlich dafür gar keine Hinweise gibt.

00:01:34: Also auf den anderen Kugeln waren, auf der dritten Kugel stand der Satz darauf, if you can read this, you are gay, oder if you are reading this, you are gay.

00:01:43: Und auf der vierten Kugel war ein Meme, das quasi kaum mit Worten wiederholbar ist, das aber mit der Furry Szene in Verbindung gebracht wird.

00:01:51: So und jetzt haben wir darüber gesprochen, wie irritierend das ja so ist, dass so diese Internetkultur.

00:01:57: in vielen klassischen Medien eigentlich überhaupt gar keine Relevanz, gar keinen stattfindend spürt.

00:02:02: Und das hat dazu geführt, dass mir extrem viele Leute geschrieben haben und ich will dazu zwei Dinge nochmal kurz als weiterführende Information an die Hörerinnen und Hörer weitergeben.

00:02:14: Zum einen gibt es einen sehr, sehr, sehr, sehr guten Text von Titus Blome in der Zeit, den ihr in den Show Notes findet.

00:02:19: Den kann ich euch allen empfehlen.

00:02:21: Und zum anderen habe ich meine Gedanken auch einmal aufgeschrieben für Übermedien.

00:02:24: Auch das findet ihr in den Show Notes.

00:02:26: So, das war zu einmal kurz im Start.

00:02:29: Aber die Geschichte...

00:02:29: Der ist englisch, sprachig, mag.

00:02:31: Ich habe was Gutes gelesen von Ryan Broderick, das habe ich

00:02:34: wahrscheinlich

00:02:35: auch gönnt.

00:02:35: Das habt ihr wahrscheinlich drüber gesprochen.

00:02:36: Den findet ihr in den Schauner zur letzten Folge, den Text.

00:02:39: Alles klar.

00:02:39: Auch sehr gut.

00:02:40: Ja, es ist schon wild, dass man so das Gefühl hat, wir sind irgendwie mit dieser Angela Merkelschen-Neuland-Theorie, fünfzehn Jahre später, immer noch nicht einen Schritt weitergekommen, ne?

00:02:52: Ich glaube, man muss ja mittlerweile schon darauf blicken.

00:02:54: Medien ist so die großen Tech-Konzerne und Facebook etc.

00:02:57: So Regulierung.

00:02:58: Das ist ja schon sehr präsent in der Kampa.

00:02:59: Auch Leute, glaube ich, in Redaktionen, die das können und sie sich damit auskennen, ist ja am Ende ein weiteres Wirtschaftsthema, diese ganze Tech-Regulierung.

00:03:07: Aber ich glaube, diese Internetkultur, auch der Begriff ist dann ja fast schon polematisch und man dann denkt, ach ja, die Internetkultur, ganz lustige Sachen, die da passieren und so, aber nicht so relevant.

00:03:17: Aber ich glaube, dafür gibt es wirklich gar nicht so viele Leute in den Redaktionen.

00:03:22: Ich fahre allgemein sehr stark in den Redaktionen.

00:03:24: Es gibt sie schon in der Zeit, offensichtlich.

00:03:27: Aber ... das ist ja so komplex irgendwie auch.

00:03:31: Und so spezifisch und so subkulturell.

00:03:34: Also diese Gaming-Szene und welche Memes ... wie der Meme von einem Meme ist und ein Code für ein Code.

00:03:40: Das ist ja so viele layers, viele Codes, wo wir auseinanderhalten können.

00:03:44: Das kann man wirklich nur, wenn man da wirklich auch mit drinsteckt und sich damit ... Ausschließlich befasst.

00:03:49: Ja, und ich will auch gar nicht sagen, dass Leute das können müssen, die in Redaktion arbeiten.

00:03:52: Aber ich glaube, man muss zumindest auf der einen Seite, das muss man den Leuten inzwischen schon vorhalten, eine Sensibilität dafür aufbauen, dass wenn du zum Beispiel vier Kugeln auf denen, also du hast vier Sätze und zwei ergeben ein Bild und die anderen beiden widersprechen diesen Bild, dann sollte eigentlich so ein erstes Störgefühl auslösen, bei dem man sagt, vielleicht sind auch die ersten beiden Sätze hier nicht so in diesem Kontext zu verstehen.

00:04:17: wie ich das hier auf erster Ebene lese und so ein bisschen Irritation auslösen.

00:04:20: Zum anderen muss man so ein Feingefühl oder so eine Sensibilität dafür entwickeln, dass es eben sowas gibt wie Memes, wie Internetkultur in denen eben die Satz-Ebene, die oberste Ebene, nicht die Bedeutungsebene, die dahinter liegt.

00:04:35: Und zum anderen ist mein Plädoyer halt, dass wir halt Du brauchst diese Expertise und die kann nicht überall in den Redaktion sitzen, aber sich darauf zu verlassen, dass die eigene Interpretation oder so eine drei-minütige Google-Recherche am Ende all diese Expertise aufwiegen kann.

00:04:49: oder noch schlimmer, aus Büchern angeeignetes Wissen über eine Kultur, die sich quasi minütlich verändert, das funktioniert, glaube ich, nicht.

00:04:57: Ja, also genau, ich glaube schon, dass man ein bisschen Expertise aufbauen kann in Redaktionen, aber vor allem, wie du sagst, braucht man die Sensibilität, dass es existiert, dass man dann eben Leute befragen muss.

00:05:06: Die ist halt wissen.

00:05:08: Man muss halt wissen, dass Internetkultur so funktioniert und dass es halt viel komplexer auch ist und dass Politische Prozesse so stark davon beeinflusst werden.

00:05:17: Das sehen wir ja schon mit dem ganzen Menospher-Thema genauso.

00:05:20: Wenn man das nicht versteht, was da passiert in der Blase, dann versteht man auch das Menospher-Thema und das ganze Lessons-Thema sage ich jetzt mal ja auch nicht.

00:05:29: Und ich glaube, das, was einfach anerkannt werden, das müssen dann auch vielleicht Menschen, die nicht so einen Zugang dazu haben oder Redakteure sagen, okay, als klarer gibt es aber etwas.

00:05:38: Dieses Phänomen muss ich davon, muss ich wissen.

00:05:40: Und ich muss diesen Einfluss begreifen, den es halt hat.

00:05:44: Und dass es eben nicht mehr so leicht ist zu sagen, das war doch links gegen rechts oder der politische gegen den politischen Gegner, sondern es gibt ja auch innerhalb der politischen Szenen dann wiederum Gegner etc.

00:05:54: und Streit und das war ja bei Kirk und Freundes genauso.

00:05:58: Das ist einfach sehr komplex geworden.

00:06:01: Ich finde es auch mittlerweile schwierig als Dornlist, dass jemanden zu vermitteln, der davon nichts versteht.

00:06:06: Ich überlege mir immer, wie würde ich meinen Eltern erklären, was ein Gropa ist.

00:06:10: I don't know.

00:06:11: Also

00:06:11: kann ich nicht.

00:06:12: Aber ich habe in dem übermedium Text geschrieben, wenn du bei UwU an Ochsenknecht denkst, dann bist du nicht dafür geeignet, über Internetkultur zu schreiben.

00:06:20: Und ich glaube, das ist halt am Ende die Essenz.

00:06:21: Dass es da nicht darum geht, dass du... Also wir müssen das unseren Eltern vielleicht gar nicht kleinteilig erklären können, sondern du musst ihnen erklären kann, dass es das gibt, dass das so ein Ding ist.

00:06:32: Genau, aber sie müssen verstehen, dass es halt nicht mehr, also man muss es wirklich machen, dass man erklären kann, es ist nicht so einfach mehr, dass man sagen kann, da waren Linke gegen Recht oder Recht gegen Link oder welche Antagulisten auch immer, sondern eben, das ist ganz komplex geworden.

00:06:46: Und es ist auch nicht mehr so einfach zu sagen, Der hat doch diese Ansicht, dann muss er doch ein Linker sein oder ein Rechter oder was auch immer, sondern dass es fragmentiert.

00:06:54: Der hat zehn Ansichten und die passen in zehn verschiedenen Milieus.

00:06:57: Ja, und es war früher halt einfacher.

00:06:58: Du wusstest, jemand trägt einen Lonstail-Polo, und dann hat er, wenn das in Deutschland passiert ist, war die Wahrscheinlichkeit relativ hoch, dass das ein rechter Skin war.

00:07:07: Wenn er dazu noch die richtige Schnürsenkelfarbe an seinen Springerstiefeln hatte, wurdest du bestätigt, und dann war die Sache eigentlich klar.

00:07:12: Und so funktioniert das ja heute mit den Coats gar nicht mehr.

00:07:14: Die sind

00:07:15: sehr komplexe Coats.

00:07:16: An sich muss man kennen, und dann sind sie ja noch komplex geworden.

00:07:19: Also wenn du Grog fragst übrigens... Wer Charlie Kirk gekillt hat, getötet hat, sorry, das war der Auto von Grog.

00:07:29: Wer Charlie Kirk getötet hat, dann wird auf Tyler Robinson verwiesen, dessen Online-Aktivität Far Right Memes und Faschismus referenziert haben.

00:07:39: Und das nutzen jetzt gerade ganz viele Leute, um sich darüber aufzuregen, dass Grog offensichtlich ... das Grog offensichtlich zu Vogue ist, weil Grog gleichzeitig Statistiken bezieht von ADL und sagt, dass seventy-fünf Prozent der extremistischen Morde in den USA von Rite Wing Actors durchgeführt wurden.

00:07:59: Und Elon Musk hat sich dafür schon entschuldigt und hat gesagt, we are fixing this cringe IDOC by

00:08:04: Grog.

00:08:05: Wo man sagen muss, was... Also...

00:08:08: Ja, es ist halt eine ideologische Plattform, was Ideologen tun.

00:08:11: Das ist wie sie, wenn wir früher, weiß ich nicht... Ein Volkstimme, was du gelesen hast, war halt klar, was da drin steht.

00:08:18: Ja, genau so ist das.

00:08:19: Und diese ganze Aneignung oder Anpassung von Grog an das politische Weltbild von Elon Musk zeigt sich in solchen Extremfällen halt noch viel deutlicher.

00:08:28: Aber diese ganze Geschichte um Charlie Kirk hat gerade auch ganz viele andere Wellen ausgelöst.

00:08:34: Erstmal im Entferntesten, was mit Social Media zu tun haben, ich will es trotzdem erzählen.

00:08:37: Ich habe eine Sache mitgebracht und zwar hören wir jetzt gleich kurz die Stimme von Pam Bondi.

00:08:42: Das ist die, wie sagt man auf Deutsch, Attorney General Staatsanwältin der Nation.

00:08:50: Wie würde man das übersetzen ins Deutsch?

00:08:51: Ich glaube, der Attorney General hat in den USA eine doppelte Funktion, ist auch Justizminister.

00:08:55: Ja, genau so.

00:08:57: Exakt.

00:08:57: Und

00:08:57: ist auch noch der, genau.

00:08:59: Ja.

00:08:59: Und wir hören immer ganz kurz rein, weil das ganz, ganz viele Sachen berührt, über die wir hier sonst immer viel sprechen.

00:09:04: Es dauert, glaube ich, keine Minute.

00:09:06: Ihr könnt aber wahrscheinlich durch dreimaliges, fünfzehn Sekunden Vorspulen wieder unszahlen, wenn ihr das nicht hören möchtet.

00:09:12: Wir werden ja liegen los.

00:09:45: Wir haben gerade Pam Bondi gehört, Attorney General, also wie du sagst in dieser Doppelfunktion Justizministerin und Generalstaatsanwältin.

00:09:54: Im Podcast von Katie Miller.

00:09:56: Katie Miller ist die Frau von Steven Miller, der einer der Berater von Trump ist und hat das weiße Haus verlassen, gemeinsam mit Elon Musk um für ihn zu arbeiten damals.

00:10:04: Das ist vielleicht ganz gut für den Kontext.

00:10:07: Und Pam Bonny sagt hier aber etwas, was hochinteressant ist.

00:10:10: Sie unterscheidet nämlich zwischen Free Speech und Hate Speech.

00:10:13: Und wenn du hast rede.

00:10:15: anwendest, dann werden wir der hinterher sein und werden das Recht durchsetzen, dass du eben nicht diese Hassrede verbreiten kannst.

00:10:24: Und das ist so interessant, weil wir sind ja in dem USA, in dem du vor einigen Wochen noch JD Vance gehört hast, der sich darüber lustig gemacht hat, dass in Europa, vor allem in Deutschland, Beleidigungen eine Straftat sei und das ja ein Verstoß gegen das First Amendment, also den ersten Verwassungszusatz sei, nachdem die Freedom of Speech die Redefreiheit so gewährleistet wäre.

00:10:45: In den USA hat man das Recht, alles zu sagen und ein Zweifel auch Menschen zu beleidigen und konnte gar nicht verstehen, warum man Menschen nach Gesetzen nicht beleidigen dürfte in anderen Ländern, weil das zum Selbstverständnis der freien Rede gehören würde.

00:10:59: Sieht offenbar die Justizministerin anders.

00:11:02: Ja, ich habe jetzt natürlich nicht mehr gehört davon außer diesen Teil.

00:11:07: Und sie sagt natürlich am Ende eigentlich jetzt Cross the Isle.

00:11:09: Also das gilt für alle Seiten sozusagen und nicht nur aus der Einrichtung.

00:11:12: Na klar.

00:11:13: Aber es ist natürlich die Frage, was man mit Hate Speech, also ist es Hate Speech, wenn es gegen Charlie Kirk oder überhaupt gegen Rechte geht?

00:11:22: Oder ist es Hate Speech, also aus welcher Richtung kommt, dann kann man so einen Begriff ja auch um widmen und den Anders besetzen.

00:11:27: Wenn die über Hate Speech reden oder über Hass reden, dann reden wir im deutschen Kontext natürlich genau oft über Volksverhetzung, Beleidigung und Rassismus oder was auch immer.

00:11:36: Und in ihrem Kontext ist das vielleicht was anderes.

00:11:40: Da kann man ja definieren, wie man möchte, wenn man viel Einfluss hat und viel Macht hat.

00:11:46: Das ist für mich die Frage, ob das wirklich so bemerkenswert ist oder ob sie halt einfach ... Weil bestimmte Dinge als Hate Speech definiert, gerade jetzt, wo es um den Tod eines recht, recht extremen Influencers geht.

00:12:04: Das ist halt die Frage, wie man so einen Begriff umwitmen will.

00:12:06: Das kann man ja auch machen.

00:12:08: Also ich meine, welchen Begriff wollte Frau Petri wieder positiv besetzen?

00:12:11: Man kann ja auch Begriffe umwitmen, wenn man möchte, oder das versuchen zumindest.

00:12:14: Oh,

00:12:15: das ist jetzt eine gute Frage.

00:12:16: Was wollte sie wieder positiv besetzen?

00:12:17: Ich erinnere mich an dieses Zitat, aber... Der Gugelschwerder?

00:12:22: Der ganze Völkisch.

00:12:24: Der Begriff Völkisch wieder positiv besetzen.

00:12:26: Ähm, klar hast du Recht, aber wenn du sagst, wir kämpfen als vor allem als politische Recht, aber auch als wahrscheinlich... alle Konservativen in den USA würden ja die Formulierung mitgehen, dass eben die Redefreiheit das First Amendment für alle und alles gilt, du kannst alles sagen.

00:12:44: In dem Moment, wo aber hier dann zum Beispiel ein Mensch, wo hemisch über ein Menschen gesprochen wird, der gestorben ist, der eben aus dem eigenen politischen Lager gekommen ist, fängt man plötzlich an darüber, das plötzlich zur Verhandlung zu stellen, das halte ich schon für bemerkenswert in dieser Situation.

00:13:03: Ja klar ist es auf jeden Fall, nur es ist natürlich ein Blick auf die Gesetzeslage, das wird natürlich immer so ausgelegt, wie es ihm passt, wie es der Administration passt sozusagen.

00:13:15: Ja, wir sind gespannt, wie es da weitergeht und ob jetzt dann auch Hausdurchsuchungen bei Leuten stattfinden, die Memes geteilt haben in den USA, würde die Argumentationsgrundlage für viele Rechte in Deutschland auch, ich sage mal, schmälern?

00:13:29: Wenn wir darüber nachdenken, wie zum Beispiel im Fall Habeck, der häufig als Beispiel genommen wird in solchen Diskussionen, sich verhalten wurde seitens der Justiz.

00:13:40: Bei interessanten Hausdurchsuchungen muss ich aber den Fall der USO-Chefin denken, statt diesem Ortsverband

00:13:46: kürzlich.

00:13:47: Für die, die es nicht mitbekommen haben, ich glaube, das fand in Menden im Sauland statt.

00:13:50: Und da ist bei der USO-Chefin eine Hausdurchsuchung durchgeführt worden, weil im Verdacht stand, dass CDU-Wahlplakate beschädigt wurden durch sie.

00:13:59: Richtig?

00:14:00: Ja, also Walpnikal beschädigt oder welche Schmierereien über Friedrich Merz, glaube ich, irgendwo angebracht wurden.

00:14:07: Und die war, wie nachher sich herausstellte, offenbar nicht rechtmäßig dieser Haussichtssuchung.

00:14:11: Ups, sorry, das kann man schon mal durcheinander bringen.

00:14:14: Passiert.

00:14:15: Das passiert schon mal, ja.

00:14:17: So, viel mehr habe ich will ich zu dem Fall Kirk und Robinson in der Stelle glaube ich auch gar nicht los werden.

00:14:22: Eine Sache aber noch die vielleicht interessant ist fürs Bild.

00:14:25: Da müssen wir nicht tief drauf eingehen, aber der Charlie Kirk Podcast oder The Charlie Kirk Show ist in dieser Woche trotzdem erschienen nicht offensichtlich mit dem Host Charlie Kirk, sondern mit J.D.

00:14:34: Vance, dem Vizepräsidenten, als Moderator dieses Podcasts.

00:14:37: Ja und es ist direkt auf einzelnen Apple Podcasts.

00:14:40: Na klar.

00:14:41: Also, was will man dazu noch sagen?

00:14:42: Wir gehen aber, wir bleiben kurz politisch und wir bleiben in den USA, denn das ist eigentlich die größte Geschichte des Tages.

00:14:48: Wir verlassen jetzt nach fünfzehn Minuten das Hausgebing.

00:14:51: Denn am heutigen siebzehnten September, jetzt quasi, wird der Betrieb von TikTok in den USA zum vierten Mal illegal, nur dieses Mal mit dem kleinen Unterschied, dass Donald Trump bislang noch kein Executive Order Wir nehmen das hier am achtzehn Uhr auf, am sechzehn September, noch keine Executive Order unterschrieben hat, die den Betrieb von TikTok weiterhin straffrei halten würde.

00:15:15: Also diese Orders, diese Decrete, die er erlassen hat, haben ja eigentlich immer nur gewisse Fristen gesetzt und der Hintergrund war ja, dass eigentlich der Plan war, dass TikTok ein amerikanisches Unternehmen verkauft werden müsste.

00:15:27: Warum hat er noch keine Executive Order erlassen?

00:15:30: Weil es ganz danach aussieht, als gäbe es hier einen Durchbruch.

00:15:33: Denn die USA und China verhandeln seit einiger Zeit immer mal wieder um ihre Handelsbeziehungen im Generellen zu verbessern.

00:15:40: Zuletzt haben sie das in Madrid getan, wenn ich mich nicht irre.

00:15:46: Und haben offenbar im Rahmen dessen auch einen Deal für TikTok herausgearbeitet.

00:15:51: Was sagen wir dazu?

00:15:51: Ein

00:15:51: Framework.

00:15:54: Ja,

00:15:54: Rahmenbedingungen.

00:15:55: Man weiß ja noch nicht so viel darüber.

00:16:00: Ja, irgendwann muss das ja mal passieren.

00:16:02: Man könnte natürlich sagen können, er verlängert jetzt die durch Executive Orders bis zum Ende, bis F vielleicht nicht nochmal Präsident ist.

00:16:09: Ich weiß es nicht.

00:16:10: Ich weiß nicht, wie ich das formulieren soll.

00:16:13: Dann möchte ich mich

00:16:13: zu sagen.

00:16:19: Ja, ist die Frage, was China da kriegt.

00:16:21: Am Ende ist es natürlich vor allem ein super großes Geschenk für Oracle, oder?

00:16:24: Ja, absolut.

00:16:24: Das ist genau das.

00:16:26: Das

00:16:26: ist ein Trump-Spender.

00:16:28: Wie dieses Framework aussieht, diese Rahmenvereinbarung, die hier getroffen wurden, wird es wohl wie folgt funktionieren.

00:16:34: Es wird ein neues amerikanisches Unternehmen gegründet.

00:16:37: Dieses amerikanische Unternehmen wird in den größten Teilen Oracle gehören.

00:16:42: Wie viele Teile wissen wir noch nicht?

00:16:43: Also alle Details sollen erst am Freitag bekannt gegeben werden.

00:16:46: Wir sind gespannt.

00:16:47: Und soll Oracle gehören, übrigens der Chef von Oracle Larry Ellison, ein Freund von Donald Trump, wer hätte das gedacht, der zwischenzeitlich kurz reicher als Elon Musk war, auch das muss man nochmal dazu sagen.

00:17:01: Also in den meisten Teilen soll es eben von Oracle betrieben werden.

00:17:04: Oracle soll aber nicht den tatsächlichen Betrieb der App.

00:17:08: anbieten, sondern sie sollen eben weiterhin die Datencenter betreiben, über die diese neue App oder alte App läuft, ob es da jetzt eine neue App geben wird oder ob das sozusagen abgeforkt wäre, ist noch nicht ganz bekannt.

00:17:21: Aber der Deal, den man eingegangen ist, ist hier, dass der Algorithmus von China geließt würde.

00:17:29: Würde bedeuten, Weiterhin würde Bite Dance, das chinesische Unternehmen hinter TikTok, entscheiden, wie dieser Algorithmus funktioniert, was darüber zu sehen ist, welche Auswahlkriterien getroffen werden und nach welcher Gewichtung.

00:17:42: Was interessant ist, ist, dass hier eine Person interviewt wurde, die gesagt hat.

00:17:49: Ich glaube, der Algorithmus ist für die Leute in Washington nicht mehr so beängstigend wie früher.

00:17:52: Die größere Sorge gilt der Datensicherheit.

00:17:55: Warum sagt diese Person das?

00:17:57: Also meine Lesart ist hier, dass die Leute, die jetzt in Washington an der Macht sind, natürlich am stärksten von diesem Algorithmus profitiert haben, weil sie im Spalten der polarisierende Kräfte sind, extremere Kräfte, die nicht zwangsläufig für eine Mäßigung in der Gesellschaft eintreten, sondern eben fürs Gegenteil.

00:18:14: Ja, definitiv.

00:18:14: Ich meine, Trump hat ja auch auf TikTok erst angefangen, relativ spät.

00:18:18: Da war es schon verboten theoretisch.

00:18:19: Genau, da war es eigentlich verboten, er nutzt es ja also auch.

00:18:23: Die Datenfrage ist natürlich weiterhin ungeklärt.

00:18:25: Das fand ich auch, das habe ich im O gelesen, dass Oracle ja auch für die Aufsicht darüber beauftragt werden soll.

00:18:32: Ja, genau.

00:18:32: Oracle

00:18:32: gibt sozusagen eine Sicherheitsgarantie für den Datenschutz der Inhalte, die auf ihren...

00:18:37: Das finde ich ja lustig, also daneben, was total krass davon profitiert, die Aufsicht zu haben.

00:18:42: Na ja, weiß ich nicht.

00:18:45: Ja, sie passen auf sich selber auf und ich pass auch wirklich auf.

00:18:49: Das hat aber in den Interessenskonflikten von Elon Musk ja auch kein Problem dargestellt.

00:18:54: Natürlich nicht.

00:18:57: Es ist aber tatsächlich jetzt am Ende offenbar tatsächlich die Lösung geworden, die auch seit einigen Monaten schon so durch die Presse gegeistert ist und über die wir auch immer wieder gesprochen haben.

00:19:06: Ein Deal, der am Ende nicht bedeutet, dass TikTok ein einen amerikanischen, echten amerikanischen Ableger bekommt, sondern bei Danz mit Minderheitsbeteiligung weiter im Game-Lest, bei Danz als chinesisches Unternehmen weiterhin den Algorithmus und damit auch sozusagen die Gesellschaft zersetzende Wirkung, die der App ja unterstellt wurde, als sie verboten wurde, weiterhin zulässt.

00:19:28: Also es ist am Ende ein Deal, der einfach wahrscheinlich so the bare minimum ist, damit man nicht das Gesicht verliert, weil man eben dieses Gesetz eben jetzt umsetzen muss.

00:19:39: dass Bipartisan, also von beiden Parteien sozusagen verabschiedet wurde.

00:19:42: Ich frag

00:19:42: ja auch jemand, für China ist ja vielleicht nicht so schlecht, aber was haben die denn, was hat hier in China noch bekommen von dem Deal?

00:19:45: Ist ja jetzt, also Zoll wahrscheinlich, ne?

00:19:46: Bewegung im Zollstreit, aber... Also Trump hat ja eigentlich... Weil jetzt auch nicht so viel... Trump hat jetzt auch nicht so viel... Trump hat jetzt auch nicht so viel... Trump hat jetzt auch nicht so viel... Trump hat jetzt auch nicht so viel... Trump hat jetzt auch nicht so viel... Trump hat jetzt auch nicht

00:19:52: so viel... Trump hat jetzt

00:19:52: auch nicht so viel... Trump hat jetzt auch nicht so viel... Trump hat jetzt

00:19:54: auch nicht so viel... Trump hat jetzt auch nicht so viel... Trump hat jetzt auch nicht

00:19:55: so viel... Trump hat jetzt auch nicht

00:19:56: soviel... Trump hat jetzt auch nicht soviel... Trump hat jetzt auch nicht soviel... Trump hat jetzt auch nicht soviel... Trump hat jetzt auch nicht soviel... Trump hat jetzt auch nicht so.

00:20:01: Wenn diese Zölle wegfallen, man müsste das mal gegengerechnet, das könnte andere wahrscheinlich viel besser als ich.

00:20:05: Ich glaube, die amerikanische Regierung hätte mit diesen Zöllen deutlich mehr mittelfristig verdient, auch wenn es wahrscheinlich massive Einbrüche der Importe und Exporte gegeben hätte, damit dass sie jetzt die TikTok durchgesetzt haben.

00:20:17: Also am Ende lacht sich China ins Volstchen, dass Trump dieses TikTok versprechen, diese App weiter betreiben zu wollen, Anfang des Jahres gegeben hat.

00:20:25: Ja.

00:20:26: Much a lot of nothing, wirklich Riesenaufrüst.

00:20:31: Interessant ist aber auch, finde ich, dass dieser Plan schon so grob umrissen wurde unter beiden noch in der beiden Regierung.

00:20:39: Und das damals.

00:20:40: aber ein ganz wichtiger Teil dieses Plans, wie er jetzt offensichtlich umgesetzt hatte, war, dass die US-Regierung ein Kill-Switch hätte.

00:20:47: Also eine Möglichkeit, diese App landesweit abzuschalten, sollten die Sicherheitsstandards nicht erfüllt werden.

00:20:53: Offenbar sieht es gerade dann aus, dass dieser Kill-Switch aus den Verhandlungen auch rausgeflogen ist.

00:20:59: Also man hat sich hier am Ende, am Ende ändert sich nicht viel, außer als amerikanische Unternehmen wahrscheinlich finanziell stärker profitieren.

00:21:05: Und das ist das, womit Trump sich brüsten wird.

00:21:08: Da hat er doch seinen Wahlversprechen eingehalten.

00:21:12: Ist ein Dealmaker, ne?

00:21:13: Leider, was soll man sagen?

00:21:16: Na ja, möchtest du mit Meter oder mit TikTok weitermachen?

00:21:18: Boah, was fühlt sich gerade mehr?

00:21:20: Ah, wo wir doch bei TikTok sind, bleiben wir doch dran.

00:21:22: Nee, X wollte ich eigentlich sagen.

00:21:24: Ich bring das schon alles.

00:21:24: Ach so.

00:21:26: Dann mit dem Meter.

00:21:27: Extra weit wie möglich rauszugehen.

00:21:29: Okay.

00:21:30: In den USA bekommen Menschen, die bis Sommer des Jahrzehntes einen formlosen Antrag an Meter gestellt haben, jetzt eine Entschädigungszahlung von Meter ausgeschüttet, weil ihre Daten im Cambridge Analytica Skandal veruntreut wurden.

00:21:45: Und zwar sage und schreibe ... ... neunundzwanzig Dollar.

00:21:51: Ja, die kannst du dann Noto-Schein vorkaufen und dann ... ... geht's weiter.

00:21:55: Oder in Meter-Aktien stecken.

00:21:58: Oh, okay, dann würde ich da

00:21:59: eher machen.

00:22:00: Wer ist wahrscheinlich gerade in der klügere Schachtzug?

00:22:03: Also ungefähr dreißig Dollar pro Person dafür, dass ihre Daten verwendet wurden,

00:22:07: um

00:22:08: Schabernack mit ihnen zu betreiben.

00:22:10: Mir wurde letztens gesagt als Feedback auf diesem Podcast, dass ich Wörter verwenden würde, die nicht meinem Alter entsprechend sein.

00:22:19: Zum Beispiel Schabernack

00:22:20: und Flunkern, habe ich wohl gesagt.

00:22:22: Ist das ironisch von dir vielleicht?

00:22:25: Das ist, wie wenn du in so einer Beziehung bist, in der man sich Schatz nennt.

00:22:27: Das ist so die ersten zwei Jahre ironisch und dann wird es normal.

00:22:30: Und so ist das mit Schabernack und Flunkern, glaube ich, auch.

00:22:34: Immer mal angefangen, weil voll funny.

00:22:37: Sleigh.

00:22:39: Aber du bist jetzt ja auch in einem Alter, wo man sich mit Weinen auskennt, das habe ich gehört.

00:22:45: In der man sich so Strickware anzieht, wie ich.

00:22:49: Ein Cardigan.

00:22:50: Excuse me.

00:22:50: Genau, ist ein Cardigan.

00:22:54: Wir müssen zu WhatsApp kommen.

00:22:56: Und zwar geht es um Atauala Bike.

00:23:00: Das ist ein ehemaliger Cyber-Sicherheitsbeauftragter von WhatsApp, der am Montag Klage gegen Meta eingereicht hat, weil er sagt, dass Meta interne Mängel in digitalen Abwehrmechanismen bei WhatsApp mutwillig unsystematisch ignorieren und damit Milliarden Nutzerinnen gefährden.

00:23:17: selber.

00:23:19: Die Geschichte ist die, er wurde entlassen.

00:23:21: Anfang des Jahres, weil er nicht den Qualitätsstandards des Unternehmens entsprochen hätte.

00:23:26: Das ist eine Geschichte, die ja gerade in den Layoffs bei Meta immer wieder genannt wurde, dass die Leute irgendwelche Ziele nicht erfüllt hätten oder nicht mehr

00:23:33: so.

00:23:34: Nicht mehr so perform wie das gewünscht ist.

00:23:35: Er war vier Jahre lang Sicherheitschef für WhatsApp.

00:23:38: und hat damals schon beobachtet, dass ungefähr eineinthausend fünfhundert IngenieurInnen ohne Aufsicht uneingeschränkend Zugriff auf NutzerInnen Daten hätten, was gegen eine Anordnung der US-Regierung verstoßen könnte, wie er gesagt hat, weil die haben damals, die haben Meter schon, eine Strafe in Höhe von fünf Milliarden US-Dollar angedroht, sollten solche Mängel nicht behoben werden.

00:24:00: Das hat er damals als Sicherheitsschrift bemängelt.

00:24:04: Während er das aber bemängelt hat, wurde dann irgendwann einfach abgezogen, er wurde ignoriert und es wurde gesagt, es ist wichtiger, dass wir hier Nutzer in den Wachstum haben, als dass wir uns hier noch länger mit so einem Quatsch wie Sicherheit beschäftigen.

00:24:16: Und deswegen zieht er jetzt in San Francisco vor ein Bundesgericht, um zu klären, dass Meta offenbar Sicherheitsmaßnahmen nicht ergreift, damit Menschen eben sicher diese Plattform nutzen können.

00:24:29: Also ich kann es nicht so richtig gut einschätzen, aber hat das Erfolgsaussichten?

00:24:33: Das kann ich auch nicht sagen.

00:24:37: Würde es uns wundern nach der Camerature Analytica-Geschichte?

00:24:40: Nein,

00:24:40: null.

00:24:40: Das kann man überhaupt nicht.

00:24:42: Das finde ich aus dem typisches Verhalten von typischer Strategie von erst mal machen und dann am Ende sagen, okay, kostet ein bisschen, tut es leid und so.

00:24:51: Aber sie profitieren ja erst mal davon, im ersten Moment von ihrem Verhalten, von Immigralverhalten.

00:25:01: Und dann kann man ja gegenrechnen, was hat den größeren Schaden.

00:25:04: Absolut.

00:25:04: Wenn es das Gericht gegen sie entscheidet, dann müssen sie wahrscheinlich eine Strafzahlung leisten.

00:25:10: Super Meter, das weh.

00:25:11: Na ja, geht so, ne?

00:25:13: So ist es.

00:25:14: Und da haben sie am Ende eher davon profitiert, dass halt die Nutzerbasis gewachsen ist.

00:25:20: Also die Klage um fast hundertfünfzehn Seiten.

00:25:23: Darin liegt Baik offen, dass er mehrfach Will Karth-Karth, das ist der WhatsApp-Chef, und Mark Zuckerberg gegenüber ernsthafte Bedenken geäußert habe.

00:25:33: die mittlerweile drei Milliarden Nutzerin hat.

00:25:34: Das ist schon eine Menge.

00:25:36: Und dass er dann eben am Ende dieses Prozesses wegen schlechter Leistungen die Kündigung ausgesprochen bekommen hat.

00:25:44: Karl Huck, das ist der Vizepräsident für Kommunikation bei WhatsApp, hat gesagt, auch da wollen wir journalistisch sauber bleiben und die Gegenposition auch darstellen, hat gesagt, das ist ein bekanntes Vorgehen, bei dem ein ehemaliger Mitarbeiter wegen schlechter Leistungen entlassen wird und damit verzerrten Behauptungen an die Öffentlichkeit geht, die die harte Arbeit unseres Teams falsch darstellen.

00:26:02: Kann man sich jetzt am Ende seine Meinung sozusagen selber bilden?

00:26:06: Ja, wir machen auch noch das Buch von Sarah Williams zu Rückdeutig Careless People.

00:26:14: Dann finde ich mir das gelesen, dann kann man sich das auch sehr gut vorstellen.

00:26:17: Ja, und wir haben eine Geschichte, die quasi so daran anschließt, die ehrlicherweise ziemlich unappetitlich wird.

00:26:22: Kleine Content-Warnung, es geht zumindest im Entferntesten um sexuelle Gewalt an Kindern.

00:26:27: Und zwar geht es darum, dass zwei ehemalige Mitarbeiter von Meta in einer eidesstaatlichen Aussage vor dem Kongress gesprochen haben, in der sie gesagt haben, dass die Virtual Reality-Produkte des Unternehmens Kinder mit nicht jugendfreien Inhalten wie Nackteitzexer in Angeboten und Live-Masturbationen konfrontiert hätten.

00:26:45: Sie haben das versucht, im Unternehmen zu untersuchen.

00:26:48: Das wurde ihnen allerdings nicht gestattet.

00:26:50: Also das Unternehmen hat sozusagen gesagt, ja.

00:26:53: Also die sind im Unternehmen sozusagen, haben das eskaliert, sind zu Entführungskräften gegangen, haben gesagt, wir stellen fest, dass wir hier VR in VR Mobbing gegenüber Kindern erleben oder sogar sexuelle Übergriffe gegenüber Kindern, dass wir hier feststellen, dass Kinder um Nacktfotos und sexuelle Handlungen gebeten werden und hiermit nicht jungenfreien Inhalten konfrontiert werden.

00:27:16: Leider durften Sie das aber nicht weiter untersuchen, sich nicht weiter damit beschäftigen.

00:27:20: Und Sie haben jetzt auch vor dem Kongress gesagt, ich würde Ihnen gerne ein Prozentsatz der Kinder in Vialen, diese Schäden erleiden, aber Meta hat uns nicht erlaubt, eine Untersuchung durchzuführen.

00:27:32: Ja, hält man auch für denkbar natürlich.

00:27:37: Weil ich denke immer so dieses... Missbrauch an Kindern etc.

00:27:42: ist ja so noch das eine Thema, wo man wirklich ja auch recht extreme oder rechte schnell am Baum sind sozusagen.

00:27:50: Also zu recht meinetwegen, aber das ist ja noch so ein Thema, so eines der wenigen Themen, womit man sich als Rechte noch beschädigen kann sozusagen, dass man irgendwie... Kindesesbrauch nicht verhindert oder irgendwas damit zu tun hat?

00:28:02: Naja, vor allem, weil sexuelle Gewalt gegen Kindern oder überhaupt alles, was mit Kindern zu tun hat, immer wieder ja auch als Vorwand genommen wird, wenn es denn gerade in den Kranpastargumentativ, um beispielsweise Datenschutz auszuhöhlen, um am

00:28:16: Ende.

00:28:16: Genau,

00:28:16: ja,

00:28:17: da können sich irgendwie alle einigen.

00:28:18: Genau,

00:28:19: genau.

00:28:20: Interessanterweise ist das hier aber jetzt so eine Geschichte.

00:28:23: im.

00:28:23: Elon Musk hatte damals die Bekämpfung dieses Materials ja auch zur obersten Priorität ernannt und seitdem massiv versagt, was die Bekämpfung dieser Inhalte angeht.

00:28:32: Am Ende muss das jetzt jemand anders entscheiden, ob das wirklich so passiert ist.

00:28:35: Auch hier der Transparenzhalber und der Vollständigkeithalber.

00:28:38: Andy Stone von Meta sagt, die Behauptungen, die hier im Mittelpunkt der Anhörung stehen, sind Unsinn.

00:28:43: Basieren auf selektiv durch gesicherten internen Dokumenten, die extra ausgewählt wurden, um eine falsche Darstellung zu erzielen.

00:28:50: Aber man muss schon sagen, dass solche Geschichten sich im Häufen, in der einfach so gerne mal so die Augen zugehalten wurden, wenn es eben um die Ermittlungen von... Sei es Datenschutz, sei es Sicherheit, sei es was auch immer geht.

00:29:03: Ja, wo auch vielleicht einfach im Konzern irgendwie was außer Kontrolle gerät, wenn man halt so pusht und sagt, wir wollen, wir wollen, wir wollen, macht mehr, macht mehr, macht weiter.

00:29:11: Alle Bereiche wie RKI, wir wollen mit allem was machen.

00:29:14: Seit aktiv bringt Leistung und dann gerät es auch mal aus Kontrolle.

00:29:17: Damit will ich die nicht im Schutz nehmen.

00:29:18: Sie müssen es natürlich spätestens, wenn sie merken, ahnten und dagegen vorgehen.

00:29:21: Aber ich glaube, das ist vielleicht auch noch mal so eine Kulturfrage, dass einem dann vieles egal ist.

00:29:27: wenn andere Ziele ganz darüber stehen.

00:29:28: Total

00:29:29: und deswegen umso wichtiger, dass es Leute gibt, die da eben gegen Vorgehen, die sich laut machen und die sich hier positionieren und auch mutig am Ende in die Öffentlichkeit treten, ob sie jetzt vor den Kongress treten damit oder vor Gericht am Ende egal, Hauptsache das Thema landet sozusagen auf dem Tisch der Öffentlichkeit.

00:29:46: Auch wenn es zu viele Themen auf dem Tisch der Öffentlichkeit gibt, als dass alle Leute über alle davon informiert werden.

00:29:51: Aber

00:29:52: jetzt würden jetzt alle Nutzer, denen davon laufen, das passiert ja auch nicht.

00:29:57: Na ja, apropos VR, es ist nicht direkt ein VR-Thema, sondern es geht um ein League bei Meta, es ist noch eine Kleinigkeit, aber in der nächsten Woche soll die Meta, nee, heute, Entschuldigung, am heutigen Mittwoch, soll die Meta Connect stattfinden.

00:30:11: Das ist die Veranstaltung bei der Meta, immer ihre neuesten Hardware-Errungenschaften im Bereich VR AR.

00:30:16: XR, whatever, vorstellt.

00:30:19: Und interessanterweise ist in den letzten Tagen schon auf dem Meta-Account Videos hochgeladen worden, auf denen eine neue Brille zu sehen war, die ein Display hat, mit dem du sozusagen während du durch diese Brille guckst, auch Dinge sehen kannst, was ein ehrlicherweise technisch schon faszinierendes Element ist, gleichzeitig aber immer auch eine Kamera und eine direkte Verbindung mit der Meta AI.

00:30:41: Konsequente

00:30:42: Weiterentwicklung ihres Portfolios aus ihrer Sicht.

00:30:45: Das

00:30:46: ist sehr schön diplomatisch ausgedrückt.

00:30:51: Wir müssen doch nochmal kurz politisch werden.

00:30:54: Ja gut.

00:30:56: Also Netzpolitik hat einen Kommentar geschrieben, in dem sie nochmal dazu aufgefordert haben, dass eigentlich alle Leute ex verlassen sollten.

00:31:04: Zum Beispiel auch die Bundesregierung.

00:31:05: und auf die stürzen sie sich als allererstes und sagen, die Bundesregierung viele Medien sind weiterhin auf der Plattform X. Was muss eigentlich noch passieren, bis sie diesem gewaltbereiten Rechtsradikalen den Rücken kehren?

00:31:16: So beginnt dieser Text.

00:31:17: Was ist passiert?

00:31:18: Elon Musk hatte am Samstag auf einer Demonstration von Tommy Robinson, der ähnlich heißt wie.

00:31:25: Tyler Robinson, aber in Großbritannien sitzt und dort ein bekannter Rechtsradikaler ist gesprochen und hat dort so Sätze gesagt, wie die Leute müssen sich wehren, sie müssen endlich zurückschlagen und hat sozusagen einen Aufruf zur Gewalt geleistet.

00:31:39: Ich spare jetzt den Ton im Original, ihr könnt euch in etwa vorstellen, wie das klang.

00:31:43: Aber die Frage, die wir hier auch immer wieder diskutieren und die sozusagen am Ende fast Geburtslegitimation dieses Podcasts war, ist ja, Was muss eigentlich noch passieren, damit wir Ex-Verlassen, damit Leute Ex-Verlassen, damit Medien schaffende Ex-Verlassen, damit der Bundeskanzler Ex-Verlässt, die Tagesschau, die Zeit, der Spiegel, das sind die Outlets, die hier auch genannt werden in dem Text.

00:32:08: Was muss noch passieren?

00:32:11: Ja,

00:32:12: also

00:32:14: bei den Medien weiß ich auch nicht, was die hält.

00:32:17: Also gerade bei öffentlichen, die auch kein Geld verdienen müssen.

00:32:20: Ich weiß jetzt nicht, ob ... jetzt bei Spiegel und Zeit noch viel darum kommt an Klicks auf ihre Webseiten über X, ich bezweifle es.

00:32:29: Bei Medien weiß ich es auch nicht, kann ich es auch nicht so richtig erklären, aber ich glaube schon, dass sich gerade eine konservative Bundesregierung in so einer Kulturkampfstimmung von rechts gegen links nicht vorwerfen lassen möchte, dass sie Den links woken mob nachgibt und sich von der plattform vertreiben lässt nur weil da irgendwie was nicht so läuft wie sich die linken das vorstelle.

00:32:55: ich überspitze jetzt also da könnte ich konservativ wir politische aktöre so würde ich mir das erklären warum die das nicht tun.

00:33:02: also so ein voraus allen gehorsam sag ich mal halt da bleiben damit sie sich da nicht angreifbar machen und auch noch im rechten lager so ein bisschen fischen können und sich ja.

00:33:13: Und bei Medien, ich meine natürlich, klar, bei Medien ist es natürlich auch Teil der Logik vielleicht.

00:33:18: Ich glaube, auch da sind viele ängstlicher geworden und sagen vielleicht, ja, ich will aber nicht, dass die recht gleich umherum kloppen.

00:33:24: Also, komm, bleiben wir da doch, frisst doch kein Brot, hat doch nix.

00:33:29: Ist ja auch die Frage, was für einen Plus hätte, wenn jetzt die Zeit oder der Spiegel da weggehen.

00:33:37: Wahrscheinlich sehen sie sich wirklich vor, wir sind ausgesetzt, aber es ist ja auch okay, das muss man dann einfach aushalten.

00:33:43: Ja, ich, also ... Ich würde mich nicht der Illusionen geben, dass das irgendetwas verändern würde, wenn diese großen Medien ex verändern.

00:33:49: Aber es ändert etwas, dass sie dort sind.

00:33:52: Und ich glaube, das ist der Unterschied.

00:33:53: Also dort weiter zu publizieren und dort Anreize zu liefern, das zu nutzen und jeden Tag zu öffnen, weil man denkt, ich krieg meine Nachrichten da.

00:34:00: Sonst mach ich ja gar nix auf ex.

00:34:03: Ich lese ja nur, was die Tagesschau da postet oder die Zeit oder wer auch immer.

00:34:07: Selbst wenn das vielleicht größtenteils automatisiert dort sogar sein könnte.

00:34:11: Das sind ja alles so... Anreize, die man nicht liefern muss, finde ich.

00:34:16: Und ich würde sagen, das ist eine andere Legitimation oder eine andere Rechtfertigung.

00:34:21: Man kann sicher darüber diskutieren, ob öffentlich-rechtlichen Medien noch auf TikTok sein sollten oder noch auf Meta sein sollten.

00:34:27: Aber da hast du eine andere Legitimation, nämlich durch die Nutzerinnenzahlen.

00:34:34: Und die erreichst du mit extra annähernd gar nicht mal annähernd, wenn du sie vergleichst mit TikTok oder Instagram.

00:34:40: Ich glaube auch gar nicht, dass die harten Argumente so sehr dagegen sprechen, weil die finden es für mich auch total klar.

00:34:46: Aber wie gesagt, dieses Gefühl von, wenn wir das jetzt machen, dann kriegen wir da irgendwie so eine PR-Welle im negativen Sinne.

00:34:53: Möglicherweise kann ich mich schon vorstellen.

00:34:57: Ja, verstehe ich auch.

00:34:59: Aber ich finde es nicht gut.

00:35:00: Ich finde es nicht richtig.

00:35:01: Aber ich glaube, das könnte der Treiber sein bei manchen.

00:35:03: Ja, verstehe ich.

00:35:05: Also wir ... Wir erzählen hier gefühlt seit drei Jahren dasselbe.

00:35:10: Mein erster Auftrag in diesem Podcast war, glaube ich, genau dieses Thema.

00:35:14: Sollten Medien.

00:35:16: Soll ich dir

00:35:17: das sagen?

00:35:18: Meiner auch.

00:35:20: Also ja, wir schauen einfach mal, wie sich das so weiterentwickelt.

00:35:25: Übrigens, drei Jahre, um dazu noch kurz eine Sache zu sagen, wir werden jetzt bald drei Jahre alt.

00:35:29: Also die erste Episode ist, glaube ich, Ende September erschienen.

00:35:31: Das wissen die Hackieste draußen deutlich besser als ich.

00:35:35: Und dann, oh, da habe ich noch

00:35:36: einen... Ende September, noch vor der Übernahme durchgemacht?

00:35:39: Nee, die war dann, glaube ich, schon durch.

00:35:40: Warte mal, hacken.

00:35:41: Die

00:35:41: war bei den Oktober, Manni.

00:35:42: Kann ich das schnell abrufen?

00:35:44: Manni, erste Folge erschienen.

00:35:45: Das ist jetzt die spannende Frage.

00:35:47: Wahrscheinlich nicht.

00:35:51: Seit der achten vierzehn, ich muss jetzt auf Seite achten vierzig scrollen, aber.

00:35:56: Oh nee, fünfzehnte November, fünfzehnte November, zweitausendzeinzwanzig.

00:36:00: Was sich gut trifft, weil am sechsten November, zweitausendzwanzig, also in diesem Jahr, am sechsten November, machen wir einen zwölfstündigen Livestream.

00:36:09: Könnt ihr dann auf www.hacknern.org zuschauen, wir werden in dem Rahmen die fünfhundertste Episode aufzeichnen und werden so ein bisschen den ganzen Tag lang die letzten drei Jahre feiern und Quatsch machen.

00:36:19: Ihr werdet anrufen können und sowas alles.

00:36:21: Das ist so der Plan.

00:36:22: Also kommt da vorbei.

00:36:23: Und das andere ist, muss ich kurz sagen, weil ich gerade die Haki's erwähnt hab und wie, also das sind ja Leute, die diesen Podcast regelmäßig hören, dreimal die Woche die ganze Zeit machen, die sich auch im Internet noch darüber austauschen, indem sie über solche Themen sich austauschen und Ahnung haben.

00:36:36: Das tun sie in der Regel bei Discord.

00:36:38: www.hakenran.org ist dieser Discord-Kanal.

00:36:40: Und da haben wir die zweitausend Anmeldungen geknackt.

00:36:45: Das wollte ich gut sagen.

00:36:46: Wenn ihr zu den ersten drei tausend Nutzer in einem Gehirn wollt, kommt schnell.

00:36:50: Weil die ersten zwei tausend sind die schwierigsten, sagt man.

00:36:53: Sagt man.

00:36:54: Sagt man.

00:36:54: Gut.

00:36:57: So.

00:36:58: Wir kommen zu einem anderen Thema und zwar müssen wir kurz über die Google KI Übersicht sprechen.

00:37:02: Ein Thema, über das wir hier schon häufiger auch gesprochen haben, weil eben viele publizistischen Outlets, Medien Outlets darüber klagen, dass sie dem Google viele Suchen anreichert mit eben dieser KI Übersicht über den ersten Ergebnissen, den Leuten der Traffic-Werkbericht.

00:37:17: Ich weiß nicht, also bei mir ist es so, wenn ich bei Google eingeloggt bin, kriege ich nach wie vor keine KI Übersicht.

00:37:21: Ich weiß nicht, warum.

00:37:23: Nie.

00:37:24: Bitte?

00:37:24: Nie, wirklich gar nicht.

00:37:26: Gar nicht, ich habe das nicht.

00:37:27: Komisch.

00:37:28: Vielleicht bin ich in der Testgruppe, die Traffic Mist.

00:37:30: Vielleicht muss ich einfach noch viel mehr auf Artikel klicken.

00:37:33: Aber wir haben hier mal eine Umfrage durchgeführt.

00:37:36: Achtzig Prozent der Leute, die da an der Umfrage teilgenommen haben, haben diese Kaübersicht, zwanzig nicht.

00:37:41: Weiß nicht, ob das so repräsentativ ist, aber naja, auf jeden Fall klagt jetzt das erste Unternehmen gegen Air For Bed, das Unternehmen hinter Google, wegen dieser Kaübersicht.

00:37:51: Und zwar geht es um Panske Media.

00:37:52: Das ist der Eigentümer von Rolling Stone, Billboard, Hollywood Reporter und weiteren Medien.

00:37:57: Und die sagen nämlich, und das finde ich eine sehr interessante Zahl, sie sagen, zwanzig Prozent der Google suchen, die eine Website von Penske zeigen würden, haben eine KI-Übersicht.

00:38:10: Heißt, dass sie davon ausgehen, dass wenn dieser Prozentsatz weiter steigt, deren Einnahmen dadurch einbrechen.

00:38:16: und deren Hauptargumentation ist, aber eine über die wir ja auch schon mal so grob gesprochen haben, sie sagen, dass Google illegal die Inhalt alte derer Websites nutzen, um ihre KI damit zu trainieren und quasi mit Inhalten auszustatten.

00:38:30: Denn du kannst nicht einfach so per opt out sagen, bitte trainier meine deine KI nicht mit meinen Inhalten, aber liste uns weiter in den Google Suchergebnissen.

00:38:37: Das funktioniert mir als ein bisschen anderes Modell als im Training von klassischen Chatbots, bei denen du sozusagen die Chatbots aussperren kannst über Robots, sondern diese KI-Übersicht scheint tatsächlich sich aus den Suchanfragen oder Ergebnissen der Suchanfrage zu speisen.

00:38:50: Das heißt, Entweder wirst du bei Google nicht mehr gefunden oder du trainierst oder gibst Antworten mit in diese KI-Versicht rein.

00:38:58: Und das sieht Penske Media hier zum Anlass, vor Gericht zu ziehen und zu klären, ob das jetzt ja eigentlich in Ordnung ist oder nicht.

00:39:06: Also ich meine, es erinnert dir alles an so diese alten Debatten um das Leistungsschutzrecht, wenn man so an die deutschen Verlage denkt, damals oder an die europäischen Verlage, die ja schon mit den Vorschauen von Google unter den Links nicht einverstanden waren.

00:39:19: Untergegen vorgegangen sind.

00:39:21: Insofern könnte man als denken, früher mal Zeit, dass man draufkommt, dass das noch schlimmer ist als das, was die damals bemängelt haben.

00:39:28: Kleidzeit ist natürlich eine andere Realität, in der wir leben.

00:39:31: Und die befassen sich selbst auch viel mit KI, die Verlage.

00:39:33: Ich meine, Springer hat mit Chachibitin abkommen und et cetera.

00:39:37: Hey, Bild.

00:39:39: Genau, hey, Bild.

00:39:42: Also ... Ich glaube nicht, dass das nach langfristig die Wirkung haben kann, die man sich davon verspricht.

00:39:50: Ich finde es irgendwie gut und nachvollziehbar, dass die es tun.

00:39:54: Weil es ja nun mal so ist, dass gut für die anderen mit Geld, dass Menschen ihre Suchmaschine benutzen und diese Inhalte, die man da liest.

00:40:02: Also ich kenne es von mir, ich benutze diese, ich habe ja diese Übersicht, wie ich das zu dir... Natürlich ließ man oft kurz erst mal nur, wenn man nur so eine ganz grobe Info haben will.

00:40:12: So, wie alt ist der noch mal?

00:40:13: Oder was ist das noch mal?

00:40:15: Dann klickt man nirgends wo drauf.

00:40:16: So, wie man mehr wissen will.

00:40:18: Und oft muss man ja auch hinterfragen, was da steht in den Übersichten.

00:40:21: Das kommt ja noch hinzu.

00:40:21: Das ist ja ein nächstes Problem-Thema.

00:40:24: Aber ich finde es noch verziehbar, dass sie es nicht gut finden.

00:40:29: Und dass es ihr Geschäftsmodell angreift.

00:40:31: Ich frage mich nur, ob der richtige Move ist, das Geschäftsmodell zu verteidigen oder sich zu überlegen, wie sie es retten können anders.

00:40:37: Weil ich hab den Eindruck, dass die Verlage damals sowohl in der Leistungsschutzrechtfrage als auch in der Presse-Ähnlichkeitsfrage gegen den öffentlich-rechtlichen Geschäftsmodelle verteidigt haben, die eigentlich keine Zukunft mehr hatten.

00:40:49: Ja, wobei man, ich glaube, es gibt noch, aber trotzdem, einen kleinen Unterschied zum Leistungsschutzrecht.

00:40:53: Und jetzt sprechen das Denken.

00:40:55: Ich weiß nicht, ob ich am Ende des Satzes nach derselben Meinung bin.

00:40:57: Wir haben anfangen, aber mal sehen.

00:41:00: Wir sprechen ja hier darüber, dass Google nicht darin, also im Leistungsschutzrecht ging es darum, dass die Rechteinhaber dagegen geklagt haben, dass Auszüge ihres Inhalts genutzt wurden, um eine Suchübersichtseite damit anzureichern, auf die Leute dann geklickt haben, weil diese Auszüge darunter standen.

00:41:23: Bedeutet also, sie haben hier versucht, das ist jetzt so meine persönliche Lese, hat persönliche Meinung, es gibt glaube ich Leute, die sind da andere, aber... Sie haben also am Ende versucht, aus der wichtigsten und größten Trafficquelle, die Sie haben und damit auch größte Einnahmequelle für digitales Einkommen sozusagen, haben Sie versucht da auch noch Geld rauszuschlagen.

00:41:46: Weil Sie gesagt haben, wenn ihr uns hier Listen wollt, dann wollen wir dafür Geld haben.

00:41:50: Wohlwissend würden Sie da nicht mehr gelistet werden, hätten Sie ein ganz anderes finanzielles Problem.

00:41:54: Hier sprechen wir aber darüber, dass Google weiß, dass Sie dieser Traffic-Lieferant sind für Medienschaffende.

00:42:01: und medien marken und das aber jetzt gerade offenbar selber abschwächen oder selber so ein bisschen einschränken indem sie sozusagen die leute eben nicht mehr direkt auf die webseite führen sondern ihnen alles das geben was sie haben wollen so dass sie nicht mehr klicken müssen.

00:42:15: das heißt bei der beim leistungsschutzrecht war ja der punkt medienhäuser haben davon ja profitiert dass sie gelöst

00:42:22: wurden.

00:42:22: das ist hier bei der kis summary ais summary überhaupt nicht der fall sondern das ist einfach nur ein modell.

00:42:28: google sagt okay wir nehmen eure inhalte Und zeigen die auf unserer Website, also hier müsste man eigentlich über Leistungsschutzrecht diskutieren und nicht bei diesen Auszügen damals.

00:42:36: Ja, ja, genau.

00:42:37: Das meine ich, aber man sagt, wie lange bis da mal einer klagt.

00:42:41: Aber offensichtlich ist man dann nicht mehr so auf dem Kriegsfuß mit den Konzernen, sondern hat sich halt einfach für den Jahren auch angenähert und viel gemeinsam schon

00:42:51: gemacht.

00:42:52: Ja, oder man hat halt jetzt so ein bisschen die Gewissheit, dass sie am längeren Hebel sind.

00:43:02: was auch nicht gut ist, glaube ich.

00:43:08: Um ganz kurz noch so, ich habe noch so ein dystopischen Kram hier rumliegen, wo man so schlechte Laune kriegt.

00:43:15: Möchtest du das trotzdem?

00:43:18: Wir gehen kurz in die Medienwelt der USA.

00:43:22: Wir haben Anfang des Jahres super viel darüber gesprochen, wie die Demokratie in den USA ausgehöhlt wird, sich verändert.

00:43:30: Spürbar sich verändert und jetzt müssen wir kurz darüber sprechen, dass wir ja also der Medienkonzent Paramount Zudem auch der Sender CBS News zum Beispiel gehört, der wurde ja vor einigen Wochen verkauft.

00:43:43: Im Rahmen dieses Verkaufes musste die US-Regierung, sie musste ihm zustimmen, diesen Verkauf, weil dieser großer Verkauf war.

00:43:48: Und daraufhin hat CBS News jetzt angekündigt Kenneth Weinstein, ein Leiter eines konservativen Thinktanks als Ombudsman einzustellen, der sozusagen überprüft, ob es vor Eingenommenheit in der Berichterstattung von CBS gibt, dieser Think Tank und diese Person Weinstein ist allerdings gleichzeitig eine Person, die eigentlich aus dem Trump-Umfeld kommt.

00:44:09: Das heißt, sie haben sich jetzt hier jemand als Medienhaus von Trump hingesetzt, damit diese Person guckt, ob die Berichterstattung auch so ist, dass sich daran niemand stößt.

00:44:18: Sonst wäre der Deal wahrscheinlich nicht zustande gekommen, oder?

00:44:20: Also dann hätte

00:44:20: ich

00:44:20: die Rede und dem nicht zugestimmt.

00:44:22: Wahrscheinlich ja.

00:44:23: Also es gab so ein paar Auflagen, die in so eine Richtung gingen, aber man muss trotzdem sagen, das ist eine... Entwicklung, die am Ende dazu führt, dass die Medien in den USA eben nicht mehr frei und unabhängig berichten können.

00:44:33: Nee, kontrolliert komplett.

00:44:34: Hermann, gleicher Konzern, der ja auch den Late Night House Sieben Colbert entlassen hat zum kommenden Jahreswechsel, der ja durchaus als ein sehr lauter und scharfer Kritiker Donald Trumps gilt.

00:44:46: Definitiv.

00:44:48: Ja, das hat eine ganz klare Richtung.

00:44:49: Ja, und es gibt noch weiter.

00:44:51: Es gibt auch eine neue Person, die bei CBS jetzt publizieren darf und dort stattfinden darf.

00:44:58: Und das Barry Wise.

00:44:59: Ich weiß nicht, ob du dich noch am Barry Wise erinnerst.

00:45:01: Barry Wise ist eine der Autorinnen der Twitter Files gewesen und ist eine Journalistin, die früher für die New York Times geschrieben hat, die dann aber verlassen hat, weil sie gesagt hat, dort herrsche linke Zensur.

00:45:12: Auch das ist einer der Schritte, die einem der größten Medienkonzerne der USA jetzt gerade erleben.

00:45:19: Ja, so ein bisschen Playbook, wie man Medien übernimmt und überwandert sozusagen.

00:45:25: Wo macht man das?

00:45:26: Wenn man die Gelegenheit hat, stößt man rein, macht den Auflagen, bedrängt sie, bedroht ihre Existenz.

00:45:33: Und dann

00:45:34: sind sie irgendwann da, wo sie gar nicht mehr existieren bräuchten, weil sie dann Propagandaorgan irgendwann werden.

00:45:40: Ja, ganz genau.

00:45:41: Das ist der Weg.

00:45:43: Also, ich wollte eigentlich, wir wollten versöhnlicher und freundlicher eigentlich immer diesen Podcast nach Hause fahren, aber irgendwie... Kriegen wir das einfach nicht hin?

00:45:52: Also ich habe sogar noch eine Elon Musk Geschichte hier über seine Tesla Milliarde und so.

00:45:58: Also kann ich auch noch kurz erzählen, wenn du Lust hast.

00:46:00: Jetzt sind wir doch eh schon in der Stimmung.

00:46:02: Jetzt

00:46:02: ist doch eh schon alles egal.

00:46:04: Also

00:46:04: Elon Musk soll ja ein Vergütungspaket in Höhe von einer Billion Dollar bekommen.

00:46:08: Ein Tausend Milliarden Dollar.

00:46:10: Dafür müssen allerdings die Aktionärinnen zustimmen.

00:46:12: Und der Tesla-Wert von Tesla, der Aktienwert von Tesla muss zum gewissen Anteil steigen.

00:46:17: Ich glaube, er muss sich verachtfachen in den nächsten fünf Jahren oder zehn Jahren sogar.

00:46:22: Und Elon Musk hatte jetzt mal so kurz den Fuß ins Wasser gehalten, was er eigentlich tun kann, um diesen Aktienkurs zu verändern und hat jetzt für eine Milliarde Dollar selber Tesla-Aktien gekauft und damit den Kurs um sechs Prozent nach oben steigen lassen innerhalb von kürzester Zeit.

00:46:35: Also... Auch die Marktmanipulation ist ja noch ein großes Thema.

00:46:41: Ja, er braucht das Geld.

00:46:42: Dann ist er keine Marktmanipulation.

00:46:44: Ja,

00:46:44: er braucht das Geld.

00:46:45: Er braucht halt das weitere Geld.

00:46:46: Ja,

00:46:47: klar.

00:46:47: Nachher überholt ihn der Oracle-Chef wieder als reicher Mann.

00:46:50: Das geht ja nicht.

00:46:52: Ja, so eine Million da.

00:46:53: Ja, es ist halt ein Spielfeld für ihn.

00:46:56: Wenn du das Geld hast, wenn du dieses Geld hast, dann ist alles ein Game.

00:46:59: Dann ist alles ein Game.

00:47:01: Ach man, jetzt enden wir doch so düse.

00:47:03: Hast du irgendwas Versöhnliches zum Ende?

00:47:04: Hast du im Urlaub ein gutes Buch gelesen oder so?

00:47:06: Oder einen guten Wein getrunken, den du uns empfehlen kannst?

00:47:13: Nee, einen guten Käse, der

00:47:15: wurde

00:47:15: entdeckt.

00:47:17: Der heißt Songphilisieren.

00:47:20: Ein Weichkäse aus Rangreich.

00:47:21: Gut, mit dieser Empfehlung.

00:47:24: Gehen wir jetzt und freuen uns, dass es vielleicht Freitag alles ein bisschen versöhnlicher, ein bisschen fröhlicher wird.

00:47:30: Ja,

00:47:30: das ist die Welt eine ganz andere, glaube ich.

00:47:32: Ja,

00:47:32: da wird alles anders.

00:47:33: Bis Freitag wird alles ein bisschen besser.

00:47:34: Jetzt ein TikTok-Deal, da ist einfach blöde Landschaften.

00:47:40: Okay.

00:47:40: Freitag gibt es blühende Landschaften bis dahin.

00:47:42: Gibt es aber noch ein bisschen Regenwetter.

00:47:44: Und danke trotzdem, dass du hier warst.

00:47:46: Es war so schön, Charlotte.

00:47:47: Ich freue mich, wenn du bald wieder kommst.

00:47:49: Am Freitag kommt Dominik Hammes immer wieder.

00:47:52: Also eine Zeit lang war der gefühlt jede Woche hier.

00:47:53: Und jetzt haben wir in Ewig nicht gehört.

00:47:55: Ich freue mich, was der so erzählt und wünsche dir ja und allen, die bis hin zu gehört haben.

00:47:59: Eine wundervolle Restwoche.

00:48:00: Passt auf euch auf und wir hören uns Freitag.

00:48:02: Tschüss.

00:48:03: Macht's gut.

00:48:03: Tschüss.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.