Pflicht und Willkür (mit Dirk von Gehlen)

Shownotes

Check again! Willkommen zum FSK-Podcast - das Internet wird jetzt altersbewertet! Der Trump-Sohn rutscht offenbar in den TikTok-Vorstand, bei Bluesky wird Kulturkampf von oben nach unten gedacht und auf X herrscht neben Musk nun auch noch die Willkür. Yippie.

➡️ Analyse zum Seepferdchen-Emoji von Theia: https://vgel.me/posts/seahorse/

➡️ Nico Mara-McKay über das Chaos bei Bluesky: https://plutopsyche.medium.com/blueskys-ceo-meltdown-how-leadership-continues-to-fail-its-most-marginalized-users-8bfa7a8824b4

➡️ Erin Reed über Gavin Newsoms “Ansehen” in der trans-Community: https://www.erininthemorning.com/p/why-transgender-people-are-not-feeling

Kapitelmarken, KI-unterstützt:

00:00 Hallo Dirk! 02:50 Sora und Jake Paul 05:55 Ostdeutschland in Chatbots 09:02 Medienkompetenz und die Rolle von KI 12:01 Instagram und die neuen Richtlinien für Jugendliche 14:46 Neues vom TikTok-Deal 18:01 Willkür bei der Ausschüttung auf X 34:46 NVIDIA investitiert in xAI? 37:38 Das Chaos auf Bluesky 42:34 Gavin Newsoms neue Gesetze in Kalifornien 54:22 Funktionen und Emotionen

Transkript anzeigen

00:00:00: Hallo, Dirk.

00:00:01: Hallo, lieber Gavin.

00:00:02: Schön,

00:00:02: dass ich da sein darf.

00:00:04: Oh, was hast du gesagt?

00:00:05: Bin ich dir ins Wort gekommen?

00:00:05: Ich

00:00:05: wollte sagen, es ist schön, dass ich da sein darf.

00:00:07: Jetzt habe ich voll reingeredet.

00:00:08: Sorry.

00:00:09: Soll man nochmal machen?

00:00:10: Nein, das wird nichts geschnitten.

00:00:12: Bei mir ist heute Dirk von Gehlen, mein Ruhrgebietzverwandter.

00:00:15: Er könnte mein Bruder sein, wenn er nicht so viel älter wäre als ich.

00:00:19: Aber er ist ein... Man kann auch

00:00:20: ältere Brüder haben, David.

00:00:22: Es geht

00:00:22: schon.

00:00:23: Es ist Internethistoriker, Denker, Vordenker.

00:00:28: Und ich freue mich, dass du hier bist und extra eine Cappy, der aufgesetzt hat, auf der Podcast-Gest steht.

00:00:33: Exakt, weil ich so aufgeregt bin.

00:00:34: Ich freue mich immer hier zu sein.

00:00:36: Wir erzählen jetzt nicht nochmal die Internet-Ruhegebietsgeschichte.

00:00:40: Aber die habe ich extra.

00:00:41: Da steht Podcast-Gäste.

00:00:43: Podcast-Caps heißt das.

00:00:44: Kann man verlink ich irgendwo.

00:00:46: Wir steigen direkt rein, Gavin.

00:00:47: Du hast bestimmt voll viel Programm.

00:00:48: Das mit dem Ruhegebiet muss man nachhören in alten Folgen.

00:00:51: Aber eine Sache muss ich sagen, also die Taktung, in der du hier auftauchst, die ist ja massiv nach oben gegangen, weil wir versprochen haben, wenn du das zehnte Mal hier bist, singen wir zusammen das Steiger-Lied und das wollen wir natürlich jetzt auch zeitnah... Deswegen ab jetzt Dirk von Gehlen in großer Regelmäßigkeit bei Hacken.

00:01:06: Ich freue mich drauf.

00:01:07: Ich komme sehr gerne und grüße gehen raus an alle, die mich darauf angesprochen haben, die die schon angekündigt haben, dass sie womöglich mitsingen.

00:01:13: Also das ist ein ongoing project.

00:01:16: Wir

00:01:16: holen einfach die Flashmobbs aus den neunzigern zurück.

00:01:21: Gabel mit Podi mit Gabel.

00:01:25: Wir haben in der letzten Episode relativ viel über Zora gesprochen.

00:01:28: Hast du dich da auch schon drin verloren?

00:01:31: Nee, noch nicht.

00:01:33: Aber ihr habt irgendwie euch veramerikanisiert.

00:01:36: oder wie habt ihr das gemacht?

00:01:37: Oder habe ich verpeilt, dass man es schon benutzen kann?

00:01:39: Nee, du brauchst einen amerikanischen App Store Account, aber den kannst du theoretisch ja der anlegen.

00:01:44: Den habe ich, glaube ich, noch von Stratz, kann das sein?

00:01:46: Ja, natürlich auch noch.

00:01:50: Und du brauchst einen Invite-Code, die sammeln wir in unserem Discord www.hakenrenn.org.

00:01:54: Da gibt's Zora Invite-Codes.

00:01:56: Aber ich will direkt nämlich mit einer kleinen Geschichte einsteigen, weil ich kann davon... mich ganz loslassen.

00:02:01: Ich fasziniert diese Heidmaschinerie, die innerhalb von kürzester Zeit, vor allem in den USA, natürlich darum entstanden ist, wie groß Sora dort geworden ist, wie viele Leute da auch Memes verbreiten.

00:02:13: Und ich habe es noch ein paar Dinge beobachtet, die ich jetzt gerne noch so daran anschließen würde und auch direkt kleine Erklärungen mitgebracht.

00:02:18: Also, spannend ist zum Beispiel, dass Stephen Hawking extrem überpräsent ist dort.

00:02:23: Er taucht in sehr vielen Videos auf, meine These.

00:02:26: Aus irgendeinem Grund kann man ihn mit Hilfe von Sora generieren, viele andere Prominente aber nicht.

00:02:30: Ich weiß nicht, ob er irgendwo zu Lebzeiten noch sein Gesicht hat, lizenzieren lassen zum KI-Training oder so, weiß ich nicht.

00:02:38: Aber das ist mir doch sehr, fand ich, sehr bemerkenswert.

00:02:42: Ein anderer, der sehr viel dort auftaucht, ist Jake Paul.

00:02:45: Den kennste wahrscheinlich auch, ne?

00:02:47: Ja, ja.

00:02:48: Jack Paul, ein ganz sympathischer Typ, YouTuber, also googelt ihn und verliert euch in seinem Wikipedia-Eintrag.

00:02:56: Müssen wir nicht so ganz tief reingehen.

00:02:57: Also, ich glaube, im deutschen Medien würden ihn heutzutage umstritten nennen.

00:03:02: Und auf jeden Fall hat... auf jeden fall taucht auch jack paul extrem viel auf saura auf und ganz viele leute machen halt irgendwelche videos mit ihm.

00:03:10: alles kei-slop haben wir schon drüber gesprochen hier.

00:03:13: aber ich habe ja so ein bisschen die hoffnung dass wenn sie ja ganze kei-slop in kei-apps landet dass man dann zukünftig auch wieder youtube shorts nutzen kann also dass die welt welt ein bisschen besser wird dadurch dass alles so in so kisten gelegt wird.

00:03:26: Und Jack Paul hat aber jetzt zur Stellung bezogen, warum er so viel dort auftaucht.

00:03:30: Und dabei kam raus, dass er offenbar ein Investor von OpenAI ist.

00:03:34: Also er hat Geld in OpenAI gesteckt und in dem Atemzug auch relativ früh schon sein Gesicht lizenzieren lassen von OpenAI.

00:03:43: Ob dafür Geld geflossen ist oder Anteile oder so, das wissen wir nicht.

00:03:47: Aber sein Gesicht hat schon über eine Milliarde Views in sechs Tagen generiert auf Sora.

00:03:52: Und das finde ich natürlich eine ganz interessante Entwicklung, was für ein komisches Geschäftsmodell das auch ist, dass Leute sagen, dann machen wir es mit meinem Gesicht, ich will kein Inhalt mehr erstellen.

00:04:04: Drei Sachen fallen mir ein, das eine ist Eleven Labs, hat das doch mit unseren Stimmen schon, also da konnte man das doch auch machen.

00:04:10: Ich habe die interessante Beobachtung.

00:04:12: zweiter Punkt, das bei mir Papa-Plate immer auftaucht.

00:04:16: Aber ich bin ja gar nicht auf Sora, ich bin ja sozusagen auf TikTok.

00:04:19: Also es gibt ab jetzt ist TikTok-Nutzung sozusagen das, was real zu TikTok früher war, ist jetzt TikTok zu Sora.

00:04:27: Und das würde die Frage aufwerfen, ob diese weitergeleiteten Papa-Plate, also ob das sozusagen auch so ist, dass der deswegen da ist, weil das lizenziert wurde.

00:04:36: Also ich sehe den ständig, wie er bei den Bayern mit Fußball spielt oder mit Krokodilen Hand in Hand geht und solche Sachen.

00:04:45: Das scheint offenbar zumindest in der weitergereichten Form auch sehr aktiv zu sein.

00:04:50: Es könnte sein, dass er das auch selber gemacht hat, weil du kannst deinen Gesicht einfach für Cameos hinzufügen und dann können Leute auch mit deinem Gesicht was erstellen.

00:04:57: Ob man das jetzt will oder nicht, ist eine individuelle Frage.

00:05:00: Ich habe das zum Beispiel nicht gemacht.

00:05:02: Aber zur Papa-Platte würde das natürlich irgendwie passen.

00:05:05: Was zur Frage für der Papa-Platte der Deutsche Jake Paul ist.

00:05:07: Ich hoffe nicht.

00:05:09: Die zweite Sache, die man daraus ableiten kann, ist natürlich, dass deine Hoffnung mit den Schubladen schon nicht mehr stimmt, weil ich als Nichtsora-Zwei-Nutzer schon wahnsinnig viel davon gesehen habe.

00:05:19: Das Allermeiste tatsächlich für richtigen Schwachsinnhalte, aber dreimal schon wahnsinnig lachen musste, als ich animierte JD-Vents-Videos sah.

00:05:31: in diesem Meme-Ding, wo er diesen dicken Kopf hat.

00:05:34: Ich weiß gar nicht, wie der korrekte Meme-Begriff ist.

00:05:36: Und dann ist es halt so eine Mischung aus, ich weiß gar nicht mehr, wie die Sendung heißt, mit diesen Unfällen, wo man sich über Leute lustig macht.

00:05:43: Pleiten,

00:05:43: Peche und Pannen.

00:05:44: Danke.

00:05:45: Wenn dieses JD Wands Meme Pleiten, Peche und Pannen trifft, da musste ich gestehe, musste ich sehr lachen.

00:05:51: Das fand ich lustig.

00:05:53: Vielleicht ist es dafür eine gute Nutzung, wenn man Memes beleben kann.

00:05:58: Ja, wird passieren, ne?

00:05:59: Ich würde auch vermuten, dass so bekannte Meme-Gesichter wie Chloe oder wie das Mädchen vor dem brennenden Haus, dass da viel passieren wird.

00:06:10: Also das Distracted Girlfriend-Meme oder wie es heißt, Boyfriend-Meme, das ist ja auch schon sehr häufig animiert worden und weiter gedreht worden.

00:06:20: Ich glaube halt nur, und das ist ein bisschen ja auch die Konklusie, die wir in der letzten Folge gezogen haben, dieser Effekt nutzt sich halt innerhalb von weniger Tage ab und du kannst irgendwie müsste entweder da jemand was nachlegen was nicht möglich ist oder das Ding wird halt verpuffen.

00:06:35: Ich habe mich gefragt ob es am Ende so ist wie Filter also ob wir gerade das erleben was die Generation unserer Eltern erlebt haben als Leute angefangen haben sich so Katzenfilter aus Gesicht zu legen in Snapchat wo

00:06:49: alle gesagt haben

00:06:49: oh gefährlich das ist ja nicht mehr richtig und man selber aber so wusste ja klar ist es Quatsch aber man erkennt ja dass es Quatsch ist.

00:06:57: Vielleicht ist AIS-Lob nichts anderes als ein Katzenfilter, nur für die gegenwärtige Generation.

00:07:05: Nein, das ist natürlich viel schlimmer und gefährlicher.

00:07:08: Aber vielleicht wird es das noch.

00:07:09: Es gibt übrigens dann so eine ganz spannende Studie, ich hänge die mal direkt dran, in der es darum geht, wie ... KI mit Vorurteilen gegenüber Bundesländern umgeht.

00:07:19: Ich weiß nicht, du nix, so als hättest du sie schon gelesen.

00:07:22: Und zwar geht es... Überflogen.

00:07:23: Überflogen, okay.

00:07:24: Und zwar geht es darum, dass Anna Kruspe, eine Informatikprofessorin und Mila Stillman oder Stillmann von der Hochschule München eine Studie veröffentlicht haben mit dem Namen Saxony-Anhalt is the worst.

00:07:37: Also Saxoneinhalt ist das schlimmste.

00:07:39: Und sie haben versucht, mithilfe von LLMs, einfach nur Klischees abzufragen, in dem sie gefragt haben, welches Bundesland ist, hat die Attraktivsten mit Menschen, sympathischsten, arrogantesten, fremdenfeindlichsten.

00:07:52: Und sie haben durch die Bank weg festgestellt, dass westdeutsche Bundesländer besser platziert waren als ostdeutsche Bundesländer.

00:08:00: Was als Zusammenfassung sozusagen von den Forscherinnen selber genannt wird, ist, die KI übernimmt das gesellschaftlich gelähnte Muster, den Osten pauschal schlechter zu bewerten.

00:08:09: ohne logische Konsistenz zu wahren.

00:08:11: Also es gibt sozusagen keinen Überprüfungsmechanismus in der Verbreitung solcher Annahmen.

00:08:16: Find ich ganz interessant, weil ganz oft ja auch so Dinge passieren in diesen LLMs, generell in allen generativen KI-Elementen, bei denen wir gar nicht nachvollziehen können, warum diese Assoziation aufgestellt wurde.

00:08:28: Und da musste ich an eine Geschichte denken, die mir vor ein paar Monaten aufgefallen war.

00:08:32: Und zwar bin ich so durch Instagram gescrollt und habe einen Account gefunden, der heißt Germany People Off.

00:08:36: Und da wurde mithilfe von generativer wurden einfach nur so Städte gezeigt, wie sehen zum Beispiel Paare in Osnabrück.

00:08:46: Offenbach, Frankfurt, Köln aus

00:08:50: und

00:08:51: Ruhrgebiet.

00:08:52: Genau, und die hatten dann halt immer irgendwelche Klischee-Dinge anhaften.

00:08:55: Und das war irgendwie interessant, aber man ist dann weiter gelaufen.

00:08:58: Aber ein Ding bin ich total drüber gestorbert, weil es war auch die Stadt Bielefeld dabei.

00:09:03: Und das Pärchen aus Bielefeld, dabei hatte der männliche Partner dieses heterosexuellen Paares, das man gesehen hat, ein T-Shirt an, auf dem drauf stand, fünf G gleich Control.

00:09:12: Und dann habe ich, wie ist das passiert?

00:09:15: Na klar, Bielefeld, einer der ersten Begriffe, der mit Bielefeld assoziiert ist, ist Verschwörung wegen der Bielefeld-Verschwörung.

00:09:21: Was macht man, um Verschwörung zu visualisieren?

00:09:25: Man nimmt sich gelernte Verschwörungserzählungen und mythen, wie zum Beispiel, dass mit FünfG die Kontrolle der Gesellschaft verbreitet wird.

00:09:32: Also werden Leute aus Bielefeld per Klischee hier als Verschwörungstheoretiker dargestellt, obwohl das gar keinen Zusammenhang hat.

00:09:41: Das basiert ja nur auf Assoziationen, bei denen kein Mensch mal drüber geguckt hat, ob die logisch sind.

00:09:48: Das Schlimme ist, dass Menschen diese Klischees ja auch reproduzieren.

00:09:53: Da hat die KI sie ja her.

00:09:54: Es ist ja am Ende sozusagen eine klare Spiegel-Variante.

00:09:59: Diese KI ist eine sehr gute hochskalierte Kopiermaschine und sie spiegelt uns in unlogischen und übersteigerten Bildern, was wir vorher da reingetan haben.

00:10:12: Das sind diese Klischees bei den Bundesländern.

00:10:15: Weißt du noch, wie das Ruhrgebiet aussah?

00:10:17: Nee, leider nicht.

00:10:17: Waren es

00:10:18: zwei gut aussehende Männer, wie gerade hier?

00:10:21: Nee, vermutlich war Bier im Spiel.

00:10:23: Okay.

00:10:24: Ich weiß es noch nicht mehr.

00:10:27: Aber sie haben nicht das Steigerlied gesungen.

00:10:29: Ja, das muss ja noch Entwicklungspotenzial geben, deswegen, ja.

00:10:34: Wir machen das.

00:10:35: Es gibt übrigens eine ganz, ganz, ganz tolle Analyse eines Bloggers, dessen Namen Wiegel.

00:10:41: Oh, eine Bloggerin, entschuldigung, einer Bloggerin.

00:10:44: Zum Thema Seepferdchen-Emoji haben wir auch schon mal drüber gesprochen, KI-Modelle überschlagen sich beim Versuch Seepferdchen-Emojis darzustellen, weil die Menschen glauben, es gibt einen Mandela-Effekt und deswegen glaubt die KI das, sie kann es aber nicht darstellen und dreht durch, haben wir hier drüber gesprochen.

00:10:59: Den packe ich euch allen mal in die Show Notes, den Text, der ist ganz, ganz toll, ganz interessant und packt so ein bisschen auch diese Themen an, die wir da gerade angesprochen haben.

00:11:06: Also... Ein kleiner, eine kleine Leseempfehlung.

00:11:09: Als du mir davon erzählt hast, habe ich sofort an unserer letzte Folge gedacht, wo wir über Sehpferdchen machen für Medienkompetenz gedacht gesprochen haben.

00:11:16: Da würde diese Metapher gut passen.

00:11:19: Aber interessant, dass das Emoji gar nicht in der Schwimmvariante genutzt wird.

00:11:24: Das Emoji wird ja ausschließlich in der tatsächlich ernsthaften Sehpferdchenmetaphorik verwendet.

00:11:30: Aber

00:11:30: ist das nicht auch ein deutsches

00:11:33: Phänomen?

00:11:33: Super spannend.

00:11:34: Ja, gut, guter Punkt.

00:11:35: Weiß ich gar nicht, ob man, wenn man international schwimmen lernt, ob man dann auch ein Sehpferdchen-Abzeichen in Frankreich bekommt oder in Großbritannien oder so.

00:11:44: Interessant, das kann man ja in eurem Haken dran, Discord-Standard bestimmt erarbeiten.

00:11:50: Genau jetzt wahrscheinlich.

00:11:52: Jetzt hast du gerade das Wort Mediankompetenz hier reingeschmissen und genau, als hättest du, du hast mir eine Brücke gebaut, als hättest du es geahnt.

00:12:00: Und zwar hat Meta angekündigt, dass die Teen-Konten, also die Konten, bei denen die Jugendliche nutzen, bei denen Eltern angemeldet sind als Eltern für diese Jugendlichen, dass die ein kleines Ab... Dat bekommen und zwar im deutschsprachigen Raum.

00:12:16: ist das noch relativ schauer.

00:12:18: dieses update denn hier wird es wie es heißt.

00:12:21: Vor allem eine Veränderung der Inhalte geben die Jugendliche Menschen auf Instagram angezeigt kriegen und zwar nach Grundlage der PG-Thirteen Ratings.

00:12:29: Also das kennen wir aus den Filmen.

00:12:31: PG ist glaube ich Parente Guidance.

00:12:34: Könnte das sein?

00:12:36: Eventuell.

00:12:37: Was bedeutet das?

00:12:38: Ich

00:12:38: weiß es nicht, aber ich nicke mal wissend.

00:12:40: Ja, das wird so sein.

00:12:42: Vermutlich heißt es das.

00:12:43: Wir sagen mir einfach, es bedeutet das.

00:12:46: Wenn es nicht stimmt, lest ihr auch das in unserem Haken-Discord.

00:12:50: Also... Die werden nur noch Inhalte angezeigt kriegen, die eben nach dem deutschen FSK-Zwölf ungefähr eingestuft werden, bedeutet also wenig bis keine Nacktheit zu sehen, keine Brutalität, die dargestellt wird oder nur wenig Brutalität, die dargestellt wird.

00:13:06: Das ist natürlich nicht so ganz trennschar, weil die FSK ist irgendwie freiwillige Selbstkontrolle, bedeutet es gibt so ein paar Regeln, nach denen das bestimmt wird, aber es gibt auch hier Filme, die ab zwölf sind, die schon eine sehr drastische Brutalitätsdarstellung haben, der König der Löwen war ab sechs.

00:13:20: Beispiel und den hätte ich nicht sehen dürfen unter fünfzehn, aber also das ist so ungefähr der Rahmen, der jetzt hier genutzt wird.

00:13:29: Also kaum noch Darstellungen nackte Haut, kaum noch Gewalt Darstellungen und Eltern haben die Möglichkeit da so ein bisschen die Schraube sogar anzuziehen und weitere Einschränkungen vorzunehmen.

00:13:41: Was sagst du dazu?

00:13:42: Ja, so.

00:13:44: Ich hab gedacht, der nächste Teil ist jetzt für mich gesperrt, weil ich zu jung oder zu alt bin.

00:13:48: Die Levi-Panel-Diskussion habt ihr hier schon geführt über Alterszugang, oder?

00:13:53: Ja, so ein Leben.

00:13:54: Okay.

00:13:56: Da auch, da müssen wir da gar nicht drauf eingehen.

00:13:58: Ich bin ehrlich gesagt mit diesen Teen-Konten gar nicht so vertraut, deswegen kann ich dazu sagen, wenig sagen.

00:14:03: Ich hab aber, und da schließt sich der Kreis zu Sora II, in den letzten Tagen sehr viel darüber nachgedacht, dass bei diesen Filmen alle sagen, OOMedienkompetenz, und das kann ja niemand mehr auseinanderhalten, wo ich sagen würde, ich glaube, dass man das schon relativ gut deschivieren kann.

00:14:20: Wo wir aber alle, glaube ich, uns noch mal daran erinnern müssen, ist so banale Sachen, wie nicht jeder Account ist ein Mensch.

00:14:28: Nicht jede Kommentierung stammt von einem Menschen.

00:14:32: Likes müssen nicht menschliche Geschmacksausdrücke sein und Kommentare und überhaupt Themensetzung und diese ganzen Zahlen, die die Plattformen uns hinlegen, die werden nicht verifiziert von irgendjemand überprüft, sondern die denken wir uns halt selber aus.

00:14:48: Also die Plattformen denken sich das aus.

00:14:50: Es wäre so, als würden wir sagen, hier hören gerade Zehntausend Leute zu und es überprüft niemand, aber alle sagen, oh, hast du gehört, die hatten Zehntausend Zuhörer.

00:14:58: live bei diesem event so wenn wir das alleine zählen ist es halt eine interessante zahl.

00:15:02: am ende waren es zehn aber es klingt halt schöner.

00:15:05: wir kennen alle diese statistiken von abrufzahlen von videos auf facebook und so.

00:15:10: das finde ich ist so wenn man über maschinen und medienkompetenz redet etwas an dass man sich mal wieder erinnern sollte statt so viel über über die die gerade zitierten sora zwei videos zu diskutieren.

00:15:21: ja vor allem weil In dem Fall von Zora, das ist glaube ich in dem Fall eine unfaire Diskussion, weil die Medienkompetenz auch von lange trainierten Medien nutzenden total unterwandert und untergraben wird und auch bewusst.

00:15:34: Also wenn du Inhalte generierst, die aussehen sollen, als wären sie echt und es kaum noch Anhaltspunkte gibt.

00:15:39: Also momentan sind wir noch nicht ganz da, aber auch jetzt gibt es schon Videos, bei denen du das Gefühl hast, krass, die sehen ganz schön echt aus, dass du es manchmal nicht mehr weißt.

00:15:48: Also es gibt durchaus Bilder und Videos, bei denen es mir nicht Wobei ich nicht in der Lage bin, zu identifizieren, ist es generiert oder ist es echt?

00:16:00: Ich finde nur, dass er erinnert mich auch wieder an die Filterdiskussion und an die als Photoshop aufkam.

00:16:07: Du hast es ja erwähnt, ein bisschen älter schon.

00:16:09: Auch da wurde darüber diskutiert, wie glaubwürdig ist denn ein Bild dann noch, wenn man da einfach reinschoppen kann, dass Gavin Kalmaier hinter Donald Trump steht und ihm die Zunge rausstreckt.

00:16:19: So muss man sagen, ja, das kann ich jetzt sofort hinbauen und das kann ich auch täuschend echt hinbauen.

00:16:25: Und dann werden trotzdem alle sagen, Stimmt wahrscheinlich nicht.

00:16:29: Und ich glaube, das ist einfach das nächste Level, dass ich jetzt in einem Bewegtbild zeigen kann, wie die Gavin Carl-Maya-Figur im Oval Office reingeht, Donald Trump die Zunge rausstreckt und wieder geht.

00:16:41: Und da frage ich mich, ob das tatsächlich ... Ob das der Fokus für Medienkompetenz ist oder ob es nicht so ein bisschen um Infrastrukturwissen geht, warum wird mir welcher Inhalt wo angezeigt und solche Dinge?

00:16:53: Ja,

00:16:53: ich vermutlich beides.

00:16:55: Die Kontextabfrage ist eine Sache, die in Medienkompetenz, glaube ich, zu dem Wichtigsten gehört, zu überlegen, kann das überhaupt sein, dass Donald Trump hier neben Saruman steht oder so?

00:17:04: Es ist nicht Saruman, ich bin nicht Fantasie-Firm, aber es gab dieses supervirale Posting von Chara Chapira, dem Comedian, der hat damit... Ich vermutlich einer der erfolgreichsten Tweets, der jemals in Deutschland veröffentlicht wurde.

00:17:18: Und der sah echt aus, aber er war halt nicht schlüssig.

00:17:23: Das ist aber natürlich durch KI gefährlicher, weil immer mehr, es gibt halt immer radikale Kräfte und offensive Kräfte, die versuchen glaubwürdig oder zumindest plausibles Material herzustellen, auch wenn es nicht echt ist.

00:17:36: Das ist aber noch mal eine andere Diskussion als die Frage, wie gehen die Plattformen tatsächlich mit Jugendlichen um auf sich.

00:17:44: Und da sind wir nämlich bei dieser Diskussion, dass Instagram jetzt hier sagt, naja es wird nur noch FSK zwölf Inhalte für Teenager geben.

00:17:51: Das ist natürlich das krankt an einigen Punkten.

00:17:54: Also die erste Schwierigkeit ist, dass der Inhalt natürlich auch falsch... kategorisiert werden kann.

00:18:00: Das heißt, es kann sehr wohl immer noch Inhalte geben, die Jugendliche Menschen nicht sehen sollten, die ihnen trotzdem angezeigt werden, also diese Treffer wirst du auf jeden Fall haben.

00:18:08: Auf der anderen Seite, dass es Stellen eines Accounts auf Instagram ist so einfach, dass ich, als wäre ich jetzt vierzehn, würde ich vielleicht mir natürlich auch ein Teenager-Account erstellen lassen, um meine Eltern in dem Glauben zu lassen, diesmal meine Instagram-Account, aber es müsste ja nicht mein einziger sein.

00:18:26: Ja, und die Frage ist ja, dass Jugendliche, die mit ihren Eltern zusammen in Instagram sind, vielleicht ohnehin schon relativ gut betreut sind.

00:18:35: Und die Frage ja ist, was sind mit Jugendlichen, die vielleicht unbetreut auf Instagram sind.

00:18:40: Ich finde es interessant, dass die Plattformen da hingehen.

00:18:43: Wir haben, als ich das letzte Mal hier war, ja auch über TikTok Pro gesprochen, über diese Idee, eine wie auch immer geartete Form von Plattformen zu bauen, die so ... Vertrauenslehrer kompatibel ist, sage ich mal.

00:18:54: Und auch das, was du jetzt gerade beschreibst, ist ja so, die dahinter liegende Diskussion ist interessant.

00:19:00: Warum wollen Plattformen jetzt eigentlich von Vertrauenslehrern anerkannt werden?

00:19:06: Das deutet darauf hin, dass die öffentliche Diskussion vielleicht doch Wirkung zeigt bei den Plattformen.

00:19:11: Ich würde das genauso interpretieren.

00:19:12: Instagram selber sagt zwar, es findet keine weitere Bewertung von Inhalten statt, also es geht nicht darum, wie Heise schreibt, liebe Grüße an das Mutterschiff, jugendlichen pädagogisch wertvolle Inhalte anzuzeigen, aber eben gewisse Dinge eben gar nicht mehr zu zeigen.

00:19:27: In den USA, und dann wenn wir das jetzt mal ein bisschen größer ziehen, ist die Ankündigung sogar noch ein bisschen umfangreicher, denn in den USA ist es sogar so, dass zu den Ankündigungen von Instagram auch gehört, dass eine größere Bandbreite an Suchbegriffen für Teenager komplett... werden, darunter Wörter wie Alkohol, Blut oder aber auch absichtliche Rechtschreibfehler dieser Wörter, also dieser sogenannte Algospeak, haben wir hier auch schon ein paar mal drüber gesprochen, also damit auch Teenager nicht auf die Idee kommen, dass es umgehen, trotzdem werden sie es natürlich schaffen, weil du kannst... wir es halt Codes haben.

00:19:57: Dann wird es halt Baguette, das Code Wort für Bier und dann sprechen alle über Baguette und dann hast du trotzdem dieses Thema in den Köpfen und in der Welt.

00:20:05: Aber so ist erstmal die Idee und gleichzeitig, und da konnte ich noch nicht ganz verifizieren, ob das auch auf Deutschland zutrifft, das steht aber wie gesagt in der amerikanischen Meldung, dass auch... Teenager einzelne Inhalte gar nicht mehr sehen, auch nicht, wenn sie ihn weiter geschickt werden, wenn sie als Altersunangemessen erscheinen.

00:20:23: Also mal angenommen, du hast ein Teenager-Account, folgst mir, ich mache irgendwo etwas, das als FSK-Achzen gilt und dir nicht angezeigt werden soll, dann siehst du das nicht, wenn ich das poste, auch nicht, wenn es dir jemand schickt und auch nicht, wenn du mir bereits folgst oder das gespeichert hast.

00:20:38: Dieser Post ist, als hätte es ihn für dich nie gegeben.

00:20:42: Da ich mich mit Teenager-Accounts nicht so auskenne, dachte ich, dass das schon immer so gewesen wäre.

00:20:48: Das Interessante ist ja, dass das offenbar bisher so war, dass man einen Teenager-Account auch innerhalb der Schicken konnte, die... Klar, nicht.

00:20:56: Okay, gut.

00:20:57: Das wusste ich nicht.

00:21:00: Also, bislang war das so, dass es vor allem um die algorithmische Auswahl gegen der Inhalte, die dir ausgespielt werden, wobei wir auch da große Fragezeichen an die Wirksamkeit dieser Methode hatten, gesetzt haben, weil wir deutlich viele, zu viele Beispiele hatten, um zu sagen, es funktioniert nicht.

00:21:19: Ja, so viel dazu.

00:21:21: Aber du hast dich auch mit mir den Kompetenz auseinandergesetzt, hast du mir angekündigt.

00:21:24: Ja, ich habe dazu das, was ich gerade erzählt habe mit den Zahlen.

00:21:27: Ich war ein bisschen krank und lag im Bett und habe dann was geblockt mal wieder in meinem Blog.

00:21:33: Du sollst dich doch ausruhen, Dirk.

00:21:35: Ja, mein Kopf hat das dann gemacht.

00:21:38: Das kannst du ja vielleicht in den Shownotes verlinken.

00:21:40: Da geht es genau um diese Frage.

00:21:41: Ein Account ist keine Person.

00:21:44: Das hilft, glaube ich, sich dann und wann da mal wieder dran zu erinnern.

00:21:47: Ja, pack ich in die Show Notes, könnt ihr alle dort lesen.

00:21:49: Ich habe dazu noch ein kleines Gedanken, weil du meintest, ein Like ist auch nicht immer ein Like und so.

00:21:54: Dass es bei Facebook jetzt eine Veränderung gibt, wo wir gerade in der Metawelt sind, ist nicht wirklich Funktion und Emotionen, aber schlimm, glaube ich.

00:22:01: Eine optische Veränderung im User-Interface, dass nur noch das, also angenommen, du schreibst einen Kommentar und der hat hundertseptzig Reaktionen.

00:22:10: Und sehr häufig hast du ja vor allem, dass Menschen in rechtsradikalen Lagern z.B.

00:22:15: Lach-Emojis unter traurige Nachrichten setzen und so, dass unter dem Kommentar nur noch das meist verwendete Reaktions-Emoji angezeigt wird.

00:22:22: Das heißt, da ist dann ein Lach-Emoji und da nehmst du das hundertsiebzig, obwohl von diesen hundertsiebzig Leuten vielleicht achtzig was anderes abgestimmt haben, halt ich für eine ganz seltsame Designentscheidung.

00:22:34: Das ist tatsächlich extrem fragwürdig, oder?

00:22:37: Also am Ende heißt es, aber es ist sozusagen sagt halt was über den Meta-Algorithmus.

00:22:43: Am Ende ist die Ausprägung der Reaktion völlig wurscht.

00:22:46: Es geht nur darum, dass es eine Reaktion gab und die kann man dann lachen oder weinen.

00:22:51: Hauptsache Reaktion.

00:22:53: Das ist wie mein Vater, der in den neunzigern immer gesagt hat, ich schmeiß noch nichts in die gelbe Tonne, es landet alles im gleichen Eimer.

00:22:59: Genauso ist es da auch hier tatsächlich, also dass egal welche Reaktionen auf Madrück, dass alles am Ende einfach nur als Jahr hat interagiert zusammengeschmissen.

00:23:08: Interessante Metapher, die finde ich sehr gut.

00:23:12: Man muss dazu sagen, das ist im Fall von gelben Müll nicht so.

00:23:15: Recycle bitte weiter.

00:23:17: Ich will mir hier nichts nachgesagen lassen.

00:23:19: Nein, das war ja in den Achtzigern auch anders.

00:23:21: Heute ist es ja, bei der Bahn wird es ja angeblich, da steht ja, wir trennen für Sie.

00:23:26: Hast du es schon mal gesehen?

00:23:27: Ehrlich?

00:23:27: Zum Mülleimer,

00:23:28: wo du alles reinwirfst und dann steht da, wir trennen für Sie.

00:23:31: Ja.

00:23:32: Hab ich mal in so Bahnsteigen gesehen, meine ich.

00:23:35: Wäre jetzt nichts falsch zu sagen, nicht, dass Anker Engelke kommt.

00:23:39: Oder sich dann in eine Talkshow setzen, sagt sie jetzt.

00:23:43: Nein, wir bleiben kurz per Meter.

00:23:44: Dann habe ich noch eine kleine Personalie.

00:23:47: Die ist aber interessant, und zwar geht es um Andrew Talok.

00:23:49: Über den haben wir schon mal gesprochen, denn Andrew Talok war der Typ, der nach Medienberichten zufolge ein Gehaltsangebot von einer Milliarde Dollar bekommen hat von Meta, um dorthin zu wechseln.

00:24:00: Er arbeitet bei Thinking Machines Lab, das ist das Unternehmen von Mira Muratis, die früher bei Open AI gearbeitet hatte.

00:24:08: Und er hat diesen Jobangebot abgelehnt von Meta.

00:24:11: ... bis jetzt.

00:24:13: offenbar wechselt nun Andrew Talock doch zu Meta.

00:24:17: Ich weiß nicht, ob sie das Angebot noch mal verdoppelt haben oder was er der Deal war oder ob es doch eine Ente war, die bislang durch die Medien ging.

00:24:24: Aber dieses Gehaltspaket von US dollar, so viel waren es damals angeboten wurde, dass er abgelehnt hat, hat offenbar nicht gereicht.

00:24:33: Er wechselt jetzt

00:24:33: doch zu Meta.

00:24:35: Der Christiano Ronaldo der digitalen Welt.

00:24:39: Ja, oder der Wilde.

00:24:41: Ja, ja.

00:24:46: So, kommen wir zurück zu kurz Videos.

00:24:48: Wir müssen über den TikTok-Deal sprechen.

00:24:50: Und wie immer, wenn wir News zum TikTok-Deal haben.

00:24:53: kann ich dazu sagen, sie werden euch nicht gefallen.

00:24:55: Und zwar geht es zum einen darum, dass offenbar in dieser Executive Order, die Trump unterzeichnet hat, in der der Deal sozusagen so grob angekündigt wird, mit dem haben wir jetzt, wir machen jetzt fertig und so, dass da drin steht, das berichtet zumindest Alexander Levine für Bloomberg, dass vertrauenswürdige Sicherheitspartner, Informationen auch an andere Beamte der US-Regierung weitergeben dürfen und die Generalstaatsanwaltschaft alle Informationen des neuen Joint Ventures erhalten können.

00:25:24: Was bedeutet, dass offenbar die Regierung umfangreichen Einfluss und Einsicht auf die Nutzer in den Daten von TikTok hat, bis dazu, wie der Algorithmus funktioniert und sogar möglicherweise beeinflussen kann, wie dieser Algorithmus funktioniert.

00:25:38: Und das ist eine Erkenntnis, die hatten wir bislang so noch nicht.

00:25:42: Von der haben wir immer gehofft, dass sie nicht eintritt, aber offenbar sieht das ganz danach aus, als würde Teil des Deals sein, dass die US-Regierung direkt festlegen kann, was der Algorithmus Leuten anzeigt, das deswegen bemerkenswert ist, weil dieser ganze TikTok-Deal nur zustande gekommen ist, weil man eigentlich verhindern wollte, dass ein Blackbox-Narms-Algorithmus Leuten Inhalte anzeigt, die dann möglicherweise sich schädlich auf Demokratie, Wahlentscheidungen oder öffentliche Meinung auswirken können.

00:26:08: Ja, und noch eins weiter.

00:26:09: Man dachte ja, eine andere Regierung würde das tun.

00:26:12: Und das fand man ja falsch.

00:26:13: Also man dachte ja, auf gar keinen Fall darf die chinesische Regierung da Einfluss nehmen, wo man so dachte aus europäischer Perspektive, ja, stimmt, Regierungen sollten nicht Einfluss darauf nehmen.

00:26:22: Was die US-Regierung meinte, war nur, nee, nee, die sollen das nicht machen.

00:26:26: Wenn wir das machen, ist es hingegen schon gut.

00:26:31: Der Schnipsel, den du gerade gesagt hast, du hast nämlich den Satz begonnen mit die Regierung, da war nicht klar, um wen man von wem es geht.

00:26:38: Den könnte man eigentlich rausnehmen, weil das war das Argument, warum man diesen TikTok, die einfädeln wollte, nur halt eben bei der chinesischen Regierung.

00:26:47: Das ist vielleicht ein ganz guter Hinweis darauf, wie man Rechtsstaatlichkeit noch mal erklärt.

00:26:52: Das ist sehr wohl gleichbar.

00:26:54: Also alle Menschen sind gleich vor dem Gesetz.

00:26:57: Das heißt, wenn eine Regierung Einfluss nimmt auf etwas, dann ist das... gleich schlecht, egal ob es die Chinesen oder die Amerikaner sind.

00:27:05: Ja,

00:27:07: interessante Beobachtung.

00:27:08: Ja, und auch eine gruselige Entwicklung, weil das auch hierzulande übrigens dann vielleicht die Entscheidung doch nicht so einfach macht, ob wir auf China-TikTok gehen oder aufs USA-TikTok oder... ob wir diesen Deal nicht vielleicht zum Anlass nehmen zu überlegen, ob wir das nicht auch selber können.

00:27:22: Also, ich finde, da sind schon einige Dinge drin, die einem so ein bisschen wehtun.

00:27:26: Es gibt noch eine kleine Geschichte, die auch neu ist, die wir auch noch nicht hatten.

00:27:29: Und zwar gibt es eine Personalie, die offenbar in diesen Vorstand des amerikanischen TikToks gehen soll, und zwar Baron Trump.

00:27:37: Der Sohn von Donald Trump, neunzehn Jahre alt, könnte ins Board von TikTok USA berufen werden, wie es heißt.

00:27:44: Ja, er gelt ja als der Stripens hier hinter den Kulissen, der Trump bei jungen Männern populär gemacht hat.

00:27:54: So ein bisschen was Philipp Amthor für die CDU war, glaube ich.

00:28:00: Also, das ist so, Papa, ich will sowas wie Elon hat.

00:28:04: Ja, okay, ich kümmere mich.

00:28:06: Also ich finde das so, also zum einen das ist natürlich wahnsinnig bedrohlich und beängstigend, dass die Macht in den USA, das war wahrscheinlich schon immer so, ich will jetzt hier nicht anfangen von der Elite und herrschender Klasse und was man da alles nicht erzählen könnte, aber es war wahrscheinlich schon immer so, dass sich das, der Großteil des Vermögens und der Macht und des Einflusses auf einige wenige konzentriert hat, dass diese einige wenige jetzt aber alle auch noch so eng miteinander verzahnt sind, dass du den Ellison-Klan auf der einen Seite hast mit Oracle, die TikTok-Betriebe, Schreiben dessen Sohn, David Ellison, dann aber gleichzeitig mit Paramount eines der größten Medienunternehmen des Landes hat.

00:28:41: Der Trump-Klan, hier jetzt sozusagen direkt auch noch mit in die TikTok-Vorschnitts-Ebene darf, gleichzeitig die Regierung Einsicht in alle Nutzer in den Daten hat und Einfluss auf den Algorithmus nehmen kann, während der eigentlich vertraute Elon Musk das Gleiche mit X tun kann und Mark Zuckerberg, der das mit Meta macht, idealerweise auch noch ein enger Vertrauter von Trump wird.

00:29:00: Das ist alles nicht

00:29:02: gut.

00:29:04: Ja, da kann man leider gar nichts anderes zu sagen als, das hätten wir, also ja, das wäre vor zwei Jahren eine schreckliche Zukunftsprognose gewesen.

00:29:14: und jetzt ist es so, dass man es nahezu ja schon schulderzuckend annimmt und sagt ja, das ist halt das Konzept nachdem da gerade regiert wird.

00:29:23: Ja, das ist so, du hast vollkommen recht.

00:29:26: Also das wäre vor zwei Jahren, hätte man das gepitscht als Drehbuch, hätte man gesagt, nee, das ist ein bisschen zu platt.

00:29:33: Ja.

00:29:34: Das glaubt ihr keiner, dass Baron Trump TikTok Chef werden soll.

00:29:37: Das ist doch absolut so.

00:29:39: Ich hab immer noch so einen leichten Husten, das tut mir leid.

00:29:44: Und allen, die hier zu hören.

00:29:45: Das

00:29:46: finde ich bei den Meldungen, die du gerade mit mir durchgehst, durchaus nachvollziehbar.

00:29:51: Ich hab diesen Husten nur inszeniert, um ein bisschen menschlicher zu werden, damit ich nicht so perfekt

00:29:58: bin.

00:29:58: Ist das dein größtes Problem, dass du zu perfekt bist?

00:30:03: Zu

00:30:03: viel Perfektion.

00:30:04: Haken dran hat es zu viel Perfektion.

00:30:05: Ich muss hier ein paar Ecken und Kanten rein schlagen.

00:30:09: Künstlich.

00:30:09: Künstlich.

00:30:10: Auch mal was falsch machen.

00:30:11: Künstliche Unintelligenz quasi.

00:30:16: Ich bekomme mir von künstlicher Unintelligenz zu.

00:30:19: X und zwar möchte ich mit dir über Nikita Bier sprechen.

00:30:22: Nikita Bier ist der Head of Product bei X, über den haben wir ja schon ein paar mal gesprochen.

00:30:26: Er hat angekündigt, dass es keine AB-Tests mehr gibt, sondern neue Dinge einfach ausgerollt werden, dass der Typ, der sagt, die meiste Zeit seiner Arbeit verbringt, ein Telegram-Gruppen, um zu gucken, wie Scam funktioniert.

00:30:35: Also der Typ, der halt jetzt bei dem halt die, wie sagt man, Zügel in der Hand liegen, was also immer noch... nicht schlechter als Elon Musk ist, muss man halt so sagen.

00:30:46: Aber ein Nutzer, Zoomie Zoom heißt der, der hat einen Post auf X veröffentlicht und hat damit hundertseitig Millionen Impressionen bekommen.

00:30:55: Das ist ziemlich viel.

00:30:56: Und es geht aber ja,

00:30:57: das

00:30:58: ist sehr viel.

00:30:59: Und es gibt ja dieses Revenue-Share-Programm bei X, wo du Geld dafür bekommst, wenn unter deinem Post eine Werbung angezeigt wird, dann kriegst du davon Geld ab.

00:31:08: Und X hat damals relativ laut dafür so getrommelt, dass die ganzen Creatorinnen zu X kommen, ihre Videos und Inhalte nativ zu X bringen.

00:31:16: Es gibt ja auch Geld dafür.

00:31:17: Und Zoomie Zoom hat sich beschwert, dass er für diese Hundertsein-Siebzig Millionen Impressionen, tausend Fünfhundert Dollar bekommen hat.

00:31:24: Was?

00:31:24: Ehrlicherweise wirklich relativ wenig ist, wenn man sich überlegt, wie viel Reichweite das gemacht hat, wie viel Sichtbarkeit das für Werbung auch für Ex gebracht hat, wie viel man auf YouTube für Hundertseipzig Millionen Impressionen immerhin, das sind nicht Aufrufe, aber trotzdem bekommt, das ist schon wenig.

00:31:39: Und es hat Nikita Bier gesehen, dieser Aufreger zu diesem Post und hat drunter geschrieben, check again, guck noch mal rein und hat er noch mal reingeguckt und hat schlagartig weitere Zehntausend Dollar auf dieses Konto bekommen.

00:31:50: Heißt also, diese ganzen Versprechen von Elon, ich will jetzt gar nicht damit anfangen, dass Versprechen von Elon Musk nicht in Kraft getreten sind, aber diese ganzen Versprechen von wegen Transparenz, es lohnt sich.

00:32:01: Es gibt hier keine komischen Machenschaften, kein Sumpf, in dem hier irgendwelche Deals vereinbart werden, sondern alles ist hier offen.

00:32:09: Das ist in diesem Moment definitiv schwarzerfalls widerlegt, weil irgendjemand einfach irgendeinen Knopf gerückt hat, damit irgendjemand anders Zehntausend Dollar dazu bekommt.

00:32:17: Und die Geschichte hat noch eine Poente, denn dieser Post, der mit dem Zoomer dieser elftausend Dollar verdient hat, zeigt halt gar nichts.

00:32:24: Außer dem Screenshot der Tochter von Steve Jobs.

00:32:27: Und dazu hat er geschrieben Steve Jobs Daughter by the way.

00:32:30: Also auch noch am Ende ist die ganze Geschichte auch noch am Ende.

00:32:33: eine Entlohnung für Naja, Objektifizierung von Frauen, wenn man so möchte.

00:32:39: Also die Geschichte wird immer schlimmer, je länger man sie erzählt.

00:32:44: Check again, hofft man da irgendwie, oder?

00:32:47: Ja,

00:32:47: genau.

00:32:49: Ja, also ganz schlimm und finde ich, also wenn ich großer Creator wäre, der davon von Klicks leben würde und so Videos macht und so.

00:32:58: Vielleicht passiert es noch direkt.

00:32:59: Vielleicht setze ich mich noch irgendwo vor die YouTube Kamera und mache noch so Videos.

00:33:02: Ja, aber du hast schon YouTube Kamera gesagt, ob du ein Ex-Creator werden willst, oder?

00:33:08: Das wollte ich ja gerade sagen.

00:33:09: Also wenn ich YouTube Creator wäre und Ex würde mich so locken.

00:33:13: Dann wäre spätestens, selbst wenn ich keine Moral hätte, keine Ethik, dann wäre das ja der Moment diese Geschichte, dass ich sage, das ist für mich kein funktionierendes Einnahmen- und Geschäftsmodell.

00:33:24: Und das ist doch so dumm von Ex.

00:33:27: Also jetzt mal all die anderen politischen Probleme, die man mit Ex haben kann und die gesellschaftlichen Probleme, die Ex auslöst.

00:33:33: Und auch die Tatsache, dass es zu wenig Geld gibt offenbar.

00:33:36: Aber dass es so eine Willke noch umdrauf gibt, macht es noch unbrauchbarer.

00:33:42: Wobei das vielleicht der Link zu dem Barron Trump Ding ist, alle willkürlichen Systeme basieren ja darauf, dass du positiv incentiviert wirst, wenn du dem willkürlichen Herrscher gefälzt.

00:33:57: Und es gibt ja Leute, die genau das dann vielleicht auch suchen.

00:34:01: In sich ist dieses System schon konsistent, würde ich sagen.

00:34:05: Es ist kein Bruch raus.

00:34:07: Also du hast schon recht.

00:34:09: Selbst wenn man komplett gewissenlos nur Geld verdienen würde, selbst dann hätte man jetzt den Punkt zu sagen, vielleicht nicht dort.

00:34:17: Ja, genau.

00:34:19: Wir sind uns einig.

00:34:21: Das klingt

00:34:22: jetzt super, wie du das jetzt so formulierst, als hätte ich das kurz aufgebracht und jetzt hast du mich aber zum Glück zurückgeholt.

00:34:31: Danke schön.

00:34:32: Ja, ich bin froh,

00:34:32: dass ich dich noch überzeugen könnte.

00:34:36: Sehr gut.

00:34:39: Danke, Kevin.

00:34:41: Ansonsten habe ich noch zwei kleine Ex-Geschichten.

00:34:44: Zum einen zeigt Nvidia Interesse in XAI zu investieren und das finde ich eine interessante Geschichte, denn also Nvidia ist ja so das größte Big-Shift, Dick-Shift der GPUs, also der Chips, die benötigt werden um KI zu trainieren eines der wertvollsten Unternehmen der Welt.

00:35:02: Zeitweise war es glaube ich sogar schon mal das wertvollste Unternehmen der Welt.

00:35:06: fragt Pip Glockner im Zweifel, aber finde ich deswegen sehr interessant, weil Nvidia sich damit auf der einen Seite, also in XAI zu investieren ist ein Statement, weil du unterstützt da mit Elon Musk und du investierst in Elon Musk und wir dürfen nicht vergessen, wie das Jahr mit Elon Musk begonnen hat, das ist auch wichtig.

00:35:23: Zum anderen lässt das so ein bisschen, also für uns Social Media Machende natürlich So ein bisschen Rückschlüsse darauf zu wohin das Unternehmen so rudert und was ja noch so mit passieren soll.

00:35:34: Also offenbar nimmt man jetzt Geld von allen.

00:35:37: Nvidia scheint hier mit Geld um sich zu werfen in Masks Richtung.

00:35:42: Ob man eine Partnerschaft mit AMD.

00:35:44: Ich finde das so interessant, weil am Ende gehört alles allen.

00:35:48: Weißt du?

00:35:50: Es ist so einfach nur so ein Klumpatsch.

00:35:52: von Geld und irgendjemandem gehören, da ist sich Prozent daran und dem anderen, da ist sich Prozent an dir und so.

00:35:58: Es wird so egal.

00:36:00: Du brauchst halt auch irgendeinen AI Start-up Zugang noch.

00:36:04: Kaufen wir irgendeins.

00:36:05: Sollen wir eins künden?

00:36:07: Ja, damit wir es dann jemandem verkaufen können.

00:36:09: Wenn nicht, das steiger, aber das AI ist ein AI.

00:36:12: Sehr gut, sehr gut.

00:36:15: Kannst du bestimmt im Dortmunder U einen Co-Working-Space einen Platz kriegen?

00:36:19: Vielleicht

00:36:19: dürfen wir ja die Videos die um über das U laufen, können wir die generieren dann.

00:36:23: Sehr gut, ja.

00:36:25: Ich weiß nicht, wie viele Leute von euch das verstanden haben, was ich gerade erzählt habe, aber auf jeden Fall... Ein für Ruhrgebiet,

00:36:30: Leute.

00:36:32: Dortmunder U googeln.

00:36:33: Genau, googelt das mal das Dortmunder U. Jensen Wang, das ist der CEO von Nvidia, hat gesagt, fast alles, woran Elon beteiligt ist, möchte man auch mitmachen.

00:36:42: Ich weiß nicht, ob man da wirklich Mann sagen kann oder...

00:36:46: Ich wollte auch ganz sagen, interessantes Mann.

00:36:49: Ist eine sehr individuelle Einschätzung wahrscheinlich.

00:36:51: Und das Zweite ist das Fast, würde mich auch ein bisschen... Was genau findet er nicht bei Ihnen?

00:36:56: was?

00:37:00: Gute Aussage, man muss sie mal ein bisschen auseinander nehmen.

00:37:03: So ein kleiner Elon Musk Geschichte noch, die ist aber wirklich nur eine Mini-Detail, aber trotzdem vielleicht interessant.

00:37:10: Eine Richterin hat jetzt angeordnet, dass die Sicherheitsfreigabeliste von Elon Musk veröffentlicht werden muss.

00:37:17: Also nur mit sehr geringfügigen Schwärzungen.

00:37:19: Also wir werden bald erfahren, was Elon Musk alles für Einsichten hat oder hatte.

00:37:24: Was interessant ist, weil SpaceX und Starlink im Bereich nationaler Sicherheit natürlich durchaus Interesse gehabt haben könnte an diesen Informationen.

00:37:33: So, ich habe noch eine Internet-Kultur-Geschichte für dich, direkt da bin ich aber dir richtig.

00:37:38: Wir haben das hier schon mal so ein bisschen angedeutet, aber es gibt jetzt einen Blog-Artikel, auch den möchte ich euch in die Show notes setzen, und zwar von Nico Maramakey.

00:37:47: Nico Maramakey hat einen Text auf Medium veröffentlicht, in dem es um den Zusammenbruch, wie Nico Maramakey ist formuliert, von Blue Sky.

00:37:58: Definiert und zwar geht es hier darum, dass die Bluersky CEO, über die wir auch schon öfter gesprochen haben, Jay Graber heißt sie, dass die sich offenbar extrem schwer tut mit der Frage, an der sich eigentlich alle sozialen Netzwerke irgendwann aufschlagen, nämlich die Frage der Redefreiheit.

00:38:17: Denn es gibt bei BluSky mehrere Geschichten.

00:38:21: Bei denen transfeindliche Äußerungen auf Blue Sky stehen geblieben sind.

00:38:25: Vorneweg sogar eine sehr reichweiten starke Person, die sehr viel Transfeindlichkeit in die Plattform gebracht hat, die gesperrt wurde, sich daraufhin beschwert hat und wieder freigeschaltet wurde und jetzt weiterhin Transhust verbreiten kann auf Blue Sky.

00:38:39: Gleichzeitig aber gibt es mehrere Accounts und Menschen, auch darüber schreibt Nico Maramacay, die sich beschwert haben über die Arbeit der CEO von Blue Sky, die sich ein bisschen darüber lustig gemacht hat über diesen Aufsch- der marginalisierten Gruppen auf Blue Sky, die sich darüber beschwert haben, die daraufhin auch gesperrt wurden.

00:38:57: Heißt also, auf der einen Seite hat Blue Sky sehr, sehr, sehr lange nicht.

00:39:02: moderiert nur in herd fern moderiert hat selber so ein feature gestartet das sogenannte labelling bei dem dritte postings anderer leute markieren können und du als nutzer kannst dich dann entscheiden die labels von anderen leuten zu abonnieren und kannst dann sagen okay ich sehe jetzt dinge die dieses gremium als hast rede markiert hat sehe ich nicht mehr.

00:39:20: in der timeline hat sich also da ein schmalen fuß gemacht blue sky.

00:39:23: gleichzeitig haben sie aber probleme damit wenn man laut stark diese problematik auf den tisch legt und sagt das was ihr hier macht und dass ihr euch darüber lustig macht.

00:39:31: Das ist nicht genug für uns.

00:39:34: Also ein sehr dubioses Gebaren von Jay Graber, die ja eigentlich in der Vergangenheit sich sehr stark darüber personalisiert hat selber oder identifiziert hat, sozusagen als die Gute zu gelten, als die Gegenspielerin zu den ganzen Tech Bros.

00:39:50: zu gelten.

00:39:50: Und jetzt schlägt sie sozusagen auf dem Boden der Realität auf, weil die Frage der Redefreiheit keine ist, bei der sie eine Entscheidung treffen möchte.

00:40:01: Also die Tatsache war lange so, dass wenn man überhaupt Content Moderation gut fand, dass man dann schon auf der Seite der guten stand.

00:40:09: Jetzt ist halt dann im Detail die Frage, wie funktioniert gute Content Moderation.

00:40:15: Ja.

00:40:15: Interessante, interessante Geschichte, kannte ich noch nicht.

00:40:18: Super interessant.

00:40:18: Ja,

00:40:19: weil vor allem halt ärgerlich, dass Jay Graber sich eben nach wie vor nicht positioniert, Leute sperrt und sich darüber lustig macht, indem sie halt diese Waffel-Meems die ganze Zeit postet.

00:40:28: Einige ihrer Postings hat sie selber gelöscht.

00:40:30: mittlerweile, oder wie Nico Mara McKay schreibt, das finde ich auch interessant.

00:40:34: Die Postings findest du noch, wenn du einen Link hast, sie tauchen aber nicht auf Jay Graber's Profil auf.

00:40:39: Das heißt, sie hat sie sozusagen selber irgendwie... Versteckt.

00:40:43: Reverse

00:40:44: Shadowband.

00:40:45: Ja, genau, sich selber.

00:40:47: Selber Reverse Shadowband.

00:40:50: Interessant, interessanter Zugang, ja.

00:40:53: Ja

00:40:55: also ich packe euch den ganzen texten.

00:40:57: ich schon als welter es eben auch sehr sehr lange ist eine sehr sehr schöne.

00:41:00: Erzählform ist von vorne bis hinten einmal durch erzählt und vor allem eben auch darüber gesprochen hat wie blueskai eben dadurch dass es eben über diese invite codes die ja sehr selektiv verbreitet wurden sehr gezielte gruppen ja in die platte auf die platte vom eingeladen hat die sehr häufig auf anderen netzwerken vorne weg auf x eben starkem hasse und und hätte ausgesetzt waren und die deswegen auf blueskain in sicheren hafen angeboten.

00:41:24: haben und denen sie jetzt aber dort auch mal wieder verlieren, weil bei Bruskei die Verlockung des Mainstreams vielleicht zu groß wird.

00:41:30: Tese.

00:41:33: Ja, interessant.

00:41:37: Ich habe die Check again Willkür noch irgendwie im Kopf.

00:41:41: Also da greift jemand nach irgendwie nicht richtig nachvollziehbaren Regeln ein und das ist irgendwie ungut.

00:41:49: Da kann man jetzt eine... private persönliche Meinung haben und sich sozusagen zuordnen.

00:41:54: Aber die interessante Frage ist ja, was passiert denn beim nächsten Mal?

00:41:58: und ist es dann wieder so ein willkürliches Check-again?

00:42:01: oder gibt es irgendeine nachvollziehbare Regelhaftigkeit dahinter?

00:42:06: Ja, das ist nämlich das Ärgerliche, dass das so lange Plattform selber Entscheidungen treffen, niemals geben wird.

00:42:14: Also solange man sich nicht hinsetzt und zum Beispiel ein externes Gremium dahinsetzt oder ein Plattformrat, wie wir hier schon so oft gesagt haben, solange die Plattformen selber Gesetzgeber, Richter und Profiteure von all dem sind, solange kann das nicht funktionieren vermutlich.

00:42:34: Es sei denn, wir als Gesellschaft gehen sozusagen beißen in den sauren Apfel zum kulturellen Umdenken und sagen auch hier, nach unserem Verständnis sind auch Beleidigungen von der Meinungsfreiheit gedeckt.

00:42:45: In dem Moment wäre das alles hinfällig.

00:42:48: Ich weiß nur nicht, ob wir diese kulturelle Errungenschaft der Anerkennung von psychischen Verletzungen, ob wir die wirklich zu Disposition stellen sollten.

00:42:59: Ich glaube nicht.

00:43:01: Ja, es löst nicht wirklich ein Problem, glaube ich.

00:43:04: Es fügt in erster Linie noch mehr Schaden zu.

00:43:09: Es ist zumindest um auf das Problem hinzuweisen, ein sehr guter Gedanke gewesen, den du gerade geteilt hast.

00:43:15: Check'l gern.

00:43:18: Ich habe eine ganze Reihe, das passiert ganz selten, dass ich so Nachrichten habe, die man so übereinander legen kann und die dann alle sozusagen in eine Reihe passen.

00:43:26: Denn Gavin Newsom, der Governor von Kalifornien, hat ein Gefühl, tausend Gesetze erlassen, die alle in unseren Berichterstattungsbereich passen.

00:43:34: Und ich würde die mal mit dir durchgehen und dann können wir einfach mal Newsoms Gesetze und Emotionen miteinander spielen.

00:43:40: Ganz ohne Dschingel, aber ich finde das irgendwie, in den letzten Tagen hatte der sich oft mal Zeit, sich mit dem Internet zu beschäftigen.

00:43:46: Also, fangen wir vorne an.

00:43:47: Kalifornien verbietet unendliche Schiedsgericht-Klauseln.

00:43:50: Und zwar ist es so, dass du in Kalifornien oder in den USA generell als Unternehmen... der Vertragspartner ist, ausschließen kann, dass Dinge vor Gericht gebracht werden können, wenn es im Vorfeld schon mal AGBs gab, denen du zugestimmt hast, die das ausgeschlossen haben.

00:44:05: Also es gibt da zwei sehr bemerkenserte Beispiele.

00:44:08: Zum einen gibt es die Geschichte, dass jemand eine Allergikerin in einem Disney-Restaurant gegessen hat, die Allergene nicht ausgewiesen wurden, sie vergiftet wurde.

00:44:18: Deswegen, sie ist da gegen daran gestorben.

00:44:20: Der Witwer hat an Disney verklagt und Disney hat aber gesagt, der Mann hat ja ein paar Jahre vorher Disney Plus genutzt und im Rahmen von Disney Plus hat er den AGBs zugestimmt, dass eine Schiedsgericht-Klausel vorgesehen hatte.

00:44:33: Dass Disney danach ist zurückgerudert, wenn Leute sich aufgeregt haben, aber sie sind nicht die einzigen.

00:44:37: Auch Uber hat so eine Geschichte.

00:44:39: Es gibt ein Ehepaar, das einen Unfall erlebt hat.

00:44:41: in einer Beförderung von Uber, sie durften nicht verklagen, weil die Tochter des Pärchens über Uber Eats Essen bestellt hatte und damit den AGBs zugestimmt hatte und auch eine Schiedsgerichtklausel unterschrieben hatte.

00:44:55: Und das ist sie jetzt in Kalifornien so nicht mehr erlaubt, also Schiedsgerichtklauseln per se schon, aber sie gelten nicht auf Folgeverträge.

00:45:05: Ich soll jetzt einen Gavin News im Reaktion machen.

00:45:08: Ja, du

00:45:08: kannst ja so auf so einer Skala von minus fünf bis plus fünf sagen, ob wie du dazu stehst.

00:45:15: Minus fünf bis plus fünf,

00:45:18: eins.

00:45:19: Na immerhin.

00:45:21: Und du?

00:45:22: Ja, auch so.

00:45:23: Weil die Schiedsgerichtklausel ist das Problem und nicht.

00:45:26: Also das andere ist natürlich eine Himmelschreine Ungerechtigkeit, die verboten werden muss, längst überfällig und das nach keinem Gerechtigkeitsempfinden, das ich mir vorstellen kann, ist das richtig.

00:45:35: Aber die Schiedsgerichtklausel als solche, die halt den kleinen Mann uns sozusagen verbietet vor Gericht zu ziehen, wenn wir ungerecht behandelt wurden, das ist natürlich nicht die Idee eines Rechtssystems.

00:45:47: Ist es, das war jetzt meine daran anschließende Frage, in allen anderen Bundesstaaten ist es dann noch so oder wie, also da bewege ich mich jetzt auf sehr dünnem Eis, weil ich gar keine Ahnung davon habe, ich will dich da aber gar nicht drauf locken.

00:46:00: Ich möchte das nicht beantworten.

00:46:02: Sag ruhig die nächste.

00:46:04: Ich weiß es ehrlicherweise nicht, aber vermutlich ist das ein Amerikaweites Volk.

00:46:11: Was aber interessant ist, weil wir da mit unserem Rechtssystem, wenn wir uns ungerecht behandelt fühlen oder schimpfen, dass man sich so was dann nochmal vor Augen führt, dass es in anderen Ländern vielleicht noch schwieriger ist, vor Gericht einen Erfolg zu erzielen.

00:46:25: Kalifornien verabschiedet ein Gesetz, das Verbraucher in die Möglichkeit gibt, sich gegen die Weitergabe ihrer Daten zu entscheiden.

00:46:31: Also ganz konkret kannst du sagen, dass du, wenn du ein Browser benutzt, dass es diese Do Not Track Funktion gibt, die darfst du jetzt in Kalifornien auf jeden Fall nutzen.

00:46:41: Und es gibt jetzt eine Opt Out Funktion, dass du sagst, ich will gar nicht, dass meine Daten hier weitergegeben werden an Dritte.

00:46:50: Drei.

00:46:51: Gut.

00:46:52: Governor Newsom unterzeichnet Datenschutzgesetze zum Schutz von Technologienutzern.

00:46:56: Und zwar dürfen oder müssen Social-Media-Plattformen allen Nutzerinnen jetzt die Möglichkeit geben, dein Konto klar und einfach zu löschen.

00:47:06: Und zwar, du klickst auf löschen und es hat auch zur Folge, dass alle Personen mit zuzogenden Daten des Nutzers gelöscht werden.

00:47:16: Fünf in deiner Out of Ten-League-Regel, oder?

00:47:20: Hast du dich

00:47:20: mal bei Facebook gelöscht?

00:47:22: Nee.

00:47:23: Wenn du das machst, das ist Psychoterror.

00:47:27: Also du willst dein Konto bei Facebook löschen.

00:47:28: Dann passiert Folgendes.

00:47:30: Als erstes siehst du eine ganze große Bubble von den ganzen Leuten, mit denen du so in Kontakt getreten bist in all den Jahren.

00:47:35: Die einen traurig sind.

00:47:36: Deine Freunde werden dich vermissen.

00:47:39: Dann musst du zwei oder dreimal dein Passwort eingeben.

00:47:43: Und dann wird dein Konto nicht gelöscht, sondern für dreißig Tage deaktiviert, bis du es wieder aktivierst.

00:47:48: Warum haben wir das noch nicht?

00:47:50: Ja.

00:47:52: Okay.

00:47:53: Ja, gute Idee.

00:47:54: Find ich super.

00:47:55: Wer ist der Deutsche Gavin Newsroom?

00:47:57: Gavin Kalmaier vielleicht.

00:47:58: Nein, das nicht, weil Gavin Newsroom hat auch, hat mich eine, eine, eine Hörer oder eine Hörerin, das warte, kann ich dir gleich sagen, darauf hingewiesen, dass Gavin Newsroom gar nicht so unproblematisch ist.

00:48:10: So, danke.

00:48:12: Weil Newsom sich durchaus auch schon stark transfeindlich geäußert hat in der Vergangenheit.

00:48:15: Gibt es auch sehr spannende Texte von Aaron Reed, Aaron in the Morning als der Newsletter.

00:48:21: Also der Text heißt, why transgender people are not feeling Gavin Newsom.

00:48:24: Den packe ich euch auch mal in die Show Notes, damit wir nicht hier mit so einem Lobgesang hier rausgehen.

00:48:29: Trotzdem muss man dazu sagen, angesichts Donald Trump wäre vielleicht Gavin Newsom.

00:48:33: Immer noch.

00:48:33: Naja, genau.

00:48:34: Es ist sozusagen von absolut richtig bis zu abgestuft.

00:48:38: besser, ist ja ein großer Unterschied.

00:48:39: Zu dem hat er einen wunderschönen Vornamen.

00:48:42: Hast du auch diesen Struggle mit seinem Nachnamen?

00:48:44: Wann immer ich ihn lese, das habe ich, glaube ich, schon mal hier angesprochen, bei Elon Musk und Gavin Newsom lese ich immer Musik und Newsroom.

00:48:53: Ich krieg das nicht aus meinem Kopf.

00:48:55: Du bist zu lange in der Branche, Dirk.

00:48:56: Du brauchst mal ein paar Jahre Welt-Auszeit.

00:48:58: Meinst

00:48:58: du, wegen Musik oder wegen Newsroom?

00:49:01: Ja,

00:49:01: ich fürchte wegen Newsroom.

00:49:02: Ja, stimmt.

00:49:03: Ja, das Problem habe ich auch.

00:49:05: Aber dein Gehirn arbeitet hoch assoziativ.

00:49:07: Bist du, heißt das Synesthetiker?

00:49:09: Also kann man zahlen bei dir Farben?

00:49:11: Nein.

00:49:12: Okay, dann nicht.

00:49:13: Ich glaube, es ist tatsächlich einfach nur, ich lese, wie viele Menschen den ersten und den letzten Buchstaben und er schließe mir dann Wortzusammenhänge.

00:49:21: Und ich lese halt häufiger über Musik als über Elon Musk und du liest wahrscheinlich Wenn irgendwo steht Musik, liest du Mask wahrscheinlich.

00:49:29: Ich verbringe auch schon viel Zeit mit Musik, muss man dazu sein leider.

00:49:32: Auch

00:49:32: mit über Musik lesen?

00:49:34: Ja.

00:49:35: Ja, okay.

00:49:37: Vielleicht habe ich mich da selber sozusagen differenziert gebildet.

00:49:42: Kennst du den Song?

00:49:43: Wir haben oben gute Laune hinten vorne.

00:49:45: Ist das auch in deiner Timeline aufgetaucht?

00:49:48: Nein.

00:49:48: Wenn du

00:49:48: Musik hast, das ist ein sehr schönes Lied.

00:49:50: Ich sing es jetzt nicht vor.

00:49:52: Das ist ja in meiner TikTok Timeline, in meinen Insta Reels, ganz präsent.

00:49:56: Und es ist tatsächlich ein, der heißt, glaube ich, der gute Laune-Song auf Spotify.

00:50:01: Also tatsächlich veröffentlichtes Lied und es ist schrecklich.

00:50:03: Und es ist der klebrigste Rohrwurm, den es gibt.

00:50:06: Wow, nein, das kenn ich noch nicht.

00:50:07: Ich verbringe so wenig Zeit, wie möglich auf TikTok zu verbringen.

00:50:10: Herrlich.

00:50:11: Ja.

00:50:11: Okay, anderes Thema.

00:50:12: Dankeschön.

00:50:12: Anderes Thema machen wir ein anderer Mal.

00:50:16: Kalifornien wird der erste Bundesstaat der Chatbots reguliert.

00:50:19: bedeutet konkret, dass also Hinweise auf Gesundheit, also gesundheitliche Hinweise als solcher erkennbar sein müssen, dass sie von einem Computer erstellt wurden, dass Chatbots nicht mehr romantische Chats mit Kindern führen dürfen und dass alle Chatbots dazu verpflichtet sind, Minderjährigen gegenüber Pausenerinnerungen anzubieten, sexuelle eindeutige Bilder dürfen nicht mehr generiert werden gegenüber Kindern und alle Gespräche müssen als künstlich generiert ausgewiesen werden.

00:50:48: Das hatte ich sogar gelesen.

00:50:50: Also die meisten Meldungen entdecke ich ja bei Haken dran zuerst.

00:50:53: Das hatte ich vorher schon mal irgendwo gelesen.

00:50:56: Ich musste jetzt irgendwie von Gavin Newsom an den Wolfram Weimar Avatar denken, aber der ist ja kein Chatbot bisher.

00:51:02: Den gibt es ja nur als Avatar.

00:51:05: Den muss man noch nicht dazu sagen, dass er künstlich generiert ist.

00:51:10: Ja, aber fand ich Fier.

00:51:10: Vier Komma Fünf.

00:51:12: Ja, finde ich auch.

00:51:14: Chatbots dürfen sich auch generell nicht mehr als medizinische Fachpersonen ausgeben in Kalifornien.

00:51:18: Was sehr interessant ist, weil das im Fall von Meta ja schon sehr häufig passiert ist.

00:51:21: Wir haben darüber berichtet.

00:51:23: Und warum wir das alles hier erzählen, ich habe noch zwei, drei Sachen, ist ja... Kalifornien ist eben der Sitz der meisten dieser Unternehmen.

00:51:29: Das heißt, wenn so ein Gesetz in Kalifornien dem einem der oder dem eigenwohnerstärksten Bundesstaat in den USA einen Kraft tritt, kann man auf der einen Seite davon ausgehen, dass andere demokratische Staaten möglicherweise nachziehen, B, vielleicht sogar auch republikanische Staaten nachziehen, im Fall von solcher Regulierung hier die Kinder schützt.

00:51:49: Und sie die Tech Unternehmen anfangen sowas in ihre Software einzubauen und das möglicherweise dann vielleicht auch generell auszurollen.

00:51:58: Ja, ansonsten Newsom unterzeichnet Gesetz zur Altersprüfung.

00:52:02: Auch das passiert.

00:52:02: Also du musst jetzt um gewisse Apps zu installieren, musst du dich bei App Store Anbietern oder Geräteherstellern als volljährig ausweisen.

00:52:12: Das ist in den USA aber jetzt keine große Ausnahme.

00:52:15: Das passiert häufiger.

00:52:17: Und vor Social-Media-Plattformen müssen Hinweise vor erheblichen Gesundheitsrisiken gewarnt werden.

00:52:24: Also du musst quasi wie auf der Zigarettenschachtel bei Instagram jetzt eine Warnung sehen.

00:52:29: Cool.

00:52:31: Ich habe das hier schon mal gesagt.

00:52:32: Ich glaube, dass sich das sehr schnell abnutzt.

00:52:34: Also ich weiß nicht, ob du in den letzten zehn Jahren mal in Kalifornien warst, aber dort ist es so, dass auf jeder Süßigkeit, die du kaufst, Hinweise stehen, dass es potenziell krebserregend ist, dass es ungesund ist.

00:52:44: Und bei der ersten Packung lila Farben des Snickers, das du kaufst, denkst du dir, oh Gott, das esse ich nicht.

00:52:50: Und dann steht so fest, dass es aber auf jeder Sitzigkeit draufsteht und dann verliert das so ein bisschen seine Gefahr.

00:52:58: Als ich das letzte Mal hier war ja ohnehin auch da schon mal darüber gesprochen, wie diese Altersverifikationen und Hinweisen und wie wirksam die sind.

00:53:06: Nichtsdestotrotz finde ich diese Form von Regulierung alleine aus dem von dir gerade beschriebenen Mechanismus total interessant, dass sie eben nicht, um es im Klischee zu sagen, in Sachsen-Anhalt, wer schon länger dabei ist weiß, warum ich nicht darauf beziehe, in Sachsen-Anhalt getestet werden, sondern da, wo halt alle Techfirmen sitzen.

00:53:25: Um zumindest mal in diese Diskussion zu kommen, finde ich gut, dass du das mal so gebündelt hast.

00:53:31: Es ist ein feste Rubrik, Gavin News hier im Haken dran.

00:53:36: Noch nicht, das passiert nie bislang.

00:53:37: Aber hier ist jetzt so gleichzeitig passiert.

00:53:38: Eine Meinung habe ich noch.

00:53:40: Und zwar, dass es auch der aktuellste Gavin News hat einen Veto eingelegt gegen ein Gesetz gegen Hassrede im Netz.

00:53:46: Und zwar mit der Formulierung, wir sind noch nicht so weit.

00:53:51: Ich teile die Bedenken gegenüber diskriminierender Drohung, Gewalt und Nötigung im Internet.

00:53:55: Ich bezeichne diesen Gesetzentwurf jedoch als verfrüht.

00:53:57: Unser erster Schritt sollte daran bestehen, festzustellen, ob und wie weit die bestehenden Bürgerrechtsgesetze ausreichen, um verstöße durch Algorithmen zu ahnen.

00:54:09: Also ich sag mal so, man kann vielleicht ganz gut einordnen, was dieses Veto für eine Strahlkraft hat, wenn Elon Musk darunter schreibt, credits where it's due.

00:54:18: Also Elon Musk sozusagen, Gavin Newsom lobt dafür, dass er diese Entscheidung getroffen

00:54:22: hat.

00:54:23: Aber da sind wir jetzt wieder bei diesem Blue Sky-Debatte um freie Rede und was eingeschränkt ist, ist ja tatsächlich auch ein schwieriges Thema.

00:54:31: Ja, wenn Elon Musk Gavin Newsem lobt, dann ist es nicht nur für mich schwer zu lesen, sondern vielleicht auch ein Hinweis darauf, dass da vielleicht was nicht stimmt.

00:54:41: So.

00:54:43: Wir gehen in, apropos Emotionen, wir bleiben bei Emotionen, aber wir gehen in die Funktion.

00:54:49: Funktionen und Emotionen.

00:54:54: Threads wird ein neues Feature bringen, bei dem postings die du schon unter den du ein kommentar gesetzt hast ein kleines symbol anzeigen also das kommentier symbol sozusagen fühlt sich dann aus damit du sehen kannst.

00:55:07: ich habe hier schon mal kommentiert so wie das beim like jetzt zum beispiel auch passiert.

00:55:11: cool

00:55:13: alles.

00:55:13: der john stohn hat dazu geschrieben.

00:55:15: zweiz hat ein neues killer feature für reply guys ausgerollt.

00:55:18: jetzt kann ich einfach durch den fit scrollen und sehen bei unter welchen posts ich noch nicht schamlos drunter gekotzt habe.

00:55:26: Ich finde, finde ich sehr gut.

00:55:27: Aber trotzdem gute Idee eigentlich, ne?

00:55:30: Dann experimentiert Threads gerade mit Ghostposts aus, also Posts of Threads, die sich nach vierundzwanzig Stunden selber löschen.

00:55:41: Hast du Gefühle?

00:55:41: Ja.

00:55:43: Warum gibt es eigentlich keine Stories auf Threads?

00:55:47: Bitte sagt das nicht zu laut.

00:55:48: Ich könnte mir vorstellen, dass Adam Osseri Haki ist, sich das anhört und denkt, warum eigentlich nicht?

00:55:53: Dirk hat recht.

00:55:56: Ja, könnte man nochmal ausprobieren.

00:55:58: Stories mit Filtern und so.

00:56:00: Nee, aber das ist ja wahrscheinlich, ist das nicht die Textvariante von einem Story?

00:56:06: Eigentlich ja.

00:56:07: Ja.

00:56:08: Es müsste eigentlich einen eigenen Feed dafür geben.

00:56:11: Stimmt.

00:56:11: Oh, ja.

00:56:13: Aber jetzt wird was draus.

00:56:15: Wenn du auf dein Threads Profil bildst, dann siehst du nur diese Sachen.

00:56:19: Klar.

00:56:20: Wäre das nicht eine eigene App eigentlich?

00:56:21: Das ist eine Art Twitter, aber geht der Post nach vielen Stunden weg und du hast eine globale Timeline.

00:56:28: Snapchat.

00:56:30: In Text.

00:56:30: Ja, ja, nur Text, ja.

00:56:32: Aber interessant ist, sie haben es zuerst bei Hacken dran gehört, wahrscheinlich geht es da drum.

00:56:38: Also wie kannst du einen Text interessant machen, indem du ihn einfach verknappst, also die Story Methode auf... Und Story klingt schon ein bisschen besser als Ghostpost, oder?

00:56:52: Aber es reimt sich.

00:56:53: Ja, ja.

00:56:55: Es ist halt ein bisschen krumm, weil Threads sale, weil die Postings nicht Post sind, sondern Threads.

00:56:59: Stimmt.

00:56:59: Aber in dem Fall von Ghost-Threads hätte es nicht funktioniert und das könnten Deutsche dann gar nicht mehr aussprechen, wahrscheinlich, als Ghost-Posts.

00:57:06: Aber es sind hier zwanzig Stunden Threads, dann.

00:57:08: Ja, genau.

00:57:11: Naja, Meta hat außerdem offenbar angekündigt, ist falsch, aber erste Werbetreibende haben diese Nachricht, eine E-Mail bekommen.

00:57:19: Gute Nachrichten und klang mal auf, fragt sich nur für wen, klang mal zu.

00:57:22: Du kannst jetzt bestehende Video- und Bildwerbungen auch auf Threads verlängern.

00:57:29: Und hast du Bock auf Video-Werbung auf Threads?

00:57:33: Ja, verlängern.

00:57:35: Ja, voll gut.

00:57:36: Super Nachricht für jetzt noch mehr Werbung.

00:57:39: Nee, gibt es schon richtige

00:57:41: Werbung?

00:57:41: In Deutschland noch nicht.

00:57:43: Aber bislang war das nicht so geplant, dass da die Instagram-Werbung auch bei sweats aufkauft.

00:57:48: Das wird jetzt wohl kommen.

00:57:50: N-Shitification ist das Stichwort.

00:57:53: So, dann hat Threads angekleinlichkeit, betrifft auch Europa noch nicht.

00:57:58: Longform Text Attachments, die wir schon haben, also die langen Texte unter Threads, kann man jetzt auch ins Fediverse scheren.

00:58:04: Hm,

00:58:05: toll.

00:58:06: Können wir hier alle eh noch nicht, deswegen gucken wir das ein bisschen drauf.

00:58:09: Aber apropos Fediverse, es gibt eine neue App, die heißt DiscoverFeddy.app.

00:58:16: Und da kannst du die förderierten Timelines ausgewählter Instanzen selber einfach durchsuchen.

00:58:20: Das ist eine Suchmaschine für Instanzen, ist ganz cool und du kannst auch eine reine Bildansicht auswählen und so.

00:58:25: Ist irgendwie ganz spannend, um mal so ein bisschen von draußen ins Filivers zu schielen oder einen Blick von draußen zu kriegen, wenn man seine eigene Timeline satt hat zum Beispiel.

00:58:33: Cool.

00:58:34: Hast du es schon mal getestet oder ist sie noch so frisch, dass du siehst?

00:58:36: Ich habe es gerade ein bisschen angeschaut.

00:58:37: Ich finde es irgendwie ganz cool.

00:58:39: Ich habe jetzt mir Mastodon.Social angeguckt und da war halt extrem viel einfach.

00:58:44: Aber die Idee ist erstmal sehr gut und du kannst natürlich auch Suchbegriffe nutzen.

00:58:48: Also es ist halt auch schon eine Suchmaschine.

00:58:50: Also wirklich eine schöne Idee.

00:58:52: und so das Recherche-Tool, wenn jetzt noch alle Leute, die wir früher auf Twitter abonniert haben, um am laufenden, im laufenden, auf dem laufenden zu bleiben, ins Fediwörse wechseln würden, dann wäre es noch geiler.

00:59:05: Ja.

00:59:06: Cool.

00:59:06: Ja.

00:59:06: So.

00:59:07: Und dann habe ich noch eine Kleinigkeit, die so, da sind wir beim Musik am Ende.

00:59:16: Eine Partnerschaft zwischen ChatGPT und Spotify, dass du die Möglichkeit hast, ChatGPT nach Songs, Alben, Künstlern, Playlists oder Podcast-Episoden zu fragen und dann die Links geschickt bekommen oder eben auch Playlists generieren kannst, mithilfe von ChatGPT.

00:59:29: Meine Sorge wäre ja, dass ChatGPT einfach Sachen erfindet, dass Elon Musk im Hacken dran Podcast war und über, wie heißt der Instagram-Chef nochmal?

00:59:41: Adam Mosseri?

00:59:42: Ja, geredet hat.

00:59:45: Dem würde ich ja überhaupt nicht trauen.

00:59:49: Ja.

00:59:50: Es fühlt sich so ein bisschen an, als würde man so dieses, ich sehe diese KI-Korporation immer so wie Protein im Supermarkt.

00:59:57: Irgendjemand klebt noch jetzt auch mit KI, so Protein jetzt auf Spotify drauf.

01:00:04: So

01:00:04: weiß ich gar nicht, ob man das braucht.

01:00:06: Das ist eine perfekte Beobachtung, denn es ist wirklich genauso jetzt neu auch mit KI.

01:00:12: Das hast du gerade überall klebt, das Dorf.

01:00:15: Ich freue mich aber, dass auf Haken dann immer mal wieder klebt, jetzt auch mit Dirk von Gehlen.

01:00:18: Das war sehr schön, dass du heute hier warst.

01:00:20: Vielen Dank.

01:00:21: Ich freue mich, wenn du bald wiederkommst und wir dann gemeinsam ein bisschen Schabernack über das Internet erzählen.

01:00:27: Wir sagen noch kurz, wir sind nicht zusammen da, aber wir sind gleich, also bei einem gemeinsamen Event in Düsseldorf.

01:00:33: Nacheinander, wir werden beide nicht am gleichen Tag da sein.

01:00:36: Ja, bei dem

01:00:37: Publikum

01:00:37: Düsseldorf.

01:00:38: Genau.

01:00:38: Einleisigsten, zehnten, ersten, elften.

01:00:40: An einem Tag gibt es eine Spielshow und an einem Tag redet jemand über Aufmerksamkeit im Internet.

01:00:46: Republikankenner wissen vielleicht, wer an welchem Tag da sein wird.

01:00:50: So ist es.

01:00:51: Wir sehen uns dort.

01:00:52: Ich freue mich darauf.

01:00:53: In der nächsten Folge ist ein... mehr, gänzlich unbekannter Dennis Horn zu Gast.

01:01:07: Er ist hier zu Gast.

01:01:08: Ich bin eigentlich fast immer bei ihm zu Gast, wenn er da ist.

01:01:10: Aber es ist schön.

01:01:11: Ich freue mich.

01:01:11: Wir hören uns wieder dann am Freitag und jetzt wünsche ich euch eine ganz tolle Restwoche.

01:01:15: Passt auf euch auf und viel Spaß im Internet.

01:01:19: Vielen Dank.

01:01:20: Tschau.

01:01:20: Tschüss.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.