Von der Pipeline bis zum Bordstein (mit Dennis Horn)
Shownotes
Die Geschichte mit der Content Pipeline wird uns noch eine ganze Weile beschäftigen. Genauso wie wir lange und häufig über “Community Notes” philosophierten - und jetzt mit einer neuen Studie Antworten haben. Außerdem will ChatGPT jetzt auch mit Erotikcontent das Internet weitererobern. Wir haben dazu eine These. Wie immer.
➡️ Studie “Der Schwarm als Faktenchecker”: https://machine-vs-rage.net/ausgabe-8/der-schwarm-als-faktenchecker/
➡️ Studie “Threats to the sustainability of Community Notes on X”: https://indicator.media/p/community-fact-checking-on-x-survived-elon-musk-it-may-not-survive-ai
➡️ Verbraucherzentrale zu Facebook: https://www.verbraucherzentrale.de/verfahren/facebook
➡️ Tim Chinenov über Content Pipelines: https://timyc.substack.com/p/content-pipelines-and-the-death-of
➡️ Social Media Watchblog über ChatGPTs Erotikoffensive (Paywall): https://www.socialmediawatchblog.de/erotik-fur-erwachsene-warum-altmans-ankundigung-wirklich-problematisch-ist/
🗓️ Am 6. November feiern wir 500 Episoden und 3 Jahre "Haken dran" mit einem 12 Stunden-Livestream! ➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org
Kapitelmarken, KI-unterstützt: Chapters
00:00 Hallo Dennis! 02:02 Housekeeping 04:00 Studien zu Community Notes 23:24 monnett 34:46 Sammelklage gegen Facebook 41:45 Algorithmusänderungen bei X 45:04 Content Pipeline 49:33 Apple und die Kontrolle über Apps 52:05 Alternative App-Stores 56:36 OpenAI und die Integration von Erotik 01:06:55 Geknickt vom Smartphonefalten
Transkript anzeigen
00:00:00: Grüß dich Gavin.
00:00:01: Hallo Dennis.
00:00:02: Wir starten in eine neue Ausgabe Haken dran, nähern uns übrigens in großen Schritten Ausgabe fünfhundert.
00:00:09: Ja und ich bin ein bisschen nervös.
00:00:12: Also wir machen ja am sechsten Elften, das ist der Tag vor der Veröffentlichung der fünfhundertsten Episode, machen wir ein zwölf Stunden Livestream.
00:00:19: Also vor allem ich, du kommst aber auch dazu, weil wir an diesem Tag gemeinsam die fünfhundertste Folge aufnehmen, die dann am siebten Elften erscheint.
00:00:26: Ich hab in der fünfhundertsten Folge eine große Ankündigung zu machen, bei der ich sehr nervös bin, weil da viel Arbeit reingeflossen ist.
00:00:33: Ist das
00:00:33: so eine große Ankündigung, was nicht Bibi immer gesagt hat, bald große Ankündigung?
00:00:39: Oder ist das eine richtige große Ankündigung?
00:00:40: Ja,
00:00:40: aber es ist wirklich eine große Ankündigung.
00:00:44: Es ist viel Arbeit reingeflossen und dieser zwölf Stunden Livestream plant sich ja auch nicht von alleine.
00:00:48: Also da ist viel los.
00:00:50: Man macht mich sehr nervös, aber auch freue mich sehr drauf.
00:00:54: Wir freuen uns alle.
00:00:55: Vierhundertneunzig
00:00:56: ist das hier.
00:00:57: Und gehen jetzt erstmal in eine klassische Vierhundertneunzig rein.
00:01:01: Wir haben spannende Themen gleich mitgebracht.
00:01:04: Eine neue Studie zu Community Notes, die wir gleich zu Beginn machen, freue ich mich sehr.
00:01:10: Aber hier lehne ich mich erstmal zurück.
00:01:12: Ich bin dann Stichwortgeber.
00:01:14: Hier sind deine fünf Minuten, in denen du, wie in jeder klassischen Haken dran, Episode mal kurz selbstes Ruder übernehmen darf.
00:01:21: Beginn mit dem Housekeeping
00:01:23: und
00:01:23: dem Digital Markets Act.
00:01:24: Ja, es ist eine Kleinigkeit.
00:01:25: Ich habe behauptet, dass der, also es geht ja um dieses Verfahren, bei dem Meta und Apple führt zusammen, siebenhundert Millionen Euro Strafe irgendwie herhalten mussten.
00:01:35: Ich habe gesagt, das eine sei DMA, das andere sei DSA.
00:01:38: Und die Wahrheit ist, es sind beides DMA-Fälle.
00:01:41: Also das ist der erste Fehler.
00:01:43: Danke an Koffi Hollick natürlich fürs Korrigieren.
00:01:45: Schau mal an der Stelle.
00:01:47: Und der andere Sache, die mir aufgeweist, ist nicht wirklich Housekeeping.
00:01:50: Ich schmeiß das hier so rein.
00:01:52: Mir ist aufgefallen, wir haben ja hier über diese ganz schmalen, kleinen Reels gesprochen.
00:01:58: Diese, jetzt schon wieder vergessen, was für eine Masse das waren.
00:02:02: Da ist nichts draus geworden, oder?
00:02:04: Also, ich habe die seitdem nie wieder gesehen.
00:02:07: Hatten die eine kürzere Laufzeit als Klapphaus?
00:02:12: Damals war sehr cool.
00:02:14: Ich habe gedacht, aber vielleicht kommen Sie in zwei, drei Wochen noch von großen schwerfälligen Unternehmen.
00:02:20: Ich freue mich drauf, wenn RTL Plus auch mitmacht.
00:02:24: Und Altersbegrenzung für Inhalte in Instagram habe ich hier noch als Thema stehen.
00:02:29: Ach so, ja, das ist, wir haben darüber diskutiert.
00:02:32: Und zwar zum einen, PG steht tatsächlich für Parental Guidance.
00:02:36: Ich dachte für Programmgruppe als WDR-Mitarbeiter.
00:02:39: Ah ja.
00:02:41: Programmgruppe dreizehn.
00:02:43: Gibt's die?
00:02:45: Es gab mal eine Programmgruppe vier.
00:02:47: Das war im Programmbereich.
00:02:49: Egal, mach weiter.
00:02:50: Ich find's so schön, wie du seit ein paar Jahren wieder in diesem Haus und seitdem denkst du schon, wie die.
00:02:58: Es gibt aber zu diesen Teen-Accounts noch etwas, das wir noch nicht besprochen haben.
00:03:02: Also für die, die es nicht mitbekommen haben, Instagram hat angekündigt, dass es eine Art inhaltliche Vorsortierung für Teen-Accounts geben wird.
00:03:09: Also Leute, die als Jugendliche gelten, bekommen keine Inhalte angezeigt in den Nackteid oder Gewalt oder so drin steckt, wo wir alle gesagt haben, Moment mal jetzt erst.
00:03:18: Aber das ist tatsächlich jetzt die Ankündigung von Instagram und sie haben angekündigt und das ist nämlich neu, dass es nicht nur Teen-Accounts betrifft, sondern alle, die entsprechend von einer künstlichen Intelligenz als minderjährig eingestuft werden.
00:03:31: Also es gibt systematische Altersüberprüfungen.
00:03:34: Und das hatte eben nicht zwangsläufig was damit zu tun, was du als Geburtstag angegeben hast oder ob du ein Teenage-Account hast, der mit deinen Eltern vernetzt ist.
00:03:45: Ich bin nicht gespannt, wie viele Leute plötzlich irgendwelche Aufforderungen bekommen werden, auch hierzulande, auch wenn es in Deutschland noch nicht angekündigt oder noch nicht kommt, den Personaler-Schweiß hochzuladen.
00:03:55: Das hätte nämlich dann kommen.
00:03:56: Und zwar nicht, weil es ein Gesetz gibt, sondern weil Instagram dich fragt, willst du wieder Gewalt sehen?
00:04:00: Und man sagt, ja, hier ist mein Personal auf was, ich will Gewalt sehen.
00:04:05: Okay, dann machen wir einen Haken dran ans Housekeeping an der Stelle und gehen rein.
00:04:11: Wir starten heute exklusiv.
00:04:13: Hackendran hat zuerst eine neue Studie zu Community Notes, die in der nächsten Ausgabe erscheinen von Machine Against the Rage.
00:04:21: Und zwar heute um sieben Uhr.
00:04:22: und dieser Episode, der erscheint um fünf Uhr.
00:04:24: Das heißt, wir sind die ersten.
00:04:27: Das ist ein Magazin für digitale Konfliktforschung, wird herausgegeben am Institut für Demokratie und Zivilgesellschaft in Jena und ist Teil von Toneshift.
00:04:37: Das ist ein Netzwerk gegen Hass.
00:04:38: im Netz und gegen das Informationen.
00:04:41: Und hinter der Studie stecken die Kommunikationswissenschaftlerin Franziska Martini, der Informatiker Michael Schmidt, der Datenwissenschaftler Christian Donner und der Konfliktforscher Mike Felix als Projektleiter.
00:04:55: Der Schwarm als Faktenchecker.
00:04:57: Community Notes zwischen kollektiver Intelligenz und politischem Lagerkampf ist der Titel dieser Studie und wir haben hier heute das Vergnügen schon mal auf die Ergebnisse zu gucken.
00:05:07: Wir gehen jetzt mal so Schritt für Schritt durch, wie bei jeder guten Studie.
00:05:11: erst mal Fragen zur Datengrundlage und zu den Grundlagen dieser Studie.
00:05:16: Also ausgewertet wurden Community Notes aus den Jahren Und zwar gut von dreißigtausend an der Zahl.
00:05:26: Und von denen wurden nur gut zwei tausend zweihundert veröffentlicht.
00:05:32: Das sind in etwa sechs Prozent.
00:05:34: Diese Zahl wird gleich noch wichtig.
00:05:35: Merken sechs Prozent in etwa veröffentlicht.
00:05:39: Quellen, auf die sich diese Community Notes bezogen haben, meistens journalistische Angebote, einundsechzig Prozent.
00:05:46: Dann Social Media, dreiundzwanzig Prozent und Behörden, zwanzig Prozent.
00:05:51: Und die meistgenutzte Quelle ist die Wikipedia auf korrektiv, zum Beispiel empfallen etwa zwei Prozent.
00:05:59: So.
00:06:02: Und jetzt gehen wir mal durch.
00:06:04: Erst mal die Funktionsweise der Community Notes.
00:06:06: Für alle nochmal zum Auffrischen.
00:06:08: Nutzerinnen schreiben diese Community Notes.
00:06:11: Damit sind sie noch nicht veröffentlicht.
00:06:13: Die müssen erst von anderen Nutzerinnen als hilfreich bewertet werden.
00:06:17: Und nur wenn Nutzer in den unterschiedlichen Perspektiven das tun, in einem gewissen Level wird diese Community Note sichtbar.
00:06:27: Und das führt dazu, dass das oft verzögert passiert.
00:06:31: Im Durchschnitt neunzehn Stunden nach der Veröffentlichung des Postings selbst, die Da, also die Postings, da meist schon ihre Reichweite auch einfach ausgeschöpft haben.
00:06:41: Wir wissen genau, wie schnelllebig Social Media ist.
00:06:44: Da machst du irgendwie einen Faktencheck hinterher, der wird dann nicht mehr geteilt, interessiert keinen mehr, weil es schon die nächste Kuh durchs Dorf getrieben
00:06:49: wird.
00:06:49: Und das ist ja ein Problem, das ist ja völlig antizipierbar, wenn du dir überlegst, dass die Falschmeldung sich deutlich schneller verbreitet als die Korrektur am Tag danach auf Seite thirty-two.
00:07:00: Und das ist hier nämlich genau das gleiche.
00:07:03: Eigentlich müsste man idealerweise, so wie die Oscar-Verleihung, mit so neunzig Sekunden Delay übertragen wird, müsste einfach jeder Post einfach so eine Stunde liegen und dann müssten Leute die Möglichkeit haben, das zu Community-Noten.
00:07:15: Ja, genau.
00:07:16: Es ist wie, weiß ich nicht, mit dem Faktencheck am nächsten Tag im Netz oder so.
00:07:19: Wir gucken ja auch keiner drauf, wahrscheinlich so in derselben Form.
00:07:23: Zumindest
00:07:23: nicht in dem Umfang, wie die Leute
00:07:25: die Show gucken.
00:07:26: Genau.
00:07:27: So, und ein bis zwei Prozent aller Community-Notes auf accent Deutsch sprach ich nur.
00:07:32: Was fiel
00:07:33: es übrigens, finde ich?
00:07:34: Findest du viel?
00:07:35: Ich
00:07:35: finde zwei Prozent Deutschsprachig recht viel, wenn man sich überlegt, dass doch der, das Gro der Menschen auf Ex-Anektotisch-Englischsprachig ist.
00:07:44: Ja, ich habe so gedacht, sagt das etwas auch darüber aus, welchen Stellenwert überhaupt eine deutschsprachige Community bei Ex überhaupt noch hat, weißt du?
00:07:51: Ja,
00:07:51: finde ich schon.
00:07:53: Okay, vorweggenommen Ergebnis und Muster, die bei dieser Studie rausgekommen sind.
00:07:58: Erstens.
00:08:00: ließ sich gerade schon erschließen.
00:08:01: Community Notes werden spärlich, spät und selektiv veröffentlicht.
00:08:06: Selektiv im Sinne der Mechanik, die dahinter steckt, die das sehr selektiv tut.
00:08:12: Die Anreize für eine Teilnahme an diesem Community Notes System sind gering.
00:08:16: Viele schreiben auch nur eine einzige Community Notes.
00:08:19: Das war es dann so als Nutzerin.
00:08:23: Was sagt das psychologisch aus?
00:08:25: Also sind das Leute, die ... dass die so den dran verspüren.
00:08:31: Okay, ich habe jetzt ... ... ich habe schon hundert mal ein Hotels übernachtet, ... ... aber das Hotel war so scheiße, ich schreibe eine Bewertung.
00:08:36: Gibt es sicherlich?
00:08:37: Oder ist das schon Aktivismus?
00:08:39: Also sind das Leute, die ... ... oder Accounts, also das sind ja nicht wirklich Menschen hier, ... ... die du messen kannst, sondern einzelne Accounts.
00:08:45: Accounts, die möglicherweise sogar nur angelegt werden, ... ... um zum Beispiel unliebsame Informationen ... ... entsprechend mit Community Notes irgendwie zu beschädigen.
00:08:53: Vielleicht ist die Antwort auch sehr viel ... ... einfacher.
00:08:58: Da gibt es noch eine zweite Studie, auf die gehen wir gleich nochmal an, die gibt uns da vielleicht eine Antwort zu.
00:09:05: So, und insgesamt ist die Aktivität rückläufig.
00:09:08: Sieben Prozent der Nutzerinnen verfassen mehr als die Hälfte aller kommunischen Notes.
00:09:12: Da liegt natürlich auch eine gewisse Macht
00:09:14: drin.
00:09:14: Ja, klar.
00:09:15: So.
00:09:16: Und Community Notes beziehen sich vor allem auf sichtbare Akteure.
00:09:21: Und das sind die... Ja, sagen wir mal, Multiplikatoren, Multiplikatoren, die schon immer, auch beim alten Twitter unterwegs waren, Politiker, Medien, Journalistinnen, diese Menge an Accounts.
00:09:34: So, jetzt gehen wir mal durch.
00:09:36: Also ich habe gerade schon gesagt, sichtbare Akteuren, neunundzwanzig Prozent der Community benoteten Accounts stammen aus Medien und dem Journalismus.
00:09:48: Also das macht den größten Anteil aus.
00:09:52: Siebenundzwanzig Prozent aus der Politik und besonders häufig Söder, Weidel, Lauterbach, Eivanger, Demasi.
00:10:05: Rechtskonservative nationalistische Accounts sind besonders oft Ziel von Community Notes.
00:10:11: Andere würden sagen, Da lohnt es sich, besonders oft auch hinzugucken.
00:10:16: Ja,
00:10:16: oder.
00:10:16: die sind einfach besonders reichweitenstark und auch publikationsstark auf X.
00:10:21: Genau, das ist das, was dann auch die Studie sagt.
00:10:25: Das ist keine Aussage über eine politische Schlagseite, weil die linke oder liberale Bubble, linksliberale Bubble mittlerweile seltener auf der Plattform E aktiv ist.
00:10:38: Welche Themen sind die besonders umstrittenen?
00:10:40: Klima, zwölf Prozent?
00:10:42: deutsche Politik acht Prozent, dann folgende Ukraine Krieg, Gaza, Israel, Wirtschaft, Soziales und Migration, Sicherheit so jeweils zwischen vier und sechs Prozent.
00:10:53: Also kontroverse gesellschaftspolitische Themen sind auch hier im Grunde, dass die Fläche auf der Leute sich dann austoben.
00:11:06: und interessant finde ich wenn es inhaltlich wird.
00:11:08: also die haben mal geschaut erfüllen community notes das Was Elon Musk dafür versprochen hat, was übrigens ja jetzt auch Mark Zuckerberg bei Meta und auf Facebook verspricht mit diesem System, nämlich dass das sozusagen der Ersatz wäre für den Faktencheck.
00:11:25: Zumal das ja alle Plattform jetzt irgendwie auch erwähgen, also diese Ex-Geschichte zu kopieren.
00:11:30: Du sagst, Mark Zuckerberg, es gibt aber auch Hinweise, dass YouTube sowas einführen möchte.
00:11:34: Bei TikTok haben wir auch schon mal über solche Ideen gesprochen.
00:11:37: Also das scheint gerade irgendwie für alle eine zumindest rechtssichere Variante zu sein gegen Echte Faktenchecks.
00:11:46: Das muss man so sagen, rechtssicher, weil wenn es irgendwo einen Regulierungsrahmen gibt, der das vorsieht, dann können die Argumentierende, haben wir ja machen bei uns halt nur die Nutzer und nicht, weiß ich nicht, korrektiv und die DPA oder so.
00:12:00: Und deswegen ist jetzt die Frage, erfüllen diese Community Notes in der Breite den Anspruch von Faktenchecks?
00:12:07: Und da sagt diese Studie, nein.
00:12:10: Fortzig Prozent sind überhaupt erstmal echte inhaltliche Fact-Notes, Context-Notes.
00:12:19: Der andere Teil, sechsundfünfzig Prozent, nennt die Studie Housekeeping-Notes.
00:12:25: Find ich einen guten Namen.
00:12:26: Das ist ein guter Name.
00:12:27: So.
00:12:29: Und zwar ist das sowas dem Sinn nach, diese Information wird nicht gebraucht.
00:12:37: Note not needed.
00:12:39: Siehst du sehr häufig bei Ex in den Community Notes und kommt dann halt, wenn andere Leute Community Notes geschrieben haben und jemand anders sind, aber sagt, das ist eine Tiere, wir müssen das hier nicht bei Community Noten.
00:12:50: So.
00:12:50: Und dann eben schon gesagt, diese späte Veröffentlichung mindert die Wirksamkeit zu einer Community Note und es gibt keinen Dialog.
00:13:01: über diese inhaltliche Ebene, sondern eine Diskussion, ein Diskurs darüber wird durch ein Algorithmus ersetzt.
00:13:08: Das ist ein ganz spannender Punkt, weil wenn du an die Diskussionsseite bei Wikipedia denkst.
00:13:15: Genau, ist direkt der Vergleich, an den ich auch denken muss.
00:13:17: Bei
00:13:17: dem ist halt wirklich auch Austausch, Streit gibt, auch der ist nicht fakesicher.
00:13:22: Also wir haben hier schon mal den Sockenpuppen so erwähnt, also teilweise Gruppen von Accounts, künstlichen Accounts, die erstellt wurden, damit sie eine Scheintdiskussion führen miteinander, damit Leute das Gefühl haben, da wurde eine Diskussion geführt.
00:13:36: Das gibt es natürlich auch.
00:13:38: Und übrigens hoffe ich genug auch NNN in der Wikipedia von irgendwelchen männlichen Administratoren.
00:13:44: Fünfzig Jahre alt, die denken, das Thema ist nicht relevant.
00:13:47: Mir fällt es immer auf.
00:13:48: Patsche,
00:13:48: nie gehört.
00:13:51: Mir fällt das immer auf im Vergleich zur englischsprachigen Wikipedia, die viel umfangreicher ist, wo für jeden, ich hab jetzt heute, hab ich geguckt, gibt's einen Wikipedia-Antrag zu diesem neuen Netflix-Film mit Kira Knightley.
00:14:06: Und es ist schon einer da, so.
00:14:09: Und das ist so, also das geht mir häufiger in der englischsprachigen Wikipedia so.
00:14:14: An der Stelle nochmal ganz kurz eingeschoben.
00:14:16: Ich habe immer noch keinen Wikipedia-Eintrag.
00:14:18: Ich auch noch nicht.
00:14:19: Leute.
00:14:20: Ja.
00:14:20: Ihr wisst, was zu tun ist.
00:14:22: Wir haben doch
00:14:25: schon mal dazu aufgerufen hier, oder?
00:14:27: Ja und das hat damals dazu geführt, dass wir im Blue Sky Eintrag immer in Erwähnung fanden.
00:14:31: So,
00:14:31: vielleicht können wir da nochmal ein bisschen was drehen.
00:14:35: Also die Wikipedia sagt die Studie basiert auf Diskurs, auf Hierarchie, Community Notes, dagegen auf Abstimmung, auf Algorithmus.
00:14:45: Also ganz interessante Beobachtung finde ich dadurch, dass sozusagen dieser Diskurs nicht stattfindet im Community Note System.
00:14:52: Fehlt Kommunikation und Kommunikation transportiert auch, selbst wenn jemand eine andere Meinung ist, Anerkennung.
00:15:03: Und wenn diese Anerkennung fehlt, ist die Motivation geringer sich zu beteiligen.
00:15:07: Fand ich einen sehr interessanten
00:15:09: Punkt.
00:15:09: Ja, das finde ich auch spannend.
00:15:11: Vor allem weil ja die Abstimmung, die du vornehmen kannst.
00:15:15: Ja, nur ist, ist dieser Note hilfreich oder nicht?
00:15:18: und dann noch mit einer Begründung, ja, gibt genug Quellen an zum Beispiel.
00:15:23: Aber es ist ja nicht so, dass du tatsächlich, wie bei Reddit zum Beispiel, so ein Up-and-Down-Vote-System hättest, bei dem du Transparenz sehen würdest, hey, siebentausend neunhundertdreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiunddreiund.
00:15:43: Also, das Fazit dieser Studie ist diese Community Notes Versprechen Transparenz, aber es ist keine verlässliche Abwehr von desinformationen.
00:15:52: Das ist ineffizient, das ist ungleich verteilt, das ist politisch umkämpft und auch deswegen ein Problem funktioniert eher, sagt die Studie als Experiment statt als Lösung.
00:16:03: Da kann ich mitgehen übrigens.
00:16:05: Ich finde trotzdem dieses System, wir haben ja auch schon mal aus wissenschaftlicher Sicht, auch aus anderen Perspektiven auf die Community Notes geguckt hier in Haken dran.
00:16:16: Und das ist für Wissenschaftlerinnen und Wissenschaftler, die sich mit dem digitalen, mit digitalen Diskussionen auseinandersetzen, wenn das einem ordentlichen Management unterliegt, dieses System, durchaus auch ausinteressant.
00:16:34: Und das erkennt auch diese Studie an, sagt schon, Experiment, so.
00:16:40: Naja, und dann der Punkt, und das ist eher ein Perspektivischer auch, dass KI-Inhalte auch an den Community Notes dann nochmal zunehmend menschliche Bewertungen ersetzen und auch das raubt dann nochmal Motivation.
00:16:52: Zumal das bei X passiert das ja schon.
00:16:54: Da hast du Notes, die GROC-Assisted sind.
00:16:57: Genau.
00:16:57: Und
00:16:58: das ehrlicherweise.
00:16:59: ist in dem Moment Etikettenschwindel, weil es keine Community-Note mehr ist, wenn es eine KI dazu schreibt.
00:17:06: Genau so.
00:17:06: Dann
00:17:07: ist es ein Faktencheck durch ein System, das möglicherweise noch politisch oder wirtschaftlich motiviert ist.
00:17:13: Und dann würde ich, also ich bin kein Rechtsexperte, wie wir alle wissen, aber spätestens dann muss doch die Politik sein, dass es nicht ausreichend.
00:17:23: Ja.
00:17:23: Du bist keine Rechtsexperte, wie alle Rechtsexperten wissen.
00:17:26: Ich bin auch kein Botaniker.
00:17:27: Alle Rechtsexperten sagen das.
00:17:31: Es gibt noch eine zweite Studie.
00:17:33: Hatt ich eben kurz geteased zu Community Notes.
00:17:35: Es ist eine englischsprachige Threats to the Sustainability of Community Notes on X.
00:17:42: Aber Threats mit T. Nicht mit T.
00:17:47: Die sagt, wenn eine erste Community Note, und das ist jetzt der Punkt, über den wir eben sprachen, warum, werden so viele nur einmal geschrieben.
00:17:58: Also diese Studie sagt, wenn eine erste Community-Nord veröffentlicht wird, veröffentlicht wird, nicht nur geschrieben wird, sondern wirklich veröffentlicht wird, dann erhöht das die Wahrscheinlichkeit, dass jemand auch eine weitere schreibt um fünf Prozent.
00:18:11: Krass.
00:18:12: Also das Problem für Ex-Bestäterin ist der Anteil hilfreicher Community-Nords, die auch tatsächlich veröffentlicht werden.
00:18:19: abnimmt und damit sinkt eben der Anreiz auch weiter Community Notes zu verfassen.
00:18:25: Also das heißt, du schreibst da rein, es wird nicht veröffentlicht und dann hast du nicht das Gefühl, ich war hier wirksam.
00:18:32: Das ist übrigens dasselbe wie in der Wikipedia.
00:18:34: Also die wollen immer das alle mitschreiben, dann schreibst du da das erste Mal rein und dann kommt so ein Administrator, der das wie in den in den Neunzigern in der Newsgroup irgendwie wegwischt.
00:18:43: So hast du die Suchfunktion nicht genutzt, du Idiot.
00:18:46: Und dann hast du ja keinen Lust mehr in die Wikipedia zu schreiben.
00:18:49: Also das kennt man ja dieses Phänomen.
00:18:53: oder bei Mastodon, sorry, meine Story.
00:18:56: Ja, das ist nicht mal ein Problem.
00:18:59: Das kannst du im Filivers ausdiskutieren, da halbst du mich raus.
00:19:01: So, und der Höchststand der Veröffentlichung, den gab es im März, im Jahr ist es im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im März, im.
00:19:19: Und dieser Anstieg von KI-generierten Community Notes, das sagen auch die Autorinnen dieser zweiten Studie, könnte eben diesen Trend noch verschärfen oder diese Trends, weil diese Formen der Community Notes das System überlasten.
00:19:34: und dann nochmal die Anreize verringern.
00:19:37: Das heißt, hier wurde so gedreht an diesem System, dass das System nicht nur ad absurdum geführt wurde, sondern auch nicht mehr funktional ist.
00:19:50: Ja, es wurde komplett dysfunktional gesetzt.
00:19:52: Und das, also im Fall von X, auf jeden Fall mit einer gewissen Absicht.
00:19:56: Wenn du dir überlegst, wie die Plattform generell auf Free-Speech schauen, und damit meine ich ganz gezielt Elon Musk, Mark Zuckerberg, alle Leute, die nix mit den Plattformen zu tun haben, aber was mitzureden haben, wie JD Vance, Donald Trump.
00:20:10: Also wenn du dir diese ganze rechte Tech- Bro konservativen Republikaner-Bubble in den USA anschaust, dann ist deren Verständnis von Free Speech ja, dass es eigentlich fast, also es ist mit Zensur gleichzusetzen, wenn du marginalisierte Gruppen schützen möchtest, wenn du Gewalt und Hass eindämmen möchtest, dann machst du dich mit Kommunisten gemein plattgesagt.
00:20:35: Und deswegen gehen sie natürlich auch gezielter gegen vor.
00:20:37: auf der einen Seite, diese Simulation aufrecht zu erhalten, damit es eben nicht... Unnötig Diskussion gibt, aber das darf auf gar keinen Fall funktionieren.
00:20:48: Man muss kein Verschwörungsmensch sein, um zu sagen, das ist absolut gewollt, dass diese Community Nords nicht funktionieren.
00:20:57: So
00:20:58: würde ich sagen.
00:20:59: Vielleicht lehne ich mich zu weit aus dem Fenster, aber es ist auch spät, wenn wir das ja aufnehmen.
00:21:02: Naja, also vielleicht kann man es auch... Also es ist scharf ausgedrückt.
00:21:11: Wir weiß es dann immer nicht, aber es ist ja schon auffällig, wie die Plattform in diese Richtung gehen, weil zumindest der bisherige Ansatz einer sehr viel stärkeren Moderation, die sich aus den Ergebnissen des Fact-Checkings ergibt, zumindest der ist nicht gewollt.
00:21:31: Definitiv
00:21:32: nicht.
00:21:32: Und auch
00:21:33: politisch nicht.
00:21:34: Und da dreht sich das Fanchen ja schon nach dem Wind.
00:21:37: Die Frage, ist natürlich, ob das System so laisse fair, wie es da jetzt irgendwie ist, nicht auch aus anderer politischer Perspektive irgendwann hochgenommen werden kann.
00:21:50: Finde ich auch eine interessante Frage, ob es dafür sozusagen auch offen ist.
00:21:56: Aber ja, also politischen Einfluss gibt es da.
00:22:00: Ja.
00:22:01: So.
00:22:02: Haken dran.
00:22:03: Haken dran.
00:22:04: Danke auf jeden Fall, dass wir hier diese Studie so früh erzählen durften.
00:22:07: Exakt.
00:22:08: So.
00:22:08: Und wir verweisen noch einmal auf Machine Against the Rage.
00:22:14: Ja, wir packen beide Studien in die Show Notes, die wir gerade hier auseinander genommen haben, damit ihr euch die auch durchlesen könnt, die von Machine Against the Rage ist.
00:22:23: Es ist wirklich schön, sich auch einfach mal da so ein bisschen durch zu blättern und durch zu klicken, weil es auch wirklich mit Animationen und Visualisierung sehr schön gemacht ist.
00:22:30: Und auch mal wieder was lesen, was länger ist als fünfhundert Zeichen.
00:22:33: So.
00:22:37: Wir müssen heute über eine neue Plattform sprechen.
00:22:39: Die Macher in dieser Plattform sagen, sie wollen damit den Online-Raum von Big Tech zurückerobern.
00:22:44: Die Plattform selbst soll uns als Nutzer in die Kontrolle über unsere Fieze geben.
00:22:47: Ohne Werbung, ohne Tracking, ohne algorithmisch gesteuerte Inhalte.
00:22:50: Der Name dieser Plattform lautet... Warte.
00:22:53: Mastod?
00:22:54: Ne.
00:22:54: Hello?
00:22:55: Ne, warte.
00:22:57: Vero?
00:22:59: Ich glaube, L.O.
00:22:59: und Vero haben das absolut nicht im Ziel gehabt.
00:23:01: Diaspora App.net?
00:23:02: Diaspora, sehr gut.
00:23:03: Blue Sky?
00:23:04: Nein, sie heißt Monet.
00:23:06: Monet.
00:23:07: Monet.
00:23:08: Aber nicht, es ist unmonetarisiert, muss man dazu sein.
00:23:12: Sehr gut.
00:23:13: Sehr gut.
00:23:13: Ja, also es sind, ich glaube, zwei Gründer, zumindest sind die in dem Artikel porträtiert worden, den ich gelesen habe von der Luxemburg Times, heißt es glaube ich, kann es sein?
00:23:25: Jetzt bin ich mir nicht sicher, ob die Zeit umgelegt ist.
00:23:27: Doch, ich glaube, sie heißt ja, oder Luxemburg.
00:23:32: Und du hast natürlich recht in deiner... ... in deinem Sport.
00:23:36: Steckt
00:23:36: eine Kritik drin, ne?
00:23:37: Steckt
00:23:38: eine kleine Kritik drin.
00:23:39: Er war nicht besonders gut versteckt, aber ich habe sie trotzdem mitbekommen.
00:23:43: Diesen Hohen.
00:23:45: Also klar, wir haben diese Ideen alle schon hier.
00:23:47: Wir haben sogar dezentrale Ideen.
00:23:48: Trotzdem muss man dazu sagen, es ist erstmal alles lobend hervorzuheben, was ein Versuch in diese Richtung ist.
00:23:54: Die Plattform fühlt sich so ein bisschen am Monat.
00:23:56: Man kann sie sich im App Store oder im Play Store herunterladen.
00:23:59: Man kann sich registrieren.
00:23:59: Das ist eine offene Beta.
00:24:00: Also sie funktioniert schon.
00:24:02: Und sie ist so eine Mischung aus Instagram und TikTok gerade.
00:24:05: Es gibt Stories, es gibt einen Feed, der sich anfühlt wie ein TikTok Feed und das Spannende ist aber tatsächlich die Art und Weise wie du dir den Feed zusammenbauen kannst, weil das ist wirklich simpel.
00:24:15: Also ich zeig dir das hier für die, die es bei YouTube sehen, einmal in die Kamera, so ungefähr sieht das aus, ich werde es aber jetzt auch nochmal erzählen.
00:24:23: Und zwar du hast so ungefähr zehn solche Schieberegler und die obersten beiden heißen Friends und Accounts You Follow.
00:24:31: Und die stehen von Anfang an komplett auf Plus.
00:24:33: Die kannst du aber auch weiter nach hinten schieben und die bestimmen, wie viele Inhalte du von Leuten siehst, mit denen du befreundet bist oder eben den du folgst.
00:24:39: Also Freunde sind die mit Mutual sozusagen.
00:24:43: So dann kommt die Kategorie Discover, also wie viele Recommendations willst du sehen und wie groß soll der Radius sein, wo dieser Post herkommt.
00:24:52: Möchtest du nur lokale Inhalte sehen?
00:24:53: Also du gibst deinen Standort an, wenn du willst, nationale Inhalte oder globale Inhalte.
00:24:58: Und dann gibt es Kategorien der Interesse.
00:25:00: Und da ist Entertainment, Sports, Live, News und Learn.
00:25:03: Und kannst auch da diesen Regler hin und her schieben.
00:25:05: Und das ist es.
00:25:06: Damit kontrollierst du dein Algorithmus.
00:25:08: Das ist ganz interessant, weil das ja Kategorien sind, die sozusagen in Algorithmen so wie wir Algorithmen kennen und das Verständnis davon haben ja durchaus eine Rolle immer spielen.
00:25:18: Ja, einmal das Spannende ist, dass es eben nicht so übergranularisiert ist.
00:25:23: Also ist es nicht so, dass es so ein Clusterfuck ist, wie ich bei Instagram befürchte, dass du ein freie Textfelder hast und ich schreibe da jetzt Autosport hin oder Formel eins, wenn ich nicht möchte, dass mir die ganze Zeit irgendwie schnell für einen Männer angezeigt werden, sondern du hast halt wirklich einfach diese fünf Schieberegler und kannst die dann so anpassen, wie du möchtest.
00:25:41: Und das ist, glaube ich, geschickt gewählt, weil es eben damit auch für eine breite Masse und nicht nur für die Scriptkits unter uns einfach wird, diesen Algorithmus mitzubestimmen.
00:25:51: Und das finde ich ein sehr spannender Ansatz, ehrlicherweise.
00:25:55: trotzdem bleibt natürlich die Frage offen, wenn es keine Werbung, kein Tracking, keine algorithmisch geschleuteten Inhalte oder nicht nur algorithmisch geschleuteten Inhalte gibt, wie sich das am Ende finanzieren wird.
00:26:05: Auch darauf habe ich eine Antwort, denn beim Registrierungsprozess wirst du gefragt, ob du Geld ausgeben möchtest.
00:26:11: Und dieses Geld ausgeben bedeutet hier, du kannst eine Subscription abschließen und diese heißen, also es gibt drei Modelle, Free, Freedom oder Pro und kannst dann aussuchen, wie viel möchtest du eigentlich bezahlen.
00:26:23: Bisher.
00:26:23: ... ist da aber kein Funktionsumfang dran gebunden, ... ... sondern entweder du hast es umsonst ... ... es hat zwei Euro für ein neunzig im Monat ... ... oder du zahlst fünf Euro für ein neunzig im Monat, ... ... aber bisher bringt es noch nicht mehr ... ... außer, dass du es halt supportest.
00:26:36: Auch das finde ich einen spannenden Ansatz, ... ... weiß nicht, ob das reicht am Ende, ... ... aber ich mag die Ideen ein bisschen.
00:26:43: Ja, und so lässt es sich dann ... ... vielleicht am Ende doch zumindest ... ... ein wenig monetarisieren.
00:26:50: Die app monet ja du ich also das möchte ich noch mal betonen das ist lobenswert jeder einzelne schritt und wenn ich hier elo und vero und app.net und wie sie alle heißen aufzählen das ist Vielleicht gar nicht so dieses leute versucht es doch gar nicht erst sondern auch so ein Und wahrscheinlich wird es leider wieder nicht klappen.
00:27:13: Weißt du so?
00:27:14: Ah
00:27:14: ja, also ein gewisser Frust der, der ausgeworfen
00:27:16: ist.
00:27:16: Ja, der ist schon dabei.
00:27:18: Das ist schon dabei.
00:27:19: Ich verstehe was.
00:27:20: Vor allem weil ja auch die, also in meiner Wahrnehmung, und das geht mir jetzt bei Monet so, die ersten Schritte, die ich mit dieser App gemacht habe, fühlen sich, und es ging mir auch bei Blue Sky so, fühlen sich sehr viel besser an.
00:27:35: als viele dieser Alternativen, die aus einer technischen Warte kamen und nicht so viel Gedanken an UXUI verschwendet haben.
00:27:44: Das ist hier zum Beispiel der Fall und das ist für mich schon allein deswegen ein Meilen weiter Unterschied, weißt du?
00:27:51: Ja, ich glaube, das ist ja auch genau das, was wir in den Anfangstagen von Haken dann immer gesagt haben.
00:27:58: Die Idee Fettiverse ist saugeil.
00:28:00: Man müsste nur ein Frontend dran setzen, das sich so anfühlt.
00:28:03: Und da ist so ein bisschen, steckt mein Vorwurf jetzt an Monet oder Monet vielleicht auch drin, dass man... Warum nicht auch auf eine dezentrale Plattform gesetzt hat, um dieselben Ideen umzusetzen?
00:28:16: Weil es wäre möglich gewesen.
00:28:17: Man hätte sich sozusagen direkt mit in diesen, vielleicht, also Kritiker würden vielleicht sagen, in diesen zu idealistischen Ansatz reingeschmissen.
00:28:25: Ich würde aber sagen in einen, der halt dann auch für die Leute interessant ist, die eben nicht einfach nur die breite Masse sind.
00:28:31: Also man hätte sich damit eine Glaubwürdigkeit und ein Vertrauen auch in der Bubble derer erspielt, die am Anfang, glaube ich, sehr, sehr entscheidend für seine Plattformen sind.
00:28:43: Die Luxemburg Times sagt übrigens, dass es durch ein Werbesystem kommen könnte, das aber dann hyper getargetet ist und komplett die Privatsphäre schützen soll.
00:28:52: Auch da bin ich gespannt, weil dieses Hyper-Targeting, das wir von Meta zum Beispiel kennen, wir erinnern uns wie Markus Beckedahl, ich habe ihn damit jetzt zitiert, gesagt hat, Instagram mit nicht personalisierter Werbung ist quasi nicht mehr nutzbar.
00:29:05: Ja.
00:29:05: Bedeutet im Umkehrschluss, Markus Becketal hat gesagt, Instagram mit Personalisierter Wärmung ist einfach besser.
00:29:10: Wollte er dich so stehen lassen, diese Verkürzung.
00:29:12: Aber wenn du das eben ausschaltest, diese Personalisierte Wärmung, dass du dann nur noch Schrott angezeigt kriegst.
00:29:19: Und das wird dann hier natürlich auch passieren.
00:29:20: Das
00:29:21: macht es natürlich dann kaputt.
00:29:23: Ja, okay.
00:29:24: Ich habe nur gerade nochmal überlegt, ich kenne ein paar Luxemburger.
00:29:26: Du ja auch.
00:29:27: Ja, ich auch.
00:29:28: Und wenn die letzte Birge sprechen, dann würde das Monet heißen.
00:29:33: Das klingt wie so ein Wort, das auch in so einen Satz gut reinpassen würde.
00:29:37: Ja, also so übersprachen sich lustig machen ist natürlich extrem meine Arbeit.
00:29:42: Ja, ich wollte aber sagen, es ist sehr gemein, aber im Fall von Luxemburg ist schon komplett angemessen.
00:29:46: Weißt du, kann das nicht machen, war nur Fakt, wollte ich sagen.
00:29:49: So, okay.
00:29:50: Wir... Wir... Wir... Wir...
00:29:51: Das tut mir leid.
00:29:52: War nur ein Scherz, lieber Luxemburger Rinner.
00:29:54: Wir... Wir... Wir... Wir... Übrigens hat eine Sache noch zu Luxemburg.
00:29:57: Ich will dich hier nur retten, aber du hörst nicht auf, dann mach einfach.
00:30:00: Ich will nur dazu sagen... Also von allen Ländern aus denen so eine idealistische Social-Media-Plattform kommt, ist der Heimatort von Amazon Europa jetzt nicht zwangsläufig, der auf den nicht am meisten Wert gelegt hätte.
00:30:11: Ja, ja.
00:30:13: Interessant, ne?
00:30:14: Ja.
00:30:15: Gut.
00:30:16: Dann gehen wir die Plattformen durch.
00:30:19: Und die Anbieter, ich möchte beginnen mit dir bei Meta.
00:30:23: Es gab im Jahr- und-zwanzig-Hand-Daten-Lag bei Facebook.
00:30:26: Wir erinnern uns, da sind massenhaft Daten von Nutzer innen abgeflossen, weil Leute irgendwie das, was... sozusagen online auslesbar war, gescraped haben.
00:30:34: Es gab allein in Deutschland Millionen Geschädigte.
00:30:37: Wir haben in Haken dran auch schon mal drüber gesprochen, also Haken war dran.
00:30:40: Und wer betroffen ist?
00:30:43: Ich empfehle dazu hevibinpaunt.com, da kann man das mal checken, kann sich jetzt eine weiteren Sammelklage anschließen, und zwar vom Verbraucherzentrale Bundesverband, der sagt, bei vielen Leuten sei nach diesem Datendreck die Zahl der belästigen Anrufe und SMS gestiegen, die Fishingfälle, der Enkeltricks und teilweise sogar Identitätsdiebstahl.
00:31:03: Und diese Klage jetzt ist eine Feststellungsklage, die klären soll, ob Facebook hier gegen das geltende Datenschutzrecht verstoßen hat.
00:31:10: und die Verbrauchersentrale sagt, dass nach einem Urteil des Bundesgerichtshofs schon der bloße Verlust der Kontrolle über persönliche Daten ausreichen kann, um hundert Euro Schadensersatz zu erhalten.
00:31:21: Da ging es in einem Fall um Telefonnummer, Name, Facebook, ID und Arbeitsort und jetzt wird zusätzlich geltend gemacht.
00:31:28: E-Mailadresse hundert Euro, Geburtsdatum hundert Euro, Wohnort hundert Euro, Beziehungsstatus zweihundert Euro plus gegebenenfalls weitere Summen für konkrete Schäden.
00:31:39: Ich würde sagen auch den Link der Verbraucherzentrale packen, wenn man die Shownotes,
00:31:43: oder?
00:31:43: Ja, würdste mal sagen, ne?
00:31:45: Mache
00:31:45: ich denn das.
00:31:46: Mach
00:31:46: du das doch
00:31:47: mal.
00:31:49: Ja, finde ich, ich finde das total spannend, weil wir haben ja auch mit Chanchu Junen, der übrigens kommende Woche wieder zu uns kommt.
00:31:55: Den werde ich da direkt mal drauf ansetzen.
00:31:57: auf dieses Thema auch drüber gesprochen haben, weil es gab ja auch den Fall des Landgerichtes Leipzig, bei dem ein Nutzer geklagt hatte, weil über ihn ein Profil erstellt wurde, das rechtswidrig war nach europäischem Datenschutzrecht, der fünftausend Euro zu gesprochen bekommen hat.
00:32:11: Und mittlerweile muss man sagen, dass diese ganzen Vergehen und Verstöße, die Facebook sich vor allem in den letzten zehn Jahren erlaubt hat, Dass die sich mittlerweile lohnt zum Geschäftsmodell zu werden, also sowohl für die Klagenden, als auch für Anwältinnen.
00:32:28: Und das hatte Jun so prognostiziert, dass das wohl kommen könnte, wenn jetzt diese Fälle sich häufen, dass höhere Summen möglich werden, weil er meinte, für hundert Euro wird er jetzt da kein großes Modell aufsetzen, aber bei sechshundert Euro hier oder im tausendfünfhundert Euro oder fünftausend Euro, wie im Fall Leipzig.
00:32:46: In dem Fall lohnt es sich dann doch ganz schon für so ein Anwalt daraus tatsächlich so eine einfache Maschine zu machen, wo du dich einfach auf eine Liste einträgst.
00:32:55: Und das noch dazu gesagt, umso besser ist es dann ja sich nicht möglicherweise an dubiose Anwälte ranzuschmeißen, sondern eben sich hier bei der Verbraucherzentrale einfach mit einzuschreiben.
00:33:06: Wobei das Modell ja mittlerweile geübt ist, also spätestens seit dem VW-Prozess, wo das das erste Mal so in der öffentlichen Wahrnehmung finde ich so groß geworden ist, dass da Kanzleien wirklich reinweise so Verfahren anstreben und den Prozess dahinter top.
00:33:22: digitalisiert haben.
00:33:24: und wenn du das so durchziehst und es dann irgendwie so skaliert, lässt du eher rechnen sich natürlich auch hundert Euro, um die es da am Ende irgendwie geht.
00:33:33: und das ist schon spannend.
00:33:36: und da gibt es eine ganze Reihe von Kanzleien, die das machen.
00:33:41: oder was heißt ganze Reihe, es gibt einige von denen selbst so Organisationen wie die Stiftung Warentest sagen ist empfehlenswert, sich da anzuschließen.
00:33:51: Klar.
00:33:52: Aber klar, Verbraucherzentrale Bundesverband nochmal, auch nochmal eine andere, viel klassischere Hausnummer.
00:33:59: Trustworthy.
00:34:01: So.
00:34:01: Prädikat von Haken dran.
00:34:04: Von Trustworthy zu Tiktok.
00:34:07: Die einen sagen so was wie Papaplatte, so was Virales.
00:34:11: Ja, das hat letzte Woche, oder in der letzten Folge am Mittwoch vorgesehen ist.
00:34:16: In meinem Kopf schmelzen die Haken dann folgen einfach zu einem großen Matschhaufen.
00:34:20: Klumpatsch.
00:34:21: Klumpatsch.
00:34:23: Am Mittwoch hat Dirk von Gelen, also wir haben über Zora die letzten Episoden viel gesprochen.
00:34:27: Ja.
00:34:29: Es fasziniert mich auf mehrere Arten.
00:34:31: Ich habe das, glaube ich, schon zu genüge hier durch exerziert.
00:34:35: Aber er hat darüber gesprochen, dass er auf TikTok nur noch Papa Platte sieht.
00:34:38: Ist ja wirklich so.
00:34:39: Ja, und inzwischen geht's uns allen so.
00:34:41: Du siehst nur noch KI-generierte Videos von Papa Platte, die mit Zora erstellt wurden, heruntergeladen wurden, und damit TikTok wieder hochgeladen wurden.
00:34:47: Papa Platte, der bekannt, dass er zum Islam konvertiert ist.
00:34:50: Papa Platte, der sich in eine Gurke verwandelt.
00:34:52: Papa Platte, der von Polizisten festgenommen wird.
00:34:54: Eigentlich alles.
00:34:55: Der
00:34:55: in der Treppe runterfällt, der in Anime-Outfit anprobiert.
00:34:57: Genau.
00:34:58: Also wer Papa Platte nicht kennt, Papa Platte ist einer der größten Streamer in Deutschland.
00:35:03: Creator.
00:35:04: Genau.
00:35:05: Allein dieses Gurkenvideo, Gewürzgurke, wohlgemerkt, hat Aufrufe im Millionenbereich.
00:35:13: Die einen sagen so was würde ich gerne schaffen, selbst so was viral ist, der andere nämlich Papa-Platte, selbst auch Entschuldigung, aber ich war es nicht.
00:35:20: Also das kommt von Zora, dem KI-System von OpenAI, das mit nur wenigen Anweisungen, in wenigen Sekunden realistische Videos generieren kann und das war ein Nutzer von Zora, die diese Papa-Platte-Videos dann generiert und hochgeliefert.
00:35:34: haben.
00:35:34: Aber, aber, also er hat ja einen Grund, warum er sich entschuldigt.
00:35:39: Er hat jetzt, ich wollte es glaube ich jetzt erzählen.
00:35:41: Sorry, ich wollte ja nicht dazwischengehen.
00:35:42: Aber er hat ja in der Instagram Story gepaust und hat gesagt, Leute es tut mir leid, dass so viele KI-Videos jetzt gerade überall sind und entschuldigt sich dafür.
00:35:50: und das aber, weil er ja nicht ganz unschuldig daran ist, weil er sicher entschieden hat diese Funktion bei Sora freizuschalten, dass man mit seinem Gesicht Inhalte erstellen kann.
00:35:57: Natürlich Wer in er es nicht gewesen wäre, wäre es jemand anders gewesen, vermutlich.
00:36:01: Also diese Dynamik, diese KI-Dinge ausprobieren und dann verbreiten zu wollen.
00:36:06: Die erleben wir gerade überall.
00:36:07: In den USA ist es eben Jake Paul oder Steven Hawking oder die Queen, die gerade extrem viel generiert wird mit Soura in Deutschland.
00:36:15: Es ist dann halt Pepperplatte.
00:36:19: Jedes Land, das Gesicht, das ist verdient.
00:36:25: Mein Gott.
00:36:27: Also Papa-Platte ist übrigens selber jetzt nicht einer der, es gibt ja so durchaus Streamer in Deutschland, ich will es nicht so viel Namen nennen, aber es gibt ja durchaus Streamer in Deutschland, da würde man sagen, das würde ich jetzt nicht mal meinem siebzehnjährigen Sohn empfehlen, sich das anzuschauen.
00:36:41: Dazu gehört Papa-Platte eigentlich nicht.
00:36:42: Papa-Platte ist schon einer der Leute, denen ich unterstellen würde, dass sie das Herz am rechten Fleck haben und auch durchaus sehr reflektiert Social Media benutzen.
00:36:51: Der hatte auch TikTok als ganz gefährliche Quelle von Desinformation und schon häufiger kritisiert und so.
00:36:56: Also es ist durchaus jemand, der sich damit auseinandersetzt und ich glaube auch seiner Verantwortung, der Reichweite häufig bewusst ist, immer wahrscheinlich nicht.
00:37:03: Gibt es selten
00:37:03: genug?
00:37:04: Ja,
00:37:05: deswegen.
00:37:05: Wir haben nur
00:37:06: gesagt, mit den Gesichtern ist es schon eine Fallhöhe zwischen der Queen und ihm.
00:37:11: Aber ja.
00:37:12: Eine Treppenfallhöhe.
00:37:13: Eine Treppenfallhöhe.
00:37:15: So, dann gehen wir rüber zu X. Elon Musk kündigt.
00:37:19: Jetzt
00:37:19: weiß ich, wie sich meine Gäste immer fühlen.
00:37:23: Wenn ich Elon Musk sage und die immer machen.
00:37:26: Ich fühl's.
00:37:27: Du hast es genauso gelebt.
00:37:28: Also, wenn die Meldung schon so ankündigt, Elon Musk kündigt an.
00:37:32: Aber wir müssen es leider einmal durchgehen.
00:37:34: Das sag
00:37:35: ich dann auch immer denn.
00:37:36: Weil es relevant sein könnte.
00:37:39: Und auch das sagst du dann immer.
00:37:43: Wir werden im Laufe der Woche den aktualisierten Algorithmus veröffentlichen.
00:37:46: Das ist jetzt die deutsche Übersetzung.
00:37:49: Sprachlich würde ich hier mal genau aufs Englische auch gucken.
00:37:54: Er schreibt dazu weiter, ihr werdet feststellen, dass viele wahrlose und überflüssige Regeln jetzt wegfallen.
00:38:01: Nächsten Monat gehen wir zu vollständigen KI-Empfehlungen über, bei denen alle über einhundert Millionen Beiträge pro Tag von GROC bewertet.
00:38:09: Und euch diejenigen empfohlen werden, die euch am ehesten interessieren.
00:38:12: Und wir werden euch die Möglichkeit geben, die Inhalte, die euch empfehlen, empfohlen werden, dynamisch anzupassen.
00:38:17: Zum Beispiel zeige mir weniger Politik.
00:38:20: Da hat wohl Nikita Bier viel Zeit auf Monat verbracht.
00:38:27: Meinst du?
00:38:28: Da bin ich mir nicht so sicher.
00:38:30: Nee, Instagram hatte das ja auch schon ein paar Wochen angekündigt.
00:38:33: Gleichzeitig hat Elon Musk das ja vor drei Jahren versprochen, dass es nächste Woche kommt.
00:38:38: Ist das immer noch dieselbe Woche, die er meinte?
00:38:41: Wahrscheinlich.
00:38:42: Er hat die Jahreszahl nicht dazu gesagt.
00:38:43: Wenn er sagt Ende Oktober, alles ist möglich.
00:38:49: Ich bin total gespannt, weil ich glaube, da geht mich nicht darauf fest.
00:38:56: Aber diese Umstellung auf AI Recommendations, das ist Bullshit.
00:39:01: Ich glaube, das macht gar keinen Unterschied.
00:39:03: Ich glaube, irgendwo steht Powered by GROC, aber das ist ja jetzt schon all das Machine Learning.
00:39:08: Wo ist der Unterschied?
00:39:10: Also es läuft vielleicht über andere Server, aber was ändert sich?
00:39:14: Also wir haben ja gerade beim Monat darüber gesprochen, dass Algorithmen mit unter auch Kriterien basiert sind.
00:39:20: Also das wirklich, weiß ich nicht zum Beispiel, der Ort der Veröffentlichung als festes Kriterium irgendwie da eine Rolle spielt.
00:39:27: Und wenn du jetzt nur einmal irgendwie den Inhalt mit KI durchziehst, weißt du, ohne dass das so fix in Kriterien angelegt ist, ist das nicht ein Unterschied?
00:39:36: Ja, doch ich glaube, der größte Unterschied ist halt, dass da ein Large Language Model zwischenhängt, das diese Posts auswertet und nicht einfach nur auf Signale schaut, die irgendwo stecken.
00:39:46: Ich glaube, das ist schon ein inhaltlicher Unterschied und das ist ein gefährlicher Unterschied, weil dieser Unterschied am Ende bedeutet, dass es viel, viel, viel mehr Möglichkeiten für Plattformen oder für die Blackbox Algorithmus gibt, die öffentliche Meinung zu steuern.
00:40:01: Vielmehr als jetzt gerade.
00:40:02: Das ist ein großer Unterschied.
00:40:04: Die Frage ist nur, wenn es diese Technologien der Large Language Models im Hause X seit drei Jahren gibt oder zwei, haben sie das nicht möglicherweise schon längst irgendwo mit eingeflochten?
00:40:17: Ja, ja gut.
00:40:18: Also die VU-Page ist seit zwei Jahren, glaube ich, bei X. Andere Plattformen arbeiten ähnlich.
00:40:25: Ich würde behaupten, dass sich nicht allzu viel ändern wird.
00:40:28: Aber vielleicht auch doch, vielleicht bericht auch endlich alles zusammen.
00:40:31: Vielleicht schließt sich pünktlich zur fünfhundertsten Episode, das Kapitel X.
00:40:35: Also nächste Woche.
00:40:37: Und wir gucken dann, wenn es wirklich so weit ist, auch nochmal drauf.
00:40:42: Die Ankündigung ganz kurz, dass wir sie den Algorithmus veröffentlichen werden, inklusive den Gewichten, also den Gewichtungen.
00:40:49: Die ist wirklich so alt.
00:40:50: Ja.
00:40:51: Die sind zu alt, aber wenn die jetzt wirklich nächste Woche oder diese Woche noch kommen wird, also ich meine wir am Freitag, was ist later this week.
00:41:00: Ich bin gespannt.
00:41:01: Also wir schauen uns das auf jeden Fall an.
00:41:04: Wir gehen nochmal in die juristischen Schammelzell rund um die Twitter-Übernahme.
00:41:07: Du erinnerst dich, dass Elon Musk Verspätet, offengelegt hat, dass er sich da recht groß bei Twitter angekauft hat.
00:41:13: Ja, da muss man dazu sagen, das ist wirklich eine Geschichte, die uns seit Folge drei gefühlt hat.
00:41:17: So,
00:41:17: das ist wirklich so.
00:41:18: Das ist noch länger als die Algorithmusankündigung.
00:41:20: Er wollte, dass der Prozess um diesen Fall aus dem District of Columbia nach Texas oder New York verlegt wird.
00:41:26: Ist ja auch praktisch, wenn du Richter davor dir sitzen hast, die selber in Tesla investiert
00:41:30: sind.
00:41:30: Exakt.
00:41:30: Und das hat ein Gericht jetzt zurückgewiesen.
00:41:34: Und eine Entscheidung über einen zweiten Antrag von Elon Musk steht noch aus und zwar darüber die Klage der SEC abzuweisen.
00:41:41: Ich habe da so eine Tendenz, was da passieren wird.
00:41:46: Ja, also die wird natürlich nicht abgewiesen.
00:41:48: Ja.
00:41:49: Weil diese Klage schon viel zu lange im Raum steht.
00:41:51: Und Elon Musk so häufig nicht vor Gerichte erschienen ist, dass selbst das im Moment eventuell rissige amerikanische Rechtssysteme sich damit der Lächerlichkeit hingeben würde.
00:42:03: Was nicht heißt, dass nicht trotzdem passieren kann?
00:42:05: Ja, also da wollte ich, ich weiß nicht, ob dieses sich der Lächerlichkeit hingeben, ob das noch ein Faktor ist gerade, aber ich habe gerade gedacht, Das wird nicht passieren.
00:42:15: Schon daran, deshalb nicht, weil Elon Musk nicht mehr so häufig im weißen Haus abhängt.
00:42:20: Auch, dass
00:42:20: ich vorbei die beiden auf der Charlie Kirk Gedenkveranstaltung ganz schön rumgekumpelt haben.
00:42:26: Das stimmt.
00:42:26: Das habe ich auch gesehen.
00:42:27: Ja, ja.
00:42:29: Ja.
00:42:30: Gut.
00:42:32: Tim Chininov ist ein früherer Software-Engineer von SpaceX.
00:42:36: Und der hat jetzt bei Substacken interessanten Artikel veröffentlicht, wie Content Pipelines in sozialen Medien versucht haben, mich zu konservativen Inhalten zu lenken.
00:42:46: Wir mögen an dieser Überschrift natürlich alles für eine Besprechung in Haken dran.
00:42:51: Ich gebe mal so ein paar zentrale Punkte aus diesem Artikel wieder.
00:42:54: Also erstmal... gibt er wieder, wie Empfehlungsalgorithmen heute einfach funktionieren.
00:42:59: Man spürt auch direkt seine Haltung dazu zwischen den Zeilen.
00:43:02: Soziale Medien sind zu einem Umfeld geworden, in dem man ein skeptischer Teilnehmer sein muss, wenn man nicht von den Social Engineers, die die Plattformen entwickeln, ausgenutzt werden will.
00:43:11: Und dann weiter.
00:43:11: In den letzten zehn Jahren wurden Kurationsalgorithmen so erweitert, dass sie ihnen nicht nur Inhalte von Personen zeigen, mit denen sie interagiert haben, sondern auch Inhalte, mit denen Nutzer mit ähnlichen Interaktionsgewohnheiten wie sie interagieren.
00:43:25: Medienplattformen versucht also sie in eine willkürliche soziale Gruppe einzuordnen und ihnen Inhalte zu zeigen für die andere in dieser sozialen Gruppe Interesse zeigen.
00:43:34: Also was er dort beschreibt ist sozusagen der der Shift von Algorithmen wie wir sie bei Facebook kannten.
00:43:41: Also Social Graph hin zu Algorithmen wie wir sie von TikTok kennen.
00:43:45: Also die inhaltlich basierten.
00:43:48: So.
00:43:48: Und jetzt kommt der Zusammenpunkt.
00:43:50: Dieses Modell der algoritmischen Kuration führt zu Content Pipelines.
00:43:56: Content Pipelines sind die Folge des Versuchs, sie mit anderen ähnlichen Nutzern zu segmentieren und ihnen Inhalte zu zeigen, mit denen diese anderen Nutzern interagiert haben.
00:44:05: Wenn sie sich beispielsweise für Videospiele interessieren, zeigen ihnen Kurationsalgorithmen, möglicherweise Videospielkunst, Musik und Nachrichten, weil andere Konten ähnliche Interessen haben.
00:44:17: Und ob die Interaktion positiv oder negativ ist, ob sich um mildes gefällt mir oder um intensiven Kommentarhandels spielt keine Rolle.
00:44:23: Interaktion ist Interaktion.
00:44:25: Alles was nicht zum Blockieren des Kontos führt, bringt sie näher an die Inhalte weiter hinten in der Pi-Plan.
00:44:33: Ich finde, dass... Ja, ich mache
00:44:35: ein konkretes Beispiel auf.
00:44:39: Wenn du in der und das macht eher so als Beispiel für seine eigene Anwendung, du bist in einer Astronomie Bubble unterwegs und dann gibt es Schnittmengen mit SpaceX Content und wenn du auf den dann reagierst, landest du auch in der SpaceX Bubble.
00:44:59: So, von dort gibt es Verbindungen zu Elon Musk Content und damit zu Elon Musk Bubble, von dort zu Joe Rogan Content und zu Joe Rogan Bubble und von da dann weiter zu Jordan Peterson Bubble.
00:45:09: So.
00:45:10: Und schon bist du politisch irgendwo ganz so anders, wo du dich vorher aufgehalten hast.
00:45:15: Ich finde das mega, also es ist fairerweise keine ganz neue Erzählung, weil die, weil Rabbit Holds genauso immer erklärt wurden.
00:45:22: Also du gehst in die eine Facebook-Gruppe, die hieß, ich hab Angst vor Impfungen und für sechzehn Facebook-Gruppen empfehlen weiter, bis du in der Gruppe Angela Merkel ist eine Exe.
00:45:34: So, und das einfach nur, weil du immer irgendwelche vorgeschlangen Gruppen weitergegangen bist.
00:45:37: Interessant finde ich aber hier, dass du das eben nicht über... Echokammern oder Filterblasen aufmacht, sondern über Content, den du dir anschaust.
00:45:46: Und die Frage, die dahinter steckt, ist ja auch, wie sehr man das zum Beispiel politisch instrumentalisieren kann.
00:45:52: Weil du genau wissen kannst, dass du, wenn du entsprechende Bubbles mit Inhalten bespielst, die Überschneidungen einer anderen Bubble haben, die wiederum Überschneidungen einer dritten Bubble haben, du durch Inhalt Menschen lenken kannst und diese Rabbit Holds gezielt ja auch theoretisch verbreiten könntest.
00:46:08: Also Er sagt in seinem Text auf TikTok, muss man in der Lage sein, die Frage welches Video habe ich vor zehn Swipes angesehen, zu beantworten.
00:46:16: Wenn Sie die mentale Kontrolle vollständig von Ihrem Gehirn auf die algorithmische Plattform übertragen, werden Sie die Inhalte, die in Ihren Newsfeed gelangen, nicht kritisch bewerten können.
00:46:25: Und das ist, finde ich, der Kern von dem, was er da erzählt.
00:46:28: Du musst, wenn du verstehen willst, warum die Dinge angezeigt werden, reicht es nicht zu überlegen, was habe ich mir angeguckt, sondern auch, was habe ich mir angeguckt.
00:46:37: weil ich mir davor was angeguckt habe oder womit ich interagiert habe.
00:46:40: Ich glaube, das ist so eine dieser Texte und wir werden auch den in die Schornhautsbank, heute wird es in der Linkliste in den Schornhauts gehen.
00:46:46: Es tut mir leid, aber es ist heute spannend.
00:46:49: Die Woche waren die Leute fleißig.
00:46:51: Diese Geschichte des Pipeline Flows, wie du ihn gerade erzählt hast und er ihn hier auch aufgemalt hat mit so Kreisen, mit so einem Venndiagramm.
00:47:01: dass das so eine dieser Dinge ist, die uns noch sehr lange beschäftigen wird.
00:47:04: Also ich glaube, dass so eine Geschichte ist, auf die man auch in drei, vier, fünf, sechs Monaten noch referenzieren wird, weil wir das sehr häufig jetzt beobachten werden, wo wir einmal mit der Nase da drauf gesteckt wurden.
00:47:16: Es hilft manchmal, also... Ich gebe dir recht, das ist gar nichts so Neues, was er beschreibt.
00:47:23: Er ordnet das an neuen Kontext zu, nämlich diesem Content Graph.
00:47:27: Und manchmal hilft es, um diese Debatte auch voranzubringen, nochmal neue, griffige Bilder und Begriffe zu haben.
00:47:35: Und ich finde, das gelingt ihm hier sehr gut mit dieser Content-Parlplan.
00:47:40: Ich finde das wirklich ganz, ganz bemerkenswert.
00:47:43: Wie gesagt, guckt euch das alle an.
00:47:44: Es ist wirklich... Es ist nicht allzu lang der Text, aber er ist sehr schön klärt und im Schöne Bilder.
00:47:57: Das ist was zählt.
00:47:59: Gut, das ist alles, was es beraucht.
00:48:02: Dann
00:48:04: gehen wir ein wenig in die App-Welt.
00:48:07: App-Welt.
00:48:08: Das klingt wie so eine Zeitschrift.
00:48:11: Ja, er hätte es... Hätte es, als es dann leider Apps noch nicht so gegeben hat, dann hätte es die App-Welt gegeben damals.
00:48:17: Ja, stimmt.
00:48:18: Im Kiosk mit den dunkelfurnierten Holzwänden bei mir um die Ecke, wo es immer nach Tabak
00:48:25: roch.
00:48:25: Ja, das war
00:48:26: toll.
00:48:26: Das war, da bin ich immer hingegangen und hab mir die PC Games gekauft.
00:48:30: Nein, du hast die CT natürlich gekauft, Dennis.
00:48:32: Auch.
00:48:33: Ja.
00:48:34: Auch.
00:48:34: Und die PC
00:48:35: Games.
00:48:37: Ich bin da ja hingegangen mit einem Zettel, wo drauf stand, bitte geben Sie meinem Sohn Zigaretten.
00:48:43: Ach so, ich dachte mit einem Zettel Geld raus, sonst hakt's.
00:48:47: Bitte geben Sie meinem Sohn die CT.
00:48:50: Die lag ja wirklich, hab ich glaube ich schon erzählt, als wir hier den Deal eingetütet haben, dass wir ja ein CT-Podcast wären.
00:48:57: Dass ich ja seitdem ich denken kann, die CT immer auf dem Klo bei uns lag.
00:49:01: Ich weiß, weil
00:49:02: der Vater sie immer boh hatte.
00:49:04: Ja, ich glaube auch hat.
00:49:06: Ich hab hier hinter mir auch einen Stapel von CTs liegen, möchte ich nur sagen.
00:49:12: Weil PC Games lohnt sich nicht mehr.
00:49:18: Ich wollte
00:49:18: sagen.
00:49:21: Apple hat eine App verboten, die Videos archiviert, auf denen zu sehen ist wie die Einwanderungsbehörde ICE.
00:49:32: ihre macht missbraucht so eis ab heißt diese app.
00:49:35: deren zweck ist es beweise auf zu bewahren bis sie vor gericht verwendet werden können.
00:49:40: aber vor form media schreibt diese app ist im app store jetzt geschichte.
00:49:43: einer der mache der sich mark nennt hat vor form media gesagt unser ziel ist die rechenschaftspflicht der regierung.
00:49:49: wir betreiben nicht einmal echt seit tracking und dieser mark.
00:49:54: Ich weiß nicht, ob es sein echter Name ist, hat dieses Medium darum gebeten, nur seinen Vornamen zu verwenden, um ihn vor Vergeltungsmaßnahmen zu schützen.
00:50:04: Also das hat auch Schlagzeilen gemacht in den vergangenen Tagen, wie Apple auch generell gegen Apps, die warnen, also auch Tracking-Apps, wo sind gerade irgendwie Agenten der ICE unterwegs
00:50:18: vorgeht.
00:50:19: Haken war dran.
00:50:20: So, so.
00:50:21: Ja, und ich finde, also das Spannende an der Sache ist, hier ist ja, du konntest im Fall von Eisblock zum Beispiel, die Apple auch aus dem Appster genommen hat, konnte man zumindest mit so zwei zugedrückten Augen, dass die Sicherheitssorgen, man muss nicht verstehen, warum die App rausgenommen wurde, aber man konnte es zumindest tolerieren, weil man sagt, na gut, da werden Leifstandorte anderer Menschen gelegt.
00:50:48: Okay, man muss es nicht gut finden, wie gesagt, wir haben das ja auch scharf kritisiert, aber Apple hat nicht reagiert auf unsere scharfe Kritik in diesem Podcast.
00:50:56: In dem Fall hier geht es aber ja wirklich nur um Archivierung von Videos, die ohnehin in sozialen Netzwerken auffindbar sind, die.
00:51:06: Diese App ist keine Einschränkung von Sicherheitsrisiken, sondern das hier ist der Versuch, Transparenz seitens des Staates zu verhindern.
00:51:16: Und das ist nochmal anders problematisch, würde ich sagen, als einfach nur als das Sperren von Eisblock.
00:51:25: Im Zweifel ist das Sperren von Eisblock das mit dem größeren Effekt auf die Menschen in den USA.
00:51:31: Aber in diesem Fall hier, das Nachhalten, das Dokumentieren an einem gezielten Ort, das verbieten zu wollen, das geht nicht.
00:51:43: Und demokratisch ist es.
00:51:45: Andere Geschichte aus der App-Welt.
00:51:49: ersten Unternehmen, die alternative App Stores anbieten, ist downloadbar im Moment in der EU.
00:51:56: Hast du den Outdoor runtergeladen eigentlich?
00:51:57: Hast du das auf dem iPhone?
00:51:59: Ich habe zum Test, habe ich, ich glaube ja, in den Epic Store habe ich mir zum Test heruntergeladen.
00:52:04: Ich habe
00:52:05: ganz interessant, weil du ja die alternativen App Stores nicht über den Apple App Store bekommst.
00:52:12: Genau.
00:52:12: Das finde ich superinteressanten Punkt.
00:52:15: Und dann ist es eine völlig andere Form der Installation.
00:52:19: Also All-Star hat seine erste Finanzierungsrunde jetzt bekannt gegeben durch externe Investoren.
00:52:24: Es gibt sechs Millionen US-Dollar von Pace Capital, das im Gegenzug wiederum fünfzehn Prozent an All-Star erhält.
00:52:31: Und Ort Store selbst kann jetzt MitarbeiterInnen einstellen, auch über die beiden Gründer hinaus.
00:52:36: Mike McQ, das ist der CEO von Flipboard und ein Unterstützer des Fidiverse, tritt jetzt dem Vorstand bei.
00:52:43: Und die Gründer sagen, der Store soll in diesem Jahr auch auf Märkten noch an den Stadt gehen wie Australien, Brasilien, Japan.
00:52:50: Und OrtStore bereitet sich auf eine Verbindung mit dem Fediverse vor.
00:52:56: Die sagen sozusagen, jeder OrtStore Account, jeder App dort, erhält ein eigenes Konto.
00:53:02: im Fidiverse, dem dann andere folgen können.
00:53:05: Da kannst du irgendwie eine App auf Mastodon kommentieren, Neuigkeiten zur App auf Threads liken und dann irgendwie den All Store öffnen und alles da auch sehen.
00:53:15: Und wenn du dich irgendwie mit einem offenen Social Web Fidiverse-Konto anmeldest, kannst du direkt im All Store dann auch kommentieren, liken und boosten.
00:53:23: Wie
00:53:23: geil ist das?
00:53:24: Ich finde es super, ich finde das ist perfekt, weil das auch so ein bisschen dieses, das ist so kennst du, dass wenn du so ein ganz kleines Loch in der Hose hast und dann läufst du damit und dann wird dieses Loch immer größer.
00:53:37: Dieses kleine Loch hat die EU ja in dieses Ökosystem von Apple gerissen.
00:53:41: Und auch das ist nicht nur gut.
00:53:45: wahrscheinlich, kann man an einer anderen Stelle gerne mal diskutieren, aber das was hier passiert ist ja der Versuch jetzt gerade darin in diesem kleinen Loch eine Keimzelle entstehen zu lassen, die eben alle diese Kräfte dezentraler Entwicklungen und alternativer Entwicklungen eben zusammenzubringen und daraus möglicherweise auch wirtschaftlich relevante Größen zu erreichen.
00:54:08: Es ist auch noch geplant, den Outster mit dem offenen System von Blue Sky zu verbinden.
00:54:13: Also, mir geht das so, wenn ich das so lese, denke ich so, ja, es klingt so ein bisschen nach Selbstzweck.
00:54:21: Also was bringt mir das so direkt, aber dahinter steckt ja so etwas wie ein Universal Account fürs Internet, der sich vielleicht durch diese Geschichte andeutet und durch, also eigentlich so, wie wir es wollen, ohne World Garden und so.
00:54:39: Und das finde ich dann doch ganz spannend.
00:54:42: Auch der Selbstzweck reinigt die Mittel.
00:54:44: Selbstzweck reiniger.
00:54:45: Hier haben wir ein Supermarkt.
00:54:47: Selbstzweck reiniger.
00:54:48: Der Selbstzweck
00:54:48: heiligt die Mittel, das wollte ich sagen.
00:54:51: So, bisher gibt es im Outstore übrigens rund hundert selbstveröffentlichte Apps.
00:55:00: Dazu gehört unter anderem Delta als Videospiel-Immulator.
00:55:04: Es gibt eine eigene Virtual Machine-App oder Achtung, Hot-Tap, eine Porno-App.
00:55:08: Und im Outstore mittlerweile auch die beliebteste, natürlich.
00:55:11: So, wir haben hunderttausend,
00:55:13: ja?
00:55:13: Ist das die Brücke zu dem Thema, das, ja?
00:55:17: Ja, ist es.
00:55:17: Aber ich wollte noch kurz sagen, wir haben hunderttausende Hat der Ortstor Gründer in einem Interview mit TechCrunch gesagt, das sind wunderbare und gute Zahlen.
00:55:26: Ich finde das ganz spannend, weil das ist mit VR.
00:55:32: In VR war es auch so, dass es so den großen, die große Möglichkeit war, dass für viele Leute interessant zu machen, dass es Pornografie plötzlich dafür gab.
00:55:40: Oder das Video-Format sich so durchsetzen konnte, weil es plötzlich Pornografie auch gibt.
00:55:45: Das
00:55:45: ist ja überall immer.
00:55:47: Pornos ist die Ecke im Internet, wo neue Technologien als erstes wachsen.
00:55:52: Ja, genau.
00:55:53: Es gibt ein paar Bereiche, in denen so was eben möglich ist.
00:55:56: Es ist Porno für Medien.
00:56:01: Das ist das Militär für Technologien.
00:56:03: Und das ist leider auch Gewalt gegen Minderjährige für Einschränkungen von Datenschutz.
00:56:09: Also es gibt so Dinge, mit denen man so einen kleinen Marktvorsprung sich erarbeiten kann.
00:56:14: Oder an denen man Marktvorsprünge beobachten kann.
00:56:17: Oder das.
00:56:18: Hashtag chat GPT.
00:56:21: Viele von euch Hakis haben vielleicht schon davon gehört in den vergangenen Tagen.
00:56:24: Gavin reibt sich schon die Hände.
00:56:25: Ich freue mich auf das Thema seit Stunden.
00:56:28: Open AI wird Erotika in Chat GPT integrieren.
00:56:32: Sobald im Dezember, das ist nicht mehr langhin und bei Open AI nehme ich die Ankündigung etwas ernster als bei Elon Musk, die Altersverifikationen eingeführt wird.
00:56:42: So können Entwickler dann nicht jugendfreie Chat GPT Apps.
00:56:47: Koffie-Hollig hat dazu im Discord geschrieben, und bevor ich das zitiere, Discord-Werbung jetzt.
00:56:53: Wir haben eine begleitende Community zu diesem Podcast.
00:56:55: Da gibt's über zwei Tausend Leute, die sind alle extrem schlau, tauschen sich zu solchen Themen aus, bringen sehr viele sehr gute schlaue Gedanken mit.
00:57:03: Da ist auch Koffi Hollig übrigens die Schattenredakteurin dieses Podcasts und ich bin zu jedem Dank ihr gegenüber verpflichtet.
00:57:10: www.haken.org kommt vorbei und da kriegt ihr auch schon erste, dann schmeiß ich immer so kleine Bissen schon rein, die auf diesen Livestream verweisen am sechsten Elfen.
00:57:21: Koffie-Hollig, auch ich, zu großem Dank verpflichtet.
00:57:24: Sie schreibt, was wurde denn aus Sam Ordnance Priorisierung in seinem Blockbeitrag vom twenty-fünfzehsten September?
00:57:30: Also noch nicht mal einen Monat her.
00:57:32: Da schrieb er, vielleicht kann KI mit einer Rechenleistung von zehn Gigawatt herausfinden, wie man Krebs heilen kann oder wie man jedem Schüler auf der Weltmaß geschneiderten Nachhilfeunterricht bieten kann.
00:57:42: Wenn wir durch die Rechenleistung eingeschränkt sind, müssen wir uns entscheiden, was wir priorisieren wollen.
00:57:48: Und die Antwort lautet also Pornos.
00:57:52: Wir sind ja hier immer noch im Internet.
00:57:57: Du reibst die Hände.
00:57:59: Ja, ich will ganz kurz einen kleinen Link noch auf die Kollegen vom Social Media Watch Blog.
00:58:04: Die haben dazu auch einen ganz tollen Text geschrieben, der vermutlich hinter der Paywall liegt.
00:58:09: Aber die sagen, die ganze Hämme, die über Altman ausgekippt wird, ist komplett zu Recht, weil er auch im August noch sich damit gebrüstet hat, dass sie ja nicht als Growth Hacks sich über überlegt hätten, ein Sexbot-Avatar oder so in Chagipiti einzubauen.
00:58:23: Und das auch gesagt wurde, man tut alles dafür, um Krebs zu heilen oder AGI herzustellen.
00:58:30: Und jetzt hat man halt ein Sexbot als Antwort.
00:58:32: Aber die Antwort ist eben, die Internet ist vor Porn.
00:58:35: Also dieser Versuch eben auf der einen Seite hier diesen Growth Hector reinzubringen.
00:58:39: Das sind alles so die Lesarten, die man mitnehmen kann.
00:58:41: Aber ich habe eine andere Lesart, Dennis.
00:58:42: Und ich weiß nicht, ob ich da zu sehr in dieser Verschwörungswelt drin bin, die ich hier vorhin schon aufgemacht habe.
00:58:48: Also
00:58:49: steile These.
00:58:50: Es ist vielleicht eine steile These.
00:58:52: Aber um das zu nutzen, um Chatchivity zum Sexport werden zu lassen, musst du dich mit deinem Personalausweis verifizieren.
00:58:59: Wenn man sich jetzt anstelle von OpenAI überlegt, wie kriegen wir es hin, dass möglichst viele Leute sich in relativ kurzer Zeit bei uns einmal mit einem Personalausweis verifizieren, um zum einen trainieren zu können, wann Personalausweise valide sind und wann nicht.
00:59:12: Auf der anderen Seite aber auch ein Bild davon zu bekommen, wie Nutzungsverhalten von Erwachsenen und Nicht-Erwachsenen sich möglicherweise unterscheidet.
00:59:20: Ist das hier ein relativ guter Motor, um relativ schnell an diese Daten zu kommen, oder?
00:59:26: Interessant.
00:59:29: Warum willst du die Daten haben?
00:59:32: Ja, wie gesagt, du kannst die Pässe selber sind, glaube ich, nicht so wichtig.
00:59:35: Aber du kannst ... oder Open AI ist extrem im Gespräch.
00:59:41: darum, weil sie keinen guten Jugendschutz in der Vergangenheit herstellen konnten.
00:59:45: Weil sie es nicht hingekriegt haben, Menschen davor zu bewahren, sich etwas anzutun oder auch gegenseitig sich etwas anzutun und eben auch Jugendlichen nicht davor schützen konnten, Dinge zu sehen, die eben für sie nicht gemacht sind, nicht gedacht sind oder eben auch Inhalte zu ... Wir haben über die Geschichte ... des sechzehnjährigen New Yorkers gesprochen, der sich das Leben genommen hat und von ChatGPT angeleitet wurde, wie er es tun soll.
01:00:07: Da gehört jetzt ein bisschen zur Wahrheit, er hat ChatGPT ausgetrickst, aber auch das hätte dieser Chatbot verhindern müssen am Ende, wenn er denn so intelligent ist.
01:00:16: Also ist die Frage, wie kann man erwachsene Menschen von jungen Menschen unterscheiden?
01:00:21: Und das kannst du sehr gut, indem du schlagartig, eine Million Accounts, die Chachibiti schon länger benutzen, nachweislich mit Hilfe eines Ausweises als Erwachsenen-Kennzeichnis, weil dann hast du einen Stapel mit Erwachsenen-Accounts und einen großen Stapel mit Nicht-Erwachsenen-Accounts, hast aber möglicherweise eine unterscheidbare Menge.
01:00:41: Ich finde ganz interessant, wie hier durch die Unternehmen selbst, ich meine, wir haben eben schon mal über Ausweise diskutiert, wie durch die Unternehmen selbst jetzt das entsteht.
01:00:51: was hier mal politische Forderungen, ich glaube, aus der Union in Deutschland war, nämlich die Anonymität in sozialen Netzwerken aufzuheben, indem die Anbieter verpflichtet werden, nach den Personalausweisen zu fragen.
01:01:08: Das hielten Datenschützer für keine gute Idee, weil sie auch generell gegen Datenansammlungen bei... sagen wir mal monopolistischen Strukturen sind, so.
01:01:20: Und für die Strafverfolgung hat man dann gesagt, das muss dann aber nur rausgegeben werden, wenn Richter zustimmen, so diese übliche, dieser übliche Weg und diese übliche Begründung, wie jetzt die Unternehmen selbst diese Lösung schaffen.
01:01:36: Ganz interessant.
01:01:37: Ja, und auch in so einer Wechselwirkung ja auch mit Gesetzgebern.
01:01:41: überall auf der Welt, also in wahnsinnig vielen Bundesstaaten, kannst du Pornografie nur noch gegen Personalausweise sehen.
01:01:48: Es gibt einen Bundesstaat, in dem du Spotify nur noch nutzen kannst, wenn du dich mit Personalausweis verifizierst und so.
01:01:54: Also es passiert an dieser Front gerade sehr vielen, das Ärgerliche ist mal wieder.
01:01:59: Wenn wir doch nur früh genug eine Lösung gehabt hätten, dass sowas über Dritte passiert, eine Gesetzgebung, die das geklärt hätte, dann wären wir jetzt nicht an dem Punkt, dass wir uns fragen müssen, Es ist mir so wichtig von Chatchi BT angeleitet zu werden, wie ich masturbiere, damit ich da mal Personal ausweis hoch lade oder nicht.
01:02:15: Also das ist so ärgerlich.
01:02:19: Das wäre ein Dritt Anbieter gewesen als Trusted Anbieter, der nur rüber schickt, alles klar, diese Person ist hier verifiziert, aber eben keine Daten weiter gibt.
01:02:30: Und dass wir sowas nicht haben und es keine Regulierung gibt, die dazu geführt hat, ist ein politisches Versäumnis.
01:02:38: Das muss man so sagen.
01:02:39: Ja,
01:02:39: definitiv.
01:02:40: Es gibt Länder in der EU, die dahin gehen arbeiten.
01:02:43: Es gibt in Spanien.
01:02:44: Gibt es diesen Versuchsbeladen, ich glaube es sind Pornopass.
01:02:48: Oder so, also wir haben hier, Haken wir dran, bei dem du genau so ein warmes Hände schütteln, de facto auslöst.
01:02:55: Also hält dein Personal das war sonst Handy, das Handy schickt dem Computer, ja hier ist alles in Ordnung und niemand hat deinen Personal das war es wirklich in der Hand gehabt, außer du selber.
01:03:04: Aber wir sind noch nicht da.
01:03:06: und dass aber jetzt die Unternehmen quasi links daran vorbeiziehen, weiß darauf hin, dass die offenbar auch eine Notwendigkeit sehen, das zu
01:03:15: tun.
01:03:16: Und dann sagt Sam Altman noch, OpenAI hat ChatGPT zuletzt ziemlich restriktiv gestaltet, um sicherzustellen, dass wir mit psychischen Gesundheitsproblemen vorsichtig umgehen.
01:03:27: Das haben wir aber dazu geführt und jetzt wird so, also am Ende kommt noch die Pointe.
01:03:32: Also, dass ChatGPT für viele Nutzer, die keine psychischen Probleme hatten, weniger nützlich und unterhaltsam wurde.
01:03:41: Das führt ja nicht näher aus, ich hätte gerne... Was meint er damit?
01:03:46: Hätte ich gerne sehr viel näher ausgeführt gewusst.
01:03:49: OpenAI hat seitdem, sagt er aber, Tools eingeführt, um besser erkennen zu können, wenn ein Nutzer unter psychischen Problemen leidet.
01:03:57: Und es soll jetzt außerdem einen Rat für Wohlbefinden und KI geben, der OpenAI dabei helfen soll auf komplexe oder sensible Szenarien zu reagieren.
01:04:04: Es ist ein Team aus acht Forschern und Experten.
01:04:08: die sich mit den Auswirkungen von Technologie und KI auf die mentale Gesundheit befassen.
01:04:14: Ars Techniker schreibt übrigens keine Experten für Suizidpräventionen dabei, von denen viele OpenAI kürzlich aufgefordert hatten, mehr Sicherheitsvorkehrungen zu treffen für Nutzer mit Suizidgedanken.
01:04:26: So, und jetzt kommt die Pointe.
01:04:28: Sam Ordmann schreibt, jetzt, da wir die schwerwiegenden psychischen Probleme mindern konnten und über, also... Nicht die Probleme der Leute selbst, sondern die Probleme damit sozusagen.
01:04:41: Und über neue Tools verfügen, werden wir in den meisten Fällen die Einschränkungen sicher lockern können.
01:04:48: Ich finde allein die Rechtfertigung zu sagen, ja gut, da haben sich halt Menschen umgebracht, aber andere hatten keinen Spaß mehr, diese Abwägung zu treffen ist doch Anzionismus schon nicht mehr zu überbieten, oder?
01:04:58: Also daran stoße ich.
01:04:59: Also
01:04:59: ich glaube, das ist kommunikativ.
01:05:03: das so hin zu klatschen, nicht schlau.
01:05:06: Also ich weiß, worauf er anspielt.
01:05:07: Er spielt darauf an, dass in der Umstellung von dem Modell VAU auf fünf viele Leute das Gefühl hatten, Chatchi B.T.
01:05:15: hat so ein bisschen seine Seele verloren, die Seele, so in Anführungsstrichen.
01:05:20: Aber genau, es ist kommunikativ wahnsinnig unsensibel, unempartisch, fast schon gefährlich dämlich, weil du eben hier eine Abwägung herstellt zwischen Dingen, die nicht abzuwägen sind.
01:05:33: Ja, ganz schlimm.
01:05:35: Ja, aber wir können es jetzt lockern, weil wir haben ja jetzt den Rat für, wie heißt der seelische, seelisches Wohlbefinden?
01:05:41: Ja,
01:05:41: und ich hab so gedacht für Wohlbefinden und KI, aber ich, ich hab so, also wenn du die Augen schließt sozusagen und nur diese Sätze hörst und nicht weißt, dass Sam Ordmann sie gesagt hat, da kannst du wirklich so ein Ratisch-Spiel machen, war es Mark Zuckerberg vor ein paar Jahren oder Sam Ordmann, also... Es wiederholt sich immer wieder diese Verantwortungslosigkeit immer wieder und es ist so zermürbend unfassbar.
01:06:12: Das ist so her.
01:06:16: Du, ich hab hier noch eine Reihe von Themen, aber andererseits sprechen wir auch schon seit über einer Stunde.
01:06:21: Wir können auch Montag weiter machen.
01:06:22: Ja,
01:06:22: du bist Montag wieder hier.
01:06:23: Aber ich will eine Sache noch erzählen, weil die finde ich faszinierend.
01:06:26: Das ist aber mehr so ein Tech-Thema, nicht wirklich ein Social Media-Thema.
01:06:29: Aber ich will das kurz erzählen.
01:06:31: Der
01:06:31: Smartphone-Belastungstest.
01:06:32: Da hab ich auch gedacht, das ist super für hinten raus.
01:06:35: Es gibt ein YouTuber, JerryRickEverything, den kennt man eigentlich.
01:06:38: Weil das ist der Typ, der damals das iPhone verbogen hat.
01:06:41: Bandgate während uns iPhone sechs.
01:06:43: Plus.
01:06:44: Und der macht halt diese Extrem-Tests mit Smartphones, er verbiegt sie, er verkratzt sie, er schreibt mit dem Messer drauf rum und so und probiert alles.
01:06:53: Und ihm ist jetzt zum ersten Mal seit zehn Jahren Belastungstests ein Telefon explodiert.
01:06:58: Und das war jetzt nicht irgendein Telefon, wo man sagt, na ja, hätte der TÜV auch schon seine Vorhörer dran gehabt, sondern eben das Google Foldable, das neue Google Pixel Fold Pro Plus Premium.
01:07:08: extra und das explodiert, weil das in die falsche Richtung gebogen hat.
01:07:12: Natürlich ein bisschen brachialer, aber trotzdem das kann man ja gar nicht erzählen, wie schlimm das ist.
01:07:19: Also das ist ein faltbares Telefon, wenn du es falsch rumknickst, explodiert es?
01:07:26: Okay, also ich glaube
01:07:28: Google
01:07:28: hat wohl Hausaufgaben zu tun.
01:07:30: Vielleicht kann man einen Warnhinweis machen oder du machst so kleine so Metallstäbe dazwischen, dass man das nicht knicken kann und verkauft es als Tablet.
01:07:37: dann.
01:07:38: Das neue, nicht knickbare Foldable von Google.
01:07:41: Sehr schön.
01:07:42: Foldable, aber bitte nicht knicken.
01:07:44: Vor allem, was ja passieren wird, während uns an der Samsung Galaxy Note damals seinerzeit, du wirst halt damit nicht mehr ein Flugzeug gesteigen dürfen.
01:07:53: Ja, absolut.
01:07:53: Das wird passieren.
01:07:55: Da werden ja die Regelungen immer wieder.
01:07:56: Ist schön.
01:07:57: Wenn die das, kannst du auch als Kampagne kannst du knicken in Deutschland draus machen.
01:08:02: Ist gut.
01:08:03: Gut.
01:08:04: Geht in beide Richtungen.
01:08:05: Den
01:08:05: Zorn macht.
01:08:06: Promo für Apple.
01:08:09: Es war schön, dass du heute hier was lieber, Dennis.
01:08:11: Wir hören uns Montag wieder.
01:08:12: Wir hören uns Montag schon wieder.
01:08:14: Das heißt, wir machen jetzt zusammen einen kleinen Ausflug über das Wochenende, gehen ein bisschen reiten auf uns am Gestüt und dann hören wir uns am Montag wieder, dann mit Den Zorn.
01:08:25: Danke.
01:08:27: Bitte.
01:08:27: Tschüss.
01:08:28: Tschüss.
Neuer Kommentar