Für Menschen, nicht für Algorithmen (mit Max Mundhenke)

Shownotes

Wie viele Strikes braucht es bei Copyrightverstößen, um von der Plattform gesperrt werden? Bingo – drei! Und wie viele braucht es, bei Verstößen wie “Menschenhandel”? Bei Facebook offenbar 17. Ja, SIEB. ZEHN. Das, eine anscheinend vertuschte Studie, die katastrophale “About this Account”-Funktion von X und wilde KI-Geschichten gibt es heute nur hier.

➡️ Typ testet eingesandte Codes an seinem Weihnachtsbaum: https://www.youtube.com/watch?v=v7eHTNm1YtU

🗓️ Am 6. November feiern wir 500 Episoden und 3 Jahre "Haken dran" mit einem 12 Stunden-Livestream! ➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt 00:00:00 - Hallo Max! 00:06:28 - "About this Account" auf X 00:15:19 - Factchecking und die Grokipedia: Wahrheit und "Quatsch" im digitalen Raum 00:20:00 - Meta – Klagen und unterdrückte Studien (und die "17-Strike-Politik”) 00:30:05 - Recht auf Neuanmeldung nach Plattform-Sperrung 00:32:05 - KI-Stimmlizenzierung 00:41:40 - wiKIpedia 00:49:17 - Jeff Bezos' hat wieder einen Job! 00:50:35 - Bromvergiftung durch ChatGPT 00:54:00 - Funktionen und Emotionen 01:05:50 - DOGE Days are over

ℹ️ Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier: https://wonderl.ink/%40heise-podcasts

Transkript anzeigen

00:00:00: Hallo Max.

00:00:02: Hallo Gavin.

00:00:03: Bei mir ist heute Max Mundhänke, den man eh kennt.

00:00:06: Also ich glaube, ich muss dich kaum vorstellen.

00:00:08: Internetlegende, wir kennen uns noch aus Twitterzeiten.

00:00:10: Das war so schön.

00:00:10: Immer wenn du hier bist, haben wir eigentlich über die gute alte Zeit bei Twitter gesprochen.

00:00:13: Und auch heute habe ich ein paar Exteme mitgebracht.

00:00:15: Dich kennt man aber vor allem inzwischen, weil du eigentlich auf jeder LinkedIn-Kachel von Menschen, die über KI sprechen, was auf die meisten Menschen bei LinkedIn zutrifft, irgendwie auftauchst.

00:00:25: Zuletzt vor allem deswegen, weil du jetzt auch ein Podcast hast mit dem Namen Kollegin KI.

00:00:29: Kleine Empfehlung auf der Stelle.

00:00:31: Cool, danke.

00:00:32: Promo schon erledigt, mega.

00:00:33: Ja, machen wir am Ende aber noch mal.

00:00:35: Aber ich finde, ich finde das so cool, dass du so einen anderen, du hast ja einen gewissen Take auf KI, finde ich so im Generellen.

00:00:43: Also du bist, muss man dazu sagen, KI-Berater.

00:00:45: Dein Job ist es, durch die Gegend zu gehen, den Leuten zu erklären, was man mit KI so machen kann.

00:00:49: Du bist aber jetzt nicht so ein Typ und das finde ich halt das Schöne.

00:00:52: der zu den Leuten geht und wenn da einer in der Gruppe sitzt und sagt, ja ich bin da ein bisschen kritisch, der dem dann Innovationsfeindlichkeit vorwerfen würde.

00:00:59: Was gerade so ein Konflikt ist, der immer wieder auftaucht und der mich so ein bisschen rasend macht.

00:01:03: Weil ich ja hier, also ich habe viele Leute oder wir haben hier viele Leute behagen dann die uns zuhören, die KI sehr sehr kritisch sehen und viele Leute, die natürlich mit KI dauerhaft in Kontakt stehen.

00:01:14: Und ich will mich auf keine dieser Lager so richtig schlagen.

00:01:18: Ich glaube, es ist sinnvoll, damit zu arbeiten und ich mach das auch.

00:01:21: Ich glaube aber auch, man muss das nicht verteufeln gleichzeitig.

00:01:25: Ja, es birgt halt Risiken und es muss kritisch gesehen werden.

00:01:29: In vielen Ebenen aber diese Doomsday-Stimmung von wegen die Welt geht jetzt unter oder so.

00:01:34: Die muss man tatsächlich irgendwie hinterfragen und ablehnen.

00:01:37: Aber es gibt ja genug andere reale Probleme, die kann ich mit sich bringen.

00:01:40: Von daher, ja, schön kälsch bleiben.

00:01:43: Und, äh, durchaus Nachfragen stellen.

00:01:45: Sag mal, äh, nutzt du eigentlich KI für die Vorbereitung vom Podcast?

00:01:48: Nein.

00:01:49: Nein?

00:01:49: Schreibst du deine Briefings selbst?

00:01:51: Ich hab, ich weiß ja in den letzten Wochen auch durch den Podcast und so war ich in einigen anderen Podcasts auch.

00:01:56: Und ich muss sagen, Haken dran hat die besten Briefings.

00:01:58: Richtig, richtig krass.

00:02:00: Ein viel Informant bekommt bei dir.

00:02:02: Ja, mit unterschiedlichen Quellen vor allem zu jeder Nachricht und alles.

00:02:05: Ja.

00:02:05: Äh, und wenn ihr die sehen wollt, die Briefings, dann könnt ihr, wenn ihr diesen Podcast auf Campfire FM hört, da sind nämlich die ganzen Links, die wir benutzen, sind da alle... ... die findet man da.

00:02:13: Aber nee, in der Vorbereitung keine KI.

00:02:15: Es gibt einen kleinen Automatismus, ... ... dass ich links aus dem Browser ... ... mir mit per Klick in mein Notenboard schmeiße.

00:02:23: Aber das ist, glaube ich, ... ... wirklich absolut keine KI.

00:02:27: In der Nachbereitung gibt es KI, ... ... nämlich die Kapitelmarken, ... ... weil ich nicht nochmal den kompletten Podcast höre ... ... und die selber schreibe, ... ... sondern das mache ich mithilfe von KI, ... ... weswegen die aber auch scheiße sind.

00:02:37: Muss man dazu sagen.

00:02:37: Sorry, unsere Kapitelmarken sind ungenau.

00:02:39: Die sind nicht schön.

00:02:40: Ich schreibe die trotzdem nochmal neu.

00:02:42: weil das, was rauskommt, ist nicht schön.

00:02:44: Aber sonst nicht viel.

00:02:46: Und Orphonic geht einmal am Ende so ein bisschen, bügelt den Sound glatt.

00:02:49: So ein bisschen kli gibt's.

00:02:50: Aber in der Vorbereitung nicht.

00:02:51: Okay

00:02:51: krass.

00:02:52: Und du recherchierst das selbst?

00:02:53: Ja, wir haben ja die Schattenredaktion.

00:02:55: Also wir haben ja einen Discord mit über zwei Tausend Einhundert Leuten.

00:02:59: Wir hacken dran.org, werdet Teil davon, die das alles den ganzen Tag mit recherchieren.

00:03:04: Aber ich hab auch noch so ein paar Workflows, mit denen ich das nochmal andicke.

00:03:07: Ja.

00:03:08: Das ist voll krass.

00:03:08: Ich kann ja ein bisschen aus dem Nähkästen plaudern.

00:03:12: Der Podcast, den mache ich ja bei OMR.

00:03:14: Podstars bei OMR produziert den.

00:03:16: Und ich hab am Anfang auch gedacht, so Podcast auf gar keinen Fall, das ist so viel Arbeit und so.

00:03:19: Und hab mir dich immer so ein bisschen angeguckt, boah Alter.

00:03:23: Was man alles machen muss und so.

00:03:25: Und du hattest ja auch irgendwie schon mal gesagt, dass es durchaus Arbeit ist.

00:03:28: Und da dachte ich, so grad zu Beginn von der Selbstständigkeit ist das eigentlich nichts.

00:03:31: Und dann kam OMR und sagt, ja wir stellen dir halt ein Team so.

00:03:33: Und jetzt hab ich halt so ein Redaktionsteam und so Leute, die dann halt mir zuarbeiten und so.

00:03:37: Und dachte schon richtig krass, wenn ich das so vergleiche, was ich an Briefings bekomme und du denke ich mir, wie viele tausend Leute müssen in deinem Team sein, aber jetzt ist ja das geheimnisgelüftete.

00:03:46: Ja, wobei ich die Briefings trotzdem selber schreibe.

00:03:49: Immerhin.

00:03:50: Und was aber das größte Dilemma ist, ich bin heute in so einem Labermodus, weil ich hab so einen Seminar gegeben zum Thema Podcasts in den letzten Tagen und bin deswegen gerade so, du stichst quasi in einen Westmester mit, aber die Leute lieben das, wenn ich so einen Laberflasher hab.

00:04:05: Das Interessante ist ja, dass unsere Machart sich auch von vielen anderen nachrichtlichen Podcasts unterscheidet, weil ich ja jetzt nicht hier sitze und dir eine Meldung von The Verge oder Heise noch besser, einfach vorlesen und wir dann darüber sprechen, sondern mein Ansinnen ist ja schon, dass ich dir das mit eigenen Worten erzähle, was in der Welt passiert ist, mit Berücksichtung dieser Quellen.

00:04:23: Heißt also, meine Briefings kann ich nicht nur zusammenstellen, ich muss die auch wirklich kennen.

00:04:30: Ja, du bist top vorbereitet auf jeden Fall.

00:04:32: Ich merke es besser als ich, aber ich muss ja auch nur kommentieren.

00:04:35: Du liest deine Nachrichten vor.

00:04:37: Genau.

00:04:38: Und ich muss sagen, top oder flop.

00:04:41: Kurzer Anmerkung, ich weiß gar nicht.

00:04:44: Du nimmst Video auch mit auf.

00:04:45: Ja, ich hab das.

00:04:46: Kann man hier alles bei YouTube sehen, dein schönen Weißenpolier.

00:04:48: Ich sitze hier in so einem Dschungel, das liegt daran, dass die riesengroße Pflanze aus dem Wohnzimmer gerade hier in meinem Büro slash Aufnahme Studio slash Gästezimmer steht, weil wir gestern spontan Weihnachtsbaum gekauft

00:05:01: haben.

00:05:02: Geil.

00:05:02: Und jetzt haben wir ein Weihnachtsbaum stehen, wir sind echt früh dran und so.

00:05:05: Und das muss ich erzählen, das ist ganz witzig gewesen, dass wir das Ding gestern ins Treppenhaus hochgetragen haben, ist uns die Nachbarin über den Weg gelaufen und die guckt uns nur so an, guckt den Weihnachtsbaum ansagt.

00:05:13: Oh, wie traditionell.

00:05:15: Das ist, glaub ich, die schlimmste Beleidigung, die du hier im Hipster Kies in Dresden bekommst.

00:05:20: Wollt

00:05:20: grad sagen, also, mehr Berlin geht nicht.

00:05:22: Ist halt die Frage, wann die Weihnachtsmonstera endlich angekommen ist.

00:05:26: Ja, genau.

00:05:26: Aber ich steh dazu, ich steh auf Weihnachtsbäume.

00:05:28: Ich auch.

00:05:29: Ich

00:05:30: bin ein Riesen-Fan.

00:05:31: So fett schmücken muss.

00:05:32: Das ist voll geil,

00:05:33: oder?

00:05:33: Scheiß, wir verlawern uns direkt.

00:05:34: Aber ich

00:05:34: muss direkt mal sagen,

00:05:35: ich muss das kurz sagen, weil niemand, das über mich weiß, der mich nicht privat kennt, ich bin richtig heftigster Weihnachtsfan.

00:05:42: ultra viel Deko und ich hab auch.

00:05:44: Das passt dann doch schon wieder zum Thema unseres Podcasts, weil digital und so.

00:05:50: und habe im Bett gelegen und mir ein YouTube Video, wir packen das in die Shownords, ein YouTube Video von einem Typen angeschaut, der Informatikprofessor ist und der einen Controller gebaut hat für seine Lichterkette, mit der er jede Lampe einzeln ansprechen konnte.

00:06:04: Und er hat den Code veröffentlicht und hat gesagt, alle können Code dazu quasi beitragen und dann spielt er das ab.

00:06:09: Und da gibt es ein YouTube Video, es gibt, glaube ich, eine Stunde, er sitzt da im Bademeintel mit einem Bier und spielt einfach nur diese Codes nacheinander ab, die dann auf diesem Weihnachtsbaum visualisiert werden.

00:06:17: Und seitdem bin ich drauf und dran, dass ich das auch brauche.

00:06:20: Es gibt sowas als kaufbare Lösungen und die habe ich auch.

00:06:24: Aber das ist natürlich nicht so geil nerdy, wie sich das selber zusammen zu basteln.

00:06:30: Warum wir uns so verlarbern zum Start ist, weil ich die erste Nachricht so ein bisschen von mir her schiebe, aber wir müssen darüber sprechen.

00:06:35: Also, kommen wir zur Ex.

00:06:38: Auf X Nikita Bia, der Product Manager, hat eins der Features vorgestellt und eingeführt, auf die er offenbar am stolzesten war, weil er seit Wochen von nichts anderem gesprochen hat, nämlich die About This Account Funktion.

00:06:50: Du kannst jetzt auf X auf das Datum drücken.

00:06:54: das im Profil steht, wann dieser Account registriert wurde und kriegst dann weitere Informationen über diesen Account, wie zum Beispiel in welchem Land dieser Account ansässig ist.

00:07:03: Der Start dieser Funktion ist allerdings, man kann es nicht anders sagen, sowas von in die Hose gegangen, weil, also ex musste sie für einige Stunden wieder offline nehmen, weil die Daten, die dort standen, die Länder offensichtlich falsch waren.

00:07:18: Das führt dazu, dass zum Beispiel Fox News, der amerikanischen Nachhinsender, als Account verortet wurde, der in Deutschland sitzt.

00:07:24: Wie das so genau zustande kommt, kann man nicht genau beantworten, denn es spielt sowohl eine Rolle, in welchem App Store dein Telefon registriert ist, als auch in welchem Land du bei der Registrierung deines Contros online warst, als auch mit welcher IP-Adresse du am häufigsten online bist.

00:07:37: Das führt aber dazu, dass extrem viele die Magarechte in den USA nahezu entlarvt wurden, weil auch nach dem Offline sein immer noch so angegeben sind, dass sie eben nicht aus den USA kommen in das Land, dass sie wieder Great machen und für das sie kämpfen und ihren Rechtsextremismus ausleben, sondern dass sie aus ganz unterschiedlichen Ländern kommen, wie aus Osteuropäischen Staaten, die nicht namentlich benannt sind, aus Nigeria, aus Indien, aus Madagaskar.

00:08:03: Es war alles eigentlich dabei, nur relativ wenig USA.

00:08:07: Surprise.

00:08:09: Ja, wie ist dein Gefühl zu dieser Funktion, Max?

00:08:11: Brauchen wir mehr davon auf allen Plattformen?

00:08:14: Also wenn es zuverlässig ist oder wenn es zuverlässig wäre, ja, aber es ist ja ganz offensichtlich nicht zuverlässig.

00:08:19: Also hin und wieder gab es mal so falsche Sachen, wenn du gerade sagst Fox-Redaktion irgendwie in Deutschland, stimmt jetzt nicht ganz.

00:08:26: Aber wenn das zuverlässig wäre, wäre das natürlich cool.

00:08:28: Also auch wenn man so einen VPN umgehen könnte und wirklich wüsste, aus welchem Land wird das eigentlich?

00:08:34: gebracht, gerade bei großen News-Accounts oder bei Accounts die Stimmung machen.

00:08:39: Also, finde ich eigentlich eine ganz gute Lösung, weil man ja seitdem vermutet, dass die ganzen Pro-Maga-Accounts, also sonst wo irgendwo sitzen und Botnots-Netzwerke sind.

00:08:49: Und ja, deshalb ist eigentlich keine Überraschung, dass da jetzt im Grunde das ganze Ding auch wieder abgestellt wurde, wenn ich richtig informiere.

00:08:55: Ja,

00:08:55: es ist auch wieder da schon.

00:08:56: Ach so, es ist schon wieder da.

00:08:57: Es ist schon wieder da.

00:08:58: Und immer noch sind viele Mager Influencer als eben nicht in den USA ansässig.

00:09:02: Also Snopes, das ist eine Fact-Checking-Plattform, die hat das analysiert und sind zum Ergebnis gekommen, dass etwa zwei Drittel der Mager- und Rechtsextremen Konten auf Ex, die sie sich angeschaut haben, in Russland, Nigeria oder Bangladesch ansässig sind.

00:09:16: Also das ist schon ziemlich, ziemlich eindeutig, dass da offenbar eben auch Click-Farms sind oder auch Leute, die vielleicht auch ein politisches Interesse haben, die Demokratie in den USA weiter auszuhöhlen, zum Beispiel.

00:09:27: Ja, Einflussname über Social Media.

00:09:29: Absolut.

00:09:29: Was aber eben auch passiert ist, man kann das nicht in seiner Tragweite groß genug machen, dass dieser Staat so ein Fehlstaat war, der dazu führte, dass ihm falsche Angaben waren, das DHS, das Department of Homeland Security, also das... Heimatministerium der USA, wenn man so möchte, die hatten in der ersten Iteration dieser Funktion im Account stehen, dass dieser Account aus Israel geführt würde.

00:09:55: Was natürlich Wasser auf den Mühlen von Verschwörungserzählerinnen ist, aber wie gesagt, vermutlich nicht stimmt.

00:10:05: Es heißt natürlich nicht, und das muss man auch dazu sagen, viele dieser Angaben kommen von X, wir können das nicht prüfen, wir wissen nicht, ob das wirklich falsche Informationen sind.

00:10:13: wirklich vielleicht nicht doch falsche Accounts sind und so.

00:10:16: Wir müssen das jetzt erstmal so fürbare Münzen nehmen, obwohl wir berechtigte Zweifel auch an vielen Aussagen von Examen, aber dass dieser Account aus Israel geführt wird, ist halt eher ein würdig in die Welt der Verschrungsmüten verbanden, ehrlicherweise.

00:10:28: Und schon und damit wird die Fehlergeschichte ein bisschen glaubwürdig.

00:10:32: Ja, gut möglich.

00:10:34: Ich würde mich mal interessieren, wie das mit AfD-Accounts aussieht in Deutschland.

00:10:39: Wurde die eigentlich herkommen, ob das tatsächlich auch alles deutsche Accounts sind oder

00:10:43: was zu?

00:10:43: Ja, gibt es tatsächlich ein bisschen was zu.

00:10:45: Also es gibt zum Beispiel Watson, das deutsche News-Partei, für das ich mal sechs Monate gearbeitet habe.

00:10:51: Liebe Grüße.

00:10:52: Hat dazu auch einen Text veröffentlichen.

00:10:53: Wir haben sich das nämlich angeschaut und haben durchaus gefunden, dass der Bundespartei-Account der AfD, zumindest zu dem Zeitpunkt, als das der Ex-Nutzer Dortmunder Berlin veröffentlicht hat, dass der sitzt in Irreland.

00:11:06: gemeldet hat und eben nicht in Deutschland.

00:11:09: Ich kann das jetzt gerne mal live noch mal aufrufen und gucken, was es steht.

00:11:12: Tatsächlich steht auch hier beim Account at AfD, dass dieser Account sich in Irland befindet.

00:11:18: Gut, aber mit einer Partei, der ist ein Vorsitzender, der in der Schweiz sitzt.

00:11:22: Die alle naselang nach Russland rüber fahren.

00:11:25: Hallo zu sagen.

00:11:26: Also, ja.

00:11:28: Das ist auf jeden Fall schon gemerkt.

00:11:29: Tatsächlich gibt es aber auch in Deutschland einige Accounts, die durch diese Geschichte so ein bisschen aufgeflogen sind.

00:11:34: Also es gibt zum Beispiel einen Account, das Namen muss ich glaube ich nicht nennen, aber das ist auch so ein mittelmäßig reichweitenstarke Influencerin, also eine Person, die sich als Frau ausgibt, wissen wir natürlich nicht.

00:11:45: Denn durch diese About-This-Account-Funktion siehst du auch wie viele vorherige Namen einen Account hatte und du kannst zum Beispiel mit der Funktion archive.org, mit der Internet, wie heißt es denn?

00:11:55: Wayback-Machine, kannst du natürlich dann auch mal so ein bisschen recherchieren und solche Tweets nochmal aufrufen, wenn du die IT, der IP ID, so heißt das, ich rede zu schnell, die ID der alten Tweets vorliegen hast.

00:12:07: Und da konnte zum Beispiel erkannt werden, dass eine Person, die sich heute als Anna Braun von der AfD ausgibt, ursprünglich mal ein anderer Account war, der aus Nigeria kommt und auch auf Englisch schon getwittert hat Anfangs.

00:12:21: Also ganz ganz interessant.

00:12:23: Wir werden das alles uns noch so ein bisschen weiter anschauen.

00:12:26: Ich stimme dir aber zu, das ist die grundsätzliche Idee.

00:12:28: Nicht verkehrt, das Problem ist allerdings, die Umsetzung wird immer krank.

00:12:32: Weil woran willst du das festmachen?

00:12:34: Möchtest du gucken, über wie viele IP-Adressen im Jahr eine Person angemeldet war und den Querschnitt ziehen?

00:12:40: Ist vielleicht ungerecht, wenn es eine Person gibt, die vielleicht neun Monate im Ausland verbringt, aber die drei aktiven Monate in dem Inland dann eben die Arbeit zum Beispiel macht.

00:12:48: Weißt du, also, oder willst du das Land nehmen, wo man sich registriert hat?

00:12:52: Weiß nicht.

00:12:53: Du kommst ex raus, indem du im Urlaub bist und dann bist du halt für immer ein spanischer Account, ergibt irgendwie auch keinen Sinn.

00:12:58: Ja,

00:12:59: oder lässt ihr Accounts erstellen, verkaufst dann die einen

00:13:02: der Daten,

00:13:02: woanders hin und so.

00:13:04: So, also.

00:13:05: Hundertprozentige Sicherheit hat man nie, aber ich glaube, ich find's einen guten Anhaltspunkt.

00:13:08: Und der jetzt im Grunde einmal kam, der ist wahrscheinlich verbrannt, kannst du sowieso nicht mehr beantworten, aber hat uns mal einen Einblick gegeben, woher eigentlich die ganzen Stimmungsmacher

00:13:17: kommen.

00:13:17: Ja, das ist so.

00:13:18: Also gerade im Fall der MAGA InfluencerInnen finde ich das schon sehr, nicht überraschend, aber sehr signifikant, dass ja eben so ein großer Anteil eben nicht aus dem USA kommt.

00:13:27: Excelba hat aber schon auch darauf reagiert, Nikita Biat angekündigt, dass die Funktion jetzt noch mal ein bisschen weiter angepasst wird.

00:13:33: Zum Beispiel, dass es keine Location-Hinweise mehr bei GradeCheck-Accounts gibt, also bei Regierungs-Accounts.

00:13:40: Übrigens hat mir ein Hörer geschrien.

00:13:42: möchte ich gerne mal dazu an der Stelle mit reinbringen, dass diese grauen Haken, die verteilt wurden auf Ex, dass die einfach nie bearbeitet wurden, dass aktuelle MinisterInnen keinen bekommen haben, aber Christian Lindner immer noch einen hat zum Beispiel.

00:13:53: Dass das einfach einmal ausgerollt wurde und nie wieder angefasst.

00:13:56: Na jedenfalls, bei diesen Accounts wird das nicht stehen.

00:13:59: Außerdem wird es einen VPN-Indicator geben für Accounts, die sich tatsächlich über einen VPN häufig anmelden.

00:14:05: Was vielleicht interessant ist, vielleicht aber auch nicht, weil kann auch einfach nur Sicherheitsbewusstsein sein oder ein Falsches, je nachdem.

00:14:14: Und es soll more accurate werden.

00:14:16: insgesamt.

00:14:17: Habe ich ehrlich gesagt auch.

00:14:18: Also ich gehe viel über VPN online.

00:14:21: Von daher wäre so ein Zeichner bei mir auch.

00:14:24: Aber ich bin jetzt nicht so der Desinformator, also du bist nicht der Erfolgräche.

00:14:28: Du bist auch nicht mehr so der Exer, ne?

00:14:29: Nein,

00:14:31: nur gar nicht.

00:14:33: Wirklich gar nicht.

00:14:34: Ich find's, das ist ganz schlimm.

00:14:35: Aber du kannst keine dreißig Zentimeter scrollen, ohne nicht irgendeinen Mist zu sehen und es ist besser für meine Mental Health nicht auf

00:14:41: Ex zu sein.

00:14:42: Ja, da müssen wir heute auch noch mal darüber sprechen über Mental Health und Social Media.

00:14:45: Ja, das war die

00:14:46: Überleitung.

00:14:46: Ich hab noch ein paar andere Themen vorher.

00:14:49: Vielleicht kannst

00:14:50: du es gleich noch mal sagen, es ist eigentlich immer eine zu treffende Aussage.

00:14:54: Ansonsten gibt es Hinweise darauf, dass X ein Tag zurückbringt, das unter Tweets angeheftet wird, in dem steht Manipulated Media, also manipuliertes Medium, also gefälschter Inhalt.

00:15:05: ... wenn man so möchte.

00:15:07: Und das ist deswegen interessant, ... ... weil das seit ... ... Jahrzehnte und Jahrzehnte nicht mehr verwendet wurde ... ... und genauso aussieht wie ... ... gefact-checkte Inhalte.

00:15:14: Was bemerkenswert ist, ... ... weil die Elon Musk ... ... als er allererstes loswerden wollte.

00:15:21: Dennis Horner hat in einer der ersten ... ... Folgen Haken dran mal gesagt, ... ... wir werden feststellen, dass Elon Musk ... ... immer wieder an die gleichen Probleme ... ... stößt, wie die ganzen Social Networks ... ... in den Jahren davor ... ... und dieselben Lösungen irgendwann haben, ... ... wie die ganzen Social Networks davor.

00:15:33: Und dann werden wir uns im Kreis drehen ... ... und wieder da ankommen, wo er angefangen hat.

00:15:38: Ja, wobei fact-checking natürlich auch Auslegungssache ist, ne?

00:15:41: Also es gibt da ja... Also ich sag mal so... Versucht mit KI, einen Fact-Checking-Bot zu bauen und relativ schnell gemerkt, dass es kein Ampelsystem bei Aussagen gibt.

00:15:49: Du kannst Kommunikation nicht in Rot oder Grün in Wahrheit oder Lüge oder irgendwas dazwischen unterteilen.

00:15:56: Das klappt halt nicht.

00:15:57: Du kannst halt Kontext anreichern und das funktioniert.

00:16:00: Und wenn man jetzt irgendwie sich ex anguckt, hat er grog diverse Feinschliffe auch noch mal bekommen, um sich seine eigene Wahrheit hinzubiegen.

00:16:09: Das wurde die Community aufgerufen dazu.

00:16:13: eher unbekannte Wahrheiten irgendwie in Grog reinzufüttern, also natürlich Desinformation.

00:16:18: Von daher ist das immer die Überlegung, wie macht man Faktenchecks, ja, und was ist der Ansatz?

00:16:23: Also es gibt, das Problem ist, mit Kontext wäre ja tatsächlich, und das passiert bei den Community Notes ja sehr viel, dass eben einfach Kontext geliefert wird, das Kontext ist viel angreifbarer für diesen Vorwurf des Bias, den man ja immer als Argument genutzt hat, warum das Fact-Checking abgeschafft wurde, weil... Kontext musst du ja dann liefern, wenn in deinem Weltbild zu einer Information, einer anderen Information fehlt.

00:16:48: Und das halte ich für angreifbar.

00:16:50: Klassisches Fact-Checking dagegen ist eigentlich überhaupt nicht angreifbar.

00:16:53: Weil wenn ich sage, Leute trinken Bleiche, dann kommt jemand anders und sagt, kann man Bleiche trinken gegen Corona?

00:16:59: Nein, kann man nicht.

00:17:00: Es ist tödlich.

00:17:01: Fertig, Aussage nicht zu treffen.

00:17:03: Das ist eigentlich so, das Problem ist halt, dass die Community Notes aus diesem einfachen Null- und Einsystem halt so einen grauen Klumpatsch machen, der nach meinem Messen eben viel eher von Bayers angreifbar ist.

00:17:15: Neben all diesen anderen Problemen, die Community Notes, glaube ich, auch noch haben.

00:17:18: Das kannst du aber nicht jede Aussage genauso verifizieren oder widerlegen, wie das Bleiche nicht gegen Corona hilft.

00:17:26: Auch richtig.

00:17:27: Ja, das ist halt bei einigen Sachen ganz offensichtlich.

00:17:29: Bei anderen Sachen gibt es unklare Studiendaten.

00:17:32: Es gibt ja durchaus auch Studien, die sich widersprechen, sodass du da halt einfach keine allgemeingültige Meinung oder Ansicht hast.

00:17:40: Wenn wir das weiterspielen, bräuchten wir auch keinen mehr Parteinsystem, bräuchten wir nicht mehr ihre Meinung zu gewissen Themen und so weiter.

00:17:45: Also Wahrheit ist halt immer extrem schwierig zu greifen.

00:17:49: Bei deinem Beispiel natürlich sehr, sehr klar.

00:17:51: Und ich glaube, da macht fact-checking Sinn.

00:17:53: Aber spätestens wenn es um Meinungen geht, sollte man da... vorsichtig mit seinen Urlaub, zumindest den Ansatz, das bildet dich weiter.

00:18:01: Ich stimme zu, aber der Begriff Fact-Checking sagt ja schon aus, das sind nur Faktenüberprüfst, die angestellt werden.

00:18:06: Tatsachenbehauptung, eigentlich.

00:18:08: Es ist kompliziert.

00:18:11: Wir bleiben kurz in genau dieser Welt, denn wir haben hier in der letzten Woche, glaube ich, darüber gesprochen, dass in der Grokkipedia plötzlich eine Edit-Historie aufgetaucht ist, eine Geschichte der Bearbeitungen.

00:18:21: Und jetzt wissen wir, warum denn Larry Sanger Übrigens der Gründer oder Co-Gründer von Wikipedia, müsste man Tilo Jung noch mal genau klaren.

00:18:28: Der hat gepostet, dass die Grogopedia jetzt eben diese Edit History hat und dass man Dinge bearbeiten kann und Grog das dann aber feedbackt, bevor diese Veränderungen dann tatsächlich auch auftaucht.

00:18:37: Das ist Teil der Version, ich glaube, Nullpunkt zwei von der Grogopedia und dass die Grogopedia auch tatsächlich jetzt nochmal neue Artikel hat und damit jetzt mehr als eine Million Artikel online.

00:18:48: Wow.

00:18:49: Eine Million mal Quatsch ist halt ein, ja, eine Million mal Quatsch.

00:18:53: Nein, das ist nicht alles Quatsch, ne?

00:18:54: Also viele Dinge sind ja auch...

00:18:55: Einfach Kopier.

00:18:56: Die kriegen Kopier von

00:18:57: Wikipedia, die sind in der Regel dann vermutlich ganz gut.

00:19:01: Ja, aber, ähm, ja, gab es ja genug Beispiele, die dann irgendwie gezeigt haben, okay, Krokopedia hat ja, hat da durchaus ganz virre Artikel teilweise.

00:19:11: Ja,

00:19:11: das ist so.

00:19:13: Jetzt hattest du eben schon von mentaler Gesundheit gesprochen und... Tatsächlich bist du nicht der Einzige der diese Beobachtung gemacht hat, dass viel Konsum von Social Media sich oftmals schlecht auf die Psyche auswirkt.

00:19:23: Meta hat das auch herausgefunden und zwar schon im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... im Jahr, ... ... Die haben über geringere Gefühle von Depressionen, Angst, Einsamkeit und weniger sozialem Vergleichsdruck berichtet.

00:19:44: Was Meta so als Reaktion, also jetzt Unterstellungen vorsicht, Meta nicht so gut fand, weswegen sie es nicht veröffentlicht haben.

00:19:52: sagt das Gericht, Meta selber sagt, es gab eine, die waren voreingenommen, die Probanden.

00:19:58: Und deswegen wurde dieses Studium vorab abgebrochen, weil eben diese Probanden, es gab eine Verzerrung, wie sie sagen, weil diese Probanden schon zu Beginn des Tests der Meinung gewesen seien, dass die Nutzung von Facebook schlecht für sie sei.

00:20:11: Ja, so ein bisschen der katholische Kirche-Move, ne?

00:20:13: Irgendeine Studie in Auftrag gegeben, oh, das Ergebnis passt uns nicht.

00:20:17: Die Studie wandert irgendwie in Ablage P.

00:20:21: Also es läuft gerade eine Klage gegen Meta.

00:20:23: Es geht um, also es geht Northern District of California.

00:20:28: Da findet die Klage statt.

00:20:29: Mehr als tausend achthundert KlägerInnen haben die eingereicht.

00:20:32: Unter anderem gegen Meta.

00:20:33: Es geht um Instagram, TikTok, Snapchat und YouTube.

00:20:36: Und dem Vorwurf das Meta.

00:20:38: Und jetzt kommen die Punkte und da kannst du ja gleich mal direkt.

00:20:40: Emotionen zu reinschmeißen.

00:20:42: Der VfF ist das Meter, die Wirksamkeit seiner Sicherheitsfunktion für Jugendliche absichtlich eingeschränkt hat und Tests möglicher Sicherheitsfunktion blockiert hat, die sich auf Wachstum auswirken können.

00:20:53: Okay, so

00:20:55: nix.

00:20:55: Ja, ja, okay.

00:20:56: Ich dachte, du sehst jetzt erst zu Ende auf.

00:20:58: Ja, kann ich auch machen.

00:20:59: Unserreichende Maßnahmen zur Bekämpfung des Sexhandels in seinen Apps umgesetzt hat und Schäden für Jugendliche Nutzerin ignoriert hat, wenn diese das Potenzial für mehr Engagement riskierten.

00:21:08: Außerdem die Bemühungen, Potenzialitäter daran zu hindern, Kontakt zu Minderjährigen aufzunehmen, hinsichtlich Wachstum und Nutzung bewusst verzögert hat.

00:21:16: Außerdem größeren Projekten, wie die Metaverse, Vorrang vor der Finanzierung, verbesserten Maßnahmen zur Kindersicherheit eingeräumt hat.

00:21:22: Das ist halt krass, dass da aktiv im Grunde Kinderschutz einfach vernachlässigt wurde, wenn sich das bewahrheitet.

00:21:29: Das ist ein Skandal.

00:21:32: Ja, also mal gucken, ob Meter da dieses Mal irgendwelche Konsequenzen spürt.

00:21:37: Das ist ja in der Vergangenheit, hat das ja nicht so gut funktioniert irgendwie.

00:21:40: Aber das geht gar nicht.

00:21:41: Und das ist ein Riesenproblem.

00:21:44: Da ist Meter, glaube ich, nicht mit alleine.

00:21:45: Viele Social Media-Seiten oder Social Media-Betreiber sind ja... Aufmerksamkeit, Kritikzahlen und so weiter.

00:21:54: First und alles andere dann irgendwie second oder gar nicht, wie in dem Fall, oder sogar aktiv verhindern, ist schwierig.

00:22:02: Und ich glaube, die Lösung muss irgendwie ein System Change da sein, dass du halt wirklich guckst, wie kannst du Plattform aufbauen, die... Menschen schützen im Zweifel oder zumindest nicht schaden.

00:22:15: und das funktioniert nicht mit der Aufmerksamkeit der Ökonomie, die derzeit von allen Plattformen bedient wird, meiner Meinung nach.

00:22:21: Ich würde

00:22:21: dir zustimmen und ich glaube, dass große Ärgernis daran ist, dass dieser System Change an der Stelle bei allen anderen Formen der Jugendgefährdung immer funktioniert hat.

00:22:31: Killerspieldebatte.

00:22:33: Also, jetzt mal sehen davon, dass es gar nicht wissenschaftlicher Wiesen ist, ob Counter-Strike spielen, tatsächlich dazu gehören, Gewaltbereitschaft führt.

00:22:41: Zumindest soweit ich das weiß, korrigiert mich gerne.

00:22:44: War ja die Diskussion über die Indizierung von Videospielen damals sofort in der Gesellschaft angekommen.

00:22:50: Man hat sofort gesagt, wir müssen Kinder davor schützen.

00:22:52: Ob das sinnvoll ist oder nicht, ist eine andere Debatte.

00:22:54: Ich will nur sagen, die Gesellschaft hat das schnell aufgegriffen, als die vermeintliche Gefahren für die Jugend erkannt hat.

00:23:01: Als wir jung waren, Max, das war unsere Generation.

00:23:03: Das

00:23:04: war noch heiß.

00:23:05: Wir haben es mir noch heißen bei Cardi Breesa und alles getrunken, bis es uns verboten wurde, weil eine Alkohop-Schreie eingeführt wurde und sagt relativ schnell, so lange gab es die Dinger für uns nicht zu kaufen.

00:23:15: Bei Social Media führen wir die Diskussion aber ganz anders irgendwie, weil hier gar nicht darüber gesprochen wird, wie können wir und ich will nicht mich für ein Verbot von Social Media für Kindern aussprechen, aber... Wir führen die gesellschaftliche Debatte anders, weil solche Geschichten dann auftauchen, wie das Meter bewusst eine Studie zu psychischen Schäden vertuscht haben soll, die sich einreit in eine lange Geschichte von vertuschten Studien von Meta.

00:23:38: Wir haben hier über eine Studie gesprochen vor gefühltem Monat oder so.

00:23:42: Ich kann das gleich mal kurz nachhalten, wann das war.

00:23:46: Das Meta eine Studie zurückgehalten hat, die über die Gefahren für das Gehirn von jungen Menschen hat und auch den Umgang mit anderen Menschen im Metaverse, also in der Virtual Reality.

00:23:56: Diese Studie hat Meta nicht selber veröffentlicht, obwohl das Ergebnis war, ja, junge Menschen sollten sich in den Metaverse besser nicht so viel bewegen.

00:24:03: So, und das ist halt einfach jetzt das Ärgerliche, dass das nicht zum ersten Mal passiert und wir so, ja, Leute, was muss denn noch passieren eigentlich?

00:24:14: Um was zu tun, was ist denn die Lösung?

00:24:15: Ist auch schon wieder zu verbieten für unter achtzehn jährige unter sechszehn jährige.

00:24:20: Nein, absolut nicht.

00:24:22: Aber jede Videothek hat singekriechten, Erwachsenenzimmer einzurichten.

00:24:26: Und in Social Media schaffen wir das angeblich nicht, obwohl wir inzwischen an dem Punkt sind, dass jedes Sekunde, die du in der Plattform verbringst und alles, was du dort machst, genutzt werden kannst, um dir Maßgeschneidert Werbung anzubieten.

00:24:36: Aber dann die Inhalte für junge Menschen richtig auszuwählen, funktioniert nicht.

00:24:40: Dann Methoden einzuführen, dass junge Menschen nicht suchtfördernd von diesem Plattform irgendwie bespielt werden.

00:24:47: Das funktioniert dann auch nicht.

00:24:49: Das sind halt Dinge, da machen die Unternehmen sich unglaublich.

00:24:51: für dich meines Erachtens.

00:24:53: Ja,

00:24:54: durchaus.

00:24:55: Ich meine, eine offensichtliche Lösung wäre natürlich so Ausweis, Fotografieren, Hochladen und Personalien aufnehmen.

00:25:02: Dann kannst du definitiv sagen, ist die Person volljährig oder nicht, hat die Zugang zu gewissen Inhalten.

00:25:07: Aber dann zerstörst du doch im Grunde die Idee des freien Internets, dass du auch anonym dich bewegen kannst, dass du an Informationsaustausch teilnehmen kannst, dass du Netzkultur erleben kannst.

00:25:17: Es gibt ja im Moment immerhin so die Möglichkeit, also Roblox zum Beispiel, testet das jetzt gerade, ein paar andere auch, zum Beispiel mit KI-Altersschätzung.

00:25:27: Du wirst fotografiert, musst dich links, rechts drehen und dein Alter wird geschätzt.

00:25:31: Und das sind alles so Dinge, die halt besser werden als nix.

00:25:37: Ich will gar nicht viel, ich will ja nur einen guten Willen erkennen vielleicht.

00:25:41: Sofern die Daten entsprechend auch behandelt werden, als personenbezogene Daten, das weiß ich ja.

00:25:46: Auch

00:25:47: das ist nicht, und das ist leider auch nicht angriffssicher, weil wir auch darüber gesprochen haben, dass Leute Videospiel-Avartare in diese Altersschätzung schon eingeschlossen haben.

00:25:54: Also es ist nicht perfekt, aber es wäre immerhin, wie gesagt, der gute Wille wäre schon mal da.

00:25:59: Und was also zum Beispiel aus diesem Gerichtsprozess auch hervorgekommen ist, ist eine Geschichte, bei der ich Also ich hab gedacht, das kann nicht stimmen.

00:26:08: Und zwar gibt es auf Social Media Plattform und bei YouTube kennt man das ganz gut.

00:26:13: Gibt es so ein System von Strikes.

00:26:15: Also wenn du bei YouTube zum Beispiel Copyright-Verstöße hast, dann wird nach drei Strikes dein Konto gelöscht.

00:26:21: Das heißt, es gibt so eine Art gelbe Kartensystem.

00:26:23: Du wirst vorgewarnt, ey, wenn du das nochmal machst, haben wir ein Problem.

00:26:27: Mach's nicht nochmal.

00:26:28: Und das gibt's auch bei Accounts, bei Meta, die nachweislich... angezählt sind, weil sie sich und ich zitiere mit Menschenhandel zum Zwecke der sexuellen Ausbeutung befasten, sowie dem Umgang mit Minderjährigen, also dem Zwingen von Minderjährigen ihn zum Beispiel sexuelle Inhalte zu schicken, was damit in diesem Fall reinfällt.

00:26:47: Meta hatte in der Vergangenheit dazu eine siebzehn Strikes Politik.

00:26:51: Also Leute haben sechzehn Chancen bekommen, sechzehnmal eine gelbe Karte bekommen, bevor das Konto gesperrt wurde.

00:26:59: Also das hat Weischnavi Jaya Kumar gesagt, die zuvor bei Meta gearbeitet hat.

00:27:08: Sie war dort Leiterin für Sicherheit und Wohlbefind des Unternehmens und hat offenbar öfter angemerkt, dass hier der Umgang für Minderjährige bei uns auf der Plattform bei Meta nicht so läuft, wie man sich das wünscht.

00:27:22: Sie hat auch gesagt, es gibt ein großes Problem, dass Meta keine spezifische Möglichkeit für Instagram-Nutzerin hätte, Material zu sexuellen Kindesmitteln.

00:27:28: braucht zu melden, also es gibt es nicht als einzelnen Punkt zum Beispiel, hat das Problem einfach angesprochen, ihr wurde nur gesagt, es wäre zu aufwendig an solches System aufzubauen und sich darum umzukümmern.

00:27:40: Siebzehn Strikes.

00:27:42: Sechzehnmal ist es okay.

00:27:46: Also eigentlich ist beim ersten Mal ja vorhin vom Strafgesetzbuch dicht oder?

00:27:50: Also da müsste doch eigentlich die Strafverfolgungsbehörden eine andere Rolle spielen.

00:27:56: Und ich glaube, das sollten sie auch.

00:27:57: Am Ende kann man natürlich sagen, die Plattformbetreiber bieten die Möglichkeit.

00:28:01: Aber die Leute, die verbrechen begehen, die haben im Grunde, also wir alle, die keine Verbrechen begehen, haben ja eigentlich genießen über den Schutz durch die Strafverfolgungsbehörden, die sich genau darum kümmern sollen, dass so was geahndet wird.

00:28:13: Aber das funktioniert ja.

00:28:15: im digitalen Raum einfach nicht so, wie es funktionieren sollte.

00:28:18: Genau.

00:28:18: Das heißt,

00:28:19: da sehe ich die Verantwortung auf jeden Fall bei den Plattformen.

00:28:22: Ja, aber da müssten sich auch definitiv irgendwie unsere Behörden viel deutlicher miteinander

00:28:27: auseinander setzen.

00:28:28: Und das ist aber, das ist der Punkt, wenn du fragst, was sollen wir denn machen?

00:28:32: Alles sperren.

00:28:33: Naja, Regulierung.

00:28:34: Die Gesetze, die in der echten Welt gelten, endlich auch in digitalen Plattformen durchsetzen.

00:28:40: Ja.

00:28:41: Ja.

00:28:42: Das sind so Aussagen, wegen denen darf ich nicht mehr in die USA einreisen.

00:28:46: Mark Zuckerberg hat übrigens erst im letzten Jahr The Verge ein Interview gegeben und gesagt, ich glaube nicht, dass es einen kausalen Zusammenhang zwischen sozialen Medien und der psychischen Gesundheit von Teenage an gibt.

00:28:55: Ich weiß noch nicht, ob es eine Glaubensfrage ist, wenn es gegensätzliche Studienlagen gibt aus dem eigenen Unternehmen.

00:29:03: Ob verzehrt oder nicht, kann man dann an anderer Stelle diskutieren.

00:29:07: Naja.

00:29:09: Es gibt übrigens eine ganz interessante Gerichtsentscheidung.

00:29:12: Und zwar, wir werden kurz juristisch, aber du bist ja im Herzen, bist ja Jurist, Max.

00:29:17: Du bist doch so ein Typ, du hast ja bestimmt mal Jura studiert, oder?

00:29:20: Ich habe Soziologie und Medienwissenschaften studiert.

00:29:22: Das ist das Jura für Leute, die keine Paragrafen auswendig lernen wollen.

00:29:26: Ja, die gar nichts auswendig lernen wollen.

00:29:32: Aber irgendwie auch geil.

00:29:32: Voll.

00:29:33: Ich habe Germanistik studiert.

00:29:36: Ja, guck.

00:29:37: Nicht beendet.

00:29:39: Ja, gut.

00:29:39: Soziologie habe ich zu Ende studiert.

00:29:40: Medienwissenschaften habe ich die Masterarbeit nie abgegeben, aber... Hab mich da nach zwanzig Semestern Fun-Fact über mich tatsächlich exmatrikuliert.

00:29:48: Hab die Uni Bielefeld auf jeden Fall gut gesponsert.

00:29:53: Aber Sie haben dir auch ein Bandticket dafür gegeben, das ist nur fair.

00:29:56: Ja, ich hab schon in Berlin gelebt, da hatte ich relativ wenig von den NRW kostenlos mit der S-Bahn zu fahren.

00:30:03: Ja.

00:30:03: Mir jedenfalls hat ein Oberlandesgericht in Bamberg entschieden, dass eine, also angenommen, du wirst gesperrt von einer Plattform.

00:30:12: weil du zum Beispiel gegen Nutzungsbedingungen verstößt, dass du, wenn du jetzt einen anderen Account nutzt, dass du damit nicht diese Sanktion umgehst und dass diese, oder wenn du angenommen du erstellst, sondern erkannt, dass das in erster Linie nicht zwangsläufig dazu führen müsste, dass du gegen weitere Nutzungsbedingungen verstößt.

00:30:30: Das entscheidet das Oberlandesgericht und das ist deswegen interessant, weil sie sagen, ich zitiere jetzt gleich mal, die zentral juristische Frage war die Auslegung des Begriffes Umgehungen der Nutzungsbedingungen.

00:30:41: Die Bamberger Richter stellten klar, dass bei der Auslegung der AGB steht das Gebot der kundenfreundlichsten Interpretationsanwendung.

00:30:47: kommen müsste.

00:30:48: Heißt also eine Auslegung könnte ja auch sein, dass für dich der Vertrag beendet ist, wenn dein Account gelöscht ist und mit einem neuen Account ein neues Vertrag entsteht.

00:30:57: Und das ist jetzt gerade erstmal so das Ding.

00:30:59: Das gilt halt erstmal in Deutschland so, heißt aber auch, dass das betrifft ja eben nicht nur Leute, die jetzt irgendwie keine Ahnung, Verschwungstheorien erzählt haben dort oder Disinformationen verbreit oder Gewalt, sondern es passiert dadurch auch, dass Leute tatsächlich versehentlich gesperrt werden.

00:31:15: Und dass das denen eher die Möglichkeit gibt, damit in Kontakt zu den Plattformen zu treten oder es irgendwie zu schaffen, trotzdem dort zu existieren, heißt im Umkehrschluss aber natürlich leider auch, dass Leute, die wegen dieser Sachen gesperrt werden, erst mal die Möglichkeit auch bekommen könnten, einen neuen Account zu erstellen.

00:31:31: Bis man, glaube ich, gucken, wie groß die Kollateralschäden sind, weil ansonsten ist das ja dann eine Infinite Strike Policy oder nicht, wenn du dann im Grunde Quatsch gemacht hast oder ich sage mal kriminelle Handlung wirklich hattest, wird das erstmal gleichgesetzt.

00:31:44: Du kannst dann danach die immer wieder neu anmelden, den gleichen Kram nochmal machen, dann hat das ganze ja keinen Sinn.

00:31:50: So ist es, das ist wahr.

00:31:52: Aber in dem Fall hier ging es immerhin um Spam, irreführende Praktiken und Betrug.

00:31:56: Ist jetzt nicht unbedingt gut.

00:31:57: ... aber ist vielleicht nicht ganz so demokratiegefährdend ... ... und dauert auch erst mal damit, ... ... erst mal wieder eine Plattform an den Kanal aufzubauen ... ... immerhin.

00:32:05: Vorsichtig formuliert.

00:32:07: Ich habe ein KI-Thema für dich mitgebracht ... ... und es ist auch gleichzeitig so ein bisschen ... ... ich bin ja das Oracle von Selfie.

00:32:12: Ich habe nämlich genau das prognostiziert, ... ... dass es kommt.

00:32:15: Und zwar haben Matthew McConaughey ... ... und Michael Cain ... ... die kennst du wahrscheinlich beide, ... ... weil du ja auch sinerst bist.

00:32:23: Ja.

00:32:23: Sofort drei Filme, in denen sie mitgespielt haben.

00:32:26: Einhundert Prozent.

00:32:27: Alle.

00:32:27: Die frage ich jetzt natürlich nicht.

00:32:29: Nein,

00:32:29: reicht die Zeit doch nicht.

00:32:30: Ja,

00:32:30: eben.

00:32:31: Die haben ihre Stimme an die Eleven Laps ... ... lizenziert.

00:32:35: Und haben damit diesem Unternehmen die Möglichkeit gegeben, dass zum Beispiel Newsletter, die die beiden Leute zum Beispiel jeweils veröffentlichen, aufs Spanisch als Podcast veröffentlicht werden, obwohl Matthew McConaughey kein Wort Spanisch spricht.

00:32:50: Ja.

00:32:50: Glaubst du, das ist ein Trend?

00:32:51: Ja, also, ein hundert Prozent.

00:32:53: Klar.

00:32:54: Das ist vor allem, holen sich da die Plattformbetreiber, die ziehen sich da ein bisschen mit aus der Affäre, weil sie einfach sagen, die, die laut sind, die laute Stimmen haben, die theoretisch eine Marktmacht haben, also Promis, die möglicherweise dann auch gefragte Inhalte haben, die zahlen wir einfach aus, die dezentieren wir.

00:33:11: Und dann geht uns die allgemeine Bevölkerung nicht auf die Nerven.

00:33:16: Also es gibt ja auch dieses Gema-Urteil, was ja vor kurzem war, dann irgendwie die Gema gegen OpenAI gewonnen hat, weil OpenAI Songtexte wiedergegeben hat, die eigentlich Gema-Dizenziert sind und so weiter und so fort.

00:33:25: Und da ist ja auch ganz spannend, wenn man sich diese Pressemitteilung mal anguckt, dass die Gema ja die Lösung in der Pressemitteilung auch schon nennt und zwar gibt uns doch einfach Geld.

00:33:32: Weil dann könnt ihr einfach genauso weitermachen wie bisher auch und wir verteilen das Geld schön an unsere Künstlerinnen.

00:33:37: Aber solche Plattformen leben am Ende ja von den Daten von uns allen.

00:33:41: Und das ist immer so ein bisschen blöd, wenn man das so regelt.

00:33:47: Aber auf der anderen Seite, ja klar, ich glaube schon, dass das tatsächlich passiert, dass immer mehr Leute mit bekannten Stimmen, ihre Stimmen auch... die zensieren werden verkaufen werden wenn sie denn überhaupt gefragt werden ist ja gut so kann man erst mal so sehen.

00:34:03: Und dass dann diese Stimmen verwendet werden können.

00:34:06: und jetzt mal wenn du die von Matthew McConaughey verwendest dann kannst du im Grunde kriegt er ein bisschen Geld oder so.

00:34:12: Genau, so könnte man sich das vorstellen.

00:34:13: So

00:34:13: ist das und du kannst sie jetzt auch schon nutzen.

00:34:15: es gibt nämlich bei den bei Eleven Labs das ist ein Tool mit dem du Stimmen synthesieren kannst und auch nutzen kannst.

00:34:20: Da gibt es einen Iconic Marketplace und da kannst du jetzt im Matthew McConaughey bald nutzen.

00:34:25: soweit sind die offenbar noch nicht oder im.

00:34:26: Michael Cain, aber auch Art Gafankel, den Hello Darkness My Old Friend Sänger.

00:34:31: Oder war es der andere?

00:34:34: Paul Simon war, glaube ich, der andere.

00:34:35: Ich weiß nicht, wer.

00:34:35: Hello Darkness My Old Friend, haben die zusammengesungen?

00:34:38: Ah, das müssen wir ja Haus geben.

00:34:41: Und Liza Minnelli, die gehören dazu.

00:34:43: Aber zum Portfolio gehören auch jetzt schon John Wayne, Emilia Earhart, Alan Turing oder Robert Oppenheimer, die alle bereits verstorben sind.

00:34:52: Max recherchiert gerade, dann kann ich kurz

00:34:54: nochmal

00:34:56: aufgreifen, was ja meine These von neulich war, weswegen ich darüber spreche, weil ich die These aufgestellt habe, dass kurz oder lang wir auf dem Weg sind, dass das Synchronengeschäft als Markt in Deutschland, der eigentlich sehr, sehr bekannt dafür ist und renommiert ist, so eine gute synchronen Industrie für Filme zu haben, dass wir uns daran gewöhnen müssen, dass dieses Business aussterben wird, dass Matthew McConaughey in deutschen Filmen bald auch seine eigene Stimme haben wird, lizenziert über.

00:35:21: Eben solche Modelle zum Beispiel.

00:35:23: Ja.

00:35:25: Sind Simon und Garfunkel.

00:35:27: Ich habe die Frage, weil wer von den beiden ...

00:35:29: Beide.

00:35:29: ... steht hier.

00:35:31: Also, wer singt?

00:35:32: Ach so, wer singt?

00:35:35: Ja, danke für deine Deschärfel, Marc.

00:35:36: Wer singt, schreib ich die Briefings.

00:35:40: Es ist von Paul Simon geschrieben, zumindest.

00:35:41: Das weiß ich.

00:35:42: Wahrscheinlich hat er es dann auch gesungen.

00:35:46: Ja, okay.

00:35:48: Fail.

00:35:50: Ich wollte

00:35:50: noch was zu den Stimmen sagen.

00:35:55: Glaubst du, dass die Leute wie Brad Pitt noch einen festen Synchronsprecher in Zukunft in Deutschland haben?

00:36:00: Ja, also die Synchronsprecherbranche wird natürlich dadurch komplett in den Ruinen getrieben.

00:36:07: Also alle, die irgendwie auch mit Vertonung was zu tun hatten.

00:36:09: Das gibt's ja im kleinen Rahmen, sieht man das in Social Media, gibt's da zahlreiche Videos, die dann irgendwie auch mit dieser typischen Stimme von von so Erklärern, so typischen Erklärern.

00:36:18: Ja, haben wir drüber gesprochen eigentlich.

00:36:20: Ja, ja genau.

00:36:22: Und das wird dann einfach verwendet und natürlich ist es nicht cool für die Branche auf der anderen Seite.

00:36:27: ist es einfach der Weg, den, glaube ich, KI jetzt auch geht.

00:36:29: Und es wird halt genutzt, weil es einfach ist.

00:36:33: Ich hatte beispielsweise vor Kurzem im Podcast auch irgendwie eine Kollegin vom Burda-Verlag und die sagten, die können im Grunde die Arbeit mit Eleven Labs zusammen, als Unternehmen auch, so Co-op.

00:36:45: Und die können neue Produkte im Grunde das viel leichter testen, weil sie im Grunde viel schneller und günstiger natürlich erstmal an irgendwelche synthetischen Stimmen kommen, die gehören keinen Menschen, die sind im Grunde quasi erfunden von der KI.

00:36:57: können da aber schauen, wie kommt dann im Grunde diese Stimme an und damit auch besser, sag ich mal, neue Märkte an testen.

00:37:03: Die Industrie freut es total, aber diejenigen, die sich vorher damit befasst haben, vor allem die KünstlerInnen, muss man sagen, also die Synchronsprecherei ist ja eine Kunst.

00:37:12: Absolut,

00:37:13: ja.

00:37:14: Die werden drunter leiden und man kann nur hoffen oder muss hoffen, dass die am Ende nicht leer ausgehen.

00:37:19: und deshalb Bin ich auch sehr kritisch bei so Social Media Sachen, bei Reeves, die ich sehe, die im Grunde ganz offensichtlich mit so einer Synchronstimme vertont wurden, obwohl das alles KI generiert wurde, weil es ist eigentlich keine gute Nutzung, muss man an der Stelle sagen.

00:37:34: Aber es machen alle, ne?

00:37:36: Ja, das Problem ist halt, und da sind wir wieder bei der ersten Frage, die wir vorhin ja hatten, wegen Innovationsfeindlichkeit.

00:37:43: und wie steht man generell zum Thema?

00:37:46: Man trägt, glaube ich, und das ist... Ich glaube, ehrlicherweise gibt es das schon immer.

00:37:51: Man trägt natürlich so einen gewissen Werten, so eine gewisse Wertennostalgie mit sich rum und denkt sich so, ach, das ist doch toll, dass wir hier so eine Industrie haben und Leute, die so synchron sprechen und diese Kunst machen und so.

00:38:04: Aber genauso hat man wahrscheinlich auch über Leute gesprochen, die Dinge auf Steintafeln geschlagen haben.

00:38:08: Und auch trotzdem wurden die sozusagen überholt.

00:38:12: Und ich will damit nicht sagen, dass auf Steintafeln schlagen und synchron sprechen beides nicht irgendwie erhaltenswerte Künste wären.

00:38:19: Ich fürchte leider nur, dass eben Wir immer den Weg des geringsten Widerstandes gehen.

00:38:24: und wenn und Text in den Computer eingeben ist eben immer noch deutlich einfacher als sich ein Synchronen Regisse erholen, das Drehbuch komplett von Handschreiben, den Sprecher instruieren, wie sagt man?

00:38:36: Instruieren?

00:38:36: Danke,

00:38:37: instruieren und so.

00:38:39: Und das ist natürlich super schade.

00:38:41: Auf der anderen Seite denke ich mir, naja, Menschen, die jetzt vier Jahre alt sind, die werden es vielleicht dann irgendwann auch gar nicht mehr anders kennen.

00:38:47: Ja, ist man... Ich muss sagen, weil etwas leichter geht, heißt ja nicht, dass andere Kunstbereiche ersetzt werden.

00:38:54: Also als die Fotografie erfunden wurde.

00:38:57: Da gab es damals wohl auch durchaus einen Aufstand von Malern und Bildhauern, die gesagt haben, wir können es auf Knopfdruck irgendwie Abbildungen erstellen.

00:39:04: Und heute würde keiner answeifeln, dass das Kunst nicht neben Malerei und Bildhauerrei eine eigenständige Kunstform geworden ist.

00:39:11: Und deshalb glaube ich, dass das in die ähnlicher Weise auch mit KI funktionieren wird.

00:39:15: Dass es durchaus so eine Human-Mate Sache noch gibt.

00:39:18: Im Synchronsprecher muss ich sagen, da bin ich mir nicht ganz sicher.

00:39:22: Aber auf der anderen Seite muss man halt auch wieder auf der haben Seite sagen, es ist eine extrem krasse Inklusion, die damit gemacht werden kann.

00:39:30: Also was Barrierefreiheit angeht, was irgendwie Mehrsprachigkeit angeht, dass du dir Stimmen im Grunde auch in deiner Muttersprache anhören kannst.

00:39:37: Es kann dazu führen, dass Informationen noch schneller, noch barrierefrei ab allen zugänglich gemacht wird.

00:39:43: Und das ist, glaube ich, einfach wirklich auf der Habenseite.

00:39:46: Deshalb muss man gucken, wie man diesen Strukturwandel, in dem wir generell ja gerade stecken durch KI, auffängt und die Leute, die darunter ganz gezielt leiden.

00:39:53: Das sind Übersetzer, das sind Übersetzerinnen, das sind... Natürlich irgendwie so Art Directors, Grafikerinnen und so weiter, aber auch Synchronsprecher, dass man die auffängt, dass man da eine Möglichkeit findet.

00:40:06: Und meine Idee ist ja immer so, die VGKI ins Leben suchen, dass man sagt, ja okay, da muss einfach eine Sonderabgabe für Kulturprojekte oder für die Leute stattfinden, die halt wegrationalisiert werden.

00:40:18: wird nicht passieren.

00:40:19: Aber jetzt würde das anspielen, kann ich ja auch mal was erzählen.

00:40:22: Ich glaube, es ist nicht schlau, dass ich das schon erzähle, weil ich arbeite da schon länger so ein bisschen dran rum und es passiert nicht so viel.

00:40:27: Deswegen will ich mir jetzt auch nicht das kaputt machen.

00:40:29: Ich sage es trotzdem, weil ich halt das immer noch finde gute Idee und die ist so gut, dass selbst wenn alle sie kopieren, sie gut bleibt.

00:40:34: Ich hatte die Idee, eigentlich müsstest du so Leute, die Inhalte mit KI erstellen, die werden ja auch gesucht.

00:40:41: Also ich schätze, du kriegst drei E-Mails am Tag von irgendwelchen Leuten, die fragen, ob du nicht mal was prompten könntest für die, oder kannst du uns nicht ein Video, so was wahrscheinlich passiert, oder?

00:40:48: Ich bin ja eher Berater, als Promptingenieur, aber ja, gerade ist der Bedarf da, sag ich mal so.

00:40:56: Und eigentlich müsste man sich sozusagen als Bindeglied dahin stellen und sagen, wir vermitteln euch diese Leute, die für euch die Prompt schreiben, aber zwanzig Prozent der Einnahmen gehen an handgemachte Grafiken, Kunst.

00:41:06: Also das, was das quasi ersetzt, was man damit ersetzt.

00:41:09: Also zum Beispiel Filmemacher, ein Filmprojekt, das du damit förderst, ein Grafikprojekt, ein Fotografieprojekt, was auch immer.

00:41:16: Eigentlich müsste es so

00:41:16: machen.

00:41:17: Da muss ich jetzt irgendwie die prompt engineers in Schutz nehmen fragen warum sollen die denn dafür bezahlen.

00:41:25: Das kann jeder machen.

00:41:26: Nicht das was die prompt engineers dann kriegen.

00:41:28: du als mittelsmann nimmst das quasi vom gesamten das heißt der preis wird höher.

00:41:34: Also bin ich für ja gut finde ich gut.

00:41:38: Perfekt.

00:41:40: Wir brachen Scheitern befürchtigt, aber du, Kevin, gab's schon schlechtere Geschäftsideen, lass das machen.

00:41:46: Man muss auch manchmal so ein bisschen, wie sagt man, man muss auch mal was für andere Leute hat sich überlegen.

00:41:55: Auch wenn es scheitert.

00:41:56: Die Idee war halt immerhin gut, im Sinne von gut.

00:42:01: Was nicht so gut ist, fünf Prozent der Englischsprachigen Wikipedia ist schon von KI geschrieben.

00:42:07: Wikipedia, nicht Crokipedia.

00:42:09: Sagt wer.

00:42:09: ... sagt die Zeit.

00:42:12: Und sie bezieht sich dabei auf.

00:42:14: Ich kann dir das gleich ... ... so schnell bin ich doch nicht, Max.

00:42:17: Ich habe dir nicht erwartet, dass du jetzt schon von mir hier so ... ... zack, zack, zack, zack.

00:42:20: Ich

00:42:21: will solchen Aussagen bin ich immer ... ... bin ich immer ein bisschen vorsichtig deshalb.

00:42:25: Aber erzähl erst mal, wo kommt das her?

00:42:27: Also die Geschichte ist die.

00:42:29: Sie erzählen die Geschichte eines Deutschen, dem das aufgefallen ist, weil er ... ... er arbeitet, er ist ehrenamtlicher Wigbediana.

00:42:36: So Leute gibt's ja, die Wikipedia-Bereichern und da reinschreiben und so.

00:42:39: Und was der manchmal macht ist, dass er die Quellen überprüft, die angegeben werden für Wikipedia-Artikel und dabei vor allem die ISBN-Nummer nutzt, also die internationale Standardbuchnummer.

00:42:50: Jedes Buch kriegt diesen Nummer vom Buch Papst.

00:42:56: Ich weiß gar nicht, wer die ESPN verteilt.

00:42:57: Wahrscheinlich gibt's dafür zentrale Stellen und sagen, dieses Buch hat jetzt diese Nummer.

00:43:01: Und das überprüft er und guckt, sind die Bücher gute Quellen, gibt das den Pastas hier rein und so.

00:43:06: Und er hat herausgefunden, dass relativ viele, die er da findet, ESPN-Nummern sind, zu denen es gar kein Buch dahinter gibt.

00:43:15: Also online nix, in der Katalog der Nationalen Bibliothek nix, nirgendwo.

00:43:20: Auch die Kombination aus Titel, Autor, Jahr und Verlag gab es so nicht.

00:43:23: Und dann hat er irgendwann herausgefunden oder wurde darauf hingewiesen, dass es durchaus Artikel gibt, die mithilfe von KI geschrieben wurden.

00:43:30: Und offenbar hat die KI dabei, sich eben auch Quellen einfach ausgedacht, um entweder glaubwürdiger zu werden oder um einfach einen schnelleren Weg zu gehen an der Stelle.

00:43:39: Was deswegen interessant ist, weil natürlich dass wir der Grocki Pedia vorwerfen, nämlich da schreibt ein Computer einfach Quatsch rein, der da auch noch Bayes ist, das haben wir bei der Wikipedia immerhin nicht, aber durch den Bayes in Trainingsdaten möglicherweise ja auch den Weg in die Wikipedia findet.

00:43:54: Und auch in der Wikipedia wissen wir heute schon, gibt es durchaus Texte, die einen gewissen Bayes haben, weil sie zum Beispiel entsprechend bearbeitet wurden von Regierungsbehörden zum Beispiel.

00:44:04: Ja, also grundsätzlich... Deshalb frage ich es nach, gibt es keine hundertprozentige Möglichkeit, KI-Content als solchen zu identifizieren?

00:44:13: Gibt es nicht.

00:44:13: Es gibt so zahlreiche Anbieter, die irgendwie sagen, wir können deinen Text scannen und sagen, wie viele Prozent davon KI generiert sind.

00:44:19: Das ist halt eine Regelscam.

00:44:21: Habe ich heute noch zu verlesen, dass die amerikanische Unabhängigkeitserklärung zu neunneinzig, neunsechs Prozent als KI generiert, erkannt wird.

00:44:28: Genau.

00:44:28: Ich habe auch gesehen, dass du es geliked hast.

00:44:30: Dadurch habe ich es auch gesehen.

00:44:32: Ich glaube, wir haben wirklich den gleichen Social Media Geschmack, wenn ich sehe.

00:44:35: Alles, was du leidst.

00:44:37: ich einfach auch, weil es einfach geil ist.

00:44:38: Du sagst so einen guten Geschmack.

00:44:39: Ach, danke.

00:44:41: Vielleicht verbringe ich ja einfach so viel Zeit im Internet, dass ich einfach alles like.

00:44:44: Ja,

00:44:45: oder das, genau.

00:44:47: Ja, wir haben den gleichen Algo.

00:44:48: Also, nee, tatsächlich gibt es da keine Möglichkeit, aber natürlich erfindet KI Quellen.

00:44:54: Es gab jetzt diesen großen Deloitte-Fail in Australien.

00:44:59: Da wurde Deloitte auch beauftragt von der australischen Regierung.

00:45:01: Irgendwie ein Paper zum Thema, ich glaube, Wohnungslosigkeit, Sozialleistung.

00:45:05: Irgendwie so ging es, um dieses Oberthema zu bauen und haben da irgendwie drehundfünfzigtausend Dollar für gekriegt oder so.

00:45:11: Und dann turns out, ja, die ganzen Quellen existieren nicht.

00:45:14: Also, das hat die Leute einfach hart gepromptet.

00:45:16: diesen Bericht hingeschickt, mussten die Kohle zurückzahlen, haben sich entschuldigt, großer Fail.

00:45:21: Aber das ist halt auch keine Nutzung für KI.

00:45:23: Das ist halt immer das große Problem, die Rundfunkmedien... Die europäische Medienanstalten haben ja vor kurzem auch diese Studie herausgebracht, dass irgendwie vierzig Prozent der KI des KI-Outputs erlogen ist.

00:45:36: Wenn du halt KI falsch nutzt, dann passiert das.

00:45:40: Und das ist halt, wenn du so ein probabilistisches, sprich auf Wahrscheinlichkeit Rechnung basierendes System, wenn du dem sagst, mach mir mal einen wissenschaftlichen Artikel, dann versteht ja die KI nicht.

00:45:51: Also das System versteht nicht, was Wissenschaft bedeutet, sondern sagt, ich gucke mir alle möglichen wissenschaftlichen Artikel an, gucke nach Pattern.

00:45:56: So, ja ok, da stehen irgendwie Quellen unten drin, die sind so und so markiert, dann mach ich das auch, eckige Klammer auf, gib irgendwie was ein, was irgendwie halbwegs gut klingt und dazu passt und zu.

00:46:06: Das ist halt nicht wie Language Models arbeiten, genauso wenig wie in dieser Umfrage oder in dieser Studie der Rundfunk Union, wo es dann auch hieß, als Beispiel in dieser Studie habe ich mir angeguckt, von wegen, wer ist der aktuelle Papst.

00:46:17: So ja, ein KI-Modell weiß nicht, wer der aktuelle Papst ist.

00:46:20: Ein KI-Modell hat begrenzt Daten, die sind nicht tagesaktuell und auch diese Websuche, die hat nicht immer die aktuellen Daten.

00:46:27: Also solche Use Cases mit Vorsicht genießen, da brauchen wir, glaube ich, alle noch ein bisschen Literacy für.

00:46:33: Das ist so.

00:46:34: Übrigens die Cornell University hat im Oktober zwanzig festgestellt, dass fünf Prozent der Englischsprachigen Wikipedia-Artikel, die im August desselben Jahres erstellt wurden, erhebliche Mengen an KI-generierten Inhalten beinhalteten.

00:46:45: Man muss dazu in Deutschland übrigens zwei Prozent, man muss aber dazu sagen, die Verkürzung, fünf Prozent der Wikipedia ist damit nicht richtig, sondern fünf Prozent der Wikipedia-Artikel, die innerhalb eines Monats erstellt wurden.

00:46:56: Das macht einen Unterschied, macht es nicht zwangsläufig automatisch besser, aber macht einen Unterschied.

00:47:01: Jedenfalls hat die Wikipedia im Englischsprachengraum darauf jetzt schon reagiert und es gibt jetzt für Administratoren die Möglichkeit, wenn Texte gewisse Kriterien erfüllen, sie ohne weitere Überprüfung und Diskussion, was für die Wikipedia interessant ist, umgehen zu löschen, ohne dass da jetzt irgendjemand was überprüft.

00:47:18: Das galt bisher nur bei offensichtlicher Werbung oder mutwilliger Verfälschung.

00:47:23: Ja, das ist mit den Moderatoren bei Wikipedia darf man sich nicht verschärzt, die sind knallhart.

00:47:29: Also ich weiß das noch, ich habe mal als Berater gearbeitet und wenn da Unternehmen irgendwie gesagt haben, sie würden gerne ihre Wikipedia-Artikel ein bisschen ändern, weil da vielleicht so ein paar Sachen drin standen, die jetzt auch irgendwie nicht so cool waren oder so.

00:47:42: Da gibt es wirklich Spezialagenturen für die das machen.

00:47:44: Ich glaube Böhmje hat auch vor Ewigkeit eine Folge dazu gemacht.

00:47:47: Also es ist wirklich krass, wie gegeteept wird.

00:47:50: Von daher habe ich da vollstes Vertrauen.

00:47:53: an die KollegInnen bei der Wikipedia, die da bisher einen extrem guten Job machen, einfach deshalb schaut out an der Stelle ihr haltet das Internet zusammen.

00:48:02: Ja, wirklich, definitiv.

00:48:04: Auch

00:48:04: wenn ich leidtragend anerkennen muss, dass ich immer noch kein Wikipedia-Artikel habe.

00:48:11: Und ich hab mal mit so einem Agenturtypen gesprochen, der mir dann sagt, das tut mir Leidmachs, aber du bist zu irrelevant.

00:48:19: Okay, cool.

00:48:20: Ich bin Buchautor.

00:48:21: Was soll ich mehr machen?

00:48:23: Nee, er sagt da keine Chance, das ist ...

00:48:26: Komm wieder, wenn du relevant bist, Junge.

00:48:29: Gavin, wer von uns beiden kriegt zur ersten Wikipedia-Artikel?

00:48:31: Sollen wir da eine große Wette abschließen?

00:48:34: Du hast eine größere Community, die schreiben dir ein und bestätigen das alles.

00:48:37: Das fliegt da sofort wieder raus bei der Wikipedia.

00:48:40: Ich brauche so echte Wikipedia, die es schaffen, das zu argumentieren und dich da so reinzuholen.

00:48:45: Ich habe mal so ein Typisches Partygespräch gewesen.

00:48:50: Wie kriegt man am schnellsten ein Wikipedia-Tikel?

00:48:52: Du tötest jemanden, der ein Wikipedia-Tikel hat.

00:48:58: Ich glaube, das stimmt.

00:49:00: Der ist nicht zur Nachahmung empfohlen, Leute.

00:49:02: Nein, keine Empfehlung.

00:49:04: Aber ja, Kevin, ich bin gespannt, ob wir beide jemals einbekommen werden.

00:49:09: Ich glaube, bei Grog geht es relativ schnell, aber...

00:49:11: Das will ich nicht.

00:49:13: Das ist der neue blaue Haken.

00:49:14: Nachdem der blaue Haken überall ist käuflich, ist es so

00:49:17: für... Die BD-Artikel ist der neue blaue Haken.

00:49:19: Ja, das ist wirklich eine sehr gute Probe, ist wirklich so.

00:49:23: Übrigens, Jeff Besser, es hat einen neuen Job.

00:49:25: Was interessant ist, weil er sich ja aus dem operativen Geschäft eigentlich überall rausgezogen hat.

00:49:28: Der frühere Amazon Gründer, so schreibt es, so schreibt es NTV finde ich sehr gut, Amazon Gründer Jeff Bezos orientiert sich beruflich neu.

00:49:37: Er hat einen KI-Startup gegründet, Project Prometheus.

00:49:42: Womit das Unternehmen sich genau beschäftigt, ist nicht bekannt, aber man weiß schon, dass das Unternehmen schon sechs Komma zwei Milliarden Dollar Kapital eingesammelt hat, sagt zumindest New York Times.

00:49:51: Und er wird aber dort auch eine operative Rolle als Co-Geschäftsführer hineinnehmen.

00:49:56: Ich weiß nicht, ob er Geld braucht oder was da die Motivation hinter ist, aber schon interessant, dass er sich dann doch noch mal hinsetzt.

00:50:03: und also, dass Jeff Bessos noch mal in Slack-Kanäle geht, finde ich schon erstaunlich.

00:50:10: Gar nicht mehr arbeiten.

00:50:11: Ich würde mein Geld verschenken und von einem Prozent meines Geldes irgendwo auf einer geilen Mittelmeerinsel leben.

00:50:18: Ohne Social Media und Medien, damit ich mir das erst nicht mehr anhören

00:50:20: muss.

00:50:20: So wie Myspace, Tom.

00:50:21: Ja, genau, MySpace, Tom.

00:50:23: Ja, richtig.

00:50:23: Großes Vorbild.

00:50:25: Ganz, ganz großes, fünfhundert Millionen Exit.

00:50:28: Und dann, äh, ich mal jetzt malen.

00:50:30: Ich mal jetzt, mach mal so so.

00:50:32: Irgendwas weiter.

00:50:32: Da hat doch irgendwie eine ganze Menge Hobbys jetzt für sich entdeckt.

00:50:35: Und geht sich alle voll raus.

00:50:36: Das ist so geil.

00:50:38: Der macht's richtig.

00:50:39: Ja, so fühlst du dich besser.

00:50:41: Ich habe noch die kleine Geschichte, die aber in mehr so unterferner liefende Randnotiz ist, die ich aber bemerkenswert finde, weil PTA heute darüber berichtet, ein Fachmagazin für pharmazeutisch-technische Angestellte und Assistentinnen, dass ein Mann im Krankenhaus gelandet ist mit einer schweren Bromvergiftung, weil er nach einer Suche für einen Salzersatz war.

00:51:01: Er hat gehört, Salz ist ungesund und hat deswegen von ChatGPT erfahren, dass man damit mit Brom seinen Essen eben entsprechend salzen könnte.

00:51:08: Und er hat drei Monate lang Krauchsalz durch Natrium-Promet ausgetauscht.

00:51:12: Hat GPD ihm empfohlen.

00:51:13: Damit ist er im Krankenhaus gelandet, weil das eine Vergiftung

00:51:17: ist.

00:51:21: Ja, was soll ich dazu sagen?

00:51:24: Lernen Prompten oder so?

00:51:25: Keine Ahnung.

00:51:27: Ich glaube, genau das sind solche Sachen.

00:51:29: Tegyptie versteht es nicht, was du damit haben möchtest.

00:51:33: Tegyptie gibt dir wahrscheinlich eine ähnliche chemische Zusammensetzung oder so ein Kram war es in dem Fall.

00:51:37: Also irgendwie, das man gesagt hat, das ist relativ nah beieinander, also wird das schon wie funktionieren.

00:51:42: Also auf sowas niemals verlassen und das Gemeine ist ja, dass die ganzen KI-Systeme immer so überzeugend wirken in dem, was sie sagen.

00:51:48: Aber ich hatte selbst mal mir einen Bot gebaut, der mir beim Abnehmen geholfen hat, der mir so Rezepte ausgegeben hat, die im Grunde nur so und so viel Kalorien und Ballerstoffe wie auch immer, dann irgendwie beinhalten.

00:52:00: Und das hat extrem gut funktioniert.

00:52:02: Aber auch weil ich mit einem gewissen Menschenverstand an die Sache gegangen bin.

00:52:06: Und jetzt, ich hatte keine Fälle, dass mir irgendwie Gifte empfohlen wurden oder so, als das Zutat ganz im Gegenteil.

00:52:10: Es waren natürlich zusammengeklaute Sachen von Websites.

00:52:12: Aber Leute, nicht alles, alles glauben, was man irgendwie irgendwo von KI und auch in Social Media hört.

00:52:18: Das ist doch...

00:52:21: Ja, also ja, definitiv.

00:52:23: Weil also das Problem ist halt nur... Also ich sage das auch immer, ich mache ja manchmal so, bin dann so irgendwo in einem Radiosender eingeladen und darf ich da irgendwie kurz mal drei Minuten was zu einer KI-Geschichte erzählen.

00:52:34: Die Geschichte ist immer, warum steht da diese Unwahrheit?

00:52:37: Es fasst immer eine zentrale Frage, die da irgendwie so entsteht.

00:52:40: Sag ich immer denselben Satz, ich sag, dass ein System, das gebaut ist, nicht um richtige Sachen zu sagen, sondern richtig klingende Sachen.

00:52:46: Und dieser Punkt, den muss man den, hab ich das Gefühl, der erzählt allen Leuten um mich herum, was Social Media mit Jugendlichen macht und was KI mit der Wahrheit macht.

00:52:56: Weil wir alle, die diesen Podcast hören, ihr setzt euch kritisch damit auseinander, was ihr mit den Medien macht.

00:53:01: Aber viele Leute da draußen eben nicht.

00:53:03: Und wenn du dann so eine... Am Ende, wenn du eine Waffe in der falschen Hand hast, wird sie doch gefährlich, weil sie anfängt solche Dinge zu empfehlen und zu verbreiten.

00:53:12: Das ist richtig.

00:53:13: Und setz' euch mit Trainingsdaten auseinander, wie die funktionieren.

00:53:16: Es gibt immer dieses schöne Beispiel, also wenn jetzt alle deine zwei Tausend Einhundert Leute in der Community alle irgendwie eine Uhrzeit prompten würden, würde bei allen dieselben Uhrzeiten herauskommen.

00:53:27: Das ist mittlerweile tatsächlich nicht mehr so, weil dieses neue Nano-Banana-Modell mir diesen Use Case versaut hat.

00:53:32: Ich hab' neugierig auf einer Bühne gestanden und das erzählte nach, kam gleich irgendwie mal jetzt, ah, das neue Nano-Banana-Modell, aber das war hier eine fehlend funktionelle KI, KI überlebt uns alle.

00:53:41: Das ist so.

00:53:42: Aber ich hab... Also, vielleicht kann man da auch persönlich draufblicken.

00:53:45: Schau mal, als Navies neu waren, gab es immer Geschichten von Leuten, die irgendwelche Klippen runtergefahren sind.

00:53:50: Ja.

00:53:51: Das gibt's nicht mehr.

00:53:52: Stimmt.

00:53:53: Vielleicht, vielleicht können wir das alles einfach doch lernen als Gesellschaft.

00:53:58: Wünschenswert.

00:53:59: So, ich nehme dich kurz mit in eine weltvolle... Funktionen und Emotionen.

00:54:08: Du kennst das Spiel, ich schmeiß dir neue Features von Plattformen zu und du kannst mir sagen, was du fühlst.

00:54:13: Facebook Gruppen erlaubt jetzt, dass du dich dort nicht mehr mit deinem echten Namen bewegst, sondern mit Nicknames.

00:54:18: damit zu unterstellen, Branchenbeobachter innen, dass Facebook einen Angriff auf Reddit vornimmt mit diesem Feature.

00:54:27: Ja, zuerst mal die schlecht reddit zu kopieren, wird ja von google extrem hoch gelobt und taucht überall auf.

00:54:33: Ja, gucken wir mal was daraus wird.

00:54:35: Meter ist ja jetzt in Sachen Innovationen nicht dafür bekannt, sich neue Sachen auszudenken.

00:54:39: Deshalb ist es relativ klar, dass sich da irgendwie das nächste Ding abgeguckt wird, wie bei allen Sachen, die Max Zuckerberg irgendwie macht.

00:54:45: von daher.

00:54:46: Ja, brauchen wir eine weitere reddit-Copy?

00:54:48: Keine Ahnung?

00:54:49: Klar.

00:54:52: Bin ich bei Facebook?

00:54:53: Nein.

00:54:55: Also,

00:54:58: ja.

00:54:58: Abwarten.

00:54:59: Ich spürte erst mal nichts.

00:55:00: Wenn Meter irgendwas ankündigt, ist in der Regel eh schon immer da gewesen.

00:55:04: und jetzt keine Innovationen, die mich vom Hocker haut.

00:55:06: Und ob das von der Community dann auch so angenommen wird, wie es vorher angenommen wurde, ist ja auch immer fraglich.

00:55:13: Bei den Storys hat es geklappt und so.

00:55:15: Ja, na klar.

00:55:16: Aber warten wir es mal ab, würde ich sagen.

00:55:18: Lässt mich

00:55:19: kalt.

00:55:21: Gut.

00:55:22: Das Spannende ist ja.

00:55:23: Und das Baudel bringt uns direkt zum nächsten Weg.

00:55:25: Ich habe in der letzten Folge gesagt, WhatsApp unterstützt jetzt bald, dass du dich mit unterschiedlichen Profilen dort anmeldest, damit Streamlined Meta die Netzwerke.

00:55:31: Du kannst bald in allen Netzwerken eigentlich alles machen, dich mit unterschiedlichen Accounts anmelden.

00:55:35: Du kannst überall Stories posten.

00:55:36: Du kannst überall mit Leuten in Kontakt treten.

00:55:38: Du kannst überall Nachrichten lesen.

00:55:40: Du kannst überall in Broadcast-Listen dich abonnieren.

00:55:43: Das geht inzwischen in allen Netzwerken.

00:55:45: Es gibt aber ein Instagram-Feature, das WhatsApp heute noch nicht hat.

00:55:48: Und dieses Feature sind die Instagram Notes.

00:55:51: Die kleinen Bläschen mit Texten, die über den Direktnachrichten angezeigt werden.

00:55:55: Just heute, also am gestrigen Dienstag, wenn ihr das hört, hat WhatsApp angekündigt, ein Update für die WhatsApp-Info zu bringen.

00:56:03: Jetzt fragst du dich natürlich als jemand, der die ganzen Fachbegriffe der Plattform völlig aus dem FF drauf hat.

00:56:09: Du Gavin, was ist denn die WhatsApp-Info?

00:56:11: Das höre ich ja jetzt zum ersten Mal.

00:56:12: Gut, dass du fragst.

00:56:13: Magst du denn?

00:56:14: Die WhatsApp-Info ist das, was früher WhatsApp-Status hieß, bevor die WhatsApp-Stories, die es jetzt gibt, als WhatsApp-Status eingeführt wurden.

00:56:23: Ich kann mir noch folgen, du auch.

00:56:25: Du musst auch studieren mittlerweile, ne?

00:56:27: Hier Social Media Begriffe und so.

00:56:28: Du brauchst ein Gloss Haar.

00:56:30: Dreier mal die Woche Haken, dann hören reicht.

00:56:32: Ja.

00:56:32: Also, der früher WhatsApp-Status ist, hey there, I'm using WhatsApp.

00:56:36: Das wird überarbeitet, das, was du auch in deinem Profil stehen hast, unter dem Namen WhatsApp-Info neu released und bringt die Möglichkeit, dass du so kleine Sätze... Post ist, die dann eben in deinem Profil stehen, aber nicht nur da, sondern auch in jedem Chat den Leute mit dir führen unter deinen Benutzernamen angezeigt wird.

00:56:53: Und zwar als kleine Bubble.

00:56:54: Nicht da, wo online steht, sondern darunter, so eine kleine Sprechblase.

00:56:57: Und da steht dann wie im Beispiel von WhatsApp, endlich Sonne.

00:57:04: Oh Gott, das finde ich schlimm.

00:57:07: Es ist wie die Isecure Away Message eigentlich.

00:57:10: Ja, genau.

00:57:10: Es ist, ja stimmt, Isecure Away Message.

00:57:12: Ja, gab es natürlich auch schon.

00:57:14: Aber ich glaube, Ich schreibe halt über WhatsApp mit ganz anderen Leuten, als ich jetzt irgendwie bei Insta mache.

00:57:21: Also auch viel mehr unterschiedliche Zielgruppen.

00:57:24: Ich glaube, es wäre eine Vollkatastrophe da irgendwie großartig, was reinzubringen, was alle verstehen.

00:57:30: Dann bringe ich irgendwie eine Story, die keine Ahnung, mit Memes zusammenhängt oder in Social Media oder wie auch immer.

00:57:35: Und krieg sofort von Tante, Oma, alle mehr älteren Menschen.

00:57:39: Und

00:57:39: von der Vermieterin.

00:57:40: Ja, genau, richtig so.

00:57:42: Was meinst du, damit geht's dir gut?

00:57:44: Ja.

00:57:45: Nee, ja.

00:57:47: Vielleicht kommen als nächstes WhatsApp Gruppennotes oder so, dass man vorher auslegen kann, wer das hin darf und so.

00:57:53: Hundert Prozent.

00:57:54: Ja.

00:57:55: Und auf jeden Fall kommt das.

00:57:57: Bei Instagram gibt es jetzt Leute, die melden, dass sie nur noch drei Hashtags verwenden können, die eine Fehlermeldung sogar bekommen, wenn sie mehr Hashtags in ihre Caption setzen wollen.

00:58:07: Ja, lässt mich kalt gewinnen.

00:58:09: Wie viele Hashtags machst du?

00:58:11: Ich mache nie.

00:58:12: Ich nutze gar keine Hashtags tatsächlich.

00:58:14: Nutze ich Instagram falsch.

00:58:16: Ich weiß es nicht.

00:58:17: Hashtags sind tot.

00:58:18: Hashtags sind tot, oder?

00:58:19: Ja, die sind tot.

00:58:20: Das ist vorbei.

00:58:20: Nein, das ist genau richtig.

00:58:22: Aber Meter arbeitet ja daran, die Hashtags sozusagen runter zu schrauben.

00:58:26: Man kann die schon lange nicht mehr abonnieren und so.

00:58:28: Und das wäre jetzt so eine wirklich mal sinnvolle Entwicklung, die Leute dann auch spüren, die Hashtag picture for picture, Hashtag like for like, Hashtag sunset unter alle Bilder posten.

00:58:37: Das war ursprünglich, glaub ich, auch so eine Twitter-Erfindung, ne?

00:58:40: Hashtags abonnieren.

00:58:42: Genau, bei Tweetdeck war das richtig geil.

00:58:43: Da konntest du dann halt irgendwie deine eigenen Callums machen, nur mit Hashtags und so.

00:58:47: Das war so nice.

00:58:49: Damals

00:58:50: vom Krieg.

00:58:50: Hatte im Büro immer ein Monitor nur mit Tweetdeck offen.

00:58:53: Ja, genau.

00:58:54: Same.

00:58:55: So war das.

00:58:58: Genau, aber ja, es ist okay.

00:58:59: Hashtags sind tot, gut.

00:59:01: Ich bin immer ein großer Fan davon, habe ich gleich letztens auch schon gesagt, dass man nicht für Algorithmen schreibt, sondern für Menschen und dementsprechend nicht versucht irgendwie die Algo-Hacks anzuwenden, um dann damit vermeintlich mehr Reichweite zu bekommen.

00:59:14: Es sind halt alles Stories von Online-Marketing-Gurus, die keine Ahnung von Online-Marketing haben, meiner Meinung nach.

00:59:20: Von daher, gut, dass die Hashtags jetzt endgültig weg sind.

00:59:24: Ja.

00:59:25: Vor allem die wahrscheinlich im Querschnitt und in Masse funktionieren, die aber für dich individuell überhaupt gar keine Bewandnisse haben, weil du halt extrem viele Menschen hast, die dir folgen und dementsprechend auch von Menschen gelesen wirst.

00:59:36: Exakt.

00:59:37: Es war damals was anderes, als du halt irgendwie dann noch keine Timeline hattest, die irgendwie groß algorithmisch bestimmt wurde und wo du dann schon filtern musstest und gucken musstest, okay, was gibt's denn jetzt?

00:59:46: irgendwie ein neues zu Hashtag Tatort oder so, ja.

00:59:53: Und Second Screen und so, das hat damals glaube ich alles deningemacht, ist heute aber, ja, ist glaube ich

00:59:58: quatsch.

00:59:58: Ja.

00:59:59: Übrigens, das Martin Zorn war bei uns.

01:00:02: Ich glaube, wenn man es direkt danach sagt, bringt es nichts mehr.

01:00:04: Man muss eigentlich in dem Moment direkt sein.

01:00:05: Ja, hier ist auch irgendwie blau, ich hör nix, meine Kopfhörer anlassen das nicht zu.

01:00:08: Ja,

01:00:09: du bist in Berlin, da ist immer Tattoo-Tattoo.

01:00:10: Hier ist

01:00:11: immer mit im Friede sein, immer Action.

01:00:15: Übrigens, kleine Rannotiz-Werbung in der Stelle.

01:00:17: Wir gehen auf Tour.

01:00:18: Wir kommen auch nach Berlin, auch nach Friedrichshain sogar.

01:00:20: Wow, nein.

01:00:20: Das Wohnzimmer im Januar und Februar.

01:00:23: Kommt aber auch nach Köln und nach München.

01:00:25: Für diese drei Orte gibt es nur noch sehr wenige Resttickets, also unter zehn.

01:00:30: Aber für Leipzig haben wir noch einige Plätze.

01:00:31: Also, Leute, wenn ihr im Februar Bock habt, uns in Leipzig zu besuchen, ich würde mir den Arsch abfreuen, wie wir im Ruhrgebiet sagen.

01:00:40: Ja, kommt alle her, bringt keine Weihnachtsbäume mit.

01:00:43: Das wird hier nicht gern gesehen, weil das ist zu traditionell.

01:00:46: Also, weiß ich ja, warum wir im Februar... Ja, okay, vergesst mir das.

01:00:49: Ich bin heute... Es ist spät gewesen, ich bin heute nicht auf der Höhe.

01:00:52: Bist du

01:00:52: bereit?

01:00:52: Ich habe noch eine Funktion für dich, da bin ich mal sehr gespannt, wie geil du die findest.

01:00:56: Es gibt jetzt erste NutzerInnen, die auf Android festgestellt haben.

01:01:00: Ich weiß nicht, wie ich das erzählen soll.

01:01:04: Instagram fängt an, von Menschen zwei Swipes zu verlangen, wenn sie die App schließen wollen.

01:01:10: Also beim ersten Swipe, um die App zu schließen, wird dir angezeigt, tap again to exit.

01:01:17: Bist du dir ganz sicher, dass du wieder ins reale Leben zurück möchtest?

01:01:20: Genau so.

01:01:24: Geil,

01:01:24: ob out aus dem real life, also, ja, oder ob in er.

01:01:28: Ich

01:01:28: weiß noch, wie Chrome damit angefangen hat, dass du, wenn du Apfel-Taste-Kuh gedrückt hast, das nicht mehr sofort ging sein, du zweimal drücken musstest.

01:01:34: Und Fun fact, das war am Abend der ersten Haken in der Live-Schein, da konnte er wohnen, ich saß da und dachte, warum tut es das plötzlich?

01:01:44: Ja, und jetzt ist das.

01:01:47: Ja, okay.

01:01:50: Also, es ist schön, am Anfang reden wir darüber, wie schlimm es ist, dass Algorithmen beherrschen, dass Leute gerade entgegen des Kinderschutzes und so Leute so lange wie möglich auf dem Platform gehalten werden.

01:02:01: Jetzt musst du halt irgendwie bestätigen, wenn du raus willst.

01:02:05: Ja, falsche Richtung, Meter.

01:02:07: Ja,

01:02:08: also sucht fördernde Maßnahmen bei uns nicht.

01:02:11: Nein.

01:02:13: Es gibt aber jetzt schon erste Hinweise von NutzerInnen in der EU, die bei Instagram die Möglichkeit hatten, Community Notes zu Requesten.

01:02:20: Das Feature scheint also zu kommen, obwohl der das Oversight Board ja noch prüft, ob das überhaupt nach Europa kommen soll.

01:02:27: Aber gibt Platt Screenshots.

01:02:29: Cool.

01:02:30: Ja.

01:02:30: Cool.

01:02:31: Und letzte Meldung des, der vorletzte Meldung.

01:02:35: Drei, ich hab noch drei Meldungen.

01:02:37: Drei.

01:02:38: Dritt letzte Meldung.

01:02:39: YouTube arbeitet an einem Custom Feed Feature, dass du deinen Feed sozusagen anpassen kannst, indem du einzelne Funktionen auswählst oder ein Prompt eingibst, mit dem du sagen kannst, was du gerne mehr oder weniger sehen würdest.

01:02:49: Das kennen wir schon von Instagram, von Threads, dort soll das ja auch kommen.

01:02:53: Jetzt probiert das YouTube eben auch auszurollen.

01:02:57: Ja, finde ich erstmal gut, Individualisierung der Timelines.

01:03:03: Frage ich, ob das dann halt im Grunde funktioniert, wenn Leute einfach extrem viel Werbebudget haben, sich trotzdem irgendwie rein sneaken.

01:03:08: Klar.

01:03:09: In deiner Sachen aber grundsätzlich mag ich Individualisierung von Social Content sehr.

01:03:14: Ja.

01:03:15: Und ich finde die Art und Weise, das mit dem Prompt zu machen, ich habe letztmal schon gesagt, ich fürchte, es werden natürlich neunneunzig, neun Prozent der Leute nicht machen.

01:03:22: Aber durch den Prompt ist es relativ easy.

01:03:23: Es hat keinerlei, erwartet keinerlei Entwicklerisches Geschick von dir.

01:03:27: Sondern du kannst da einfach hinschreiben, zeig mir mehr Katzen, dann kriegst du mehr Katzen.

01:03:30: Ja, lang lebe die Bubble.

01:03:34: So.

01:03:35: Meta hat angekündigt, dass ein neues Lip Sync Feature bei Meta AI gibt.

01:03:39: Meta AI ist die App mit diesem ... Boah, Scheiße, wie heißt denn das noch mal?

01:03:44: Jetzt können wir auch Vibes.

01:03:45: Vibes, also das Sora von Meta.

01:03:47: Und da gibt es jetzt im Lip Sync.

01:03:49: Du kannst also dort jetzt ein Foto einer Katze generieren lassen, die sich zu irgendetwas bewegen soll und dann bewegst du den Mund entsprechend so.

01:03:57: Ja, cool.

01:03:58: Noch mehr Deep Fakes.

01:03:59: Perfekt.

01:04:00: Vielleicht auch, ja, ist mein ...

01:04:01: Danach mit der Stimme von Matthew McConaughey.

01:04:03: Richtig, genau.

01:04:04: Kein Problem.

01:04:05: Wir haben dann nur noch Matthew McConaughey im Vieh.

01:04:08: Der verkauft nämlich auch seine Bildrechte noch.

01:04:12: Im Potsdam kannst du das machen.

01:04:13: Also da kannst du so drei D-Scans machen lassen.

01:04:15: Und es gibt so einige Schauspieler innen, die das auch schon gemacht haben.

01:04:18: Sondern hast du wirklich einfach so hundert verschiedene Counts, die alle Matthew McConaughey hier sind, exakt so aussehen und genauso sprechen, aber halt weilweise verschiedene Produkte verkaufen, finde ich großartig.

01:04:28: Mehr Matthew McConaughey in unseren Feeds bitte.

01:04:31: Ich

01:04:31: hätte nie gedacht, dass ich das mal sage, aber wird Matthew McConaughey der neue Papaplatte.

01:04:38: So und jetzt habe ich ein Feature, da bin ich, das finde ich wild.

01:04:42: Telegram bietet jetzt die Möglichkeit an, dass alle Telegram NutzerInnen, dass alle Telegram NutzerInnen Livestreams veranstalten können.

01:04:49: Also du kannst live gehen auf Telegram in den Stories.

01:04:53: Dabei können andere NutzerInnen Kommentare senden, darauf reagieren, können aber auch dich unterstützen, den Kommentar hervorheben, mit Geld unterstützen und sozusagen dich dabei unterstützen.

01:05:08: Ganz neue Möglichkeiten für alle Coax-Taxen hier in Berlin.

01:05:14: Keine Ahnung, ich nutze Telegram nicht.

01:05:17: Aber das ist wirklich so, ne?

01:05:19: Ich weiß noch letztes Jahr, was er auf dem Weihnachtsmarkt hatten, er hatte irgendwie jeder Stanz und Handy, wo sie live auf TikTok waren, während sie da die Kastanien Maronen gebraten haben.

01:05:27: Jetzt nehmen die Leute dich mit ins Coax-Taxi auf Telegram.

01:05:31: Wow.

01:05:32: Was für eine User Experience.

01:05:34: What a time to be alive, denke ich mir jedes Mal, wenn ich mit dir rede, Kevin.

01:05:37: Schön.

01:05:37: Ich habe noch eine abschließende Meldung, weil wir haben alle Meldungen zu Elon Musk, schieben wir immer ins Ende, damit die Leute, die keinen Bock auf Elon Musk haben, vorher abschalten können.

01:05:45: Wenn ihr jetzt schon abschalten wollt, kommt bitte wieder.

01:05:48: Aber ich habe noch eine Elon Musk-Meldung, die interessant ist.

01:05:50: Denn wir haben ja... gerade Anfang des Jahres sehr viel über das Doge gesprochen.

01:05:56: Und The Verge hat einen Text geschrieben mit dem fantastischen, wirklich überragenden Namen, Doge Days Are Over.

01:06:02: Denn tatsächlich scheint diese sogenannte, diese Effizienzbehörde der amerikanischen Regierung relativ klammheimlich Doge aufgelöst zu haben und zwar schon zu Beginn des November.

01:06:12: Seit Anfang November existiert Doge laut Scott Cooper, dem Direktor des US-Amtes für Personalverwaltung, nicht mehr.

01:06:19: Und man muss sich so ein bisschen fragen, was hat es denn jetzt am Ende gebracht?

01:06:21: Es hat es eingebracht, wir haben keine konkreten Zahlen.

01:06:24: Und die Erspahrung, die es eingebracht hat, hat es auf dem Rücken der Ärmsten und Ärmsten eingebracht, den Leuten, die zum Beispiel durch USA, der Entwicklungshilfebehörde der USA darauf angewiesen waren, Essen oder Medikamente zu bekommen.

01:06:35: Es wurde davon ausgegangen, dass mehrere Millionen Menschen ihr Leben lassen mussten wegen dieser Einsparung, die jetzt relativ lange als der große Triumph über die Bürokratie gefeiert wurde.

01:06:45: Und jetzt kam heimlich wieder im Sack landet.

01:06:48: Also, naja.

01:06:51: Ja, surprise.

01:06:53: Aber gute Kommunikation, das einfach so ausschleichen zu lassen, muss ich sagen, als ehemaliger Kommunikationsberater, top, nicht hinstellen und irgendeine Pressemitteilung geben, nee, nee, da müsste es der Fragenbahn fort.

01:07:04: Das ist einfach so, das gab's mal.

01:07:06: Und

01:07:07: da passend dazu finde ich es nahezu symbolisch, dass der Mensch der der Deutsche Elon Musk werden wollte im Sinne von Effizienzbehörde Dieter Bohlen war, der jetzt ein Interview auf dem, wo er, also... komplett freigedreht ist, hört es euch nicht an, Leute.

01:07:23: Also er hat das Ende der Brandmauer herbeigeredet, hat die Ukraine eigentlich schon abgeschrieben und so weiter und so weiter.

01:07:29: Und dieses Interview ist aber erschienen auf dem YouTube-Kanal eines Edelmetallherstellers.

01:07:34: Ich dachte du, ich dachte, Dieter Bohn hat mich nicht erwartet.

01:07:36: Ich dachte, du sprichst von Frank Thelen, der da auch gesagt hat, irgendwie ein Doge, hat er nicht gesagt, dass Doge irgendwie in Deutschland auch...

01:07:43: Da passt es aber natürlich auch gut, dass Frank Thelen natürlich auf dieses Pferd auch gesetzt hat.

01:07:47: Jetzt muss ich, glaube ich, wieder recherchieren, weil ich jetzt, ich will Frank Thelen... Eigentlich egal, Frank

01:07:51: Thelen.

01:07:51: Frank Thelen ist ein großer Elon Musk-Fan.

01:07:53: Ja, ja, genau, deshalb, ja, ja, also, genau.

01:07:55: Ja, whatever.

01:07:59: Toll.

01:07:59: Fletscher der Podcast sollte halt so aus, auch okay.

01:08:02: Aber trotzdem schön, dass du da was magst.

01:08:03: Ich hoffe, du kommst noch mal wieder.

01:08:05: Definitiv.

01:08:06: Ich gucke jetzt eine Simon-Gaffankel-Doku

01:08:09: unter Weihnachtsbaum.

01:08:10: Unter Weihnachtsbaum, richtig.

01:08:12: Und dann gehe ich, glaube ich, ins Bett.

01:08:13: langer Tag.

01:08:14: Das

01:08:14: klingt gut.

01:08:15: Schön,

01:08:15: dass ich da sein durfte.

01:08:16: Ja,

01:08:16: voll gerne.

01:08:17: Ich hoffe, du kommst wieder.

01:08:18: Leute, ich habe noch eine kleine organisatorische Meldung.

01:08:20: Und zwar könnt ihr bis Sonntag noch... Vorschläge für den grauen Haken einreichen.

01:08:26: Der graue Haken ist der Negativpreis für die größte Social Media Blamage des Jahres.

01:08:32: Und wir sammeln auch eure Vorschläge per E-Mail an grauerhaken.haken.org oder im Discord oder schreibt mir einfach und dann wird es nächsten Monat eine kleine Abstimmung dazu geben.

01:08:42: Vielen Dank, dass du da warst.

01:08:43: Lieber Max, es war fantastisch.

01:08:45: Hört alle.

01:08:46: Hört alle den Podcast von Max.

01:08:48: Kollegin KI.

01:08:49: Ich

01:08:49: wollte gerade sagen, Kollegin KI.

01:08:51: Ich wollte gleichzeitig recherchieren, wer am Freitag hier zu Gast ist.

01:08:55: Das ist nämlich Roland Hindl.

01:08:56: Und da freu ich mich auch drauf.

01:08:57: Das ist auch lange nicht hier.

01:08:59: Max, so was auch ewig nicht hier.

01:09:01: Das machen wir auch nicht normal.

01:09:02: Ja, also ein paar Monate, drei Monate oder so, weiß ich nicht.

01:09:05: Aber ja, es passiert viel.

01:09:06: KI-Zeit ist drei Monate passiert eine ganze Menge.

01:09:09: Also ja.

01:09:09: Ja, ich komme gerne wieder.

01:09:10: Hat Spaß gemacht.

01:09:11: Nichts mal vielleicht nicht so spät.

01:09:12: Ja, wir nehmen um acht Cent immer auf.

01:09:14: Nur mal so der Vollständigkeit.

01:09:16: Nicht, dass die Leute denken, es ist zwei Uhr nachts.

01:09:19: Ich bin Mitte dreißig, man.

01:09:20: Das ist spät.

01:09:21: Ja, okay.

01:09:22: Wir gehen jetzt alle ins Bett.

01:09:23: Genau.

01:09:24: Wenn ihr das hier hört, ist es allerdings morgens.

01:09:25: Also sind wir gerade aufgestanden und trinken Kaffee.

01:09:27: Habt einen ganz wundervollen Mittwoch, einen ganz tollen Rest der Woche.

01:09:30: Wir hören uns am Freitag wieder.

01:09:31: Macht's gut.

01:09:32: Tschüss.

01:09:32: Bis dann.

01:09:32: Ciao.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.