Tolles und Schreckliches (mit Nicola Balkenhol)

Shownotes

Wie viel AI Slop ertragen wir, bis alles auseinanderfällt? Ob der Whistleblower auf Reddit, der abscheuliche Content auf X oder TikTok in Polen – wir müssen hier mal ein bisschen aufräumen. In der letzten Episode haben wir gefragt: Authentizität, gibt es die überhaupt noch? Heute fragen wir: Und wenn nein, was machen wir denn jetzt überhaupt?

➡️ Casey Newton über den Reddit-Scam: https://www.platformer.news/fake-uber-eats-whisleblower-hoax-debunked/

🎤 Haken Dran geht auf Tour! Wir sind mit 4 Liveterminen Anfang 2026 quer druch Deutschland unterwegs - alle Infos und Tickets hier: http://hakendran.org

➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt 00:00:00 - Hallo Nicola! 00:01:10 - Die Infokalypse und der falsche Whistleblower 00:08:35 - Grokbaiting und Deepfakes 00:22:40 - xAI und die nationale Sicherheit 00:23:28 - TikToks Zukunft in den USA 00:31:30 - Social Media-Verbote für Kinder? 00:40:00 - Metas “Playbook” 00:45:00 - Instagrams Teenager-Fokus: "Einstiegsdroge" für das Meta-Ökosystem 00:49:50 - Pinterest im "AI-Slop" 00:53:50 - Funktionen und Emotionen

ℹ️ Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier: https://wonderl.ink/%40heise-podcasts

Transkript anzeigen

00:00:00: Hallo Nicola.

00:00:01: Hi Gavin.

00:00:03: Ich glaube, man kann noch Frohes neues Jahr sagen am siebten Januar, oder?

00:00:05: Ja, unbedingt.

00:00:06: Ich finde, man kann das so gefühlt in den ersten zwei Wochen.

00:00:12: Okay, also ich habe am achten Februar Geburtstag.

00:00:13: Bis dahin kann man, glaube ich, durchgehen Frohes neues Jahr sagen und dann einfach immer nur noch egal mit, wenn man redet, Gavin Kammer her gratulieren.

00:00:20: So würde ich das handhaben.

00:00:21: Das verstehe.

00:00:23: Bei mir sollte Nikola Balken hol.

00:00:25: Manche von euch kennen sich schon.

00:00:27: Viele, die aber auch im letzten Jahr neu dazugekommen sind, nicht, weil du warst das letzte Mal im Juli, hier, so lange ist das her.

00:00:34: Und für die, die sich nicht kennen, du kommst von Deutschland Radio, bist dort Leiterin für Multimedia und Online.

00:00:40: Und ich freue mich, dass wir es heute endlich mal wieder zusammen hingekriegt haben.

00:00:43: Man musste dazu sagen, du wärst ja fast zweitausendfünfundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundund.

00:00:57: Ja, also bei uns, ich wohne ja in Essen.

00:00:58: Und in Essen hast du das auch einmal die Woche, dass irgendwelche Wohnblocks komplett geräumt werden müssen wegen Bombendrohung.

00:01:06: Nee, Entschärfung.

00:01:07: Drohung und Drohung nicht.

00:01:10: So schlimm ist es mit Essen noch nicht.

00:01:13: Ich möchte heute mit einer Geschichte anfangen, die so ein bisschen kurios erscheint, die aber, also je näher man hinschaut, wie so vieles immer dystopischer wird.

00:01:21: Aber ich fange einfach mal an zu erzählen.

00:01:22: Und zwar habe ich am Wochenende eine Geschichte auf Reddit gelesen und habe die so... mit so einem Schulterzucker hingenommen und dann ist mir diese Geschichte aber im Internet immer wieder untergekommen und das fand ich kurios und deswegen möchte ich mit dir darüber sprechen und zwar geht es um die Geschichte, dass jemand gepostet hat mit einem Burner Account, ich glaube sein nickname war auch entsprechend so, ich habe das irgendwo aufgeschrieben, throw away whistleblow, hieß der Nutzer.

00:01:47: Und er hat geschrieben, er sei Entwickler für eine große App für Lebensmittellieferungen.

00:01:51: Die Prioritätsgebühr, die man dort zahlt, damit die Bestellung früher kommt, hätte eigentlich gar keine Funktion, sondern es würde einfach nur markiert werden, dass du eine höhere Zahlungsbereitschaft hast.

00:02:03: Das steht weiter in diesem Text drin, dass es einen Desperation Score gibt, bei dem den Fahrerinnen sozusagen auch nur einen Punkt angehängt wird, um zu schauen, wie verzweifelt sind die eigentlich, wie schnell nehmen die Aufträge an und das würde den Entwickler... einen blicke darüber geben wie dringend die fahre das geld bräuchten.

00:02:20: und das das trinkgeld dass man über dieser app bezahlt zu hundert prozent direkt in das unternehmen geht und damit sozusagen auch direkt geklaut wird.

00:02:28: und habe das natürlich gelesen dachte boy das ist ja krass kann man fast alles gar nicht glauben.

00:02:33: und kurz danach hat der CEO von door das ist so einer der größten limbsmittel liefert dienste im usa ein tweet geschrieben auf x in dem er geschrieben hat holy fucking shit.

00:02:43: So fängt der sein Tweet an.

00:02:45: Hier geht es nicht um DoorDash und ich würde jeden entlassen, der ein solches Verhalten einen Tag legen würde.

00:02:49: Unsere Dashers sind keine Human Assets usw.

00:02:52: Und das war dann erstmal so die Geschichte, dann haben da drunter alle geschrieben, das klingt auch mehr nach UberEats und so.

00:02:57: Und jetzt hat Casey Newton, der Blogger und Newsletter-Schreiber, große Empfehlung, hat sich da ein bisschen miteinander gesetzt, hat reingeguckt und hat herausgefunden, auch im Gespräch mit dem, er hat versucht mit ihm Kontakt aufzunehmen und ihn zu interviewen, hat von dem so ein paar Dinge geschickt bekommen, wie ein UberEats-Dienst ausweist zum Beispiel oder Dokumente, die aus dem Unternehmen kommen.

00:03:18: und er hat dann aber herausgefunden, dass offenbar alles, was er geschickt bekommt, hat KI generiert war.

00:03:23: und als er ihn damit konfrontiert hatte diesen whistleblower, hat der whistleblower gesagt ja okay das nehme ich so hin und hat sein signal account gelöscht.

00:03:30: Und was halt so irritierend ist und das etwas, das Casey Newton hier eben auch, finde ich, gut auf den Punkt bringt, er sagt, ich würde Ihnen gerne sagen, dass nach dieser Erfahrung in Zukunft wir alle weniger anfällig für ähnliche Tricks sein werden.

00:03:44: Die Wahrheit ist jedoch, dass ich angesichts der sandenweite Entwicklung von KI-Systemen zunehmend besorgt bin.

00:03:49: Die Infokalypse von der Wissenschaftler, schon im Jahr zwei tausend siebzehn gewarnt haben, erscheint immer plausibler.

00:03:53: Und ich finde, das ist kein launiger Einstieg in das Jahr, aber es ist wahrscheinlich ein realitätsnaher Einstieg, weil wir werden solche Geschichten immer wieder erleben werden.

00:04:04: Ja, das glaube ich auch in das Übel an dieser Geschichte ist, finde ich, ein Vielfaches.

00:04:08: Also der erste Teil davon, als ich das so durchgelesen habe, war so, boah, sind die übel.

00:04:17: Ich wusste ja, dass die übel sind, aber dass sie so übel sind, diese ganzen Lieferdienste, das wusste ich bisher nicht.

00:04:24: Ich habe es erst mal als, ja, kann gut so sein,

00:04:28: angenommen.

00:04:29: Ja.

00:04:30: Und dann immer weitergelesen und so gedacht, boah nee, so abgefeimt, das kann ich mir kaum vorstellen.

00:04:38: Und war so eine Mischung aus, aufgebracht und aber ganz bisschen zweifelnd.

00:04:45: Ganz bisschen aber.

00:04:47: Und dann, als ich die Auflösung gesehen habe, habe ich so gedacht, genau wie du es gerade sagst, verdammte Tat.

00:04:54: Wäre ich dem jetzt wirklich, wirklich, wenn ich mich da intensiver mit beschäftigt hätte, auf den Leim gegangen?

00:05:00: Ja, wahrscheinlich.

00:05:02: Und dann kommst du ja sofort auf diese ewige Diskussion, was ist denn eigentlich die Realität und wie finde ich das raus?

00:05:11: Und kann ich den jetzt kneifen?

00:05:13: Oder ich meine, was machen wir Journalistinnen und Journalisten, um Sachen rauszufinden?

00:05:18: Also natürlich ist immer das Beste rauszufinden, indem man mit jemandem spricht.

00:05:21: Aber wie ist das mit Whistleblowern?

00:05:24: Wie schnell sprechen die mit einem?

00:05:27: Oder auch nicht?

00:05:29: Und vor allem hier war das auch so, dass der Russelblauer offenbar einen handwerklichen Fehler gemacht hat oder etwas übersehen hat, denn dieser Mitarbeiter Ausweis, dieser Uber Eats Ausweis, den er Casey Newton geschickt hatte, den hat er ganz offensichtlich mit Gemini generieren lassen, weil eben da eine synth ID Wasserzeichenmarkierung in dem Bild war und deswegen konnte Casey Newton dem sozusagen nahe kommen und das herausfinden.

00:05:52: Er hat auch mit Leuten dann gesprochen, die auch in solchen Unternehmen arbeiten, die alle gesagt haben, ja das sieht eigentlich nicht plausibel aus, auch dieses achttzehnseitige Dokument, das ich gerade erwähnt habe.

00:06:02: Das waren an Dystopien nicht zu überbieten.

00:06:04: Casey Newton hat das vollständig hochgeladen.

00:06:06: Wir packen euch mal den Text von ihm in die Show-Nords.

00:06:10: Aber das ist alles so, also wenn da dieser Fehler nicht gemacht worden wäre, dann hätten wir jetzt wahrscheinlich die Geschichte alsbare Münze serviert bekommen und hätten nicht erfahren, dass sich das einfach nur jemand ausgedacht hat, um hier, na ja, einen Schaden anzurichten am Ende oder so.

00:06:25: Das wäre meine dritte Frage.

00:06:29: Wozu ist das gut?

00:06:31: Wahrscheinlich hat sich diese Person, die das da inszeniert hat, nicht großartig überlegt.

00:06:35: oder vielleicht doch keine Ahnung, aber nicht großartig überlegt, was das alles verfolgen hat und eher so rumgespielt, so unter dem Motto, was geht?

00:06:46: Und vielleicht hat es ja auch durchaus, wenn du dann fängst, drüber nachzudenken, kommst du auf die komischen, ich jedenfalls komischen Gedanken, vielleicht ist das ja auch durchaus mit einem aufklärerischen Impetus verbunden gewesen, so unter dem Motto, Finger drauf und zeigen.

00:07:01: Wer weiß es denn?

00:07:02: Aber In Wirklichkeit stürzt mich das eher in diese Abwärtsspirale von, was brauche ich eigentlich, um Erzählungen, die ich so aufschnappe, glauben zu können?

00:07:17: Ja, und generell auch die Tatsache, dass das am Ende die komplette Tatsache eigentlich kaputt macht, dass es eben solche wirklich wichtigen Whistleblower in mir eigentlich gibt.

00:07:27: Also Whistleblowing ist ja vor allem deswegen wichtig, weil damit Leute, die eben noch ein bisschen moralisches Restbewusstsein haben, ja, Ungerechtigkeiten oder Ungerechtmäßigkeiten in ihrem Unternehmen eben, obwohl sie es auf gar keinen Fall dürfen und vertraglich damit irgendwelche großen Strafen befürchten müssen, in die Öffentlichkeit weil sie sagen, ich möchte nicht, dass das hier hinter verschlossener Tür passiert.

00:07:50: Diese Geschichte allerdings führt jetzt eher dazu, dass auch zukünftige whistleblowerinnen erst mal in dem Dilemma stecken, dass ihre Anonymität nicht mehr ausreichen wird oder die Anonymität nicht gewahrt werden kann, wenn man ihnen denn glauben soll.

00:08:04: Ja, das wird so ein Spiegel-Dings.

00:08:08: Also du weißt gar nicht, wo du anfangen sollst dir zu überlegen, aber natürlich hast du mit dem Aspekt auch recht und das wird sozusagen das Verhältnis whistleblower und letztlich verbreiter Journalist oder Journalistin in ein immer schwierigeres Verhältnis bringen, was ja eh schon so schwer ist.

00:08:28: Also da hilft das Internet jetzt mal wirklich überhaupt nicht und das führt wieder zu was an der Stelle waren wir glaube ich schon vielfach.

00:08:36: Ich kann allen whistleblower nur raten echt persönliche Gespräche zu suchen.

00:08:41: Ganz persönliche Gespräche mit Augenkontakt und so.

00:08:45: Hat Edward Snowden auch so gemacht, hat sich im Hotel getroffen.

00:08:48: Also im Cycle so was mal machen, vielleicht zumindest auch für die journalistisch arbeitenden Menschen da draußen, die uns hier zuhören.

00:08:55: Vielleicht einfach mit den Leuten dann sprechen und treffen.

00:08:57: Weil das hat am Ende hier bei Casey Newton ja auch dazu geführt, dass die Geschichte keine wurde.

00:09:01: Immerhin.

00:09:03: So, ich habe das vor allem als lauendigen Einstieg von Internetkulturellen Veränderungen gewählt, weil ich dachte, eigentlich müssen wir viel mehr über Ex heute sprechen, aber ich wollte nicht direkt mit Ex reingehen.

00:09:12: Und das ist so eine Geschichte.

00:09:13: Ich weiß nicht, wie oft du am Tag oder in der Woche noch Ex aufmachst.

00:09:17: Never ever.

00:09:17: Ich habe da meinen Account einfach stillgelegt und gucken wirklich nur alle Jubeljahre, ob da irgendwas Übeles mit passiert.

00:09:24: Ich mach das, ich gucke so vor allem wegen dieses Podcast so, ich würde sagen, drei bis fünf Mal die Woche da rein.

00:09:30: Und habe jetzt, ich glaube gestern, also wenn wir das aufnehmen, wir nehmen das Dienstagabend auf am Montag, habe ich mal so durch ex gescrollt oder habe es versucht.

00:09:38: Und es ist noch unbrauchbarer als ohnehin schon, weil eben durch dieses Grog-Bating, dass dort viel passiert, wir haben am Montag mit Dennis schon kurz darüber gesprochen, du halt nur noch Leute hast, die entweder Bilder anderer Leute kommentieren und Grog auffordern, die Person, die gezeigt ist, zum Beispiel statt in Klamotten in Bikini zu zeigen.

00:09:59: Das passiert auch vielfach mit Minderjährigen, haben wir hier darüber gesprochen.

00:10:02: Oder irgendwelchen Only-Fans-Models, die Bilder von sich hochladen und Grog bitten sich selber im Bikini generieren.

00:10:08: lassen oder irgendwelche Leute, die im Bilder von anderen Menschen hochladen und Grog auffordern, daraus etwas zu machen.

00:10:14: Und das hat so sehr überhand genommen, dass selbst wenn, also stell dir mal vor, Twitter wäre nie von Maske gekauft worden.

00:10:20: Und diese Grog-Entwicklung wäre unabhängig von Maske passiert worden.

00:10:23: Jetzt wäre der Moment, wo die Plattform einfach nicht mehr brauchbar ist, weil es eben nur noch ein öffentlicher Feed von Leuten ist, die hier mit einer KI sprechen.

00:10:31: Und was das Ganze eben noch schlimmer macht, dass sie die KI auffordern, Dinge zu generieren, Deepfakes zu generieren, die nicht nur moralisch verwerflich und gesetzeswidrig sind, sondern eben in vielen Fällen auch einfach abscheulich sind, weißt du?

00:10:44: Das hat wirklich krass überhand genommen.

00:10:48: Und zwar so sehr, dass die Entschuldigung, die GROC gepostet hatte, über die die TPA berichtet hat.

00:10:52: Wir haben da sehr irritiert darüber gesprochen.

00:10:54: Nicht mehr reicht, denn X-Safety hat jetzt ein Tweet veröffentlicht und hat geschrieben, dass sie jetzt Handlungen vornehmen werden gegen illegalen Content auf X, inklusive CSAM, also Material, das sexuelle Gewalt an Kindern zeigt, indem sie es löschen, Account sperren und mit lokalen Regierungen und Gesetzesverfolgungsbehörden zusammenarbeiten, wenn es denn nötig ist.

00:11:14: Und sie werden jeden Inhalt der von Grog generiert wird, der illegal ist, genauso behandelt wie illegaler Inhalt, der hochgeladen wurde.

00:11:22: Das hat Elon Musk selber auch noch mal gepostet.

00:11:24: Also selbst Elon Musk hat sich offenbar genötigt gesehen, irgendwie hier nochmal Position zu beziehen.

00:11:31: Das ist aber angesichts der Tatsache, dass bislang nicht sehrgleichen passiert ist und die Plattform immer noch genauso aussieht wie am Wochenende.

00:11:37: nur so mittelmäßig glaubwürdig, sondern es scheint jetzt hier eher so zu sein, dass man irgendwie verhindern möchte, dass die ganzen Regierungen, die jetzt schon angekündigt haben, denen aufs Dach zu steigen, irgendwie so ein bisschen zu beschwichtigen.

00:11:48: Also, zum Beispiel, während wir hier sprechen, so vor zwei Stunden ungefähr gab es die Eimeldung bei Sky News in Großbritannien, dass die britische Regierung sich damit jetzt auseinandersetzt und Liz Kendall, die Technologieministerin von Großbritannien, angekündigt hat, dass man gegen diese absolut entsetzlichen, gefälschten, sexualisierten Bilder vorgehen werde.

00:12:06: Was wir in den letzten Tagen gesehen haben, ist entsetzlich und nicht akzeptabel.

00:12:10: Die EU-Kommission hat angekündigt, Untersuchungen aufzunehmen dagegen.

00:12:13: Frankreich sowieso schon, haben wir darüber gesprochen, Indien hätte eigentlich schon vorgestern eine Antwort bekommen müssen.

00:12:19: Die haben eine Deadline gesetzt, die sie dann nochmal verlängert haben um drei Tage.

00:12:23: Na ja, aber der Wind gegen Ex, was diese Grog-Geschichte angeht, der wird auf jeden Fall gerade rauer und man muss sagen, hoffentlich wird er das auch wirklich.

00:12:31: Hoffentlich sind das nicht nur leere Worthülsen gerade.

00:12:34: Ja, du siehst mich wirklich fassungslos.

00:12:38: Ich verstehe ganz viele Sachen daran überhaupt nicht.

00:12:41: Also so bekloppt wie der Mask auch seinen mag.

00:12:45: Der hat ja schon ein Ziel mit X. Also das wird ja gerade so zu sagen dadurch unterlaufen.

00:12:53: Also es werden ja immer mehr Leute merken, dass das kein brauchbarer Inhalt mehr ist.

00:12:59: Und sich sozusagen in so einer der KI-Update-Spirale bewegt.

00:13:05: Also was macht er damit?

00:13:07: Warum kümmert er sich nicht darum?

00:13:09: Sondern macht diese komischen Post sie völlig ergebnislos im Nirvana-Enden.

00:13:15: Also und ehrlich gesagt, ich habe völlig den Zusammenhang verloren zwischen X-Masks-Vorstellungen damit und dem, was da ist.

00:13:34: gibt es glaube ich auch nicht mehr.

00:13:36: Also das Mask X inzwischen längst völlig realitätsfern irgendwie so, naja leitet ist falsch, weil ich glaube so richtig viel macht er da nicht im Moment, dass wir von Nikita Bier seit einigen Wochen nichts mehr gehört haben, dass das Unternehmen eigentlich so sich selbst überlassen wurde, dass XAI das Ding jetzt sozusagen übernimmt und zu so einer Dauerschleuder von generativer KI und dem Content der daraus fällt umgebaut hat.

00:14:02: Das sind alles Entwicklungen die natürlich Also mindestens schade, meistens aber sogar gefährlich sind.

00:14:10: Aber die Entwicklungen jetzt hier, dass du eben diese Bilder generieren kannst und das überhaupt keine Leitplanken gibt.

00:14:15: Überhaupt keine Barrieren diese Bilder zu generieren.

00:14:17: Du alles erstellen kannst.

00:14:18: Du kannst Jeffrey Epstein in jedes Bild generieren lassen.

00:14:23: So, und das sind noch die harmloseren Dinge, zeigt ja, dass man da sich überhaupt gar nicht schert, um lokale Gesetze, wie sie schreiben, um Gesetzesverfolgungsbehörden, um Regierungen.

00:14:33: Es ist ihnen alles scheißegal und sie wollen halt ganz bewusst, glaube ich, auch einfach zeigen, dass deren Verständnis von Redefreiheit einfach bedeutet, da macht eben einfach alles, hier gilt das Recht nicht.

00:14:43: Und es ist natürlich auch eine Machtdemonstration von Maske an der Stelle, weil solange er das machen kann, ohne dass da irgendetwas passiert, solange wird er das auch weiterhin tun.

00:14:53: Ja, ja.

00:14:56: Das reicht dir nicht, ne?

00:14:57: Nein, irgendwie, also sagen wir vielleicht bin ich naiv, aber ich kann mir nicht vorstellen, dass sitzt der Mask jetzt da und stellt sich freut sich darüber, welche Macht er über X und damit die Welt hat.

00:15:13: Das kann ich mir einfach nicht vorstellen.

00:15:14: Ich

00:15:14: weiß nicht, ob das so weitreichend ist.

00:15:16: Ich glaube er sitzt da einfach und freut sich, dass Leute seinen Tool nutzen, dass dadurch das jetzt Grock so rege genutzt wird und damit so ein bisschen ja auch zumindest in der X-Community die KI ist, die ihm tatsächlich genutzt wird.

00:15:30: Freute sich darüber, dass er irgendwie doch namhafte Marktanteile vielleicht aufbauen kann, zumindest in seiner Wahrnehmung, ob das am Ende tatsächlich so ist.

00:15:37: Bezweiche ich ehrlicherweise.

00:15:40: Aber er freut sich darüber und er macht es auch selber.

00:15:42: Er kommentiert diese Bilder ja, die wir so als abscheulich bezeichnen und schreibt dort unten, es ist eine acht von zehn.

00:15:49: Also solche Dinge passieren ja auch.

00:15:54: Wir haben ja schon oft darüber geredet, nicht nur wir, sondern sehr viele Menschen.

00:16:00: Wie kann es eigentlich sein, dass da ernsthafte Personen, staatliche Institutionen, Organisationen usw.

00:16:07: sind?

00:16:08: das sein.

00:16:09: Da fehlen mir neun- neunzigfännige zur Marke, hätte man auch mal gesagt.

00:16:13: Ja, und das muss man vor allem jetzt angesichts dieser neuen Funktionen, muss man das noch mal diskutieren.

00:16:18: Ein weiteres Mal.

00:16:19: Wir haben schon so häufig gesagt, eigentlich sind alle roten Linien längst überschritten.

00:16:24: Ehrlicherweise waren sie das schon Ende zwanzigundzwanzig.

00:16:27: Also vor Jahren waren diese Linien überschritten.

00:16:29: Eigentlich schon Anfang zwanzigundzwanzig.

00:16:33: Spätestens vor einem Jahr, als Elon Musk diese Plattform und seine Macht genutzt hat, um Donald Trump zu helfen, ins weiße Haus zu kommen.

00:16:39: Wie weit er das dadurch gemacht hat, wissen wir nicht.

00:16:41: Aber er hat es zumindest versucht.

00:16:43: Er war dieser Punkt überschritten und jetzt reißt er sozusagen die nächste Linie ein.

00:16:47: Die Plattform, von der er gesagt hat, nach der Übernahme würde sie die Bekämpfung von sexueller Gewalt an minderjährigen auf Platz eins der Priolisten setzen.

00:16:56: Fördert jetzt, dass du Deepfakes von Minderjährigen generieren kannst, die sie in Bikinis zeigen.

00:17:02: Die Frage, die du stellst, ist also genau richtig.

00:17:03: Warum sind wir noch da?

00:17:05: Welchen Mehrwert haben wir es, wenn unser Außenminister primär auf X eine Stellungnahme veröffentlicht und woanders nicht, auf einer Plattform, wo er zwischen einem Onlyfans-Model und einem Menschen ist, der ein Minderjähriges Kind, muss man sagen, ein Kind, im Bikini von der KI generieren lässt?

00:17:20: Wenn er dazwischen steht, welchen Mehrwert hat das?

00:17:23: Gibt es keine Antwort darauf?

00:17:24: Nee, definitiv.

00:17:25: Und ehrlich gesagt kann man ja inzwischen fast sagen, der Trump brauchte true social nicht mehr, weil letztlich ist X genau das Ding.

00:17:35: Wobei er das immer noch regel benutzt.

00:17:38: Keine Frage.

00:17:39: Ja, Donald Trump hat glaube ich zwischen Weihnachten und Anfang dieser Woche über fünfhundert Postings auf truth social veröffentlicht.

00:17:46: Das ist auch nicht gesund.

00:17:47: Nein, aber es kommt ein bisschen in die Sphären, in denen Elon Musk auf X unterwegs ist.

00:17:51: Und was ich aber zu X noch kurz sagen möchte, also wie gesagt, viele Regierungen sind jetzt aktiv geworden.

00:17:57: Malaysia zum Beispiel, Europa habe ich viele Länder gerade schon genannt, aber ein Land, über das wir hier schon sehr oft gesprochen haben, hat jetzt mal wieder sich dahingesetzt, dahintergeklemmt und gesagt, das geht so nicht.

00:18:07: Und zwar Brasilien.

00:18:08: In Brasilien fordert das Parlament jetzt gerade X bis zum Abschluss der Untersuchung landesweit zu sperren.

00:18:13: Und ich frage mich, Warum können wir das nicht?

00:18:16: Warum sagen wir nicht?

00:18:18: Auf dieser Plattform wird de facto und du kannst es ja total unterbrechen.

00:18:22: Du musst ja gar nicht überhören sagen, du musst ja nicht sagen, wir glauben hier ist ein Gesetzesverstoß.

00:18:27: Nee, du kannst einfach sagen, auf dieser Plattform werden zum Beispiel Jugendschutzrichtlinien nicht eingehalten.

00:18:31: Es werden keine Maßnahmen getroffen, dass Menschen, die jung sind, dort diese Inhalte nicht sehen, die sie können sie sogar dort erstellen.

00:18:38: Ich glaube, es gäbe die Hebel ehrlicherweise.

00:18:41: Das stimmt unbedingt.

00:18:42: Und auch dann nochmal Wo kommt jetzt eigentlich diese von mir als zu große Angst wahrgenommene Angst her, der EU und letztlich auch unserer Bundesregierung gegenüber?

00:19:00: den Ja, er ging über Trump, der Trump-Regierung und den Tech-Größen der USA, den man nicht weiter auf die Füße treten will oder doch vielleicht ein bisschen.

00:19:13: Und irgendwie ist das Bild ja so, dass es auch zu den Venezuela-Äußerungen der Bundesregierung passt.

00:19:24: Ja, das kann ich dir nicht beantworten leider, weil du ... Wie soll ich das sagen?

00:19:31: Also wir erleben, wir haben das seit einem Jahr, so sprechen wir, wir haben in der letzten Folge, haben wir über die Thesen gesprochen, die wir so über als Jahrzehnte und zwanzig aufgestellt haben.

00:19:40: Und da hat Dennis schon gesagt, dass die, das in Deutschland viel diskutiert, aber wenig gemacht wird, dass die EU ein zahnloser Tiger ist.

00:19:47: Und es gibt immer wieder jetzt schon, ja, Strafen, die verhängt werden im Rahmen des DSA, aber die sind immer so im Rahmen, wo man sich denkt, naja, das tut vielleicht ein bisschen weh, aber es führt nicht dazu, dass das Unternehmen tatsächlich gefährdet ist.

00:19:59: Und du müsst es aber natürlich Strafen verhängen, die tatsächlich schmerzhaft sind und Schmerzen zufügen bei den Unternehmen, damit sie diese Gesetzesverstöße nicht begehen.

00:20:08: Und diese Vorsicht, die rührt wahrscheinlich daraus, dass man die Drohungen von JD Vance ernst nimmt.

00:20:13: Man müsste die NATO-Beteiligung der USA überdenken, sollte exreguliert werden, die das Getrommel von Elon Musk im letzten Wahlkampf zur Bundestagswahl mit Alice Weidel zum Beispiel zusammen darüber zu sprechen, dass nur die AfD Deutschland retten könnte.

00:20:28: Die Sorge vor Reichweite, Geld macht aus dem USA.

00:20:32: Und ich bin mir nicht sicher, ob man sich damit wirklich so einen großen Gefallen tut, mittelfristig, wenn man gleichzeitig sagt, aber Donald Trump, der mag doch starke Verhandlungspartner.

00:20:40: So, und dann aber die ganze Zeit Spurt und Buckelt, das ist, glaube ich, keine gute Wette.

00:20:46: Ja, definitiv nicht.

00:20:47: Und jetzt gerade im Zusammenhang mit der Ukraine, da treffen sich ja gerade die Europäer wieder in Paris.

00:20:58: Da haben, glaube ich, alle wirklich Angst, wenn sie den Trump jetzt so verärgern, dass der auf der Stelle die Ukraine nicht mehr unterstützt, dass sie

00:21:08: dann

00:21:09: echt ein Thema haben, weil sie dann alles, was sie haben, zusammenkratzen müssen und es immer noch nicht reicht.

00:21:15: Ja, das kommt dazu.

00:21:16: Also, man will sich selber, glaube ich, nicht in Mistgunst bringen bei Donald Trump.

00:21:21: Und Brasilien zum Beispiel ist das egal.

00:21:23: Das stimmt.

00:21:24: Die haben da vielleicht weniger Aktien drin.

00:21:26: Und ehrlich gesagt, damit fällt mir Brasilien jetzt ein weiteres Mal unter Bolsonaro auf.

00:21:34: Nach Bolsonaro.

00:21:35: Ja, nach Bolsonaro auf als Retter von Werten für die wir immer dachten zu stehen.

00:21:42: Also so westliche.

00:21:44: Brasilien ja zum Beispiel, deren Gesetzespaket stark am DSA und DMA der EU angelehnt hat.

00:21:49: Also die haben ähnliche Formulierungen gewählt.

00:21:51: Gleichzeitig aber haben sie, ich weiß gar nicht, wie ich den dort zu Ende bringen wollte.

00:22:01: Jetzt gerade übrigens, während wir aufnehmen, kommt die Einmeldung, dass Deutschland mit der Ukraine den Waffenstillstand mit absichern würde.

00:22:07: Krass.

00:22:09: Also ihr seid live dabei, liebe Hakis, während hier gerade die Weltordnung sich vielleicht verschiebt.

00:22:16: Na ja.

00:22:17: Und ehrlich gesagt hat das Thema damit was zu tun.

00:22:20: Das ist so irre.

00:22:20: Dass wir politisch sozusagen Social Media Plattformen geworden sind, ist unglaublich.

00:22:26: Ja.

00:22:27: Und wir haben ja angefangen damals und haben darüber gesprochen, dass man sich jetzt auch einen blauen Haken kaufen kann auf Twitter.

00:22:32: Und jetzt sitzen wir ja ein bisschen über Weltpolitik sprechen.

00:22:34: Und das hat sich im letzten Jahr deutlich verschlimmert, ehrlicherweise.

00:22:38: Und um da noch einen draufzusetzen, hat XAI angekündigt, dass sie eine Frontier AI System Suite für das US Kriegsministerium, wie es heißt, entwickeln werden und anbieten werden.

00:22:50: Also XAI for Government, eine Plattform, auf die eben das Kriegsministerium, wie es in den USA heißt eigentlich Verteidigungsministerium zugreifen kann.

00:23:00: Also die werden auf XAI-Systeme setzen können.

00:23:03: Also der, der GROC, das GROC, der Chatbot, der den Holocaust geleugnet hat, der von Genoziden gesprochen hat, die es nicht gibt, der gerade Minderjährige in Bikinis steckt.

00:23:14: Das ist die gleiche Technologie, auf die jetzt möglicherweise nationale Sicherheitsmaßnahmen genauso angewiesen sind.

00:23:24: Da kann man irgendwie nur hoffen, dass denen das um die Ohren pflegt und wir nicht mitfliegen.

00:23:29: Ja, das würde ich genauso hoffen.

00:23:31: Apropos um die Ohren pflegen und nicht mit pflegen.

00:23:33: Wir müssen kurz über den TikTok-Deal sprechen, denn es ist ja so.

00:23:39: Ich liebe diese Geschichte.

00:23:41: Also am neunzehnten Januar, also in ungefähr zwei Wochen, jährt sich die Tatsache, dass TikTok eigentlich in den USA verboten ist und immer wieder nur per Executive Order durch Donald Trump um weitere Monate verlängert wird.

00:23:52: Bei der letzten, oder nach der letzten Verlängerung, die noch bis zum sechsten, zwanzigsten Januar läuft, wurde angekündigt, dass es eine Einigung gibt.

00:24:00: Und selbst By Dance hatte diese, du hast kurz gerauscht, kann das sein?

00:24:04: Oder bin ich das?

00:24:06: Ich weiß nicht, ich rausch gerade nicht in meinen Ohren.

00:24:08: Vielleicht habe ich gerauscht, wenn ihr das gehört habt.

00:24:10: Ihr habt nichts gehört.

00:24:12: Auf jeden Fall hat Bytons auch schon verkündet, dass es eben irgendwie eine scheinbare Einigung eben mit diesen Konglomerat aus amerikanischen Investoren gibt, dass das US-Geschäft von TikTok amerikanisch wird.

00:24:23: Und wie viele Medien darüber gesprochen haben, dass der TikTok-Deal in trockenen Tüchern ist.

00:24:28: Und wir haben hier gesagt, ah!

00:24:30: Vorsicht.

00:24:30: Und diese Vorsicht ist vielleicht gar nicht so schlecht, denn die chinesische Regierung hat sich jetzt geäußert und zwar haben sie am fünftzwanzigsten Dezember, also in den Feiertagen, eine Erklärung abgegeben und diese Erklärung lautet wie folglich, zitiere mal, die chinesische Regierung hofft, dass sie relevanten Parteien eine Lösung in Bezug auf TikTok finden können, die mit chinesischen Gesetzen und Vorschriften vereinbar ist und einen Interessenausgleich herbeiführt.

00:24:54: Also so eine Absegnung oder ein Einverständnis würde anders klingen, oder?

00:24:59: Ja, führen die da nicht den Trump am Nasenringen durch eine Mandage?

00:25:05: Klar, weil Donald Trump hat ja der selbsternannte große Dealmaker.

00:25:09: Hat er genau das gemacht, was man bei so einem Deal vielleicht nicht tun sollte.

00:25:13: Er hat ja allen schon versprochen, dass es eine Einigung geben wird.

00:25:16: Und die ganzen Leute, die Millionen Nutzerinnen in den USA, die gehen jetzt fester voraus, dass Donald Trump diese Einigung herbeiführt.

00:25:23: Und die chinesische Regierung weiß, dass Donald Trump das versprochen hat.

00:25:26: Bedeutet also, die können eigentlich fast alles verlangen, weil er steht jetzt an dem Punkt, dass er eben dieses Ergebnis herbeiführen muss.

00:25:33: Auf der anderen Seite hat Donald Trump wahrscheinlich auch wenig Probleme, damit dieses Verbot einfach mal ums Mal.

00:25:38: wieder um drei Monate aufzuschieben.

00:25:41: Ja, das glaube ich auch.

00:25:42: Also das hat was mit seinem Verständnis von Deals zu tun, glaube ich.

00:25:47: Da kann man zusagen, auch mal wiederlassen.

00:25:50: Ja, das kommt leider auch dazu.

00:25:52: Also wir sind sehr gespannt.

00:25:54: Also am Zweiundzwanzigsten Januar müsste diese Vereinbarung in Kraft treten, vorausgesetzt, die chinesische Regierung stimmt zu.

00:26:01: Ansonsten könnte es durchaus passieren, dass TikTok tatsächlich verboten wird, illegal wird, oder es eben nochmal eine Exekutive oder gibt wieder mit einer neuen Ausrede, dann alles ist möglich.

00:26:11: Ich bin gespannt.

00:26:13: Wir bleiben da dran, Haken bleibt dran.

00:26:15: Ansonsten hat die polnische Regierung die EU-Kommission aufgefordert, TikTok aber mal zu untersuchen, weil dort offenbar mit großer Reihe KI-generierte Inhalte veröffentlicht werden, die nicht als solche gekennzeichnet sind.

00:26:26: Ab dem zweiten August, zwanzig, übrigens gibt es den AI-Act in der EU, der Unternehmen dazu verpflichtet.

00:26:33: KI-generierte Inhalte zu kennzeichnen.

00:26:35: Mal sehen, wie gut das klappen wird.

00:26:37: Aber es gibt wohl einige Inhalte auf TikTok, auf denen Polen den Austritt aus der EU verkünden soll, was nicht stimmt.

00:26:45: Und man geht davon aus in Polen, dass es sich dabei um russische Desinformationen handelt.

00:26:49: Und sie haben deswegen jetzt die EU aufgefordert, TikTok stärker zu untersuchen unter diesem Gesichtspunkt.

00:26:55: Ja, ich bin gespannt, ob die EU das macht.

00:26:57: Ja, vor allem mit welchem Ausgang.

00:27:01: Also untersuchen kann man das ja vielleicht noch, aber wenn es dann einfach auf den Stapel der komischen Dinge gelegt wird, die man bei TikTok so findet, dann ist es auch egal.

00:27:10: Untersuchen könnte viel.

00:27:13: Also es sind mehrere Untersuchungen noch anhängig in der EU gegenüber TikTok, weil auch immer noch nicht das Ergebnis vorliegt, ob TikTok jetzt ein Suchtmittel ist oder nicht.

00:27:22: Also wir werden vielleicht in diesem Jahr ein bisschen was erfahren, vielleicht hält man aber auch die Füße still und wartet jetzt erstmal ab, ob... Taiwan sicher ist zum Beispiel.

00:27:32: Ja, aber weißt du was ich daran wirklich wirklich nicht verstehe ist?

00:27:36: Auf der einen Seite, ja ganz viel natürlich, aber auf der einen Seite wird so phasenweise immer wieder diskutiert kommen wir müssen Altersbegrenzung für die Nutzung von Social Media einführen.

00:27:50: Und auf der anderen Seite werden diese ja doch ziemlich realistischen, also ich will nicht sagen, dass es so ist, weil ich habe es ja nicht untersucht, aber diese Feststellungen, wie sie Polen jetzt gemacht hat, nicht so untersucht und Konsequenzen daraus gezogen, dass wir jetzt die ganze Zeit davon ausgehen müssen, dass alle Menschen, inklusive der jungen Leute, der Jugendlichen diesen Mist über TikTok zur Kenntnis nehmen können und das einfach unbeschadet passiert.

00:28:24: Also das ist so eine ungleiche Diskussion.

00:28:27: Vor allem ist das so ein schreckliches Katz-und-Maus-Spiel, weil diese Untersuchung dauern Monate lang.

00:28:31: bis dahin haben wir schon wieder sechsundzwanzig andere Anlässe-Untersuchungen durchzuführen.

00:28:34: Dann gibt es irgendwann ein Ergebnis.

00:28:35: Bis dahin haben wir aber schon wahrscheinlich zwanzigtausend Leute mindestens verloren in die Radikalisierung, weil sie da irgendwelche Inhalte gesehen haben, die sie auf irgendeinen Trichter gebracht haben, der halt nicht auf der Wahrheit fußt.

00:28:46: Also das ist ein Riesenproblem.

00:28:48: Ja.

00:28:50: Die Frage ist, würde es ein Social Media-Verbot für Jugendliche besser machen an der Stelle?

00:28:55: Ich bin mir da nicht so sicher.

00:28:57: Ich mir ehrlich gesagt auch nicht.

00:28:59: Das ist auch, was ich damit eigentlich sagen wollte.

00:29:01: Also natürlich muss man gucken, wie Jugendliche Social Media verwenden.

00:29:06: Aber das tust du hoffentlich als Vater.

00:29:09: Und nicht irgendeine Regierung mit verboten, deren Umsetzung, wie man aus Australien sehen kann, kompliziert ohne Ende ist.

00:29:19: ohne dass das eigentliche getroffen wird.

00:29:22: Nämlich, dass die Plattform viel zu viel Müll verbreiten, ohne dass wir sie daran hindern.

00:29:27: Genau.

00:29:28: Und das ist ja auch das, also da hänst du bei mir offene Türen ein.

00:29:32: Ich glaube auch, dass das die absolute, das absolute Armutzeugnis wäre, zu sagen, wir kriegen unsere Gesetze nicht durchgedrückt gegen diese großen Unternehmen.

00:29:40: Also, blenden wir das jetzt einfach hier für euch aus.

00:29:43: Das kann, glaube ich, nicht die Antwort sein.

00:29:45: Karsten Wildberger sieht das anders.

00:29:47: Der Digitalminister, der hat gesagt, er zeigt sich offen für ein Social Media-Verbot für Kinder und sagt, da ist jetzt mal eine Frage zu stellen, wie ermöglichen wir eine gesunde Entwicklung so, wie sie frühere Generationen ohne soziale Medien auch hatten.

00:30:00: Und also für mich ist dieses Früher war alles besser die schlechtest mögliche Argumentationslinie.

00:30:06: Weil die Welt ist ja kein besserer Ort geworden und sie ist, wenn sie ein schlechtere Ort geworden ist, das nicht deswegen passiert, weil es Social Media gibt.

00:30:14: Also es gibt natürlich viele Dinge, die durch Social Media beschleunigt werden, stärker diskutiert werden, die auch sicherlich schneller bei jungen Menschen ankommen oder schneller in der Gesellschaft sich verbreiten.

00:30:24: Aber zu sagen, als Kind kein Social Media, es hat mir auch nicht geschadet, also verbiete ich das den Kindern heute, ist keine logische Konsequenz, ehrlicherweise.

00:30:34: Ja, überhaupt nicht.

00:30:35: Und es gibt natürlich einen möglichen Kindheiten, zum Beispiel mal eine lang zurückliegende Kindheit, irgendwelche Dinge.

00:30:46: die meine Eltern wollten, dass ich sie nicht tue und da ziemlich viel für gemacht haben.

00:30:50: Ja, also natürlich bin ich trotzdem nachts, wenn die nicht da waren, aufgestanden, hab das Fernsehen angeschmissen und irgendwas geguckt, was ich nicht gucken sollte.

00:30:59: Ja.

00:30:59: So, das gehört ja zum Spiel.

00:31:01: Aber ehrlich gesagt finde ich, nach wie vor ist das so ein, das gehört zum Elternwerden und Eltern tun.

00:31:11: mussten auch schon da was tun, um Kinder in bestimmte Schranken zu weisen, dann zu ihrem Besten, auch wenn die Kinder das zu dem Zeitpunkt anders sehen.

00:31:23: Aber da hat niemand gesagt und jetzt dürfen wir nach neunzehn Uhr, wenn die Kinder nämlich ins Bett gegangen sind, kein Fernsehen mehr spielen oder so, weil die könnten ja da hingehen und irgendwas damit machen.

00:31:38: Also, mich bringt das auf.

00:31:40: Ja, ich kann das ganz verstehen.

00:31:42: Also, vor allem, weil... Also, ich habe das als Kind auch gemacht.

00:31:45: Das Problem ist nur, den Fernseher haben die Eltern eben auch benutzt.

00:31:49: Das gilt für viele Social Media Plattformen heutzutage nicht.

00:31:52: Und das ist ein großer Unterschied.

00:31:53: Also, meine Eltern wussten, dass ich mir Stephen King's S zum Beispiel nicht angucken sollte.

00:31:58: Oder also, so alt bin ich jetzt auch noch nicht.

00:31:59: Ich habe mit zwölf Paranormal Activity, glaube ich, gesehen und hätte das nicht tun sagen.

00:32:04: Aber ich will einfach nur sagen, Es fehlt halt da eher einem anderen Puzzlestück und das ist Bewusstsein dafür, was diese Plattform ermöglichen, was sie sind, wie sie funktionieren, was da passiert.

00:32:15: Und das müssen wir bei den Eltern lösen, dieses Problem und nicht nur bei den Kindern, die es eben alle schon verstanden haben oder größtenteils.

00:32:21: Ja, das sind zwei Dinge.

00:32:22: Eltern müssen was tun und ehrlich gesagt, es muss eine gute Regelung für Drittplattformen, Social Media-Plattformen her, haben wir gerade vorher drüber geredet, dass die keine Bikini-Bilder usw.

00:32:36: zeigen.

00:32:37: Und wir müssen gesellschaftliches irgendwie schaffen, dass diese Dinge, die von außen so wahnsinnig komplex wirken und kompliziert wirken, dass wir die trotzdem auch den Leuten erklären, um uns herum, die sie vielleicht nicht so gut verstehen wie wir.

00:32:50: Weil alle, die diesen Podcast hier hören, unterstelle ich mal, haben ein gewisses Grundverständnis dafür, wie Social Media Plattformen funktionieren und was an ihnen vielleicht schwierig ist oder warum sie vielleicht auch gut sind.

00:33:01: Und wir werden den Leuten, die sich damit nicht auskennen, Keinen gefallen tun und selber nicht.

00:33:05: wenn wir vorne rein sagen das ist schmutz geht er weg.

00:33:08: damit werden wir nicht schaffen dass leute sich damit auseinandersetzen.

00:33:10: die hat bob blume war vor.

00:33:12: auch ich glaube fast zwei jahren war der hier und er hat gesagt ich erwarte von ihr nicht dass du tanz videos machst aber ich erwarte von dir wenn du mit kindern zu tun hast.

00:33:19: da ging es um lehrer und lehrerinnen.

00:33:20: aber es gilt für alle eltern oder alle menschen die mit kindern zu tun haben.

00:33:24: Aber ich muss schon dir erwarten, dass wenn du mit einem jungen Menschen darüber sprichst, wie TikTok aufgebaut ist, dass du das auch selber weißt, wie das funktioniert.

00:33:32: Dass du das schon mal gesehen hast, dass du damals Zeit mitverbracht hast.

00:33:36: Weißt du, jedes Kinderbuch wird einmal von den Eltern vor einmal kurz durchgebleitet, um zu gucken, ist das safe, so geht das.

00:33:43: Und auch da kann man trotzdem stolpern und merken, ah, der Räuber-Hotzenplatz ist doch ganz schön scharf für einen fünfjährigen.

00:33:48: Aber trotzdem guckt man sich das vor einmal an und das muss man mit TikTok genauso machen.

00:33:53: Kannst du sagen, hier, ich installiere dir das und dann mach bitte, was du willst, bis die Regierung es dir verbietet.

00:33:58: Das funktioniert so nicht.

00:34:00: Amen.

00:34:01: So, Irland allerdings wird ja Mitte dieses Jahres EU-Ratspräsidentschaft übernehmen und ab der zweiten Hälfte und haben angekündigt, dass sie diese Ratspräsidentschaft nutzen werden, um eine Identitätsprüfung in sozialen Medien und ein Verbot für Kinder einzuführen, EU-weit.

00:34:19: Damit wollen sie sich auseinandersetzen.

00:34:21: Es gibt da verschiedene Ansichten, was die Rechtsprechung angeht, denn die EU hat dadurch, dass sie ein, dass sie DMA und DSA erlassen haben, haben sie eben dieses Ich habe, ich vergesse immer diesen Begriff, aber so eine Art Vorrang, was Gesetzgebung in diesen Bereichen angeht.

00:34:37: Sprich, in Deutschland sagt man, wir können nicht einfach ein Social-Media-Verbot erlassen, weil die EU ist da eigentlich in Charge und ist sich gemann.

00:34:44: Das heißt, sollte Dublin es in der EU so vorantreiben, dass es Gesetze gibt, um ein Social-Media-Verbot für Kinder zu bringen, könnte das auch der Weg sein, wie Carsten Wildberger doch wieder seine eigene Kindheit, der jetzigen Kindheit aufdrücken

00:34:57: kann.

00:34:59: Ja, also... Die EU ist ja vielstimmig, wie wir wissen.

00:35:05: Das ist gut und schlecht zugleich.

00:35:06: In diesem Zusammenhang ist vielleicht

00:35:08: gut.

00:35:09: Ja, hoffentlich.

00:35:11: Frankreich will das auch dieses Jahr diskutieren.

00:35:13: Im September wollen Sie ein Gesetz debattieren zum Thema Social-Media-Verbote für Menschen unter fünfzehn.

00:35:19: Das war bei der letzten Wahl in Frankreich eines der großen Themen im Wahlkampf, die das Social-Media-Verbot.

00:35:25: Also auch da können wir davon ausgehen, dass es nochmal ein Thema wird.

00:35:28: Es kommt also näher.

00:35:31: Ja, vielleicht tut die Debatte ja auch was.

00:35:34: Also die Pros und Cons, die dann hin und her gewogen werden, hören ja und lesen ja dann viele Menschen und versuchen sich vielleicht eine Meinung dazu zu bilden.

00:35:45: Und dann sind wir wieder an der Stelle, die du so eben hattest.

00:35:47: Wir können unseren Teil daran tun, indem wir den Menschen versuchen zu erklären, wie die TikToks dieser Welt funktionieren.

00:35:55: Ja, und wenn ihr jemand bei euch im Bekanntenkreis habt, der einfach nicht zuhören möchte, wie es funktioniert, dann ruft mich bitte an.

00:36:00: Ich komme vorbei und erkläre das persönlich.

00:36:04: Aber du machst das doch sowieso, oder ist das nicht so?

00:36:06: Du gehst doch in Schulen und sprichst mit den Schülerinnen und Schülern.

00:36:11: Ja, das mache ich tatsächlich, ja.

00:36:13: Das mache ich in neunten Klassen.

00:36:14: Also auch wenn ihr neunte, achte, neunte, zehnte Klassen um mich herum habt oder jemanden kennt, meldet euch.

00:36:20: Mir ist es wichtig.

00:36:22: Was lernst du dabei?

00:36:24: Ganz, ganz viel.

00:36:25: Also mein größtes Learning war tatsächlich... Die Verhältnismäßigkeit von Bildschirmzeit zu Lebenszeit ist bei Menschen unter achtzehn andere als bei Menschen über achtzehn.

00:36:35: Was hast du von der Bildschirmzeit auf deinem Telefon?

00:36:38: Also tatsächlich eine relativ geringe, wenn ich nur das Handy angucke.

00:36:43: Über alles ist natürlich extrem viel.

00:36:46: Das liegt aber daran, dass ich viele in solche Bildschirme gucke von Laptops und Rechnerne.

00:36:50: Ich würde mal sagen, am Tag sind es bestimmt zehn Stunden, aber zweieinhalb auf dem Handy.

00:36:55: Ja, und Menschen in neunten Klassen haben gerne mal zwölf, dreizehn, vierzehn, fünfzehn, sechzehn Stunden.

00:37:00: Und das finde ich nicht schlimm.

00:37:02: erstmal, weil das ist die Zeit, wenn du addierst, wie viel Zeit ich damals mit dem Gameboy, mit dem Discman, mit dem Taschenrechner, mit dem Fernseher, am Telefon mit Freundinnen und Freunden verbracht habe.

00:37:12: Definitiv.

00:37:12: Und mit Büchern und mit, was weiß ich, für Medien

00:37:16: halt.

00:37:16: Medien

00:37:16: halt.

00:37:16: Genau, eigentlich.

00:37:17: Und darüber hinaus ja auch, Kommunikationsmittel und so, Videospielkonsolen und so.

00:37:23: dann kommt man wahrscheinlich auf einen ähnlichen Wert.

00:37:26: Ärgerlich wird es oder schwierig wird es dann, wenn die sagen, ich verbringe am Tag sieben Stunden auf TikTok, aber keine Ahnung, was ich da so alles gesehen habe.

00:37:32: Das ist dann eher so mein Thema darüber zu sprechen, eher sich so ein bisschen damit auseinanderzusetzen.

00:37:36: Das stimmt.

00:37:38: Und ist es so, dass die auch mal sagen, dass sie da die Nächte mit zugebracht haben, weil es gibt ja immer wieder die Geschichte von Lehrern, die sagen, die schlafen wir hier im Unterricht ein?

00:37:47: Ja,

00:37:47: das ist normal.

00:37:49: Absolut.

00:37:50: Das passiert.

00:37:51: Klar, weil das ist ihr Ort.

00:37:53: Dort fühlen Sie sich sicher, dort können Sie sich miteinander, dort bilden Sie sich aber auch weiter.

00:37:58: Also wie häufig ich Schülerinnen und Schüler erlebe, die zum Beispiel extrem gutes Englisch sprechen, weil sie irgendwelche Videos sich auf Englisch anschauen die ganze Zeit in der neuen Klasse.

00:38:06: Und ich überlege mir, als ich in der neuen Klasse war, gelangen die Songs, die ich mitgesungen habe.

00:38:11: Ganz schön wild, ehrlicherweise.

00:38:14: Klar, das ist schon so.

00:38:16: Stimmt, unbedingt.

00:38:17: Das ist also eines von dem guten Dingen.

00:38:20: Und da finden sich bestimmt noch weitere.

00:38:22: Da gibt es ganz viele.

00:38:22: Also, wenn du dir anschaust, wie fünfzehnjährige heute Zimmer, ich will nicht so pauschalisieren.

00:38:27: Aber ich glaube, wenn ich heute fünfzehn wäre und auch wie ich damals mit fünfzehn anfangen würde, Gitarre spielen zu lernen, wäre ich deutlich schneller auf einem deutlich höheren Niveau, als ich das damals mit fünfzehn war.

00:38:39: durch YouTube und durch Leute, die dir das anders erklären.

00:38:42: Du suchst dir die Person aus, die es dir erklärt.

00:38:43: Und die dir das so erklärt, wie du am besten lernen kannst.

00:38:46: Und nicht einfach nur mit irgendwelchen Tabulaturen.

00:38:48: Du blickst dir selber die Finger.

00:38:50: Also das ist schon anders.

00:38:52: Ja.

00:38:52: Also es gibt ganz, ganz viele Vorteile.

00:38:54: Die Leute sind auch vielmehr miteinander in Kontakt.

00:38:56: Sie haben viel engere soziale Bünde.

00:38:58: Als wir damals, wir haben uns auf dem Schulhof gefragt, kommst du nachher noch an?

00:39:01: und haben dann bei ICQ geschrieben.

00:39:03: Und das war schon, das war schon toll.

00:39:06: Die Generationsinformie hatte das schon nicht.

00:39:10: Also ich zum Beispiel, du hast völlig recht, natürlich habe ich dreieinhalb, vier Stunden nach der Schule mit Freunden telefoniert.

00:39:18: Genau, und heute spielen die halt vier Stunden miteinander Fortnite, Minecraft oder was auch immer und sprechen aber währenddessen miteinander und sind sozusagen auch in einem sozialen Austausch.

00:39:28: Ich würde das nicht vernachlässigen, ehrlicherweise.

00:39:31: Ja, interessant.

00:39:32: Na ja, so viel zu Kindern.

00:39:35: Wir kommen jetzt von Kindern zu Meta.

00:39:37: Da gibt es zwei Dinge.

00:39:39: Erstens, wir müssen über Reuters sprechen.

00:39:41: Der Kampf von Reuters für die Wahrheit bei Meta, der reist nicht ab.

00:39:46: Wir haben in Folge Fünfhundert, das ist jetzt Folge Fünfhundert Zweiundzwanzig, in Folge Fünfhundert.

00:39:50: am siebten November, haben wir darüber gesprochen, dass Reuters interne Papiere von Meta vorliegen hatte, dass zehn Prozent der jährlichen Einnahmen die Meta generiert durch betrügerische Werbeanzeigen generiert werden.

00:40:02: Zehn Prozent.

00:40:03: wirklich viel Geld.

00:40:04: Dann haben wir in Folge Fünfhundertsehnten.

00:40:06: mit Nicole Diegmann, die Folge hieß, die Vermessung deiner Welt, haben wir darüber gesprochen, dass chinesische Unternehmen in extrem großen Stil bei Meter Werbung schalten, obwohl Meter in China selber gar nicht aktiv sein darf.

00:40:21: Aber es dürfen eben chinesische Unternehmen fürs Ausland dort Werbung schalten.

00:40:24: Darüber haben wir auch gesprochen, auch eine Reuters-Recherche.

00:40:27: Und heute kommt die nächste Reuters-Recherche, über die wir sprechen müssen, nämlich ein großer Bericht, in dem es um Betrügerische Werbung in Japan geht.

00:40:34: Und zwar liegt Reuters ein Papier vor.

00:40:38: Das zeigt, dass Meta offenbar Mittel gefunden hat, um Regierungen, ich sage mal vorsichtig, zu täuschen.

00:40:46: Sie haben es nämlich so gemacht, dass sie, also sie selber, es gibt ja die Werbedatenbank, Werbebibliothek, wo du eben nach Werbeanzeigen suchen kannst.

00:40:54: Sie sind Katalog.

00:40:55: Und in dieser Ad Library, wie sie im Original heißt, gibt es einzelne einschlägige Begriffe, die man eingibt, um nach betrügerische Werbung zu suchen.

00:41:02: In Deutschland werden das so Dinge wie Günther Jauch, Vermögen, also Prominente, die eben häufig missbräuchlich verwendet werden, um mit ihnen Werbung zu schalten.

00:41:11: und haben exakt nach diesen Begriffen gesucht, von denen sie ausgehen, dass die Verfolgungsbehörden das auch tun und dann die Werbungen dort gelöscht, die dort gefunden wurden, längst nicht aber alle Betrügerischen anzeigen, damit sie selber der Regierung gegenüber sagen konnten, sie hätten es geschafft, dass der gefundenes Scam auf der Plattform auf Null heruntergegangen ist.

00:41:29: Meta selber sagt, Andy Stone, der Sprecher von Meta hat das interessanterweise nur auf X veröffentlicht, nicht auf frebs und auch nicht sonstwo, hat auf X dazu geschrieben, dass Reuters hier die Fakten falsch darstellen würde und dass sie bewusst die Motivation von Meta falsch darstellen würden, weil sie aggressiv gegen Scam vorgehen, der Vollständigkeit halber sei das mal dazu gesagt.

00:41:51: Aber wenn wir mal diese Stellnahme von Andy Stone kurz ausblenden, muss man sagen, ergibt sich da ein Bild, das nicht überraschend ist angesichts dieser Tatsachen, die wir da gerade dargestellt haben.

00:42:02: Das ist so unglaublich.

00:42:04: Das ist ja mehrfaches Betrügen, also sagen wir mehrere Layer von Betrug.

00:42:09: Und das finde ich jetzt wieder spannend.

00:42:11: Also einmal den Aspekt Reuter scheint wirklich eine gute Möglichkeit gefunden zu haben, zu recherchieren.

00:42:18: Ich sage es mal ganz

00:42:19: neutral.

00:42:21: Das ist super.

00:42:25: Und während ich das so durch meinen Kopf laufen dies, dachte ich so, an einem Buch von Kara Swisher, was ich neulich las, jetzt habe ich den Titel vergessen, aber die hat sozusagen als Tech-Journalistin in den USA ihr Leben mit den Techies noch mal Revue passieren lassen.

00:42:48: So ein bisschen autobiografisch, aber immer entlang an den Zuckerbergs dieser Welt.

00:42:53: Die hat die ja alle gesehen, vielfach gesprochen, über Jahrzehnte letztlich begleitet.

00:42:59: Und ich dachte so, Die ist dadurch so verschiedene Täler und Höhen gelaufen mit denen und ich dachte so am Ende culminiert das in dem Buch hin zu die moralisch gehen die immer weiter den Bach runter.

00:43:21: und dieses hier ist für mich das Beispiel dafür oder letztlich ein aktuelles Beispiel dafür, was die da geschrieben hat aus ihrem persönlichen Gesprächen, die sie mit den Mastz, Zuckerbergs, Bezos und so weiter geführt hat.

00:43:41: Also ich muss ganz ehrlich sagen, mich wundert das nicht.

00:43:45: Aber ich bin trotzdem... Also ich weiß gar nicht, ob ich... Also ich sitze da kopfschüttelnd und frag mich, wie das eigentlich sein kann.

00:43:54: Was für ein moralischer

00:43:56: Abgrund.

00:43:57: Ja.

00:43:57: Und das ist halt leider, muss man das so klar sagen, das ist keine Ausnahme bei Meta, sondern die Regel.

00:44:05: Dass irgendwelche... Also es gibt Rechtsverstöße, die irgendwann öffentlich werden.

00:44:10: Bemühungen von Meta diese einzustellen und ein halbes Jahr später die Veröffentlichung, dass die Bemühungen, diese Rechtsverstöße einzustellen, eigentlich nur mit weiteren Betrugsmaßnahmen irgendwie funktioniert haben.

00:44:22: Das war so bei den Ermittlungen, ob deren VR-Headsets, ob die jugendgefährdend sind.

00:44:29: Gab es Hinweise darauf, also haben sie diese Hinweise verschwinden lassen und die Studien eingestellt, anstatt wirklich das Problem in den Griff zu kriegen.

00:44:36: Das ist hier genau der gleiche Fall, wenn ihr Haken lange hört schon, dann kennt ihr etliche dieser Geschichten.

00:44:43: Und das ist leider deren, wie sagt man, Modus operandi, genauso eher Augenwischerei zu betreiben, um sich selber irgendwie aus der Schusslinie zu nehmen, anstatt tatsächlich Probleme zu lösen.

00:44:54: Das ist leider der Regelfall.

00:44:58: Das Buch heißt übrigens Burn Book von Carol Frischer.

00:45:01: Danke.

00:45:02: Was Reuters weiter schreibt, dass diese Japan-Erfahrungen nicht nur in Japan bleiben, sondern dass sie angefangen haben, diese Erfahrungen auf andere Märkte auszuweiten, USA, EU, Indien, Australien, Brasilien und Thailand.

00:45:17: Gleichzeitig hat die Washington Post exklusiv darüber gesprochen, dass es interne Papiere gibt, die Adam Osary schon im November, zwanzig, veröffentlicht hatte.

00:45:26: Dass es darum geht, dass die große Fokussierung im Jahr, zwanzig, vermutlich aber auch darüber hinaus bei Instagram.

00:45:33: es ist.

00:45:34: Na, rate mal, du hast wahrscheinlich schon gelesen,

00:45:37: ne?

00:45:37: Ich habe es

00:45:37: gelesen.

00:45:38: Die große Fokussierung von Instagram es ist.

00:45:40: Teenager zu erreichen.

00:45:42: Also der Plan ist, also der das der Otto und von Marciari war, wenn sie ihre Pläne für den Jahr zwanzig ausarbeiten, bitte ich die Geschäftsteams sich weiterhin ganz auf erstens Teenager insbesondere in entwickelten Märkten und zweitens Threads zu konzentrieren und zwar in dieser Reihenfolge.

00:45:57: Heißt also das Ziel von Instagram war es massiv an Teenager Publikum zu gewinnen und zwar aus welchem Grund, weil man glaubt Instagram wäre sozusagen die Einstiegsdroge beim Meta.

00:46:08: Man geht davon aus, so schreibt es ihr die Washington Post, dass wenn die Leute mit Instagram anfangen, dass sie später dann auch irgendwann WhatsApp benutzen, dass sie ein Facebook Account machen, wenn sie an der Uni sind, dass sie sozusagen dann einmal sozusagen hooked sind.

00:46:22: Was interessant ist, weil eigentlich ja diese Flotte von Meta in deren eigener Darstellung nicht so... komplementär ist, wie man das hier herauszieht, sondern eigentlich eher so, dass man sagt, das ist für die und das für die.

00:46:35: Hier gibt es wohl schon das Verständnis einer engen Verzahnung der jeweiligen Apps, um die Leute möglichst alle in der eigenen Produktwelt zu halten.

00:46:43: Ja, ich musste grinsen, weil die sich mit Sachen rumschlagen, mit denen wir Medien uns auch rumschlagen.

00:46:51: Also, wie kriege ich ein nachwachsendes Publikum?

00:46:54: Also, die Teenager.

00:46:57: Und wie kriege ich sozusagen klare Vorstellungen davon?

00:47:01: Die haben ja so eine Art Persona-Star gemacht.

00:47:05: Das heißt da irgendwie ein bisschen anders.

00:47:07: Das heißt da irgendwie so eine Art Teen-Museum nehmen.

00:47:13: Total witzig.

00:47:15: Dann haben die ja so Räume ausgestattet offensichtlich, wo sie von den Teenagers genutzte Settings aufgebaut haben, damit die sich offensichtlich besser da rein stürzen können, fokussieren können da drauf.

00:47:30: Und letztlich machen wir natürlich sowas in einer kleineren Version auch, wenn wir uns vorstellen, wie erreichen wir eine bestimmte Zielgruppe überlegen und so Personas, damit es nicht so abstrakt ist.

00:47:43: Also da muss ich total grinsen, dass das Meter auch tut.

00:47:47: und dass sie eine Eigenwahrnehmung haben.

00:47:51: Ich habe gar nicht so, dass den Aspekt gesehen, den du gerade gesagt hast, dass sie eine Eigenwahrnehmung haben von, wenn ich die Jungen nicht kriege, dann habe ich ein Problem mit der Nutzung.

00:48:02: Ja, ich glaube, das ist auch so.

00:48:03: Also vor allem, weil im Jugendliche bis zum Jahr zwanzig, immer wieder weniger wurden bei den Meta-Apps, weil sie eben zum Beispiel zu TikTok rüber gemacht haben, wie man so schön sagt.

00:48:15: Aber klar, wie du schon sagst, also ich finde das erstmal auch gar nicht verwerflich, wenn man sagt, wie kriegen wir ein junges Publikum, wir versuchen deren Lebensrealität zu verstehen, also bauen wir hier einen Jugendzimmer nach, wie ein Jugendzimmer aussieht.

00:48:27: Oder hier wird auch davon gesprochen, dass Fotos von beliebten Treffpunkten für Jugendliche wie einem Fastfood Restaurant oder einem Einkaufszentrum aufgestellt wurden.

00:48:34: Das ist erstmal nicht das Problem.

00:48:35: Interessant wird es oder... Naja, pikant wird es dann, wenn wir dann von der anderen Seite drauf gucken und sehen, was Meter eben alles nicht gemacht hat, um junge Nutzer in der Plattform zu halten, zum Beispiel in ein sicheres Umfeld zu bieten.

00:48:49: Das ist eben alles nicht passiert und das haben wir im letzten Jahr und vorletzten Jahr sehr viel hier besprochen, während innerhalb von Meter offenbar stark daran gearbeitet wurde, die jungen Leute irgendwie anzuködern und zu fischen.

00:49:00: Das ist so ein bisschen das, was man hier schon kritisieren muss, glaube ich.

00:49:03: Ja, wie immer, das ist ja immer dasselbe.

00:49:06: Anstatt die Plattformen sozusagen grundlegend sicher zu machen, zu verbessern, versuchen sie ja nur die Leute an den Haken zu nehmen und möglichst drin zu lassen.

00:49:19: Und ja, letztlich ist das halt das ökonomisch getriebene Plattformgeschehen.

00:49:26: Und das wird da nochmal sehr deutlich, finde ich.

00:49:28: Und das erklärt übrigens auch, warum Adam Osseri Ende letzten Jahres gesagt hat, dass man ja vielleicht auf Langform-Formate setzen muss, denn in diesem Text der Washington Post wird auch gesagt, die größte Konkurrenz sind YouTube und TikTok.

00:49:40: Interessant.

00:49:41: Ja, habe ich auch gedacht.

00:49:45: So, sonst habe ich glaube ich die anderen Metergeschichten, das können wir glaube ich heute alles, das ist alles nicht so.

00:49:50: Bevor wir hier zu lang werden, ich will mit dir nämlich noch ein bisschen über Pinterest sprechen und das finde ich auch.

00:49:55: Wahnsinn nicht interessant.

00:49:56: Also schon vor zwei Wochen.

00:50:00: Und deswegen haben wir es hier nicht besprochen, hat die Wired berichtet, dass bei Pinterest gerade ein großer Frust in der Nutzerendenschaft existiert, weil es eigentlich dort nur noch AI-Slop gibt.

00:50:10: Also die Leute finden ohne Ende Inhalte von irgendwelchen Rezepten, die es nicht gibt, irgendwelche Menschen, die es nicht gibt, eben ohne Ende KI-generierten Inhalten.

00:50:20: Und es gibt im separated Pinterest extrem viele, also Wired nennt es der Treffpunkt für verärgerte Nutzer, also extrem viele Leute, die schlechte Laune.

00:50:28: haben, die so zitiert werden, wie Pinterest verliert alles, was die Leute geliebt haben, nämlich authentische Pins und authentische Menschen und dass sie sich mittlerweile komplett von der App abgewendet hätten.

00:50:38: Und dass Pinterest damit ein großes Problem hat, das ist nichts ganz Neues, weil am sechzehnten Zehnten, ich war mir nicht ganz sicher, ob wir darüber gesprochen haben, hatte Pinterest noch angekündigt, dass du durch einen Filter in den Einstellungen KI-generierte Inhalte eigentlich komplett ausblenden kannst.

00:50:52: Scheinbar haben sie das aber nicht besonders gut hingekriegt, diese schnellen Entwicklungen der generativen KI auf die Plattform zu übertragen, so dass du wirklich es schaffst, generierte KI-Inhalte auszublenden.

00:51:05: Pinterest steht also vor einem Problem.

00:51:07: Und wer könnte dieses Problem jetzt lösen?

00:51:09: Naja, Andrew Hutchinson von Social Media Today bezieht sich auf eine Recherche von The Information, die da lautet, dass Es möglicherweise eine Übernahme im Bereich Social Media in diesem Jahr geben könnte, die relativ groß ist, dass nämlich Pinterest übernommen werden könnte von Nah Open AI.

00:51:27: Open AI erweckt offenbar, Pinterest zu übernehmen, weil sie die Mischung aus diesen NutzerInnen, die große Profile mit sich bringen, durch ihr Ersuchverhalten zum Beispiel, die Sammlung von Produkten, aber eben auch die Sammlung von echten Bildern, die aus dem Internet gesammelt wurden, natürlich extrem gut gebrauchen können in derzeitigen Kampf.

00:51:46: um die beste KI, den besten Chatboard.

00:51:49: Also das finde ich eine sehr interessante Entwicklung.

00:51:52: Das Pinterest sozusagen jetzt zusammenbricht unter der Last des AI Slops.

00:51:56: Die Leute keinen Bock mehr darauf haben, nur damit die KI am Ende dann die restlichen paar echten Inhalte, die noch übrig sind, alle schlucken könnte.

00:52:04: Ja, ist ein bisschen verrückt.

00:52:05: Das ist ja heute schon das zweite Beispiel dafür, wie AI Slop Inhalt von echten Menschen auffrisst.

00:52:14: Und wo gehen dann die echten Menschen hin, habe ich so gedacht.

00:52:16: Also dann kommst du ganz schnell dazu.

00:52:19: Da haben wir so ins Restaurant.

00:52:20: Ja,

00:52:20: also genau.

00:52:21: Hatten wir so eben auch schon mal.

00:52:23: Dann gehen die ja vielleicht doch ins Real Life und machen da irgendwas miteinander.

00:52:27: Vielleicht gehen sie alle tanzen.

00:52:29: Ja, zum Beispiel.

00:52:31: Tanzen statt KI.

00:52:32: Ich finde, dass wir eigentlich ein ganz schöner ist Vorhaben für dieses Jahr.

00:52:35: Jedes Mal, also dass du dir zumindest einmal in der Woche vornimmst, nee, statt LGBT zu öffnen, gehe ich jetzt tanzen.

00:52:42: Ja, oder jetzt auf Pinterest bezogen, einmal in der Woche, was weiß ich hier, bastelig selber oder koche ich nach einer eigenen Vorstellung oder was da eben so gerade bei Pinterest war.

00:53:00: Also mache ich Dinge, die ich Eigentlich früher, also dafür ist doch Pinterest im Ernst mal bekannt geworden.

00:53:09: So ein kleines bisschen so ein YouTube-Ding.

00:53:12: So Bastelanleitungen für schöne Dinge oder eben gute Rezepte.

00:53:18: Und dann wieder ab ins Real-Life.

00:53:21: Also es gibt viele Gründe dafür zu glauben, dass das Jahr das Jahr mehr Real-Life geschehens wird.

00:53:34: Ich hoffe, dass er ein bisschen, weil dann eine meiner Thesen auch eintreten würde.

00:53:37: Ja, ich habe das gehört.

00:53:38: Ich hätte das analog Tag wieder groß werden.

00:53:41: Ich war eng bald hier.

00:53:43: Aber vielleicht fangen wir bald auch wieder an uns Magazine zu kaufen, wie diese ganzen Essens und Inspirationshefte und so, und Dinge auszuschneiden und dann und so Mutbots zu bauen auf Papier.

00:53:57: Das wäre krass.

00:53:58: Das stimmt.

00:53:59: Ach, da habe ich manchmal echt Lust zu.

00:54:02: Früher habe ich das wirklich oft gemacht, jetzt natürlich nicht mehr so oft, aber das Schlechteste wäre es nicht.

00:54:09: Also mein Wunschzettel, als Kind habe ich es so gemacht.

00:54:12: Aus dem Quellekatalog, Dinger ausgeschnitten.

00:54:14: Genau, ich auch.

00:54:16: Dann kommt das wieder.

00:54:17: Dann ist es vorbei, dass Kinder ihre Wunschzettel mit Pinterest bauen.

00:54:23: Ich möchte dich aber noch woanders hin mitnehmen und das ist eine Welt der Zukunft eigentlich, wenn man so will.

00:54:31: Funktionen und Emotionen.

00:54:36: Und zwar haben wir neue Features von Apps, Social Media Platform mitgebracht und ich bin gespannt, welche Emotionen du dazu hast.

00:54:44: Ich fange mit dem ersten an, das finde ich eigentlich am interessantesten.

00:54:49: Threads, ich bin gespannt, was du dazu... Du fühlst.

00:54:53: Zwetsch arbeitet an einem neuen Feature, wo du an deine Postings etwas anheften kannst.

00:54:58: Du kannst ja jetzt schon Zitat anfügen, Musik, Texte und so weiter und so weiter.

00:55:03: Und es wird eine neue Funktion geben, die heißt Tangle.

00:55:06: Und daneben ist einfach nur ein Puzzlezeichen.

00:55:09: Ich kann dir nicht sagen, was es ist.

00:55:13: Für nichts gut.

00:55:15: Egal.

00:55:16: Also ich habe Rische Shit, Tangle heißt Gewirr oder Chaos oder durcheinander.

00:55:21: Und interessanterweise kommt diese Meldung gleichzeitig mit der Ankündigung von bis Stone und Evan Scharp.

00:55:27: Evan Scharp mit Gründer von Pinterest und bis Stone mit Gründer von Twitter, dass sie ein neues Startup gründen mit dem Namen Westco in San Francisco.

00:55:36: Und dort wollen sie ein neues soziales Netzwerk starten mit dem Namen.

00:55:40: Tangle.

00:55:41: Und man kann sich jetzt schon, wenn man invitecote hat, dort anmelden.

00:55:44: Es hat wohl nichts mit diesem Threads-Feature zu tun.

00:55:47: Es ist einfach nur Zufall.

00:55:48: Aber es wird so, du bekommst so Fragen gestellt, wie zum Beispiel, was möchtest du diese Woche werden?

00:55:54: Und dann kriegst du so kleine Begriffe und so.

00:55:56: Es ist so eine Art, glaube ich, zwischen Stimmungstaggebuch und sozialem Netzwerk, wenn ich das richtig verstanden

00:56:02: habe.

00:56:03: Mhm.

00:56:04: Jo, wenn sie machen.

00:56:06: Ja.

00:56:06: Ob dasselbe Tangle bei Threads auch so ein Stimmungstaggebuch ist, glaube ich nicht.

00:56:09: Außerdem hat Threads angekündigt, nee, falsch.

00:56:14: Es gibt Hinweise darauf, Gerüchte.

00:56:16: Wir beziehen uns auf Reverse Engineering.

00:56:19: Das Threads, ein neues Feature bekommen könnte mit dem Namen Live Chats for Communities.

00:56:23: Wenn du also in einer Threads Community bist, könntest du dort in ein Live Chat gehen, der teilweise zu einem festen Zeitpunkt startet und dann könnt alle gemeinsam dort miteinander chatten.

00:56:34: Ja.

00:56:36: Ich

00:56:36: dachte erst, als du losgelegt hast, dachte ich so an Clubhouse und dann... Oh, nur Chatt'n.

00:56:45: Ja, kann

00:56:47: ich alles Chatt'n.

00:56:49: Also, ich finde ja... Also da reden wir viel zu selten, aber wir reden immer darüber, wie schade es ist, dass Bulletin Boards verloren gegangen sind und das Internet sich so verändert hat.

00:56:59: Aber kaum jemand redet über den Verlust von Chatrooms.

00:57:02: Also ich hatte damals Mitschiller.

00:57:06: habe ich hier glaube ich noch nie erzählt, der hat, wenn wir Freistunde hatten und im Computerraum durften, dann war er immer auf kabel-eins.de.slashchat und hat im Chatroom des Senders Kabel Eins und Sender, den wir in unserem Alter absolut nicht geguckt haben, hat er so mit Leuten gechattet und einfach nur weil man damit das Gefühl eines Miteinanders, glaube ich, generiert hat, wenn ich das jetzt heute mit zwanzig Jahren Abstand und ein bisschen kritischer Distanz mir mal anschauen müsste.

00:57:32: Weil das halt so ein Miteinander ist.

00:57:33: Ein kleines Lagerfeuer, aber geschrieben.

00:57:35: Wenn Threads jetzt die Chat zurückbringt, ich bin nicht komplett abgeneigt, muss ich sagen.

00:57:42: Ja... Also sagen wir mal, so bin ich mit dem Internet auch groß geworden.

00:57:46: Also den Teil da dann den mochte ich immer sehr und das ist einer der Gründe, warum ich bin, was ich bin, nämlich irgendwas mit Internet-Journalistin.

00:57:56: Ich habe nämlich bei so einer Spieleplattform, die so in Gruppen organisiert war, so ein Gruppenschat immer auch mal moderiert.

00:58:06: Siehst du?

00:58:07: Also fehlt dir das auch?

00:58:08: Chatten.

00:58:11: Mache ich das heute noch?

00:58:13: Nee, nicht wirklich.

00:58:14: und fehlt mir da wirklich was?

00:58:16: Also, genau, wie du es beschreibst, das war so Lagerfeuer.

00:58:20: So eine, aber heute stelle ich Lagerfeuer irgendwie anders her.

00:58:24: Ja, verstehe ich, aber ich liebe auch immer noch live.

00:58:28: Also, ich werde nicht abgeneigt, wenn die Chatrooms zurückkommen.

00:58:32: Ja, ich

00:58:33: würde jedenfalls mit ausprobieren, auf jeden Fall, das würde ich schon tun.

00:58:37: Das ist das Beste

00:58:38: jedenfalls an Threads, glaub ich, was ich in der letzten Zeit gesehen habe, weil alles andere ist doch.

00:58:44: Es gibt übrigens sowas ähnliches wie ein Shadroom und das ist der Haken an Discord.

00:58:47: Da sind zwei Tausend Einhundert Fünfzig Leute und mehr, die super schlau sind, die sich die ganze Zeit überall coole Sachen austauschen.

00:58:55: Wir tauschen uns über die Themen aus, über die wir dann hier im Podcast nachher sprechen, weil die da schon... Tausend Schritte weiter sind und so.

00:59:01: Ich kann euch das sehr empfehlen, dazu zu kommen, es kostet nix, es ist wirklich schön.

00:59:05: www.hacknann.org.

00:59:07: Ich bin da, das ist mein liebster App, ich glaub Discord, aber ich hab keine App häufiger und öfter auf meinem Bildschirm als

00:59:14: Discord.

00:59:15: Ja, aber das ist doch, also jetzt wo du sagst, ist es doch so ein Gruppenschat.

00:59:21: Ja, ein bisschen schon, aber nicht so, nicht so, mir fehlt so ein bisschen der Trash, weil so, weil der Kabel eins chat, da ging es um nichts.

00:59:30: Vielleicht brauchen wir so ein Kabel-Eins-Chat-Channel in unserem Hackenden-Discord, um so überall Kaffee trinken zu sprechen und so.

00:59:37: Ja, aber so was gibt es auch, also gibt es keinen OT.

00:59:40: Ihr habt schon viele Kanäle da, aber nicht so oft Topik.

00:59:43: Doch, wir haben oft, aber selbst da passieren, reden über schlaue Sachen, weil die Leute alle schlau sind.

00:59:48: Ja, verstehe.

00:59:50: Aber vielleicht ändere ich das.

00:59:51: Ihr könnt ja mal sagen, ob ihr das möchtet.

00:59:54: Ich bin gespannt.

00:59:55: So, das Instagram-Lipsync-Feature für Instagram-Reals, die von Meta-KI übersetzt wurden, wurden jetzt erstmals in der EU gesichtet.

01:00:04: Also es gibt Leute, die schon geschafft haben, auf EU-Sprachen, Lippensinkrone, KI-Übersetzung, mit der Originalstimme in Reals zu sehen.

01:00:12: Ja, ich warte drauf.

01:00:14: Ja?

01:00:17: Nee.

01:00:22: Ich bin das auch so.

01:00:25: Also einerseits, ich habe heute, also ich muss jetzt sagen, ich nehme diese Folge heute nicht von zu Hause auf, deswegen klingt es ein bisschen anders, deswegen sieht es auch anders aus.

01:00:32: Ich habe ein Bücherregal hinter mir als wer, ich heute Generalpolitik-Experte.

01:00:36: Vielen Dank an unseren Dauergast Dominic Hammes, der mir hier Obdach gewährt.

01:00:41: Und weil ich heute im Zug saß, habe ich heute im Zug so ein bisschen YouTube mehr angeguckt.

01:00:47: Und wollte mir Clips von Jimmy Kimmel anschauen, weil ich schaue gerne.

01:00:49: wenn ich mal ein paar Minuten habe, schaue ich mich immer so durch die amerikanischen Late Night Shows.

01:00:54: Und da ist mir etwas ganz spannendes auf, weil ich glaube es war Jimmy Kimmel, dass da ein Video war, das hieß Molly Tuttle, das wird Narben hinterlassen.

01:01:03: Und dachte so, was ist denn das für eine Scheiße?

01:01:05: Weil was da übersetzt wurde, ist ein Songtitel.

01:01:09: That's gonna leave a mark, heißt das Song im Original.

01:01:12: Und das wurde von YouTube übersetzt.

01:01:13: Und noch schlimmer sind ja diese Computer, habe ich mich schon hundertmal hier drüber aufgeregt, diese automatisch übersetzten von einer Computerstimme übersetzten... Ja,

01:01:21: die sind

01:01:21: furchtbar.

01:01:22: ...Audiospuren.

01:01:23: Wenn Instagram das schafft, dass die mit Originalstimme und Lippensynchron nicht nerven, ist das schon mal ein Schritt in die richtige Richtung.

01:01:30: Wobei ich es eigentlich auch nicht möchte, aber immerhin.

01:01:34: Also sagen wir mal so, das hat tolles und Schreckliches.

01:01:38: Das Tolle daran ist, eben über viele Sprachen hinweg, also nicht nur dauerenglisch, sondern auch Sprachen, die ich nicht kann.

01:01:45: Super.

01:01:47: Aber das Schreckliche ist all das, was du schon gesagt hast, das ist furchtbar klingt und künstlich ist und so weiter und auch manchmal komische Sachen macht, aber gleichzeitig einen dann auch nicht dazu bringt, sich mit der Sprache, die man da hört, irgendwie weiter zu beschäftigen.

01:02:01: Das ist so.

01:02:02: Ich finde, Tolles und Schreckliches ist der perfekte Episode-Titel für unser Gespräch heute.

01:02:07: Liebe Nicola, vielen Dank, dass du da warst.

01:02:09: Werden Tolles und Schreckliches, aber es war schön, dass du hier warst und ich hoffe, dass es jetzt nicht wieder anderthalb Jahre dauert, bis du wieder kommst.

01:02:16: Ja, von mir aus muss das nicht sein.

01:02:17: Also können wir gerne wiederholen.

01:02:19: So machen wir das.

01:02:20: Dann vielen vielen lieben Dank dir.

01:02:21: Ein wunderschönen Mittwoch allen Hakis, die bis hierhin zugehört haben.

01:02:25: Passt auf euch auf, wenn ihr wollt, kauft euch noch Tickets zu unseren Live Termine.

01:02:29: Wir freuen uns drauf.

01:02:30: Und wir hören uns wieder am Freitag mit Frederik von Castell.

01:02:34: Und da muss ich kurz eine Geschichte zu erzählen.

01:02:36: Frederik von Castell war auch letztes Jahr im Januar hier.

01:02:40: Und an dem Tag, als wir die Episode aufzeichnen wollten, zwei Stunden vorher oder anderthalb Stunden vorher, hat Mark Zuckerberg dieses das Video veröffentlicht, indem danach alles anders war als vorher.

01:02:50: Und deswegen bin ich sehr gespannt, was am Donnerstag, wenn mir dieser Episode aufzeichnen, passieren wird, damit ihr das am Freitag hier hören könnt.

01:02:57: Also freuen wir uns sehr darauf.

01:02:58: Habt eine schöne Restwoche.

01:02:59: Danke, dass du hier warst, Nikola.

01:03:00: Und bis bald.

01:03:02: Tschüss.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.