Alles schlimm - der Podcast (mit Nicole Diekmann)

Shownotes

Meta bietet seit geraumer Zeit Maßnahmen zum Schutz von Jugendlichen an - eine Studie zeigt nun: Die bringen es nicht. Fakt ist laut dieser Studie offenbar, dass kaum eine dieser Maßnahme tatsächlich ein sicheres Nutzer:innenerlebnis für junge Menschen sicherstellen kann. Auch bei TikTok gibt es ähnliches zu berichten. Apropos TikTok und Kinder: Es gibt neue Details zum Trump-Deal - und sie werden euch nicht gefallen. Dafür hat Threads jetzt X überholt. Nicht überall, aber dafür weltweit.

➡️ Philipp hört Haken dran nach: https://chaos.social/@fineblackink/115220083408944419

Kapitelmarken, KI-unterstützt: 00:00:00 – Hallo Nicole! 00:07:27 – Threads überholt X 00:09:10 – Metas SuperPAC 00:15:36 – Jugendschutz-Bericht zu Meta 00:34:55 – Neues vom TikTok-Deal 00:37:05 – CapCut, Standortdaten und Spionage-Vorwürfe 00:38:26 – Jugendschutz-Bericht zu TikTok 00:41:21 – Transparenz zu Werbung in diesem Podcast 00:49:47 – YouTubes Rückkehr gesperrter Accounts 00:56:18 – Funktionen und Emotionen 01:01:50 – Versöhnlichkeit des Tages

Transkript anzeigen

00:00:00: Hallo Nicole.

00:00:01: Hallo Gavin.

00:00:02: Bei mir ist heute endlich mal wieder Nicole Dickmann.

00:00:04: Und ich weiß nicht, letztens schon mit Franzi festgehalten, eigentlich habe ich, fühle ich mich so doof, die Leute immer fortzustellen, die so oft wiederkommen.

00:00:11: Auf der anderen Seite hat sie gesagt, das ist so schön, wenn ich einerseits, also dich dann zum Beispiel, Bebauchpinseler und andererseits für die Leute, die neu hinzukommen, wenn sie verstehen, wer du bist, als würden die Leute wissen, wer ich bin, die nicht wissen, wer du bist.

00:00:24: Egal.

00:00:25: Bei mir ist heute Nicole Dickmann.

00:00:27: ZDF.

00:00:28: Hauptstadt-Korrespondentin mit Schwerpunkt-Themen-Bereich-IFD, Internet-Kurri-Fair-Kolumnistin, meine liebe Kolleginnen bei einer Kolumne, die wir gemeinsam machen dürfen.

00:00:40: Also wir haben ganz viele Berufspunkte und du bist aber auch wahnsinnig schlau und deswegen freue ich mich, dass du hier bist.

00:00:46: Du bist ein lieber Mann.

00:00:47: Franzi hat genau vorgegeben, wie das hier zu laufen hat.

00:00:49: An dieser Stelle nochmal Danke, Franziska.

00:00:52: Genau so, nämlich.

00:00:53: Und ich führe das noch ein bisschen weiter.

00:00:56: Diese Kolumne, die wir uns im wöchentlichen Wechsel teilen, läuft bei Bremen II.

00:01:00: Heißt mein Feed.

00:01:02: Und ich bin morgen früh um, wie immer, sieben Uhr zwanzig wieder dran.

00:01:05: Also alle sind herzlich eingeladen.

00:01:06: Wenn

00:01:06: ihr das hier hört, in zweieinhalb Stunden ungefähr.

00:01:09: Genau.

00:01:09: Ja.

00:01:10: Kannst du schon sagen, worüber du sprichst?

00:01:13: Ja, ich rede über die grüne Abgeordnete, die mit ihrem Baby in der Trage im Bundestag eine Rede gehalten hat.

00:01:23: Wer auch versucht hat, mit einem Baby in der Trage den Social Media Markt durch die Gegend zu webeln, war ja vor ungefähr zwei Jahren Instagram, die mit Threads versucht haben, Ex, also Twitter, anzugreifen.

00:01:34: Und wir gehen deswegen direkt ins Thema rein, weil es ist was passiert.

00:01:37: Zum ersten Mal, und zwar am zwanzigsten September.

00:01:41: hat X überholt.

00:01:44: weltweit gesehen muss man dazu sagen in den wir gehen gleich noch ein bisschen detaillierter in die zahlen.

00:01:48: aber weltweit gesehen hat er am zwanzigsten september frets mehr nutzer innen als X auf mobilgeräten.

00:01:54: und was?

00:01:56: was sagen wir dazu?

00:01:57: wie ist das gefühl?

00:01:58: was heißt das?

00:01:59: ich kann endlich löschen.

00:02:02: So, pass auf.

00:02:03: Wenn du mir diese Vorlage lieferst, dann muss ich sie auch verwandeln.

00:02:07: Ich habe seit Wochen nichts mehr auf X gepostet.

00:02:11: Seit Wochen.

00:02:12: Ich bin da weg.

00:02:13: Ich lese nur noch mit.

00:02:15: Und was ich da lese, sind die üblichen Radikalen und Extremisten.

00:02:18: Aber was ich tatsächlich auch festgestellt habe, ist, es ist immer mehr so ein Tummelplatz geworden für so Scheinriesen.

00:02:25: Also Leute auch aus unserer Branche.

00:02:28: Die überhaupt keine Rolle spielen und sich da aber inszenieren als die riesen Macker die wahnsinnigen Einfluss haben und jetzt mal.

00:02:38: Intendantin und Intendanten klar machen was die tun und lassen sollen und wenn man sich ein bisschen auskennt dann weiß man.

00:02:45: Das sind totalen Names.

00:02:47: also

00:02:47: war das hier anders auf Twitter.

00:02:50: Ich glaube es ist mir noch nie so aufgefallen wie jetzt.

00:02:52: tatsächlich weil.

00:02:54: die jetzt noch mehr Rückenwind haben, vielleicht, weil immer mehr rational gut informierte Leute sich zurückziehen und dadurch die Fläche einfach größer ist für die und der Applaus dadurch noch größer wird und Bedeutung und also im realen Leben und auf Ex, das klafft immer weiter auseinander bei solchen Leuten.

00:03:15: Das ist wirklich krass, kann überhaupt nicht mehr ernst nehmen.

00:03:17: Und wenn ich das jetzt mal so, wenn ich diesen Ball auch aufnehme?

00:03:21: Wie du das gerade gemacht hast.

00:03:22: Was heißt das für Threats?

00:03:23: Was ist Threats?

00:03:24: Wer tummelt sich da?

00:03:26: Genau.

00:03:26: Ich muss eins vorweg sagen, das sage ich ja auch schon so lange.

00:03:32: Du hast ja mal ganz doll bei Threats geschimpft, wenn ich das richtig

00:03:34: erkenne.

00:03:35: So.

00:03:35: Elon Musk ist sehr, sehr böse.

00:03:38: Mark Zuckerberg ist kein Engel, aber er ist nicht so böse wie Elon Musk.

00:03:41: So.

00:03:42: Having said that, also in meinem Feed.

00:03:49: Habe ich nämlich heute auch noch drüber nachgedacht, als ich die News gelesen habe.

00:03:52: Habe ich so eine Mischung aus Männern, die schreiben, gibt es hier intelligente Frauen, mein Name ist Manfred, hier ist meine Rolle.

00:04:00: Das habe ich auch ganz viel bei Threads.

00:04:03: Okay, und dann habe ich tatsächlich, und das ist nicht mehr ganz so lustig, so eine.

00:04:08: Eheso-Spinner-Bubble, ich weiß nicht, wie ich da hingekommen bin.

00:04:12: Also Krebs ist demnach angeblich nur der Beleg für die falsche Lebensführung.

00:04:19: Und wenn man

00:04:20: sich,

00:04:22: oder Lichttherapie oder einfach mal dreimal die Woche in den Wald, also wirklich so Quacksalber oder ... So Live Coaches, bei denen du siehst, ah, wohnt seit fünf Jahren im VW-Bus, hat richtig was auf die Beine gestellt.

00:04:35: Das ist jemand, den möchte ich die dringenden Fragen meines Lebens anvertrauen.

00:04:39: Also so ganz plumpe Geldmacherei oder der Versuch.

00:04:44: Aber das muss ich jetzt dazu sagen, vielleicht hat sich das gedreht.

00:04:50: oder meine Wahrnehmung ist geschärfter.

00:04:53: Ich habe den Eindruck, dass solche Leute da viel massiver Gegenwind bekommen, als sie zum Beispiel jemals auch auf Twitter bekommen hätten.

00:05:02: Aber liegt das darin, dass bei Threads so alle so ein bisschen sind?

00:05:05: Also ist das so ein Querschnitt der Gesellschaft, würdest du sagen?

00:05:08: Ich

00:05:09: glaube immer noch

00:05:10: nicht.

00:05:10: Ich glaube

00:05:11: immer noch nicht.

00:05:12: Ich habe die letzte ARD ZDF Online-Studie noch nicht gelesen oder ich habe sie nicht mehr gewahr.

00:05:21: wurde Threadster schon erhoben, wie hoch der Anteil täglicher Nutzer ist hier in Deutschland.

00:05:25: Ich glaube nicht, aber die ARD ZDF Online-Studie ist ja auch wie gesagt eine deutsche Medienstudie, wie sie mittlerweile heißt.

00:05:30: Ja.

00:05:31: Ja, ja, aber ich leh's ja auch nur Deutsche.

00:05:33: Also ich leh's natürlich auch Deutsche.

00:05:35: Auch das ist übrigens verbreitet.

00:05:37: So lustige Posts, die du eine Woche zuvor von US-amerikanischen Usern gelesen hast, die dann übersetzt werden ins Deutsche.

00:05:48: Ja, ist das so?

00:05:50: Dann hatte ich da irgendwie die bessere Timeline.

00:05:52: Aber es wird wahnsinnig viel geklaut auf Threads.

00:05:56: Und das ist der große Unterschied zu X. Du siehst halt immer noch diese total unbeholfenen Leute, die jahrelang sich eine Riesen-Community auf Instagram aufgebaut haben und gar nicht verstehen, warum das jetzt nicht auf Threads auch funktioniert.

00:06:09: Weil es eine textbasierte Plattform ist.

00:06:12: das ist aber irgendwie noch nicht richtig angekommen und da wird auch viel gemozt wie das sein kann dass man keine hundertausend follower

00:06:18: hat.

00:06:20: Ich kann ja mal ein bisschen zahlen erzählen und zwar den erst das erste mal das threats mehr tägliche nutzer in als exterte war schon am fünften september.

00:06:27: danach war aber exeter weiter vorne dann wieder threats.

00:06:29: es ging so die ganze zeit hin und her.

00:06:30: jetzt aber die weltweit.

00:06:32: wir reden weltweit.

00:06:33: genau das ist wichtig weltweit betrifft aber alle mobilgeräte also sowohl iphone nutzer in als auch android nutzer in.

00:06:40: Aber die Woche vom fünftzehnten bis zum einstandigen September war dann die Woche, bei der das erste Mal der durchschnittliche Wert von Threads deutlich vor dem von X lag, mit deutlich meinen ich hunderttausend mehr, also hundertdreißig, zwei Millionen tägliche Nutzerinnen bei Threads und hundertdreißig, eins Millionen bei X. Wenn wir uns das aber ein bisschen detaillierter anschauen, dann sieht man zum Beispiel, dass auf dem die IOS-Nutzerinnen bei Threads in dieser Woche zweiundsechzig, fünf Millionen pro Tag waren.

00:07:06: X, aber nur fifty-fünfzig, sechs.

00:07:07: Also ist schon da passiert schon ein bisschen was.

00:07:10: Und Threads wächst eben deutlich schneller als X. X wächst sogar negativ.

00:07:14: Also X verliert sogar Nutzer in.

00:07:17: Das gilt aber eben alles nur weltweit.

00:07:18: In den USA ist tatsächlich X immer noch massiv erfolgreicher als Threads.

00:07:23: Also wenn du dir zum Beispiel da den zwanzigsten September anschaust, dann siehst du, dass Threads am zwanzigsten September in den USA sechzehn, zwei Millionen tägliche Nutzerin hatte.

00:07:33: Threads X. Aber noch ein zwanzig, drei.

00:07:36: Also tatsächlich noch ein sehr, sehr großer Vorsprung liegt vermutlich auch ein bisschen daran, dass natürlich viel des öffentlichen Lebens in den USA tatsächlich bei Ex stattfindet.

00:07:46: Und ich glaube, dass auch viel des das politischen Geschäftes so über Ex groß gemacht wurde, dass eben viele Teile der Bevölkerung, die eigentlich sonst gar nicht so in Deutschland zum Beispiel Twitter genutzt hätten oder Ex, dass die das eben dort trotzdem nutzen, weil eben da so viel passiert.

00:08:03: Was war denn um die Zeit rum?

00:08:04: Wann zum Beispiel ist denn Kimmel abgesetzt worden?

00:08:07: Ich frage mich gerade, ob in der Zeit wahnsinnig viel passiert ist, was ...

00:08:13: Das war das letzte Wochenende, also letzte Woche Samstag.

00:08:18: Das Kimmel zurückgekommen ist, glaube ich, Sonntagabend schon.

00:08:22: Ja, aber abgesetzt worden, also rausgeschmissen, haben Sie ihn, glaube ich, nur ein paar Tage zuvor.

00:08:27: Ich meine, ich glaube, das war direkt das Wochenende nach dem.

00:08:33: Ich weiß nicht, ob es einen monokausalen Grund gibt oder ob nicht einfach nur eine generelle Ex-Genervtheit sich so langsam in die Gesellschaft reinzickert.

00:08:38: Weil wenn du sagst, du machst es auch seit ein paar Wochen nicht mehr, vielleicht geht es vielen so.

00:08:43: Ja gut, also es ging ja schon sehr vielen vor mir so.

00:08:46: Ich durfte mir das hier in diesem Podcast ja auch immer mal wieder anhören und auch anders wunden.

00:08:53: Und das auch komplett zurecht.

00:08:54: Natürlich.

00:08:57: Monokausal ist ja wenig auf dieser Welt.

00:09:00: Ich weiß es nicht, aber auf jeden Fall ist es gut.

00:09:03: Ja, ist gut.

00:09:04: Ja, auch wenn die Leute jetzt eben bei Zuckerberg sind und ich sag's nochmal so richtig super ist ja auch nicht.

00:09:10: Nein, das stimmt.

00:09:11: Zum Beispiel hat Meta jetzt ein Superpack gegründet.

00:09:14: Wie erinnern uns Superpacks.

00:09:16: Ich will jetzt nicht immer alles ganz klein erzählen, wenn ihr wollt, hört nochmal die Folgen aus dem letzten September, würde ich sagen, als Elon Musk den America Pack gegründet hat.

00:09:24: Also in den USA ist das so, dass du Wenn du jetzt Nicole sagst, meine etlichen Milliarden, die ich habe, weil ich ja im öffentlich-rechtlichen Rundfunk arbeite und wir mit Geld totgeschmissen werden, wie man ja weiß.

00:09:38: Wenn du diese etlichen Milliarden jetzt nehmen wolltest und einer Partei spenden wolltest oder einen Präsidentschaftskandidaten, dann ist das in den USA sehr, sehr, sehr kompliziert.

00:09:47: Und deswegen gibt es dort Packs und Superpacks, je nachdem wie viel Geld da drin ist.

00:09:51: Das sind unabhängige Unternehmungen, die zwar gewisse Regeln befolgen müssen und die eben trotzdem irgendwie jetzt nicht im luftleeren Raum oder im gesetzfreien Raum stattfinden, aber die eben deutlich mehr Möglichkeiten haben.

00:10:01: Also ein Superpack könnte jetzt eine bundesweite Fernsehkampagne für einen Präsidentschaftskandidaten schalten und dem kann man einfacher Geld spenden als den Präsidentschaftskandidaten direkt.

00:10:11: So, Kurzfassung.

00:10:13: Meta hat angekündigt, einen neuen Super-Pack zu gründen.

00:10:16: Das berichtet Axios Exklusiv.

00:10:18: mit den Namen American Technology Excellence Project.

00:10:22: Was ist das Ziel?

00:10:23: Sie möchten, dass es eigentlich keine echten KI-Regulierungsmaßnahmen gibt und werden sozusagen fast schon, nicht nur fast schon, sondern ziemlich lobbyistisch tätig, aber eben auch mit Geld eben die Kandidatinnen und Kandidaten stützen und stärken, die sozusagen gegen die KI-Regulierung vorgehen.

00:10:41: im Moment, ehrlicherweise vor allem Donald Trump sein wird, weil der natürlich kein großes Interesse daran hat, eine Contentindustrie zu schützen, ein Urheberrecht zu schützen, wenn er doch von den ganzen Tech Bros, mit denen er den ganzen Tag rumhängt, viel mehr Lob dafür bekommt, was tolle Arbeit erleichtert, wenn er es schafft, dass kein Urheberrecht die KI am Trainieren hindern kann.

00:11:02: Ja, das heißt du kaufst dir halt Gesetze, die nie in Kraft treten dürfen oder nie geschrieben werden dürfen.

00:11:08: Ja, ganz genau.

00:11:09: Also du kaufst dir jetzt sozusagen, kaufst dir jetzt Macht am Markt, kaufst dir Stimm, kaufst dir die Politikerin, die du brauchst als Meta.

00:11:20: Und wenn ich es richtig gelesen habe, ist ja unter anderem eine Forderung, die sich in diesem Pamphlet findet, das hinter diesem Superpack steckt, dass die Verantwortung an Eltern abgegeben werden soll.

00:11:34: Also Eltern sollen darin bestärkt werden.

00:11:36: Ich glaube, das ist die Formulierung, ihre Kinder zu ertüchtigen, richtig mit KI umzugehen.

00:11:42: Das ist ja derselbe Trick, den die Plattformen seit Jahren versuchen, wenn es um Kinder und Jugendschutz Beispiel bei Insta, da sind wir wieder bei Zuckerberg, bleiben wir beim Meter geht.

00:11:54: Also zu sagen, wir basteln jetzt Tools und damit helfen wir Eltern, ihren Kindern kompetent dabei unter die Arme zu greifen, mit diesen Instrumenten, mit diesen Social Networks umzugehen, was ja nichts anderes heißt als wir wollen da nichts zu tun haben.

00:12:11: Wir möchten kein zusätzliches Geld da reinstecken, weil wir wissen, das schadet uns im Zweifel.

00:12:16: Kinder können das eher umgehen, was ihre Kinder können eh umgehen, was ihre Eltern ihnen vorschreiben.

00:12:22: Wir haben da kein Bock drauf.

00:12:24: Das ist History Repeating.

00:12:25: Das ist genau dasselbe, was jetzt wieder passiert bei Kaija.

00:12:28: Also dieser Wunsch nach einer Selbstverantwortung in einem Bereich, in dem es offensichtlich eine Gefährdungslage gibt.

00:12:37: Corona ist keine sechs Jahre her so.

00:12:38: Und trotzdem ist es so, als hätten wir das alles völlig vergessen, was da so passiert ist.

00:12:44: Also ich will einfach... Wir

00:12:45: haben das nicht vergessen, aber es hat viel Geld investiert, dass Leute so tun, als hätten sie es vergessen, und zwar Leute, die sehr viel Macht besitzen.

00:12:51: Das ist das Problem.

00:12:52: Ich kann mich... Du hast ja in der Folge mit Franzi, der mir echt die Ohren geklingelt, über eine Studie gesprochen, wonach Jugendliche sich wünschen, es würde Regulierungen geben.

00:13:04: Mir fiel dazu ein, es gibt einen Blogger, Maximiliam Buddenboom.

00:13:08: Den lese ich seit vielen Jahren.

00:13:09: Der hat zwei Söhne und er und seine Frau, die haben mal einen Experiment mit denen, da waren die Schontinis durchgeführt, weil die keinen Bock mehr hatten.

00:13:16: Auf dieses jeden Morgen zieht euch an, beeilt euch, putzt euch die Zähne, bürstet euch die Haare, geht rechtzeitig in die Schule.

00:13:22: Die haben für zwei Wochen alle Regeln ausgesetzt und haben gesagt, ihr macht das alleine.

00:13:26: So, und nach ein paar Tagen funktionierte fast alles.

00:13:29: Die haben sehr schnell gemerkt, die beiden Jungs, es ist uncool mit ungeputzten Zähnen in die Schule zu gehen und so weiter.

00:13:34: Nach zwei Wochen haben die vor den Eltern gestanden und gesagt, alles fein, aber bitte nehmt uns die iPads weg.

00:13:40: Wir können uns da selber nicht bremsen.

00:13:43: Es geht uns nicht gut, weil wir jetzt unkontrolliert so lange damit datteln konnten, wie wir wollten.

00:13:48: und wir merken, wir selber schaffen es aus eigener... So, und dann soll man Eltern, wir wissen beide.

00:13:57: wie viel Unwissenheit da auch herrscht.

00:13:59: Und das kommt ja auch noch dazu, wie wenig Bock sich ständig mit den Kindern zu streiten.

00:14:03: Die sollen jetzt auch noch KI begreifen und ihren Kindern erklären.

00:14:07: Na, herzlichen Glückwunsch.

00:14:09: Ja, also... Das mache ich gar

00:14:10: nicht despektierlich.

00:14:11: Ich finde das einfach eine Schweinerei, das so auszulagern.

00:14:13: Ja, du kannst halt nicht eine Droge herstellen und sagen, wir legen die jetzt hier mal hin.

00:14:19: Aber wenn ihr die nehmt, seid ihr selber schuld.

00:14:20: Weil so ist es.

00:14:21: Weil du halt diese, du baust ja eine Schein-Selbstverantwortung.

00:14:26: in einem Bereich, in dem wir selber gar keine Kontrolle mehr haben.

00:14:29: Und wir ja also, ich weiß nicht, wie es dir geht, Nicole, aber ich habe überhaupt keine Kontrolle über meine Bildschirmzeit.

00:14:35: Ich habe gar keine Kontrolle darüber, wie viel Zeit ich mit Kurzvideos verbringe, wie viel Zeit ich auf Reddit verbringe, wie viel Zeit ich am Telefon verbringe.

00:14:42: Ich kann das nicht kontrollieren und ich habe immer die eine gute Ausrede.

00:14:45: Ja, ich muss das beruflich machen, aber ich glaube nicht, dass ich beruflich mir dreieinhalb Stunden am Stück irgendwelche Clips von Stand-up Comedians anschauen muss.

00:14:53: Und das ist einfach dieses Suchtmittel.

00:14:55: dass er ihm da drin steckt.

00:14:57: Und ich bin

00:15:00: siebenvierzig.

00:15:01: Kannst du dich... also ich kriege jeden Montag... was hast du gerade gesagt?

00:15:05: Ich

00:15:05: habe gesagt, du lügst doch.

00:15:07: Ach, du lieber Junge.

00:15:10: Ich kriege montagsmorgens, meistens sitze ich da gerade in der Straßenbahn auf dem Weg ins Büro, meinen wöchentlichen Bildschirm bericht.

00:15:18: Ich... Ich ignoriere den.

00:15:20: ich gucke da nie drauf, weil ich es nicht wissen will, weil ich genau weiß, das ist nicht okay.

00:15:26: Ja, es ist der Beweis des eigenen Versagens.

00:15:31: Der Vollständig hat ganz kurz nach da reingeschoben.

00:15:34: halber Greg Brockmann, das ist der Präsident von Open AI, der hat vor einigen Wochen auch angekündigt, hundert Millionen in ein Pack zu investieren, um sich gegen KI-Regulierungen einzusetzen.

00:15:43: Also Meta ist nicht alleine mit dieser Idee, Meta macht es aber jetzt sozusagen auf eigenen... auf eigenen Faden, sagt man.

00:15:50: Aber wir bleiben kurz bei diesem Thema Jugendschutz und was machen die Plattformen?

00:15:53: und warum ist es nicht genug und so.

00:15:54: Und es gibt eine Studie, die die Cyber Security for Democracy an der New York University und der Nord-Eastern University vorgestellt haben.

00:16:03: Dazu gehört die Molly Rose Foundation, Fair Play und Parents SOS.

00:16:07: Also relativ viele Leute, die hinter diesem Bericht stehen, wie wir merken.

00:16:11: Aber eben auch ein Meta-Wüsselblauer, nämlich Arturo Behar.

00:16:15: Auch der hat an diesem Bericht mitgegeben.

00:16:16: Wirkt und die haben sich hier gemeinsam siebenundvierzig der dreiundfünfzig Funktionen angeschaut, die Meter für Jugendliche insgesamt eingeführt hat.

00:16:26: Und das Ergebnis ist die meisten dieser Entscheidungen oder nahezu alle.

00:16:31: sind entweder nicht mehr verfügbar, obwohl sie angekündigt wurden oder vollkommen unwirksam.

00:16:36: Also es gibt zwar ein paar, die den Schaden reduzieren würden, aber trotzdem erhebliche Einschränkungen aufweisen.

00:16:42: Nur acht Tools, die angekündigt waren, funktionieren ohne Einschränkungen wie vorgesehen.

00:16:47: Und generell ist eben der Bericht am Ende vernichtend, denn er sagt, das, was hier eigentlich für junge Menschen aber auf Meter geleistet werden soll, so was wir eben Teenager konnten oder so, funktioniert eben überhaupt nicht so, wie es geplant ist.

00:16:59: Also sie haben zum Beispiel zum Erstellen dieses Berichtes mehrere Accounts als Teenager angelegt, um das genauso zu testen, wie das eben Teenager auch testen wird.

00:17:08: Das Ergebnis war, sie haben trotzdem erwachsene Menschen als Freundschaftsanfragen oder als Vorschläge zum Folgen, so sagt man, angezeigt bekommen, obwohl das eigentlich explizit ausgeschlossen war.

00:17:18: Der Textfilter, der Schimpfwörter, Beleidigungen, bestimmte Begriffe filtern sollte.

00:17:25: Bei den meisten der Begriffen, die Sie hier benutzt haben, von denen Sie sagen, die waren schon sehr grob, ist ja gar nicht erst angeschlagen.

00:17:31: Also Sie sagen auch, uns wurden algorithmisch eine Reihe von gewalttätigen und verstörenden Inhalten empfohlen.

00:17:36: Darunter Reels von Menschen, die von Fahrzeugen angefahren werden, aus großer Höhe in den Tod stürzen oder Menschen, denen auf explizite Weise die Knochen gebrochen werden.

00:17:43: Also alles Dinge, bei denen man sich eigentlich denkt, A, kann das ein Algorithmus mittlerweile sehr klar erkennen, ob das hier ein drastischer Content ist oder nicht.

00:17:52: Und selbst wenn er das nicht kann, Allein durch die Art und Weise, was die Leute darunter kommentieren, könnte man das erkennen.

00:17:57: B. Kannst du so einen Chul nicht eigentlich auf die Leute loslassen, wenn das überhaupt nicht funktioniert?

00:18:08: Das ist richtig schlimm.

00:18:10: Das ist wirklich richtig, richtig schlimm.

00:18:12: Also was du gerade geschildert hast, Knochen werden gebrochen, jemand rasten Abgrund runter.

00:18:18: Das sind ja Szenen, die würden auch dich und mich erschüttern.

00:18:25: Also ich kenne mich mittlerweile gut genug, um mir sehr genau vorher zu überlegen, was gucke ich mir an, was gucke ich mir nicht an.

00:18:33: Also man kennt die eigene Schmerzgrenze, man kennt die eigene Verwundbarkeit.

00:18:38: Kinder, Jugendliche, die versuchen sich noch zu finden und Mut proben, ich meine wie oft TikTok Challenges, ja, müssen wir gar nicht weiter darüber reden, das kann echt nicht wahr sein.

00:18:50: Also ein Teil von mir winkt innerlich ab und denkt ja klar, aber dieser Teil darf ja nicht überwiegen, weil das halt, das macht es ja überhaupt gar nicht besser.

00:18:58: und ich habe das vorhin schon gesagt, ich kenne eine Zweitklässlerin, die hat ein eigenes iPhone und die hat ein TikTok Account.

00:19:07: Warum auch immer?

00:19:11: Deren Eltern haben sich in irgendeinem Moment überlegt, sie wollen aber Sperren einbauen in dieses iPhone.

00:19:19: Die weiß selber jetzt schon, wie sie diese Sperren umgeht.

00:19:22: Klar.

00:19:23: Ich habe, glaube ich, hier schon mal die Anekdote erzählt, dass mein Vater ja Software-Entwickler ist.

00:19:29: Der ist ja da, vielleicht habe ich das schon mal erzählt.

00:19:32: Der hatte so ein Time, also Windows, Wir reisen weit zurück in die Zeit, aber da war ich auch so, Zweitklässler oder so.

00:19:39: Winners um neunzig hatte eben noch so eine, du hattest noch eine Autoexec.bad, also eine, du konntest sozusagen, das war auf DOS basierend und genau darin hatte er so ein Zeitding programmiert, dass ich mich anmelde sozusagen und ab einer gewissen Uhrzeit geht der Computer einfach aus und fährt runter und so.

00:19:58: Und ich habe als mit sieben oder acht oder so verstanden, dass wenn ich Steuerung C drücke, bevor das ausgeführt wird, das nicht ausgeführt wird und ich dann sozusagen selber Windows starten kann und das Ding umgehen kann.

00:20:10: Natürlich finden junge Menschen Wege, sowas zu umgehen.

00:20:13: Das Problem ist nur hier, es geht ja gar nicht nur um die Sperren.

00:20:16: Es geht ja nicht darum, junge Menschen vor dem Fernzuhalten, was sie interessant finden, sondern hier geht es ja auch um Dinge, die junge Menschen ja auch vermutlich nach eigener Aussage gar nicht erleben wollen möchten.

00:20:25: Absolut.

00:20:26: Und hier geht es darum, dass erwachsene Menschen ihnen als Freunde vorgeschlagen wurden, obwohl das explizit ausgeschlossen werden soll.

00:20:33: Hier geht es darum, Also Sie sagen, am bedeutendsten an diesem Bericht ist, dass das Produktdesign von Meta selbst, wenn ein minderjähriger unerwünschtes sexuelle Ernährungsversuche oder unangemessene Kontakte erlebt, aus unerklärlichen Gründen keine wirksame Möglichkeit für den Teenager vorgesehen ist, das Unternehmen über diese Ernährungsversuche zu informieren.

00:20:52: Das heißt, es ist auch noch völlig zahnlos, sondern es gibt halt so, man gibt den Eltern das Gefühl, dass die Kinder sicher sind, aber es ist so... Ja, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der,

00:21:08: der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der,

00:21:18: der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, Ja, also Sie haben in dem Bericht auch festgestellt, dass Sie mehrere Accounts von Menschen gefunden haben, die unter dreizehn waren, zum Beispiel auch solche, die erst sechs Jahre alt waren.

00:21:34: Und die wurden durch den Algorithmus wohl häufig dazu angeregt, sexualisierte Verhaltensweisen wie anzügliche Tänze auszuführen.

00:21:39: Also das ist ein vernichtender Bericht.

00:21:42: Ja, und Pip Klöckner hat das letzte Woche hier gesagt, das ist ein Versagen der Plattform.

00:21:48: Gleichzeitig kann man die Eltern auch nicht ganz aus der Pflicht lassen.

00:21:51: Klar.

00:21:52: Das ist so.

00:21:53: Das Problem ist hier nur, finde ich, dass diese Schutzmaßnahmen für Teenager, für junge Menschen generell, dass die ja den Anschein erwecken für Eltern, die unbedarfter sind, die nicht im Thema sind, den Anschein erwecken, keine Sorge.

00:22:09: Wir können uns.

00:22:09: Das ist ja dieses Versprechen, weil in dem Moment... Also

00:22:13: wenn wir über zwölf oder vierzehnjährige diskutieren, okay, aber mit sechs.

00:22:16: Ja, das

00:22:17: ist,

00:22:18: da stimme

00:22:18: ich dazu.

00:22:19: Ja, da stimme ich, in dem Bereich stimme ich dazu.

00:22:22: Aber ich will, ich denke einfach nur an die, wahrscheinlich neun und neunzig Prozent der Menschen, die das benutzen, oder die Eltern sind von jungen Menschen, die das benutzen, zwischen, sagen wir, dreizehn und siebzehn.

00:22:32: Die sagen ja alle benutzen das, da benutzt das auch.

00:22:36: Aber es gibt Schutzmaßnahmen, da machen wir wenigstens das und habe kein schlechtes

00:22:39: Gefühl.

00:22:39: Und das ist ein Problem.

00:22:42: Ich erzählt, es ist ein bisschen abseitig, aber mich lässt das nicht los.

00:22:46: Ich kriegte am Dienstag vergangener Woche von einer Bekannten erzählt, dass ihr Teeniesohn viel Unterrichtsausfall hat in der Schule.

00:22:56: normal.

00:22:57: Und sie und andere Eltern in der Klasse ihres Sohnes haben eine Elternfreigabe für Spiele während der Schulzeit auf den Handys installiert.

00:23:08: So.

00:23:09: Und jetzt kommt raus, dass die Vertretungslehrer die Kinder während des Unterrichts, während des Vertretungsunterrichts auf den Handys satteln lassen und jedes Mal ploppt dann bei den Eltern eine Vernachrichtigung auf.

00:23:22: Und jetzt gibt es ein Gespräch mit der Schulleitung, wie das dann besser sein kann.

00:23:25: Ja, das verstehe ich wohl.

00:23:27: Wobei ich da eine Einschränkung habe, die ich auch schon mal hier erzählt habe, aber heute kommt ja alles zusammen.

00:23:32: Ich war ja, für die, die es nicht wissen, ich bin ja vor häufig in neunte Klassen gegangen und habe Medienkompetenztrainings in neunten Klassen gemacht.

00:23:39: Und da hatte ich ganz, also eine Anekdote kann ich genauso erzählen, sie ist aber exemplarisch für mehrere.

00:23:47: Die haben halt die... Kits, wie wir coolen Leute sagen.

00:23:51: Die Kits sitzen da ja nicht und spielen dann den ganzen Tag Fortnite drauf, sondern zum Beispiel ist ein Riesentrend unter fünfzehnjährigen Schach.

00:23:57: Die spielen Schach.

00:23:59: Und in dem Moment, in dem du als Lehrkraft, wenn du eh nix mit denen gerade zu tun hast, was ja passiert, in Freistunden zum Beispiel, denen das Schachspielen verbietet, das ist ja eine nicht erklärbare Willkür.

00:24:10: Das ist ja einfach nur...

00:24:11: Ich spreche in diesem Fall nicht von Schach.

00:24:14: Ich weiß.

00:24:15: Ich möchte ja nur sagen... Das Problem ist nicht, dass die Leute an das Handy dürfen.

00:24:19: Das Problem ist, was sie daran machen.

00:24:21: Und das Ärgerliche ist, dass es viele Lehrerinnen und Lehrer gibt, denen es egal ist, was sie da machen.

00:24:25: Entweder sie verbieten das Pauschal oder sie erlauben das Pauschal.

00:24:28: Aber lasst die Kinder doch am Handy Schach spielen.

00:24:33: Gut, dafür rufen wir jetzt eine Petition ins Leben, dass endlich Schach spielen, an deutsche

00:24:38: Stühlen

00:24:38: auf den... Das ist das große Problem hier.

00:24:44: Vielleicht können wir einfach, wenn es sich nicht mehr verhindern lässt, wenn wir gesellschaftlich politisch so weit sind, dass man TikTok einfach durch Schach ersetzt.

00:24:55: Von mir aus.

00:24:56: Aber du sprichst mit einer Frau, ich bin seit drei Wochen spielsüchtig.

00:24:59: Und ich wünschte, ich würde Schach auf meinem Handy spielen.

00:25:02: Aber es ist, ich glaube, sowas ähnliches wie Candy Crush.

00:25:06: Ich habe Candy Crush nie gespielt, weil ich mich auch gut kenne.

00:25:10: Ich hatte ein Gameboy, also bei uns zu Hause wurde auch sowas null geachtet.

00:25:13: Ich hatte eine Atari-Konsole, ich hatte dann eine Sega-Konsole.

00:25:17: Ich hatte ein Gameboy, es gab überhaupt keine Einschränkung.

00:25:20: Ich habe es hier, glaube ich, auch schon ein paar Mal erzählt, um das Ausmaß des Wahnsinns deutlich zu machen.

00:25:24: Ich hatte mit neun meinen ersten eigenen Fernseher.

00:25:27: So, und ich weiß, Wenn ich einmal anfange, höre ich nicht auf.

00:25:30: Und ich habe es jahrelang geschafft, mich zu drücken oder mich davon fernzuhalten.

00:25:35: Und jetzt habe ich aber leider mir den Spiel runtergeladen.

00:25:38: Eine Katastrophe.

00:25:39: Wie heißt das Spiel?

00:25:40: Es

00:25:40: wird es nicht mehr.

00:25:42: Warte, ich gucke mal eben, wie das heißt.

00:25:44: Ich habe mir davon auch zwei Versionen runtergeladen,

00:25:47: weil nach ein

00:25:48: paar Runden wirst du gesperrt und dann musst du immer zwanzig Minuten warten, bis du wieder weiterspielen darfst.

00:25:53: Und dann spiele ich so lange in der anderen Version.

00:25:55: Es heißt ... Royal Match oder Royal Kingdom?

00:26:01: Ah, das kenne ich aus der Werbung.

00:26:03: Das würde ich mir niemals inszenieren.

00:26:05: Ich liebe es.

00:26:06: Aber ich bin genau so.

00:26:07: Das wird

00:26:07: meine Karriere ruinieren.

00:26:10: Ich habe ja hier schon mal über so gewisse neurologische Dispositionen gesprochen.

00:26:14: die einem ja leichter in so einem Hyperfokus helfen.

00:26:17: Und das Problem bei so einem Hyperfokus ist aber, dass wenn der Hyperfokus sich dann halt leider mal gerade aus einem Spiel einschießt, wo ihr wochenlang nichts anderes macht als dieses Spiel zu spielen.

00:26:25: Und das weiß ich auch.

00:26:26: Und deswegen versuche ich mich davon fernzuhalten.

00:26:28: Ja, ja, ich habe es wirklich sehr lange erfolgreich geschafft.

00:26:32: Tatsächlich, ich glaube, seit Tetris.

00:26:34: Und jetzt ist ich schlafe zu wenig.

00:26:38: Also ich habe es jetzt glaube ich wieder im Griff, aber es gab so ein paar Tage.

00:26:43: Ich glaube, Suchtberate hätten eine sehr klare Meinung dazu, dass wenn du zugunsten eines Spiels auf Schlaf verzichtest, dass ein Problem vorliegt.

00:26:51: Ja, nichts anderes sage ich.

00:26:52: Also dafür bräuchte ich keine Experten.

00:26:57: Ich bin nicht stolz drauf, aber ich stehe wenigstens dazu.

00:27:00: Ich glaube, dem Peek habe ich hinter mir.

00:27:02: Wenn du willst, kann ich dir eine Elternfrage einrichten, dass ich als dein Vater, sozusagen, mich am Tiefen ausgebe.

00:27:08: Ach und du meinst, eine Zwei-Klässlerin kann sowas umgehen und ich schaff das nicht.

00:27:11: Na herzlichen Dank.

00:27:13: Ich sag dazu nix.

00:27:15: Junge Menschen, willkommen zu TikTok.

00:27:17: Wir müssen ein kleines Update, weil wir reden schon seit gefühlt Wochen darüber.

00:27:21: Wie ist jetzt der Verhandlungsstand zwischen China, Trump?

00:27:25: Beidens, den Investoren, es gibt einfach neue Infos.

00:27:28: Moment, China, ich muss mal was sagen.

00:27:30: Und das ist nämlich die Klemmer, ohne jetzt um Verständnis werben zu wollen.

00:27:35: Ich bin auch mal bei KI, der Amerikaner.

00:27:38: Die haben den großen Konkurrenten China vor der Nase, was KI angeht.

00:27:42: Und die wollen, das ist ja auch, also nichts anderes kann man eigentlich wollen, konkurrenzfähig bleiben.

00:27:50: Und wenn du eine, wenn du ein... Riesenapparat wie den chinesischen als direkten Konkurrenten hast, wo Regulierung komplett überhaupt gar keine Rolle spielt, dann hast du tatsächlich ein Problem, wenn du da mithalten willst.

00:28:03: Ja, das Problem ist, dass neben Tech das andere große Steckenpferd der USA eben nun mal Entertainmentindustrie ist.

00:28:10: und wenn du dir jetzt komplett vor den Zug schmeißt, dann machst du woanders eine, wie sagt man, eine Lücke auf.

00:28:17: So, Flanke, das Wort habe ich gesucht.

00:28:21: Ich kann mir nicht leicht diese Begriffe.

00:28:27: Es gibt ein paar Updates.

00:28:28: Und zwar hat Trump am Freitag, wie wir ja darüber gesprochen haben, eigentlich vorgehabt, eine fertig unterschriebene Vereinbarung zu zeigen, dass es ein Deal gibt.

00:28:38: Es gibt kein Deal.

00:28:39: Aber er hat am Freitag eine weitere Executive Order erlassen.

00:28:43: Die sagt, dass bis eine qualifizierte Veräußerung vor Läge die Gesetze außer Kraft getreten sind oder keine Anwendung finden.

00:28:52: Und dafür hat der Zeit jetzt ab dem fünfundzwanzigsten neunten, also ab Freitag, hundertzwanzig Tage.

00:28:56: Das heißt, Dreiundzwanzigste, erster, zweitausend, sechsundzwanzig.

00:28:59: Das hieße über ein Jahr hätte das gedauert zwischen Gesetz, trifft in Kraft und man hat irgendwie doch TikTok am Leben gehalten.

00:29:08: Wenn's denn kommt.

00:29:09: Wenn's denn kommt.

00:29:10: Zum

00:29:10: jetzt angekündigten Termin.

00:29:12: Ja wenn es sein kommt vielleicht wird es auch noch mal verlängert.

00:29:15: aber es gibt ein paar dinge die hoch interessant an diesem.

00:29:17: es gibt ein paar neue Details über diesen deal.

00:29:19: durchgesägt also vorne weg.

00:29:21: die us version von tiktok wird einen wert von vierzehn milliardendollar haben.

00:29:27: das ist.

00:29:28: Bemerkenswert.

00:29:29: Das ist sehr wenig.

00:29:30: JD Vance hat diesen Wert verkündet.

00:29:32: Und das ist vor allem deswegen so bemerkenswert wenig, weil, also allein Frank McCord, dieser Immobilienmogul, der Tiktokaufen wollte, hatte damals zwanzig Milliarden angeboten, ohne den Algorithmus.

00:29:44: Also der wollte schon deutlich mehr sein.

00:29:48: Aber das ist jetzt gerade so.

00:29:49: das, was kursiert.

00:29:50: Man muss sagen, es ist nur das Amerika-Geschäft, also es ist nicht das weltweite Geschäft.

00:29:53: Aber Twitter hat vierzig Milliarden Dollar gekostet, um das nach Hundert dranzuschieben.

00:29:57: Wahnsinn.

00:29:58: Ja.

00:29:59: Warum der Wert aber so niedrig sein könnte, das ist ein anderes Detail, das durchgesickert ist, lässt sich dadurch vielleicht erklären, weil ByteDance offenbar ... Fünfzig Prozent des Gesamtgewinnes von TikTok USA bekommt, plus einer zwanzigprozentigen Lizenzgebühr für den Algorithmus, obwohl Beidens nur neunzehnkommaneun Prozent am neuen amerikanischen Unternehmen TikTok halten wird.

00:30:20: Also die Zugeschlendnisse, die Trump da im Rahmen dieser Verhandlungen gemacht hat, müssen immens gewesen sein.

00:30:26: Also, dass man sagt, euch gehören neunzehn Prozent, wir nutzen eure Technologie, dafür kriegt ihr noch ein Lizenzgebühr und fünfzig Prozent unseres Gewinnes.

00:30:35: Also das ist ein guter Dealmaker, ist das nicht.

00:30:39: Ich wollte gerade sagen, das klingt wie der schlechteste Wirtschaftsminister aller Zeiten.

00:30:42: Ja,

00:30:44: das ist so.

00:30:45: Nur, dass er keine Wärme pumpen in die Küchen bauen will.

00:30:51: Naja, vorher ist er in dein Keller gegangen und hat deine Heizung daraus geklaut, ne?

00:30:55: Ja, stimmt.

00:30:58: Ja, also das ist auf jeden Fall, das sind ein paar Updates.

00:31:01: Es gibt noch ein paar weitere, die sehr interessant sind.

00:31:04: Also geschätzungen übrigens für den Wert über Weiteren, über das Amerika-Geschäft von Weiterens liegen eigentlich bei vierzig Milliarden Dollar.

00:31:12: Also da ist schon ordentlich ordentlich was passiert.

00:31:16: Und vor allem wenn du das vergleichst mit den Wertungen anderer Unternehmen.

00:31:19: Und ich bin nicht Klöckner, ne?

00:31:21: Ich bin kein Experte für Zahlen.

00:31:23: Aber... Meta z.B.

00:31:25: wird mit dem zehnfachen seines Umsatzes bewertet.

00:31:29: Heißt, du nimmst den Jahresumsatz, rechnest mal zehn, das ist die Bewertung des Unternehmens.

00:31:32: Elfebett des Unternehmens hinter Google und YouTube, achtfacher Umsatz.

00:31:37: vierzehn Milliarden Dollar für das US-Geschäft wäre eins, vierfach des Umsatzes.

00:31:42: Unternehmen, die eine ähnliche Bewertung haben, sind Exxon Mobile Corp.

00:31:45: oder General Mills, Unternehmen mit sehr geringem Wachstum.

00:31:49: Der Senior Equity Advisor für Asiatische Technologie bei Union Banker Privé, also jemand, der sich mit Zahlen offen auskennt, hat gesagt, dieser Wert kommt einer regelrechten Abzocke gleich.

00:32:03: Ich finde das schön.

00:32:06: Man verscherbelt es ein, man lässt es verscherbeln, man kümmert sich einfach oder man macht einfach so Adil zu, wo man sich so denkt.

00:32:13: Okay.

00:32:14: Interessant auch, dass...

00:32:15: Sollte Donald Trump gar nicht so großartig sein, wie er immer behauptet?

00:32:20: Wird es Zeit, darüber mal nachzudenken, dass das möglich sein könnte?

00:32:23: Ja, es wird auf jeden Fall nicht nur amerikanisch, auch das ist eine neue Information, denn zu diesem Investoren-Kollektiv liegt auch, gehört auch neben Oracle, neben den Murdocks, neben Silver Lake und Private Equity-Gruppe, neben Dell, einen Namen, den wir hier noch nicht so richtig genannt haben, der aber wohl auch in dieser Liste steht, aber auch MGX.

00:32:42: Das ist ein Investorenkonglomerat, die zu den Scheiche gehören, die aus Abu Dhabi kommen.

00:32:49: Also, das ist so eine Ölconnection, die da gerade aufgemacht wird, um irgendwie an das Geld zu kommen, um TikTok zu bezahlen, wobei man sagen muss, vierzehn Milliarden Dollar hätte, wahrscheinlich Larry Ellison, wahrscheinlich aber alleine außer...

00:33:00: Ja, oder Elon Musk.

00:33:01: ...schüttelt.

00:33:02: Oder Elon Musk, aber der durfte wahrscheinlich keine Dealsvorschläge angeben.

00:33:08: Angebote, so heißt es.

00:33:11: Und was auch neu ist, dass es nicht nur TikTok betreffen wird, dieser Deal, sondern alle Apps, die von weiter entstammen.

00:33:20: Also TikTok, TikTok Studio, CapCut, Lemonade, Lark, Gorth und Marvel Snap.

00:33:27: Was deswegen vor allem sehr interessant ist, weil, also, darüber hat man ja bislang gar nicht gesprochen über diese ganzen Dinge.

00:33:37: Das sind Details.

00:33:41: Mit so was wollen wir uns nicht aufhalten.

00:33:43: Ich hab das Gefühl,

00:33:45: das

00:33:45: ist so eine Geschichte.

00:33:46: Du kramst und kramst und du kommst jedes Mal, komm da neue Details zu Tage, wo man jedes Mal sagt... Also muss das so sein?

00:33:54: Ist das richtig, dass das jetzt nur vierzehn Milliarden kostet?

00:33:56: Ist es richtig, dass fünfzig Prozent an Beitrag ins China überwiesen werden?

00:34:00: Ist es richtig, dass da auch Lemonade und CapCut zu gehören?

00:34:03: Ich frage mich aber sowas dann, ob die politisch involvierten in den USA.

00:34:07: Wir erinnern uns an Anhörungen von Max Zuckerberg, ob denen wirklich die Dimension dessen klar ist, worauf die sich da einlassen.

00:34:16: Ich habe noch eine, ich kann direkt, ich kann verschwörerisch darauf antworten.

00:34:23: Das wirkt alles so.

00:34:25: Es ist gar nicht wahrscheinlich nicht so verschwörig, weil es liegt ein bisschen auf der Hand.

00:34:28: Es wirkt alles so, also warum sollte denn Beidens nur vierzehn Milliarden Dollar nehmen?

00:34:34: Weißt du, warum sollten die, was haben die denn von dem niedrigen Wert, was eine schwächere Verhandlungsposition sozusagen eigentlich für Beidens und für China ausmacht?

00:34:42: Naja, das wirkt alles so, als würde man jetzt hier sozusagen für die Öffentlichkeiten einen großen Verkauf inszenieren, der aber am Ende eigentlich kaum Veränderungen mit sich bringt.

00:34:51: Also klar, die Daten liegen dann in Texas, ja, aber... Die Gewinne werden großteils oder zumindest zur Hälfte nach China überwiesen.

00:34:59: weiterhin.

00:35:00: Es gibt Lizenzzahlungen, die noch obendrauf kommen, die sozusagen unabhängig vom Gewinn sind.

00:35:04: Die Infrastruktur ist de facto entwickelt worden aus China, obwohl die USA dann ein bisschen daran rumdoktern durften.

00:35:11: Also es fühlt sich nicht so wirklich wie ein Deal an, an dem am Ende wirklich ein amerikanisches Unternehmen sicherstellt, dass das hier ein amerikanisches Unternehmen ist, das amerikanische NutzerInnen schützt.

00:35:24: Deal, bei dem die Chinesen sagen können, hier guck mal.

00:35:30: Wir haben es geschafft, TikTok ist verboten und wir trotzdem noch genutzt.

00:35:33: Das kann die Chinesen sagen.

00:35:35: Ganz genau.

00:35:36: Und das ist auf der praktischen Ebene und auf der Meta-Ebene ist es zu sagen, Donald Trump.

00:35:45: Wer ist Donald Trump?

00:35:47: Es ist aber auch ein klassischer Donald Trump-Move, das genauso einzufädeln finde ich.

00:35:52: Es gibt dazu, wir haben, eine Sache ist ja immer noch unklar.

00:35:55: Und zwar, was ist eigentlich mit uns?

00:35:57: Welches TikTok werden wir denn jetzt in Deutschland nicht nutzen wollen, wenn wir es trotzdem auf dem Handy haben?

00:36:02: Die

00:36:03: Kinder an verbieten.

00:36:04: So wie Nicole mit ihrem Clash of Clans oder was sie da spielt.

00:36:09: Nee, das ist böse.

00:36:11: Clash of Clans ist sehr dumm.

00:36:12: Das, was ich spiele, ist nur ein bisschen stumpf.

00:36:16: Royal Kingdom.

00:36:17: Royal Kingdom.

00:36:18: Ich werde mir das im Anschluss installieren gleich.

00:36:21: Na jedenfalls.

00:36:22: hat Loyaldo im Discord.

00:36:23: Es gibt einen Haken im Discord, muss ich kurz dazu sagen, für die, die es nicht wissen, da sind über zwei Tausend Leute mittlerweile und wir tauschen uns da, es läuft die ganze Zeit eigentlich in dauerhafter Strom von schlauen Menschen, die sich über Social Media, KI, Politik, über all diese Dinge austauschen, über die wir hier im Podcast reden.

00:36:39: und Loyaldo hat dazu reingeschmissen, dass Bidance eigentlich gar nichts davon hat, wenn Australien oder Europa das amerikanische TikTok nutzen würden und sie da vielleicht ein Argument hätten, dem Deal eher nicht zuzustimmen, wenn es diese amerikanische App denn auch außerhalb der USA gäbe.

00:36:58: Also, dass nach seinem Verständnis eigentlich das amerikanische TikTok Amerika exklusiv sein wird.

00:37:04: Und ich denke, das kann man so lesen.

00:37:05: Man kann aber auch sagen, Wenn's eh linke Tasche, rechte Tasche ist, auch wurscht eigentlich am Ende.

00:37:11: Ja, genau, würde ich auch sagen.

00:37:13: Es ist ja nix geworden, nix verloren.

00:37:15: Also ich kann's noch nicht ganz, ganz antizipieren.

00:37:19: Ich weiß es noch nicht.

00:37:20: Aber ich könnte mir vorstellen, dass hier beide Apps bekommen werden, weil Donald Trump und diese ganzen Larry Ellisons, die da um ihn herumstehen, natürlich so ein bisschen darauf schielen, den großen, fetten globalen Fisch an Land zu ziehen.

00:37:34: Du, bis Januar ist ja noch ein bisschen Zeit.

00:37:36: Wer weiß, was bis dahin noch alles rauskommt oder auch nachverhandelt wird.

00:37:40: Auch das ist möglich oder was noch kassiert wird, das gesagt wird.

00:37:43: Nein, machen wir nicht.

00:37:44: Ich will heute noch kurz eine Geschichte sagen, bevor wir weitergehen.

00:37:48: Weil auch da im Discord diskutiert wurde, dass das ja gar nicht sinnvoll ist, wenn CapCut auch nicht von weiterhin betrieben wird oder nicht, warum es eine eigene Version gibt und so.

00:37:57: Muss man dazu sagen, dass CapCut immer in einer Anekdote gibt, dass Mitarbeitende der amerikanischen Regierung mithilfe von CapCut ausspioniert wurden.

00:38:06: Also die App CapCut hatte Zugriff auf die Standortdaten, die dann sozusagen immer mal wieder abgerufen wurden.

00:38:12: Und CapCut wird eben auch nicht vom singapurischen TikTok Limited betrieben, sondern vom Chineen.

00:38:17: den islischen White Dance nach wie vor.

00:38:19: Bedeutet, dass CapCard amerikanisch wird, ist am Ende vielleicht sogar die größere Geschichte, als das TikTok halb amerikanisch wird.

00:38:29: Alles schlimm.

00:38:30: Ja.

00:38:30: Und wir bleiben schlimm.

00:38:31: Der Podcast.

00:38:33: Alles schlimm, der Podcast.

00:38:35: Das ging teilweise in deinem alten Format eigentlich.

00:38:37: Du hast ja vor Hopful News gemacht, wir machen hier...

00:38:39: Ja.

00:38:40: Aber das lief ja nicht, dann mache ich jetzt halt das Gegenteil alles schlimm.

00:38:44: Also du stehst bei so zusammen vom brennenden Haus und früher hast du erklärt, dass man aus den Rohstoffen jetzt ein neues Haus bauen könnte und jetzt stehst du daneben und filmst.

00:38:53: Ja, ist einfacher.

00:38:55: Ist einfacher.

00:38:56: Warum mache ich es mir denn immer so schwer?

00:38:59: Also es gibt eine Untersuchung der Datenschutzbeauftragten in Kanada, wie TikTok eigentlich mit Kindern auf ihrer Plattform umgeht.

00:39:08: Lass

00:39:08: mich raten.

00:39:09: Ja, wir bleiben heute, wir sind so ein bisschen heute in der Welt.

00:39:13: Willst du mal eine These aufstellen, was der Fazit dieses Berichtes ist?

00:39:17: Ja, verheerend ist das Fazit.

00:39:19: Tiktok hat auf rund unzureichender Maßnahmen zur Altersüberprüfung die personenbezogenen Daten einer großen Anzahl kanadischer Kinder erfasst, darunter auch Informationen, die die Behörden als sensibel einstufen.

00:39:29: Also zum Beispiel biometrische Daten wie Gesichtsdaten und Stimmdaten, die in Videos veröffentlicht wurden, wurden von Tiktok gespeichert und dann unzureichend gespeichert oder mit ihnen gearbeitet.

00:39:42: Ich bin ja Mutter und vielleicht werden wir einfach amisch.

00:39:46: oder jüdisch-orthodox und ich verbiete sämtlichen Umgang mit elektronischen Geräten aus religiösen Gründen.

00:39:52: Dann kommt mein Kind überhaupt nicht erst in Kontakt mit all dem.

00:39:58: Ich war noch nicht zu Ende mit den düsteren Geschichten.

00:40:00: Also vielleicht brichst du jetzt gleich nach deinem Telefon durch.

00:40:04: Und zwar war es womöglich bei TikTok auf der einen Seite Werbung zu schalten, die sich explizit an Transpersonen gerichtet hatte.

00:40:13: Interessant ist, weil eigentlich dieser Status ja überhaupt nirgendwo angegeben wird, also nur erfasst wird aus den Nutzungsdaten.

00:40:20: TikTok selber hat angegeben, dass sie das inzwischen entfernt haben und dass es offenbar explizit möglich war und das finde ich fast noch abstruser als werbetreibender Nutzer in unter achtzehn Jahren gezielt anzusprechen.

00:40:33: Da gehören ja zwei zu, also das Unternehmen, das die Fläche bietet und das Unternehmen oder die Unternehmen, die die Fläche mieten.

00:40:41: Du hast natürlich recht, aber das Werbegeschäft ist, wie das Werbegeschäft Nummer ist.

00:40:46: Wenn ich jetzt am Freitagnammetag oder am Samstagmorgen auf SuperRTL den mir ein Werbeblock anschaue, dann läuft er auch nicht Werbung für Tina Ladies, sondern läuft der Werbeblock für Playmobil, für Kinder Streamingdienste und vielleicht für Clara Seel, wenn das Format für Pubertierende interessant ist.

00:41:01: Und das ist, wie das Werbegeschäft läuft.

00:41:04: Warum sollten, also das ist fast eine rhetorische Frage jetzt,

00:41:09: aber ... Ja, würde ich mir abends im Privatfernsehen oder Nachts Sort III angucken und da wird dann Werbung für Playmobil geschaltet, dann würde der Vergleich stimmen und da würde ich mich dann doch sehr wundern.

00:41:23: Verstehst du, wie ich meine?

00:41:25: Das ist ja das Umfeld.

00:41:27: Ich verstehe, wie du meinst, aber wenn ich jetzt zum Beispiel ein Pickle-Produkt herstelle und mir also Gelegenheit macht die, sagt man ja, wenn mir die Möglichkeit geboten wird, die für Pubertierende auszuspielen, Perfekt.

00:41:40: Aber du bist doch linksextremist.

00:41:41: Also was bist du denn gerade so kapitalismusfreundlich?

00:41:43: Ich denke, das hatte man längst rausgefunden.

00:41:45: Warum versteckst du dich denn jetzt plötzlich hinter so einer unternehmerfreundlicheren Maske?

00:41:50: Nicole, ich muss mystisch

00:41:51: bleiben.

00:41:52: Ja, nee, du hast mit, du hast auch mit irgendeinem Deal.

00:41:55: Mit, mit Klerasil.

00:41:58: Da kann ich nicht da... Gibst du.

00:42:01: Da könnte ich jetzt ein ganz großes Fass aufmachen, weil... Ja, vielleicht machen wir das mal ganz kurz.

00:42:06: Wir schweifen kurz ab.

00:42:08: Also sehr völlig untypisch.

00:42:12: Ich habe mir das nicht zurechtgelegt, aber da wurde ich sehr sehr sehr häufig darauf angesprochen.

00:42:16: Also wir haben in diesem Podcast ja in der Regel ein Werbespot.

00:42:18: Der innerhalb also in der ersten Hälfte der Episode ist immer ein Werbespot.

00:42:22: Und da können sich Unternehmen einbuchen.

00:42:23: Die Werbung wird vermarktet von Heise.

00:42:25: Das ist der Verlag.

00:42:26: Die CT erscheint im Heise Verlag.

00:42:28: Und wir eben auch.

00:42:29: Wir gehören zur CT.

00:42:30: Das ist hier der Deal.

00:42:32: Ich habe A. Kein Einfluss darauf, was die Unternehmen in der Werbung scheiten.

00:42:35: Und B. heißt, dass ein Unternehmen Werbung schaltet.

00:42:39: auch nicht, dass die auf mich zugehen und sagen, du musst aber jetzt bei uns bitte wohlwollender berichten.

00:42:43: Und jetzt hat TikTok hier Werbung geschaltet?

00:42:46: Ich möchte den Rest erzähle ich privat.

00:42:49: Aber ich wollte zumindest einmal ganz kurz klarstellen, dass es keinerlei Verbindung zwischen den Unternehmen, die Spots schalten.

00:42:55: Es ist was anderes, wenn es Werbung gibt, die ich selber lesen würde.

00:42:59: Auch da gibt es manchmal Fragen, auch das haben wir hier in der Vergangenheit schon mal gemacht.

00:43:02: Und da sind wir immer relativ klar darin, dass es keine Unternehmen sind, über die wir auch berichten.

00:43:07: Sondern dass es Unternehmen sind oder Werbetreibende, die zwischen denen und mir, kann es ein geschäftliches Verhältnis geben, weil es kein publicistisches Verhältnis gibt.

00:43:17: Das ist aber eben bei Unternehmen, die hier einfach einen Spot schalten, was anderes.

00:43:20: Und deswegen habe ich da keinen Einfluss drauf.

00:43:22: Und ich höre mir das dann auch nachher nicht an, wer hier Wärmung schaltet.

00:43:25: Also... Nur einmal um das klarzustellen, nicht, dass ihr Sorgen habt, dass wenn ihr jetzt hier ein Unternehmen werbungsschaltet, dass wir hier sprechen, dass das irgendeinen Einfluss darauf hat, wie wir über diese Unternehmen sprechen.

00:43:36: Viele Leute werden sich jetzt vergangene Folgen anhören und versuchen

00:43:40: rauszufinden,

00:43:41: worauf konkret du anspielst.

00:43:42: Die werden das alle gehört haben.

00:43:47: Nicht diejenigen, denen du mich zum Beispiel noch mal vorstellen musstest.

00:43:50: Das stimmt.

00:43:51: Ja, aber dann ist es für die eine ganz grundsätzliche Information.

00:43:55: Dann ist es auch grundsätzlich gut, wenn die sich noch mal schlau machen und alles seit zweitausend Sachschnell.

00:44:00: Zweiundzwanzig.

00:44:01: Wann hat das hier angefangen?

00:44:02: Vor

00:44:02: drei Jahren, ja.

00:44:03: Zweitausend.

00:44:03: Ja.

00:44:04: Zweiundzwanzig.

00:44:04: Ja.

00:44:05: Ja, dann haben die ja noch ein bisschen was vor sich.

00:44:06: Das ist doch

00:44:07: schön.

00:44:07: Ja, man kann so gut.

00:44:08: Man könnte sich die Folgen aller noch mal an.

00:44:10: Kann so ein paar Stunden hören.

00:44:11: Um die TikTok-Geschichte kurz abzuschließen, als Trump das alles vorgestellt hat.

00:44:15: Wir gehen schon wieder weg von Kanada, ne?

00:44:17: Vernichtener Bericht.

00:44:18: Schlimm.

00:44:19: Alles schlimm der Podcast.

00:44:20: Aber ich glaube, so heißt die Folge heute.

00:44:22: Aber Trump hat übrigens Freitag noch gesagt, wenn er könnte, würde er TikTok zu einhundert Prozent Maga machen.

00:44:29: Aber die Möglichkeit hat er nicht.

00:44:30: Und er sagt, jeder wird verhandelt, jede Gruppe, jede Weltanschauung, jede Politik.

00:44:34: Und das sind Worte, an denen wir ihn in vermutlich einem Jahr, in einem halben Jahr messen werden und feststellen werden, das waren leere Versprechungen.

00:44:41: Ich sag Nordrimi Kimmel.

00:44:44: Gut, das reicht dann auch.

00:44:47: Möchtest du noch ein bisschen über X sprechen oder möchtest du so dass wir die gemischt waren Kiste aufmachen?

00:44:55: Ist X auch so schlimm?

00:45:00: Es sind nur kleine Informationen, aber ein bisschen schlimm schon.

00:45:03: Also, dann machen wir das.

00:45:04: Entscheide du.

00:45:05: Forbes berichtet, dass XAI und die Trump-Regierung, die General Services Administration, also der Apparat, der die Behörden am Laufen hält in den USA, dass die ein Deal darüber geschlossen haben, dass die GROC AI in diesem Unternehmen genutzt werden kann, somit GROC for Government und zwar für zweiundvierzig Dollar pro Behörde für achtzehn Monate, nee, zweiundvierzig Cent pro Behörde für achtzehn Monate.

00:45:32: Das sieht dieser Deal vor.

00:45:34: Das ist relativ wenig, aber diese Grock for Government Deals oder überhaupt diese AI for Government Deals sind häufig relativ günstig.

00:45:41: Also Chatchi Pity Enterprise kostet ein Dollar pro Behörde, Entropic hatten Deal, Claude hatten Deal, die sind auch alle bei einem Dollar pro Behörde.

00:45:48: und Gemini von Google nimmt auch nur siebenvierzig Cent pro Behörde, also um da direkt zu sagen, das ist... günstiger als die anderen, aber es ist jetzt auch kein Dumpingpreis im Vergleich zu anderen Deals.

00:45:59: Es ist günstig, aber diese Deals sind eben deswegen so günstig, weil sie im Verhältnismäßig groß sind und weil sie eben auch, na ja, wie sagt man, prestigeträchtig sind.

00:46:09: Du möchtest natürlich gerne die Regierung ausstatten mit deinen Deals und du hast natürlich auch Bock auf langfristige Verträge und es gibt natürlich auch einige, schon einige Bundesbehörden in den USA, also es ist jetzt nicht so, dass nur sechs Dollar überwiesen werden

00:46:22: im Monat.

00:46:25: Ja, und also es ist ja für beide, es geht ja in beide Richtungen, also ich würde es auch für zwanzig Cent wahrscheinlich machen, wenn ich die Daten dann alle abgreifen könnte, die ich da eingeschweiß kriege.

00:46:36: Ob das geht?

00:46:37: Also vermutlich wird das gehen.

00:46:39: Aber offiziell könnte ich mir vorstellen, dass das der Vertrag ausschließt.

00:46:42: Interessant finde ich aber, dass das vor allem jetzt ein Deal ist, der so ein bisschen auf die wieder zugenähten Risse im Verhältnis zwischen Musk und Trump schließen lässt.

00:46:51: Also die beiden saßen bei der Trauerfeier für Charlie Körke schon zusammen und haben so rumgekumpelt so ein bisschen.

00:46:58: Und jetzt gibt es eben hier diese Ankündigung kurz danach.

00:47:00: Das ist sicherlich kein Zufall.

00:47:03: Man schlägt sich, man verträgt sich.

00:47:05: Ganz genau so.

00:47:06: Apropos Schlagen, der Volksverpätzer versucht ex vor Gericht gerade zu zerren und bei denen zu erwirken, dass Fake-Accounts endlich offline genommen werden.

00:47:15: Vertreten werden Sie von unserem Kollegen Junge Jun, liebe Grüße, der Haus und Hof Anwalt dieses Podcasts.

00:47:22: Und die Geschichte ist vor allem deswegen so interessant.

00:47:24: Also das Verfahren hat am Freitag begonnen, ist aber natürlich noch nichts Ende gegangen.

00:47:27: Wir werden da immer mal wieder drauf schauen.

00:47:29: Aber interessant ist, die haben, also der Mensch, der diesen Text geschrieben hat, Thomas Laschik heißt der, der hat festgestellt, dass es Fake-Accounts gibt, die Verleumdung und Beleidigung unter seinem Namen auf Ex-Posten und hat das versucht zu melden.

00:47:47: X hat nichts gemacht.

00:47:48: Also hat er John Jo Joon als Anwalt eingeschaltet, weil eben hier recht verletzt wurde und ist damit vor Gericht gegangen.

00:47:55: Und er lässt das über den Volksverpetser laufen oder über sich?

00:48:00: Also wer klagt?

00:48:01: Er oder der Volksverpetser?

00:48:03: Also das kann ich dir gerade gar nicht sagen.

00:48:05: Volksverpetser verklagt X ist die Schlagzeile.

00:48:09: Okay.

00:48:11: Na jedenfalls.

00:48:13: Aber ich muss einmal

00:48:14: nachfragen.

00:48:16: Warum der Volksapetzer?

00:48:17: Also Armin Wolff hat ja zum Beispiel auch selber versucht.

00:48:20: Ja, und nicht sein Sender.

00:48:22: Das ist interessant.

00:48:23: Der hat das in der Tat interessant.

00:48:25: Aber das müsste schon so tun, wahrscheinlich besser beantworten können als ich.

00:48:28: Ich saß nicht vor Gericht.

00:48:29: Hoffen

00:48:29: wir es.

00:48:30: Wenn der Prozess öffentlich ist, setze ich mich irgendwann mal da rein.

00:48:33: Der Gerichtsort wird ja wahrscheinlich erreichbar sein für mich.

00:48:39: Ist es interessant, dass X gesagt hat, sie konnten nämlich nachgehen diesen Meldungen, weil sie zu wenig Informationen hatten über diese Meldungen.

00:48:48: Was deswegen interessant ist, weil die Meldungen mit ihrem Meldephomular durchgeführt wurden.

00:48:54: Das Gericht hat sich das angehört, diese Argumentation von den Anwälten Chante June und Jessica Flint.

00:48:59: Und er hat gesagt, das ist natürlich hochinteressant, dass ihr dem nicht nachgehen könnt, obwohl ihr eigentlich selber dieses Formular in die Welt gesetzt habt.

00:49:08: Aber offenbar ist dieses Formular dann einfach nicht ausreichend, um daran zu arbeiten.

00:49:12: Und was Chante June in seiner Verteidigungslinie auch gemacht hat, das finde ich ganz toll.

00:49:17: Ex hat auch gesagt, in dem Briefverkehr, der vorweg stattgefunden hat.

00:49:21: Hat auch gesagt, dass es mit maschinellen Möglichkeiten kaum machbar sei, Fake-Accounts zu identifizieren.

00:49:27: Also hat Shanzhou Jun Grock beauftragt, diese Fake-Account zu finden und hat das auch mit Vorgericht gebracht, dass Grock diese Fake-Accounts identifiziert hat und hat gesagt, ihr habt die Technologie ja sogar im Haus.

00:49:37: Also ich finde, das ist ein ganz toller Krimi.

00:49:40: Wir werden das ein bisschen dran bleiben und uns das mal anschauen, wie das da weitergeht.

00:49:44: Haken bleibt dran.

00:49:46: So.

00:49:46: Schöne Geschichte.

00:49:49: Ansonsten, jetzt kommen wir in die Gemischtwahn-Kiste.

00:49:52: Wir sind schon bei fünfzig Minuten, wir machen nicht so viel.

00:49:54: Aber zwei, drei Sachen habe ich noch, die interessant sind.

00:49:57: YouTube hatte ja angekündigt, wir haben das ja unter das Motto, wir werden uns viel verzeihen müssen gestellt.

00:50:02: Die Leute, die Desinformationen während Corona verbreitet haben und deswegen gesperrt wurden, wieder zu begnadigen sozusagen, dass die wieder ihre Inhalte erstellen können, haben das aber noch nicht umgesetzt.

00:50:13: Das wussten aber Nick Fuentes und Alex Jones nicht, die sich YouTube-Accounts angelegt haben.

00:50:18: die umgehend wieder gesperrt wurden, mit Verweis auf die Regeln, dass die neue Stellung von Kanälen durch zuvor der Plattform verwiesener Nutzer ein Verstoß gegen die Nutzungsbedingungen von YouTube ist.

00:50:30: Alex Jones macht natürlich deswegen direkt Welle und sagt, es gibt hier ein Sensorkrieg gerade.

00:50:34: Na klar, so.

00:50:36: Aber es ist ... Ist ja

00:50:37: wie in Europa.

00:50:38: Es geht aber sogar noch weiter.

00:50:39: Es ist wie in Deutschland.

00:50:40: Man kann ja gar nichts mehr sagen.

00:50:41: Nee, Trini Bands hat dann sehr

00:50:43: wahres Wort gesprochen.

00:50:45: Es geht aber sogar noch weiter.

00:50:47: Alex Jones und Nick Feuentes wurden gar nicht wegen desinformationen während Corona von der Plattform gesperrt, sondern wegen Hassrede.

00:50:53: Und Leute, die wegen Hassregel gesperrt wurden.

00:50:55: Die

00:50:56: bleiben auch gesperrt.

00:50:56: Die bleiben auch gesperrt.

00:50:58: So.

00:51:00: Und jetzt sagt Alex Jones, ach so, ja, okay, dann war es Missverständnis.

00:51:04: Dann ist es richtig.

00:51:05: Ja.

00:51:06: Sorry.

00:51:07: Hätte

00:51:07: man ihm halt sagen müssen, ja gut.

00:51:08: Ja gut, aber da liegt der Fehler bei YouTube.

00:51:10: Da muss man auch sauber kommunizieren, worum es jetzt genau geht.

00:51:14: Er finde ich auch.

00:51:15: Also das Problem ist aber, das ist leider gar nicht nur eine lustige Geschichte,

00:51:21: wie

00:51:21: sich Rechtsextreme im Account erstellen, überschlagen und verschlucken.

00:51:26: Denn das Problem ist natürlich, dass jetzt schon erste Leute wie zum Beispiel Jim Jordan, der ist ein Republikan im Repräsentantenhaus, schon das zum Anlass nimmt, Google der Lüge zu bezichtigen, weil eben nicht alle gesperrten Nutzer zurückkehr auf die Plattform.

00:51:40: gebracht werden.

00:51:41: Das hat Google und YouTube zwar nie versprochen, aber diese Möglichkeit, dass das so interpretierbar war, führt jetzt dazu, dass man sich, dass man wieder mal eine Angriffsfläche bietet für, wir werden hitzensiert durch wem auch immer.

00:51:56: Angriffsfläche bietet, finde ich, hat sich mittlerweile so eingebürgert.

00:52:01: Es ist egal, was man macht.

00:52:03: Die finden eine Angriffsfläche.

00:52:07: Es gab am Freitag, vergangener Woche, ein Sketch in der Heute

00:52:11: Show.

00:52:12: Da schaltet ... Das sind

00:52:13: die zehn Jahre zwischen uns, hab ich nicht geguckt.

00:52:18: Ich guck das tatsächlich auch nicht so oft.

00:52:20: Und wurde aber darauf hingewiesen und hab mir diese Sequenz angeguckt.

00:52:26: Wenn das läuft, leg ich im Bett.

00:52:31: Das ist der Trick in meinem Alter.

00:52:36: Es gibt ein fiktives neues Format, das heißt, die Heute Show jetzt erst rechts.

00:52:42: So,

00:52:43: und der Moderator dieser Show, also Erzkonservativ, sagt Oli Welke, hier, pass auf, verdient, lass mich nicht muntern, lass mich nicht canceln.

00:52:53: Und ich weiß, ich kündige eine Folge an, wie Luisa Neubauer ein Hunde-Welpen mit einer Wärmepumpe erschlägt.

00:53:03: Also als Sättik aufgetragen.

00:53:05: Und dann sagt er, ich weiß, was jetzt passiert, sie werden mich canceln.

00:53:08: Darüber habe ich mein neues Buch geschrieben.

00:53:12: an der Ausübung freier Meinungsäußerung gehindert wurde.

00:53:15: und dann sagt, Oli Welke, ne, hab ich gar nicht vor, sie zu canceln.

00:53:18: Und dann hält der, dieser neue Moderator in zweites Buch in die Höhe und sagt, darauf hab ich mich auch schon eingestellt, ich hab ein Buch geschrieben, wie Oli Welke mich daran gehindert hat, mich zu inszenen, als Opfer einer, einer Cancel-Aktion, die dumme Sau.

00:53:29: So funktioniert das.

00:53:30: Also, du bietest keine Angriffsfläche, sondern es wird krampfhaft irgendeine Angriffsfläche gesucht.

00:53:35: Und es gibt genug dumme Leute, die tatsächlich meinen, da wär dann wirklich ne Angriffsfläche gewesen, so wird ich's formuliert.

00:53:42: Also sehr griffig.

00:53:43: Vielleicht kann ich das aber auf eine einfache Formel bringen, aber du weißt, was ich meine.

00:53:46: Ja, ich weiß total, was du meinst, aber es ist deswegen interessant, weil YouTube diese Ankündigung ja schon auch gemacht hat, als Zugeständnis an diesen sogenannten Vibe-Shift, den es gerade gibt oder der immer wieder unterstellt wird.

00:53:58: Und dass das immer noch nicht genug ist, also dass man sozusagen, es ist der kleine Finger, ne?

00:54:02: Ja, wo sind die Demokraten?

00:54:03: Also, dass Kamala Harris jetzt versucht, sich irgendwie reinzuwaschen und jetzt ein Buch geschrieben hat darüber, wie schlecht Joe Biden sie behandelt hat.

00:54:12: Okay, aber da muss ich doch jetzt nicht die ganze Partei drum kümmern.

00:54:17: Ich habe noch eine kleine, eine letzte Notiz und dann gehen wir in unsere Rubriken.

00:54:22: Es gibt jetzt in den USA gerade eine App, die total durch die Decke geht.

00:54:25: Platz vier der meist geinstallierten Apps vor Google und WhatsApp mit der Namen Neon Money Talks.

00:54:31: Und da kannst du, also das iPhone gibt dir die Möglichkeit inzwischen, dass du Telefongespräche mit aufzeichnest und das Material dann hast.

00:54:39: Wenn du dieses Material dann an dieser App weitergibst.

00:54:42: Dein Telefonat sozusagen aufzeichnen lässt von dieser App kriegst du fünfzehn Cent pro telefonierte Minute und kannst bis zu dreißig Dollar am Tag bekommen.

00:54:51: Neon hat versprochen, dass diese Aufnahmen dann von persönlichen Daten bereinigt werden.

00:54:55: Na klar, um sie dann nach an Unternehmen für KI Training weiter zu verkaufen.

00:55:00: Keine Sorge, unsere Technik filtert automatisch Namen, Nummern und andere Details heraus.

00:55:04: Ja, na ja, weiß man nicht.

00:55:07: Aber das ist vor allem deswegen interessant, weil also wenn die Leute sich das jetzt alle installieren.

00:55:12: Bedeutet, dass ja nicht zwangsläufig, dass das gegenüber auch immer war ist, dass diese App mitläuft.

00:55:16: Genau.

00:55:17: Und das finde ich wahnsinnig schockierend, dass man für diese fünfzehn Cent pro Minute am Travel alles macht.

00:55:24: Ja, wollte ich gerade sagen, für Geld tun manche Leute alles.

00:55:27: Ja.

00:55:28: Aber ich denke, die Daten sind sicher.

00:55:29: also von daher.

00:55:30: Ja, was soll er

00:55:31: passieren?

00:55:31: Klingt so, klingt total, klingt super seriös.

00:55:34: Für Geld tun manche Leute alles, manche spielen sogar Fußball für Geld.

00:55:39: Manche bezahlen sogar Geld, dafür denen dabei zugucken zu dürfen.

00:55:42: Ja, das wird aber Abstruse her.

00:55:44: Bevor es noch Abstruse wird, Vorsicht.

00:55:48: Man hört gar nichts, man hört nichts.

00:55:51: Funktionen und Emotionen.

00:55:56: Ich hab eine Funktion, da hab ich so

00:55:57: viele Emotionen.

00:55:59: Und zwar,

00:56:00: Instagram arbeitet an einer Möglichkeit, Stories timing zu können.

00:56:05: Also, dass du eine Story vorplanen

00:56:07: kannst.

00:56:08: Super.

00:56:11: Ich find das ganz schlimm.

00:56:13: Nein, warum denn?

00:56:14: Weil

00:56:14: Instagram schon wieder nicht verstanden hat, wie ihre Plattform funktioniert.

00:56:18: Also eine Story... Ja, für mich funktioniert hier so aber sehr gut, lieber Gavin.

00:56:21: Eine Story soll ja quick and dirty sein.

00:56:24: Eine Story soll ja extra low... Production Value haben, soll ja einfach so, ich film jetzt gerade, ich stehe am Rande eines Spaltspiels und film gerade einfach mal so hier rein, weil ich das allen zeigen will, dass ich es geschafft habe irgendwie in der Allianz Arena zu stehen.

00:56:37: Das ist eine Story.

00:56:38: Und für alles andere, alles was man vorplant, weil es so groß und geplant und toll und wichtig ist, dafür gibt es ja Reels und die kann man vorplanen.

00:56:45: Aber ich finde, Stories vorplanen können, macht Stories kaputt.

00:56:49: Nee, finde ich nicht.

00:56:50: Also wenn ich so eine Story posten will, ich will aber nicht, dass Leute wissen, dass ich gerade da bin, ist das doch tip top.

00:56:56: Aber dann baust du doch einfach drei Tage später, wie ich.

00:56:59: Ja, aber vielleicht vergesst ich es dann.

00:57:00: Ich habe ja auch noch ein paar andere Sachen zu tun.

00:57:02: Dann waren

00:57:02: auch noch so wichtig.

00:57:02: Muss auch

00:57:02: noch einen Keller aufräumen.

00:57:05: Meine Güte, es ist für Leute, die vielleicht nicht mehr ganz so rüstig sind.

00:57:10: Ich finde das gut.

00:57:12: Ich halte dagegen.

00:57:13: Aber gut.

00:57:14: Agree to disagree, Nicole.

00:57:15: Wir können ja nicht immer hier auf einer Seite sein.

00:57:18: Ist vielleicht auch ein Generationkonflikt.

00:57:19: Das

00:57:20: kann sein, ja.

00:57:21: Vielleicht reden Sie in der heutigen Show dann morgen drüber.

00:57:24: Freitag.

00:57:26: Nein, das... Oder

00:57:27: bei den Golden Girls.

00:57:30: Ich hab gar nichts gegen die heutige Show.

00:57:32: Ich wollte gar nicht so über die heutige Show herziehen.

00:57:35: Ich auch nicht.

00:57:35: Ich gucke das aber tatsächlich nie.

00:57:37: Also,

00:57:38: ähm...

00:57:39: Ja, ist auch wichtig, dass wir das hier noch mal festgehalten.

00:57:42: Das müssen die Kiste noch mal aufmachen.

00:57:44: Instagram hat einen neuen Button eingeführt mit der Namen Rewrite, Rewrite with Meta AI.

00:57:51: Das heißt, du kannst quasi einen Post-Text schreiben, drückst da drauf und dann schreibt die Meta AI diesen Post-Text für dich.

00:57:56: Neu.

00:57:57: In dem Screenshot, der hier angehängt ist von der Person, die das gelegt hat, stand einfach nur Hello There als erster Text im Posting Text und als Vorschläge von Meta AI waren, hey there, hi there, hello again.

00:58:12: Toll, ne?

00:58:12: Ja, nee.

00:58:14: Also, das ist so... Mein Kind ist jetzt in einer Fußballmannschaft und... Deswegen muss ich jetzt an Wochenenden sehr früh aufstehen, weil da Spiele sind.

00:58:27: Und jetzt gibt es, es sind leider nur die Muttis, es gibt jetzt immer ein Kuchenbasar bei den Heimspielen.

00:58:37: Was für die Mannschaftskasse super ist, was für jemanden wie mich, aber die teilweise erst abends um halb elf aus dem Büro nach Hause kommt, echt ein Problem darstellt, weil ich mich nicht mehr um elf Uhr abends in die Küche stelle und backe.

00:58:49: Mach ich aber noch lieber als eine Backmischung zu verwenden.

00:58:52: Das verletzt nämlich meine Ehre als Bäckerin, die ich bin.

00:58:56: Und ich

00:58:56: verdiene mein Geld mit Sprache.

00:58:58: Was ist das so?

00:58:59: Und auch dein Ansehen unter anderen Kuchen basierend, dann würde das beschädigen.

00:59:04: Diese Backmischung, das schmeckt ja total super.

00:59:07: Eine Kollegin erzählte mir, sie war mal in derselben Bradulier und hat immer eine Backmischung verwendet.

00:59:11: Und hat aber immer behauptet, es sei ein komplett selbst gebackener Kuchen.

00:59:15: Und dann wollten andere Mütter das Rezept dafür haben, da hat die die ein Problem.

00:59:21: Aber genau so ... Du musst einfach die Zutatenliste

00:59:23: von der Backmischung einfach

00:59:25: überschieben.

00:59:25: Mit Emulgatoren und Farbstoffeln und Verlängerungsstoffeln.

00:59:28: Ich mache immer

00:59:28: E-Fierhundertsexta mit rein.

00:59:31: Guck hier, mein Küchen schrank, da steht alles drin.

00:59:34: Und genauso würde es meine Ehre verletzen, wenn ich nicht mehr in der Lage wäre, ein Text so zu formulieren, dass er lesbar, also, ja, da bin ich zu eitel für mir, noch von der KI dann meine Postings verbessern zu lassen.

00:59:48: Aber vielleicht ist das für andere Leute eine super Erleichte.

00:59:51: Also gerade für die Instagrammer, die jetzt völlig ... ... völlig entsetzt auf Threads unterwegs sind.

00:59:59: Und nicht kapieren, warum sie da nicht auch so passt da sind.

01:00:02: Fragt einfach JetGPT, die schreiben das bei euch.

01:00:04: Oder MetaAI.

01:00:07: Es gibt Leute, die kriegen jetzt E-Mails von Threads, in denen drin steht.

01:00:10: Hi!

01:00:11: Als eine einflussreiche Stimme auf Threads, hast du jetzt Zugriff bekommen zum neuen Communities Beta System oder zum Communities Beta Experience.

01:00:20: Die E-Mail hab ich nur nicht gekriegt.

01:00:21: Ich auch nicht.

01:00:22: Was ist die politische

01:00:23: Fehler vor allem?

01:00:24: Ich

01:00:25: habe mich bestimmt vertippt bei meiner Meldadresse.

01:00:27: Also Peter, wenn ihr das hört, bitte.

01:00:30: Nein, auf jeden Fall scheinen Sie dieses Communities Feature, diese Gruppen auf Threads jetzt forciert auszurollen und eben zuerst jetzt gerade mit einflussreichen Menschen zu testen.

01:00:40: Was interessant ist, eigentlich wollte ich, ich will das schon seit Wochen hier in diesem Podcast mal ansprechen, aber wir haben ja über diese Ex-Communities gesprochen, über Facebook-Gruppen, über Threads-Communities, die jetzt bald kommen werden.

01:00:51: Und es gibt gerade so ein ganzes... kleines Ökosystem an sozialen Netzwerken, die da gerade entstehen.

01:00:56: Ökosystem ist falsch.

01:00:58: Es gibt offenbar eher Nährboden für Netzwerke, die solche kleine, gruppenbasierten Netzwerke gerade aufbauen.

01:01:04: Wir werden da demnächst nochmal ein bisschen im Detail drüber sprechen, vielleicht in der nächsten Folge.

01:01:08: Aber wenn ihr wollt, schaut euch doch schon mal Skool an, SKOL, bis zum nächsten Messer-Hausaufgabe, bis zum nächsten Folge, weil da werden wir dann mal drüber sprechen, weil ich habe das Gefühl, dass diese These, die wir hier schon ganz am Anfang im Podcast hatten, das das eine große Netzwerk für alle, dass das nicht mehr gibt, sondern ganz viele kleine Nischen und alle suchen sich ihre Gruppen, dass das mit nebenan.de noch nicht zu Ende erzählt war.

01:01:30: Nee, und jetzt zusätzlich fassiert wird.

01:01:33: Ja.

01:01:33: Also da war dieser Podcast anscheinend nicht allein dieser Ansicht.

01:01:38: Ja, hätten wir mal früher mehr Geld in diese Idee investiert, statt einfach nur darüber zu labern, hätten wir vielleicht

01:01:45: persönlich

01:01:45: mehr davon gehabt.

01:01:46: Einfach mal

01:01:47: machen.

01:01:47: Einfach mal machen, genau, einfach mal machen.

01:01:50: So, und damit wir jetzt nicht so düster heute rausgehen, haben wir auch beide noch eine Versöhnlichkeit.

01:01:58: Versöhnlichkeit des Tages.

01:02:03: Du hast eine mitgebracht,

01:02:04: ne?

01:02:06: Das bin ich.

01:02:06: Ich bin die Versöhnlichkeit des Tages, weil ich ganz lieb mit dir gesprochen habe, ohne darauf einzugehen, was für eine Unverschämtheit, wo dir letzten Montag im Gespräch mit Pip Klöckner geleistet hast, als du zu Pip gesagt hast, dass ihr einer der wenigen, die wirklich Ahnung haben, nicht so wie die ganzen Journalisten, die hier immer zu Gast sind.

01:02:29: Das ist jetzt eher die Versöhnung des Tages.

01:02:32: Freu ich mich.

01:02:33: Ja, ich finde nicht, dass ich mir aber anmerken lassen, was für eine Sauerei das eigentlich war.

01:02:39: Auch jemandem wie mir gegenüber.

01:02:41: Ich zähle mich dann natürlich zu.

01:02:42: Du hast schon recht.

01:02:43: Ja, ich habe da ein bisschen auf die Kacke gehauen.

01:02:46: Aber ich bin immer so beeindruckt, wenn der dann so von diesen ganzen Unternehmen und Zahlen so redet und ich dann so mit meinem angelesenen Wissen aber der Algorithmus daherkomme.

01:02:57: Und ich wollte ihm natürlich auch habe ich der bei dir heute auch gemacht, Honig ums Maul schmieren.

01:03:01: Ich will ja, dass die Leute sich ja wohl und gut fühlen.

01:03:03: Und hoffe, dass sie die anderen

01:03:04: kosten.

01:03:05: Wenn doch nicht auf unsere Kosten von allen anderen, die hier immer sind.

01:03:08: Na ja, gut.

01:03:09: Ja, du hast es schon recht.

01:03:11: Also stimmt schon.

01:03:13: Was wollte ich denn gerade eigentlich sagen?

01:03:14: Ich wollte auch eine

01:03:15: kleine Versöhnlichkeit.

01:03:17: Ist eine kleine Versöhnlichkeit, ist wahrscheinlich auch mehr eine für mich als alle anderen, aber trotzdem mich beeindruckt das so.

01:03:22: Und zwar gibt es einen Nutzer und einen Haki, das ist Philipp.

01:03:26: Und Philipp schreibt auf Mastodon gerade, also er hat seinen Account bei Chaos Social, Fein Black Ink heißt er, und der bereitet sich auf unser Jubiläum vor.

01:03:35: Wir fahren ja am sechsten, elften, fünfhundert Folgen Haken dran, drei Jahre Haken dran, mitten im zwölf Stunden Livestream.

01:03:41: Und der bereitet sich auf Disziplium vor, indem er ab Folge eins nochmal jede Folge hört und in einem Thread darunter Notizen schreibt über Dinge, die darin passiert sind.

01:03:52: Und das ist so toll.

01:03:53: Ich packe euch diesen Thread im Filivers mal in die Show Nords.

01:03:57: Aber ich finde das sehr beeindruckend.

01:04:00: Und die Forschung, dass sich da jemand hinsetzt und drei Jahre alte Sprachnachrichten von Dennis und mir sich anhört, das versöhnt mich ganz anders.

01:04:09: Das nenne ich mal fleißig.

01:04:10: Ja.

01:04:11: Also das finde ich schon prass.

01:04:12: Respekt.

01:04:13: Dann bin ich auch sehr demütig, dass wir so krasse Fans haben.

01:04:16: Also das ist ansatzlichen Sagen alle Leute, ne?

01:04:18: Aber die Haki's sind schon die coolsten von allen.

01:04:23: Gibt die im Discord-Server, ne?

01:04:25: Ja, das sind die Power-Haki's.

01:04:28: Die haben einen ganz besonderen Platz.

01:04:31: Die müssen mal alle... Ach so, ich hatte übrigens vor ein paar Tagen ein Gespräch mit jemandem, der ganz früher schon bei Golem gearbeitet hat und wirklich so Fachjournalist ist.

01:04:44: Und der zu mir sagte, ja, also ich geh seit Jahr nicht mehr, nee, der fragte mich, wann warst du das letzte Mal auf der Republik?

01:04:50: Ich geh da seit Jahr nicht mehr hin.

01:04:51: Das ist ja nur noch so eine Spaßveranstaltung.

01:04:53: Und ich gesagt, ne, ich war dies Jahr noch da.

01:04:55: Und was hast du da gemacht?

01:04:58: Ja, ich hab da fuck mir durchgespielt.

01:05:04: Ja, es tut mir leid.

01:05:06: Ich mach die Republik kaputt, ne?

01:05:09: Also, wenn dann mit mir zusammen und ich glaube, man kann den Fotos ansehen, wie viel Spaß ich dabei hatte.

01:05:15: Und nächstes Jahr sollen mal alle Haki schön kommen, wenn wir Ruckzuck

01:05:19: spielen.

01:05:19: Ja, da reden wir einander mal drüber.

01:05:22: Machen wir, wir spielen Ruckzuck.

01:05:23: Aber ich hab das Gefühl, wir müssen, ich hab überlegt, wir müssen auch was Inhaltliches machen.

01:05:27: Beides.

01:05:28: Aber dazu dann.

01:05:28: ein anderer Mal habe ich mit niemandem darüber gesprochen.

01:05:30: Ja, dann buren wir zwei Slots, das ist ja überhaupt gar kein Problem.

01:05:34: Wir kümmern uns darum.

01:05:36: Ich habe eine kleine... Bitte?

01:05:39: Ist die Rückzug Idee gestorben?

01:05:41: Nein,

01:05:41: nein, wir spielen Rückzug.

01:05:42: Wir spielen Rückzug.

01:05:43: Gut.

01:05:44: Gut.

01:05:44: Ich habe eine kleine Anwesenheitsnotiz und dann plätschert das jetzt auch nicht so ganz unangenehm einfach aus.

01:05:49: Am kommenden Freitag, also ab Donnerstag schon, findet in Bonn das B-Future-Festival statt.

01:05:53: Für alle, die sich im Herbst nach nach Republikan sehen.

01:05:57: Und ich werde am Freitagabend, werde ich ein bisschen Ernsthaftigkeit in die Bude reinballern.

01:06:02: Ich spiele nämlich, wer wird Social Media näher mit Leuten aus dem Publikum, spielen wir eine Social Media Game Show.

01:06:08: Und bin sehr gespannt, wie das wird.

01:06:09: Also kommt vorbei.

01:06:10: Der Eintritt für diese Veranstaltungen ist meines Wissens sogar frei.

01:06:13: Der Tag auch, denn es ist Tag der Deutschen Einheit.

01:06:15: Es gibt keine Ausreden.

01:06:16: Kommt nach Bonn.

01:06:17: Ich mach das ja

01:06:17: auch.

01:06:18: Es ist ganz großartig.

01:06:20: Ich musste mit bedauern für dieses Jahr absagen.

01:06:22: Aber ich war letztes Jahr da und es ist ein wirklich tolles Festival.

01:06:26: Ich kann das sehr empfehlen.

01:06:27: Die Stadt ist fantastisch.

01:06:29: Mir war gar nicht klar, wie schön Bonn ist.

01:06:30: Ich war da das letzte Mal, glaube ich, vor zwanzig Jahren.

01:06:33: Und dieses ganze Festival ist... Sehr schlau, sehr freundlich und sehr konstruktiv.

01:06:41: Also wie ich.

01:06:43: Komisch, dass ich da auch noch auftauchen darf.

01:06:46: Aber erst mal vielen Dank, dass du meine Entschuldigung angenommen hast, liebe Nicole.

01:06:52: Die habe ich gar nicht gehört.

01:06:53: Es tut mir leid.

01:06:54: Wo war denn der Entschuldigung?

01:06:55: Okay, danke.

01:06:56: Vielen Dank, dass du hier warst.

01:06:58: Wir sehen uns bestimmt bald wieder.

01:07:00: Ich wünsche dir jetzt erst mal eine ganz wundervolle Woche.

01:07:02: Einen anderen, die zugehört haben, bis hierhin auch eine ganz wundervolle Woche.

01:07:05: Wir hören uns wieder am Mittwoch.

01:07:08: Dann ist ... Oh, Dennis Horn wieder da.

01:07:12: Und

01:07:14: grüß dich, Dennis.

01:07:15: Den richtig aus.

01:07:16: Danke, dass du da warst.

01:07:18: Lange Folge.

01:07:18: Jetzt gehen wir alle.

01:07:20: Schön, die Woche begehen.

01:07:23: Tschüss.

01:07:24: Tschüss.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.