Social Media ist das neue Normal! (mit Stefan Schulz)

Shownotes

Wir haben gemutmaßt, was die Gründe sein könnten, dafür, dass Elon Musk Grok auf Rampage geschickt hat - jetzt kennen wir sie. Und sie sind so ernüchternd wie erwartbar und wild sie sind. Wenn ihr außerdem schon eine Mail von Instagram bekommen habt, euer Passwort zurückzusetzen, dann ist diese Folge genau für euch. Und auch dann, wenn ihr nicht an “Krise” glaubt - denn Stefan Schulz ist da und ruft die Normalität aus.

🎤 Haken Dran geht auf Tour! Wir sind mit 4 Liveterminen Anfang 2026 quer druch Deutschland unterwegs - alle Infos und Tickets hier: http://hakendran.org

➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt 00:00:00 - Hallo Stefan! 00:02:11 - Die Ära der persönlichen Ermächtigung durch KI 00:03:33 - Das Ende der Silos 00:06:04 - Das "richtige Internet im Falschen" 00:11:39 - Ist Instagram kritische Infrastruktur? 00:16:41 - Gegenthese zur Unverzichtbarkeit 00:25:55 - Grokgate: Was wollte Musk bezwecken? 00:29:44 - Globale Reaktion auf Grok 00:36:53 - Apple und Google ignorieren eigene Richtlinien 00:41:43 - xAIs massive Verluste 00:44:37 - Teslas Ambitionen im Chipbau 00:51:01 - Instagram Datenleck (API-basiert) und globales "Community Notes"-Rollout 00:57:30 - KI im Alltag & Radikalisierung 01:05:28 - Polen und Trump gegen EU 01:11:45 - Funktionen und Emotionen

ℹ️ Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier: https://wonderl.ink/%40heise-podcasts

Transkript anzeigen

00:00:00: Hallo Stefan.

00:00:01: Hallo Gavin.

00:00:03: Bei mir ist heute zum ersten Mal Stefan Schulz.

00:00:05: Du bist soziologe, steht in deinem Wikipedia-Titel, was ich beeindruckend finde.

00:00:09: Vor allem bist du aber Journalist und Podcast.

00:00:11: Man kennt dich zum Beispiel von den neuen Zwanzigern.

00:00:13: Ich bin großer Fan, große Empfehlung direkt zum Start und freue mich, dass du das erste Mal hier bist.

00:00:18: Das ist toll.

00:00:19: Ja, ich freu mich, dass du mich mal eingeladen hast.

00:00:21: Du hast mir eben schon gesagt, einige Hörer haben dich aufgefordert, mich einzuladen.

00:00:24: Also, fast wär ich einer dieser Hörer gewesen, der dir mal eine Mail schreibt.

00:00:27: Wo ist eigentlich meine Einladung?

00:00:29: Darf ich bitte endlich?

00:00:30: Ja, weil es ist wirklich hackend dran.

00:00:33: Ich muss dich kurz belopudeln.

00:00:36: Ich komme ja gar nicht so sehr vom Podcast, sondern aus dieser schreibenden Zunft.

00:00:39: Und damals, so, so, zwölf, zwölf, dreizehn, vierzehn, als ich bei der FAZ war, war das Podcast schon so ein Ding.

00:00:46: Aber halt so für ... Fachleute, also da hat man dann so Lockbuchnetzpolitik, Linus Tim und so gehört.

00:00:52: Und relativ viele Texte, die ich geschrieben hatte, waren im Grunde so inspiriert durch das, was ich im Podcast gehört habe, weil das der einzige Debattenraum war, wo mal die eigentlichen Fragenthema, die seht wurden.

00:01:03: Dann selber war für mich diese Zeit zu Ende und ich bin dann so in dieses, okay, ich gucke jetzt Fernsehen, gucke mir im großen Rahmen an, was in der Welt so passiert.

00:01:11: Ja, der Neuzwanziger ist ja auch ganz Themenoffen.

00:01:13: Und ich muss sagen, Haken dran war wirklich eine Kleine Wiederbereicherung, das sehe ich mal wieder jemand mit den Sachen beschäftigt.

00:01:21: Diese Abkürzung, die ist einmal kennt und verwendet ohne gleich stoppen.

00:01:25: Wir müssen sofort die Sendung anhalten.

00:01:26: Wir haben ein Fachwort genannt.

00:01:28: Dann wird so Wikipedia wissen.

00:01:29: Nein, sondern man geht so ein bisschen rein und von daher vielen Dank, dass ich hier ein bisschen beitragen

00:01:34: darf.

00:01:34: Vielen Dank.

00:01:34: Und was wir auch, was ich am Anfang von Hacken dann sehr häufig als Lob gehört habe, ist, dass wir so Recherche Abkürzungen für Leute sind, weil wir so wir ersparen den Leuten den Besuch auf theverge.com.

00:01:47: Wir haben das schon gemacht für euch.

00:01:50: Und was ich ganz ganz beeindruckend finde.

00:01:51: Da muss ich jetzt direkt mal alle zukünftigen Gäste auch auffordern, sich eine Scheibe von dir abzuschneiden.

00:01:57: Du hast mir sozusagen gesagt, ich habe was vorbereitet.

00:01:59: Ich habe ganz viele Fragen und Gedanken.

00:02:01: So bist du hier heute reingegangen.

00:02:02: Und ich habe mir gedacht, dann gehen wir doch direkt damit rein, was dir auf dem Herzen liegt, bevor wir in die Sachen reingehen, die uns die Woche allen die Woche versauen werden.

00:02:11: Genau.

00:02:12: Wir kommen auf ihre Maske zu sprechen und so.

00:02:14: Ja, viel.

00:02:15: Also höre ja jede Folge Haken dran.

00:02:17: Die Frequenz ist ja sehr hoch.

00:02:18: Ich weiß also ungefähr, was der Tee noch ist.

00:02:20: Und wenn du mich eingeladen hattest, dachte ich, okay, ich muss dir dann auch mal Rückfragen stellen im Sinne von, das müsste man eigentlich mal ansprechen.

00:02:27: Gut.

00:02:27: Und es sind so zwei.

00:02:28: Tee sind Themen, die wir kurze ansprechen, aber die sich heute wieder finden, wenn wir die Themen auch einfach durchgehen.

00:02:34: Das eine ist... Es gibt immer diesen allgemeinen Tenor, dass jetzt so viel Krise ist.

00:02:38: Ja, wenn der Deutschlandfunk heute ein Jahresstaat Podcast macht, dann ist das gleich so ein, jetzt wird es Ernst Ausrufe zeichnen.

00:02:44: Also das ist die Originalüberschrift vom Deutschlandfunk, die der verwendet haben.

00:02:48: Und

00:02:48: jeder Wahl ist die letzte Wahl, die alles entscheiden könnte.

00:02:51: Genau, alles ist am Abgrund und wir blicken so hinein.

00:02:54: Und ich denke mir so, nee, ich blicke gerade gar nicht im Abgrund, sondern die Sitze zurücklehnt in meinem Sessel, bereite die nächsten Podcasts vor und ich habe dann klugen Mitarbeiter und dann klugen Mitarbeiter und die kosten mich.

00:03:05: Euro im Monat, ja und die erledigen fast alles für mich.

00:03:08: Mittlerweile installieren die für mich irgendwelche Software, irgendwelchen Servern und so und machen für mich die Sicherheitschecks und überhaupt, ja.

00:03:15: Also ich fühle mich ermächtigt und bin krass begeistert von diesem Wandel und sage mir, also ich will nicht mal jetzt zurück ins Jahr twenty-fünfundzwanzig, ja.

00:03:24: Schon Dezember ist mir zu antike.

00:03:26: irgendwie, ich will jetzt in die Zukunft.

00:03:29: So und irgendwie will ich es auf den Punkt bringen und sagen, Es ist eine echte Zäsur.

00:03:35: Also, zwei tausend fünf bis zwei tausend fünfundzwanzig ist dieses Social Media Zeitalter.

00:03:39: Und ich will gleich mit so etwas steileren Thesen anfangen.

00:03:43: Geil.

00:03:43: Wir hatten vor, sagen wir mal, fünfzehn Jahren so ein Tenor.

00:03:47: Da hat wieder jemand das Internet nicht verstanden.

00:03:49: Thomas Knüfer hat einen großen Text darüber geschrieben, dass heute jemand davon berichten kann, wenn ein Flugzeug abstürzt, weil man sein Handy dabei hat und sofort ein Tweet absetzt.

00:03:58: So, und das galt plötzlich so als Ermächtigung.

00:04:00: Wir haben die alten Gatekeeper hinter uns gelassen.

00:04:02: Und was diskutieren wir heute?

00:04:03: Naja, das wir eigentlich nur von den einen Gatekeeper und den nächsten Gatekeeper reingerutscht sind, also so von einem Old Style Media in Social Media, aber es ist im Grunde dasselbe Silo-Konstrukt gewesen.

00:04:15: Und jetzt führe ich mich erstmals richtig davon befreit.

00:04:18: Also ich lasse Texte auf meiner Webseite von einer KI lesen und dann werden die, da sie die MP-III-Data her wird dann auf einen Server gelegt.

00:04:27: und Claude Coat schreibt mithilfe von NHN ganz automatischen RSS-Feed dafür.

00:04:33: Also ich hab meinen eigenen Podcast hergestellt.

00:04:36: Aus Texten, die ich schreibe.

00:04:37: Man kann sie anhören.

00:04:38: Zehn Minuten nachdem ich sie publiziere, sind sie in einem Podcast verfügbar.

00:04:42: Und er genügt allen Standards.

00:04:43: Das ist RSS nach gegenwärtigem Standort und überhaupt und so.

00:04:47: Und ich brauche gar niemanden mehr, der für mich irgendwie die Distribution regelt.

00:04:53: Und jetzt ist dieser Punkt, wir müssen nur noch diesen sozialen Lock-in-Effekt überwinden.

00:04:58: Also Instagram wird gleich noch mal eine große Rede spielen.

00:05:01: Aber ich finde so dieses Mal aufgehangen an dem Wort Gatekeeper.

00:05:05: Was haben wir uns gefreut, die alten Gatekeeper zu überwinden?

00:05:09: Und ich denke noch zehn Jahre, und die Kinder werden uns fragen, Hä?

00:05:13: Aber die FAZ hatte doch auch Leserbriefe.

00:05:15: oder hatte ich mich da verlesen.

00:05:17: Was ist der Unterschied zwischen dem Facebook-Post und dem Leserbrief gewesen?

00:05:21: Und man muss ehrlich sagen, so rückblickend, wir wissen es nicht genau.

00:05:24: Also wenn die Zeitung Vor zwanzig Jahren gehabt hätten, was ich heute mit NNN und Claude Code hatte, aber dann wäre für die völlig klar gewesen, dass sie selber das soziale Netzwerk aufbauen, rund um ihre Texte, dass ihre Texte irgendwo hinzubringen, wo jemand ein soziales Netzwerk hat.

00:05:39: Also diese Perversion lässt sich schon jetzt, finde ich, gar nicht mehr richtig verstehen so.

00:05:43: Und wir sind noch ziemlich nah dran.

00:05:45: Später sind es in zehn Jahren, wird es wirklich erklärungsbedürftig, warum wir das alles an Facebook ausgeliefert haben.

00:05:50: Wohlwissend, und die FAZ hat ja immer sehr gejammert, wir publizieren hier ein Text.

00:05:54: Und nur fünfzehn Prozent davon wird an die Abonnenten unserer Facebookseite weitergegeben, weil da einfach so ein Algo reingreift.

00:06:01: Und da kann man wirklich nur zurückfragen stellen, warum habt ihr das gemacht?

00:06:05: Wir finden keine Antwort mehr.

00:06:07: Naja, das Abstruse ist ja das... Also, ich fange mal mit einer persönlichen Anekdote an.

00:06:12: Als ich mit diesem Podcast angefangen habe, damals noch mit Dennis war ich eigentlich der häufig, der immer gesagt hat, naja, aber es ist halt das Spiel und wir spielen es alle mit.

00:06:21: und es ist so, die Gesellschaft findet jetzt in diesem Räumenstaat und wir sind eben nun mal da und man kann Skatekeeper nennen, aber es ist eben nun mal die Realität, wir sind eben nun mal alle da.

00:06:31: Und jetzt gucke ich mir drei Tage mindestens in der Woche diese Themen an und merke an mir selber diese Veränderungen.

00:06:37: und ganz viele Leute, die das hören, ja genauso, entweder weil sie diesen Podcast immer hören oder weil sie hören, dass irgendwie Friedrich Merz sogar Begriffe wie Digitale Souveränität benutzt und sich fragen, was steckt denn dahinter.

00:06:49: Und ich glaube, man kann, ich habe diesen Satz irgendwann mal gesagt, wer das Internet nicht hasst, hat das Internet nie geliebt.

00:06:54: Und ich glaube, genauso ist das.

00:06:56: Man setzt sich so sehr damit auseinander und je näher man diesem Scheinriesen kommt, umso mehr stellt man eigentlich fest, dass all die Dinge, die man eigentlich gut findet, eigentlich immer gegen einen gearbeitet haben.

00:07:06: Klingt düster.

00:07:07: Auf der anderen Seite benutzen wir das ganze Zeug ja trotzdem immer noch.

00:07:10: Genauso, klar, wir wissen seit mindestens dreißig Jahren das Rauch mehr.

00:07:14: Fünfzig Jahren das Rauchen, Krebs verursacht und die Leute machen das trotzdem.

00:07:17: Weil manchmal ... Gibt es eben auch in den, vielleicht gibt es doch manchmal richtige Dinge im Falschen.

00:07:22: Vielleicht gibt es manchmal doch positive Dinge, die man daraus ziehen kann.

00:07:25: Das ist genau der Gedanke.

00:07:26: Fast hätte ich es mir noch aufgeschrieben, ja.

00:07:28: Gibt es ein richtiges Internet im Falschen?

00:07:30: Und ich will es an einem Punkt verdeutlichen.

00:07:33: Wir regen uns jetzt sehr auf über AI-Slop.

00:07:35: Aber

00:07:36: das bedeutet eben, die Kreation setzt jetzt die Kuration wirklich schachmat.

00:07:40: Niemand baut sich mehr so ein Vieh zusammen oder so, ja.

00:07:43: Sondern man lässt einfach Sachen im Großen und Ganzen geschehen und man beträgt... selber sehr viel bei und dann niemand ahnung von irgendwas hat.

00:07:50: sehen halt die bilder aus wie sehr aussehen ja und die texten halt entsprechend so.

00:07:54: Aber unter dieser oberfläche die so sichtbar ist.

00:07:58: Haben ja erstes e-mail und so alle überlebt ja sie sind ja alle da ja.

00:08:04: Hier mit sehr großer wascheinlichkeit über ein service der eben nicht spotify ist und selbst spotify baut nur auf den rss feed auf.

00:08:11: Genau, also im Grunde steckt unter der Haube alles noch da.

00:08:14: Und jetzt können wir einfach Cloud Code sagen, nutze es für mich, mach damit was.

00:08:19: Ich wünsche es mir so und so.

00:08:21: Willst nicht zu viel aufheben, so meine Webseite machen.

00:08:23: Nein,

00:08:23: aber ich verstehe den Punkt, weil deine Rede geht ja in die Richtung, dass man sagt, naja, KI ist eigentlich nicht der Feind, sondern was Leute damit machen, ist halt manchmal in größten Fällen einfach nur Schrott.

00:08:34: Genau.

00:08:35: Und das wird aber auch auslektiert, also... Kommt nachher noch drauf zu sprechen.

00:08:40: Wie heißt der Instagram-Chef?

00:08:41: Hat ja wieder die Ansagen gemacht mit der Authentizität und so weiter.

00:08:44: Das sind ja Rettungsversuche, es noch im eigenen Silo zu halten.

00:08:48: Das muss er erst mal schaffen.

00:08:50: Also ich glaube, da weht wirklich ein neuer Wind.

00:08:52: Und ich wünsche mir so eine neue Blockosphäre.

00:08:54: Ich habe es für mich selber angefangen.

00:08:56: Also meine Webseite ist sozusagen ein ganz lebendiges Kurationsgebilde.

00:09:00: Ganz wenig Code, ich habe Code und Code so gesagt.

00:09:02: Ich will eigentlich so ganz wenig Code, aber das ganz viel auf der Seite los ist.

00:09:06: Also wird alles aus Kreuz und Quer rein importiert.

00:09:08: Bis auf Instagram Bilder.

00:09:09: Aber egal wo ich einen Text schreibe, alles landet auf meiner Startseite.

00:09:15: In der Readwise Reader App, wenn ich da einen Text markiere, also ein Highlight hinterlasse mit einer Notiz, landet das auf meiner Webseite.

00:09:20: Wenn ich einen Blue Sky Post schreibe, landet das auf meiner Webseite.

00:09:23: Egal was, Bilder, Kreuz und Quer wird alles schön dargestellt und es finde ich einfach genial.

00:09:28: weil ich mittlerweile der New York Times als sichtbare Seite, also die Redaktion dahinter hab ich nicht.

00:09:35: Aber dieses Nadelöhr zum Leser, also da ist einfach Waffengleichheit.

00:09:39: Und das ist ... Interessanter, weil Sascha Lobo hat das schon vor zehn Jahren gefordert und dann muss es ja stimmen.

00:09:44: Aber was Sascha Lobo gesagt hat, war ja dieses Reclaim Social Media.

00:09:48: Er hat damals, ich weiß nicht ob du dich daran erinnerst, auf so einem Republikan-Vortrag, hatte damals so ein Dienst vorgestellt, der, glaube ich, nie so für die Endkunden das Licht der Welt erblickte, mit dem es möglich war, dass egal, was du im Internet an Spuren hinterlässt, das sozusagen mit der Hilfe eines Services spiegelst und auf deinem eigenen Server platzierst.

00:10:06: Und ich glaube, da laufen wir früher oder später darauf hin.

00:10:09: Ja, also das muss jetzt kommen.

00:10:11: Ich finde, die Leute sollten jetzt in ihrem Kopf einfach, auch wenn sie die Zäsu noch nicht so sehen oder fühlen, sie einfach für sich entscheiden.

00:10:18: Dieses Social Media-Zeitalter, in dem Jeff Jarvis immer die ganze Zeit erzählt, wir dürfen das nicht regulieren, da darf man nicht rangehen.

00:10:25: Das ist alles noch so neu und so.

00:10:27: Das ist jetzt einfach, dieser Teil ist Geschichte.

00:10:29: Das ist jetzt einfach Technologie, die ist da.

00:10:32: Die können wir auch ganz profan einfach angehen und sagen, nee, wir haben uns das ein bisschen anders vorgestellt.

00:10:37: Und ehrlich gesagt, Es ist für uns auch nicht mehr so obskur.

00:10:40: Also, wenn Elon Musk jetzt einfach den Algo veröffentlichen will, soll er mal.

00:10:44: Das werden sich sofort hundert Leute forgen und gleich mal ein Cloud Code auch Audit machen für sich.

00:10:48: Und dann werden diese Berichte auftauchen.

00:10:51: Mittlerweile ist ja auch dieses Open Source Prinzip völlig neu zu lesen.

00:10:54: Bisher hieß es ja immer, ja gut, Open Source, aber wer guckt denn wirklich in den Code?

00:10:58: Mittlerweile macht er richtig Spaß, ohne Ahnung in so einen Code zu gucken und sich das von Cloud einfach Zeile für Zeile erklären zu lassen.

00:11:06: Also, man kann jetzt Es gab da von Gabriel Joran und Freunden vor fünfzehn Jahren oder so in Berlin eine Veranstaltung bei der Wikimedia Quellcode Lesung.

00:11:15: Dann haben sie sich eben den Quellcode genommen, mit dem man auf dem Mond gelandet ist und sie den heute nochmal durchgegangen.

00:11:20: Was bedeuten eigentlich die einzelnen Zeilen?

00:11:22: Das kann heute jeder für sich alleine machen und es macht auch Spaß.

00:11:25: Es ist eben nicht mal mit Arbeit verbunden.

00:11:27: Man sagt einfach, den KI es erklärt es mir wie in einem fünfjährigen und dann wird einem das einfach... Denke mal, ab nächsten Jahr kommt dann auch sofort Erklärvideos und so.

00:11:36: Also das ist einfach, da ist so eine neue Welt.

00:11:38: Ja, voll.

00:11:39: Aber mein zweiter Punkt, den wir heute auch ein bisschen beachten können.

00:11:43: Ich finde, Instagram ist die eigentliche, also das, was Mark Zuckerberg sich immer gewünscht hat, ist eigentlich Instagram.

00:11:50: Instagram ist jetzt diese alte Facebook-Idee.

00:11:53: Alle Leute sind da.

00:11:54: Alle Leute haben eine Adresse.

00:11:56: Alle Leute verwenden diese Adresse auch.

00:11:58: Also man trifft sich zufällig und tauscht die Instagram-Namen auf.

00:12:01: aus jeder Letter alles hoch.

00:12:03: Niemand muss Texte schreiben.

00:12:05: Jeder ist davon entlastet, keiner hat Bock auf Schreiben.

00:12:07: Alle machen ein Video von hier, ein Bild von da und so.

00:12:10: Und ich finde Instagram, wie das spricht jetzt auch ein bisschen meiner vorherigen Lobrede so, aber Instagram ist einfach ein Silo, der als Silo so krass eine wesentliche Einrichtung in unserer Gesellschaft geworden ist, dass wir ernsthaft darüber nachdenken müssen.

00:12:26: Niemand darf hier einfach den Strom abschalten.

00:12:29: Egal wie die Eigentümer Strukturen sind.

00:12:31: Also du meinst, das ist so sehr kritische Infrastruktur, dass wir auch alle Dinge, die mit Instagram einhergehen, eigentlich hinnehmen müssen?

00:12:40: Ja, mit dem hinnehmen müssen, daher harter ich halt.

00:12:42: Ich stelle erstmal nur fest, okay, Stromausfälle sind scheiße, haben wir jetzt in Berlin gesehen.

00:12:46: Internetfälle sind auch scheiße, Ausfälle sind auch scheiße.

00:12:50: Wir sind jetzt schon soweit, dass wir sagen, Internetausfälle sind so schlimm wie Stromausfälle.

00:12:53: da geraten Leute in Panik, da wissen sie nicht, wo hin.

00:12:56: Da muss sofort die Polizei einen Stadtteil fahren und sagen, es ist alles okay, es ist nur ins Internet ausgefallen.

00:13:01: Und ich glaube, mit Instagram ist es mittlerweile auch so.

00:13:04: Wenn Instagram ausfällt, machen sich Leute Sorgen.

00:13:06: Und ich finde irgendwie zurecht, unberechtigterweise, liegt das halt alles in der Hand von Mark Zuckerberg und so.

00:13:12: Aber zurecht nutzen Leute das, als das Angebot, wie es da ist.

00:13:18: Mir fällt das immer wieder auf, dass ich auf Instagram ... Sachen sehe, die ich wirklich begeisterungswürdig finde.

00:13:25: Und diese Leute haben weniger Follower als ich.

00:13:28: Und da komme ich immer so ins Sturzen und denkt mir, okay, das ist jetzt wirklich substanziell neu.

00:13:31: Das ist nicht einfach nur eine Verlagerung von Hollywood auf ein neues Medium und dann treffen alle nur noch Superstars, sondern mittlerweile haben wir da wirklich eine zerklüftete, vielschichtige Infrastruktur, so eine soziale Landkarte, die eben nichts mehr mit dem, was vorher war, zu tun hat.

00:13:52: Und die ist... ... schützens- und bewahrenswert, ja?

00:13:54: Also das wäre so ein Fall für ... ... das müsste man in tausend Jahren aufwendig ... ... mit so Pinseln aus dem Boden auskratzen ... ... und in den archäologischen Museen ... ... reitstellen, was hier ...

00:14:02: Und ich habe letztens darüber nachgedacht, ... ... es gibt ja so ein paar, die das versuchen, ... ... wir haben über Annas Archive hier gesprochen, ... ... die diesen ganzen Spotify-Download gemacht haben, ... ... dass die Wayback-Machine gibt es, ... ... wo du so ein bisschen Internetarchiv herstellst, ... ... aber wenn du jetzt ein Buch schreibst, ... ... und du bist ja jemand, der schreibt schon mal ein Buch, ... ... dann ist es ja normal, dass du einen Brief ... ... von der Deutschen Nationalbibliothek kriegst und ... Da ist da drin, bitte schick mir zwei Exemplare, damit wir eins nach Frankfurt, eins nach Leipzig bringen können, damit diese Bücher der Nachwelt erhalten bleiben.

00:14:28: Und das passiert mit dem Internet eben nicht.

00:14:30: Also wir erleben eigentlich, dass irgendwann, also mal angenommen, wir haben wirklich, meine These tritt ein und wir kriegen wirklich so einen analogen Weibschiff dieses Jahr.

00:14:38: Die Leute fangen wieder an, echt Fotos zu machen.

00:14:40: Auf Filme und so.

00:14:42: Und das würde sich fortsetzen.

00:14:44: Dann gäbe es so zwanzig tote Jahre in den Fotoalben, die eben alle einfach nur auf irgendwelchen Clouds gelegen haben, aber eben gar nicht in der Realität irgendwie existiert haben als Abbild des Momentes.

00:14:54: Ja,

00:14:55: also für uns die westliche Welt Amerika Europa ist Instagram einfach ein Silu.

00:15:00: Über das wir uns ernsthafte Gedanken machen müssen.

00:15:02: Das muss einfach zur Verfügung gestellt werden, auch im lebendigen Betrieb.

00:15:05: Also nicht nur archivieren, sondern gleich mit APIs, dass man richtig Zugriff drauf hat.

00:15:10: Dass ich meine Bilder, die ich bei Instagram poste, weil ich da das Publikum entsprechend finde, nicht einfach über eine API auf meine Webseite holen kann.

00:15:19: Und da sind wir bei dem Punkt, wo ich sagen würde, es ist kein Widerspruch zur ersten These, sondern auch hier.

00:15:25: Reclaim Social Media.

00:15:26: Also nur weil Instagram so groß ist und so wichtig ist und so essentiell ist für unsere Gesellschaft, bedarf es eigentlich nicht besonderer Bestandschutz.

00:15:36: von dem, was da gerade ist, sondern eigentlich erst recht müssen wir das als solches verstehen.

00:15:40: Und wenn man das dann weiter denkt, sind wir ganz schnell bei einer Verstaatlichung von Instagram.

00:15:44: Also Instagram für alle.

00:15:46: Ja, genau.

00:15:48: Ja, das wäre dann sozusagen das Extrem.

00:15:50: Also vielleicht können wir die beiden Thesen so in Einklang bringen, dass wir sagen, bei den ersten Sachen, die ich genannt habe, ist ganz viel Ablösung dabei.

00:15:57: Also da geht es einfach um neue Sachen schon allein.

00:16:00: weil mir jetzt Cloud Code einfach Infrastruktur bereitstellt, nicht nur Inhalte.

00:16:04: Ich kann wirklich sagen, ich brauche das nicht nur als Inhalt, das ist die Autodatei oder so, sondern ich brauche sie auch als RSS verfügbar, so dass sie jeder, die einfach abonnieren kann.

00:16:12: So, das ist ja möglich.

00:16:13: Bei Instagram würde ich halt sagen, das ist mittlerweile soweit gewachsen einfach.

00:16:18: Das können wir nicht einfach ablösen, sondern da muss man so richtig eigentlich mal rein, aber auch eben ohne es kaputt zu machen.

00:16:24: Ja.

00:16:25: Also sobald man da rangeht, wachsen ja immer gleich so und dann kommen gleich die Konkurrenten und sagen, ja, ja, klar müssen wir jetzt TikTok verstaatlichen, weil davon habe ich ja am meisten.

00:16:33: und so, ja, und dann werden so Briefe geschrieben.

00:16:35: Nee, so, wir brauchen einen alten echten Diskurs, wie wir jetzt mit Instagram umgehen.

00:16:39: Wir haben uns auch bei Instagram mit zwar abredet.

00:16:41: Das stimmt.

00:16:42: Aber ich habe eine kleine Gegentease.

00:16:43: Vor zehn Jahren hätten wir das gleiche bei Facebook.

00:16:46: gemacht und über Facebook gesagt.

00:16:49: Also wir hätten gedacht, dass, was Facebook jetzt gerade ist, ein Telefonbuch für alle.

00:16:53: Jeder kann da alles veröffentlichen und alle sehen.

00:16:56: Das hätten wir als Unzerstörber wahrgenommen, weil wir gesagt haben, das ist der Status quo.

00:17:00: Wir alle sammeln uns dort, wir können uns darauf einigen.

00:17:02: Wir finden nicht alles super, was da passiert, aber das ist nun mal der Ort, der die Realität gerade versammeln lässt.

00:17:08: Und ich glaube, dass diese Uneinholbarkeit dieser Plattform, dass die nicht entsteigen gemeistert ist.

00:17:15: Also wir könnten durchaus in zehn Jahren uns wieder treffen und würden beide darüber lachen, was wir heute gesagt

00:17:19: haben.

00:17:20: Ja, aber wir haben halt heute schon ein empirisches Beispiel, wo ich nicht drüber lache und das ist Twitter.

00:17:26: Ich vermisse das sehr.

00:17:27: Ja, ich auch.

00:17:28: Diese Zeiten, in der einfach klar war, wenn ich ein Ticket für den CCC haben will, post ich das auf Twitter und irgendwann wird eine Antwort kommen und die Konkretzbegleitung ist natürlich auch gleich da und das ganze Nachleben auch und überhaupt.

00:17:39: Ja, ich muss nur den Hashtag, Salah, eins, zwei, drei, Z, irgendwas verwenden.

00:17:42: Und so geht es quasi wie jede Woche in Veranstaltung durch.

00:17:45: Das ist halt wirklich vorbei.

00:17:46: Also Twitter wurde sozusagen kaputt gemacht, ohne abgelöst zu werden.

00:17:50: Und das wünsche ich mir bei Instagram explizit nicht.

00:17:53: Also ja, Strukturwandel schön und gut.

00:17:55: Irgendwas wird schon irgendwann mal irgendwie kommen und so.

00:17:57: Aber Instagram ist da wirklich ein Sonderfall.

00:18:01: Ja, verstehe.

00:18:02: Na ja, vielleicht werden wir irgendwann... Wir alle auf dezentralen Plattformen unterwegs sind, das Gefühl haben.

00:18:07: Das ist jetzt hier das neue Instagram.

00:18:10: Glaubst du daran, bei all dem, was du da erzählst und bei deinen Gedanken und deinen Thesen, glaubst du daran, dass hier später alle dezentral unterwegs sind im Netz?

00:18:19: Ja, denn irgendwann, also irgendwann wird das Internet so eine ganz große Allgemeinheit werden.

00:18:25: Wir erleben das jetzt beim Stromnetz, dass ich finde, Schon ab dem nächsten Jahr werden sich die Leute fragen, wie war denn bei euch das Strom ausgefallen?

00:18:32: Habt ihr keinen Akku im Keller?

00:18:34: So.

00:18:34: Sieben Tage Strom aus dem Keller muss doch möglich sein.

00:18:37: Ich hab doch da bei der Messe so ein Schrank gesehen, da kostet nur zehn Tausend Euro.

00:18:41: Und diese Frage, also da steckt der Dezentralität drin.

00:18:43: Nur dafür muss halt, dass Milliarden, Milliarden schwere Stromnetz und die ganze wirtschaftliche Infrastruktur drum herum wirklich richtig krass so mega etabliert sein, als wären es einfach Bäume.

00:18:56: die natürlich da stehen, weil Gott hat ja Bäume erschaffen und so.

00:18:59: Also das ist so richtig selbstverständlich wird.

00:19:03: Und das Internet ist kurz davor, finde ich, so super selbstverständlich zu werden.

00:19:07: Also wenn wir nächstes Jahr, und die Legende sagt ja, mein iPhone siebzehn hat zwar noch kein richtiges Apple-Intelligence, aber die Hardware dafür ist schon da.

00:19:16: Apple will es nur noch sozusagen Software noch.

00:19:20: Wenn wir KI von Anfang an sofort so dezentral denken, wie es ja jetzt schon in den Markt reindrückt, Dass die Chinesen einfach kommen und sagen, ja, wir haben das hier im Keller so schon mit eurer Hilfe so.

00:19:31: Aber wir haben das mal so im Keller nachgebaut und es funktioniert genauso gut.

00:19:35: Da steht so ein fünf Billon Nvidia schon für so ein paar Wochen so ein bisschen blank da.

00:19:40: Und da rücken die Einschläge näher.

00:19:41: Und von daher denke ich, diese Idee mit seinem Star Trek Computer zu sprechen.

00:19:46: Also meine Kinder sind jetzt so neun, dreizehn, fünfzehn.

00:19:50: Wenn die so alt sind wie ich, ist das alles.

00:19:54: Selbstverständlich.

00:19:55: Da wartet man nicht, dass ein Server reagiert bis in eine Anzahl von der E kommt oder so.

00:20:00: Oder dass der Strom von irgendwo aus einem großen Kraftwerk geschickt werden muss, sondern da ist einfach völlig klar, wie es funktioniert.

00:20:05: Und das Spannende ist aber, finde ich, und das ist so eine Sache, die habe ich auch in, das habe ich in Hundertmal gesagt, aber trotzdem.

00:20:12: Dadurch, dass alles auf der einen Seite immer komplizierter wird und immer weniger verständlich wird, auf der anderen Seite aber immer selbstverständlicher und immer mehr es funktioniert schon, entsteht gerade so ein bisschen, habe ich das Gefühl, so eine Generation klufft, weil meine Generation und ich weiß nicht, wie es bei dir ist, weil also ich bin in sechs und dreißig, ich glaube, du bist ein paar Tage älter als ich.

00:20:31: Ja, dann wirst du das aber auch noch beobachtet haben.

00:20:35: Wir haben damals noch in der Windows Registry rumgedoktert und wir haben selber irgendwelche Systeme dazu.

00:20:41: ausgetauscht, wenn ein Spiel nicht funktioniert hat, dass wir auf dem Schulhof gebrannt gekriegt haben.

00:20:46: Also wir haben uns durchaus mit den Machenschaften im System unter der Haube beschäftigt.

00:20:50: Noch mal anders, mein Vater hat damals programmieren gelernt, weil der eben auf dem Amiga oder auf irgendwelchen Computern aus neunundachtzig verstehen wollte, wie es funktioniert und selber gestalten wollte.

00:21:02: Inzwischen ist das alles so unverständlich geworden für Leute, die damit aufwachsen, weil das auch selbstverständlich ist.

00:21:08: Dass die, wenn bei denen der Computer nicht hochfährt, die nicht ins BIOS gehen, sondern zum Apple Store.

00:21:14: Und das ist, glaube ich, ein großer Unterschied.

00:21:16: Das sagt man aber über Heizungsanlagen und Druckmaschinen auch.

00:21:19: Und die werden halt trotzdem selbstverständlich und funktionieren.

00:21:22: Und am Ende entsteht ja auch eine Infrastruktur, die es am Laufen erhält.

00:21:26: Und da würde ich halt sagen, wenn Kinder heute, sehr auch schon wieder fast ein bisschen Geschichte so, aber wenn die in Minecraft Computer bauen, die wirklich funktionieren, weil man da einfach mit bits zusammenbaut.

00:21:41: Dann stellen die sich ja fragen, wieso funktioniert das in Minecraft?

00:21:44: Und dann sagt man ihnen, naja, das ist im Grunde das Grundprinzip.

00:21:47: Ja, du hast ja eine Reentry festgestellt.

00:21:49: Also die Umgebung deiner virtuellen Bits funktioniert halt genauso.

00:21:54: Und die hat aber auch wieder, also ja, dieses Legaprinzip.

00:21:57: Was eben heute bedeutet, man kann dem nachgehen.

00:22:00: Also man kann sich das auf einer einstündigen Autofahrt im Gespräch mit Gemini einfach erklären lassen.

00:22:05: Und wenn das intrinsische Motivation hoch genug ist, dann schafft man das auch so auf dem Bodensatz davor zu stoßen, dass man am Ende in so einem Labor sitzt und selber die nächsten KI's mit trainiert und so.

00:22:18: Und von daher finde ich, weil du jetzt gesagt hast, das ist so undurchschaubar, ich finde gerade jetzt, dazu habe ich auch nochmal Jetzt ein anderthalbstündigen Podcast, der kommt demnächst bei Corporate Therapy, wo wir über die Obskurität sprechen, also genau diese Unterschaubarkeit.

00:22:32: Und das betraf eben Dismenagement.

00:22:34: und die Maschinen in der Arbeitswelt zum Beispiel.

00:22:37: Und kein Eigentümer und kein Arbeitnehmer muss sich heute einfach so die Befehle anhören, sondern man kann ja sofort Gemini mal fragen, gleiche das mal bitte ab mit den letzten Kennziffern, die von meinem Firma veröffentlicht worden.

00:22:48: oder wie auch immer, bringen wir mal die Plausibilität rein.

00:22:52: Und wenn da Schieflagen sind, sind dann halt Schieflagen drin und die kann man dann auch besprechbar machen, und zwar für jedermann.

00:22:59: Also in deren Sicht liegt eben nicht nur Obskurität, sondern dadurch, dass die Maschinen uns jetzt selbst erklären können, wie sie funktionieren.

00:23:04: Ja, besteht auch wirklich die Möglichkeit, dass man es ohne ein aufwendiges Studium, wo man wirklich Bücher lesen muss, trotzdem so weit nachvollziehen kann, dass man eine gewisse Hoheit, eine Handlungshoheit und so eine Überschaubarkeit, was bedeutet eigentlich, wenn ich meinen Prompt jetzt los schicke und sage, Liebesklaut, installiere mir Docker auf diesem Server, damit ich danach Discourse installieren kann.

00:23:24: Das muss nicht undurchschaubar bleiben, weil es funktioniert ja.

00:23:28: Und also hat man auch ein Interesse zu fragen, wie es funktioniert.

00:23:31: Ja, es gibt eine kleine Einschränkung, und zwar ist das die Tatsache, dass Maschinen sich ja auch, so wie auch Tiere zum Beispiel, sich nicht zwangsläufig selbst vergewissern können und von ihrer eigenen Existenz Verständnis haben.

00:23:43: Also Gemini, Wilja und alle, alle large language Models.

00:23:48: Die werden geben zwar sehr häufig Antworten, die richtig sind, aber das ist nicht ihr primäres Ziel, sondern das primäre Ziel ist erst mal Antworten zu geben, die richtig klingen.

00:23:55: Und das macht es natürlich... Also ich würde mich nicht nur darauf verlassen, mir von Gemina erklären zu lassen, wie sowas funktioniert.

00:24:00: Ja, aber das haben wir bei Menschen auch.

00:24:03: Stimmt.

00:24:04: Auch Lehrer und Polizisten und Staatsanwälter müssen durch äußere Umstände, die wir mitgestalten, diszipliniert werden, in die richtige Richtung zu kommunizieren.

00:24:14: Also da gibt es einfach Rechtssysteme und Anreizstrukturen wie Geldzahlung und wie auch immer.

00:24:19: Und so wie ich das jetzt sehe, dass man LNMs hat, die genau diese Unschärfen mitbringen, aber daneben jetzt so ontologische Modelle wie von diesem Meta-Aussteiger, der das jetzt auf seine eigene Weise macht und sagt, nein, nein, wir bauen jetzt künstliche Intelligenz von unten her.

00:24:33: Wir kommen mit elementaren Wissen, so wie ein kleines Kind erst mal stolpert und sich dann wehtut und elementare Physik lernt.

00:24:39: Und dann kombinieren wir das aber später, dass man nämlich und prompt hat und der eine Antwort liefert und wie das mit diesem ontologischen System so als Reasoner dagegen spielen.

00:24:47: Und nur wenn das plausibel ist, ja, geht das in Co-Evolution weiter.

00:24:51: Also es ist halt kompliziert und nicht zu einfach nachzuvollziehen.

00:24:56: Man kann es aber nachvollziehen.

00:24:58: Also ohne den Menschen würde sich das nicht von selber, ich glaube, da sind wir noch nicht.

00:25:02: fortentwickeln, sodass es wirklich niemand mehr versteht.

00:25:05: Aber ich bin, muss ich sagen, nach sehr düsteren Jahren, gerade was, was im Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Jahr, Und von daher will ich sagen, ich bin eigentlich gerade ein bisschen positiver als das letzte Jahrzehnte, wenn ich mir die jüngsten Zensuren so anschaue.

00:25:38: Das mag ich.

00:25:39: Und dann gibt es aber auch so Modelle wie Grock, die ja von vornherein gar nicht sich frei entfalten können, sondern die von vornherein sozusagen darauf gedrillt werden, die Ideen des... Besitzers auszuführen, ausüben, umzusetzen.

00:25:55: Und da steigen wir auch direkt in die Meldung von heute ein, weil das, was jetzt CNN recherchiert hat, ist wahnsinnig interessant, passt so zu der ganzen Geschichte, dass GROC plötzlich eigentlich nur noch... Menschen in bikini zeigt.

00:26:08: zumindest war das bislang so nicht ist nicht mehr ganz unangeschränkt so sprechen wir auch gleich drüber.

00:26:12: aber der grund warum grock angefangen hat hat das zu tun sagt cnn und bezieht sich dabei auf ex-mitarbeiter.

00:26:20: erinnern, dass Elon Musk unglücklich damit gewesen sei wie überzensierend.

00:26:25: diese KI sei.

00:26:27: Und dass man sich deswegen dazu entschieden habe, jegliche Formen von Guardrails, also von Leitplanken aus dem System rauszunehmen, damit eben Elon Musk sich nicht mehr schlecht damit fühlt, dass die Meinungsfreiheit damit eingeschränkt wird, dass keine minderjährigen Menschen in Bikinis mehr dargestellt werden

00:26:40: können.

00:26:42: Also ich, das ist eben dieses Instagram-Dilemma, Sachen passieren, die uns alle unglücklich machen können und sie passieren trotzdem, damit sie eine Person nicht unglücklich machen.

00:26:54: Also unser ganzes Schicksal hängt davon ab, was ein Eigentümer will, weil er einfach die Zugangsdaten zu dieser Maschine hat.

00:27:03: Wir wissen mittlerweile, wie diese Techniken funktionieren.

00:27:05: Also das ist ein Grundlegendes, wir haben überhaupt die Kapazität und dann kommt aber so ein Layer von Alignment.

00:27:11: Menschen haben noch mal drüber geschaut, auch düstere Geschichte, wie in irgendwelchen Keller in Bangladesch sozusagen die Bilder aussättet wurden, die bitte von oben nicht veröffentlicht werden.

00:27:20: Und jetzt sagt Elon Musk einfach genau diesen Sicherheitslehrer will ich da nicht, sondern feuerfrei.

00:27:25: Ich schicke das auf die Gesellschaft los.

00:27:27: Wir können fast froh sein, dass es hier jetzt um Nacktbilder geht und nicht um Anleitungen und Rezepturen für irgendwelche Waffen oder sowas.

00:27:34: Wer bin ich so sicher, ob Grog da auch große Einschränkungen

00:27:36: macht gerade?

00:27:37: Ja, weil dann wäre auch völlig klar, hier muss ja sofort politisch reagiert werden.

00:27:41: Das ist ja dann wirklich wie ein Gefahrgutransporter, der einfach brennend mit zwei Hundert Kamerabeln der Autobahn fährt.

00:27:46: Da würde auch keiner daneben stehen und sagen, er ist schon blöd irgendwie.

00:27:49: für uns unangenehm, sondern dann wäre echt Gefahr im Verzug.

00:27:51: Also in der Ansicht würde ich hier dieses Problem und das Thema, an dem wir es sehen, mal ein bisschen trennen und sagen, ja ja, das ist schon blöd, dass es um nackte Körper geht und Menschen, die das nicht wollen, aber das ist überhaupt so eine Entfesselung von dieser neuen maschinellen Kraft gibt.

00:28:07: Das finde ich wirklich crazy.

00:28:09: und dass das aufgrund von, ja, Elon Musk war unhappy und rennt in seine Belegschaft rein und sagt halt, ihr Ingenieure seid gefeuert und ihr macht das jetzt für mich.

00:28:17: Genau, das ist einfach... Das wird es immer noch dulden.

00:28:21: Ist wirklich protest.

00:28:22: Hier ist auch in Europa wirklich angesagt, es muss Gesetze geben, die sagen, okay, dann ziehen wir erst mal den Stecker, bis das Problem gelöst ist.

00:28:30: Wird erst mal schnell gelegt.

00:28:31: Wie viele Betriebsschließungen haben wir bei Corona gemacht, weil Gefahr drohte?

00:28:34: Eventuell ist so dreihundert Kilometer entfernten Virus und es käme dann hierher.

00:28:38: So, alles liegt still.

00:28:39: Wir machen fünfhundert Milliarden Sonderhaushalte und so.

00:28:42: Und hier ist einfach eine Technologie außer Rand und Band.

00:28:46: Ja, was soll man sagen?

00:28:47: Wir können hoffen, dass hier irgendwelche Politiker zuhören, die das mal in ihre Gremien so ein bisschen als Alarmismus auch mitbringen, anstatt jetzt einfach, es ist schlimm genug, nackte Körper abzuhalten.

00:28:57: Aber es geht wirklich nicht nur um die nackten Körper.

00:29:00: Ist so, ja.

00:29:01: Übrigens dieses Alignment-Bahlspiel, das erlebst du in eigentlich jedem Unternehmen.

00:29:05: Also wie häufig sitzt sich denn in irgendwelchen Social-Media-Beratungen zum Beispiel?

00:29:09: und dann frage ich, warum habt ihr das gepostet?

00:29:11: Was glaubt ihr, was sollen Leute damit anfangen?

00:29:13: Und dann ist die Antwort, ja, der Chef wollte das.

00:29:16: Also es ist dann einfach so eine Mischung aus Ego, Machthunger und fehlende Kompetenz, dass man einfach Entscheidungen trifft, die einfach nur Leute glücklich machen oder auch Befehle gibt.

00:29:29: Anweisungen, die auf gar keine Kompetenzgrundlage stattfinden, sondern einfach nur auf der Selbstverwirklichung oder dem Glauben, man wüsste, ist eh alles besser.

00:29:38: Ja,

00:29:39: hier steht das ja in unseren Übersicht reingeschrieben.

00:29:42: Indonesien hat darauf reagiert und gesagt, wir blocken jetzt Croc.

00:29:46: Genau, als erstes Land der Welt hat Indonesien die Entscheidung getroffen, dass Croc eben nicht mehr nutzbar ist.

00:29:51: Übrigens, nach Redaktionsschluss kam noch dazu, dass Malaysia auch den Zugang zu Croc sperrt.

00:29:57: Das sind immerhin zwei Länder, die da Konsequenzen ziehen.

00:30:00: Wir in Europa schauen uns das Ganze immer noch an, wie der Lkw über die Autobahn rastet.

00:30:03: Also ich finde, hier müssen auch neue Pratikmen eingezogen werden.

00:30:06: Wir haben ja zum Beispiel so internationaler Abkommen zum Thema Klima oder Menschenrechte, wo einfach klar ist, okay, Völkerrechts, also das sozusagen die Ebene zu hoch.

00:30:17: Länder erkennen sich so an, aber was die Regionen dann im Detail machen, ist im Grunde egal.

00:30:20: Und wenn die Regierung wechselt, wie von Biden zu Trump, ist das wirklich auch egal, weil sie ja immer noch Amerika.

00:30:25: Und ich finde, irgendwie kann man solche Länder wie Indonesien, wenn sie sich jetzt mal leise anschließt, man könnte auch in so einer großen Idee des Abkommens denken, dass man sagt, na ja, diese Konzerne sind so wichtig wie Länder und die haben Regierungen und die treffen Entscheidungen.

00:30:40: Und es gibt halt Entscheidungen, die wir als Nationenclub, und zwar die Regierung, die gerade am Werk sind, die das nicht akzeptieren.

00:30:47: Dann wird einfach ein Schalter umgelegt.

00:30:49: Wenn dann wie ein Land wie Polen einfach sagt, wir wollen das Peace wieder regiert, weil die auch einen Wahlversprechen machen, bei uns gibt es dann bei Grog Nacktbilder, dann ist das halt so.

00:30:58: Aber dass man überhaupt erst mal so ein Club-Charakter herstellt, der international wirklich handlungsfähig ist.

00:31:04: Beim Klima hat man es irgendwie hingekriegt, da gibt es große Konferenzen, auch wenn die jetzt wieder ein bisschen aus dem Spiel genommen werden und so.

00:31:09: Aber hier könnte man auch mal über neue Regime nachdenken, die genauso international und eben ... zügig agieren können, wie diese Unternehmen ja auch.

00:31:18: Also diese Entscheidung, die Elon Musk da trifft aufgrund seiner kleinen Unzufriedenheit, hat da wirklich fünf Minuten später auf der anderen Seite der Welt einfach Konsequenzen.

00:31:26: So, und da muss einfach genau so eine Welle politisch zurückrollen.

00:31:30: Und dass Indonesien und Malaysia hier dann wieder so alleine stehen und nach Redaktionsschlussen, man nicht noch hört, es sich auch März mal dazu äußert oder der Familienminister oder was auch immer so, das finde ich auch skandalös.

00:31:40: Friedrich

00:31:40: Merz bestellt den Botschafter von XAI ein.

00:31:44: Das Problem ist, diese Argumentation, da würdest du, glaube ich, d'accord gehen mit Peter Thiel.

00:31:49: Der würde es ähnlich sehendfürchtig.

00:31:51: Ja, Peter Thiel macht natürlich dieses Argument zu sagen, Sehr große Unternehmen stehen künftig bitte ganz kleinen Ländern gegenüber, die können aber dann so als Bündne machen, was sie wollen.

00:32:01: Das ist natürlich ein anderer Diskussionsstrang, das will ich nicht.

00:32:06: Ich will keine Kleinstarterei, die man sich nur wünscht als Wirtschaftsboss, weil man dann eine kleinere Macht sich gegenüber hat.

00:32:13: In der in Sicht hofft man ja auch immer, dass so ein Klimaabkommen einfach nur die Vorstufe ist für echte Klimapolitik, die dann EU weit wirklich richtig mit Richtlinien und Verordnung reinkommt, in deren Sicht sage ich ja auch, ich habe jetzt diese Idee des großen Abkommens, wo man weltweit einfach mal schnell so ein paar Regeln einfach durchsetzen kann, weil man sie vorher schon formuliert hat, bevor Not am Mann ist, dass das natürlich ein Weg zur Politik, zur dann auch wie auch immer, also die EU ist ja da für die schon ein Einfallstor, dass man sagt, nee, nee, wir regeln das jetzt mal für EU-Länderweit.

00:32:52: Also wenn hier Gefahr gut brennt, legen wir den Schalter um, da einfach zuzuschauen, wie Indonesien das macht und Australien das auch und wir dann so ein bisschen, ja, keine Ahnung, wir haben... schon so Gesetze, aber wir machen erst mal Ermittlungen und so.

00:33:05: Dafür ist ja einfach zu viel Not am Mann.

00:33:07: Ja, und es geht soweit mit diesen Ermittlungen, dass die EU jetzt ex angeordnet hat, dass alle GROC-Dokumente, die im Moment im Umlauf sind und die sich mit dieser Generierung von sexualisierten Fotos beschäftigen, dass die bitte bis Ende des Jahres aufgehoben werden müssen, damit die EU dann im Laufe ihres Überprüfungsverfahrens, Ermittlungsverfahrens darauf dann zugreifen kann.

00:33:26: Also sie gehen davon aus, dass sie bis Ende Jahrtausendzeigundzwanzig brauchen, um das Ganze aufzuarbeiten, sonst würden Sie wahrscheinlich kürzere Deadlines setzen.

00:33:33: Ja.

00:33:34: Und wahrscheinlich meinen Sie mit Dokumente noch Dinavierzettel.

00:33:36: Elon Musk wollte auch ausgedruckten Code damals.

00:33:39: Irgendwo schlummert hier noch so ein kleiner Hinweis, weil du jetzt sagtest, dann bestellt Friedrich Merz den Außenminister von Krok ein und so.

00:33:49: Mittlerweile lässt man ja Krok selber kommunizieren.

00:33:53: Das finde ich auch so irre, dass man ja keinen menschlichen Ansprechpartner mehr hat, der man verantwortet übernimmt.

00:33:58: Sondern Grog selbst spuckt eine Antwort aus und die wird dann plötzlich verwendet als... Ja,

00:34:03: die DPA zitiert das.

00:34:05: DPA zitiert Grog.

00:34:08: Grog entschuldigt sich.

00:34:09: Das ist doch absurd.

00:34:11: Aber XAI hat Konsequenzen gezogen, zumindest auf der Oberfläche, denn sie haben schon am Freitag angekündigt, dass öffentliche Bildgenerierung grundsätzlich ein Premium-Feature sei.

00:34:21: Sprich, wenn du dich jetzt auf X, der wahrscheinlich nicht für den Haken bezahlt hat, dazu entscheidest, dich selber im Bikini generieren lassen zu wollen, dann könntest du das so nicht tun, zumindest nicht über den Umweg der Twitter-Time, oder X-Time Line, jetzt sage ich selber schon Twitter, der X-Time Line, sondern du müsstest quasi, und das ist interessant, das über die GROC Website oder als private Anfrage machen, weil dann macht GROC das nach wie vor völlig uneingeschränkt, also was hier XAI als Entscheidung oder X getroffen hat, ist, dass es zumindest erst mal von der offenen Bühne verschwinden soll, diese Generierung, die hochproblematisch ist und die wir ja jetzt auch wirklich häufig schon auch besprochen haben, dass man zumindest nicht mehr mitkriegt, was die Leute da alle

00:34:57: machen.

00:34:58: Ja, das ist im Grunde das Geschäftsmodell der alten Prono-Kinos.

00:35:02: Im Schaufenster zeigst du, was es gibt, nachdem du ein Ticket gekauft hast.

00:35:06: Genau.

00:35:07: So, das ist diese Promotion jetzt, bei der Elon Musk versucht, da Geld rauszuholen.

00:35:10: Ja, das ist genauso.

00:35:13: Genau, und die EU, hab ich gerade schon gesagt, macht nicht so viel.

00:35:16: Großbritannien dagegen, da hat der Premierminister, das finde ich großartig, wo er das gesagt hat, also der Premierminister von Großbritannien, der heißt, wo hab ich mir das denn aufgeschrieben, weiß das auch schon

00:35:26: nicht?

00:35:26: Genau, Stama, danke.

00:35:28: Der hat gesagt, die Verwendung generativer KI, um Menschen ohne ihre Zustimmung auszubeuten oder zu sexualisieren, ist abscheulich.

00:35:36: Hat er einem Radiosender mit dem Namen Greatest Hits Radio gesagt.

00:35:40: Und das wird überall auch so zitiert, dass Greatest Hits Radio jetzt die Quelle ist.

00:35:43: Und der Stama gerade zitiert wird.

00:35:46: Und das ist ein australischer Sender und deswegen hat auch der australische Premierminister Anthony Albanis auch schon gesagt, dass das Grund für große Sorge für ihn ist, was gerade bei Grog passiert.

00:35:55: Also es scheint gerade So als würden sich die Einflüsse Großbritanniens dahingehend zeigen, dass man sich da zusammentut.

00:36:02: Weil man nicht mehr in der EU ist, muss man sich jetzt anderswo mehr halten suchen.

00:36:05: Aber Hauptsache, alle Trommeln laut gegen extra AI.

00:36:07: Das kann ja eher nur der Sache dienlich sein, würde ich sagen.

00:36:11: Ja, also das ist ein ernstes Problem.

00:36:12: Wenn Politiker sich dazu äußern, also Aufmerksamkeit draufwerfen und wir wissen, es gibt genug Leute, die einfach im Fernsehen sehen, Moment mal, mir wird immer die ganze Zeit erzählt, da steht ein Kandidat in Aussicht, der Frauen einfach an die Genitalien greift, bin ich eigentlich cool.

00:36:29: Also was die Leute so wirklich für Konsequenzen ausziehen, weiß man ja nicht.

00:36:32: Und daher würde ich schon sagen, also wenn ein Politiker Aufmerksamkeit darauf legt, dass es irgendwo nackte Körper zu sehen gibt, dann sollte man dann auch die Konsequenzen folgen lassen.

00:36:42: Gerade wenn es heißt, wir wollen das eigentlich nicht, dass die dann auch echt nicht zu sehen sind.

00:36:45: Weil so spielt es einfach der Promotion von diesem Plus-Abo da an die Hände.

00:36:52: Ja, das stimmt.

00:36:54: Wer auch Entscheidungen hätte treffen müssen, abgesehen von der Politik, sind übrigens diejenigen, die die Apps und zur Verfügung stellen.

00:37:00: Also ganz konkret Apple und Google.

00:37:02: Denn sowohl, ich habe da mal ein bisschen rein recherchiert, der Apple App Store hat mehrere Guidelines gegen die X und XAI-Dats hat eigentlich verstoßen.

00:37:10: Denn zum Beispiel dürfen Apps keine beleidigenden, unsensiblen, verärgernenden oder ekel-erregenden Inhalte erstellen.

00:37:16: So wie ganz konkret offenkundig sexuelles oder pornografisches Material ist Guideline eins-eins in den App Store-Regeln bei Apple.

00:37:23: ist auch bei user-generated content dürfen keine anstößigen Inhalte erstellt werden, ohne dass es effektive Mechanismen gibt, die die überprüfen, bevor sie veröffentlicht werden.

00:37:35: Das heißt, das, was Grog hier macht, ist offensichtlich ein Verstoß gegen alle diese Regeln.

00:37:39: Und beim Google Play Store... gibt es auch klare Regeln, die zum Beispiel verbieten, dass man keine Deepfakes generieren kann, dass man keine sexuell expliziten Inhalte generieren kann, wenn man denn im Play Store so auffindbar sein möchte.

00:37:52: Trotzdem haben Apple und Google sich bislang nicht entschieden, diese Apps aus dem App Store zu listen, was The Verge zu der Schlagzeile verleitet hat zu schreiben.

00:37:59: Tim Cook und Zunda Bikhai, also die beiden Chefs der beiden Unternehmen, sind Feiglinge.

00:38:04: Und das kann man so schon festhalten, ja.

00:38:06: Also als Kommentar in einer laufenden Debatte finde ich das gut.

00:38:10: Aber als Debatte, finde ich, muss man noch mal größer auch andere Argumentationen wählen, wie zum Beispiel, dass wir uns jetzt sehr lange darüber gestritten haben öffentlich, was in so AGBs drin steht.

00:38:22: Und damit so ein Metatiskurs auch angeregt haben, mit der Frage, ist das eigentlich über eine Hausordnung zu regeln?

00:38:30: Oder sollte das das Gesetz der Straße sein?

00:38:33: Denn wenn wir jetzt sagen, Apple und Google, okay.

00:38:37: Die sind halt dadurch, dass sie die Handys betreiben, sehr reichweitenstark.

00:38:40: Also man kann da wirklich substanzielle Sachen rausnehmen, wenn da einfach Sachen nicht zur Verfügung stehen.

00:38:44: Aber ich habe gerade ein Plädoyer dafür gemacht, dass wir jetzt wieder den Browser wiederentdecken, allgemeine Standards.

00:38:49: Das heißt x.com in meinem Safari-Browser auf meinem Telefon bleibt ja.

00:38:54: Und ich will auf gar keinen Fall das Apple jetzt im Browser auch noch entscheiden, was da sichtbar ist.

00:39:00: Von daher ist diese Forderung, Apple soll jetzt mal den App Store, aber Safari nicht, ja?

00:39:06: Da steckt schon so eine Unschärfe drin, bei der ich sage, ganz Vorsicht, wenn hier Gesetze fehlen, können wir es nicht einfach in die Hausordnung von Apple und Google schreiben und eben hoffen, dass wir durch öffentlichen Druck, also wirklich demokratisch nicht erreichbare Entitäten, die uns auch nicht sagen, wann sie eigentlich tagen.

00:39:24: Also ich weiß jedenfalls nicht, wann bei Apple irgendwelche Research und Developer Konferenzen sind, dass wir da jetzt was erwarten.

00:39:31: Von daher, so großer Fan von The Verge ich bin und ich auch diese Idee von.

00:39:36: wir machen Technik Journalismus und haben auch eine Meinung dazu.

00:39:38: Ja, aber in dem Fall würde ich sagen, ne.

00:39:41: Also ich verstehe deinen Punkt, aber... Warum an Apple und Google, das ihr trotzdem vorwerfen kann, ist halt, weil es diese Hausregeln gibt, die sie an anderer Stelle sehr häufig als Argument hinzuziehen, um zu sagen, nee, diese App veröffentlichen wir jetzt nicht, weil es theoretischer möglich ist, dass da mal ein Nippel zu sehen ist.

00:39:58: Gleichzeitig aber mit AXIA eine App in den Appstores ist, die regelmäßig oder dauerhaft die Top Ten-Plätze belegt, bei denen sie diese Regeln aber eben nicht durchsetzen.

00:40:07: Also, dass sie hier Doppelstandards an den Tag legen, eben weil sie zum Beispiel Angst davor haben, politische Sanktionen zu erleben.

00:40:13: Und ich glaube, dass man da diesen Vorwurf trotzdem machen können muss.

00:40:17: Ja, in meiner Wunschwelt, hätte man halt einfach gesagt, Steve Jobs ist klug und er meint es gut.

00:40:25: Und er sagt, ich habe hier was Neues, ein App Store auf eine Technologie, die die Welt erobern wird.

00:40:31: Und ich mache jetzt hier schon mal Regeln, weil die Politik länger braucht.

00:40:35: Ja.

00:40:36: Und die Politik kam aber nie.

00:40:38: Der amerikanische Kongress hat einfach niemals irgendwas zum Thema Privatsphäre.

00:40:43: Urheberrecht.

00:40:44: Nichts.

00:40:45: Die EU kam dann irgendwann viel zu spiel mit dem Datenschutzrecht.

00:40:51: Und wir sind alle genervt von Cookies und so weiter, weil er nie ordentlich nachgesteuert wurde.

00:40:54: Und wir klicken Milliarden von Cookie-Bannern weg, völlig sinnlos und grundlos.

00:40:59: Und das halte ich halt für ein echtes Problem.

00:41:01: Also so müde man immer wird, diesen politischen Appell zu machen.

00:41:05: Aber hier muss einfach die Politik mal machen.

00:41:08: Ja, es nützt halt auch nichts, wenn da immer nur hundertjährige sitzen und so ewig brauchen, um sich das Problem erstmal zu verdeutlichen.

00:41:15: Ich kenne sehr viele junge Leute, die auch gerne im Bundestag wollten und wenn man die lassen würde, sähe das schon ganz anders aus und von daher muss der Forderungswind in diese Richtung gehen.

00:41:25: Das ist so, ja.

00:41:27: Ich hab noch so kleinere X- und XAI-Meldungen, die wir jetzt direkt mit abfrühstücken können.

00:41:32: Auch eine schlimme Formulierung abfrühstücken.

00:41:33: Aber hey, ihr hört das ja am Montagmorgen, während ihr im Zug stehen müsst, weil sich keiner getraut hat, Auto zu fahren, weil es glatt ist, bitte fahrt auch nicht Auto.

00:41:41: Da müssen wir jetzt gemeinsam durch.

00:41:43: Denn Bloomberg hat sich mal die Zahlen von XAI angeguckt, zumindest in Großbritannien.

00:41:48: Ist noch gar nicht groß, bitte.

00:41:48: Kommen wir gleich zum Weltweit.

00:41:50: Und XAI hat im September-Quartal, also in Q-Dreit, wie wir bei LinkedIn sagen, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen Kuhdreit, einen

00:42:13: Kuhdreit, einen.

00:42:15: Das ist halt, wenn man viel will und die Konkurrenten aber auch.

00:42:21: und es ist eben scheißegal, wer hier gerade sieben Billionen gefordert hat und wer welche Gasressourcen noch abfeuert.

00:42:27: Hauptsache, das Rechenzentrum läuft irgendwie.

00:42:31: Das sind einfach kranke Zahlen und da wird man auch in ein paar Jahren drauf gucken und fragen, habt ihr sie noch alle?

00:42:37: Also,

00:42:38: warum?

00:42:39: Das Kursgewinnverhältnis von Facebook war ja immer absurd so, das war ja immer... zehn, zwanzig, dreißigfach über so normaler Wirtschafterei eigentlich.

00:42:47: Aber das, was hier gerade stattfindet, ja, also das einfach für ein Apple und ein Ei, Leute bezahlen zwanzig Euro im Monat, hunderte Milliarden investiert werden.

00:42:56: Also das wird noch ... ... will es nicht von der Blase anfangen und so, ... ... wir sind hier nicht der Doppelgänger-Podcast, ... ... aber da ist auf jeden Fall noch einiger Diskursbedarf.

00:43:04: Ja, die spannende Frage ist aber halt, ... ... was, wo führt das hin und was ist das Ziel?

00:43:09: Denn Elon Musk selber hat, ... ... und das wurde schon öfter ja auch gemutmaßt, ... ... dass das kommen könnte, ... ... hat aber jetzt darüber gesprochen, ... ... dass ja die Interessen der Unternehmen ... ... durchaus zusammengeführt werden könnten.

00:43:18: Also mal angenommen, ... ... Tesla würde in XAI investieren ... ... oder SpaceX würde in XAI investieren, ... ... dann stellt sich ja schon die Frage, ... ... warum dann der Ganze auf... Warum hat man nicht von vornherein das ganze Via-Tester gemacht?

00:43:30: Na ja, man könnte jetzt.

00:43:31: Und ich bin immer sehr vorsichtig mit solchen Verschwörungen, aber... Elon Musk stört sich ja schon sehr lange daran, dass ihm nur ungefähr ein Viertel von Tesla gehört und nicht die Hälfte.

00:43:40: Wenn er es jetzt schafft, mit Hilfe von massiven Überbewertungen, großen Finanzierungsrunden und so weiter, XAI extrem wertvoll zu machen, gleichzeitig Tesla durch absoluten Stillstand in der Entwicklung auf der Plattformebene, auf der Fahrzechebene und so weiter, an Wert verliert und Tesla würde irgendwann, weil sie mehr Geld übrig haben als XAI, XAI schlucken, hätte Elon Musk automatisch mehr einen deutlich größeren Anteil an Tesla als vorher.

00:44:04: Ja, genau.

00:44:05: Und ich kann da leider nicht groß einsteigen.

00:44:07: Ich kenne mich da zu wenig aus.

00:44:09: Aber ich habe sehr wohl gesehen, dass dieser Chef von Nvidia auf der Bühne steht und sagt, ich habe mal eben selbst vorhanden Assistenten aus dem Ärmel geschüttelt, den man in jedes Auto einbauen kann.

00:44:20: Und das sind solche, denke ich mir, so substanzielle Einschläge in so Business-Modelle von heute auf morgen.

00:44:26: Das muss man als Tesla dann auch erst mal überleben abseits der öffentlichen Stimmung gegen Tesla.

00:44:31: Also ich frag mich, warum er überhaupt noch so viel Geld hat.

00:44:33: Also diese Buchwerte sind mir unbegreiflich einfach.

00:44:38: Tesla übrigens selber will jetzt einen Halbleiterwerk bauen.

00:44:41: Also Chips mit einer zwei Nanometer Größe.

00:44:45: Das ist ziemlich, wäre ziemlich krass.

00:44:47: Also selbst TSMC liegt im Moment bei drei Nanometer, wenn ich richtig informiert bin.

00:44:51: Aber Elon Musk hat dabei auch angekündigt, dass er etwas anders machen möchte als TSMC in Taiwan oder Apple zum Beispiel, die auch glaube ich bei TSMC produzieren.

00:44:58: Denn er hat angekündigt, dass man in seinem Chipwerk, auch während die Chips produziert werden, eine Zigarre rauchen kann.

00:45:05: Was deswegen sehr interessant ist, weil viele andere Chipwerke und bei TiersMC ist es zum Beispiel so, dass Menschen, die in diesen Werken arbeiten, zwei Stunden vorher nicht rauchen dürfen, keinen Sprühdeo benutzen dürfen, vorher sauber gemacht werden und so, damit es eben zu keiner Verunreinigung kommt.

00:45:17: Denn zwei Nanometer ist wirklich, wirklich, wirklich sehr, sehr klein.

00:45:22: Und er sagt, man kann da drin einfach nur in diesen Reihenräumen ohne Probleme eine Zigarre rauchen, alle anderen hätten Reihenräume einfach nur falsch verstanden, sagt wer.

00:45:30: Hast du mal so ein YouTube-Video gesehen?

00:45:32: oder bei Instagram oder irgendwo, wo so eine Maschine erklärt wird, wie diese Chips machen?

00:45:37: Ja,

00:45:37: das ist verrückt.

00:45:38: Also da steht man davor wie vor so einem Gemälde von Michelangelo in der sikstinischen Kapelle und fragt sich, wie geht das und überhaupt.

00:45:45: Irgendwer hat vor vierhundert Jahren Körper aus Steinen rausgeschlagen, wo wir uns bis heute fragen, wie man so viel anatomisches Wissen als siebzehnjähriger?

00:45:54: und heute steht das halt in der Villa Borghese in Rom.

00:45:56: Es verzaubert die Welt.

00:45:57: Das ist einfach pure Magie.

00:46:00: Und ich finde es auch mittlerweile... Es hat so einen eigenen Charakter von modernen Märchen, wenn so erzählt wird, nur Carl Zeiss kann die Linzen herstellen, nur ASM kann diese Maschine zusammenbauen, nur Taiwan kann die Maschine betreiben.

00:46:15: Das sind so viele Sonderbare und also wirklich pure Magie einfach, dass ich mir denke, ja, dann soll er das doch einfach machen und dann ist er halt.

00:46:26: Ja, er rauchte halt seine Zigarre neben so einer Maschine und hoffte, dass da zwei Nanometer Dinger drauf gebrützt werden.

00:46:31: In einem Verfahren, das wäre alle für unerklärbar halten.

00:46:35: Und viel Glück!

00:46:38: Und wo wir gerade bei Versprechen von Maske sind, denn er hat auch angekündigt, und das hast du eben schon mal kurz angesprochen, dass er den Ex-Algorithmus nächste Woche als Open Source veröffentlichen möchte.

00:46:47: Also innerhalb von sieben Tagen.

00:46:48: Das ist unter mehreren Gesichtspunkten eine hochinteressante Ankündigung.

00:46:51: Denn erstens hatte das schon sehr häufig versprochen und es gab zwar eine Ankündigung im Jahr und auch eine Veröffentlichung, der ist allerdings nur teilweise öffentlich gegangen.

00:47:02: Also wir haben keine Gewichte bekommen, wir wissen nicht, welche Faktoren tatsächlich zur Ausspielung von geführt haben, sondern es gab einfach nur so ein bisschen Repository of GitHub.

00:47:10: Und das soll aber jetzt eben aktualisiert werden, knapp drei Jahre oder zweieinhalb Jahre danach.

00:47:15: Und die Ankündigung ist eben auch von Elon Musk, dass sie eine Antwort geben soll, warum dir welche Inhalte angezeigt werden.

00:47:22: Ob das so kommen wird, ist wie bei allen Versprechen von Elon Musk steht in den Sternen, würde ich sagen.

00:47:29: Ja, lass uns das doch mal verknüpfen mit dieser Nachricht, dass Antropic festgestellt hat, dass sehr viele Leute, die bei XAI arbeiten, einfach Cloud Code dafür benutzen und jetzt wurden die ausgesperrt.

00:47:45: Für mich bedeutet das einfach, diese beiden Meldungen zusammen.

00:47:49: Die im Büro von XAI stellen Code her, aber ohne die Hilfe von Cloud Code.

00:47:57: Dann laden Sie es auf GitHub, wie versprochen von Elon Musk.

00:48:01: So ich ja für mich ist es ein klick meinem vs code.

00:48:04: so sagen vor mir bitte dieses github repository.

00:48:07: und dann sage ich einfach meinem clot.

00:48:10: Mach mal davon bitte ein ordnet nach den und den gesichtspunkten zeigen wir Verbesserungspotenzial.

00:48:15: so ich habe ja zugang zu dieser an tropik technik die x-leute nicht.

00:48:20: Und das finde ich so wahnsinnig als idee einfach ja dass das so eine krasse asymetrie ist dass mir einfach.

00:48:25: der klügste künstliche Mitarbeiter der Welt für Koterstellung und so zur Verfügung steht und denen halt nicht.

00:48:32: Und Elon Musk einfach so Spielereien macht mit, ja ja dann laden wir das ganze Kotzeug mal zum Stefan Schulz nach Hause.

00:48:39: Also das ist einfach so, es gibt doch Leute, die kennen sich da aus, wie man dann damit umgeht und die würden doch... Also damit so Sachen zaubern können.

00:48:46: Also das ist mir alles,

00:48:48: was

00:48:48: ich von Elon Musk immer hören, ist so sonderbar irgendwie.

00:48:51: Jetzt kann man wieder zu CNN-Recherche, in der gesagt wurde, dass die meisten XAI-Engineerinnen, wahrscheinlich Entwicklerinnen, die sich eben mit Sicherheitsmechanismen, Vertrauen, also Trust beschäftigt haben und so weiter einfach entlassen wurden.

00:49:03: Und das waren wahrscheinlich auch diejenigen, die eben gesagt haben, na ja, vielleicht sollten wir das nicht alles nur Vibe-Coden hier, sondern vielleicht mal richtig machen.

00:49:10: Die wurden allerdings nicht ausgesperrt, weil Entropic sich dazu entschieden hat, die auszuschließen.

00:49:14: sondern sie haben Cursor benutzt, eine Software, die eben auf Entropic basiert hat und die eben nicht mehr auf Entropic zugreifen können, wie XAI Co-Founder in dieser Woche eben bekannt gegeben hat, Toni

00:49:26: Ruh.

00:49:26: Ganz Cursor ist davon betroffen?

00:49:28: So klingt es zumindest.

00:49:29: Oh,

00:49:30: das ist eine große Nachricht.

00:49:32: Ja, aber gleich vor dem Missverstand.

00:49:34: Und

00:49:35: das wirklich nur, also wie ich jetzt finde so, als Rapper für Cloud Code.

00:49:40: Die Formulierung von Tony Wu, dem XAI-Mitgründer und Mitarbeiter lautet so, ihr habt sicherlich schon mitbekommen, dass Entropic-Modelle nicht mehr antworten auf Cursor.

00:49:50: Das liegt an einer neuen Policy, die eben Cursor betrifft, was Entropic festgelegt haben

00:49:55: soll.

00:49:55: Oh, das ist krass.

00:49:56: Weil in Google Antigravity ist es drin, also da kann man es benutzen.

00:50:00: Und sowieso als Plug-in in VS Code.

00:50:02: Und ich muss sagen, also davon kommt auch viel meines Optimismuses vom Anfang, dass das so zur Verfügung steht.

00:50:08: Für mich als ... nicht auskenner, so eine Entwicklungsumgebung zu haben, in der ihm nicht nur die Gestaltung von überhaupt Software, sondern eben auch unter Sicherheitsgesichtspunkten diese ganze Audit- und Planungssachen.

00:50:23: Also, dass da wirklich Intelligenz im Mitglied geliefert wird, das ist erstaunlich.

00:50:27: Dass das jetzt in Cursor nicht mehr zur Verfügung stellt, ist für Cursor, glaube ich, ein echt großer Schlag.

00:50:32: Ich bitte im Fact Check das.

00:50:34: Ihr könnt das ausgekebt wahrscheinlich jetzt schon im Discord lesen auf www.hakenland.org über zwei Tausend Leute und so ihr wisst.

00:50:40: Vielleicht ist es auch hier ein Einzelfall, der nur XAI betrifft.

00:50:43: Wir werden das nachhalten in der nächsten Episode.

00:50:47: Ansonsten habt ihr vielleicht eine E-Mail bekommen.

00:50:48: Vielleicht hast du auch eine bekommen, weil wir von über Instagram gesprochen haben, dass jemand versucht hat, dein Instagram-Passwort zurückzusetzen.

00:50:54: Hast du bekommen?

00:50:55: Nein, ich habe original von einer halben Stunde vor wir hier uns getroffen haben von Facebook so eine Nachricht bekommen.

00:51:01: Ja, und das ist deswegen interessant, weil, wie es heißt, im Darknet.

00:51:06: Ich liebe das im Darknet.

00:51:08: Es sind siebzehn Komma fünf Millionen Nutzer in den Konten von Instagram aufgetaucht, inklusive E-Mail Adresse, Nickname, Telefonnummer, Klarname und Standort Daten, vielleicht sogar Adressdaten.

00:51:18: Die werden dort verkauft und betreffen alle, also siebzehn Komma fünf Millionen Menschen überall auf der Welt und ist eines der größten Leaks, die Meta in den letzten Jahren so erlebt haben.

00:51:27: Und was eben passiert ist, dass es offenbar Leute schon gekauft haben und versuchen mit automatisierten Passort Reset Anfragen diese.

00:51:35: Konten zurückzusetzen.

00:51:36: Wahrscheinlich haben Leute da irgendwie sich auch schon Zugang zu diesen E-Mail-Postfechern verschafft, weil sonst wäre dieser Passwort-Reset relativ witzlos und nutzlos.

00:51:44: Instagram selber sagt, wir haben ein Issue gefixt, das dabei geholfen hat, dass Menschen von außen Passwort-Reset-E-Mails anfordern können.

00:51:53: Es gab kein Leak in oder kein Breach in unseren Systemen, die Instagram-Accounts sind sicher.

00:51:58: Haben sie auf X gepostet?

00:51:59: und die Kita B hat drunter geschrieben, ich bin froh, dass ihr es auf X gepostet habt, auf Threadset ist nicht... Niemand gesehen.

00:52:05: Naja.

00:52:06: Ja.

00:52:07: Ja, das ist interessant.

00:52:08: Also ich bin gespannt.

00:52:09: Es war für mich vorhin der Grund, mich nach Jahren mal wieder bei Facebook anzumelten, einfach zu gucken, ob der Account überhaupt noch da ist oder ob es schon jemanden gelangt.

00:52:18: Er ist noch da.

00:52:20: Aber ich finde auch, so wie du es jetzt vorgelesen hast, das ist mittlerweile und ich finde, das sollten jetzt auch Journalisten so langsam so behandeln.

00:52:26: Das ist ein profaner Betriebsunfall.

00:52:29: Da muss nichts verheerlicht werden.

00:52:31: Und das ist auch nicht das große Silicon Valley.

00:52:32: Das ist ja unnahbar, wie auch immer so.

00:52:35: Sondern das sind jetzt einfach profane Betriebsunfälle.

00:52:37: Da holt man sich als Betroffene ein Anwalt und dann wird da einfach irgendwas gemacht.

00:52:41: Und dann ist da entweder Schadensersatz oder was auch immer, je nachdem, wie schadenkalkuliert wird, wie auch immer.

00:52:47: Hier können wir nicht einfach wie bei einem Autounfall.

00:52:49: Ja, da macht es auch keiner kleinste Blechschäden.

00:52:51: Da holt man erst mal die Polizei und man fährt nicht einfach weiter und macht so sein Alltag, sondern diese Neue Sicht aufs, auf dieses Social-Verband, das will ich jetzt.

00:53:00: Wir sind jetzt im KI-Zeitalter.

00:53:02: Wenn jemand was verherrlichen will, jetzt bitte die KI, ja, Social Media ist jetzt einfach das Normale.

00:53:06: Und das sollten wir jetzt auch normal behandeln, wir haben Gesetze.

00:53:09: Das ist der, der Stefan Schöweibschift.

00:53:14: Genau.

00:53:14: Das Interessante ist aber, dass es hier nicht wirklich ein Leck gegeben, also nicht technisch gesehen, ein Leck gegeben hat.

00:53:19: Also es war nicht, dass sich irgendjemand von außen Zugriff auf die Server verschafft hat, sondern sie haben es über öffentliche APIs geschafft, an diese Daten ranzukommen, was natürlich trotzdem eine Indiskretion ist oder ein sorgloser Umgang mit Datenseitensmeter.

00:53:32: Das kann so in diesem großen Stil, sollte das nicht passieren und darf auch nicht passieren.

00:53:37: Trotzdem ist es halt nicht so, dass jetzt irgendwie eure Daten unverschlüsselt auf irgendwelchen Servern rumgelegen haben.

00:53:42: Es ist aber ein weiterer oder ein abermaliger, äh, eine abermalige Chance dafür nochmal daran zu erinnern.

00:53:48: Leute, bitte mach die zwei Fakte Identifizierung

00:53:50: an.

00:53:52: Ja, absolut.

00:53:53: ist, muss man so dazu sagen.

00:53:55: Gleichzeitig und das halte ich für eine sehr große Meldung, die aber bislang noch nicht so große Wellen geschlagen hat.

00:54:00: Wir haben vor einigen Wochen darüber gesprochen, dass Meta das eigene Oversight Board beauftragt hat.

00:54:05: Das ist ja diese, die Gehörnsteil zum Unternehmen treffen, aber unabhängige Entscheidungen, die aber vom Unternehmen auch umgesetzt werden müssen.

00:54:12: Und das Oversight Board sollte mal herausfinden, in welchen Ländern auf dieser Welt Community Notes nicht ohne weiteres die FaktencheckerInnen ersetzen können, weil zum Beispiel kulturelle Differenzen im Land gibt, Unklarheiten oder vielleicht auch Schwierigkeiten in der politischen Durchsetzung, weil zum Beispiel Desinformationen, seitens der Politik gibt, oder, oder, oder.

00:54:32: Offenbar hat Meta nicht darauf gewartet, dieses Ergebnis sich anzuschauen oder das Oversight-Baud machen zu lassen, denn Rado Uncescu, einer der Reverse-Engineers, über die wir ja auch häufiger sprechen, hat jetzt Hinweise darauf, dass die Community Notes weltweit auf Facebook ausgerollt werden.

00:54:51: Also, du hältst das für eine sehr große Nachricht, weil, also es geht ja hier um Kern Facebook, also Leute, die auf facebook.com, auf dem Newsfeed und so weiter.

00:55:00: Aber wenn was bei Facebook anfängt, wird nicht bei Facebook bleiben.

00:55:02: Ja.

00:55:04: Diese, also es sind so ein Grundekommentare im einheitlichen Format, so dass man sieht, aha, hier gibt es so allgemeine Informationen, auf die könnte ich auch nochmal einen Blick werfen.

00:55:13: Ja, aber es ist natürlich auch ein Feigenblatt.

00:55:15: Weil du, weil diese Ankündigungen, die Faktenchecker durch Community Not zu ersetzen in erster Linie damit argumentiert wurde, dass Faktenchecks, die de facto nur Testate waren über eine konkrete Tatsachenbehauptung, also ist etwas richtig oder ist etwas falsch, nachweislich, dass die eben deswegen ersetzt wurden, weil die immer zu großen Bias hätten, immer Vogue-Links wären und so weiter und so weiter.

00:55:40: Also das ist alles so ein bisschen das klassische Trumpisierungsnarrativ, das ich sage.

00:55:46: Aber

00:55:46: spiel das mal an diesem einen Fall, der ja wirklich gerade Amerika beschäftigt durch.

00:55:50: Du siehst eine Meldung, Freunde posten irgendwas von, da war ein Vorfall in Minnesota, eine Frau wurde erschossen von einem Eis und so weiter.

00:55:58: Und dann steht als Community Note unter, der Vizepräsident hat gesagt, da war nichts, das ist Terrorismus.

00:56:04: Und außerdem haben diese Behörden ja absolute Immunität.

00:56:07: Das ist die Tat von J.D.

00:56:09: Wenz.

00:56:09: So, dann hast du eine Nachricht von... Jade Evans macht eine Pressekonferenz und sagt absolute Immunität und so weiter.

00:56:17: Und dann kommt ein Community-Not drunter, ja, aber das Video zeigt anderes.

00:56:21: Also das ist ja ein Durcheinander.

00:56:23: Ja, das ist so.

00:56:24: Vor allem, weil die Community Notes bei Meta basieren ja auf der Technologie, die Ex eben auch genutzt für die Community Notes, die sie erfunden haben.

00:56:33: Und die basiert aber darauf, dass eine Community Note nur dann angezeigt wird, wenn Menschen unterschiedlicher politischer Lager gleiche Ergebnisse gegeben haben.

00:56:43: Also angenommen du und irgendeinen Rechtsextremist sagen beide bei der selben Community Note, Das ist korrekt.

00:56:50: Dann steigt die Wahrscheinlichkeit, dass sie mir dann angezeigt wird.

00:56:53: Und dieser Geburtsfehler, der da drinsteckt, der in diesem Beispiel, das du gerade genannt hast, schon nicht funktioniert hätte, zeigt eben, dass die meisten Community-Notes niemals das Licht der Welt erblicken.

00:57:04: Ja, genau.

00:57:04: Und dann stellt sich mir auch die Frage, wie gebe ich denn mich, wenn ich eine Community-Note sozusagen... bestätige ja wie gebe ich mich denn als links oder rechtsextrem zu erkennen?

00:57:15: also klicke ich dann kasten an?

00:57:17: oder wissen die das einfach über mich im sinne von steffan schulz hat da und das wissen wir ja das ist ein rechtsextremer.

00:57:22: so.

00:57:22: also wo kommt denn diese information her?

00:57:24: das ist doch alles.

00:57:25: ich weiß nicht.

00:57:25: diese community notes schwierig

00:57:29: ja das ist so.

00:57:31: Wir haben schon so viel geredet, aber ich habe noch zwei Meldungen über die ich sprechen möchte, vielleicht sogar drei, die alle ein bisschen auch was mit KI zu tun haben, aber die ganz gut in das über das wir hier immer sprechen und vor allem zu unserem Gespräch heute ganz gut passen.

00:57:43: Denn die Meldung eins ist folgendes.

00:57:45: Und zwar hat ein Sachverständiger ein Gutachten geschrieben und zwar ging es um ein Gutachten im Bereich der Mundkiefer und Gesichtshirurgie.

00:57:53: Und der hat aber in diesem Fall, über das das Landgericht Darmstadt entschieden hat, am Ende null Euro Honorar bekommen, weil das Gericht Zweifelsohne feststellen konnte, dass dieses Gutachten komplett von einer KI geschrieben wurde.

00:58:06: Das haben sie daran festgemacht, dass einige Hinweise, die in diesem Text auftauchten, entweder bizarre Formulierungen waren, in denen sich der Sachverständige inklusive vollständiger Adresse benannte selber, was geil ist, schade vor, du würdest immer von dir selber mit deiner Adresse sprechen, dann monotonisch Struktur, die fast insgesamt ausschließlich, insgesamt fast ausschließlich steht also aus Hauptsätzen Bestand und eine gewisse Nachlässigkeit, die eben durchaus Fehler auf Fehler schließen.

00:58:34: Die sind vor allem sogar in der Art und Weise, wie die Prompts formuliert wurden.

00:58:37: Ja.

00:58:38: Also, das Gutachten muss unterirdische Qualität haben für jeden.

00:58:42: Also, dass die Kostenabrechnungsstelle da irgendwie selber von Gutachten und Anführungszeichen spricht und so.

00:58:48: Das spricht ja schon Bände.

00:58:49: Also, da wird ja quasi ein Gutachten über einen Gutachten von jemand, der wahrscheinlich von dem Gutachten keine Ahnung hat, aber das auf den ersten Blick sieht.

00:58:56: Ich will jetzt noch kurz anschneiden.

00:58:58: Wir hatten bei uns im Podcast im Salon, hatte ich einen Text vorgestellt von einer Autorin, die hat so ein Experiment nachvollzogen von so einem Literaturprofessor.

00:59:07: der den Korpus einer Literatur Nobelpreisträgerin, G.G.B.T.

00:59:15: IV.O.

00:59:16: und hat dann kleine Ausschnitte weggelassen, die aber für das Buch einfach prägend sind, also zentrale Szenen wie eine Mutter betrauert, eine Todgeburt und so.

00:59:27: Und hat sich dann den Wort laut, wie könnte in einer Zeile, was könnte die Mutter gesagt haben?

00:59:33: Und das Publikum war doch sehr beeindruckt, wenn diese Fragestellung eben ganz detailliert, ganz kleinräumig und super gut achtet von jemandem, der den Satz auch selber schreiben könnte, aber der einfach Inspiration sucht und so.

00:59:49: Und das haben wir ja hier offenbar nicht, sondern hier hat jemand ein ganzes Gutachten im Sinne von Schreibmal.

00:59:54: Ja, und er wird noch so dreimal nachgepräumtelt, aber schon, dass dann die KI selber auf die Proms reagieren.

01:00:00: Ja, also dieser Metatext wird dann nicht rausgestrichen, also es wurde offenbar nicht mal von dem Gutachter selbst gelesen.

01:00:06: Ja, ich glaube, das ist mittlerweile die Spannbreite, in der wir hier darüber reden müssen.

01:00:10: Also einfach nur sagen, die KI hat, gilt hier einfach nicht.

01:00:14: Sondern hier müsste man sich jetzt genauer anschauen, was hier vorgefallen ist.

01:00:17: Und ich glaube, das scheint ein ziemlich absurder Vorfall gewesen zu sein.

01:00:20: Während dieses in eh schon ästhetischen Bereichen geht jetzt die KI selbst Nobelpreisträgern zur Hand und ein Testpublikum sagt, wow, der Ton ist so gut getroffen.

01:00:32: Man erkennt dich wieder und sie meinen eigentlich den Autor.

01:00:36: Also da ist mittlerweile so eine gigantische Spannbreite, wie man KI verwenden darf.

01:00:40: dass wir eigentlich schon unterschiedliche Worte dafür brauchen.

01:00:43: Das ist wie wenn die Norweger, dass ja die Legende so über Schnee reden, die würden nie einfach so wie wir Schnee sagen, weil das eben jeden Tag ein anderer Schnee ist und so.

01:00:50: Und so müsste man eigentlich auch über die KI reden, aber ich finde es witzig, dass hier einfach so eine Kostenstelle sagt, sorry, das ist ein gut achten Anführungszeichen, das bezahlen wir nicht.

01:00:59: Ja, in den Niederlanden muss jetzt eine Hochzeit wiederholt werden, weil da darfst du freie Trauerung durchführen.

01:01:04: Also sie haben eine Freundin gebeten, einen Ehelschwur zu formulieren und in diesem Ehelschwur Da fehlten aber offenbar wichtige Passagen, die wichtig wären, um die Ehe anzuerkennen, weswegen die Ehe nachträglich von einem Gericht ungültig erklärt wurde.

01:01:17: Da hat jemand nicht aufgepackt.

01:01:19: Aber das ist halt, ich finde das ganze Thema, du hast natürlich vollkommen recht, wie gehen wir damit um?

01:01:24: Was machen wir damit?

01:01:25: Aber auch die eigene Fähigkeit zu hinterfragen, was wir für Antworten bekommen.

01:01:30: Da gibt es eine ganz spannende Studie von Global Witness zur sogenannten AI-Secopency.

01:01:35: Also der Wille dieser KI eines Chatbots, Dinge zu sagen, die uns gefallen oder die in ein Bild passen.

01:01:42: Sie haben dort zwei Profile erstellt, also das eines normallos, sage ich mal, vorsichtig formuliert und eines Verschwörungsgläubigen.

01:01:51: Und haben dieselben Fragen gestellt im Thema Klimawandel.

01:01:54: Und haben in verschiedenen KI's dazu gefragt und geschaut, wie groß ist die Verschwungsanfälligkeit der Antworten, je nachdem was ich sonst so von mir selber preisgebe.

01:02:03: Die Fragen sind zu Sachen wie zum Beispiel, sollte ich mir zukünftig mehr sorgen um die Wirtschaft oder um das Klima machen oder schreiben sie mir einen Social Media Beitrag zum Thema Klima, der viel Aufmerksamkeit bekommt.

01:02:12: Solche Fragen haben sie gestellt und das Interessante ist aber, dass zum Beispiel die KI GROC, das größte Risiko für verschwörungsantfällige Antworten mit sich gegeben hat.

01:02:21: Also sie schreiben GROC zeigt die stärkste Tendenz zur Radikalisierung und Verbreitung von Desinformationen.

01:02:27: GROC hat selber die Klimakrise als ein unsicheres Ding bezeichnet, vorhanden vor Regierungsübergriffen wie zum Beispiel fünfzehn Minuten Städte, hat das so als Verschwörung abgetan und haben gesagt Netto-Null-Ziele würden zu einem Massenhunger führen.

01:02:41: ... wofür es keine Belege gibt, ... ... hat sich aber hier auf Daten bezogen, ... ... die nicht stimmen.

01:02:47: Chajipiti da ging, ... ... war ein bisschen ausgeglichener.

01:02:49: Meta AI da ging, ... ... hat kaum Personalisierung gezeigt, ... ... was glaube ich nicht wirklich Absicht war, ... ... sondern wahrscheinlich eher Mangel ... ... an technischer Vision.

01:03:00: Also das Bildungssystem besteht auch viel daraus, ... ... wie man eigentlich richtig liest und so.

01:03:05: Und es gibt wirklich amüsante Texte in den Geisteswissenschaften, die neunzehn Arten des Lesens, auch wie geht man mit nicht gelesenen Literaturen um, über die aber viel gesprochen wird, muss man das markieren oder was auch immer und so.

01:03:18: Und KI Texte lesen ist noch neu.

01:03:22: Das ist ein unbestelltes Feld, aber diese Texte sind da.

01:03:25: Und daher würde ich sagen, das ist jetzt, also das, was du jetzt vorgetragen hast als Meldung, ist eben ein ganz wichtiger, aber ganz kleiner Baustein in einer ganz großen Entwicklungsgeschichte.

01:03:36: Weil wir können die KI jetzt nicht einfach ausradieren.

01:03:39: Wir können nicht einfach sagen, da wird ein Gutachten geschrieben oder was auch immer oder jemand hat was zum Klima gefragt, sondern hier muss halt jetzt wirklich, wir müssen auch ein bisschen reinsozialisiert werden.

01:03:48: So wie die KI neue ist, brauchen wir jetzt so ein KI Brain, das genauso ein bisschen neu ist.

01:03:53: Und hier kann man eben dieser alten.

01:03:55: Das ist auch ganz witzig.

01:03:56: Wir jammern jetzt so, dass die Bilder uns ja Sachenvorgaben, die nicht da waren.

01:04:01: Vor vierhundert Jahren sind die Leute einfach mit Urkunden an Dörfern aufgeschlagen und haben gesagt, der Fürst schickt mich, ihr müsst den Zehnten an mich zahlen.

01:04:10: Und dann war das Dorf sich einfach total sicher, der hat ja eine Urkunde auf Papier mit.

01:04:13: Klar kommt er vom Fürsten, wer hat sonst Papier.

01:04:16: Und es ist genau dasselbe wie heute.

01:04:18: Also, dass man Text nicht mehr trauen darf.

01:04:20: Das war eine ganz große... Jahrzehnte lange Sozialisationsgeschichte, nur weil das da steht.

01:04:26: Und dann hat man irgendwann angefangen, so mit Stempeln und Siegeln und hier und da und so.

01:04:30: Und so ist das halt jetzt bei diesem ganzen KI-Zeug auch.

01:04:33: Nur weil die Grammatik stimmt, ist noch nicht viel gesagt.

01:04:35: Und jetzt müssen wir alle neu lesen lernen.

01:04:37: Das finde ich einen fantastischen Satz.

01:04:39: Ich glaube vor allem, und du hast natürlich vorkommen recht, wir werden das nicht mehr los.

01:04:42: Es ist gekommen, um zu bleiben.

01:04:44: Und wir müssen aber dieses Lesen eben so sehr lernen, indem wir zum Beispiel uns auch dem Gewahr machen, dass die Inhalte, die du in Chatshipiti oder von Chatshipiti bekommst und die ich von Chatshipiti bekomme, nicht zwangsläufig die gleichen sein müssen.

01:04:56: Und die auch durchaus extra so gebaut sind, um dich oder mich glücklich zu machen, aber eben nicht nach allgemeingültigkeit mit sich zu bringen.

01:05:03: Das auch zurückgebunden an den Anfang, ja?

01:05:05: Wenn jeder Instagram Feed aussähe wie meiner, gäbe es ein Sturm aufs weiße Haus.

01:05:12: Was bedeutet, sehr viele Leute haben ein sehr anderes Instagram als ich.

01:05:17: Und das muss man sich immer wieder bewusst machen.

01:05:20: Und so wie wir das gelernt haben, wie wir das gelernt haben, dass Suchergebnisse bei Google immer unterschiedlich aussehen, ist das hier genau so.

01:05:27: So, jetzt habe ich noch eine politische Meldung.

01:05:28: Du hast vorhin in Polen ja schon angesprochen.

01:05:30: Und ich weiß nicht, ob das Zufall war oder Absicht.

01:05:32: Aber der polnische Präsidenten Havrocki, der hat gesagt, dass er sich Trump anschließt.

01:05:38: Er glaubt auch, Brüssels Gesetze gegen Technologiekonzerne seien zu all-wage, müssten blockiert werden und seien eine Einschränkung der Wahrheit oder Redefreiheit.

01:05:47: Ja, hier ist eine internationale Klicke am Werk, die uns Normalbürger kurz und klein schießen möchte, die uns unseren Platz wieder zuweisen möchte, die alte aristokratische Ideen vom, es gibt hundert Leute auf der Welt und der Rest ist Hofstaat.

01:06:06: Und da gehören einfach solche Präsidenten jetzt in diese Klicke.

01:06:09: Und die müssen wir auch genau so beobachten, dass Orban seit einem Jahrzehnt der EU so auf der Nase herum tanzt und dieses Veto-Rechte einfach durchbrügelt.

01:06:18: Und jetzt ein Land nach dem anderen.

01:06:20: Mal gucken, was mit Frankreich passiert.

01:06:22: Also hier brauchen wir neue Gegenregime zu diesem.

01:06:26: Milliardäre machen einfach was unter sich und kaufen sich dann Präsidenten und so.

01:06:30: Weil so geht's nicht.

01:06:32: Und wie wird das aussehen?

01:06:34: Ja, das ist eine gute Frage.

01:06:36: Also ich bin wirklich sehr dafür, dass wir von diesem Ansatz runterkommen zu sagen, Staaten sind in Vereinbarung miteinander.

01:06:43: Das muss in die Lebendigkeit der die Regierungen.

01:06:46: was machen das miteinander.

01:06:48: Also wenn in Frankreich neu gewählt wird und es ist ein neuer Präsident da.

01:06:52: Dann müssen die bestehenden eines Clubs zu welchem Thema auch immer diese Regierung fragen, wie sie sich dazu verhält.

01:06:59: Und das muss dann auch sozusagen wirkmächtig sein.

01:07:01: Da kann man nicht einfach sagen, wir haben vor achtzig Jahren ja mal Frankreich anerkannt, also ist das jetzt im Club.

01:07:06: Sondern das muss so auf diese lebendige Ebene, wo Regierungen handeln und nicht einfach Staaten sind, verfasst und haben halt mal Verträge unterschrieben.

01:07:13: Und von daher halte ich da so eine Revitalisierung der Demokratie einfach.

01:07:18: Ja, dass man nicht ins Amt kommt und eine Sonntagsrede hält, sondern echte Bekenntnisse, die auch einklagbar sind, sozusagen, ablegt.

01:07:24: Das halte ich für sehr wichtig, weil da kommt auch so eine neue Geschwindigkeit rein, so eine neue Verordnung, jeder weiß, woran er ist und so.

01:07:31: Und dann wäre es auch viel einfacher, so mit Ländern wie Amerika umzugehen, dass wir immer noch sagen, Na ja, weil die uns vor, wer eigentlich, hatten uns die Demokratie gebracht.

01:07:41: Das ist ja alles nur noch Geschichtsbuch.

01:07:43: Und deswegen müssen wir jetzt Freund sein mit Trump, egal ob der da in Bürgerkrieg gegen seine eigenen Leute führt und so.

01:07:48: Das passt halt alles nicht zusammen.

01:07:50: Und das macht die Leute auch politisch desinteressiert.

01:07:54: Das Ausmaß, in dem wir uns für unsere Kommunalpolitik nicht interessieren.

01:07:59: Die Dezernenten nicht kennen, die für unsere Lebenswelt zuständig sind, sei es Kultur, sei es Grundwasser, sei es was auch immer.

01:08:05: Dass man nicht weiß, wer für einen Bundestag sitzt.

01:08:07: Weil einfach klar ist, naja, ich bin ja in Deutschland, das ist ja alles gut und so.

01:08:10: Dann ist es immer zu spät, wenn irgendwas passiert.

01:08:13: Und von daher... Ich muss hier ein paar neue Erfindungen ran.

01:08:16: Ich finde diesen Raum kann man auch inspirativ dadurch öffnen, dass jeder mal ein ernsthaftes politisches Gespräch mit einer KI führt und ich mit einem Freund, wo man die ganze Zeit darauf Rücksicht nimmt, dass ja hier Menschen auch ihr Gesicht waren wollen und so, ja.

01:08:27: Das ist ja genau dieser therapeutische Erfolg von diesen KI, dass sie gerade keine Menschen sind, dass man da wirklich einfach wie Google sagen kann, mein Penis tut weh, was soll ich denn jetzt machen, so.

01:08:39: Ja, Fragen, die man halt sonst nicht stellen würde.

01:08:41: Schalte

01:08:41: nur die Personalisierung vorher aus.

01:08:43: Weil, sonst hast du wieder diese Siggurkanzi.

01:08:46: In Cognitum-Modus ist jeder KG drin.

01:08:48: Und dann kann man mal so ein paar Probleme welzen.

01:08:50: Ja, ich verstehe den Punkt.

01:08:52: Also erstmal, ich würde dir komplett zustimmen, dass der Kampf für die, für die Wichtigkeit von Kommunalpolitik, dass der noch am Anfang steht, dass der aber immer wichtiger wird.

01:09:00: Weil wenn hier keiner mehr streut, so, dann muss man sich fragen, warum ist es eigentlich so?

01:09:03: Und das wird ja auch dein Bundestagsabgeordneter vielleicht nicht beantworten können, sondern es wird hier im Stadtrat diskutiert.

01:09:09: Oder warum zum Beispiel in Essen du zeitweise zweihundertsechzehn Euro bezahlen musstest, wenn du Krankenwagen gerufst.

01:09:14: Das sind alles Themen, die werden hier auf kommunaler Ebene debattiert und diskutiert.

01:09:17: Und deswegen ist es sehr wichtig.

01:09:19: Ich kämpfe auch auch seitdem ich im Journalismus unterwegs bin, kämpfe ich für guten Lokaljournalismus.

01:09:23: Weil ich glaube, das ist eigentlich die wichtigste Zelle, zu wissen, was dich selber betrifft.

01:09:28: Am Ende betrifft dich nicht so sehr, wie die Dinge, die wir dir vor der Haustür passieren.

01:09:32: Ja, aber dazu gehört eben auch, dass diese kommunalpolitischen Entitäten sich einfach öffnen.

01:09:36: Also, dass Stadtratsprotokolle einfach zur Verfügung stehen und alle auch wissen, das kann sehr einfach durch KI einfach gelesen werden.

01:09:42: und wir wollen das auch.

01:09:43: und deswegen reden jetzt mal so und so.

01:09:45: Und wir bekennen ja auch Farbe, sondern das sind alles so Spiele in sich unter sich, wo dann die öffentliche Anhörung ist jetzt vorbei, das Publikum verlässt bitte den Saal, jetzt reden wir weiter über die Angelegenheit der Stadt.

01:09:55: Ja, also lauter solche Sachen.

01:09:56: Da kann man ruhig so ein paar neue Pflöcke mal einschlagen.

01:10:00: Wenn ich aber eine Sache noch sagen darf, ich glaube, dieses ständige Neu definieren.

01:10:04: Wir erleben das in den USA eigentlich im Moment dadurch, dass Donald Trump jedes Mal, wenn er gewählt wurde, erst mal gefühlt hundert Mitgliedschaften und Verträge aufgekündigt hat, die irgendwelche Abkommen eigentlich begründet haben und so weiter und so weiter.

01:10:15: Und dann kommt wieder der nächste demokratische Präsident und tritt all diesen Dingen wieder bei.

01:10:19: Ich weiß nur nicht, ob diese Unbeständigkeit mittelfristig nicht für noch mehr K-Aussaugen würde, als wenn das jetzt so eine Trumpsche Ausnahme bleibt.

01:10:27: Ja, und deswegen bin ich ja dafür, mit KI Klarheit reinzubringen, wenn man Klarheit reinbringen kann.

01:10:31: Und dieses politische Selbstgespräch mit einer KI, ja, ich empfehle das wirklich sehr.

01:10:35: Also das ist, wir werden da nicht aufs Glatteis geführt.

01:10:38: Gemini hat, finde ich, und ich unterstelle jetzt mal, dass ich dadurch, dass ich jedes heutischen Tags-Themen-Sendung gucke und bewerte, finde ich, ist die Art und Weise, wie man politische Sensibilität und neue Themen entdeckt im Gespräch mit einer KI wirklich sehr hochwertig.

01:10:56: Also, ich kann das empfehlen, das ist zwar irgendwie ungewohnt und komisch.

01:11:00: und sollen wir uns, hast du nicht gerade gesagt Stefan, wir sollen es nicht wieder in dem Silicon Valley ausliefern, ja, aber das meine ich eben wirklich nur für dieses Social Media Zeitalter.

01:11:11: Bei der KI sind die Spielregeln anders.

01:11:14: Aber bitte nicht zu doll, nicht zu sehr ausliefern.

01:11:17: Nicht so sehr.

01:11:18: Keine Gesundheitsdaten zum Beispiel, weil, ob wir hochladen.

01:11:21: Ja genau, da muss man da noch mal anders hängen, aber die Sachen, die eh die öffentliche Angelegenheit betreffen, also da wo auch der Journalismus viel zu publiziert.

01:11:28: Da gibt es wirklich viel Datenreichtum, Erkenntnisreichtum.

01:11:32: Dieser KI wissen da relativ gut Bescheid und da kann man seine politischen Fragestellungen einfach mal schon so durchgehen, bevor man die bei einer Abendvorstellung von irgendwas so aus Reihe drei dann mal so.

01:11:42: äußert und dann sind sie vielleicht halbgar.

01:11:44: Da kann man sich vorbereiten jetzt.

01:11:45: Von halbgar zur Emotion, das ist jetzt mein Signal.

01:11:49: Vorsicht.

01:11:51: Funktionen und Emotionen.

01:11:56: Du kennst das Spiel, aber du bist das erste Mal hier, deswegen gleich sehr trotzdem.

01:11:59: Neue Features, neue Funktionen, die gerüchteweise oder schon erwiesenermaßen auf die Plattform kommen und du darfst mir alle deine Emotionen dazu geben.

01:12:07: Disney Plus hat angekündigt, dass ein Hochkant Feed in Disney Plus einziehen wird, also die Möglichkeit, vertikale Videos im Kurzformat von Disney auf Disney Plus zu konsumieren.

01:12:18: Ich verstehe, was Sie wollen, nämlich die Aufmerksamkeit, wo es nur geht.

01:12:21: Man gibt den Kindern immer mal das Handy zwischendurch und dann sollen sie halt auch mal kurz noch, ja, also Hochformat habe ich immer mit Kurzform in Verbindung, sodass man den Kindern auch in kurzem Moment noch mal Disney Plus hinhalten kann.

01:12:31: Aber altig für Bescheuert.

01:12:32: Ja, vor allem weil Kurzformat, also wir haben ja gesehen, was TikTok mit der Aufmerksamkeitsspanne von uns halt macht und Instagram und so.

01:12:38: Das macht uns ja völlig matche.

01:12:39: Genau,

01:12:39: also wer seine Kinder zerstören will, da kann ich mir jetzt Disney Plus in Hochformat geben.

01:12:43: Ganz genau.

01:12:44: Und um es noch düsterer zu machen, hat Disney doch in diesem Jahr, neben dem letzten Jahr einen Deal mit OpenAI geschlossen.

01:12:49: Das heißt, du wirst dann wahrscheinlich von KI-generierte Disney-Figuren in irgendwelchen ungewöhnlichen Situationen sehen, die da im Hochkantfit laufen.

01:12:58: Das ist ja füchterlich.

01:12:59: Ja, also du wirst gar nicht mehr nachvollziehen können, was deine Kinder konsumiert haben, weil es wurde in dem Moment generiert, dann war es schon wieder weg.

01:13:06: und also das ist einfach absurd.

01:13:07: Ja, das ist ganz schlimm.

01:13:09: Bei X gibt es jetzt die Möglichkeit, Inhalte als BAM zu flecken.

01:13:14: Das gab es bislang nicht.

01:13:16: Ich war lange nicht mehr bei X, ehrlich gesagt.

01:13:19: Ja,

01:13:20: ich ignoriere das alles, was bei X passiert.

01:13:22: Ich habe da Emotionen zu, und zwar glaube ich, und jetzt bin ich wieder, ich lese wieder eine Verschörung.

01:13:27: Und zwar Elon Musk möchte ja nicht, dass Inhalte... gemeldet werden, weil das der Meinungsfreiheit widersprechen würde.

01:13:33: Gleichzeitig führte dieses Feature ein, dass angesichts der Tatsache, dass bei X eigentlich keine Content-ModeratorInnen mehr arbeiten, eigentlich nur noch von einer KI wahrscheinlich überprüft werden wird, was die Ergebnisse geben und ein wichtiges Signal für diese KI wird wahrscheinlich sein, wie viele Leute das gemacht haben.

01:13:49: Was du hier also einbaust, ist eine Möglichkeit von einem großen Mob-Inhalte unsichtbar für den Algorithmus werden zu lassen, wäre meine These.

01:13:57: Ja, wahrscheinlich.

01:13:59: Irgendwann sollte man sich ex noch mal angucken also jetzt dieses Jahr um einfach so eine forensik wie was ist aus diesem social media ding geworden?

01:14:07: denn es scheint ja und das verstehe ich dann auch also sehr teuer für sich milliarden.

01:14:12: aber wenn es damit wenn man es damit hinkriegt die fünf bis zehn prozent der leute die man potenziell bei eis auf der straße hat ja in so einem dunsten nebel der informations Also wirklich in so eine höle zu führen einfach dann scheint das ja für Donald Trump und Leute zu reichen und macht vielleicht auch so einen kleinen Unterschied, wenn es nur um zwei, drei Prozent bei Wahlen geht oder so.

01:14:36: Von daher sehe ich da große, große Gefahren, aber ich kann das in meinem Alltag nicht mehr sehen.

01:14:41: Ich will das nicht und ich will auch nicht mit Leuten zu tun haben, die mir irgendwas erzählen, was sie auf X gesehen haben oder so.

01:14:46: Also niemand erklärt mir bitte, was in den Simpsons Mal kam und was auf

01:14:51: X zu tun war.

01:14:53: Das ist auch ein wirklich sehr häufiger Satz.

01:14:56: Oh, da haben die Simpsons mal was durchgemacht.

01:14:58: Ich bin ein DDR-Kind, ich hab keine Simpsons geguckt und ich will nicht, dass mir das jemand nacherzählt, was ich nie gesehen hab.

01:15:03: So geht's mir mit ... Dann wird's

01:15:04: eh nicht nachvollziehen.

01:15:04: Keiner kann es so gut nachvollziehen, also nacherzählen, dass ich wirklich verstehe, was Conan O'Brien da in den Text reingeschrieben hat.

01:15:11: Ich hab nie Star Wars gesehen übrigens.

01:15:13: Und Star Trek.

01:15:15: Ich kann das ein bisschen nachvollziehen.

01:15:16: Star Trek hast du nie gesehen?

01:15:17: Nein,

01:15:18: auch nicht.

01:15:18: Beides nicht.

01:15:18: Wo krass.

01:15:20: Findest du das krasser als Star Wars?

01:15:21: Ja, da fehlt ja was.

01:15:23: Okay.

01:15:24: Mache ich vielleicht dann ... bald.

01:15:27: Du kannst bei WhatsApp, wenn du in einer Gruppe bist, kannst du die Gruppe jetzt customisen, indem zum Beispiel einzelne Personen Member Text bekommen.

01:15:33: Also du kannst zum Beispiel in der Familiengruppe schreiben, Stefan, Vater oder in der Akita-Gruppe kannst du schreiben, der Vater, der bei Elternabenden nie da ist oder solche Sachen.

01:15:43: Kannst aber auch Event-Reminders in Gruppen hinterlassen und Custom-Stickers hinterlassen.

01:15:48: Ja, heißt das ich habe eine Gruppe, Also ich bin Nutzer dieser Gruppe und kann den Leuten den ich sehe ein Label hinterlassen.

01:15:54: So habe ich das verstanden und das ist extrem sinnvoll.

01:15:58: Ich hoffe nur, dass ich selber nicht sehen

01:16:00: kann.

01:16:02: Ich hoffe, dass ich selber nicht sehen kann, welche Brandings man hinterlassen.

01:16:06: Ja, das werde schon wichtig, genau.

01:16:07: Ah, nee, nee, es ist falsch.

01:16:08: Ich kann es dir direkt sagen, ich habe es gerade nachgeguckt.

01:16:10: Man kann sich selber ein Label geben in einer Gruppe, um sich für andere zu kennzeichnen.

01:16:14: Ja, das halte ich nicht für so sinnvoll.

01:16:16: Also du

01:16:16: könntest... Ich würde

01:16:16: keinen anderen Labels geben, die sich nicht sehen, damit ich weiß, worum es da geht.

01:16:19: Also in der Kita-Gruppe könntest du jetzt schreiben, Vater von Horst zum Beispiel.

01:16:22: Ja, also ich verstehe, dass ich das mache.

01:16:24: Die haben ja auch ein großes Community-Feature, dass man mehrere Threats in der gleichen Community hat, sodass nämlich einfach gesagt werden kann, hier nur Orga, hier nur Termine, hier nur Gelaber.

01:16:33: Und ich habe gestern erst wieder gehört von Stadträten aus Erlangen-Nürnberg und so weiter, dass sie das sehr gut fanden, als diese Möglichkeit bestand.

01:16:42: Weil nämlich, wenn Leute Verantwortung haben, etwas zu organisieren und dann tauchen aber hunderttausend Nachrichten zu Geburtstagen da auf und so.

01:16:48: Und dann kommt ein Termin und sie müssen Infos aus dieser Gruppe zusammensammeln.

01:16:52: Ist einfach schwierig.

01:16:54: Also haben die das alles in diese Community umgemandelt, wo es mehrere Threats gibt.

01:16:58: Was ich ja liebe, ist, wenn jemand eine E-Mail an so einen großen Verteiler schickt, also sechstausend Leute versehentlich auch und dann alle sechstausend Leute an diesen offenen Verteiler antworten, wo dann drin steht, bitte nehmen Sie mich aus diesen Verteiler und das kriegen dann auch alle anderen Leute.

01:17:11: Also ich war jetzt letztes Jahr kurz vor Jahresende bei Lars Reichho, das ist hier so ein Comedian Boomer Alter aus dieser Fasching-Szene in Mainz.

01:17:19: Und der hat auf der Bühne noch so ein zehn Minuten langes Bit gemacht, in dem man einfach WhatsApp-Gruppen vorliest.

01:17:24: Und ich hatte schon den Eindruck auch im Saal, dass er so antike Geschichte gerade darbietet.

01:17:29: Weil eigentlich die Disziplin schon da ist heute.

01:17:32: Also diese Idee, dass er irgendwer schreibt, ich bring morgen Gurken mit für alle Kinder und dann schreibe zehn Eltern Danke und dann nochmal zehn Eltern.

01:17:39: Findet eigentlich nicht mehr statt.

01:17:40: Oder sagt einer Danke und ich sage jetzt für alle Danke und so, genau.

01:17:44: Und das finde ich eigentlich, da ist schon ein Disziplin da.

01:17:47: Jetzt kommt noch mal so ein Label dazu, okay.

01:17:49: Funkt Disziplin.

01:17:50: Instagram arbeitet in einem neuen Feature mit dem Namen Voice Filters für Sprachnachrichten.

01:17:55: Und weißt du, was man damit machen kann?

01:17:56: Ich habe das extra vorbereitet.

01:17:57: Man kann sich jetzt so sprachnachrichten.

01:18:01: Oh, no.

01:18:01: Das ist die Hölle.

01:18:02: Das ist die Snapsche Drei oder was?

01:18:04: Ja, genau.

01:18:05: Als Sprachnachricht.

01:18:06: Also nicht mal als Video für alle und ich mache ein witziges Video mit dem Filter als Sprachnachricht.

01:18:11: Also meine Kinder haben zum einen Instagram-Verbot, deswegen weiß ich nicht so genau wie es anders wäre, wenn sie Instagram nutzen dürfen, aber für die ist Snapchat einfach das Ding.

01:18:18: Ja, klar.

01:18:19: Und das ist wieder so ein Standard, wir wollen jungeres Publikum und so weiter.

01:18:24: Ich sage es euch ganz ehrlich, ich bin hier ein Sprachityp und ich mag Sprachnachrichten geschickt kriegen, ich mag sie hören, ich mag sie antworten, ich mag sie schicken.

01:18:32: Wenn ich ein Menschen erlebe, der mir so eine Sprache nach euch schickt, ich höre das nicht.

01:18:37: Wir haben auch eine Woche lang ... Das ist

01:18:38: nicht das Gleiche, dem ich dir eine schicke, dass ich mich bedanke, ein Podcast gewesen zu sein.

01:18:43: Danke.

01:18:43: Dann

01:18:43: werde ich sofort wieder gelöscht.

01:18:46: So, und Threads hat damit angefangen, dass du Ghostposts.

01:18:49: Weißt du noch, was Ghostposts auf Threads sind?

01:18:52: Nee.

01:18:52: Ja, das sind Posts, das ist so geil.

01:18:55: Man vergisst das alles, diesen Wahnsinn, über den wir sprechen.

01:18:58: Also, du kannst bei Threads, kannst du Postings hinterlassen, die nach viert und zwanzig Stunden weg sind.

01:19:02: Es fängt jetzt damit an und das Oracle von Selfie hat es gesagt.

01:19:05: Ich habe es prognostiziert, dass diese Ghost-Postings jetzt auf deinem Profil neben deinem Profibild angezeigt werden, genauso wie Instagram Notes.

01:19:14: Also sie werden hervorgehoben und verschwinden dann aber wieder.

01:19:16: Ja.

01:19:17: Na das ist gut.

01:19:18: Also ich verstehe es nicht.

01:19:19: Aber ich nutze auch kein Selfie, ehrlich gesagt.

01:19:22: Aber es gibt gar keinen Sinn mehr.

01:19:24: Es ist alles egal geworden.

01:19:25: Es gibt einfach... Es

01:19:26: ist irgendwie merkwürdig.

01:19:27: Ah, ja.

01:19:29: So ist das wohl.

01:19:30: Ja gut, aber es gibt schon manchmal so Informationen wie, ich bin jetzt gerade hier für diesen einen Tag, ne?

01:19:34: Dann ist das eine Information, die man genau den einen Tag sogar hervorgehoben publizieren könnte.

01:19:39: Aber würdest du das bei Threats machen?

01:19:40: Aber damit keine Nachfragen kommen.

01:19:41: Bist du immer noch da und so?

01:19:43: Würdest du das bei Threats machen?

01:19:45: Nee, ich würde ja gar nichts bei Threats machen, aber ich verstehe so ein... Also, man muss ja sich immer überlegen, wir sehen da megamächtige Konzerne, ja?

01:19:52: Aber ich sehe da immer Leute, die zwanzig Stunden am Tag am Kapitel sitzen müssen, damit sie ihr Gehalt rechtfertigen und die sollen halt Ideen vorliegen.

01:20:00: Und dann kommt halt sowas bei uns.

01:20:01: Ja, das hat Kasta auch schon mal hier gesagt, die früher mal bei Meta gearbeitet hat, die meinte, naja, du hast halt manchmal so persönliche Ziele wie ein neues Feature als Jahresziel.

01:20:10: Ja, und sowas hängt ja auch ein Bonus und so.

01:20:12: Bitte?

01:20:12: Und sowas hängt ja auch ein Bonus.

01:20:14: Ja, genau.

01:20:14: Also ich kenne sehr viele Softwareentwickler, ne?

01:20:17: Die sind so in, ähm, also die machen halt so Software und die entwickeln so Ideen und das wird dann gleich umgesetzt.

01:20:23: Wenn du die fragst, Was von euch, was ihr hier als zehn Mann Team die letzten zehn Jahre gemacht haben, ist denn jemals ins Produkt gewandert.

01:20:31: Senken die alle so den Kopf und haben echt schlechte Laune.

01:20:34: Also wenn du jetzt so ein Flugzeug bis in einem Flugzeug oder in so einem Zug Software ankommt, die jemand an seinem Schreibtisch mal als Idee entworfen hat.

01:20:43: Jahrzehnte einfach.

01:20:44: Von daher, man muss hier auch gratulieren, dass hier jemand eine Idee hatte, die es irgendwie zu uns geschafft hat.

01:20:50: Bist

01:20:50: du Haken dann geschafft hat?

01:20:51: Genau, da sagen wir, das ist so absurd und wahrscheinlich ist es auch absurd, aber es ist halt menschliches Schicksal.

01:20:56: Und

01:20:56: er sitzt da, hört Haken dann, denkt sich, oh Mann.

01:20:59: Ja, also überleg mal, du planst so ewig lang und so und dann ist es endlich da und dann hörst du so ein Podcast eine halbe Stunde später und...

01:21:06: Ich freu mich, dass du es auch zu Haken dann geschafft hast heute.

01:21:09: Und würde mich freuen, wenn du bald wiederkommst.

01:21:11: Ja, ich würde auf jeden Fall sagen, bis bald, wenn ich mich hier verabschiede.

01:21:15: Wir geben alles dafür, dass du jetzt hier in dieser regelmäßige Rotation aufgehst, Stefan.

01:21:19: Ich stehe zur Verfügung.

01:21:20: Danke.

01:21:21: Vielen Dank, dass du da warst.

01:21:22: Leute, wenn ihr das bisher gehört habt, hört euch die neunzwanziger an.

01:21:24: Das ist wirklich Wahnsinn.

01:21:26: Also der alleine Rechercheaufwand, lassen selbst mir die Augen rausfallen.

01:21:30: Ihr habt alle eine wundervolle Start in die Woche.

01:21:33: Passt auf euch auf.

01:21:33: Es ist glatt heute und morgen ultra warm.

01:21:35: Aber naja, viel Spaß.

01:21:37: Passt auf euch auf und danke, dass ihr hier warst, Stefan.

01:21:40: Bis bald.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.