Mit fremder Zunge schmücken (mit Dominik Hammes)

Shownotes

Ein großer Rundumschlag auf die Geschehnisse der Welt - klingt groß, ist aber die Wahrheit! Wir haben globale Nutzungszahlen für soziale Medien mitgebracht. Aber auch Geschichten aus einer Welt, in der man nicht mal zur Wahl muss, um seine Stimme abzugeben. KI macht’s möglich!

➡️ Digital Global Overview Report 2026: https://datareportal.com/reports/digital-2026-global-overview-report ➡️ GEMA-Suno-Songsnippets: https://www.gema.de/de/aktuelles/ki-und-musik/ki-klage/soundbeispiele-suno

🎤 Haken Dran geht auf Tour! Wir sind mit 4 Liveterminen Anfang 2026 quer druch Deutschland unterwegs - alle Infos und Tickets hier: http://hakendran.org

✉️ Wir verleihen den "Grauen Haken" - schickt uns die größten Social Media-Fails, -Fehler oder -Frechheiten an: grauerhaken@hakendran.org

➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt Chapters 00:00 Hallo Dominik! 02:59 WhatsApp sieht euch! 05:52 Die Zukunft des Likebuttons 08:44 Mark Zuckerbergs Philanthropie 11:48 TikTok und Arbeitsrechte 17:37 Globale Social-Media-Nutzung in Zahlen! 31:33 KI klaut Stimme 37:19 GEMA vs. OpenAI 45:19 Funktionen und Emotionen 01:01:23 Versöhnlichkeit des Tages

ℹ️ Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier: https://wonderl.ink/%40heise-podcasts

Transkript anzeigen

00:00:00: Hallo Dominik.

00:00:01: Grüß dich, Kevin.

00:00:02: Bei mir ist heute Dominik Hammes.

00:00:03: Podcaster, Internet-Ikrone.

00:00:06: Man kennt ihn aus der Medienkuh, man kennt ihn aber vor allem auch von Haken dran.

00:00:09: Und ich freue mich, dass du hier bist.

00:00:10: Na, wie ist die Stimmung?

00:00:11: Jetzt

00:00:11: dreht es sich langsam.

00:00:13: In fünf Folgen sagst du, er hat auch noch ein paar andere Projekte.

00:00:18: Ich bin ein bisschen erschöpftig beim Wochenende in Köln und bin heute Nacht nach Hause gefahren mit dem Auto.

00:00:24: Ich habe vier Stunden im Stau gestanden.

00:00:26: Also wirklich gestanden.

00:00:28: Also die Ankunftszeit war wirklich vier Stunden weiter hinten hinterher und deswegen ein bisschen geschlaucht wegen Terminen.

00:00:34: Aber ich bin gerne hier.

00:00:36: Ich wollte sagen, aber du hast es möglich gemacht hier aufzutauchen und ich finde, das ist doch schon komplex.

00:00:42: Das ist eine Formulierung, die würde ich nie benutzen.

00:00:44: Also für mich selbst.

00:00:45: Wenn andere das sagen, okay.

00:00:47: Aber das klingt immer so wie, ich hab da fünfzehn Termine verschoben, hab drei Leute entlassen und Gebäude bauen lassen.

00:00:52: Deswegen sind wir heute hier.

00:00:53: Aber wenn's denn stimmt, ansonsten ... Wenn's

00:00:55: stimmen würde.

00:00:56: Stimmte, wenn's stimmte.

00:00:58: Ansonsten hat in Köln die Karnevalssession begonnen.

00:01:01: Es gibt die guten Nachrichten, reißen nicht ab.

00:01:05: Und ich möchte mit einer Sache einsteigen, die WhatsApp.

00:01:09: auf X gepostet hat.

00:01:10: Das ist schon eine geile Teaser für das, was passiert.

00:01:15: Die Posten oder Threads macht das ja auf Threads auch.

00:01:19: Die Meta-Netzwerke haben eigene Präsenzen in den Microblogging-Netzwerken, wo sie so ein bisschen aufwitzig machen.

00:01:24: Und so zeigen, dass sie offenbar die Netzwerke, die sie betreiben, doch verstehen, als entgegensetzt zu den Vorwürfen, die die Nutzer in ihnen eigentlich regelmäßig machen müssen.

00:01:38: Gepostet auf X. People who end messages with LOL.

00:01:41: We see you, we honor you.

00:01:44: Und das hat zwölf Millionen Views bekommen.

00:01:48: Und fünftausend neunhundert Likes.

00:01:50: Sechstausend achthundert Likes hat aber der Kommentar da drunter bekommen.

00:01:53: So no privacy at all.

00:01:58: Also WhatsApp, wenn ihr diese Formel für aus der Welt schaffen wollt, dass man die Nutzer in dauerhaft beobachtet, dann vielleicht endet solche Tweets nicht mit.

00:02:06: we see you.

00:02:07: Das könnte schon gleich zu leichten Irritationen führen.

00:02:10: The butchering in the comments, das ist immer schön.

00:02:13: Aber ganz ehrlich, das ist so eine Meldung.

00:02:16: Das ist einfach nur lustig.

00:02:18: Da

00:02:18: muss nix dahinterstehen, ist alles cool.

00:02:20: Passt aber so ein bisschen dazu, dass wir ja hier als Haken dran einen Social Media Negativpreis verleihen für eben genau solche Dinge.

00:02:26: Social Media Blamagen, Peinlichkeiten, Fails.

00:02:29: Und ihr könnt dafür noch Leute nominieren und zwar noch den ganzen November per E-Mail an grauerhaken.haken.org oder im Discord auf www.haken.org.

00:02:37: Könnt ihr Vorschläge machen, wer diesen Preis bekommen soll?

00:02:39: Dann werden wir dieses Jahr noch einen Preis überreichen.

00:02:42: Also das, das Social Media Team von WhatsApp steht damit jetzt möglicherweise auf dieser Liste.

00:02:48: Heißt aber natürlich auch, wenn man, wenn einem alles egal ist, aber man möchte unbedingt einen Preis gewinnen, ihr habt noch Chancen.

00:02:56: Das ist so witzig, wenn jetzt jemand sich so richtig in die Scheiße schmeißen würde.

00:03:00: Ja,

00:03:01: Herr Maske, Herr Maske, ihr könnt einen Preis gewinnen, sie müssen nur, seien sie einfach sie selbst.

00:03:07: Wenn wir ihnen Friedenshaken nennen würden, dann könnte Donald Trump noch irgendwie Kram machen, dann würde er es vielleicht versuchen.

00:03:13: Nennen es machen preis.

00:03:15: er heißt Nobel aber mit französisch wie L Nobel mit zwei L und E und sagt der Nobelpreis und den kann Donald Trump dann kriegen.

00:03:22: Vielleicht kann man ihn dann einladen, er nimmt ihn entgegen und in der Zeit macht er sonst nichts schlechtes.

00:03:27: Der Nobelpreis für den stummsten Hund des Jahres.

00:03:30: Ja und es ist der Nobel.

00:03:32: also erst keine Schönheit.

00:03:33: Oh auch sehr gut.

00:03:34: Außer, ja, schön.

00:03:36: Oder keine Disney-Prinzess.

00:03:37: Weißt

00:03:37: du, was auch nie eine Schönheit war?

00:03:39: Leute, die auf ihren Websites, Medienhäuser, vor allem die auf ihren Websites, solcher externen Like-Buttons eingebunden haben.

00:03:44: Facebook hatte das vor, ich glaube, ... ... Jahrzehnte.

00:03:47: Das sehe ich hier gerade in der Engagement-Scream eingeführt, dass du die Möglichkeit hast, du musst keine eigene Kommentarspalte bauen, sondern du kannst deine Facebook-Kommentarspalte einbinden und du musst auch keine Interaktions-Buttons einbauen.

00:03:56: Du kannst den Facebook-Like-Button einbauen, was den tollen Vorteil hatte, dass dann damit automatisch auch noch Facebook exakt weiß, auf welchen Seiten ihre Nutzer in sich herumtreiben.

00:04:05: In Deutschland war immer schon ein datenschutztechnisches Problem, was dazu führte, dass Websites, die dann hinter so einem Tockel verstecken mussten, dass du es einschalten musstest, um dann den Like-Button zu sehen, was vermutlich nicht so viele Leute gemacht haben.

00:04:18: Für alle, die das noch auf ihren Websites eingebunden haben, es gibt was zu tun.

00:04:22: Am zehnten Februar, zwanzig, werden nämlich diese teilen und gefällt mir Buttons für Websites von Drittanbietern eingestellt.

00:04:29: Also Facebook wird die nicht mehr supporten und dann entsprechend auch entfernen.

00:04:34: Ach so.

00:04:35: Also die werden durch unsichtbare Nullmal Nullpixel große Elemente versteckt.

00:04:39: Wobei man dazu sagen muss, wenn ihr den Code dann auf eurer Website lasst.

00:04:42: Natürlich immer noch an den Facebook-Sover signalisiert wird, dass diese Seite aufgerufen wird.

00:04:47: Warum sollte

00:04:48: man das auch abschalten, das ist ja Quatsch.

00:04:55: Ich habe nur gerade wieder diese Visionen und die Seiten gibt es ja nach deutschem Datenschutz recht richtig gebaut, aber mit allen Inhaltensassen.

00:05:02: Okay, jetzt muss ich das YouTube-Video freischalten und dann will ich es liken, möchte muss ich den Button auch noch freischalten.

00:05:06: Und dann

00:05:07: lande ich auf youtube.com in einem neuen Fenster, wo das Video aber bei Sekunde Null wieder anfängt.

00:05:15: Das Spannende an diesem Like Button war ja, dass er mittlerweile gar keine Funktion mehr hat.

00:05:18: Deswegen ist es eigentlich nur eine Frage der Zeit, dass er abgeschafft wird.

00:05:20: Aber, und jetzt kommen wieder die alten Hasen, die vom Internet erzählen, wir erinnern uns ja an eine Zeit, in der das dazu führte, das anderen leuten im news feed angezeigt wurde.

00:05:30: also angenommen du bist jetzt auf dwdl.de und da ist ein gefällt mir button und du klickst da drauf dass ich im news feed sehe dass dominik hammes ein link von dwdl.de geliked hat und dann konnte ich das sehen.

00:05:40: das gibt es alles mittlerweile ja gar nicht mehr.

00:05:42: aber

00:05:43: vergleichweise der repost kanal tab von instagram da sind ja nur die sachen die deine leute die den du folgst auch reposten.

00:05:52: es ist natürlich nicht das gleiche wie eine notifikation zu bekommen.

00:05:55: aber Nur weil es ja euch fragt her, aber wo sieht man das dann, wie kann man sich das vorstellen?

00:06:00: Aber für diesen, also dieser Like-Button auf externen Websites gibt es halt wirklich gar kein Use-Case mehr, außer dass das steht, welche Freundinnen von dir das auch geliked haben, wenn ihr zufälligerweise auf der gleichen Seite liken und zufälligerweise auf dieselbe dämliche Idee kommt, diesen Like-Button zu drücken.

00:06:15: Also was glaube ich noch funktionieren, funktioniert hättet eine Zeit lang, wäre einfach ein animiertes Gift, das immer hochzählt.

00:06:21: Also gar keine Funktion, einfach sieht so aus wie der Button und zahl wird immer und immer größer.

00:06:25: Wie

00:06:25: früher ist so ein Besucher-Counter.

00:06:27: Ja, genau.

00:06:28: Ja, ich erinnere mich.

00:06:29: Direkt neben einem anderen Construction-Gif.

00:06:31: Eine Milliarde Leuten gefällt das und es ist immer noch mehr.

00:06:34: Es

00:06:35: wächst, es wächst, es wächst.

00:06:37: Vor allem so Gift-Dateien sind der extrem groß, wenn du eine Milliarde Frames da rein machst.

00:06:43: Ja, Mensch, also da findet bestimmt jemand eine gute Lösung für.

00:06:47: Mal sehen, HTML-Fünf eingebundene Videos, da geht eine Menge.

00:06:52: Ich möchte, also wir müssen kurz über Mark Zuckerberg sprechen.

00:06:56: Weil Mark Zuckerberg und Priscilla Chan, das ist die Frau von ihm, die haben sich ja gemeinsam überlegt, dass sie jetzt nicht nur reich sind, sondern auch Philanthropen.

00:07:05: Und deswegen kann

00:07:06: man sich einfach überlegen?

00:07:09: Ich glaube, ja.

00:07:10: Also

00:07:11: das reicht sein, das andere.

00:07:13: Ich möchte mir auch gerne überlegen, dass ich reich bin.

00:07:15: Also

00:07:15: fairerweise.

00:07:16: Sie haben eine Stiftung und in diese Stiftung fließt Geld von ihnen aus dem Vermögen dieses Ehepaars.

00:07:22: Und diese Stiftung hat eigentlich relativ lange sich für Dinge eingesetzt, wie Schwulenbauen, Einwanderungsreformen, Lobbyieren, aber auch Diversity, Gleichberechtigung, Inklusionsmaßnahmen fördern.

00:07:33: Und Surprise.

00:07:36: Das sehen sie nicht mehr tut.

00:07:38: Denn die Chan Zuckerberg Foundation hat angekündigt, dass sie sich zukünftig mit ihrem Geld vornehmlich auf eine Forschungsorganisation namens Biohub konzentrieren wollen, die mit Schwerpunkt auf künstliche Intelligenz die Beschleunigung des wissenschaftlichen Fortschritts vorantreiben möchte.

00:07:55: Also diversity wird geparkt, dafür wird Vorantreibung des wissenschaftlichen Fortschritts durch KI gefördert.

00:08:01: So.

00:08:04: Aber ist also diesen Satz sage ich häufig vor allem hier, ich bin ja Wirtschaftsexperte, aber man kriegt ja in letzter Zeit häufiger, ich habe jetzt auch schon Video gesehen, dass es keine AI-Bubble ist, sondern dass es viel größer ist, aber von eben einer Wirtschaftsbubble in der die AI-Unternehmen eine große Rolle spielen, hört man ja immer wieder.

00:08:25: Wenn jetzt hier gesagt wird, das Geld, was wir normalerweise hier hinschicken, schicken wir jetzt in Richtung KI nochmal, ist das ja eigentlich... Passt es ins Bild?

00:08:35: Das ja.

00:08:35: Also man muss auch dazu sagen, es ist ja nicht unbedingt einer der schlechtesten A.I.

00:08:40: Anwendungscases, wenn du es scharfst, mithilfe von Krankheiten früher zu erkennen, vielleicht sogar zu bekämpfen.

00:08:45: Absolut.

00:08:46: Das ist sogar der beste Use Case.

00:08:47: Genau, ist der beste Use Case.

00:08:49: Und wenn Biohab das machen möchte und offenbar auch schaffen kann, dann... Gut, also dann sinnvoll.

00:08:56: Tatsächlich sagt die Zuckerberg Foundation, Zuckerberg Chan Foundation, dass sie auch schon im Jahr zwei Tausend vierzehn damit begonnen hätten, diesen Schwerpunkt von sozial auf wissenschaftlich zu verlagern mit der Stiftung.

00:09:06: Also es hat nicht zwangsläufig was mit der Wahl Trumps zu tun.

00:09:09: Passt aber trotzdem natürlich in die Metamorphose von Mark Zuckerberg vom unscheinbaren, sich dem mal so demokratisch äußernen Typen zum Typen mit Goldkettchen, Rap Songs, Kampfsporterfahrungen und eben Trump Support.

00:09:23: Das passt alles schon in die Evolution des Zuckerbergs im Jahr zwanzig.

00:09:29: Aber sie haben in Biohub seit Jahrzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnteinzehnte

00:09:55: Ja, in einem Comicbuch wäre es auch so, also wie gesagt, ich sage in einem Comicbuch noch nicht in der Realität.

00:09:59: Da wäre es so, nee, ich finanziehe jetzt keine Schulen mehr, ich lasse mir jetzt schon mal einen Androidenkörper produzieren für den Tag, an dem ich sterbe, damit die neuronalen Netze auch mein unfassbares Hirn aufnehmen können.

00:10:11: Die Longevity Bubble ist übrigens auch ein ganz tolles Rabbit Hole, falls ihr in den nächsten Tagen mal nichts vorhabt.

00:10:16: Stasche doch mal, wie viel Geld Leute so in Maßnahmen stecken, damit sie keine Lebensfreude mehr haben.

00:10:21: Ist schon interessant.

00:10:24: Und das machen ja viele schon im Kleinen.

00:10:25: Also, ich trinke nur noch sauer Krautsaft.

00:10:28: Okay, vier Folgen.

00:10:33: Ansonsten kommen wir kurz nach Berlin.

00:10:34: Denn in Berlin hat TikTok ja einen Büro.

00:10:38: Deiner Grimasse nachzuentsprechend bist du jetzt nicht so ein großer Berlin-Fan.

00:10:44: Ich mag alle Menschen, die ich kenne, die in Berlin leben.

00:10:47: Es geht ja auch nicht nur in Berlin, sondern es geht um TikTok.

00:10:49: Und damit bist du ja deutlich begeisterter wahrscheinlich.

00:10:51: Ich

00:10:52: war öfter in Berlin, als ich TikTok aufgemacht habe.

00:10:55: Okay,

00:10:56: das ist ein Ding.

00:10:58: Also wir wissen ja, dass TikTok Berlin, also das deutsche Büro von TikTok in Berlin, von den vierhundert Mitarbeiter in einhundertfünfzig entlassen wollten, die oder entlassen haben, die vornehmlich aus dem Bereich Trust and Safety und TikTok Live, also die Betreuung, nicht deutschsprachiger Content Creatorinnen, gefallen sind.

00:11:16: Und es gab da ziemlich viel Streik und Proteste auf den Straßen, weil die Leute gesagt haben, ihr könntet sich einfach vor die Tür setzen, weil ihr unsere nachweislich sehr sinnhafte Arbeit einfach durch KI ersetzt, die diese Arbeit bislang schlechter macht als wir.

00:11:29: Wir wollen eine Art von Kompensation, wir wollen einen Sozialtarifvertrag, wir wollen irgendwie entschädigt werden dafür, dass ihr uns

00:11:36: recht besitzt.

00:11:37: Wir wollen rechte.

00:11:39: Und tatsächlich gibt es dort eine Einigung zwischen Verdi, die diesen Streik sozusagen ... Vertreten haben oder die Streiken entvertreten haben hier und TikTok.

00:11:47: Tatsächlich sieht es sogar so aus, dass die Entlassenden eine Grundabfindung von mindestens siebzehntausend Euro bekommen, abhängig von der dauernde Betriebszugehörigkeit.

00:11:55: sogar mehr hinzuzuschläge von dreitausend Euro pro Kind und fünftausend Euro bei vollen einer Behinderung.

00:12:03: Ich muss die Blödheit faktuell mal abschalten für

00:12:06: die dummen Gags.

00:12:07: Ich nehme das einfach zur Kenntnis.

00:12:10: Und diejenigen, die auf eine Klage wegen der Kündigung verzichten, erhalten sogar eine zusätzliche Prämie.

00:12:15: was im Einzelfall möglicherweise sich sogar noch besser auswirken kann auf die Leute, als eben diese Klage am Ende.

00:12:21: Und für alle, deren Aufenthaltstitel an dem Bestand eines Arbeitsvertrages gebunden sind, auch sowas gibt es ja auch, wird die Kündigungsfrist sogar entsprechend verlängert, damit die Leute die Möglichkeit haben, sich möglicherweise relativ schnell in einen anderen Beruf zu begeben.

00:12:34: Ich bin einfach tatsächlich, ich bin auch kein Jurist, gerade wieder verwirrt, dass man sowas in einen Vertrag schreiben darf, wenn du mich nicht verklagst, kriegst du Geld.

00:12:42: Das klingt irgendwie abstrus für mich.

00:12:44: Ja, schon verstehe ich.

00:12:45: Aber man muss auch dazu sagen, so Prozesse können sehr, sehr, sehr lange dauern und die Leute, die in dem Community Management bei TikTok sitzen, das sind jetzt nicht zwangsläufig die Multimilliardäre, die sich sonst um Nongevity kümmern, sondern die sind auf den Lohn angewiesen.

00:12:59: Ich verstehe komplett zum einen, dass man dieses Angebot macht, weil man sich dann einfach ein bisschen ärger vom Hals schafft.

00:13:04: Und wenn die Summe hoch genug ist, verstehe ich auch komplett, dass man das annimmt.

00:13:07: Mir geht es wirklich nur darum, hätte das denn wirklich bestand, wenn man dann trotzdem klagt und gegenseitig klagt dann das Geld wieder ein.

00:13:13: Aber ehrlich wird eh nicht passieren, wenn du das Angebot annimmst, ist die Summe wahrscheinlich auch hoch genug, dass du sagst, ja dann ist jetzt auch egal, wir haben das jetzt geklärt.

00:13:21: Ja, so genau.

00:13:22: Ich glaube TikTok wollte einfach vor allem aus der Presse raus, weil eben die Berichterstattung über diese Proteste extrem ja auch extrem anhaltend waren und wir da eigentlich hätten immer mal wieder drüber berichten können.

00:13:33: Verdi hat aber angekündigt, dass das erste Anfang ist, dass ihr Ziel jetzt ist sozusagen gegen Ungerechtigkeiten im Arbeiterinnenrecht in der Tech-Branche weiter vorzugehen und eigene Organisierungen in der Tech-Branche weiter voranzutreiben.

00:13:47: Dabei wollen Sie Sicherheit der Arbeitsplätze und Arbeitsbedingungen sichern und wollen sozusagen sich da in diesem Bereich jetzt irgendwie breit machen.

00:13:55: Na

00:13:56: ja,

00:13:56: zu Recht auch dort arbeiten Leute.

00:13:58: Ja und auch die Leute, also wir haben das schon öfter gesagt, auch da, das ist ehrlicherweise ein Scheißjob.

00:14:05: ... in der Content-Moderation bei TikTok zu sitzen.

00:14:07: Ja, ja.

00:14:08: Content-Moderation ist also,

00:14:10: du müsstest eigentlich, dürftest du maximal vier Stunden unterarbeiten.

00:14:12: Genau.

00:14:13: Und die anderen vier Stunden hast du idealerweise dann jemanden mit dem darüber sprichst, was du da erlebt hast, bezahlt.

00:14:17: Weil das, was du dir da anschaust, sind eben Dinge, die sind extrem schädlich für deine Seele.

00:14:22: Wenn du dir vier, fünf, sechs, sieben, acht Stunden lang Gewaltdarstellungen anschaust.

00:14:26: teilweise einfach nur nackte Menschen, die ihre Videos hochgeladen haben.

00:14:30: Eigentlich alles, was eben von diesen Plattformen gelöscht wird oder auch nicht gelöscht wird, das ist nicht zuträglich für die eigene Gesundheit.

00:14:39: Und dazwischen ab und zu mal ein Rentner, der aus versehen Video aufgenommen hat und total putzig ist und witzig, aber das gleicht den Rest einfach nicht aus.

00:14:46: Ja, das ist so.

00:14:48: Und deswegen finde ich ja auch, und da bin ich, das ist vielleicht fast eine unpopuläre These, aber das ist ein Anwendungsfall für den, der gut funktioniert in der KI.

00:14:57: mittelfristig super gedacht ist

00:14:59: als vorstufe absolut zum filter weil es gibt halt auch dinge wo man sagt na ja hier ist halt nix.

00:15:04: ja

00:15:05: dann müssen wir dann vielleicht doch mal warten ein bisschen beschwerde kommt weil es wird natürlich leute gehen die sowas um gehen und sagen ja wenn ich blau filter drüber lege dann habe ich die k i schon ausgedricks.

00:15:12: Da muss man dann aufs Reporten gehen.

00:15:14: Das ist ja immerhin und her.

00:15:15: Aber ja, wenn du tausend Videos hast, du hast einen Mitarbeiter, der das am Tag abarbeiten soll, ist ja schon mal gut, wenn ein Kaino sagen würde, ey, hier ist sehr wahrscheinlich ein Problem.

00:15:24: Hier war wahrscheinlich gar nicht.

00:15:25: Und dann kannst du das von oben nach unten abarbeiten.

00:15:28: Solange die nicht alles entscheidet oder gar nichts macht, auf jeden Fall.

00:15:32: Ja,

00:15:32: ganz genau.

00:15:33: Trotzdem, und da verstehe ich dann eben auch die rechte Dehrer, die eben dort arbeiten, als sehr, sehr wichtig.

00:15:40: kann es nicht bedeuten, dass wenn man eine KI hat, die so die Hälfte der Qualität leistet, die die Leute da gebracht haben, dass man die einfach vor die Tür setzen kann.

00:15:46: Das widerspricht so ein bisschen unserem zumindest deutschen, vielleicht sogar europäischen Arbeitsschutzgesetz und die Sozialrecht.

00:15:54: Ja, der Punkt moralisch auf jeden Fall auch.

00:15:56: Und auf der anderen Seite denke ich mir dann auch, ihr seid auch sehr optimistisch, weil die wussten ja, dass das nicht so gut ist.

00:16:02: Die müssen gedacht haben, ja in zwei Versionen macht die das besser als die Menschen.

00:16:06: Und dieser Tech Optimismus, der gibt mir auch Selbst wenn ich mich in diese Lage versetze und für die Argumentiere, die ich mir sehe, könnt nicht so optimistisch sein bei dieser Technologie.

00:16:16: Egal was es ist, macht doch so die Entscheidung, ob du jemand entlässt oder nicht, egal wie viele auch und egal wie sozial verträglich.

00:16:22: Erst dann, wenn ihr absehen könnt, jo.

00:16:25: Es funktioniert jetzt auf dieser Ebene schon, wir können langsam einen Übergang schaffen, dann einfach zu sagen, nur die gehen jetzt einfach alle, weil übermorgen

00:16:32: ist es bestimmt

00:16:32: gelöst.

00:16:34: Was ist denn da los?

00:16:36: Ja, so ist es wohl.

00:16:38: Was ist denn da los?

00:16:39: Es ist genau die richtige Frage hier.

00:16:41: Ich bin heute in so einem, merkst du, ich bin heute in so einem GH-Delling-Modus.

00:16:44: Ich weiß es nicht.

00:16:44: Oder Stefana Laschka, der macht das auch so.

00:16:47: Also, ich baue Brücken mit Worten heute.

00:16:50: Das machst du doch immer.

00:16:51: Ja, heute ist doll.

00:16:53: Ich merke, heute ist doll.

00:16:55: Weil ich unkonzentriert und labern bin, weil ich einfach nicht so besalert, aber ich bin einfach nicht so fit heute.

00:16:59: Falls

00:17:00: sich jemand fragt, warum dieser Podcast Haken dran heißt, es sind nur die sprachlichen Haken, die ich schlage.

00:17:04: Wir reden nicht sprechen.

00:17:06: Ja, okay, okay.

00:17:08: Ich hab aber die Nacht auch zu viel geschlafen, muss ich dazu sagen.

00:17:11: Du hast

00:17:11: zu viel und die haben zu wenig zusammen.

00:17:12: Sie sind für einen normaler Mensch.

00:17:14: Sehr gut.

00:17:14: Das Schöne ist die gleiche Ausrede, warum ich sonst so viel Quatschlaber ist immer.

00:17:18: Ich hab zu wenig geschlafen.

00:17:19: Es gibt nicht die perfekte Anzahl für Schlafen, um mich so zahlverträglich zu machen.

00:17:23: Wenn du sehr lange drei bis fünf Stunden nur schläfst, dann ist einmal so acht, neun Stunden, bist du richtig high.

00:17:28: Du

00:17:29: fühlst dich wirklich wie in Goodbye Lenin.

00:17:31: Dass du so aufhachst und das Gefühl hast, du hast jetzt dreißig Jahre irgendwie in so einem Koma gelegen.

00:17:36: Also, gut bei Ledidreferenz hätte ich jetzt auch nicht kommen sehen.

00:17:40: Das sollte ich wohl hierher kommen.

00:17:43: Naja, jedenfalls.

00:17:45: Data-Reporte.

00:17:47: hat den digital-twenty-twenty-six-global-overview-report veröffentlicht.

00:17:52: Klingt sperrig, ist aber eine Zusammenfassung aller möglichen Social-Media-Nutzungsdaten, die so gerade vorliegen.

00:17:58: zum jetzigen Stand.

00:17:59: Und unser amerikanischer Kollege Matt Navarra war so nett und hat das mal so ein bisschen zusammengefasst und das zitieren wir dann jetzt hier wiederum so ein bisschen.

00:18:05: Es ist ein Klumpatsch, wie immer, ihr wisst.

00:18:09: Also weltweit gibt es fünf, sechs, sechs Milliarden Nutzer in den Identitäten in sozialen Medien.

00:18:16: Heißt also, nach dieser Auswertung nutzen fast siebzig Prozent der Weltbevölkerungsauschwemedia.

00:18:22: Und in der Weltbevölkerung sind ja auch Babys und Menschen, die sehr alt sind, alle eingerechnet.

00:18:29: Das heißt, wir sind fast bei Sättigung.

00:18:31: Ja, das ist schon krass, ne?

00:18:34: Jetzt muss man dazu sagen, der Beruf Nutzer Identitäten heißt aber in dem Fall vielleicht auch doppelte Accounts.

00:18:38: Das kann natürlich passieren.

00:18:40: heißt aber wohl nicht nach dieser Auswertung, wenn ich das richtig verstehe.

00:18:43: Wir packen den ganzen Report mal rein, aber ich glaube, das sind irgendwie... ...sechs-hundert Seiten oder so.

00:18:47: Das ist eine sehr, sehr, sehr umfangreiche PDF.

00:18:49: Aber wenn ich das richtig verstehe, sind Leute, die auf zwei Netzwerken angemeldet sind, da schon explizit rausgerechnet.

00:18:56: Aber das beinhaltet aber auch Leute, die zum Beispiel nur WhatsApp nutzen.

00:19:00: Exakt.

00:19:01: WhatsApp ist da mit drin.

00:19:03: Also Messaging wird hiermit in sozialen Medien eingerechnet.

00:19:05: Und YouTube auch?

00:19:06: YouTube auch.

00:19:07: Ich meine, die wenigsten Leute werden nur YouTube oder nur WhatsApp nutzen.

00:19:11: Das ist ein Ausnahmefall.

00:19:12: Aber für mich ist halt beides kein Social Network.

00:19:15: Ich sehe das auch so.

00:19:16: Ich finde, Messaging muss noch anders fassen, weil das auch ein anderer Use Case ist.

00:19:20: Aber hier in diesem Report wird das alles zusammengefasst.

00:19:23: YouTube übrigens auf Platz fünf der meisten genutzten sozialen Netzwerke nach monatlicher aktiven NutzerInnen.

00:19:28: Platz eins bis vier, alles Meternetzwerke.

00:19:30: Facebook, WhatsApp, Instagram, Messenger.

00:19:32: Und dann kommt der Stick Talk.

00:19:34: Das finde ich schon erstaunlich, vor allem weil TikTok die am meisten heruntergeladene App der Welt ist, nach dieser Auswertung, vor Instagram, Facebook, WhatsApp, Telegram.

00:19:45: Ja, aber das sagt ja nichts aus.

00:19:47: Das ist ja nur ein Potenzial.

00:19:48: Und potenziell könntest du jede App installieren, die im Store steht.

00:19:51: Und

00:19:51: TikTok hat die meiste genutzte Zeit pro Monat.

00:19:54: thirty-four Stunden im Monat werden im Schnitt auf TikTok verbracht.

00:19:58: Also ungefähr anderthalb oder eins, eins Stunden pro Tag auf Platz zwei YouTube, achtundzwanzig Stunden pro Monat, entschuldigung nicht pro Tag, thirty-four Stunden pro Monat.

00:20:07: YouTube, achtundzwanzig Stunden pro Monat, Facebook, achtzehn, sieben Stunden pro Monat, Instagram, fünfzehn, fünf Stunden pro Monat.

00:20:14: Also die Leute verbringen.

00:20:15: Mehr Zeit, wenn Sie es der Nutzen auf Facebook, als Sie auf Instagram verbringen, auch spannend finde ich.

00:20:21: WhatsApp hat siebzehn, fünf Stunden im Monat als durchschnittliche Nutzungszeit.

00:20:25: Telegram nur vier, acht Stunden im Monat.

00:20:27: Das heißt, die Leute, die Telegram nutzen, verbringen dort weniger Zeit, als die Leute, die WhatsApp nutzen, dort verbringen.

00:20:34: Spannend,

00:20:34: oder?

00:20:37: Ich glaube, das kann man aber sehr leicht Sie unterrechnen.

00:20:40: Die wenigsten Leute haben einen Bekanntenkreis, der nur einen Messenger nutzt.

00:20:44: Also wenn du jetzt Telegram nutzt, ist es nicht so, würde es nur Leute kennen, die Telegram nutzen.

00:20:49: Die Wahrscheinlichkeit, dass du WhatsApp nutzt und die Leute haben zu neunzig Prozent WhatsApp allerdings, die ist hier hoch ist.

00:20:54: Du hast einfach mehr Kontakte, mit denen du schreiben kannst bei WhatsApp, als bei Telegram.

00:20:58: Ja, du hast recht.

00:21:00: Stimmt das bei mir auch so.

00:21:01: Also ich habe so eine, ich würde sagen, so gut zwei Handvoll von Menschen, die ich vornehmlich über Telegram erreiche.

00:21:06: Bei mir sind es drei.

00:21:09: Händevoll oder Leute?

00:21:11: Menschen.

00:21:12: Drei Menschen.

00:21:12: Also ich kann nochmal reingucken, also das was ich am häufigsten reinkriege, na ok, sind vier, ist die Meldung so und so, hat jetzt auch Telegram, aber die schreiben mir dann nie, weil ich hier WhatsApp hab.

00:21:23: Ja,

00:21:24: das ist ganz schlimm, aber das ist weniger geworden bei mir, ich weiß auch

00:21:27: nicht.

00:21:27: Ja, und ich hab immer noch diese Reaktion aus der Zeit, als die ganzen Schwobelpromis auf Telegram ihren Kanal aufgemacht haben, dass sobald es aufbaut, der und der hat jetzt Telegram gesagt, oh Gott bitte, hoffentlich nicht deswegen, hoffentlich bist du jetzt nicht abgestürzt.

00:21:43: Ja, aber es gab schon so eine Welle, da war Telegram extrem populär, bei denen die auch nur mal so lärken wollten, ne?

00:21:49: Lärken ist ja auch okay.

00:21:51: Ja.

00:21:52: So, der durchschnittliche Social-Media-Nutzer oder die durchschnittliche Social-Media-Nutzerin auf der Welt ist monatlich auf sechs Komma sieben Plattformen aktiv.

00:22:01: Das finde ich krass, ehrlicherweise.

00:22:03: Wieso?

00:22:04: Weil das ja bedeutet, dass auf jede Person die nur auf einer Plattform oder auf zwei Plattformen unterwegs ist.

00:22:10: Also ganz, ganz klischeehaft meine Mutter.

00:22:13: Meine Mutter findest du auf Facebook und auf WhatsApp.

00:22:16: That's it.

00:22:17: Liko, kein YouTube.

00:22:20: Weiß ich nicht.

00:22:21: Monatlich würde ich sagen, wahrscheinlich nicht.

00:22:24: Ja, aber mir geht es halt auch hier wieder darum, dass wir in unserem Verbauchgefühl verständen sind.

00:22:28: Genau.

00:22:29: Das sage ich jetzt einfach mal so, würden wir halt YouTube nicht reinzählen, würden Messenger nicht reinzählen.

00:22:32: Aber wenn du die alle abziehst, dann hast du schon wieder viel weniger.

00:22:35: Das stimmt, aber ich würde noch einen draufsetzen.

00:22:37: Von unserem Bauchgefühl her würden wir aber ganz, ganz viele Dinge, über die wir hier sprechen, ganz anders einstufen.

00:22:42: Ja, ja.

00:22:43: Ich finde, es ist auch viel.

00:22:45: Und wenn ich aber das abziehe, was ich gerade gesagt habe, finde ich es immer noch viel.

00:22:49: Ja.

00:22:49: Weil da kommt wieder diese Sache, ich treng ja Herrn Agor.

00:22:53: Schon ewig nicht, also noch nie.

00:22:55: Probier mal was, das war's.

00:22:57: Ich hab da keinen Glaubenskrieg, ich mach's einfach nicht.

00:22:59: Und dann sehe ich die Statistik, wie viel Bier in Deutschland im Durchschnitt trinkt und wie viel Kaffee.

00:23:02: Und ich hab früher auch überhaupt gar keinen Kaffee.

00:23:05: Da musst du Leute geben, die den ganzen Tag dieses Zeug trinken, um mich auszugleichen.

00:23:10: Das kann noch nicht sein.

00:23:11: Und es ist aber so.

00:23:13: Und hier ist es auch so.

00:23:15: Es gibt halt Leute, und wir haben ja alle so Phasen, glaub ich, wenn's uns grad nicht so gut geht.

00:23:18: Und wir haben abends ein bisschen Zeit, sollten aber eigentlich schlafen.

00:23:21: Dann klappern wir jede App ab, die da ist, die noch ein bisschen Dopamin für uns übrig hat.

00:23:25: Und das geht dann sofort in die Statistik rein und dann bist du direkt bei fünf oder sowas.

00:23:29: Im nächsten Tag guckst du mal irgendwo vorbei, wo du gestern nicht warst, dann ist es sechs.

00:23:33: Da

00:23:34: geht's ja nur um, hab ich einmal benutzt.

00:23:36: Und dann geht's ja nicht.

00:23:36: Ja, im Monat.

00:23:38: Weißt du, wie viel Zeit so im Schnitt der durchschnittliches Aufschmedia-Nutzer verbringt?

00:23:41: Weltweit gerechnet, alle Demografien?

00:23:43: Ja, das steht hier in dem PDF, deswegen weiß ich es leider.

00:23:47: Zwei Stunden, dreiundzwanzig am Tag.

00:23:50: zweieinhalb Stunden.

00:23:51: Also klar, man muss da zu sein, wie gesagt, da fällt eben auch WhatsApp und Messaging-Dienste mit ein und das ist ein anderer Use Case als Videos auf YouTube gucken oder bei TikTok doomstrollen, das sind unterschiedliche Situationen.

00:24:03: Das ist aber auch das Ding, wird da wirklich ein YouTube-Video gucken reingerechnet, weil du guckst manchmal in vier Stunden Video, lässt das so nebenher laufen, hörst eigentlich nur zu, machst was ganz anderes.

00:24:12: Da hättest du früher Radio gehört, klar die Marktanalyse hat sich auch da gefreut, aber weiß ich nicht.

00:24:19: Also die Zahlen sind für mich, man muss wirklich, wenn man wirklich wissen will, was die Zahlen bedeuten, muss man, glaube ich, diese sechsehundert Seiten lesen.

00:24:25: Ja, und ich glaube, man muss auch ehrlicherweise dazu sagen, dass gerade Social Media Nutzung sich von Land zu Land massiv unterscheidet.

00:24:32: Also es gibt wahnsinnig viele Länder, in denen eben Apps sehr dominant sind, die in anderen Ländern gar keine Rolle spielen.

00:24:38: Also zum Beispiel ist hier WhatsApp auf Platz zwei der meist genutzten Social Media-Netzle weltweit nach monatlicher aktiven Nutzung.

00:24:44: Zwei Komma sieben Milliarden Menschen.

00:24:45: In den USA ist WhatsApp gar kein Ding.

00:24:48: So, d.h.

00:24:48: Menschen, die dort sitzen, denken sich so, hey, wer sind diese Leute?

00:24:52: Einmal meine Kontakte, das habe ich auch irgendwann mal gefragt, sei mal, falls in dem Fall das Messenger auf Facebook jetzt irgendwie nicht mehr so ein Ding ist, wie kontaktiere ich euch?

00:24:59: Dann haben wir ein paar ihre E-Mail geschickt.

00:25:01: Einmessage.

00:25:03: Ja, einmessage geht auch noch.

00:25:05: Aber Handynummern austauschen ist auch nicht mehr so ein Ding.

00:25:07: Okay, dann bleibe ich bei dem dummen Messenger bei euch.

00:25:10: Ist ja nicht schlimm, aber die haben für diese WhatsApp so... Keine Ahnung das ist wie uns die diese chinesischen apps von dem wir noch nie gehört haben außer hier im podcast.

00:25:22: Es gibt ja wirklich so drei vier apps die da riesig sind wo wir gar keine Ahnung von haben hier.

00:25:27: Was ich mich aber gerade frage, weil wir arbeiten ja auch beide unabhängig von den Podcast irgendwie immer mit Social Media.

00:25:33: Wir haben ja auch, wir kennen ja auch die Perspektive von Leuten, die da auch für unsere Projekte Werbung auf Social Media machen, damit die Leute eben zu einem Event kommen oder so.

00:25:40: Und ich habe heute den Satz wieder gesagt, hey, Social Media stirbt gerade.

00:25:43: Es hielt sich halt so an, als würde alles, was man da reinwirft, hätte keinen Effekt mehr.

00:25:47: dass da Menschen noch sind, weiß ich ja, aber es wird sich so an, als würden die nur noch passiv so da durchgehen und gar nicht mehr interagieren wollen, noch nicht mal im Sinne von, ich drück mal auf irgendwas drauf, außer einem Like, als wäre der Effekt, den man früher hatte oder man ja froh, wenn man irgendwie was populär machen wollte, als wäre der weg.

00:26:04: Also... Er ist schwächer auf jeden Fall.

00:26:06: Ja, das liegt glaube ich schon ein bisschen daran, wie es auch schon wieder auch genutzt wird.

00:26:10: Das Leute, die dort liken, das nicht mehr nur liken, das sage ich ja ständig hier, aber nicht nur liken, um dir ein Signal zu geben, sondern im Algorithmus, was eine Veränderung ist, dass die Inhalte, die man sich anguckt, viel viel professionalisierter, entertainiger sind, man nutzt es eigentlich mehr so zu Zerstreuung und zur Ablenkung, wie du eben auch schon gesagt hast, als wirklich auch mit Leuten in Kontakt zu bleiben.

00:26:28: Also es gibt da so mehrere Effekte, die aufeinanderfallen, die dann aber zu dieser Wahrnehmung führen, glaube ich.

00:26:34: Und gleichzeitig, das ist natürlich wie das Smart für die Netzwerke selber.

00:26:39: Neuchen Virala postet, die ich auch gepostet hatte, wo jemand sauf viele Millionen Views hatte, ich glaube auf TikTok und hat dann irgendwie zwei Cent dafür bekommen.

00:26:45: Also wenn man dann die Leute auch auf der App hält, wo man aktiv ist und gar nicht zu seinem Zeug führt, wird man von denen auch nur, wenn entlohnt, dann mehr.

00:26:53: so, ja

00:26:53: komm,

00:26:54: alles unter zehn Milliarden, nicht russ drüber reden, sondern dem Motto.

00:26:59: Es ist eine entspannende Situation gerade, weil natürlich dann ein ganzer Wirtschaftszweig dran hängt, von Individuen bis hin zu großen, größeren Unternehmen zumindest, die ja, glaube ich, gerade ein bisschen ins Straucheln kommen.

00:27:10: Das definitiv, ja, auf jeden Fall.

00:27:13: Übrigens, das meist genutzte sozialen Netzwerk nach dieser Auswertung weltweit ist Facebook mit zwei, neun, acht monatlich aktiven NutzerInnen, Instagram auf Platz drei mit zwei, eins, der zwischen WhatsApp, dann der Messenger, dann YouTube.

00:27:26: Was ich einen ganz, ganz spannenden Punkt in dieser Auswertung finde, ist der Punkt der Plattformüberschneidung.

00:27:31: Also... Welche, also so ein bisschen wie Vela-Wanderschaft am Ende, wenn Jörg Schönborn vor der geilen Wand in der ARD steht, denn zum Beispiel, Einenundachtzig Prozent der TikTok NutzerInnen verwenden auch Facebook.

00:27:49: Nur dreißig Prozent der TikTok NutzerInnen verwenden Snapchat.

00:27:53: Heißt also, es gibt nicht diese junge Bubble, die auf TikTok und Snapchat, und zumindest weltweit gesprochen.

00:27:57: Das kann in Deutschland und in gewissen Altersgruppen natürlich anders aussehen und auch je nachdem, in welcher Bubble man so ist.

00:28:02: Aber weltweit gesprochen sagt diese Auswertung hier, TikTok und Snapchat ist ein völlig unterschiedliches Publikum.

00:28:10: Snapchat und Facebook.

00:28:11: TikTok und Facebook wiederum ist ein ziemlich ähnliches Publikum, weil eben so viele Leute international gesprochen bei Facebook unterwegs sind.

00:28:19: Heißt also, ey Leute, wenn ihr mit Social Media beruflich zu tun habt, dann lasst Facebook nicht einfach hinten überfallen, weil auch in Deutschland ist Facebook immer noch ein Ding.

00:28:28: Und nur weil Facebook weniger schnell wächst als Instagram und Instagram das erste Mal in Deutschland jetzt Facebook überholt hat, heißt das nicht, dass Facebook plötzlich irrelevant ist.

00:28:39: Nee, ich glaube auch nicht, dass es relevant ist.

00:28:40: Ich denke aber, das ist jetzt wirklich eine deutsche Perspektive.

00:28:43: Ja.

00:28:44: Es macht auf kaum einem Netzwerk weniger Spaß, irgendwas zu tun, weil die Kommentarkultur sehr anstrengend ist.

00:28:50: Also, das ist immer eine Momentaufnahme, aber wann immer, ich nochmal, und das geht jetzt nicht um meinen Content tatsächlich.

00:28:57: Ich mach dann nämlich fast nichts.

00:28:58: Aber wenn ich, also ein Zeitartikel, und das ist ja schon ein Medium, wo man denkt, da ist vielleicht ein bisschen besser,

00:29:04: Halla Li.

00:29:05: Da sind schon die Oberstudienräte, aber unterwegs, denkt man.

00:29:09: Auf der eigenen Seite schon, die ist auch hart moderiert, das muss man seit online mal lassen.

00:29:13: Sie haben wirklich investieren in ihre Moderation.

00:29:16: Und machen das finde ich auch relativ gut.

00:29:18: im Sinne von sie lassen noch sehr viel zu, wo ich schon gesagt habe, verbanne den noch komplett von der Seite für immer.

00:29:24: Aber es ist halt rechtlich okay.

00:29:26: Und auf Facebook unten drunter.

00:29:30: Das geht wirklich Facebook, YouTube.

00:29:33: Dann kommt noch mal viele andere Sachen.

00:29:34: Deswegen, ich finde es sehr unattraktiv, auf Facebook aktiv zu sein, über die Art und Weise, wie Leute damit interagieren.

00:29:40: Aber ja, die Menschen sind da und sie nutzen es noch.

00:29:44: Zahlmäßig, absolut richtig.

00:29:45: Was ich auch total interessant finde, ist die durchschnittliche Anzahl, wie häufig die Leute die jeweilige App öffnen weltweit gesprochen.

00:29:52: Instagram im Schnitt acht Mal am Tag, TikTok zehn Mal am Tag, WhatsApp acht Mal am Tag, finde ich nicht so überraschend, aber dass die Leute öfter TikTok als Instagram öffnen.

00:30:02: und dann auch deutlich länger verweilen, das finde ich schon bemerkenswert.

00:30:07: Das spricht wieder für den süchtig machenen Algorithmus.

00:30:10: So ist es, definitiv.

00:30:12: Ansonsten schreibt Mende Vera hier weiter, dass X krass auf dem absteigenden Ast ist.

00:30:17: Die monatliche aktiven Nutzerinnen sind ständig zurückgegangen.

00:30:20: Die Nutzungsdauer sind nur noch drei Stunden, drei Minuten pro Monat.

00:30:24: Und die Plattform schafft es in keiner großen Region außer Japan unter die Topf V.

00:30:29: Japan?

00:30:29: Und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und,

00:30:48: und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, und, Brauche ich, also ich hab zwar auch eine Tastatur, heute richtig Tastatur, ich brauche eine Maus, ich brauche ein großes Display, ich muss verschiedene Tabs aufmachen können.

00:31:07: Ich brauche viel Platz, muss mich organisieren und am Ende hab ich immer das Gefühl, ich werd verarscht.

00:31:11: Es ist

00:31:11: jedes Mal so.

00:31:16: Na ja, wie kommen wir jetzt von da zu KI?

00:31:19: Von da zu KI?

00:31:20: Ja, aber die Dinge, wo ich das Gefühl hab, ich werd verarscht.

00:31:23: Oh!

00:31:23: Einhundert bitte.

00:31:24: Ja, sehr gut.

00:31:25: Ich hab heute ein bisschen was mitgebracht zum Thema ... wie wir verarscht werden und wie auch Leute von KI verarscht werden.

00:31:31: Es gibt eine Geschichte, die hat der BR gebracht, die hat auch eine Influencerin gerade relativ, oder nee, ist falsch, ne?

00:31:38: Wie heißt das?

00:31:38: Creatorin.

00:31:39: Eine Creatorin auf Instagram, nee, auf TikTok.

00:31:42: Oh mein Gott, ich komm noch mal rein.

00:31:44: Bitte.

00:31:45: Also es gibt eine Geschichte, die der BR, über die der BR berichtet hat, die aber auch eine Creatorin auf Instagram relativ groß besprochen hat.

00:31:53: Und zwar geht es um ein Meme, das so seit einigen Monaten auf TikTok eine Rolle spielt.

00:31:57: Ich würde dir mal ganz kurz das Vorspielen, damit du einen Gefühl dafür kriegst und alle, die hören, worum es geht, ist nämlich das sogenannte Narrator, der Narrator-Trend und Trend.

00:32:06: Und so klingt der.

00:32:08: Man hört nichts, ne?

00:32:10: Ich auch nichts.

00:32:10: Ich auch nichts, Moment.

00:32:12: Kannst du kurz überbrücken?

00:32:13: Ich muss hier kurz bauen.

00:32:14: Aber sicher.

00:32:15: Ich glaube, die Geschichte habe ich schon ein bisschen länger in der Mache.

00:32:18: Ich habe es auch mitbekommen auf Social Media, noch bevor dann richtig darüber berichtet worden ist.

00:32:22: Und es ist natürlich was, was erwartbar war, dass natürlich schon länger Computerstimmen zur Verfügung gestellt worden sind für, ich glaube, auf verschiedensten Plattformen.

00:32:30: Genau.

00:32:30: Und

00:32:30: das waren am Anfang total robotische Stimmen.

00:32:32: Und da fand ich das okay, weil das war dann ein Stilmittel so.

00:32:35: Hallo, ich bin definitiv die Computerstimme.

00:32:38: Und hat nie genauso geklungen wie jemand anders.

00:32:41: Ich spiele jetzt mein Beispiel vor, das hat Melly Bagjo.

00:32:44: Ich hab willkürlich eine Person ausgewählt.

00:32:47: Props an Melly, wir hören mal kurz rein.

00:32:49: Es ist Melly, eins kommt fünfzig groß, aber überdurchschnittlich dramatisch.

00:32:54: Da war Musik drin, haben wir nicht gehört.

00:32:59: Also musikalisch.

00:33:02: Jedenfalls diese Stimme, die du gehört hast.

00:33:04: Die hat man so gehört, hat's das Gefühl, das habe ich ja schon hundertmal gehört irgendwie.

00:33:08: Und klar, es ging auch extrem durchs Netz und viele haben das gemacht.

00:33:11: Das Interessante ist, und es gibt es auch im Englischsprachengraum mit derselben Stimme, der Mensch, dem diese Stimme gehört, ist ein Deutscher, ist ein Grundsprecher, nämlich Jens Wendland.

00:33:20: Und Jens Wendland, den kennen wir zum Beispiel, weil er für extra drei die Beiträge spricht, aber auch in Uncharted die Stimme des Nathan Drake übernimmt, Bericht der BR.

00:33:31: Und tatsächlich klingt so eine Stimme, dieser Stimme hier, die TikTok anwendet als Computerstimme, schon sehr nah.

00:33:38: So.

00:33:38: Ja, ja.

00:33:40: Bidance hat eine Veranfrage vom BR bekommen und hat mal gefragt.

00:33:43: Wir haben nicht darauf geantwortet bislang.

00:33:46: Jens Wendland hat allerdings jetzt angekündigt, dass er mit einem Medienrechtsanwalt dagegen vorgeht, weil Jens Wendland selber davon gar nichts wusste.

00:33:53: Also er hat das mitbekommen, dass auf einer Veranstaltung jemand zu ihm kam, ein Fan und eine Kollegin und beide zu ihm sozusagen meinen, hör mal, das bist doch du, oder?

00:34:05: Und er war ganz irritiert, weil er sich nicht daran erinnern kann seine Stimme irgendwie lizenziert zu haben.

00:34:12: Und der BR schreibt auch, Wendlern selbst erfährt davon erst sehr spät, weil er selber kein Social Media hat, um seine Daten besser zu schützen.

00:34:21: Ja, aber er hat auch gearbeitet und deswegen ist seine Stimme natürlich irgendwo verfügbar.

00:34:25: Also haben wir wieder Datenklau auch.

00:34:27: Also wer so oder so Datenklau, ne?

00:34:30: Ja, es ist wahr abzusehen, dass es irgendwann so offensichtlich wird, dass jemand da klagen kann und das wird auch kein Einzelfall sein.

00:34:37: Ist auch schon kein Einzelfall sehe ich gerade.

00:34:39: Das ist ja schon den nächsten Fall hier drin.

00:34:41: Wir haben doch noch ein bisschen was in die Richtung,

00:34:44: ja.

00:34:45: Ich hoffe einfach nur, dass jetzt, sag ich jedes Mal, das muss man machen, man muss sich da wehren.

00:34:51: Er geht es ja auch darum, dass eine gesamte Berufsgruppe definitiv riecht.

00:34:55: Oh, wir werden ja gerade vielleicht nicht für alle Jobs, aber für viele Jobs überflüssig gemacht.

00:34:59: Und zwar auf eine Art und Weise, die nicht einfach nur sagt, ja, die Maschine kann das auch, sondern die Maschine macht einfach das, was du machst.

00:35:05: Genau das, was du machst, nämlich du sein.

00:35:08: Und das ist halt.

00:35:09: Nicht, definitiv nicht richtig.

00:35:11: Wenn jemand irgendeine Computerstimme nimmt, die wie ein Computer klingt, oder auch menschlich nachahmt, aber nicht präzise trainiert ist auf irgendwas, was man auch wieder geklaut hat, dann ist es ein bisschen schwieriger zu argumentieren, das darf man nicht.

00:35:23: Und da habe ich auch weniger ein Problem mit.

00:35:24: Aber wenn ich einfach sage, nö, wisst du was, die Person, die auch noch lebt, ohne okay von der zu kriegen.

00:35:29: Die werden wir jetzt einfach nachbauen.

00:35:31: Das geht einfach nicht.

00:35:32: Nein, absolut nicht.

00:35:33: Und wir erinnern uns ja daran, dass, ich glaube, es war ja Scarlett Johansson, die ihre Stimme in einer KI wiedergefunden hat von OpenAI.

00:35:41: Also es gibt eben immer wieder diesen Fall.

00:35:43: Und das Ärgerliche bei einer Stimme ist ja, dass das für die Leute, die davon leben.

00:35:48: Ja, das ist ihr Kapital.

00:35:50: Und wenn die kopiert wird, dann wird es richtig, richtig finster.

00:35:53: Also ich glaube, man darf sich nichts vormachen.

00:35:54: Ich glaube, die ganze Synchronindustrie in Deutschland wird vor schwierigen Zeiten stehen, weil irgendwann wir an einem Zeitpunkt stehen, wo dann zum Beispiel George Clooney oder Brad Pitt ihre Stimme aus dem Film lizenzieren für die Nutzung in diesem Film und du dann eben in Deutschland Brad Pitt wahrscheinlich sogar noch Lippensynchron auf Deutsch diesen Film sprechen sehen können wirst.

00:36:13: die technologische Option besteht.

00:36:16: Man kann halt hoffen, dass die Schauspieler auch solidarisch sind mit ihren Synchronen sprechen und sagen, ist ja ein Kollege von mir, ich kann den das ja nicht wegnehmen.

00:36:23: Und ich halte es jetzt als einfach als Filmfreund, finde ich es nicht schön, weil wenn du dann Lippensynchron bist, dann verinnerst du auch noch das Optische dazu.

00:36:34: Also alles was mir irgendwie ein künstlerischen Input hat und irgendwie gern Kunst rezipiert, ist so, das ist doch dreck.

00:36:41: Es gibt ja auch schon jetzt gerade Hollywood-Filme, die In-In-Credits, ich hab leider mir nicht gemerkt, welcher es war, aber die In-In-Credits von Märkten, dieser Film wurde komplett ohne generative KI erstellt.

00:36:50: Und das sozusagen als Prädikat, als Qualitätsmerkmal in die Credits zu heben.

00:36:55: Aber ich bin mir relativ sicher, dass wir diese Veränderungen kommen sehen werden und vermutlich auch nicht.

00:37:00: Das wird nicht mehr als so lange dauern, dass der erste Film eins zu eins die Stimme der amerikanischen Schauspieler in Hörbama.

00:37:08: Die Filmenindustrie ist groß.

00:37:09: Es wird eben Leute geben, die weniger moralische Probleme damit haben.

00:37:12: Es gibt Leute geben, die sagen, wir machen das aus Budgetgründen.

00:37:15: Die Frage ist halt, wo die große Masse und die großen Titel hingehen.

00:37:19: Das ist ja wirklich auch eine Industrieentscheidung, die man daraus kristallisieren muss.

00:37:22: Und da hoffe ich halt immer noch ein bisschen auf die Gewerkschaften.

00:37:25: Ja, und die ist bislang relativ drastisch darin.

00:37:28: Wie heißt die die Schauspieler Gewerkschaft in Hollywood?

00:37:30: Sack after afternoon.

00:37:33: Sack after afternoon, genau.

00:37:34: Screen Actors

00:37:35: Guild.

00:37:36: Ja, Sack after afternoon, lustigerweise ähnlich, aber SCG, so Screen

00:37:39: Actors

00:37:40: Guild.

00:37:41: Ja, genau.

00:37:41: Und

00:37:41: dann gibt's aber auch noch eine Kombi abkürzt und deswegen komme ich immer durcheinander.

00:37:44: Die hat ja in dem großen Streik, in den großen Protesten, in diesem Jahr waren, haben sie ja schon erwirkt, dass die Studios zunächst davon absehen, deren Avatar zu licenzieren, sozusagen, oder das Körperabbild zu licenzieren, zur Verwendung mit KI.

00:38:00: Aber das ist, glaube ich, noch ein sehr hart geführter Kampf auf beiden Seiten und ich glaube, wir werden da Veränderungen leider feststellen müssen.

00:38:07: Interessant ist aber, dass das ja die Stimmenverwendung nicht unbedingt ein geistiges Eigentum ist.

00:38:13: Das ist am Ende ein Körperabbild.

00:38:15: Bei geistigem Eigentum wird es aber noch mal ein bisschen pikanter.

00:38:20: Denn während wir hier sprechen, Wari Talk, hat das Landgericht München eine Entscheidung getroffen.

00:38:27: Auf Grundlage einer Klage, die die GEMA eingereicht hat.

00:38:30: Die GEMA führt im Moment zwei große Klagen.

00:38:32: Die eine gegen OpenAI, die andere gegen ZUNO AI.

00:38:35: Über ZUNO AI haben wir hier schon mal gesprochen.

00:38:37: Gregor Schmalzried hatte mal ein Song mitgebracht, mit ZUNO kannst du Musik generieren.

00:38:41: Das ist mal so ganz witzig, um das Ausbruch mit HH Gras klingt wie Schlager.

00:38:46: Aber in dem Moment, wo das eben nicht nur ein Party Gag ist und auch nicht nur ein Ding, das man in die WhatsApp-Gruppe schickt, sondern tatsächlich damit relevante Musik macht, spätestens dann muss man sich mal angucken.

00:38:56: Woher kommen eigentlich die Trainingsdaten?

00:38:58: Jetzt war die GEMA im Rahmen ihrer Recherchen relativ erfolgreich beim Finden von Hinweisen auf Trainingsdaten.

00:39:05: Denn zum einen, und ich werde euch den Link in die Schaunorts packen, ich sage mal so, es gibt eine Seite bei der GEMA, bei der kannst du dir KI-generierte Songs anhören.

00:39:14: Und zwar haben die Songs so Titel wie Atem Lustig, Die Nacht, Daddy Cool, was haben wir noch?

00:39:20: Warte, ich habe ein bisschen Sorge, ich habe bei der Gamer angefragt, ich habe noch keine Antwort, sonst würde ich dir das jetzt vorspielen.

00:39:26: Aber dadurch, dass die klangliche und inhaltliche Ähnlichkeit zum Originalstück so groß ist, glaube ich nicht, dass das nicht eine lizenzwidrige Nutzung wäre oder eine unlizensierte Nutzung, wenn ich dir diese KI-generierten Inhalte vorspielen würde, weil die Gamer es geschafft hat, mithilfe von JetGPT und SunoAI.

00:39:47: eins zu eins diese Songs zu regenerieren.

00:39:50: Atemlos durch die Nacht klingt sehr, sehr, sehr ähnlich wie das Original, das Helene Fischergesang hat.

00:39:57: So auch Daddy Cool, das Intro ist deutlich länger, aber der Rest vom Song sehr, sehr, sehr nah dran.

00:40:03: Und die Gema schützt ihm die Rechte von Urhebern.

00:40:06: und damit glaube ich, wenn ich dir hier die KI-Reproduktion vorspiele, verletze ich trotzdem die Rechte der Urheber.

00:40:11: Das ist mein Rechtsempfinden.

00:40:14: Ja, jetzt muss man auch nicht vorspielen, um es dir zu glauben.

00:40:16: Und du kannst ja auf die Seite der G-Mark können.

00:40:17: hört ihr selber drauf, wenn sie unbedingt wollen.

00:40:19: Genau, ihr findet den Link in den Show-Nauts, ihr könnt euch das dort an, es ist wirklich verrückt.

00:40:24: Und während wir sprechen, hat das Landgericht München die Entscheidung getroffen, dass Open May Eye in dem Moment, wo sie die Lead-Texte dieser Songs reproduziert hat, also Suno gehört nicht zu Open May Eye, um das dazu zu sein, sondern es sind zwei unabhängige Klagen.

00:40:37: Aber hier geht es tatsächlich auch um Atemlust durch die Nacht.

00:40:40: Hier geht es um in der Weihnachtsbergreichung Rolf Zuckowski, Männer von Herbert Grünemeyer über den Wolken von Reinhard May.

00:40:45: Alles Lieder, dessen Text man mithilfe von ChatGPT reproduzieren konnte.

00:40:50: Und zwar mit teilweise hoch einfachen Fragen.

00:40:53: Also wahrscheinlich sowas wie wie ist der Text von oder schreibe den Song Atemlust durch die Nacht und dann eben einfach weitergegeben werden.

00:41:01: OpenAI hat tatsächlich vor Gericht eine Niederlage erlebt, denn das Gericht hat entschieden, OpenAI muss es unter lassen, diese Texte zu speichern und in seinen Modellen auszugeben, muss ein Schadensersatz zahlen und Informationen über die Nutzung und die damit erzielten Erträge herausgeben.

00:41:15: Erträge kann man gleich sagen, ist wahrscheinlich im Minimalbereich, weil OpenAI macht nicht so richtig Gewinn bislang, aber naja.

00:41:23: Trotzdem, OpenAI wird wahrscheinlich in die nächste Instanz gehen und herausfinden wollen, wie die höchstrichterliche Sprechung in diesem Fall hier am Ende klingen wird.

00:41:34: Das Spannende ist aber, dass das natürlich ein Präzidenzfall ist, auch wenn wir das in Deutschland so nicht haben, aber das ja könnte natürlich maßgeblich sein.

00:41:42: Sprich, es könnte dazu führen, dass es bald gar nicht mehr sein kann, dass ueberrechtlich geschützte Werke von OpenAI reproduziert werden dürfen, ohne dass OpenAI dafür Strafen zahlen muss, was sehr, sehr, sehr interessant wäre.

00:41:56: Also selbst dann, wenn Sie kein Geld damit verdienen.

00:41:59: Das ist ja die Frage, weil ich glaube, also ich kenne mich nicht genau beim Musikrecht aus.

00:42:03: Aber du kannst ja selber, wenn du jetzt anfängst, hier atemlos durch die Nacht zu singen, ist es was anderes, als wenn du es machst und verkaufst eine CD.

00:42:15: Aber du verdienst dir auch mit dem Podcast Geld, aber wenn du es einfach gratis irgendwo tust.

00:42:19: Aber selbst dann dürfte ich das gar nicht, wenn das ein Gema-relevantes Song ist.

00:42:22: Also es gibt ja auch Geschichten, in denen die Gema zum Beispiel gegen Kindertagesstätten vorgegangen ist, weil diese Songtexte von Rolf Zuckowski fotografiert und ausgegeben haben.

00:42:32: Okay, aber fotografiert ist ja hier das Ding.

00:42:35: Aber

00:42:35: sie haben auch kein Geld damit verdient.

00:42:36: Das heißt, wenn du ... Ja, okay.

00:42:39: Ich bin auch kein Jurist offensichtlich.

00:42:41: Aber

00:42:43: es

00:42:43: war zumindest so, dass das prinzipielle Cover kein Problem ist, oder musst du halt ein Geldfluss irgendwo herstellen, natürlich, also zum Original.

00:42:51: So verstehst grob, und ihr merkt, es ist in der Formulierung schon sehr grob.

00:42:55: Aber hier geht es ja auch darum, für mich persönlich geht es ja auch darum, es ist ja klar, wenn du sagst, ja hier ist es veröffentlicht und es ist genau da gleiche Text, das ist halt das Simpelste, juristisch gesehen das Simpelste.

00:43:04: Du quasi copy-paste, das kannst du halt nicht machen.

00:43:08: Aber auf der anderen Seite, dann muss der Song ja auch da drin sein.

00:43:10: Haben die denn mal auf das Gefrag damit zu trainieren?

00:43:12: Das ist ja auch eine Frage.

00:43:13: Aber natürlich

00:43:14: nicht.

00:43:14: Aber natürlich nicht.

00:43:15: Und auch das will die GMA ja wissen und auch das Gericht hat ihr dann auch gesagt, das müsst ihr offenlegen.

00:43:19: Und das wird dann schön.

00:43:22: Also das muss man halt auch transparent mal durchleucht, damit auch die Rechtsprechung ein Verständnis davon bekommt.

00:43:28: Und das meine ich gar nicht als Vorwurf, weil ich verstehe es ja auch nur zu teilen.

00:43:33: Was hier eigentlich passiert und wie das auf die aktuellen Rechte passt und wo man vielleicht mal und das jetzt erinnert was politisches was anpassen muss.

00:43:40: Genau und die Frage ist tatsächlich hier und das finde ich interessant wie das Gericht argumentiert.

00:43:45: Also sie haben sie wollten herausfinden in dem Prozess.

00:43:49: Sie sind davon ausgegangen okay die KI wurde ganz sie haben selber gesagt unstrittig mit diesen Liedern trainiert.

00:43:55: Aber wurden die Daten der Lieder einfach nur gespeichert und dann wieder sozusagen ausgegeben?

00:44:00: Also fragt mich, wie ist der Songtext?

00:44:01: und ich gebe dir den einfach?

00:44:03: Oder hat Chatchi Petit die Liedtexte neu erzeugt, ohne sie abgespeichert zu haben?

00:44:08: Also das Gericht hat ja schon offenbar mit einem gewissen technischen Verständnis eine Unterscheidung getroffen in dem Vorgehen, in dem Prozess, den der Chatbot hier sozusagen durchlebt.

00:44:19: Stern.de schreibt, das Gericht positionierte sich eindeutig und wertete die Tatsache, dass das System die Texte, mit denen es trainiert worden war, wieder Ausgabe, als belegt dafür, dass es die Texte memorisiert haben muss.

00:44:29: Eine zufällige Ausgabe sei ausgeschlossen.

00:44:33: Ich glaube, das ist tatsächlich interessant, dass sie so spezifisch nachfragen.

00:44:36: Denn man kann sicherlich aus von IT-Perspektive sagen, naja, es ist nicht so, als hätten wir hier einfach eine Datei und der nimmt die und gibt die wieder aus.

00:44:45: Aber es ist ja trotzdem so, es ist Teil dieses Neurales-Netzwerk, auf jeden Fall, es ist wirklich.

00:44:50: Und dann rechnet es durch, wie wahrscheinlich ist denn das, dass die Antwort darauf einfach der Gesamtext ist, sehr hoch.

00:44:57: Dann gebe ich das doch mal aus.

00:44:57: Und vielleicht ist irgendwo ein Fehlerchen drin.

00:44:59: Klar.

00:45:01: Das ist ja auch eine Form von hat sich erinnert.

00:45:03: Hat die Daten immer noch drin.

00:45:04: Ein menschliches Gedächtes funktioniert ja auch nicht so.

00:45:06: Ja, hier ist die Datei.

00:45:07: Hier gebe ich die mal aus.

00:45:09: Genau.

00:45:09: Es ist halt nicht immer so simpel wie... Ich habe es auf der Festplatte gespeichert.

00:45:12: Genau.

00:45:13: Aber es ist

00:45:13: trotzdem eine Erinnerung im weitesten Sinne oder eine Speicherung.

00:45:16: Sie funktioniert nur ein bisschen anders.

00:45:18: Ganz genau.

00:45:18: Und in dem Moment, wo du es reproduzierst, ohne dass die Urheber irgendeinen Einfluss darauf haben, in dem Moment liegt dir halt ein rechtswasstoß vor.

00:45:27: Ja.

00:45:27: So.

00:45:29: Ja, gute Laune heute mal wieder, ne?

00:45:32: Ich bin besser gelaunt, als ich gedacht hatte.

00:45:33: Das ist schon angekündigt, viel KI vorher, aber es ist halt so, ey, es passiert was.

00:45:37: Es werden Dinge geklärt, das geht mal vor Gericht.

00:45:39: Und mir geht es gar nicht darum, emotional zu sein und zu sagen, ja, das ist um die verdient hier, sondern wir müssen das klären.

00:45:47: Es muss einfach geklärt werden.

00:45:49: Ja, und das ist auch gut, dass da sozusagen was passiert.

00:45:51: Und am Ende, wir müssen gar nicht, ich glaube, es ist relativ ... ... vergebene Liebesmühle, wenn wir uns da positionieren und sagen, jetzt müsst ihr doch mal, müsst ihr doch mal was tun.

00:46:01: Sondern wir wollen ja einfach nur, dass die Rechtslage klar ist.

00:46:04: Das klar ist, wie gehen wir als Gesellschaft damit um, dass die KI eine Entscheidung trifft oder dass die KI dir einen Songtext rausgibt.

00:46:11: Weil ganz zweifelsohne gibt es ja auch gute Argumente, warum ich den Songtext eines Songs mit Hilfe eines Chatbots bekommen möchte.

00:46:19: Also da gibt es Kunde für.

00:46:21: Was ich nicht verstehe.

00:46:22: und dann bist du... Ja, ich höre ein Song, denke mir, wie ist der Text nochmal?

00:46:25: Gebe die Frage da ein, bekomme den Text, kann mit singen.

00:46:27: Aber warum

00:46:28: schlage ich es nicht einfach nach?

00:46:29: Es dauert genauso lang.

00:46:31: Ja, weil Menschen das halt nicht mehr tun.

00:46:34: Also das kann wirklich nicht die Was-Aller-Dinge sein.

00:46:37: Aber ich will ja einfach nur sagen, es gäbe Argumente.

00:46:41: für die Gegenposition.

00:46:42: Okay, okay, ich warte noch, dass ich das höre.

00:46:45: Also für dieses konkrete Beispiel jetzt von dir.

00:46:47: Schnell, guck mal, was Google am Ende macht.

00:46:49: Wenn du ein Songtext eingibst und das in der Knowledgebox diesen Songtext ausgibt, ist doch am Ende gar nicht so ein großer Unterschied.

00:46:57: Die Frage ist doch, wird angegeben, dass hier ist der Urheber, fließt vielleicht sogar Geld?

00:47:01: in dem Fall, wird das licenziert

00:47:03: oder behauptet

00:47:04: die KI, ich habe mir das selber ausgedacht.

00:47:06: Das ist die rechtlich wichtige Frage.

00:47:09: Aber von der Usability her und von den Energiereserven, die verbraucht werden, ist es totaler Quatsch, so eine Anfrage von der AI-Beantwortung?

00:47:15: Ja, da bin ich auf jeden Fall auf keiner Seite.

00:47:17: Da bin ich bei dir.

00:47:19: Das Rechtliche ist wichtiger, aber das andere ist einfach Bullshit.

00:47:22: Ich will dir einfach nur sagen... Und da bin ich ja, das ist ja das, was du auch gesagt hast.

00:47:26: Es ist halt gut, dass sich jemand dieser Entscheidung annimmt und da eine Frage und eine Antwort auf diese Frage herbeiführt, damit wir da gesellschaftlich irgendwie mal weiterkommen bei der Frage, wie geht KI eigentlich damit um?

00:47:37: Dass wir, und da positioniere ich mich ja sehr deutlich, wenn wir die Künstlerinnen anfangen, auszubeuten, noch mehr als wir es als Gesellschaft sowieso schon tun.

00:47:47: Und die Künstlerinnen selber, für sich natürlich auch.

00:47:50: Wenn wir anfangen, dann auch noch das sozusagen so lange abzuschöpfen, bis da nichts mehr übrig ist und daraus neue Sachen mit einem Computer generieren lassen, haben wir irgendwann keine Kunst mehr.

00:47:59: Wir müssen anfangen, die Kunst ernst zu nehmen.

00:48:01: Und dafür ist eben im Grunde die GEMA da.

00:48:03: Und es gibt viele Sachen, bei denen man sich über die GEMA aufregen kann.

00:48:06: Aber am Ende ist das der wichtigste Anwendungsfall, warum wir sie brauchen.

00:48:10: Absolut.

00:48:12: Kunst bei Braucher auf beiden Seiten irgendwo ein sehr starkes menschliches Input.

00:48:17: Das ist einfach so.

00:48:18: Also wenn man einfach nur sagt, ich will rezipieren, ich will einfach nur den Film mit dem Schauspieler jetzt gucken.

00:48:21: Ja, aber wenn den kein Mensch gemacht hat, du wirst es irgendwann merken, wie egal es dir wird.

00:48:26: Ja.

00:48:27: Und klar, wenn wir über Blockbusterfilme reden, haben wir einen anderen künstlerischen Einschlag, als wenn wir jetzt ein Gedicht von Paul Zeeland lesen, wo der Mensch gar nicht rauszukriegen ist.

00:48:37: Schwarze Milch der Früh, wir trinken sie morgens, wir trinken sie nachts.

00:48:40: Der Tote ist ein Meister aus Deutschland.

00:48:42: Es ist halt richtig, richtig.

00:48:44: harte, intensive, gute Lyrik.

00:48:47: Und allein die Tatsache, dass wir wissen, dass ein Mensch sich das ausgedacht und hingeschrieben hat, macht einen Riesenunterschied.

00:48:54: Und wir brauchen keine Lyrik von KI.

00:48:57: Für wen denn?

00:48:59: Und das ist der Punkt, am Ende des Tages.

00:49:01: Und ja, je weiter man davon weckt, dass je mehr man in Massen unterhaltet und denkt, desto mehr fühlt es sich an, wie ist doch scheißegal.

00:49:08: Aber es ist einfach nicht.

00:49:11: Und es ist sehr viel gefühlte Wahrheit dabei, aber darum geht es ja auch, es ist ja auch ein bisschen Emotion.

00:49:17: Apropos Emotion.

00:49:18: Emotionen und Emotionen.

00:49:24: Das

00:49:25: war nicht mal Absicht, aber ich war so, ja, das ist echt meine Überleitung, die echt

00:49:29: gut ist.

00:49:32: Instagram hat angekündigt, dass dieser Wert auf deinem Profil, wie vielen Leuten du folgst, verschwindet.

00:49:39: Und stattdessen wird dort ein Punkt erscheinen mit dem Namen Friends.

00:49:43: Und das sind eigentlich nur die Mutuals.

00:49:45: Also dort wird dann nicht mehr stehen, wie vielen Accounts volkst du, sondern wie vielen Accounts volkst du, die dir zurückfolgen.

00:49:53: Okay, ja, ja, ja.

00:49:56: Also wird aber immer noch da stehen, wie viele mir folgen.

00:49:59: Ja, Followers bleibt erst einmal.

00:50:01: Ist für den Eindruck nach außen, ist mir das relativ egal?

00:50:05: Ist die Frage, ob sie das... Wir wissen nicht, wie die intern die Zahlen werden.

00:50:09: Ob die Mutuals, wie hoch die das einschätzen, weil dieses Verhältnis zwischen folgt so vielen und wird von so vielen gefolgt, war ja immer immer gesagt, das ist wichtig.

00:50:16: War mir immer krackengegal, ich folgte eigentlich viel zu vielen Menschen.

00:50:20: Und es erlässt mich relativ kalt, auch wenn ich es auch menschlich als die interessantere Zahl finde.

00:50:28: Das sagt den Leuten dann zumindest, er wird von den Leuten den Erfolg vielleicht auch ein bisschen ernster genommen.

00:50:33: Und es ist nicht nur irgendwie, also jetzt werberisch gedacht.

00:50:37: Werberisch gedacht, es ist nicht nur irgend ein Mensch auf Instagram, sondern er wird in dieser Bubble auch irgendwie wahrgenommen.

00:50:44: Da gibt es eine Netzwerkoption und so was.

00:50:46: Das kriegen auch Leute mit, die selber noch mal reichweite haben.

00:50:49: Das kann interessant sein für Werbetreibende, aber die haben eh andere Zahlenzugänge noch mal.

00:50:53: Ich habe da eine ganz tolle, tolle, tolle Emotion.

00:50:56: Okay, das ist mich gespannt.

00:50:58: Und die kommt aber aus demselben Punkt wie deine, weil ich folge auch bei Instagram viel zu vielen Leuten.

00:51:03: Also ich folge, glaube ich, über dreitausend Menschen bei Instagram.

00:51:06: Accounts.

00:51:07: Also wirklich vielen.

00:51:09: Und das führt aber dazu, das muss gar nicht zwangsläufig algorithmische Folgen haben, aber es hat natürlich ästhetische Folgen und psychologische Folgen für die Leute, die mir folgen wollen.

00:51:18: Sie gehen nämlich auf meinen Profil und sehen, hey, der folgt ja quasi allen.

00:51:22: Und das schmälert vermutlich in der Darstellung so ein bisschen die Wertigkeit meiner Inhalte.

00:51:28: Weil man so denkt, der hat nicht viele Follower, dem folgen einfach nur viele zurück.

00:51:31: Das ist eine Aussage, die dem zugrunde liegt.

00:51:33: Durch den höheren Mutualswert wird sich daran gar nicht so viel verändern.

00:51:37: Aber was Meta hier macht, ist eine Angleichung der Netzwerke.

00:51:40: Weil seit einiger Zeit und lustigerweise glaube ich, niemandem von euch wird das aufgefallen sein.

00:51:46: Ist das bei Facebook auch so?

00:51:47: Es gibt bei Facebook nicht mehr die Anzahl der Freundinnen, die man hat, sondern die Anzahl der Menschen, denen man folgt und die einem zurückfolgen.

00:51:55: Wenn das jetzt aber alles gleichgemacht wird, haben wir plötzlich eine neue Metrik in der Social-Media-Welt, die von Bedeutung werden wird.

00:52:01: Die Anzahl der Mutuals wird eine Rolle spielen plötzlich und dann wird sich eventuell auch die ästhetische und psychologische Wirkung von dem verändern, was das steht.

00:52:13: Kann sein, aber ich kann noch nicht genau sagen, welche Richtung.

00:52:18: Wenn ich mir jetzt das Profil vorstelle von dir, was macht das irgendwas mit mir, ändert das meine Wahrnehmung?

00:52:22: Klar, ich kenne dich jetzt auch persönlich noch mal was anderes.

00:52:24: Aber wenn ich jemand neu entdecke, weiß ich nicht, null Mutuals wäre ich so, okay, die mag einfach keiner.

00:52:30: Ist das dann die Sache?

00:52:33: Keine Ahnung.

00:52:34: Null Mutuals wäre schon crazy.

00:52:36: Das ist schon bitter.

00:52:37: Da muss man sich, glaube ich, anstrengen.

00:52:40: Oder einfach...

00:52:41: Ich blocke jeden, der mir zurückfolgt.

00:52:45: Ich möchte, dass andere Leute, dass nur Leute meine Inhalte sehen, dessen Inhalte ich nicht sehen muss.

00:52:51: Spannend.

00:52:52: X hat einen neuen eigenen Account auf der Plattform mit dem Namen Bangers.

00:52:59: Und in der Bio steht Certified Bangers Only.

00:53:03: Und dort möchten sie virale Tweets, die auf der Plattform veröffentlicht werden, reposten.

00:53:08: Eine Art Twitterperlen, aber aus dem Headquarter.

00:53:16: Ja, ist eh zu spät.

00:53:18: Also, dann Bengers ist es auch, ja, vor zehn Jahren hat man das zu Songs gesagt, die gut abgehen, so gefühlt.

00:53:25: Braue ich nicht wirklich.

00:53:26: Und Bengers hat dann auch so eine, im Englischen noch so eine sexuelle Konzentration, die ich auch komisch finde.

00:53:31: Die wahrscheinlich auch in Ansicht ist an der Stelle.

00:53:32: Natürlich.

00:53:33: Also, wenn Musk sowas macht, immer.

00:53:36: Aber ich weiß nicht, brauchen wir alles nicht mehr.

00:53:38: Also, das ist wirklich die Stühle auf der Titanic nochmal neu hinstellen.

00:53:45: Während der eine Geiger noch spielt.

00:53:50: Was ist so die eine Sache, bei der wir uns denken, das war so schön auf Twitter, schade, dass andere Netzwerke das bislang noch nicht gut übernommen

00:53:57: haben?

00:54:02: Ich glaube, das waren keine geplanten Dinge.

00:54:04: Ich glaube,

00:54:05: alle Dinge, die Twitter richtig gut gemacht haben, sind Dinge, die organisch passiert sind zwischen den Menschen.

00:54:09: Und dass man da vielleicht Dinge genommen hat, die man gesehen hat, ah, der Retweet zum Beispiel, das sollten wir vielleicht als Funktion übernehmen.

00:54:16: Ja, aber es stimmt alles.

00:54:17: Aber es gibt eine Funktion von Twitter, nach der wir uns alle sehen.

00:54:21: Und das war die gute Suche.

00:54:22: Die Möglichkeit, dass du mit Parametern die Suche bearbeiten konntest, dass du sogar komplexere Suchsuntakse erstellen konntest, indem du Klammern erstellt hast.

00:54:32: Stimmt.

00:54:33: Das geht auf Twitter nicht, auf X nicht mehr.

00:54:35: Denn Jeff Postcancer hat geschrieben, es sieht so aus, als hätten Elon's Vibecoding Idioten erst geschafft, das letzte gute Feature von Twitter zu ruinieren, die Suchsyntax.

00:54:43: Genau gesagt, die Klammern, man kann keine komplizierten Suchsyntax mehr erstellen.

00:54:47: Wow.

00:54:48: Das habe ich auch sehr häufig gemacht.

00:54:51: Weil der Datenwuchs so groß war, den eigenen Tweets geguckt.

00:54:54: Ich weiß, ich habe zu dem Thema in dem Jahr irgendwas gemacht und man will sich nicht wundskrollen, also macht man das.

00:55:00: Genau.

00:55:03: Na ja.

00:55:05: Tiktok hat angekündigt, da ist es, also nee, haben sie nicht angekündigt.

00:55:10: Tiktok plant offenbar, so ist es richtig.

00:55:12: Tiktok plant offenbar drei neue KI-Features auszuräumen.

00:55:15: Zum einen, dass es die Möglichkeit gibt, Fotos mit Hilfe von einer KI zu Videos animieren zu können.

00:55:21: Zum anderen, dass du mit einem Text prompt Videos erstellen lassen kannst, damit du gar nichts mehr filmen musst.

00:55:26: Und drittens die Möglichkeit, dass du eine Transition mit Hilfe von KI machst zwischen zwei Frames, die du selber festlegst.

00:55:35: Das letzte ist das einzige, wo ich sage, das ist ja wirklich eine hilfreiche Idee, wenn man halt nicht so talentiert ist, das immer smooth hinzukriegen.

00:55:42: Aber K.E.

00:55:42: Transition sehen immer schrecklich aus.

00:55:44: Plötzlich wird eine Wasserplasche zu einem Hund.

00:55:46: Dann ist die Umsetzung natürlich schrott, aber es klingt so ein bisschen wie K.E.S.

00:55:50: Power Goers in den Neunzigern.

00:55:52: Da hab ich ja ewig nicht dran gedacht.

00:55:55: Wow.

00:55:57: Bitte schön, wieder reaktiviert.

00:55:59: Core Memory.

00:56:01: Ja, aber ... Das andere Zeug ist halt, die wollen auch, die aus die Leute einfach verschwinden, die selber was machen, ne?

00:56:07: Ja,

00:56:07: wie alle.

00:56:09: Wer war eigentlich Kai?

00:56:11: Das weiß ich nicht, das war Programmierer, denke ich.

00:56:13: War

00:56:13: das ein bisschen wie der Myspace-Buddy?

00:56:14: Wie hieß er noch gleich?

00:56:16: Tom.

00:56:16: Tom, Myspace-Tom.

00:56:17: Wie kommt mir

00:56:18: das?

00:56:18: Das ist das Namen von Tom, Myspace-Tom vergesst, das geht doch gar nicht.

00:56:21: Vor

00:56:21: allem haben wir hier schon mal über den gesprochen, der hat es ja richtig gemacht.

00:56:25: Ja.

00:56:25: Myspace verkauft, auf eine Insel gezogen, ciao.

00:56:27: Fotos gemacht, gutes Leben.

00:56:29: Ja,

00:56:29: nie wieder drüber gesprochen.

00:56:32: So ein bisschen wie Stefan Raab.

00:56:33: Also nach der Logik könnte sein, dass Maisbass Thomas ist ja mit Regina Halmig in den Boxkampf.

00:56:40: Wenn du die Raab-Logik durchspielst, machst du ja nicht das, was Raab buchstäblich gemacht hat, sondern was er auf der Meta-Ebene gemacht hat.

00:56:47: Den gleichen Käse nochmal, ohne sich was Neues einfallen zu lassen.

00:56:50: Das heißt, Maisbass kommt zurück.

00:56:52: Ja, Maisbass kommt zurück, die Bands dann wieder.

00:56:55: Für neunzig Millionen Dollar.

00:56:56: Ja,

00:56:56: und jeder kann wieder mit Harte im Eliside umkoden.

00:57:00: Das wäre nicht der schlechteste Schritt.

00:57:05: Auf jeden Fall.

00:57:06: Meta hat angekündigt, dass, da haben wir hier schon darüber gesprochen, hacken wir dran, dass bei WhatsApp zukünftig ja auch Nutzer in den Namen möglich sind und nicht nur Telefonnummern um sich anzumelden.

00:57:14: Da gibt es jetzt erste öffentliche Bestätigungen und tatsächlich sieht es ganz danach aus, als würde das offenbar so bis Juni, zwanzig, umgesetzt und rausgerollt

00:57:23: werden.

00:57:26: Nur eine E-Mail als Account-Identifikation oder sowas.

00:57:30: Wahrscheinlich,

00:57:31: ja.

00:57:31: Ich meine, Händennummer kriegt man ja auch easy und schnell, so ist ja nicht.

00:57:35: Aber dauert schon länger als eine E-Mail-Adresse bei Gmx zum Beispiel zu machen?

00:57:40: Ja, bei Gmx.

00:57:42: Ich meine, ihr werdet euch nicht daran erinnern, jungen Hüpfer.

00:57:45: Also, ich gehe einfach jetzt spontan davon aus, dass alle Zuhörer in irgendwie fünfzehn sind.

00:57:50: Aber früher, wenn man sich eine E-Mail-Adresse bei gmx oder ähnlichen web.de, was auch immer anlegen wollte, die wollten dir nix von einem wissen.

00:57:57: Nichts.

00:57:57: Ja, stimmt.

00:57:58: Und heute ist es so, okay, wie heißt du?

00:58:00: Wo wohnst du?

00:58:01: Ja,

00:58:01: was für ein Vercheck, ob es dich gibt?

00:58:03: Ja, damit, um sicherzustellen, dass du keinen Mist baust.

00:58:06: Und damals Wilder Westen.

00:58:09: Das war schon schön.

00:58:10: Jeder hatte siebzehn E-Mail-Adressen für jeden Trollaccount einen.

00:58:15: So ist es wohl.

00:58:16: So, dann habe ich noch eine Mailung zu Patreon.

00:58:17: Und da bin ich mal gespannt, wie deine Emotionen sind.

00:58:20: Okay.

00:58:20: Patreon

00:58:20: hat angekündigt, einen Discover-Feed auf die Plattform zu bringen.

00:58:24: Also alle Creator-Innen werden noch die Möglichkeit haben, ein neues Post-Format namens Quips zu erstellen.

00:58:30: Qu-U-S-I-P-S.

00:58:32: Quips.

00:58:33: Damit kannst du Text, Fotos oder Videos teilen, die aber eben dann in diesem Discover Feed für alle sichtbar sind.

00:58:39: Und du kannst dann quasi als Nutzer, Nutzerinnen die App öffnen, im Discover Feed rumskollen, durch die Crips der Leute und kannst dir angucken, hey, sind das Inhalt, die mir gefallen und dann eben in ein bezahltes Abonnement bei dieser Person eintreten.

00:58:51: Jack Conti, der CEO von Patreon, hat gesagt, ich habe das Gefühl, dass wir hier mit dem konkurrieren, was Instagram hätte sein sollen und hätte werden können, aber nicht geworden ist und versteht die Idee als Alternative zu sozialen Medien, obwohl es sich eigentlich ein bisschen anfühlt wie soziale Medien.

00:59:09: Ja, weil es ist absolut richtig.

00:59:11: Also, die werden ihre Daten haben, die werden wissen, dass sie ein paar Power-User haben, die sich wirklich viel Zeit auf der Seite oder in der App verbringen und dann sagen, ja, aber irgendwann steigen sie aus, weil sie halt wegen irgendeinem Creator da reingekommen sind über einen anderen Weg.

00:59:24: Aber die sind ja schon eine Infrastruktur.

00:59:26: Wenn man denen was anderes zeigen kann, worauf die auch Bock haben, das alte... Gefiel auch, Punkt, Punkt, Punkt, was es ja vorher auch schon gab.

00:59:32: Wenn man diesen Reiz ein bisschen verstärkt, dann kann man blöd gesagt mehr Geld verdienen, weil darum geht es ja bei Patreon auch.

00:59:40: Ich glaube, die einzelnen Creator werden davon vielleicht gar nicht so viel haben, weil es ist nicht so, dass ich glaube, dass dann bei einem sehr viel hängen bleibt oder so.

00:59:48: Aber es kann dann schon sein, dass Patreon selber sagt, na ja, der hat vorher fünfzig Dollar ausgegeben, jetzt gibt er hundert Dollar aus.

00:59:54: Das ist für uns natürlich super.

00:59:55: Für die Creator ist es auch nicht schlecht.

00:59:58: Aber es ist die alte Taktik von, wir wollen die Leute bei uns in der App halten und nicht woanders hinschicken.

01:00:06: Deswegen kann man ja auch auf Patreon auf deren Server Zeug hochladen.

01:00:11: Und da hast du halt so ein wildes Ding, weil das ist ja gewachsen, als ich noch stütze, Leute, die woanders ihr Zeug

01:00:18: veröffentlichen.

01:00:18: Und davon geht man immer mehr weg, um die Leute mehr zu binden.

01:00:22: Meine Emotionen da sind... Neugierde und gucken was kommt, weil ich finde es wieder verwerflich noch super, sondern ich finde es nachvollziehbar.

01:00:31: Jack Conti hat gesagt, es gab ein Beta-Test und der Anstieg der zahlenden Abonnenten durch diese Funktionen war fünf bis zehn Prozent.

01:00:39: Und das ist deutlich geringer, als man sich das als Potenzial zuvor vorgestellt hat.

01:00:43: Wobei ich das schon bemerkenswert finde, dass zehn Prozent mehr Abonnentinnen durch so eine Entdeckenfunktion passieren, weil der ... das Nutzungsverhalten ist, ja.

01:00:50: Du scrollst da durch, ... ... denkst, ich finde das toll, ... ... und abonniere für Geld.

01:00:54: Und die Frage ist, ... ... würdest du das auf TikTok, Instagram ... ... oder einer anderen Plattform tun?

01:00:57: Wahrscheinlich nicht so sehr.

01:00:59: Natürlich gibt es bei Patreon ... ... einen Umfeld von Leuten, ... ... die zahlungswillig sind, ... ... weil sonst wären sie nicht bei Patreon, ... ... weil sie zahlen ja offenbar schon für Leute.

01:01:06: Aber ich hätte trotzdem, ... ... hätte ich jetzt erst mal nicht gedacht, ... ... dass es tatsächlich zehn Prozent sind.

01:01:11: Aber ich finde es erst mal auch erstaunlich.

01:01:14: Also unter fünf Prozent brauchst du es auch nicht einführen?

01:01:16: Stimmt.

01:01:19: Und das ist ja was, was hoffentlich, also aus deren Perspektive gedacht, über die Zeit mehr wird.

01:01:25: Also nicht gradikal, dass das, sagen wir, fünfzig sind.

01:01:27: Das wäre Quatsch.

01:01:28: Also wenn es sich zwischen zehn und fünfzehn einpanelt, werden die so sicher.

01:01:31: Super Funktionen.

01:01:32: Wie können wir das noch krasser machen?

01:01:34: Aber auch bis fünf Prozent lohnt sich schon.

01:01:37: Und sie haben ja selber nur minimalen, minimale Arbeit und Investment, weil die Creator machen den Lübner Teil der Arbeit.

01:01:44: Ja,

01:01:45: klar.

01:01:45: Die machen den Inhalte an.

01:01:47: Wie immer.

01:01:48: Übrigens, kleines Rabbit Hole, wenn man da mal Bock drauf hat, ich finde, dass Jack Conti auch selber ein wahnsinnig spannender Creator ist.

01:01:54: Also die strittige Person, also viele Leute haben sich auch schon häufiger mit ihm überworfen, glaube ich.

01:01:59: Aber seine Art und Weise, Inhalt zu verstehen und zu machen auf den gängigen Social-Media-Plattformen, ist schon irgendwie, kann man sich schon mal angucken, wenn ihr mal ein bisschen Langeweile habt und keine Lust mehr habt, in die heute schon besprochenen Rabbit Holes einzutauchen.

01:02:10: Ich weiß schon gar nicht mehr, was das alles war.

01:02:13: Ich habe zum Schluss eine kleine Versinnlichkeit dabei.

01:02:16: Es ist eher eine Küsse.

01:02:17: Hatten wir strahlt?

01:02:22: Versöhnlichkeit

01:02:23: des Tages.

01:02:28: Der war mir noch neu der Jingle.

01:02:29: Was?

01:02:30: Ja.

01:02:30: Dabei hörst du doch jede Folge Haken rein, in der du nicht zu Gast bist.

01:02:33: Ja, immer rückwärts.

01:02:35: Ohne Musik.

01:02:37: Du kriegst ein Clean Feed von mir zu gespielt.

01:02:40: Wo die ganzen Reusbauen noch drin sind.

01:02:42: Es ist eher eine kleine Geschichte, die eher so irgendwie süß ist, aber irgendwie fand ich die süß.

01:02:47: Und zwar... Erinnerst du dich ja, als das Louvre ausgerobt wurde.

01:02:50: Es ging ja ein paar Bilder durchs Netz.

01:02:52: Das Louvre.

01:02:54: Das Louvre, oder?

01:02:55: Der Louvre.

01:02:56: Ich dachte, ich könnte nach falls mich nicht loslassen wird und du machst weiter.

01:03:00: Vielleicht erinnerst du dich dran, als die Louvre ausgerobt wurde.

01:03:02: Dort hat das jetzt ungefähr drei Wochen her und seitdem sind Ermittler wegen einer Sache unterwegs, die interessant ist, weil sie um die Welt gegangen ist und zwar sind auf mehreren Fotos das Louvre, ich glaube der Louvre ist richtig, ist ein Mensch aufgetaucht, ein relativ junger Mann, der aussieht, als wäre er aus den Dreißigern.

01:03:23: Also wirklich sehr jung, trägt aber einen Fedora, also einen Hut und einen Dreiteiler, also einen Weste, einen Anzug.

01:03:30: Er sieht aus, als wäre er aus der Zeit gefallen.

01:03:31: Und diese Bilder gingen um die Welt, wie er eben daneben stand, neben dem Louvre.

01:03:36: Und dessen Identität ist jetzt geklärt.

01:03:38: Es handelt sich dabei um Pedro Elias Garcendel Vaux aus Rambuyer, Südwest-Lichon-Turist.

01:03:43: ... der fünfzehn Jahre alt ist ... ... und kurz vor diesem Fall ... ... eine Begeisterung für Detektive ... ... und Sherlock Holmes ... ... und R.Q.

01:03:51: Poirot gefunden hat ... ... und sich seitdem Danny Haft anzieht ... ... und eben die Sachen aus diesen Filmen trägt ... ... und war eben in dem Moment ... ... als dieser Überfall passiert.

01:04:00: Das stand er quasi ... ... neben den ermittelnden Polizistinnen ... ... und hat sich so mit fotografieren lassen.

01:04:05: Gegenüber AP hat er gesagt ... ... ich mag das so schick zu sein ... ... und ich gehe so auch zur Schule.

01:04:09: Ich finde das super.

01:04:10: Und er hat auch gesagt ... ... ich wollte nicht sofort sagen, dass ich das bin ... Dieses Foto birgt ein Geheimnis.

01:04:14: Das muss man spannend halten.

01:04:16: Ist das geil?

01:04:18: Ich hoffe, dass sie mir oben nicht zu Kopf steigt.

01:04:21: Aber momentan ist er mega sympathisch.

01:04:22: Das ist supertoll.

01:04:24: Ich find das ganz, ganz, ganz toll.

01:04:29: Es wurde im Internet lange überlegt, ob das eine KI-Fälschung sei.

01:04:32: Und er selber hat es gesehen und einfach nichts gesagt.

01:04:34: Aber das muss spannend bleiben.

01:04:37: Lass dies mal rausfinden.

01:04:39: Das ist ganz toll.

01:04:41: Also, das ist unsere Persönlichkeit für heute.

01:04:44: Aber eine andere Persönlichkeit war, dass du heute mal wieder hier warst, Dominik.

01:04:48: Ach,

01:04:48: kommen wir doch gerade erst gefühlt da wegen des Streams.

01:04:50: Ja,

01:04:50: aber das haben wir nicht alle gesehen.

01:04:52: Das ist richtig, ja.

01:04:53: Also,

01:04:53: danke, dass du heute hier warst.

01:04:56: Ich habe einen kleinen Werbeblock am Ende für zwei Dinge.

01:04:59: das eine ist.

01:05:00: Also wir haben jetzt ein paar Episoden über Campfire FM hochgeleitet.

01:05:03: Das ist eine App, mit der ihr Podcast hören könnt.

01:05:05: Wir hatten ja damals eine Abstimmung gemacht, ob ihr das darüber hören wollt.

01:05:07: Und einige nutzen das und kommentieren jetzt auch dort, während die Folge läuft.

01:05:11: Und das ist tatsächlich ganz cool, weil ihr dort die Links zu den besprochenen Fällen findet und die Bilder und so.

01:05:15: Und ich finde das so als Hybrid zwischen Podcast als Video schauen und nur die Audio hören und dabei im Discord auf www.hacknann.org.

01:05:23: Den Podcast hören finde ich tatsächlich irgendwie... irgendwie finde ich selber geil und hätte jetzt gerne die Formate, die ich so höre, auch alle da.

01:05:30: Das ist, glaube ich, ein ganz guter Case.

01:05:31: Also da könnt ihr mal vorbeischauen.

01:05:33: Und das andere ist, wir gehen auf Tour.

01:05:36: Und wenn ihr die Gelingenheit haben wollt, so Menschen wie mich oder auch Dominic Hammes.

01:05:41: live zu sehen, weil auch Dominik wird auf dieser Tour dabei sein.

01:05:43: Die Gäste werden wir alle demnächst nachverkünden.

01:05:45: Dann kommt vorbei.

01:05:47: Es ist schon ehrlicherweise ganz schön abgegasst, das Ticket-Kontingent, aber ein paar Tickets haben wir noch und ihr kriegt ja auf www.hackland.org und würden uns sehr freuen, euch zu sehen.

01:05:56: Ja,

01:05:57: ich

01:05:57: mich auch.

01:05:58: Und sonst habe ich aber keine Werbung, außer dass ihr natürlich am Freitag wiederkommen solltet, weil da ist Caster Maria Müller hier und das ist auch immer eine sehr gerne gesehene Gäste.

01:06:07: Dominik, danke, dass du hier warst.

01:06:08: Sehr, sehr gerne.

01:06:09: Pass

01:06:09: auf dich auf.

01:06:10: Pass ihr alle auf euch auf.

01:06:11: Habt nicht zu Dolcata, weil ihr gestern zu Dolcaneval gefeiert habt.

01:06:15: Und wir hören uns Freitag wieder.

01:06:18: Danke euch.

01:06:19: Macht's gut.

01:06:20: Tschau.

01:06:20: Tschüss.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.