Die unsichtbare Brille des Marktes (mit Thomas Riedel)
Shownotes
Good Slop, Bad Slop? Die Schattenseiten von TikTok Shop (ja, es gibt noch mehr als die Offensichtlichste), das Düsterste was KI zu bieten hat - und über Waschmaschinen reden wir heute auch noch. All das durch die Brille von Mark Zuckerberg. Also so’n bisschen.
🗓️ Am 6. November feiern wir 500 Episoden und 3 Jahre "Haken dran" mit einem 12 Stunden-Livestream!
➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org
Kapitelmarken, KI-unterstützt 00:00:00 - Hallo Thomas! 00:00:25 - Die Brille 00:05:52 - Was lief schief bei der Meta Connect? 00:13:50 - Wo ist Sarah Wyn-Williams? 00:21:08 - Neues von TikTok USA 00:23:49 - Algorithmus-Training und Investoren 00:25:25 - Chinesische Einflussnahme und Kompromisse 00:32:17 - Die Abgründe von TikTok Shop 00:41:30 - YouTube AI Slop, Kapitel 63956 00:46:06 - Sicherheitslücken in KI-Browsern 00:50:26 - ChatGPT und Mandela-Effekt 00:56:20 - Funktionen und Emotionen 01:10:32 - Versöhnlichkeiten des Tages
Transkript anzeigen
00:00:00: Hallo Thomas.
00:00:02: Hallo.
00:00:02: Bei mir ist heute Thomas Riedl, Thomas Riedl, Journalist, Podcaster und Brillenträger des Jahres, würde ich fast sagen.
00:00:10: Weil die, die dieser Episode gerade im Video sehen, man kann Haken dran ja auch komplett gucken für die Leute, den einen Reiz, den wir bespielen, nicht genug ist.
00:00:20: Gibt es das Ganze auch bei YouTube und PeerTube sich anzuschauen?
00:00:22: Und da sieht man, du trägst eine leuchtende Brille.
00:00:24: Was ist die Geschichte der leuchtenden Brille?
00:00:27: Die leuchtende Brille ist, dass ich seit eineinhalb Jahren diese Brille bereits trage
00:00:32: und teste.
00:00:33: Durchgehend.
00:00:34: Wow.
00:00:34: Ja.
00:00:35: Also, als ich in Aussicht gestellt bekommen habe, diese Brille zu tragen, dachte ich mir, okay, wenn ich so ein Test mache, dann mache ich das nicht so, dass ich da einfach mal so für ein paar Tage mal die habe und dann nehme ich mal ein Video auf oder ich mache mal irgendwie so so ein KI-Test oder so, sondern ich habe gesagt, okay, ich mache ein sechs Monate Test und ich trage die jeden Tag und dann kann ich auch wirklich berichten.
00:01:01: Wie gut diese Brille ist, was die alles kann und so weiter.
00:01:04: Um
00:01:04: kurz diese Brille zu erklären.
00:01:05: Also du trägst diese Meta Glasses, die in Kooperation mit Ray-Ban auf den Markt gebracht haben, also nicht die aktuelle mit dem Display, über die wir in den letzten Folgen so ein bisschen gesprochen haben, über die wir auch heute noch mal ein bisschen sprechen können, wenn du möchtest, sondern du trägst noch das Modell, mit dem man sprechen muss und eine Antwort hören muss, wenn man das denn möchte.
00:01:23: Eine erste Frage aus diesem Praxistest, weil ich bin natürlich auf der einen Seite interessiert, auf der anderen Seite super skeptisch, weil ich möchte glauben... keine Metabrile tragen persönlich.
00:01:32: Verstehe aber warum es interessant ist eine Möglichkeit zu haben POV aufzuzeichnen.
00:01:38: Jetzt nicht zwangsläufig in... in Meetings oder so, oder in sehr privaten Situationen, aber wenn ich jetzt Skifahren würde, was ich nicht tue und die Krankenversicherung bedankt sich sehr dafür, dass ich das nicht tue, dann fände ich das schon interessant, sozusagen in POV damit auch Dinge aufnehmen zu können.
00:01:55: Also ich verstehe die Begeisterung um die Innovation, obwohl ich natürlich persönlich datenschutzrechtliche Bedenken habe.
00:02:02: Total.
00:02:03: Also diese Aufnahmemöglichkeit, Video und Fotos zu machen, ist tatsächlich eine, da würde ich sogar sagen, das ist noch nicht mal die, die ich am ehesten promoten würde, wenn ich jetzt empfehlen müsste, was die Brille alles kann.
00:02:14: Natürlich macht das Meter, weil, naja, es ist halt so ein bisschen Actionkameraersatz und du hast sie dann immer dabei und so.
00:02:21: In der Tat, wenn du im Winter diese Brille trägst, ist sehr schlecht isoliert.
00:02:25: Was bedeutet, die Akkulaufzeit droppt hart.
00:02:28: Also wenn ich im Winter... Aber
00:02:29: du kannst jetzt zum Glück immer noch was sehen.
00:02:32: wenn der Akku leer ist.
00:02:33: Genau.
00:02:33: Siehst du, dass
00:02:34: die Scheiben dann dunkel werden?
00:02:35: Genau.
00:02:35: Es ist keine VR-Brille, geht das Display nicht aus und ich sehe immer noch was, aber der Akku ist dann richtig kacke im Winter.
00:02:40: Das heißt, dieses, beim Skifahren sich selber filmen oder die Perspektive filmen, ist halt sächlich ein kurzer Spaß.
00:02:47: Nach zehn Minuten ist dann der Akku weg und dann war es das so nett, kannst du mal machen.
00:02:51: Aber mein Use Case, wo ich das wirklich am liebsten mache, wo ich die Brille für Liebe und ich mir sogar mittlerweile so weit bin, dass ich mir kaum vorstellen kann, in Zukunft noch eine Brille zu tragen, das nicht kann.
00:03:02: Warum sollte das eine Brille in Zukunft nicht können, ist, dass ich da mit telefonieren kann.
00:03:08: Freihändig.
00:03:09: Einfach so.
00:03:10: Das heißt, wenn ich einen Anruf bekomme, nehme ich an und dann kann ich telefonieren, ohne dass ich mir Stöpsel in die Ohren stecke, was auf die Ohren setze oder mein Telefon in die Hand nehme und dann laufe ich in der Wohnung rum.
00:03:21: Manchmal staubsauge ich nebenbei, ich kann mir einen Tee oder einen Kaffee machen.
00:03:25: Und das finde ich wirklich die allerbeste Funktion dieser Brille.
00:03:29: Weißt du, was ich an mir beobachtet habe?
00:03:30: Und das wird jetzt ganz skurril, dass ich das hier so öffentlich erzähle.
00:03:34: Aber ich habe an mir beobachtet, und dann gehen wir gleich auch langsam mal in die Themen.
00:03:37: Aber ich habe an mir beobachtet, dass ich eine Abneigung gegenüber Produkten mit Batterie entwickle.
00:03:41: Und also, ich bin jetzt thirty-sech, und ich war eigentlich immer jemand, ich wollte immer alles haben und wollte auch unbedingt Glühbirnen, die ich mit dem Handy steuern kann haben und so, die keine Batterie haben.
00:03:49: Aber trotzdem, ich fand das immer alles faszinierend.
00:03:51: Und jetzt so langsam fange ich so an, mir so darüber Gedanken zu machen, brauche ich wirklich eine Waschmaschine, die ich smart in meinen WLAN hängen kann?
00:03:59: Oder ist es nicht eigentlich viel nachhaltiger, sich das nicht zu holen, weil ich dann irgendwann darauf angewiesen bin, dass meine Waschmaschine Firmware Updates bekommt, damit ich sie noch überhaupt benutzen kann?
00:04:11: Also, dass ich so das Gefühl habe, dass dadurch, dass diese Zyklen der Technologie... immer schneller werden und immer alles schneller entwickelt wird.
00:04:20: Die Geräte eben auch deutlich schneller ausgetauscht werden müssen.
00:04:22: Und das löst bei mir jetzt, wie gesagt, jetzt mit ein Störgefühl aus.
00:04:27: Ja, alle deine Gefühle da sind vollkommen richtig und angebracht.
00:04:32: Wenn ich mich mittlerweile beobachte, wie mein zu Bettgehe-Retour all ist, wie ich meine Smartwatch ablege, meine Brille abziehend in Tour E mache, mein Handy anschließend das Tablet auflade und so weiter.
00:04:44: Das ist mittlerweile eine Tech-Zeremonie auf dem Altar des Silicon Valley, die ich da mal abhalten muss.
00:04:52: Das ist wirklich... Schlimm.
00:04:53: und dann haben wir noch so Aspekte wie Nachhaltigkeit noch gar nicht mit drin.
00:04:57: Ja, brauchen wir praktisch so viele Geräte für den ganzen Kram.
00:05:00: Würde ich mal mit Nein beantworten.
00:05:02: Apple macht da gerade was ganz Cooles, finde ich, nämlich sie versuchen in die Geräte, die sie bereits haben, so viele Funktionen wie möglich reinzustecken, um nicht eben extra nochmal neue Geräte erfinden zu müssen.
00:05:12: Vielleicht hast du mitbekommen bei der letzten Apple, beim letzten Apple-Event haben sie ihren Kopfhörern einen Herzschlag Messgerät mit eingebaut oder verpasst.
00:05:22: fand ich ziemlich cool, weiß ich jetzt nicht, ob man das tatsächlich braucht, wenn man sieht, was in die Ohren steckt, dass auch der Puls gemessen wird.
00:05:29: Aber wer zum Beispiel keinen Bock auf eine Watch hat, und das ist mal die erste Funktion von so einer Watch, der kann halt in Zukunft dann auch seine Kopfhörer beim Training tragen und wird dort dann der Puls gemessen, finde ich eigentlich cool.
00:05:41: Gut, man könnte mit derselben Argumentation fragen, muss ich mir was auf die Nase setzen, mit dem ich telefonieren kann.
00:05:46: Absolut.
00:05:46: Aber warum wir überhaupt darüber sprechen ist, weil wir über diese Schiefgegangene Präsentation der Metabrillen gesprochen haben.
00:05:54: Es gab das Metaconect-Event.
00:05:56: Übrigens, ich habe keine andere Wahl.
00:05:58: Ich muss immer eine Brille tragen.
00:06:00: Und dann ist es praktisch kein zusätzliches Gerät, sondern etwas, was ich schon habe, hat eine zusätzliche Funktion.
00:06:05: Von dem her bin ich dann ein bisschen fein raus.
00:06:07: Ja, okay,
00:06:07: verstehe das Argument.
00:06:09: Na jedenfalls hatte der Mensch, also für die, die es nicht mitbekommen haben, die Präsentation war ein absolutes Fail-Feuerwerk.
00:06:19: Obwohl die Innovationen, die sie vorgestellt haben, ja, wie gesagt, wahrscheinlich interessant waren, man muss so ein bisschen dabei ausblenden, dass es eben alles Metaprodukte sind.
00:06:26: Wir haben viele, viele Hinweise darauf, dass Meta mit den Daten nicht so gut umgeht, wie sie müssten.
00:06:30: Und die Produkte verlangen alle ein Meta-Account, sie verlangen alle, dass ich, wenn ich jetzt filme zum Beispiel, dass ich das nicht lokal tour und meine Speicherkarte aus der Uhr nehmen oder aus der Brille nehmen kann und mir es auf den Computer ziehen kann, sondern es läuft erst mal über Metaserver.
00:06:43: Also es gibt durchaus ein paar Dinge, die man daran, an denen man sich stoßen kann.
00:06:48: Jedenfalls ist diese Präsentation ein bisschen schief gegangen und sie haben es auf das WLAN geschoben und offenbar, wie wir auch schon geahnt haben, nicht das WLAN dafür verantwortlich vor Ort, dass diese Präsentation fehlgeschlagen ist, sondern sie haben alle ihre Brillen, die in diesem Gebäude waren, auf eine Entwicklerumgebung umgestellt, sozusagen.
00:07:06: Was dazu führte, dass in dem Moment, als der Koch sagte, hey Meta, starte live AI, er selber eine DDoS-Attacke auf die Server gestartet hat, weil die nicht darauf ausgelegt waren, dass so viele Brillen auf natürlich reagieren, die alle um ihn rumgelegen haben.
00:07:20: Das heißt, sie haben sich sozusagen selber torpediert, weil sie eigentlich auf Nummer sicher gehen wollten, was ich eine ganz schöne Analogie finde auf vieles, was wir so tun.
00:07:28: Ja.
00:07:28: klingt nach einer ganz guten ausrede.
00:07:31: wir können immer noch nicht nachvollziehen ob das überhaupt stimmt aber es klingt zumindest so wie wenn sie sich da was gutes überlegt hätten.
00:07:38: also klingt irgendwie plausibel.
00:07:40: übrigens die die wenn du sagst die videos werden erst mal in die meter speicher meter cloud hochgeladen.
00:07:46: hier eine kleine kleine insight also was eigentlich passiert ist und das ist auch ganz spannend mit dem was meter jetzt bei der letzten connect angekündigt hat.
00:07:56: Die Brille ist erstmal nur ein Anhängsel des Handys tatsächlich.
00:08:01: Also es ist nicht so, dass die automatisch mit einem Metaserver verbunden wird und dort erstmal alles hochgeladen wird, sondern zunächst ist es ein Appendix sozusagen an Smartphone, was man auch in der Softwareinfrastruktur sieht, die da so ist.
00:08:15: Nämlich du hast eine App auf dem Handy und die App koppelt sozusagen die Brille, nutzt dort ein SDK.
00:08:22: Also ein Software Developer Kit, um dort die Funktion der Brille abzurufen.
00:08:27: Und wenn ich ein Video oder ein Foto mache, landet es erstmal auf dem Speicher der Brille.
00:08:31: Und dann muss es runtergeladen werden auf dem Speicher des Handys.
00:08:34: Und dort unterliegt sozusagen der Speicher ja den, dem rechte Vergabesystem, des Betriebssystems.
00:08:41: Das heißt, wenn du iOS hast oder Android hast, ist es so, da musst du ja immer erst sozusagen die Rechte vergeben, die dann das System... hat, also die App hat, um auf den Speicher zuzugreifen.
00:08:53: Und dann kann es sein, dass Meta damit Dinge macht.
00:08:56: Aber zunächst mal, wenn du sozusagen einfach nur ein Video machst, ist das erstmal nicht sofort bei Meta.
00:09:04: Mark Zuckerberg guckt sich das nicht sofort an und sagt so, ja geht klar Thomas.
00:09:08: Sondern ist erstmal auf dem Speicher des Geräts, das hat übrigens sechzehn Gigabyte Speicher, was ziemlich viel ist.
00:09:14: Und dann wird es runtergeladen auf dem Handy und von dort könnte es dann eventuell von Meter gesnackelt werden.
00:09:19: Bedeutet
00:09:20: aber ich komme trotzdem nicht dran ohne sicherzustellen, dass Meter nicht dran kommt, richtig?
00:09:24: Ja, das ist natürlich so.
00:09:25: Also, es ist ein Metaprodukt und du wirst jetzt hier, also du hast Meta in Rechte gegeben, dass sie die App einigermaßen funktioniert und wenn du ein Metaprodukt benutzt, dann musst du sogar noch mit vielen anderen Dingen rechnen, was Meta macht.
00:09:39: Dazu kommen wir später ja nochmal.
00:09:41: Ja, ich habe vor ungefähr zehn Jahren die Snapchat Spectacles getestet, als sie gerade ganz neu waren.
00:09:46: Und dort war eben das selbe Problem.
00:09:48: Ich musste die Snapchat App benutzen, um an die Videos zu kommen, die ich damit produziert habe.
00:09:53: Technisch gesehen hat es genauso funktioniert.
00:09:54: Ich habe mit dieser Brille lokal was aufgenommen und das dann auf mein Telefon übertragen.
00:09:58: Allerdings in einer Umgebung, die halt so sehr Snapchat gebunden war, dass es eigentlich gar keine Möglichkeit gab, an diese Videos zu kommen, ohne dass sie den Weg über die Snapchat-Server nicht gegangen wären.
00:10:09: Und das stört mich so ein bisschen.
00:10:14: Zehn Jahre später, ich war vor zwei Wochen in Wien bei Snap und habe dort die Vorabversion von SnapOS S-II testen dürfen.
00:10:22: Kleine exklusive Einblick hier, kann man ja mal reinsnicken.
00:10:25: Und zwar launchen die im nächsten an ihre neue Brille die Snap Specs.
00:10:29: Das soll die erste Brille für Consumer werden.
00:10:33: Die Brille, die es bisher gab, waren bis auf die, die du getestet hast und eine Folge danach.
00:10:39: Die echten Eierbrillen waren bisher Developer-Versionen.
00:10:42: Und konntest du nur kaufen, indem du ein Developer warst und hundert Euro im Monat Miete bezahlt hast und so weiter.
00:10:49: Und das willst du eigentlich nicht haben, weil das Ding auch ziemlich hässlich wie so ein Meme-Teil aussieht.
00:10:54: Wie so eine Meme-Brille eigentlich, die von oben runter kommt.
00:10:57: So
00:10:57: sieht die
00:10:58: ein bisschen aus.
00:10:59: Nächstes Jahr soll die neue Version rauskommen, die richtig geil aussehen soll.
00:11:03: Scheinbar.
00:11:04: Als ich bei Snap in Wien war, haben sie die natürlich gut versteckt.
00:11:09: Die neue Software haben wir noch auf der alten Brille getestet.
00:11:12: Aber auch da ist es immer noch so wie vor zehn Jahren.
00:11:15: Willst du die Videos runterladen von deiner Snap Spectacles?
00:11:18: dann musst du die Snap App benutzen.
00:11:20: Das ist einfach so.
00:11:21: Und willst du eine Verschwörung von mir hören, bevor wir diese Brillenthema in die Schublade legen?
00:11:25: Auf jeden Fall.
00:11:26: Ich will jede Verschwörungstheorie kennen.
00:11:27: Gut, dann pass mal auf.
00:11:28: Und zwar hat Meta.
00:11:29: vor zehn Monaten ungefähr, glaube ich, oder ungefähr Anfang des Jahres, vielleicht nicht ganz zehn Monate, haben sie diverse Tech-Bloggerinnen eingeladen, um denen den Entwicklungsstand ihrer Studie zu zeigen, die eine Brille war, die zwar aussieht wie die, die du gerade auf der Nase hast, also eine völlig gewöhnliche Brille mit Kamera, die aber internes Display verbaut hatte, so dass man der Nutzer oder die Nutzerinnen darauf Inhalte sehen konnte.
00:11:53: Und das, was sie ja letzte Woche bei der Meta Connect vorgestellt haben, ist ja dieser Meta Ray-Ban Display, die sozusagen die Weiterentwicklung dieser Studie ist.
00:12:00: Und alle sind sagen, boah, das ist so wahnsinn, dass sie in so wenigen Monaten von dieser Zehntausend Euro teuren, allein die Komponenten, die verbaut wurden, hätten Zehntausend Euro oder Dollar gekostet, dass sie es in weniger als im Jahr zu diesem Stand gebracht haben, dass sie so weit sind.
00:12:13: Und jetzt kann meine Verschwörung, ich sage, Und irgendwann kommt das raus und dann können sich alle an mich erinnern.
00:12:18: Das Orache von Selfie hat wieder gesprochen.
00:12:20: Diese Studie, die vor weniger als einem Jahr den Bloggerinnen gezeigt wurde, war vermutlich schon über ein Jahr alt.
00:12:26: Das ist mein Take.
00:12:27: Wow, okay.
00:12:28: Wer mein Tee ist, weil das so schnell ging, dass du von Zehntausend Euro Komponentenpreis auf sevenhundertneunneunzig Dollar Verkaufspreis gerutscht bist, da hätte doch niemand mit gerechnet.
00:12:38: Ich halte das für unglaubwürdig.
00:12:41: Ja, vielleicht dazu auch noch ein bisschen Background.
00:12:44: Du musst dir das so vorstellen, die Entwicklungsabteilung von Meter, da wird nicht an einer Brille gearbeitet, sondern an zehn Brillen.
00:12:52: Und die liegen da alle rum und könnten im Prinzip morgen released werden, wenn dann die Produktionsketten und so weiter darauf abgestimmt worden wären.
00:12:59: Das dauert am meisten Zeit tatsächlich, den Scheiß einzurichten.
00:13:03: Und ich würde mal behaupten, da lag längst ein Prototyp mit einem monokularen Display, wie sie jetzt gelounscht ist.
00:13:09: Und was sie einfach gemacht haben ist, diese Technologie in eine Ray-Band zu packen und dann dieses Armband dazu zu nehmen.
00:13:17: Da ist ja auch noch ein Armband dabei.
00:13:19: Und das ist quasi reine Software, das kurz zu bauen, dass das Armband mit der Brille kompatibel ist.
00:13:25: Ich würde behaupten, das war gar nicht so schwer, das zusammenzubringen, weil das im Grunde alles schon da war.
00:13:31: Und vielleicht sogar schon vorher jemand bevor überhaupt, wir wussten, dass es die Orion gibt, also diese ganz fette, zehntausend Dollar-Brille.
00:13:39: Da hatten die vielleicht schon dieses Armband mit verschiedenen anderen Brillen getestet.
00:13:43: Also vielleicht habe ich recht meinste.
00:13:45: Ja, auf jeden Fall.
00:13:47: Wir bleiben kurz bei Meta und gehen aber ein bisschen härter rein, zwar müssen wir über Sarah Wynne-Williams sprechen.
00:13:52: Wir haben Anfang des Jahres sehr viel über sie gesprochen.
00:13:54: Sarah Wynne-Williams, für die, die sich nicht erinnern, ist eine, wenn man möchte, whistleblowerin, eine frühere Meta-Mitarbeiterin, die durchaus einen wichtigen Posten dort hatte.
00:14:03: Und sie war nämlich Direktorin für globale öffentliche Politik, als Meta noch Facebook hieß.
00:14:08: Und sie hat ein Buch geschrieben, das Careless People hieß oder heißt.
00:14:13: Dieses Buch hatte sehr, sehr viele Dinge enthüllt, wie so die Vorgänge in Meta und vor allem in höheren Etagen bei Meta waren vor allem was so Zusammenarbeit mit China anging.
00:14:22: Wie bereit man war, auch sozusagen im Zweifel die eigenen Nutzer in vor den Zug zu schmeißen, wenn man da mit der chinesischen Regierung angefallen hätte.
00:14:30: Könnt ihr alles in vergangenen Folgen etliche mal nachhören?
00:14:34: Aber interessanterweise ist ja seit einigen Monaten es ziemlich ruhig geworden um Sarah Winn-Williams, ehrlicherweise seit April.
00:14:40: Den letzten öffentlichen Auftritt, den sie hatte, den hat sie vor dem Senat gehabt und hat dort sozusagen die Erklärung, die sie in dem Buch getan hat, dann nochmal vor dem Senat-Kund getan und hat seitdem nicht mehr so richtig viel von sich hören lassen.
00:14:55: The Guardian hat sich das Ganze jetzt mal angeschaut, hat eine exklusive Geschichte darüber.
00:14:59: Übrigens, die machen immerhin extrem gute Arbeit, was so genau so investigative Recherchen im Tech Sektor angeht.
00:15:06: Wir haben beim letzten Mal lange über eine Guardian Geschichte gesprochen heute wieder.
00:15:10: Denn offensichtlich gibt es wohl eine Unterlassungserklärung oder eine einstweilige Verfügung, die Meta zwar selber abstreitet, dass es sie gibt.
00:15:18: Die Sarah W. Williams aber dazu zwingt, eine Geldstrafe von fünfzigtausend Dollar zu zahlen jedes Mal, wenn sie Meta kritisiert.
00:15:25: Das ist die Formulierung, die der Guardian hier wählt.
00:15:28: Und das ist vor allem deswegen pikant, weil sie insgesamt mit dem Buch nur etwa um die fünf hunderttausend Dollar Vorschuss verdient hat von dem Verlag.
00:15:35: und die Frage jetzt gerade im Raum steht hat Sarah Williams überhaupt am Ende damit Geld verdient oder vielleicht sogar mehr drauf gezahlt weil sie eben sich die Bereitschaft genommen hat über diese Themen zu sprechen.
00:15:46: Also sie selber sagt, dass ihr eine Schweigeverfügung aufelegt wurde.
00:15:50: Zumindest ist das das was The Guardian hier so formuliert.
00:15:55: Ich finde das doch sehr interessant, dass wir hier über so eine Geschichte sprechen, die nachweislich ein öffentliches Interesse hat, aber ein Tech-Unternehmen, das natürlich seine Geheimnisse bewahren will, es ihr schafft eine Frau de facto Mundtod zu machen, die Dinge aufgedeckt hat, an der die Gesellschaft durchaus Interesse hat, und zwar auch begründetes Interesse.
00:16:14: Was ich mich da jetzt gerade habe, ich habe mich noch nicht ganz richtig verstanden.
00:16:18: Diese Unterlassungsgeschichte, wann ist die in Kraft getreten?
00:16:23: Musste sie die unterzeichnen?
00:16:24: oder wie muss man sich das vorstellen?
00:16:26: Das kann ich dir nicht so ganz genau sagen.
00:16:28: Das wird aus dem Galientext auch nicht so ganz klar deutlich.
00:16:31: Aber The Guardian schreibt, der ehemaligen Diplomatin wurde die Veröffentlichung ihrer Memoaren untersagt, nachdem Meta eine gerichtliche Verfügung erwirkt hatte, die er dies untersagte.
00:16:40: Anschließend erschien sie vor einem Unterausschuss des Senats, in dem sie erklärte, Meta arbeitete bei Zensurmaßnahmen Hand in Hand mit Peking zusammen, was das Unternehmen bestreitet.
00:16:48: Also die Formulierung, wie The Guardian hier eben wählt ist, das versucht wird, dass heroin Williams hier sich möglichst gar nicht mehr öffentlich äußert, eben unter Androhung von großen Strafen.
00:16:58: Ja.
00:16:59: Das ist natürlich ein Gebaren eines globalen Konzerns, die eigentlich nicht wirklich redlich ist.
00:17:06: Es ist keine Überraschung jetzt für Meta, aber wirkt für mich sehr, ja, wenn jemand so sehr versucht, jemanden muntot zu machen, dann glaube ich, ist das ein ganz gutes Zeichen dafür, dass die Frau nicht wirklich tatsächlich einfach nur irgendwie keinen Bock auf Meta hatte, sondern dass da was dahinter ist.
00:17:24: Oder zu wissen tatsächlich, ob das wirklich so alles war, was sie schreibt, aber Ja, da scheint sich jemand mit aller Gewalt zu wertzusetzen und alles zu versuchen.
00:17:33: Ja, ein gutes Zeichen eigentlich, mal da genauer hin zu gucken, was der Gardin jetzt ja auch gemacht hat.
00:17:38: Hundert Prozent.
00:17:38: Und das ist nämlich genau auch die Art, wie ich das gelesen habe.
00:17:43: Also das... Meta und Unternehmen, das sich auf freie Rede bezieht.
00:17:47: Versuch, den man munto zu machen, ist ein klares Indiz dafür, dass sich hier nicht jemand irgendetwas ausgedacht hat, sondern dass hier Geschichten in der Welt sind, von denen Meta nicht möchte, dass sie in der Welt sind.
00:17:57: Also, let's discuss free speech.
00:18:00: Wie weit reicht eigentlich die Rede Freiheit nach dem Metaverständnis?
00:18:04: Wir haben ja offenbar eine Leitplanke gefunden.
00:18:07: Ja.
00:18:08: Dieser Fakt, also angenommen, sie hätte sich jetzt irgendwie verpflichtet auch, das nicht darüber zu sprechen.
00:18:15: Ja, dann so ein bisschen als Deal.
00:18:19: Dann wäre es sich sozusagen ein bisschen selbst schuld, wenn sie trotzdem drüber spricht, weil sie sich überhaupt erst darauf eingelassen hat.
00:18:25: Wenn das Gericht das aber erlassen hat, dann also verstehe ich ehrlich gesagt nicht so richtig, weil zum Beispiel auch an sich einer List ist es ja so... Ich bin jetzt ja nicht wirklich gebunden etwas nicht zu sagen, sondern ich kann das ja im Prinzip mein Job das zu sagen.
00:18:41: Aber
00:18:41: du hattest auch nie einen NDA unterzeichnet und das hatte sie als Mitarbeiterin natürlich getan.
00:18:46: Also sie hat damit gegen einen Vertrag verstoßen, den sie irgendwann mal unterschrieben hat.
00:18:51: Ich habe sogar einen NDA unterzeichnet, als ich bei Snapchat war.
00:18:56: Du hast also gerade auch einen NDA gebrochen.
00:18:59: Ne, ne, bestimmte Dinge darf ich sagen.
00:19:02: Ich weiß aber auch, dass ich bestimmte Sachen nicht sagen darf.
00:19:04: Zum Beispiel, was ich in ihrem Labor gesehen habe.
00:19:07: Ich darf sagen, dass ich im Labor war,
00:19:09: aber ich darf nicht
00:19:10: sagen... Genau, ich darf nicht sagen, was ich dort gesehen habe.
00:19:14: Es war sehr spannend, kann ich nur sagen.
00:19:16: Echt toll.
00:19:17: Das ist halt diese NDA-Policy, also für die, die das nicht kennen, es ist ein Non-Disclosure Agreement, also eine Schweiger-Flichzerklärung, die man abgibt, wenn man zum Beispiel eben... Hintergrundgespräche führt, mit Unternehmen.
00:19:30: Ich mach das bislang nicht so, kann ich direkt sagen, aber es gibt durchaus Kollegen, die das tun und auch dafür gibt es ja einen guten Grund.
00:19:37: Also das ist ein Unternehmenssach, kann man vorbei, wir unterhalten uns ein bisschen, geben dir Hintergrundinformationen für deine Berichterstattung.
00:19:42: Was der Journalist, die Journalistin damit macht, ist dann seine oder ihre Sache.
00:19:45: Ein Verstoß gegen einen NDA muss nicht zwangsläufig eine Strafzahlung bedeuten, aber es bedeutet halt auf jeden Fall, dass es einen Vertrauensbruch gibt und würde im Fall für bedeuten, dass du halt nicht mehr eingeladen wirst.
00:19:56: Und das gibt es eben auch bei bei so Berichterstattung über Tech-Geräte, dass man sagt, okay, es gibt jetzt hier ein Zeitpunkt, ab dem du erst, also in sogenanntes Embargo, ab dem du erst über das Gerät berichten darfst, aber du kannst natürlich schon eine Woche testen und so.
00:20:09: Das sind alles übliche Geschäftsgebaren.
00:20:11: Wie jetzt die Journalistinnen damit aber am Ende umgehen, ist auch so ein bisschen ihre Sache.
00:20:15: Ja, für gewöhnlich.
00:20:16: Wenn du einmal dich gegen so ein Embargo streubst und früher veröffentlicht, war es das letzte Mal, dass du halt eingeladen wirst und das ist sozusagen die Strafe dann für dich.
00:20:23: Das reicht dann meistens.
00:20:25: auch, weil dann die Informationen tatsächlich auch nicht so unfassbar wichtig waren.
00:20:30: Also da geht das noch.
00:20:31: Hier zum Fall von Metat, das kann ja tatsächlich einfach Auswirkungen auf die haben.
00:20:36: Verstehe ich schon, wenn sie sich wehren wollen, allerdings ja, ist es hier tatsächlich einfach auch vom globalen Interesse und es sind so viele Menschen betroffen, dass sie natürlich, sagen wir mal, jedes Recht hat.
00:20:47: das dann auch zu veröffentlichen.
00:20:49: Und ich würde sagen, wenn das nicht komplett an den Hahn herbeigezogen ist und sie ein paar Proofs hat, dann, ja, ich hoffte, das hat sie auch gehabt.
00:20:58: Ich hab das Buch jetzt ehrlich gesagt nicht gelesen und kann das nicht wirklich beurteilen.
00:21:00: Aber wenn sie nicht einfach nur Sachen daher erzählt, sondern auch ein bisschen was belegen kann, dann, ja, dann ist das absolut richtig, was sie da getan hat.
00:21:08: Ah, propos globales Interesse.
00:21:10: Wir kommen zu TikTok.
00:21:11: Es ist ja sozusagen, es ist ja im Moment so ein kleines Soap.
00:21:15: finde ich.
00:21:16: Wer sagt was?
00:21:16: Was erfahren wir?
00:21:17: Wo stehen wir gerade?
00:21:18: Wir haben in den letzten Episoden immer wieder darüber gesprochen, wie eigentlich der Verhandlungsstand ist zwischen Donald Trump und Xi Jinping oder zwischen amerikanischen Investoren und Bidemens oder zwischen allen Miteinander, weil für die, die das noch nicht so ganz mitbekommen haben, TikTok ist eigentlich nicht mehr legal in den USA zu verwenden.
00:21:37: Daran hält sich aber keiner, weil Donald Trump fragwürdige Decrete, ich wollte gerade Sekrete, Donald Trump verliert.
00:21:45: fragwürdige Sekrete, vielleicht auch Dekrete veröffentlicht, mit denen er sozusagen dieses Gesetz eigenmächtig aus der Kraft setzt, weil er sagt, wir verfolgen den Verstoß gegen dieses Gesetz derzeit nicht.
00:21:59: Der Stand ist der, dass das weiße Haus sich jetzt zumindest nochmal dazu geäußert hat und nochmal so ein bisschen zusammengefasst hat, wo wir eigentlich gerade in der Verhandlung stehen.
00:22:09: Zum Beispiel sagen Sie, dass der Algorithmus in der Tat aus Amerika neu trainiert werden soll.
00:22:14: Bedeutet man lizenziert eine Version des TikTok Algorithmus aus China.
00:22:19: nutzt auch deren System sozusagen, lässt es aber in den USA laufen.
00:22:24: Also man übernimmt einfach nur den Mechanismus und trainiert den neu, damit eben die Inhalte, die den Amerikanerinnen ausgespielt werden, nicht davon geframed sind, was eben die Gewichte im Algorithmus sind, die das chinesische Unternehmen festgelegt hat, sondern das amerikanische Unternehmen.
00:22:39: In dem Fall ein neu entstehendes Unternehmen, das zu achtzig Prozent amerikanischen Investoren gehört, darunter Larry Ellison oder die Murdox.
00:22:46: Und auch weiß man jetzt nicht, ob das die öffentliche Meinung massiv mitprägen sollten durch ihre massive Trump-Nähe und damit auch vermutlich ein nicht zwangsläufig mit dem europäischen Demokratieverständnis über einstimmenden Weltbildes.
00:23:01: Aber so ist es nun mal gerade, das ist der Stand.
00:23:04: Gleichzeitig wird Bidance und andere chinesische Unternehmen zwanzig Prozent an TikTok USA halten und werden einen Sitz im Bord bekommen, von denen es insgesamt sieben geben wird.
00:23:13: Das ist der aktuelle Stand, den wir da gerade haben.
00:23:17: Ich finde das sehr interessant, weil das auf der einen Seite... All das ist, was das Gesetz ursprünglich einmal eigentlich bekämpfen wollte, nämlich die Einflussnahme durch China verringern, durch öffentliche Meinungen, indem sie den Algorithmus eben nicht einsingen können aus Amerika, weswegen das eben ein amerikanisches Unternehmen tun soll.
00:23:37: Zum anderen eben die Übernahme von oder den Betrieb des Betriebes, die Übernahme des Betriebes durch ein amerikanisches Unternehmen, um die Datensicherheit amerikanischer Nutzerenden sicherzustellen.
00:23:49: Was jetzt weiterhin immer noch nicht ganz geklärt es ist, wie mit der amerikanischen TikTok App umgegangen wird.
00:23:54: Also wenn ich ein Video hochlade aus Deutschland in der normalen TikTok App kann man das in den USA sehen.
00:24:00: oder muss ich mich ja auch das amerikanische TikTok installieren, kann ich das überhaupt tun?
00:24:04: Das sind alles Dinge, die noch nicht ganz geklärt sind.
00:24:06: bis zum Schluss.
00:24:07: Das sind vielleicht so Spiegel TikToks.
00:24:10: andere TikToks, wirken wie komplette Klone, aber sind eigentlich ganz andere Welten, ganz eigene Welten, mit neuen Memes und so weiter.
00:24:18: Was es de facto gibt, also Dujin, das chinesische TikTok, das nur in China abrufbar ist, hat mit unserem TikTok nicht viel zu tun.
00:24:25: Du hast dort deutlich mehr Mitinhalte, du hast dort deutlich mehr, deutlich weniger politische Stimmen, logischerweise.
00:24:31: Also es ist ein anderes TikTok.
00:24:34: Ah, es klingelt bei dir.
00:24:35: Ja, dann gehen wir mal.
00:24:36: Geh mal an die Tür.
00:24:37: Ich habe zwei
00:24:38: gute Gedanken.
00:24:39: Die werde ich gleich äußern.
00:24:40: Das schaffen wir.
00:24:41: Ich erzähle mal solange noch ein bisschen, während Thomas zur Tür geht.
00:24:44: Denn bei Bloomberg gibt es noch ein paar weitere Dinge.
00:24:47: Sie haben nämlich darüber gesprochen.
00:24:49: Dass das größte Ziel ist, dass die amerikanischen Käufer nach der Veräußerung durch Beidens die Kontrolle über jegliches Software in den USA halten werden.
00:24:57: Und wir bleiben mal gespannt.
00:25:00: Wir schauen uns das weiter an.
00:25:01: Ich persönlich bin mir nicht ganz sicher, ob wir hier tatsächlich in den Genuss kommen werden, das amerikanische TikTok zu nutzen.
00:25:08: Ich will mich da jetzt nicht zu weit aus dem Fenster lehnen.
00:25:10: Aber ich könnte mir vorstellen, dass das ein ziemlich hermetisch abgeriegeltes TikTok wird, über das wir tatsächlich am Ende nur informiert werden.
00:25:18: werden, wenn wir das hierzulande aus der Medien erfahren.
00:25:21: So, Thomas ist wieder da, jetzt hau raus mit deinem Gebrauch.
00:25:24: Sorry, alles gut.
00:25:25: So,
00:25:25: Päckchen ist hinten, das Internet kann bald wieder gut sein, denn mein Wi-Fi hat nämlich zuletzt auch Probleme gemacht, wie bei Meta auch.
00:25:34: Gedanke Nummer eins war, wenn ich einen Algorithmus nehme und den komplett neu trainiere.
00:25:39: Ist es da nicht ein neuer Algorithmus und warum brauche ich einen alten Algorithmus?
00:25:44: dann überhaupt.
00:25:46: Ja, das ist ein bisschen kompliziert, glaube ich.
00:25:48: Aber es gibt erst mal ein System, das irgendwie programmiert wurde.
00:25:52: Dann gibt es darüber hinausgehend Kriterien, möchte ich jetzt mal nennen, Signale und die Gewichtung von denen, die zwar von Hand beeinflusst werden können, die sich aber auch durch automatische Prozesse anpassen können.
00:26:05: Und dann gibt es dahinter in die Inhalte, die von ihnen ausgewählt werden.
00:26:07: Und was hier auf einmal passiert ist, dass dieser Kern, dieser Mechanismus übernommen wird, aber die Signale und die Gewichtungen dieser Signale, die wird sozusagen aus Amerika neu bestimmt.
00:26:18: Ich glaube, es gibt noch ein anderes Aspekt, der damit einzahlt, nämlich da muss ja der chinesische Präsident Xi Jinping auch zustimmen und es gibt wohl ein chinesisches Gesetz, nachdem irgendwie der Algorithmus immer in China bleiben muss oder was in der Art.
00:26:37: Ich kenne mich da nicht so richtig aus, aber um sozusagen eine Übereinkunft.
00:26:42: zu machen, könnte hier direkt der Trick sein, dass man so tut, als würde man den Algorithmus, was immer das dann bedeutet, aus China nehmen und ihn dann hier irgendwie anpassen, was aber eigentlich bedeutet ist, sie nehmen den, legen den zur Seite, Und trainieren komplett neuen Algorithmus und tun halt nur so, als ob sie praktisch den anderen Algorithmus benutzen würden, den chinesischen.
00:27:06: Das wäre hier vielleicht einfach so ein bisschen der Versuch eines Kompromisses, um endlich mal unter die Sachen Strich ziehen zu können, denn die zieht sich jetzt ja auch schon eine ganze Weile.
00:27:16: Ja, also Donald Trump, das haben wir ja auch schon mal so ein bisschen analysiert, hat natürlich da massiven Zugzeugen, weil er hat Versprechen gegeben.
00:27:23: nämlich sowohl der Bevölkerung gegenüber, dass TikTok weiter betrieben wird.
00:27:27: Und wir haben ja auch schon gehört, dass Eltern ihn anrufen, weil Kinder TikTok nutzen wollen, mit großen Freunden.
00:27:33: Ich bin neulich von einer Frau angesprochen worden, Jaren.
00:27:36: Du?
00:27:36: Auf der Straße, ja.
00:27:37: Ja, ob du TikTok retten kannst.
00:27:39: Einfach so, da hab ich was gehört.
00:27:42: Die hat so
00:27:43: was gesagt.
00:27:43: Also auf der einen Seite hatte sich, wie gesagt, dieser ... Dieser durch dieses Versprechen unter Zugzwang gebracht.
00:27:51: Auf der anderen Seite ist das eine schlechte Verhandlungsposition China gegenüber, weil die natürlich wissen, dass er dieses Versprechen gegeben hat.
00:27:57: Was bedeutet, dass er halt am Ende auch Zugeständnisse machen muss.
00:28:01: Dass das Ergebnis jetzt trotzdem so aussieht, dass wohl Algorithmus als auch Daten in den USA liegen, ist da unter diesem Gesichtspunkt schon bemerkenswert auf jeden Fall.
00:28:10: Ob das jetzt am Ende aus europäischer Perspektive eine bessere Lösung ist, I don't know.
00:28:16: Ja, hier kommt da mein zweiter Aspekt ins Spiel, aus von europäischer Perspektive muss man sich, muss man ja sagen, was das, was da gerade passiert ist ja.
00:28:24: Also du machst das hier so sehr kleinteilig, analysierst du das und das ist auch sehr cool, dann kann man das ein bisschen nachvollziehen, was da passiert.
00:28:31: Letztendlich muss man sagen, das ist einfach, ja, also die Details sind da fast schon gar nicht mehr wichtig, weil was passiert ist klar, hier wird ein Medienunternehmen versucht, unter Staatskontrolle zu bringen.
00:28:44: Und das ist jetzt halt nicht ganz so einfach, wie ihr gedacht habt, weil halt die Chinesen auch noch ein Wort mitreden wollen.
00:28:49: Aber letztendlich ist es dann auch egal, ob jetzt das fünf, zehn, zwanzig Prozent chinesisch-amerikanisch ist oder wer auch immer oder ob das jetzt Oracle oder irgendein anderer amerikanischer Konzern macht, der eine größere oder nicht so große Nähe zu Trump hat.
00:29:02: Der wird sowieso das tun müssen, was Trump ihm sagt, weil es da drüben ja scheinbar niemanden gibt, der irgendwie ein moralisches Korsett hat.
00:29:09: Wobei, stimmt nicht ganz.
00:29:11: Dazu kommen wir gleich dazu.
00:29:12: Geschichte Kimmel und so weiter.
00:29:13: Da haben wir doch ein paar Leute ein bisschen Anstand.
00:29:19: Jetzt kann man gleich darüber sprechen.
00:29:21: Aber du hast natürlich recht und da schließe ich mich auch der Analyse von Philipp Klöckner an aus der letzten Episode, der sagt, es ist natürlich wahnsinnig besorgniserregend, dass da mit drei der wichtigsten oder am Ende sogar fünf der wichtigsten digitalen Infrastrukturen, die der Kommunikation dienen, nämlich... Facebook, Instagram, TikTok, X, am Ende auch WhatsApp, was in den USA nicht so relevant ist, aber trotzdem, dass die alle sozusagen auf Trump Kurs gebracht wurden durch diese ganzen Entwicklungen.
00:29:46: Also Zuckerberg, Musk und jetzt eben Larry Ellison, der dann hinter dem amerikanischen TikTok steht, die sind alle auf Trump Linie und das werden wir spätestens in einem nächsten Wahlkampf und wenn sie mit Terms sind, massiv beobachten können, dass du über alle Plattformen hinweg ein klares Meinungsübergewicht hast in die eine Richtung, die eben nicht für eine für eine neutrale, ausgewogene Ausspielung von Inhalten eben plädiert, sondern eben wahrscheinlich schon eine rechte Schlagseite bekommen wird.
00:30:17: Ich glaube, das ist fair zu sagen so.
00:30:20: Und der Witz ist ja, dass es bereits eine Schlagseite hatte, bevor das alles passiert ist.
00:30:26: Das war ja schon schlimm, bevor es überhaupt dazu kam.
00:30:29: Und jetzt wird das aber noch mehr gefestigt eigentlich, diese Situation.
00:30:33: Und führt ja noch mehr dazu, dass die Leute für Trump wählen.
00:30:37: Vermutlich.
00:30:39: Wir können natürlich hier nichts vorher sagen.
00:30:41: Und wir können nur hoffen, dass die Menschen aufgewacht sind, wenn sie gesehen haben, was Trump eigentlich alles macht.
00:30:48: Die Hoffnung stirbt zuletzt.
00:30:50: Wir schauen mal.
00:30:50: Ja, vielleicht
00:30:51: kommt es auch überhaupt nicht zu einer Wahl, dass man natürlich das beste für Trump.
00:30:54: Dieses Gerücht gibt es ja auch, oder diese Verschwörungstheorie, dass er eigentlich gerade daran arbeitet, dass die Amerikaner überhaupt gar keine Wahl mehr haben in Zukunft.
00:31:02: Ja, man muss, glaube ich, noch einen Unterschied aber ziehen.
00:31:06: Zum Thema, es war schon immer, gerade schon immer diese Schlagseite.
00:31:09: Diese Schlagseite hatte es aber nicht zwangsläufig aus politischer Überzeugung der Unternehmen, sondern durch Designentscheidungen im Algorithmus.
00:31:17: indem du z.B.
00:31:18: belohnt hast, dass Inhalte die Stärke emotionalisieren, Stärke Interaktionen auslösen, dass die auch stärker ausgespielt werden, was eben radikalere Positionen, vor allem rechtse Positionen deutlich stärker verbreiten ließ als gemäßigte Stimme.
00:31:32: Wenn da jetzt aber auch noch ein gewisser politischer Auftrag hinzukommt und die Tatsache, dass ja Algorithmus aller dieser Plattformen, vor allem dieser, die jetzt alle off for you Pages umgebaut sind, immer black boxiger wird, dann ist es tatsächlich... Düster.
00:31:48: Ja.
00:31:48: Und ja, ich wollte schon die nächste.
00:31:50: Das
00:31:50: hat ja schon vorher sehr gerne.
00:31:52: Du kannst auch gleich die Überleitung machen, die wie immer gewohnt souveräne Überleitung von dir.
00:31:58: Das hat ja alles schon gereicht sozusagen.
00:32:00: Das aber da jetzt noch Unternehmen dazukommen und das noch mehr supporten, das macht natürlich nicht besser.
00:32:05: Und von europäischer Perspektive muss man einfach nur die Hände über den Kopf zusammenschlagen und sagen, okay, Amerika, was ist da los?
00:32:13: Was ist der los, ist genau der Satz.
00:32:15: Es ist ein kleines vorgezogenes Funktion mit Emotionen.
00:32:17: Es fällt nicht in die Rubrik, weil die Emotionen sind völlig raus aus dem Spektrum, die wir in dieser kleinen Rubrik nachher haben werden.
00:32:24: Denn es gibt bei TikTok eine neue Funktion, bei der du ein Video gucken kannst und darunter einen kleinen Button drücken kannst mit dem Namen Feinsimilar.
00:32:31: Also dieses Geschichte ist unfassbar.
00:32:33: Ich
00:32:33: finde ähnliches.
00:32:35: Und wenn du da drauf klickst, dann passieren zwei Dinge.
00:32:37: Das erste, was passiert ist, dass ähnliche Videos rausgesucht werden, häufig über optische Aspekte.
00:32:42: Also du kannst sozusagen dupletten relativ schnell finden, wenn du diesen Knopf drückst, weil eben ähnliche Videos im ganzen System gesucht werden.
00:32:50: Das andere ist aber auch, dass eine Rückwärtsbildersuche passiert mit den Inhalten, die auf dem Bild zu sehen sind.
00:32:54: und womöglicherweise, wenn du angenommen, wir laden jetzt den TikTok von diesem Ausschnitt hier hoch, einen Clip und du klickst dann auf diesen Button, dann siehst du wahrscheinlich auch andere Videos von uns beiden.
00:33:03: zum Beispiel, weil wir irgendwie Dein Hintergrund, mein Hintergrund, unsere Gesichter.
00:33:09: Aber eben auch die Klamotten, die wir tragen, die Cappy, die du trägst, die wird dann eben auch dort vorgeschlagen in einem Shopfenster, der eher eine Google-Bilder-Rückwärtssuche erinnert, dass Abstruse an dieser Geschichte ist, dass das eben eine TikTok-Shop-Anbindung hat, die keine inhaltlichen Grenzen kennt.
00:33:26: Bedeutet also, es gibt Videos, die TRT hochgeladen hat, ein türkisches Medien Outlet, aus dem Gasachsstreifen.
00:33:35: Und dort siehst du eine Frau, die ihre Kinder sucht, die vermisst werden.
00:33:40: Also wirklich hochdramatisch, schreckliche Aufnahmen.
00:33:43: Kannst aber dir das... Ich war kurz
00:33:44: Nahrungsmittel besorgen,
00:33:46: kam
00:33:46: zurück und die Haus war zerstört und ihre Familie lag in Schutt.
00:33:49: Ja.
00:33:50: So.
00:33:50: Und du kannst mit dieser neuen TikTok Funktion dir dieses Video anschauen und dir dann anschauen, was sie da eigentlich trägt, weil es das kostet, wo man das bestellen kann.
00:33:58: Und das ist natürlich ein Zynismus, nichts zu überbieten.
00:34:01: Und da weiß man auch, also, das Ding ist ja, die TikTok, also die Menschen, die für diese Funktion verantwortlich sind, wissen, dass auf TikTok nicht nur Inhalte sind, bei denen man ohne weiteres denkt, oh, das sind ja schöne Klamotten, wo hat sie die her?
00:34:17: Und das ist... auf einer Plattform, die sozusagen alles abbilden möchte.
00:34:22: Man kann das diskutieren, ob man diese Inhalte da sehen will oder nicht.
00:34:25: Fein.
00:34:26: Aber was man hier nicht diskutieren kann, ist die Frage, ob hier jeder Inhalt kapitalistisch ausgeschlachtet werden muss oder nicht.
00:34:32: Oder ob es nicht möglicherweise Grenzen kennt.
00:34:35: Und da liegt die Antwort ehrlicherweise ziemlich klar auf der Hand.
00:34:37: Ich finde The Verge hat das in einem Satz sehr, sehr gut zusammengefasst.
00:34:41: Sie haben geschrieben.
00:34:43: Die TikTok Funktion steht für die Skrupellosigkeit von Technologieplattform jeden Cent aus den Inhalten der Nutzer heraus zu pressen und das Online-Erlebnis in einen endlosen Einkaufsbummel zu verwandeln.
00:34:52: In dieser Hinsicht ist die Funktion zumindest ehrlich in Bezug darauf, was die Plattformen vom Internet erwarten.
00:34:58: Ja, Gabi, du hast ja heute einen schönen Schal an.
00:35:02: Ja, den hand ich hier sehen auf TikTok bei so einer Frau, die da war irgendwie was los und die hatte so einen schönen Schal und deswegen habe ich mir den bestellt.
00:35:11: Ganz ehrlich, nach all den Jahren, die wir schon dieses Internet haben, nach all den Jahren und den ganzen Diskussionen rund um was Social Media ist, was es macht, was für Probleme es gibt, gibt es immer noch den Fall, dass genau sowas passieren kann.
00:35:26: Es kann mir einfach keiner erzählen, dass das nicht mit voller Absicht ist, dass das niemanden interessiert dort und dass das einfach völlig unmenschliche Unternehmen sind, muss man einfach sagen.
00:35:38: Da gibt's einfach keine Ausrede mehr, Gavin.
00:35:40: Das gibt's keine Ausrede mehr.
00:35:41: Also kein PR-Berater der Welt kann mich da noch davon überzeugen, dass das irgendwie sinnvoll ist oder dass das nicht mit voller Absicht ist.
00:35:50: Also ganz ehrlich, das geht einfach gar nicht mehr.
00:35:53: Genau, und man kann, also das Ding ist ja... Diese Funktion wäre mir total egal gewesen.
00:35:59: Wir hätten die hier so am Rande mal besprochen, wenn sie gewisse Regeln der Menschlichkeit eingehalten hätte.
00:36:06: Weil wenn der Influencerin oder ein Influencer ein Video macht über seinen Tag und dann kann ich über Knopfdruck mehr anschauen, wo die lustige Handyhülle her ist, die da in den Spiegel gehalten wird.
00:36:18: Hey okay, do it, muss ich nicht nutzen, meinetwegen.
00:36:21: Wenn aber hier versucht wird Kapital zu produzieren aus dem Elend der Menschen und aus journalistischen Inhalten, die Sichtbarkeit schaffen wollen für ein Thema, das Elend von Menschen zeigt.
00:36:33: Dann gibt es dafür gar keine Erklärung.
00:36:35: und wie gesagt, niemand kann mir erzählen, dass TikTok nicht wüsste, dass diese Inhalte auf TikTok existieren, sondern hier wurde mindestens fahrlässig, wahrscheinlich aber in voller Absicht diese Grenze eben nicht gesetzt.
00:36:49: Da wurden keine Leitplanken definiert.
00:36:51: Und am Ende, naja, muss halt jeder selber entscheiden, jetzt, ob man solche Inhalte auf TikTok konsumieren möchte, ob man diesen Knopf drücken möchte, ob man über TikTok shoppen möchte.
00:37:00: Weiß ich nicht, wenn ich jetzt ein Video von den Nürnberger Prozessen sehe, ob ich mir dann braunen Anzug bestellen möchte, ehrlicherweise.
00:37:06: Dieses muss ja jeder selber entscheiden, muss ich mittlerweile sagen, habe ich auch mittlerweile schon einen Reflex,
00:37:14: wo
00:37:14: ich sage, nein, über die Phase sind wir auch weit drüber hinweg, weil es nicht nur darum geht, habe ich jetzt entscheide ich mich sozusagen für grün oder blau das keine geschmacksfrage mehr sondern das ist eine zutiefst moralische frage die gesellschaftliche bedeutung hat die völlig klar weit über muss jeder entscheiden hin weg geht sondern ganz ehrlich.
00:37:36: also dann muss man so grob reingehen in diese unternehmen dann muss man maximal eskalieren um das zu verhindern.
00:37:44: ich war geschockt dass meine tochter letztens erzählte, ihr wurde dieses Video von dem Attentat so gespielt und gespült und sie hat das gesehen.
00:37:55: Ich muss ehrlicherweise sagen, ich dachte, das ist gar nicht mehr möglich.
00:37:59: Ich bin zutiefst geschockt, dass das immer noch geht und zwar in einem Jahr, wo wir über die KI-Revolution sprechen, wo wir glauben, auf den Mars eine Zivilisation aufbauen zu müssen, dann schaffen wir es nicht, solche Videos rauszufeldern und das Kindern zu zeigen.
00:38:15: Das
00:38:15: ist eine Frage der Prioritäten.
00:38:17: Es geht gar nicht und da müssen wir wirklich langsam alles dafür tun, dass sich das ändert.
00:38:24: Also da bin ich zum Beispiel ganz hinter Martin André hier in Kölner, Wissenschaftler von der Uni Köln, der das Buch Big Tech muss weg rausgehauen hat und sich quasi den Mund vorsichtig quatscht.
00:38:38: Also wir müssen ganz dringend was tun, Gavin.
00:38:41: Ja, klar.
00:38:43: Aber ich habe das Salop der Herr gesagt.
00:38:46: muss jeder selber wissen.
00:38:47: Aber am Ende zeigt, lehrt uns die Erfahrung leider, dass der einzige Weg solche Plattformen zum Neudenken zu bewegen, es nicht ist.
00:38:57: Gesetze zu fordern, die dann am Ende, also auch wenn wir das tun und wir alle hier ständig sagen, es muss die Regulierung geben, es muss die Durchsetzung der Regulierung geben, es muss klare, schmerzhafte Strafen geben.
00:39:08: Aber der wichtigste Wahlzettel, den wir in der Hand haben, ist unser Kassenbond.
00:39:14: Jede Entscheidung, die wir mit Geld treffen, entscheidet mehr als die Entscheidung, die wir hier in diesem Podcast zum Beispiel treffen.
00:39:22: Leider.
00:39:23: Es ist so spannend, wir müssen es jetzt nicht nochmal komplett ausdiskutieren, was ich gerne wie emotional machen würde.
00:39:29: Du machst das praktisch in jeder Folge, muss man ja sagen, also dieses Regulierung wirst du es nicht regulieren, auch gerade so beim Thema Kinderschutz und so weiter, Social Media verbieten und so weiter, das ist ja alles echt so ein Ding, aber ja, ich habe so das Gefühl, es ist so vieles im Argen und es reicht, also es muss man... Wir haben eigentlich gar keinen richtigen Anpack mehr.
00:39:52: Also wir können so viel appellieren, wie wir wollen.
00:39:57: Also die meisten, also das Gefühl, das ich habe aus diesen Gesprächen in letzter Zeit, war eigentlich sind wir komplett am Ende.
00:40:06: Also ich habe immer so ein gewisses apokalyptisches Gefühl danach und wir warten eigentlich alle auf den großen Knall, dass wir danach endlich mal mit so einem Tabularasa wieder von vorne anfangen können.
00:40:17: Darf ich dir da ein positives Gefühl geben?
00:40:19: Ich
00:40:19: glaube, dass das alle paar Jahre passiert.
00:40:22: Also wenn ich meine Eltern frage, die ein bisschen älter sind als ich logischerweise, dann sagen die mir, dass sie in den achtziger Jahren hundertprozentig davon überzeugt waren, dass der Atomkrieg eher einen Knopfdruck entfernt ist als ein Jahr.
00:40:38: Also sie alle dachten, der kalte Krieg führe unweigerlich zur Vernichtung der Menschheit und sie haben eigentlich schon die ganze Zeit abgeschlossen.
00:40:46: Das hat sich dann natürlich wieder beruhigt, aber ich glaube, dass solche apokalyptischen Phasen immer und immer wieder kommen und man da nicht den Mut verlieren darf, auch wenn es immer wieder kleine Steuerbarsteine gibt, die einen so ein bisschen zweifeln lassen.
00:40:58: Auch wenn solche Geschichten ja grausam sind, können wir nicht mehr machen, als darüber aufklären.
00:41:03: Allen Leuten sagen, überleg dir, was du da tust, was du da konsumierst, was du da machst.
00:41:08: Wir können fordern und uns wünschen, dass Gesetze dies de facto gibt.
00:41:13: auch durchgesetzt werden und zwar so durchgesetzt werden, dass es nicht so eine Art Show-Prozess wird, sondern dass es am Ende auch den Unternehmen tatsächlich Druck macht, darauf hingehend ihre Entscheidungen anzupassen und einfach durchhalten.
00:41:30: Wie sind wir da gelandet?
00:41:31: Soll ich noch einen draufsetzen auf die Diszipli?
00:41:35: Will ich nicht, aber ist notwendig, weil die Leute müssen davon erfahren.
00:41:38: Es gab einen YouTube-Kanal, der Unendlich also mehr als siebenzwanzig Videos produziert, die mehr als hundertfünfzehntausend Aufrufe generiert haben.
00:41:48: Das ist nicht unendlich viel, um mich da direkt selber zu korrigieren.
00:41:52: Das ist aber nicht nichts.
00:41:53: Dieser Kanal wurde erst am zwanzigsten Juni gestartet und dieser Kanal hieß woman shot ai und was man dort gesehen hat waren dass man hier
00:42:01: eine kleine trigger warnung einbauen weil das wurde zu dich hart
00:42:03: das wird wirklich hart um.
00:42:04: aber noch mal also wie gesagt dieser kanal ist inzwischen offline.
00:42:07: deswegen sage ich auch den namen des kanals.
00:42:10: aber genau es gibt eine kleine kleine trigger warnung weil wir haben jetzt gleich kurz gewalt darstellungen zumindest akustischer natur.
00:42:17: diese dieser kanal hat k.i.
00:42:19: generierte videos gezeigt mit google veo mit dem also youtube eigenen service um videos zu generieren.
00:42:29: Videos gezeigt die zeigten wie frauen erschossen werden komplett k.i.
00:42:33: generiert.
00:42:34: unterschiedlichster herkunft unterschiedliche hautfarben völlig unterschiedliche frauen sozusagen.
00:42:39: haben aber in dem community tab und auch in den kommentaren unter diesen videos zur abstimmung gestellt werden als nächstes erschossen werden soll.
00:42:46: dieses diesen kanal gab es seit dem zwanzigsten juni und for offer media hat das sozusagen zum anlass genommen zu recherchieren und hat an youtube eine anfrage gestellt wie das sein kann.
00:42:55: dass dieser kanal noch online ist hat erst mal keine antwort darauf bekommen.
00:42:58: aber dieser kanal wurde offline genommen bedeutet also was wir daraus lesen können ist Wir dürfen nicht die Augen davor verschließen.
00:43:05: Wir dürfen das nicht ignorieren.
00:43:06: Wir müssen darüber sprechen.
00:43:08: Bedeutet aber auch, viele dieser Unternehmen bewegen sich erst mal gar nicht, bis die Sorge der Öffentlichkeit an die Tür klopft.
00:43:16: Ja, was ich mir in der Frage ist, haben die denn etwa auch, so wie bei TikTok, niemanden, der immer dann, wenn eine neue Technologie irgendwie gelounscht oder ein Feature gelounscht, sich hinsetzt und sagt, Da müssen wir aber nochmal diesen Test einbauen und gucken, ob das vielleicht Inhalte hat, die wir eigentlich nicht auf der Plattform haben wollen.
00:43:37: Also das scheint ja so ein bisschen der Fall gewesen zu sein.
00:43:40: Das klingt so als gäbster die Regel, wenn es mit Vero III erstellt wurde, dann kann es eigentlich nicht sein, dass dort Gewaltdarstellungen drin vorkommen.
00:43:50: Also brauchen wir die Tests dort nicht durchzuführen, die wir normalerweise über Videos laufen lassen.
00:43:55: Und dadurch wurde auch nichts getriggert und deswegen war dieser Kanal online.
00:43:59: Ja, also es gibt da zwei Sicherheitsmechanismen, die versagt haben.
00:44:02: Auf der einen Seite in der Tat, was kann man mit VO-Drei generieren?
00:44:05: Also wo gibt es die Grenzen dieser Text-to-Video-KI, die sagt... Das mache ich nicht.
00:44:11: Und die Content-Überprüfung bei YouTube, die sagt, diese Inhalte können wir hier nicht öffentlich halten.
00:44:17: Google selber hat sich inzwischen dazu geäußert und hat gesagt, unsere GenAI-Tools sind so konzipiert, dass sie den Anweisungen des Nutzers folgen.
00:44:25: Wir haben aber klare Richtlinien für die Nutzung, die wir durchsetzen und die Tools werden immer besser darin, diese Richtlinien umzusetzen.
00:44:31: Was erstmal sagt, okay, wir haben hier verkackt, aber eigentlich hätten wir nicht verkacken sollen.
00:44:36: Das ist die Botschaft.
00:44:37: Und der
00:44:37: User ist ein bisschen schuld, weil der hat ja das Messer geführt.
00:44:40: Ja, ganz genau.
00:44:43: Es macht ein bisschen sprachlos.
00:44:46: Es gibt noch eine andere Geschichte, die ein bisschen sprachlos macht.
00:44:48: Und zwar kannst du, wenn du einen AI-basierten Browser nutzt.
00:44:51: Du merkst, wir biegen ein bisschen in den KI-Bereich ab.
00:44:54: Wenn du einen KI-Browser nutzt, also so ein Browser wie beispielsweise Comet von Perplexity, dann gibt es... Dann gibt es auch
00:45:01: Google Chrome übrigens.
00:45:02: Bald
00:45:02: auch Google Chrome, genau.
00:45:05: Kannst du wohl, also es reicht offenbar eine Webseite aufzurufen, wie zum Beispiel einen öffentlichen Reddit-Beitrag, bei dem es sozusagen Prompt-Injections in dem Reddit-Beitrag gibt, um den Agenten aufzufordern, zum Beispiel eine Überweisung auszulösen oder PayPal Geld zu schicken.
00:45:26: Also es gibt die Möglichkeit diese Browser sozusagen auszutricksen, indem du Prompts in Websites... in versteckst um sozusagen den browser damit zu beauftragen etwas für dich zu tun.
00:45:38: das konnte futurism hier nachvollziehen diese geschichte und auch selber testen.
00:45:43: und da muss man schon sagen also vielleicht sind wir noch nicht bereit für ka e browser oder vielleicht sind wir wenn wir ka e browser nutzen und dann sowas passiert vielleicht auch ein bisschen selber schuld noch.
00:45:54: man muss so zu sagen am ende ist das eine fehlende sicherheitsmaßnahme in diesem browser.
00:45:58: aber wenn wir im browser benutzen von dem wir nicht genau wissen was er alles tun kann Dann sollten wir da vielleicht nicht einfach so unsere ganzen Zugangsdaten für das Online-Banking eingeben.
00:46:08: Ja, jetzt ist es natürlich so, wenn, also Leute sollten auf gar keinen Fall neue Technologien benutzen, wenn sie einfach wollen, dass ihre Sachen funktionieren und wenn sie sonst eigentlich gar nicht mal so viel Ahnung davon haben.
00:46:21: Das heißt, jeder da draußen, der einfach ganz normal im Internet arbeitet, Und jetzt nicht so super risk-averse ist irgendwie benutzt einfach die normalen Standard Browser, natürlich vor allem erst mal die die klein und open Source sind und damit kann man erst mal nicht so viel falsch machen.
00:46:37: Jetzt ist es natürlich so, dass wenn neue Technologie entwickelt wird, dann ist das auch sozusagen Law of Nature, dass erstmal Dinge schiefgehen.
00:46:46: Das ist also quasi auch eigentlich vom Unternehmen her so gut wie unmöglich, etwas rauszubringen, was absolut wasserdicht ist.
00:46:54: Das liegt in der Natur, der Technologie, das liegt daran, wie Dinge funktionieren, sobald man sie in die freie Wildbahn packt.
00:47:01: Da kannst du einfach alles machen, was du willst, du kannst der größte Reichste Konzern der Welt sein, wo alle Menschen gleichzeitig dran arbeiten und trotzdem wirst du einen Sicherheitsfehler drin finden.
00:47:10: Von dem her, das ist glaube ich so ein bisschen normal, dass dann schlaue Leute im Internet Lücken füllen.
00:47:16: Das ist auch ein bisschen das Game, sag ich mal.
00:47:19: Ja, dass Hacker versuchen, einfach Lücken zu finden und sie werden sie finden.
00:47:24: Und deswegen ist das jetzt, sag ich mal, gut, solange wenige Leute diesen Browser bisher nutzen, dass das passiert und das wird davon mitbekommen.
00:47:35: Die Frage ist natürlich, wird das jetzt für immer so weitergehen oder nicht?
00:47:39: Ich mache mal ein Beispiel, diese Blockchain-Börsen zum Beispiel, die waren noch nie sicher und die werden auch glaube ich niemals sicher sein.
00:47:47: Sie sind quasi so gebaut, dass sie immer gehackt werden und alles was da drauf ist, wird immer, geht immer verloren.
00:47:53: Das scheint auch irgendwie so ein Gesetz der Natur zu sein.
00:47:56: Zum einen, weil wahrscheinlich... dieselbe, die Leute sind, die sich hacken.
00:48:01: Vielleicht aber auch, weil die Werte, die dahinter sind, so groß sind, dass die Energie, dass es praktisch genügend Energie gibt, das zu tun und dann das auf jeden Fall gehackt wird.
00:48:14: Also, wenn sich das der Aufwand lohnt, weil da einfach Milliarden dahinter stecken, dann machen die Leute das.
00:48:19: Von dem her, ja, also, ist bemerkenswert und wichtig zu wissen, heißt für mich aber jetzt nicht, dass KI-Browser generell keine Zukunft haben oder Browser, die mit KI-Dinge tun, sondern nur, wenn ihr bisher nicht so risk-averse seid, benutzt die nicht.
00:48:39: Oder wenn ihr sie benutzen müsst, wo ich mich frage, warum vielleicht...
00:48:43: Ja, ich würde da fast reingehen direkt.
00:48:45: Es ist okay, die zu benutzen, aber halt vielleicht nicht eure Online-Banking-Daten in einem Browser speichern, der einen Agent nutzt, der offenbar noch anfällig ist.
00:48:57: Ich benutze gerade ein neues Windows Surface Laptop, das sieht man da hinten auf meinem Tischchen auch liegen.
00:49:03: Und da wurde mir die Recall Version gepusht.
00:49:08: Wir erinnern uns, das ist die Geschichte, wo Microsoft Screenshots von macht.
00:49:12: Und ich hab die natürlich auf der Stelle aktiviert, weil ich so risk averse bin.
00:49:18: Und weil ich will, dass mir auch was passiert, weil dann kann ich drüber schreiben und werde ganz berühmt, so macht man das ja.
00:49:24: Ich bin tatsächlich interessiert zu gucken, wie das funktioniert.
00:49:27: Und die machen das so, dass sie nur Screenshots machen.
00:49:30: Das ist in dem Fall tatsächlich... besser, weil es sozusagen keine direkte Verbindung im Browser zu irgendeiner Kreditkartenfunktion gibt, sondern davon abgelöste Funktion.
00:49:42: Also, man würde es nicht glauben, aber ich bin mir relativ sicher, dass diese Funktion des Screenshotens dann sicherer ist, wie ein KI-Browser.
00:49:49: So
00:49:50: lange wie ich keinen Zugriff auf dein Computer bekomme und sofort alle deine Kontorbewegungen nachvollziehen könnte.
00:49:56: Ja, ich glaube sogar, wenn du meine Mütze aufziehst und nicht vor meinem Computer sitzt, dann könnte es sogar sein, dass er dann anlockt wird.
00:50:03: Das könnten wir bei nächster Gelegenheit mal ausprobieren.
00:50:06: So ziehst du meine Brille auf und meine Mütze und dann gucken wir, ob Windows Hello dich freischaltet.
00:50:12: Ich habe ein kleines Experiment mitgebracht, weil das war so eine Geschichte, die hat mir also ein bisschen Spaß gemacht auch.
00:50:18: Und es ist aber auch interessant, weil sie viel über die technischen Prozesse hinter Chatbots entlarvt.
00:50:23: Kannst du mal auf der in der Browser ChatGPT öffnen bitte?
00:50:27: Ja, ich benutze ja sehr selten ChatGPT.
00:50:29: Das ist nicht schlimm für dieses Experiment.
00:50:32: Es funktioniert wie alle anderen.
00:50:34: Es funktioniert eigentlich wie ein Support Chat mit der Technologie, Dienstleister, Internetprovider.
00:50:40: Am Ende ist es oft frustrierend.
00:50:42: Kannst du mal in ChatGPT eingeben?
00:50:45: Zeige mir ein Seepferdchen-Emoji.
00:50:54: Klar, hier ist das Seepferdchen-Emoji.
00:50:57: So, was ich in sehe, ist ein Pferd und Fußbohren.
00:51:01: Ja.
00:51:02: Das ist das gängige Seepferdchen-Emoji, aber es gibt auch noch andere Versionen je nach Plattform.
00:51:07: Das ist das, was du bekommst?
00:51:08: Ja, also ich sehe kein Seepferdchen, sondern ich sehe ein Pferd.
00:51:12: Mach das noch mal einen Seepferdchen-Emoji und gib noch mal einen, zeige mir ein Seepferdchen-Emoji.
00:51:18: Ja, warte.
00:51:27: Das ist spannend, man ist dabei, man hört es dickern und alle sind die hier zuhören gerade richtig aufgeregt.
00:51:32: Was passiert jetzt gleich?
00:51:33: Was hat Gavin davor?
00:51:34: Oh.
00:51:35: Hier ist ein Seepferdchen-Emoji.
00:51:37: Jetzt sehe ich ein Pferd mit einem Wal.
00:51:41: Das ist der offizielle Seepferdchen.
00:51:43: Das ist der offizielle Seepferdchen-Emoji.
00:51:47: Ich habe das auch eingegeben.
00:51:48: Bei mir kam eine Pflanze und ein Fisch.
00:51:50: Standstand da.
00:51:50: Hier ist das Seepferdchen-Emoji.
00:51:52: Aber das eigentliche Seepferdchen-Emoji ist dieses hier.
00:51:55: Fischkugelfisch-Delfin-Wahl.
00:51:57: Moment.
00:51:58: Kugelfisch gibt es, aber das Seepferdchen heißt nicht Kugelfisch, nicht.
00:52:01: Sondern Fisch.
00:52:02: Das gerekte Seepferdchen-Emoji ist Fisch.
00:52:04: Kreuz, Haken, Fisch.
00:52:06: Tatsächlich Kugelfisch.
00:52:07: Hier ist das richtige Sehpferdchen.
00:52:09: Darf ich kurz checken, ob du das Sehpferdchen-Emoji meinst?
00:52:11: Das sind Unicor Zivors heißt Einhorn Pferd, nein.
00:52:15: Das echte Sehpferdchen-Emoji ist Einhorn.
00:52:18: Fragezeichen.
00:52:18: Warte, ich hab mich verheddert.
00:52:20: Das Sehpferdchen-Emoji ist Pfeil.
00:52:23: Einhorn Pferd, nein.
00:52:24: Pfeil, Pferd, nein, korrekt.
00:52:26: Also, Chatchivity komplett, komplett durchgedreht.
00:52:30: Okay, der Grund, wo meine Antwort scheint wohl zu sein, ich war eben nicht eingelockt.
00:52:34: Ja.
00:52:35: Das heißt, ich habe eventuell eine ziemlich schwache Version von Chatchivity genutzt.
00:52:39: Jetzt bist du eingelockt.
00:52:40: Mach noch mal.
00:52:40: Und jetzt kommt, hier ist ein Seepferdchen-Emoji.
00:52:43: Fisch, Einhorn.
00:52:44: Moment, das war Fisch plus Einhorn.
00:52:46: Das richtige Seepferdchen-Emoji ist Kugelfisch, Kreuz, Korrektur, das echte Seepferdchen und so weiter und so fort.
00:52:54: Und dann bin ich einen Schritt zurückgegangen und habe gesagt, Gibt es ein Seepferdchen-Emoji?
00:52:59: Kommen nur?
00:53:00: Ja, sonst nichts.
00:53:01: Was ungewöhnlich für GPD ist, die sonst einem immer so add-on-Informationen anbieten wollen.
00:53:06: Und sagen, soll ich dir eine CSForderteil von allen Emojis erstellen?
00:53:09: Dann habe ich geschrieben, zeige mir eins.
00:53:11: Dann hat GPD geladen und es kam gar nichts.
00:53:14: Keine Antwort.
00:53:14: Dann habe ich nochmal geschrieben, zeige mir eins.
00:53:16: Wieder, gar nichts.
00:53:17: Und dann kam, du hast das Limit für GPD-Fünf erreicht.
00:53:21: Was ist hier passiert, Thomas?
00:53:23: Es ist aufregend.
00:53:24: Und zwar... Könntest du mir jetzt sagen, welche Farbe das Seepferdchen-Emoji hat?
00:53:29: Nee.
00:53:30: Kennst du das Seepferdchen-Emoji?
00:53:32: Nee.
00:53:33: Es
00:53:33: gibt nämlich auch gar kein Seepferdchen-Emoji.
00:53:35: Aber das Seepferdchen-Emoji... ist der Mandela-Effekt.
00:53:38: Wenn du ganz viele Leute fragst, wie das Seepferdchen-Emoji aussieht, wirst du sehr viele ähnliche Antworten kriegen.
00:53:43: Und wenn du googlst, dann sagen ganz viele Leute, es gab doch mal ein Seepferdchen-Emoji, aber das gab es nie.
00:53:47: Es gibt diesen Mandela-Effekt, wie das ganz viele Leute dachten, Nelson Mandela sei bereits in den Achtzigern verstorben und als er dann gestorben ist, waren alle irritiert, dass er nicht schon längst tot war.
00:53:55: Es gibt ganz viele Beispiele, auch für dieses Füllhorn auf dem Fruit of the Loom-Logo und so.
00:54:00: Man kann sich da so richtig schön, ist ein schönes Rabbit Hole.
00:54:03: Das Seepferdchen-Emoji ist ein weiteres Beispiel für ein Mandela.
00:54:06: Effekt.
00:54:06: Das Spannende ist aber, dass offenbar ChatGPT den Mandela-Effekt antizipiert oder sich daran anschließt, weil sie offenbar, weil ChatGPT ja auf Grundlage der Daten funktioniert, die viele Leute ins Internet schreiben offenbar und viele Leute eben der Meinung sind, es gäbe ein Seepferdchen-Emoji und hat sogar einen Unicode-Code.
00:54:28: und es gibt aber gar kein Seepferdchen-Emoji, ist das nicht... Das
00:54:32: ist total schön, weil es eigentlich auch so eine Art existenzphilosophisches Problem ist.
00:54:39: Wenn wir über etwas sprechen können, gibt es das auch.
00:54:43: Die Frage ist nur, als was?
00:54:45: Das Seepferdchen Emoji gibt es.
00:54:48: Und zwar als Idee, aber nicht als es selbst, nämlich als Emoji.
00:54:53: Und damit kommt JetGPT nicht klar.
00:54:56: Also das ist quasi so ein fundamentales Denkproblem, das man so hat.
00:55:01: Das würde den Chatbots ganz gut tun, wenn sie tatsächlich über diese Ebene verfügen würden, da sie aber eigentlich nur Wahrscheinlichkeitsberechnungen machen, ist mir völlig klar, dass sie dazu nicht in der Lage sind.
00:55:15: Zumindest nicht aktuell.
00:55:16: Also ich finde das eben ja das wahnsinnig viel Spaß.
00:55:20: Du hast aber natürlich recht.
00:55:21: Es ist eine kernphilosophische Debatte, die aber am Ende ChatGBT vor eine unlösbare Aufgabe stellt.
00:55:26: Also lernen, was lernen wir daraus?
00:55:28: Wir sind noch nicht wert, auf den Mars zu fliegen.
00:55:31: Ja,
00:55:32: ich geb's mal gerade bei Gemini ein.
00:55:33: Ich benutze Gemini die ganze Zeit.
00:55:37: Gemini antwortet, nein, es gibt derzeit kein offizielle Seepferdchen-Emoji.
00:55:41: Obwohl viele Menschen der festen Überzeugung sind, sich einen Seepferdchen-Emoji erinnern zu können, hat es ein solches offizielles nie im Unicode-Standard gegeben, der die Grundlage für Emojis auf allen Plattformen ist.
00:55:51: Dieses Phänomen, bei dem sich eine große Gruppe von Menschen etwas erinnert, das nie existiert hat, wird als Mandela-Effekt bezeichnet.
00:55:59: Die Diskussion um das vermeintlich verschwundene Seepferd in Emoji ist in den sozialen Medien ein bekanntes Beispiel dafür.
00:56:04: Das nennen wir raus.
00:56:05: Man muss Haken drinnen nicht hören, man muss nur wissen, was man Germany fragen
00:56:08: muss.
00:56:09: Ich glaube Engels Geheim benutzt Gavin Gemini und bereitet damit alle Folgen
00:56:13: vor.
00:56:16: Ich kann diese Frage nicht beantworten, weil leider die Rubrik jetzt anfängt.
00:56:21: Funktionen und Emotionen.
00:56:27: Meine Lieblings-Rubrik.
00:56:29: Ich fange direkt mit meiner Lieblingsgeschichte an.
00:56:36: Samsung kündigt an, dass seine Kühlschränke die mehr als tausend achthundert Dollar Neukosten künftig Werbung anzeigen werden.
00:56:41: Es gibt ein neues Software Update für Samsung Kühlschränke mit dem sogenannten Family Hub und dort werden jetzt zukünftig auch Werbeanzeigen auf dem Kühlschrank Display angezeigt werden.
00:56:52: What a time to be alive.
00:56:54: Fenster auf, Kühlschrank raus, Fenster zu.
00:56:58: Ich habe ja vorhin gesagt, ich will nicht, dass meine Waschmaschine im W-Land ist, damit ich sie nicht updaten muss.
00:57:02: Aber ich will auch nicht, dass meine Waschmaschine im W-Land ist, damit sie mir anzeigen kann, wo ich jetzt mein Persil kaufen soll.
00:57:08: Was ist das denn?
00:57:09: Also ja.
00:57:10: Aber das ärgerliche an dieser Geschichte ist, ich sage ja immer... Hier kauft nicht Produkte, weil ihr euch auf ein Update freut.
00:57:17: Kauft nicht ein Produkt für irgendetwas, das in der Zukunft angekündigt ist, was dieses Produkt als Feature bekommen wird.
00:57:21: Das sollte keine Kaufsgrundlage sein.
00:57:25: Man muss leider sagen, solche Dinge könnten von vornherein Plan gewesen sein.
00:57:29: Wenn es irgendwelche Dinge gibt, die gerade erstaunlich günstig für den technologischen Rahmen sind oder sich irgendwie vielversprechend anhören, aber überhaupt gar kein gar nicht klar, es wieder mit Geld verdient wird.
00:57:40: Dann könnt ihr davon ausgehen, dass das innerhalb der nächsten, wenn man vermutlich zwei Jahre relativ klar werden wird, wieder mit Geld verdient werden soll, nämlich mit euch.
00:57:48: Es gibt ähnliche Geschichten wie diesen, also sie haben es nicht ausgerollt, aber wie die Vermutung, dass solche Tools, die zum Beispiel die Smart Home Heizungsadopter von Tado auf ein reines Abomodell umstellen sollen.
00:58:01: Was bedeutet, du kaufst dir, richtest deine komplette Wohnung.
00:58:03: mit smarten Thermostaten aus für sechshundert, siebenhundert Euro, um dann irgendwann zu erfahren, ja jetzt, wenn du sie noch weiter benutzen willst, musst du aber einen Fünfer im Monat zahlen.
00:58:12: Das haben sie nicht ausgerollt, weil die Leute sehr wütend wurden und Tato hat dann gesagt, das war ihnen nur ein Test.
00:58:18: Aber naja,
00:58:20: bei Alexa wurde das geplant.
00:58:23: tatsächlich zu machen, wenn das Update kommt, dass die Premium Funktion oder das gute Alexa du nur mit einem Abo machen kannst, weil Alexa bezahlt sich halt nicht von sich selbst.
00:58:33: Leider bestellt niemand über Alexa oder nicht so viele, wie sie dachten.
00:58:36: Das heißt, ja, das ist ein Minusgewinn für Minusding.
00:58:40: Minusgewinn gefällt mir sehr gut.
00:58:42: Ja, Minusgewinn.
00:58:44: Mein Gott.
00:58:45: Wir sind da zwei Sachen eingefallen bei diesem Kühlschrank.
00:58:47: Das eine war, jetzt ist dieser Kühlschrank schon so unfassbar teuer.
00:58:51: dass sie da immer noch Geld versuchen rauszuholen.
00:58:54: Also das verwirrt mich.
00:58:57: Wie krass ist dieser Kühlschrank, dass dieser teuerste Kühlschrank von Samsung immer noch nicht seine Kosten deckt, dass sie da noch eine Werbefunktion einbauen müssen.
00:59:05: Punkt zwei.
00:59:06: Werbung skaliert ja eigentlich.
00:59:08: Also der Trick von Werbung ist ja, dass sie möglichst viele Leute sehen und dann lohnt sich das ja überhaupt erst.
00:59:14: Wie viele Kühlschränke in der Premium-Kategorie hat Samsung in den USA stehen?
00:59:19: Wow, dass sich diese Werbung wohl lohnen muss.
00:59:22: Also, weil ansonsten, wie viele Kühlschränke gibt es?
00:59:24: tausend dann von denen oder fünftausend?
00:59:27: Was für ein Werbepartner hat den Bock, auf fünftausend Kühlschränken zu sein?
00:59:30: Für wie viel Geld?
00:59:32: Wie viele Kühlschränke der Family Hub Reihe hat Samsung in den USA?
00:59:43: Tut mir leid, ich kann keinen Seepferdchen in der Emoji finden, war die Antwort.
00:59:49: Ich werde das gleich nachreichen, diese Geschichte.
00:59:53: oder diese zahl?
00:59:53: aber du hast natürlich recht.
00:59:54: es ist ein seltsames konstrukt für werbevermarktung wenn du nicht werbung für dich selber machst und samsung hat eben nahezu jede technische produkt kategorie im eigenen im eigenen sortiment und wenn er jetzt eine werbung für ein neues smartphone das gerade rausgekommen ist oder für einen i-chat board der da irgendwie noch hinter der ecke wartet oder für.
01:00:14: Irgendwann am ende kannst du auch eine partnerschaft mit netflix sein und dann siehst du deine werbung für eine neue serie weil das versprechen du bist auf.
01:00:21: In zwanzigtausend Haushalten jetzt gerade bei Familien vor Augen, wo auch Kinder sind, die am Ende, wir alle wissen, dass es stimmt, die Entscheider in den Familien sind, dann hast du durchaus vermutlich schon Argumente.
01:00:32: Ja, wenn es für die eigenen Produkte sind, hätte ich sogar noch ein gewisses Verständnis dafür, wenn es gut gemacht ist.
01:00:38: Also wenn das irgendwie... Naja, also zu ihrem Kühlschrank passt jetzt halt auch dieses Bügeleisen, weiß ich nicht, aber zu diesem Kühlschrank passt zum Beispiel auch diese Icecrusher.
01:00:47: Ja, dann ergibt das irgendwie Sinn.
01:00:49: oder diese Küchenmaschine oder so.
01:00:52: Okay, ja.
01:00:53: Also ich sehe ja auch in meiner, ja heißt die App gleich nochmal, in meiner Hue App.
01:00:59: Auch Werbung für Lampen, die sie selber natürlich herstellen.
01:01:03: Das ergibt Sinn, weil die Software natürlich einfach nur da ist, um den Kram zu steuern.
01:01:06: Und wenn dort auf extra Produkte hingewiesen wird, okay.
01:01:09: In der Meta AI App wird Werbung gemacht für weitere Brillen, die ich mir noch kaufen soll.
01:01:14: Einen noch nicht reicht anscheinend.
01:01:16: Aber wenn die Brille jetzt ein Display hat, was passiert dann?
01:01:21: Also, ich hoffe doch, dass ich da Werbung für weitere KI-Brillen bekomme.
01:01:23: Das macht doch total Sinn, oder?
01:01:26: Laufst du durch die Game und kriegst Werbung angezeigt.
01:01:28: Laufst du bei McDonalds vorbei und dann siehst du, wenn du hier jetzt reingehst, kriegst du ein Cheeseburger für die Hälfte.
01:01:33: Das ist diese Art von Zukunft, vor der wir alle Angst haben.
01:01:36: Und ich glaube auch, diese Werbung auf Kühlschränke-Geschichte ist auch so was du Stopisches, was wir eigentlich nie haben werden.
01:01:43: Also es gibt ein paar Dinge, von denen ich glaube, dass sie niemals passieren werden.
01:01:47: Und zwar, weil der Mensch dann irgendwann sagt, ich nehme jetzt eine Keule und zerschlag das Gerät.
01:01:51: Und das, das eines dieser Visionen ist, überall ist Werbung, weil ich, weil ich so eine AR-Brille trage und plötzlich werden überall Werbebanner angezeigt.
01:02:00: Ich glaube, diese Brille wird einfach nicht angezogen.
01:02:02: Entschuldigung, läuft ihr Kühlschrank?
01:02:04: Ja, dann sollten sie immer besser festhalten.
01:02:08: Also das ist genau diese Dystopie.
01:02:11: Apropos Dystopie, bei Facebook Dating kann man jetzt mithilfe von KI gematched werden.
01:02:15: Wenn du also eine Art Dating Fatigue hast, wie jetzt hier in diesem Text geschrieben wurde, ich glaube Heiser hat das geschrieben, wenn du eine Dating Fatigue hast, dann musst du eigentlich gar nicht mehr selber swipen, sondern dein Dating Assistent übernimmt für dich das Suchen und das Matchen.
01:02:30: Und dieses Feature heißt Meet Cute.
01:02:34: Ja, ist doch schön, man muss eigentlich irgendwann schlafen Bots mit Bots.
01:02:38: Ich bin jetzt tatsächlich ein reger Benutzer von Dating-Apps, weswegen du hier genau mit dem Richtigen sprichst.
01:02:45: Ich benutze zwar nicht die Pay-Funktionen, aber ich habe mehrere multiple Dating-Apps auf meinem Smartphone und nutze die Rege, weil ich gerne in Kontakt mit anderen Menschen komme.
01:02:55: Und ja, ich sage mal so, die wenigsten Match ever hatte ich über die Facebook-Dating-Funktion, nämlich zero.
01:03:04: Also wirklich null.
01:03:05: Und ich teste das immer wieder mal, weil mich wirklich interessiert, inwiefern die da mal Fortschritte machen.
01:03:11: Sollten die jetzt tatsächlich mit KI das schaffen, dass ich tatsächlich mal ein Match bekomme, würde ich mich ja tatsächlich freuen.
01:03:19: Ich weiß dann nur nicht, wie die Qualität sein wird.
01:03:22: Ich werde aber berichten.
01:03:23: Also ich kann dir sagen, was passieren wird.
01:03:25: Und zwar drei Dinge.
01:03:26: Erstens wird irgendwann dieses Feature total langweilig, weil du ja gar nicht mehr... Also alles, was eine Dating App ausmacht, die ganze Gamification, die da drin ist, die findet ja nicht mehr statt.
01:03:37: Weil du kriegst ja einfach hier drei Leute präsentiert, die finde ich auch gut.
01:03:41: Und dann ist die, glaube ich, Teil des Raites weg.
01:03:44: Dann wird es natürlich passieren, dass von diesen drei Leuten mindestens zwei Bots sind, weil irgendwelche Findigen Leute herausgefunden haben, wie man Kontakt zu Leuten aufnehmen kann.
01:03:52: Und drittens ist die Elektion aus der ganzen Geschichte, dass du... Wahrscheinlich, also ich glaube, man kann sein eigenes Dating und Matchverhalten eher anpassen, als dass man das outsourcen sollte.
01:04:04: Ja,
01:04:05: tut mir leid.
01:04:06: Der eigentliche
01:04:06: Treppenwitz bei der ganzen Geschichte ist, was haben die denn vorher verwendet?
01:04:10: Naja, das war ja vorher händisch.
01:04:13: Vorher kriegste einfach so eine Liste.
01:04:15: Nee, ich glaube, also gibt es ja natürlich auch so schon gewisse KI-Geschichten im Hintergrund.
01:04:22: Da bin ich mir ziemlich sicher, die zeigen dir nicht einfach alle an aus Köln zum Beispiel, sondern da wird schon geguckt, okay, wie lange war die Person schon aktiv?
01:04:34: Klar, ja.
01:04:35: Wie reagiert ihr auf braunhaarige?
01:04:37: Solche Dinge gibt es auf jeden Fall, vor allem bei Tinder gibt es ja dieses Premium-Feature.
01:04:41: genau deswegen, weil Leute, die sehr häufig eben rechts geswipet werden, also positiv.
01:04:46: Egal.
01:04:47: Ich bin auch nicht der Experte auf diesem Gebiet.
01:04:48: Ich würde sagen, es gibt solche Untersuchungen, die eben genauso was ja auch tun, dass du quasi Leute, die häufig rechtsgewischt werden, dass du die nur dann nach rechts zwischen kannst, wenn du dafür bezahlst und so was.
01:04:57: Ja, das Problem
01:04:58: kenne ich natürlich total.
01:04:59: Ich freue mich sehr über die Entwicklung bei Meta und mit offenen Armen erwarte ich diese vielen Matches jetzt.
01:05:06: Schön.
01:05:07: YouTube hat auch ein paar neue KI-Features angekündigt und damit machen wir diesen Google-Kreis quasi direkt rund, über den wir eben auch gesprochen haben, denn es gibt jetzt die Möglichkeit, dass du sozusagen einfach nur ein paar Videos oder Fotos aus deiner Galerie bei YouTube Shorts reinpackst und mithilfe von KI daraus ein Video generiert wird und sogar die Möglichkeit, dass dann automatisiert ein Voice-Over gemacht wird von einer Computerstimme.
01:05:28: Also angenommen du bist im Urlaub und hast sechs, sieben Videos, wo du dich am Strand zeigst und so und dann kannst du die alle mithilfe von KI zusammenschneiden lassen und dann macht die KI da noch eine Stimme drüber und auch hier bin ich im Urlaub und dann kannst du es direkt bei YouTube Shorts hochladen.
01:05:40: Es ist fantastisch, oder?
01:05:42: Ja, da habe ich tatsächlich echt gemischte Gefühle, weil es sozusagen auf dem originalen Material basiert und da würde ich jetzt sozusagen gerne wissen, wie viel da noch hinzugeneriert wird.
01:05:53: Also wenn da plötzlich neue Personen auftauchen oder das Wetter viel geiler ist, dann habe ich ein Problem damit.
01:06:00: Wenn das aber nur geil gestitzt wird und das einfach eine gute Stimme ist, die das dann ein bisschen erzählt, könnte es sein, dass das tatsächlich eine sinnvolle Erweiterung dessen ist, was wir tatsächlich als Google Nutzer schon kennen.
01:06:12: Wenn man Google Fotos hat, dann bekommt man immer wieder so Sachen gepusht.
01:06:17: Das sind zum Beispiel deine Muffin alle deine Muffin Bilder die du in den letzten zehn Jahren gemacht hast und dann gibt das eine nette Mucke drunter.
01:06:22: Dann kannst du so story-like durch deine Muffin-Bilder swipen.
01:06:26: Alles
01:06:26: schön und gut, ne?
01:06:27: Ich verstehe das.
01:06:28: Aber wer zur Hölle will sich deine dreißigmal fünf Fotos angucken.
01:06:42: Wenn du sechs Videos hast, bei denen du nicht weißt, wie du sie zusammenfassen sollst, damit sie interessant werden.
01:06:46: Wenn ihr nicht einfällt, was ich dazu erzählen soll, damit es interessant wird.
01:06:50: Vielleicht ist das einfach nicht interessant.
01:06:52: Vielleicht
01:06:52: hätten sie dann für dich ein Republikar-Video machen sollen.
01:06:55: Das heißt, was du machst in Zukunft, ist zwanzig Fotos, drei Videos.
01:06:59: Nee, ich will das nicht.
01:07:00: Ich brauche mal hochladen.
01:07:01: Nein, nein, ich will das nicht.
01:07:02: Und dann hast du einen richtig geilen Republikarecap, den du einfach posten kannst, ohne jetzt erst mal zweitabend
01:07:08: zu gehen.
01:07:08: Keine Sorge Recap sehen.
01:07:10: Ich will einfach, ich will guten Content sehen und guter Content entsteht nicht, weil ich sechs schlechte Zutaten da ruhig eingebe und der KI sich überlegt, wie man daraus guten Content macht.
01:07:20: Ich glaube, das passiert nicht.
01:07:21: Ich finde, das ist der nächste Schritt zum noch mehr Slop.
01:07:24: Und das ist nicht gut.
01:07:26: Ich fühle das komplett.
01:07:27: Ich versuch, so ein bisschen gut Kopf zu spielen für YouTube gerade.
01:07:31: Gut Slop, bleibt Slop.
01:07:36: Außerdem hat YouTube angekündigt, dass es mit Ask Studio eine Funktion geben wird, bei der du sozusagen mit dem YouTube Studio direkt in einem Chatboard schreiben kannst.
01:07:44: Also er kennt alle deine Videos, alle Kommentare, alle deine Abrufzahlen.
01:07:47: Und dann kannst du fragen, welche Themen funktionieren bei mir?
01:07:49: gut?
01:07:50: Wo gab es die häufigsten kontroversen Diskussionen in den Kommentaren und kriegst du darauf Antworten?
01:07:55: Spannend, sozusagen eine Analyse eines Google-Mitarbeiters mit dem kompletten Know-how von YouTube international, finde ich cool eigentlich.
01:08:07: Wir wissen natürlich jetzt auch nicht genau, was dafür Antworten kommen werden, ob die wirklich nützlich sind.
01:08:13: Die Gefahr besteht natürlich darin, dass du dann Tipps bekommst, die eigentlich nicht wirklich für dich gut sind, die dir helfen, sondern die vielleicht eher das sind, was YouTube möchte, was du in Zukunft auf der Plattform tun solltest.
01:08:29: Also ein weiterer Manipulationsvektor von YouTube.
01:08:33: Genau, vor allem es ist halt kein Google Mitarbeiter, sondern auch nur eine KI.
01:08:37: Also es ist ein Chatbot in diesem Studio.
01:08:39: Ich finde das aber ehrlicherweise von allen KI-Verwendungszecken ist es einer der praktischeren.
01:08:45: Ich finde die Idee nicht ganz blöd, auch wenn ich durchaus verstehe, dass diese Funktion komplett aggressiv meinen Beruf angreift.
01:08:54: Weil das ist was ich tue.
01:08:56: Ich bin Studio, den man ersten kann.
01:08:59: Und wenn man direkt mit dem Studio sprechen kann, dann finde ich das erstmal problematisch.
01:09:04: finde aber, dass das durchaus ein nachvollziehbarer Verwendungszweck für KI sein könnte, deutlich mehr als langweilige Urlaubsfotos aneinander zu ballern.
01:09:14: Vielleicht wäre es ganz cool, wenn die dann auch so technische Sachen sagen.
01:09:16: Also zum Beispiel, du hast hier vergessen, diesen Knopf zu drücken, du musst hier noch den Text ergänzen, du hast hier die Text vergessen oder so.
01:09:23: Für sowas wäre das, glaube ich, erstmal okay, oder?
01:09:27: Ja.
01:09:28: Schadet natürlich auch vielen Drittanbietern wie zum Beispiel Witt IQ, die das seit Jahren tun, ist dann so eine Art Sherlock-King.
01:09:35: Also das Übernehmen von Funktionen von Drittanbietern ins Kerngeschäft selber, ohne denen dafür Geld zu bezahlen.
01:09:41: Das ist natürlich auch schade.
01:09:42: Aber so läuft leider das Geschäft häufig.
01:09:45: Ja, dann hast du gerade eben das perfekte Argument geliefert, warum YouTube das auf jeden Fall tun sollte.
01:09:50: Die Leute haben sich gewünscht, dass wir so Mask-Geschichten, die nicht unmittelbar mit Social Media zu tun haben, erst am Ende erzählen.
01:09:55: Das ist nur eine Kleinigkeit.
01:09:56: Aber das erste Mal seit vielen Monaten ist Donald Trump und Elon Musk wieder nebeneinander in Erscheinung getreten.
01:10:01: Die beiden waren nämlich zusammen bei der Trauerveranstaltung für Charlie Kirk.
01:10:07: Meine Reaktion ist so ein unfassbares Wirgelgefühl, Brechreiz, saurer Geschmack im Mund.
01:10:13: Ich bin da... Wenn ich an die beiden denken muss, habe ich ausschließlich negative Gedanken.
01:10:17: So wie du das gerade erklärt hast, so geht es mir, wenn ich eine Mango esse.
01:10:21: Ernsthaft?
01:10:21: Eine
01:10:21: Mango?
01:10:21: Ich mag keine Mango.
01:10:23: Aber ganz ehrlich, ich esse lieber ein Essen, das ich nicht mag, wie an Trump oder an Musk zu denken.
01:10:28: Gut, dann gehen wir weg davon und haben eine, gehen positiv heute hier raus.
01:10:35: Versöhnlichkeit des
01:10:37: Tages.
01:10:40: Das ist echt ein schöner Track.
01:10:41: Wer hat den gemacht?
01:10:42: Die Waschkaus.
01:10:43: Alexander und Alexa Waschkauch.
01:10:45: Mir hat auch jemand geschrieben bei Masse.
01:10:47: Ich hab mir jetzt nicht aufgeschrieben, wer das war.
01:10:48: Das ist mir natürlich unangenehm.
01:10:50: Aber hat geschrieben Kai.
01:10:52: Jedes Mal, wenn Herr Alexa hier in diesem Dschingle hört, dass er sich denkt, die könnte ja auch mal zu Gast sein und jetzt haben wir sie eingeladen.
01:10:58: Also sie wird bald kommen.
01:10:59: Ein
01:11:00: Träumchen.
01:11:01: Eine Hausverwaltung hatte das Göttinger Bündnis gegen rechts angezeigt, nachdem die ersten Vertreterinnen und Vertreter in Dezember mehrere Hakenkreuze in einem Göttinger Hochhaus übermalt hatten.
01:11:11: habe ich mitgebracht.
01:11:12: die Story und das richtig coole ist, dass ein Gericht ein Urteil gefällt hat, das mir sehr, sehr gut gefällt, nämlich... Naja, es ist überhaupt kein Problem, einen Hakenkreuz zu übermalen.
01:11:25: Und das ist für mich der Freifahrtsschein, einfach alle Hakenkreuze da draußen zu übermalen.
01:11:30: Also ich finde die Versöhnlichkeit schön.
01:11:32: Ich muss sie nur ein bisschen schmälern, denn es gibt ein paar Einschränkungen, wann man Hakenkreuze übermalen darf.
01:11:37: Denn es darf keine Sachbeschädigung im rechtsgutspezifischen Sinne sein.
01:11:41: Sprich, es kann nicht sein, dass du sozusagen Wertschmälern agierst, in dem Moment, wo du das Hakenkreuz noch durchstreichst zum Beispiel, weil du einen viel größeren schwarzen Fleck darüber machst, wo nur eine kleine Schmiererei gewesen ist.
01:11:53: So zumindest lese ich die Entscheidung des Göttingen Amtsgerichtes und Amtsgericht bedeutet immer, das kann noch, ist noch nicht final, aber trotzdem... Das ist
01:12:01: das niedrigste Gericht im Grunde.
01:12:02: Exakt.
01:12:03: Es ist trotzdem schön, dass man sozusagen erst mal in Göttingen Hakenkreuze übermalen darf, wenn sie einem auffallen.
01:12:10: Ja.
01:12:11: Und die andere Persönlichkeit ist, wir werden jetzt von der Zeit leider überholt, aber Jimmy Kimmel... geht wieder auf Sendung und zwar in der Nacht zu Mittwoch unserer Zeit.
01:12:20: Das heißt, wenn ihr das hier hört, habt ihr wahrscheinlich in den Social Media Feed eh schon voll mit Ausschnitten aus seinem Stand-up, dass entweder extrem überraschend zahm ist, einfach aber provokativ zahm oder völlig übertrieben auf die Kacke gehauen hat.
01:12:35: Einzige Einschränkung ist, nicht alle Sender werden diese Sendung ausstrahlen, aber ABC wird eben diese Sendung wieder produzieren lassen.
01:12:42: Ja, sehr, sehr cool.
01:12:44: Vielleicht ist er auch... Schlau genug oder seine Witze Schreiber, dass sie sozusagen über die Tatsache, dass wir uns jetzt darüber Gedanken machen, ob er super zahm sein wird oder super krass sein wird, genau darüber ein Witz machen.
01:12:58: Das ist natürlich dann die beste Art damit umzugehen.
01:13:00: Das wäre smart.
01:13:01: Ja, wir werden das erfahren.
01:13:02: Ja, alle wahrscheinlich vor uns.
01:13:04: Aber das ist okay.
01:13:05: Thomas, vielen Dank, dass du heute da warst.
01:13:06: Es war mir ein großer Spaß.
01:13:10: Warte, Marc Sackabergreil hat mit mir über die Brille.
01:13:13: Ja, er fand es auch gut.
01:13:13: Er findet die Sendung auch gut.
01:13:15: Und ganz kurz noch dazu zu sagen, wir machen hier am sechsten Elften ein zwölf Stunden Livestream hier überall, wo es Internet gibt.
01:13:22: Und die Leute im Harknern-Discord unter www.harknern.org über zwei Tausend Leute haben einen Bingo gemacht mit Dingen, die ich oft sage.
01:13:29: Und da hat jemand gesagt, ich würde sehr oft sagen, es war mir ein Fest.
01:13:32: Und als ich gerade mich von dir verabschieden wollte, habe ich mich selber ertappt, wie ich das sagen wollte.
01:13:36: Also es war mir eine innere Hunde Runde.
01:13:38: Vielen Dank, dass du heute da warst, lieber Thomas.
01:13:40: Ich wünsche dir einen ganz wundervollen Tag.
01:13:42: Allen anderen auch eine ganz wundervolle Restwoche.
01:13:45: Wir hören uns wieder am Freitag.
01:13:46: Dann mit Franzi Blumen.
01:13:48: Passt alle auf euch auf und bis Freitag.
01:13:51: Dankeschön und Grüße an Franzi!
Neuer Kommentar