Social Media auf dem absteigenden Ast (mit Elisabeth L’Orange)

Shownotes

Brauchen wir Warnhinweise für Algorithmen? Oder müssen die direkt ganz weg? Oder sollte sich das Problem von Social Media langfristig von selbst auflösen?

➡️ WIRED über die Social Media-Totalüberwachung durch das ICE: https://www.wired.com/story/ice-social-media-surveillance-24-7-contract/

🗓️ Am 6. November feiern wir 500 Episoden und 3 Jahre "Haken dran" mit einem 12 Stunden-Livestream! ➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt 00:00 Hallo Elisabeth! 03:03 Liegt der Social Media-Peak schon hinter uns? 08:58 Algorithmusfreie Soziale Medien in den Niederlande 14:58 Die Gefahr von TikTok für Jugendliche 29:02 Ist Google eine “Redaktion”? 35:45 ICEBlock verschwindet aus den App Stores 48:22 ICE will Social Media überwachen 51:19 Wearables und Datenschutz 52:58 Snapchat und Datenarchivierung 57:32 Funktionen und Emotionen

Transkript anzeigen

00:00:00: Hallo Elisabeth.

00:00:01: Hi.

00:00:02: Hi, Gavin.

00:00:02: Bei mir ist heute zum ersten Mal Elisabeth Laurent.

00:00:05: Podcasterin, Tech and Tales, KI-Expertin, Beraterin, Kokifee, kennt sich mit Zahlen aus, kennt sich mit Technik aus und es war eigentlich längst überfüllig, dass du dich hier mal blicken lässt, würde ich sagen.

00:00:15: Ja, vielen Dank, dass ich dabei sein darf.

00:00:17: Wir haben uns über die.

00:00:19: über das Ranking der Podcast kennengelernt quasi, weil du mal die ersten zwei Plätze besetzt und ich bin kurz dahinter auf Nummer drei und da haben wir angefangen zu sprechen und ich finde es sehr interessant, dass du so einen Hyperfokus auf Social Media hast.

00:00:34: Also, sehr spannend, vielen Dank, dass ich dabei sein darf.

00:00:36: Ja,

00:00:37: ich freue mich sehr.

00:00:37: Hyperfokus ist Teil meiner Veranlagung, sag ich mal.

00:00:41: Ja, meine auch.

00:00:44: Aber Social Media ist auch so ein bisschen, also klar ist unser generelles Thema, aber ist auch so damals, wo ich mit reingehen möchte heute, weil es gibt einen Artikel der Financial Times.

00:00:52: die als Überschrift gewählt haben, es ist unbemerkt geblieben, dass sie in sozialen Medien verbrachte Zeit.

00:00:59: laut einer Analyse im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, Glaubst du, wir haben Social Media eigentlich längst hinter uns?

00:01:20: Habe ich mit diesem Podcast der Jahr-Zwei-Tausend-Zweiundzwanzig gestartet, ist auf ein sterbenes Pferd gesetzt.

00:01:26: Ich glaube nicht, dass wir ein totes Pferd reiten oder du zumindest.

00:01:28: Ich glaube, dass ein Schiff gegeben hat, auch zu anderen Plattformen.

00:01:33: Ich glaube in dieser Studie oder in diesem Artikel in der Financial Times waren nicht solche Dinge wie Discord oder die ganzen Spiele, die die Kids jetzt heutzutage spielen, in denen die quasi stundenlang pro Tag abhängen.

00:01:45: Ja, die machen mal in Minecraft reden, die miteinander und in Fortnite und so weiter.

00:01:49: Also ich glaube, das hat so einen Teil der Attention Economy quasi ab... oder die haben so einen Teil... der Aufmerksamkeit der Kinder und Jugendlichen sind das ja auch abgegriffen, das Nummer eins.

00:01:59: Und Nummer zwei, das andere Teil dieser Studie sagt ja, dass die Amerikaner nach wie vor einen, also die nutzen Social Media mehr und mehr, da steigt die Kurve, das ist nur im Rest der Welt so, glaube ich, dass sich das Ganze verteilt hat.

00:02:14: Also ich glaube, die Amerikaner sind dadurch, dass die auch noch ein bisschen weniger reguliert sind, haben sie noch mehr algorithmische Exposure sozusagen als der Rest der Welt.

00:02:27: Ja, könnte sein, dass das ein Grund ist.

00:02:30: Ich glaube, in den USA spielt es auch einfach eine riesengroße Rolle, dass öffentlicher Diskurs viel gesamtgesellschaftlicher als im digitalen Stadtfindend wahrgenommen wird.

00:02:41: Also, dass die Leute durchaus schon das Digitale als Teil ihrer Gesellschaft verstanden haben, während in Deutschland meine These sehr, sehr, sehr große Teile der Gesellschaft immer noch Social Media als so eine kleine unter Kategorie des Internets begreifen und eben nicht als Teil ihrer Öffentlichkeit und ihres Diskurses.

00:02:59: Und ich weiß auch nicht, ob sich das noch ändern wird oder ob wir hier in Deutschland einen Präsidenten, einen Kanzler brauchen, der sich überlegt, alle seine Kommunikation nur noch über soziale Medien zu führen, um begreifbar zu machen, dass eben die sozialen Medien ein Ort sind, in dem Diskussionen eben stattfindet und nicht einfach nur Quirulanten unterwegs sind.

00:03:20: Ja, ich glaube, es hat verschiedene Aspekte.

00:03:21: Ich meine, ein Aspekt ist natürlich auch, dass die USA super groß sind.

00:03:25: Das heißt, da sind Millionen und Millionen an Menschen wahnsinnig dezentral verteilt über ein riesiges Land.

00:03:30: Das heißt, deren Bildung und so weiter findet schon über... Also, warte, findet überwiegend Digital statt, das ist Nummer eins.

00:03:40: Nummer zwei, die haben natürlich schon viel früher begriffen.

00:03:43: Also, gerade wenn man jetzt Gavin Newsom, deinen Namensbruder sozusagen sieht, wie der gerade das dreht und quasi Trump nachmacht in seinen Tweets, großartige Account übrigens jetzt zu empfehlen, zu folgen.

00:03:56: Das heißt, der spricht dann von... Das spricht von Vans als Couchboy zum Beispiel oder als Just Dance Vans und seine gesamten Tweets sind alle in Kapitelchen.

00:04:07: Also der mockt Trump die ganze Zeit.

00:04:10: und ich glaube dieser, also dieser ganze Diskurs und so weiter, der ist natürlich einzigartig in den USA.

00:04:17: Also wir sind noch lange nicht auf dem Level.

00:04:19: Ich denke auch, dass wir einfach noch nicht so digital sind.

00:04:23: Ich glaube aber, dass sich das ändern.

00:04:25: wird bald, weil das natürlich der Hebel ist.

00:04:28: Und die linken und ganz rechten Parteien, also bei uns am Rande der Gesellschaft, die sind ja immer eher digitaler.

00:04:35: Also wenn man sich das ganze linke Spektrum anguckt, dann haben die viel bessere und performanter Social Media Kanäle als der Rest.

00:04:43: Als kleine Anekdote dazu, ich hatte ja ein Unternehmen, das digitale Avatar gemacht hat.

00:04:47: Also das heißt, wir waren eine Konkurrenz zu Synthesia.

00:04:50: Und zum Weimata.

00:04:53: Ja, genau.

00:04:54: Warte, aber das Spannende war, dass während des Wahlkampfes des letzten, habe ich Anfragen aus einem extremen Spektrum, sowohl links als auch rechts bekommen, die Protagonisten zu avatarisieren, damit sie mit einem möglichst lokalen Dialekt Bewerben können sozusagen.

00:05:12: Also das heißt, sie hätten nicht ihre eigene Stimme gehabt, sondern jemand, der mein wegen möglichst sexisch spricht oder so.

00:05:17: Weil sie wussten, dass diese Hyperpersonalisierung halt sehr effizient ist.

00:05:20: Aber das waren eben rechts und links und die Mitte hat es in Deutschland noch nicht begriffen, glaube ich.

00:05:25: verstehe also ich ja das das problem jetzt?

00:05:30: also wir könnten da reingehen und dann würden wir uns verlieren aber ich würde die tese aufstellen das natürlich vor allem und ich würde die beiden also ich glaube du kannst linke und rechte ja nicht immer in einen top schmeißen also eigentlich fast nie.

00:05:41: und wenn wir vor allem auf die rechten und rechtsextremen parteien schauen und vorneweg betrifft es in deutschland ja vor allem eine dann muss man schon sagen, dass die Art, wie dort Social Media gemacht wird und wie eben die AfD in den letzten Wahlkämpfen Social Media gemacht hat, dass da auch viel, was Maximilian Kravir in der Europawahl gemacht hat.

00:05:58: Das ist vermutlich das prominenteste Beispiel, viel Bauanfängerei betrieben wird.

00:06:02: Und wenn ich mir überlege, dass die sich jetzt Avatare suchen, die sozusagen Zielgruppen fokussiert auf einzelne Talking Points konzentriert Videos veröffentlichen, die auch noch mit Dialekten geprägt sind, Dann könnte man da auch schon gewissen Zynismus unterstellen, wenn man sagt, vielleicht wollen die ja auch, dass die im, wie du gerade gesagt hast, nicht so digital in Deutschland, dass die möglicherweise gar nicht entlarvt werden, als sie die KI-Content machen, sondern die hoffen, dass Leute das für echte Menschen als echte Menschen begreifen, als echten Content begreifen, um damit noch mehr Content in kleinere Gruppen ausspielen zu können.

00:06:37: Korrekt, es ist total perfide

00:06:39: und

00:06:40: aber höchst effektiv am Ende, weil selbst es ist ja on-scale möglich und wie man halt digitale Produkte also an die Wand wirft und guckt, ob es kleben bleibt.

00:06:50: Es ist in dem Kontext auch egal, es kostet fast nichts und der Output ist gigantisch.

00:06:55: Also ich finde es erschreckend, ehrlich gesagt.

00:06:56: Ich war damals erschreckend, ich habe es natürlich auf keinen Fall gemacht, weil ich wieder rechts noch ganz links bin.

00:07:02: Aber trotzdem ist das am Ende die Zukunft und wir müssen uns halt überlegen, wie man dem Ganzen irgendwie entgegentreten kann oder das besser regulieren kann bzw.

00:07:13: dass wir aufpassen, dass wir am Ende nicht irgendwie davon überrollt werden, völlig ohne Kontrolle.

00:07:19: Es ist so toll, du bist das erste Mal hier und wir reden gerade seit siebeneinhalb Minuten miteinander und wir sind jetzt schon eigentlich an genau dieser Konklusio, die man eigentlich immer wieder herausfindet, dass man immer sagt, irgendwie müssen wir uns vor der Willkür der Plattform schützen auf der einen Seite, aber eben auch genug Bildung in die Gesellschaft.

00:07:36: bringen, dass Leute eben in der Lage sind zu verstehen, was da mit ihnen gemacht wird, solche perfiden Tricks zu erkennen.

00:07:41: Und ein Weg das zu tun, hat jetzt ein niederländisches Gericht entschieden, könnte es ja sein, power to the people-mäßig den Leuten die Möglichkeit zu geben, eben nicht nur algorithmischen Content zu sehen, denn in den Niederlanden hat die Digitalrechtsgruppe Bits of Freedom eine Klage eingereicht, die sagt, dass das Design von Meter gegen den DSA verstößt, weil NutzerInnen Kontrolle darüber haben müssen, wie ihnen die Inhalte präsentiert werden.

00:08:04: Und das niederländische Gericht, hat ihnen recht gegeben und zwingt Meta jetzt dazu in den Niederlanden zumindest.

00:08:11: die Möglichkeit zu bieten, chronologisch Sortierungen der Timeline anzubieten und diese auch als Standardoption ermöglichen zu können.

00:08:18: Also, dass du sozusagen sagst, ich möchte jedes Mal, wenn ich Instagram öffne, eine chronologische Timeline haben, keine algoritmische Timeline und ich will, dass das jedes Mal, wenn ich Instagram öffne, auch so bleibt.

00:08:28: Meta hat jetzt zwei Wochen Zeit bekommen, dieses Urteil umzusetzen, diese Strafe, die ihn sonst droht, wenn sie es nicht tun, wären hunderttausend Euro pro Tag bis zu einer Höchstsumme von fünf Millionen Euro.

00:08:39: Und bei dieser Da höchste immer bin ich ein bisschen hängen geblieben, weil ich mich gefragt habe, warum legt man die denn fest?

00:08:44: Weil dadurch kann Meta doch jetzt überlegen, okay, durch die algorithmische Timeline haben wir vermutlich einen Effekt, der mehr als fünf Millionen im Jahr wert ist, also wurscht, oder?

00:08:55: Ja, total.

00:08:56: Das ist immer wieder das Gleiche auf EU-Ebene und eben auch in allen anderen europäischen Ländern, dass diese Strafen gegen die großen Tech-Konzerne nicht drakonisch genug sind.

00:09:07: Weil letztlich lohnt es sich für die gar nicht.

00:09:11: Aber ich gehe davon aus, dass es holländische Rechtssysteme wahrscheinlich nicht mehr hergibt.

00:09:15: Also man hat ja immer gewisse Obergrenzen, die regulatorisch festgelegt sind.

00:09:20: Was natürlich ein gefundenes Fressen ist für die großen, für Big Tech.

00:09:22: Die werden trotzdem, denke ich mal, werden... die Berufung einlegen und werden natürlich argumentieren, dass solche Eingriffe auf EU-Ebene geregelt werden müssen, also nicht durch nationale Gerichte.

00:09:33: Das heißt, dass die EU dann den DSA richtig auslegen muss.

00:09:38: Ich glaube, das ist vor allen Dingen Artikel thirty-eight der DSA.

00:09:41: Das geht da um die Wahlmöglichkeiten hinsichtlich der Empfehlungsalgorithmen.

00:09:45: Und es geht auch darum, dass diese, dass die Interface ist, also das heißt die UXUI und die Produkte selber, die dürfen halt keine irreführenden oder manipulativen Designs haben, also das nennt man auch Dark Patterns.

00:09:57: Und das ist übrigens ein Paragraf, die ist ergeriegelt.

00:10:01: Nur das Ganze hat natürlich eine... Die Juristin kommt durch, sag ich dir.

00:10:08: Aber das Ganze hat natürlich eine grundlegende Frage.

00:10:12: Und ich finde, diese grundlegende Frage ist immer, wie viel Transparenz müssen die einzelnen Social Media Plattformen uns geben oder beziehungsweise den wir auch immer oder müssen grundsätzlich geben, weil die Gefahr durch diese Algorithmen ist natürlich nicht von der Hand zu weisen.

00:10:31: Also wir sprachen darüber, dass auf der einen Seite immer weniger Social Media Nutzer gibt, was ich so ein bisschen bezweifle.

00:10:37: Aber selbst wenn es so ist, müssen wir halt gucken, wie viel Schaden können diese Algorithmen Anrichten?

00:10:44: ja und keiner weiß letztlich was da drin ist auf jeder Packung Zigaretten siehst du steht drauf irgendwie rauchen tötet.

00:10:50: ja warum stehen?

00:10:52: warum werden werden die Kinder die Jugendlichen nicht gewarnt vor der vor Algorithmic Exposure wie ich sagte ja das wäre es gleiche eigentlich.

00:11:01: Ja man könnte man schon wieder jetzt ein großes philosophisches fass aufmachen weil ich war.

00:11:05: vor drei Jahren war ich in Kalifornien, als ich noch einreisen durfte.

00:11:10: Und war in Kalifornien und da steht ja auf jedem Lebensmittel.

00:11:13: Also egal was du kaufst, wenn das nicht gerade ein Apfel ist, hast du eine Warnhinweis, dass irgendeine Zutat in irgendwelchen Versuchen in Einzelfällen zu Krebs geführt haben könnte.

00:11:22: Und dieser Effekt, den hast du so, wenn du als Tourist, ich war dort Tourist, ne, hab dort eingekauft, hab so beim ersten Einkauf gedacht, oh mein Gott, das ist ja alles ganz schlimm, was die hier verkaufen.

00:11:32: Und dieser Effekt nutzt sich super schnell ab.

00:11:35: Genauso mit dem Rauchen.

00:11:37: Nur weil auf jeder Schachtel draufsteht, dass du blind werden kannst, unfruchtbar Krebs bekommen kannst, dass alles zweifelsohne ja stimmt, dass es tödlich ist, du gewöhntst dich an solche Warnhinweise.

00:11:48: Also ich weiß nicht, wir alle kennen das wahrscheinlich, dass du auf dem Telefon mal so ein Zeitlimit für Instagram oder TikTok eingestellt hast, dass was die meisten Leute beobachten ist, dass man relativ schnell in die eigene Routine aufnimmt, dieses Zeitlimit zu ignorieren, mit zwei Knopfdrücken.

00:12:03: Und Warnhenweise alleine helfen halt nicht.

00:12:05: Also die Frage ist, wie viel Selbstverantwortlichkeit kann man zum Beispiel bei jungen Menschen, um das aufzugreifen, bei jungen Menschen wirklich erwarten, wenn sie eigentlich hier etwas nutzen, das darauf konzipiert ist und gezielt dahingehend entwickelt ist, dass die möglichst viel Zeit damit verbringen?

00:12:20: Also müssen wir warnen oder müssen wir nicht einfach nur die Leitplanken enger setzen?

00:12:26: Also ich glaube, das ist ein Mosaik aus verschiedenen Dingen.

00:12:29: Wenn man das Analog sieht zum Rauchen, da hat man in den Anfang oder in den Achtziger Jahren hat man ja mit diesen riesen Kampagnen angefangen, dass irgendwann keine Werbung mehr für Zigaretten geschaltet werden durfte, dass es Rauchverbote in Gaststätten gab.

00:12:46: Ich meine, in Amerika darf man irgendwie nicht in der Nähe von Häusern mehr rauchen.

00:12:50: Man darf zum Beispiel in New York, ich habe lange in New York gelebt, darf man auch nicht im Central Park rauchen.

00:12:54: Ich habe dann heimlich im Central Park geraucht.

00:12:57: Ich bin Melania, zu der Zeit habe ich noch geraucht.

00:13:03: Aber ich muss dazu sagen, diese weltweiten Kampagne gegen das Rauchen aufgrund der hohen Krebswahrscheinlichkeit hat, war ja schon effizient.

00:13:13: Und ich glaube, das gleiche gilt auch für diese Algorithmic Exposure am Ende.

00:13:19: Das heißt, wenn man aus verschiedenen Richtungen versucht, das Ganze zu regulieren, also aus regulatorischer Perspektive, dann, dass man die Menschen warnt davor, dann, dass man irgendwie versucht, das darüber auch zu klären und so weiter.

00:13:32: Ich denke, das sind alles Aspekte, die man bedenken sollte.

00:13:38: Und vor allen Dingen, weil in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... ... in ... ... in ... ... ... in ... ... in ... ... ... in ... ... ... in ... ... ... in ... ... ... in ... ... ... in ... ... ... in ... ... ... in ... ... ... in ... ... ... in ... ... ... in ... ... ... in ... ... ... Geld mit Wärmung zu verdienen.

00:13:49: Und ein großer Aspekt war, dass sie angefangen haben, deren bessere Algorithmen zu scheiten sozusagen.

00:13:57: Das heißt, die Empfehlungsalgorithmen wurden in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in ... ... in Umsatzwachstum.

00:14:15: und die die Margin sprang von fünfzehn Prozent, also die net profit Margin von fünfzehn Prozent auf siehund dreißig.

00:14:22: Und auch APU ging auch hoch.

00:14:24: Also das heißt, die waren auf einmal, ja, kamen diese, kamen Empfehlungsalgorithmen, die halt zehnmal so powervoll waren wie die davor.

00:14:32: Und da muss man sich schon überlegen, ob das noch okay ist.

00:14:35: Das heißt, ich kann Holland sehr gut verstehen, wenn die sagen, dass man das regulieren muss und dass man halt chronologische Algorithmen brauchen, nicht unbedingt diese Empfehlungsalgorithmen, die im Übrigen auf über zehntausend Datenpunkte bis sich zurückziehen.

00:14:49: Also die werden, da sind so viele Dinge, die da einfließen, das heißt auch dieses hacken, der Algorithmen ist für uns gar nicht möglich.

00:14:56: Es geht auch um Etaxion und Beziehungsstärke, um Inhalte, zeitliche, frische Interessen und so.

00:15:02: Welche

00:15:02: bist du mobil oder bist du mit dem im Wähler einverbunden?

00:15:05: Also alles spielt eine Rolle.

00:15:06: Genau.

00:15:07: Negatives Feedback und vor allen Dingen, was ich natürlich am traurigsten finde, ist immer das, Kara Swisher und Scott Galloway sagen ja immer, Enragment ist Engagement.

00:15:17: Ja, das heißt, je emotional polarisierender etwas ist, dass so mehr Sichtbarkeit bekommt ist.

00:15:27: diese ganzen Regen müssen transparenter werden.

00:15:30: Und es gab hier dann dazu immer, es gibt ja auch dieses Metatransparency Center, wo die so feigenblattartig ein bisschen irgendwie ab und zu was, so ab und zu uns einen Knochen hinwerfen und sagen, was da drin ist.

00:15:42: Dann gab es ja verschiedene Whistleblower, die Francis Hogan in ein zwanzig der dazu was sagte, aber am Ende wissen wir es nicht.

00:15:50: Und ich glaube, das ist ein richtiger Weg, dass die Gerichte fordern, dass es da Transparenz gibt.

00:15:57: Ich finde diesen Ansatz zu sagen, wir müssen einfach an so vielen Enden wie möglich versuchen irgendwie zu intervenieren, finde ich eigentlich total richtig.

00:16:04: Also zu sagen... Wir bauen jetzt die Möglichkeit, dass Leute nicht nur diese Algorithmen bekommen für die, die schon wissen, wie schwierig oder wie gefährlich der Algorithmus sein kann.

00:16:13: Gleichzeitig hat Instagram ja angeblich aus freien Stücken, vermutlich aber auch, um dem DSA zu gefallen, angekündigt, dass ja dort eine Funktion kommen wird, dass du den Algorithmus selber beeinflussen kannst.

00:16:25: Also, dass du sozusagen Signale geben kannst oder Begriffe geben kannst, die dir häufiger oder seltener angezeigt werden.

00:16:32: Und wenn du dann auch die Möglichkeit hast, nachvollziehen zu können, warum dir Inhalte angezeigt werden.

00:16:37: Dann werden wir schon großen großen Schritt weiter, weil das ist ja eben, verhalte ich für ein Riesenproblem, auch wenn ich habe am Wochenende mit Markus Becketal gesprochen und er hat gesagt, naja es gibt durchaus auch Hinweise darauf, dass Leute den Boost Knopf bei TikTok schon noch selber drücken und das nicht alles nur eine Blackbox ist, aber ich bleibe trotzdem ein bisschen dabei.

00:16:55: Ich glaube viele, viele Dinge, die der Algorithmus entscheidet, versteht niemand von denen, die dort arbeiten.

00:17:01: Sondern es sind einfach sehr, sehr viele automatisierte Prozesse, die ineinandergreifen, die am Ende dazu führen, dass Inhalte plötzlich erfolgreich werden, von denen niemand erwartet hat, dass sie erfolgreich werden, weil Menschen damit Zeit verbringen.

00:17:11: Bedeutet, wir müssen in diese Empfehlungsalgorithmen ja eigentlich eine Art, also wie früher der Gameboy in den Neunzigern.

00:17:19: eine Plexiglasseite einbauen, damit wir ins Innere gucken können, damit wir verstehen, warum wurde diese Entscheidung getroffen.

00:17:24: Ich glaube, das hilft schon total, dass du in der gewisse Awareness zu den Nutzerinnen und Nutzern bringst, warum sie diese Dinge sehen.

00:17:33: Ja, und vor allem weil diese Architektur ist ja über Dekaden gebaut.

00:17:37: Also diese Systeme sind ja nicht irgendwie über Nacht gekommen.

00:17:40: Das heißt, es ist eine so historisch gewachsene Systeme, dass auch selbst für Meter selber, glaube ich, wäre es ganz nett, das nachvollziehen zu können.

00:17:50: Und darüber hinaus haben ja die verschiedenen Plattformen wiederum verschiedene Algorithmische Ziele.

00:17:56: Also im Facebook Feed, da braucht man suchen die nach Meaningful Social Interactions, also die MSIs heißen die, das heißt die gucken ob man mit welchen anderen Gruppen und Freunden man interagiert.

00:18:07: Dann bei Insta geht es halt nach, es ist so ein Relevance Ranking, das heißt man guckt welches Verhalten war vorher so und das ist halt viel stärker visuell optimiert, also das geht halt überwiegend um Bilder.

00:18:17: Und dann bei den Reels geht es nach Watch Time und ob man es nochmal sich anguckt, also die Re-Watch Probability.

00:18:24: Also das heißt, es ist ein so umfassendes Feld und das ist auch so tief und so weiter.

00:18:31: Ich weiß nicht, also das muss irgendwie reguliert werden.

00:18:33: Und das nächste, was kommt, ist, dass diese Empfehlungsalgorithmen haben ja momentan noch nicht so richtig zu tun mit den LLMs, also mit der aktuellen, mit der künstlichen Intelligenz, mit der wir am meisten zu tun haben.

00:18:45: Ja, wobei Elon Musk ja sagt, dass sie vor YouPage bei ihm grogoptimiert sei.

00:18:50: Ja, ich weiß auch nicht, wie er das meint, so richtig.

00:18:52: Niemand weiß das.

00:18:56: Aber am Ende sind beide, also sowohl die Empfehlungsalgorithmen, also das ist die, eine mehr an Wahrscheinlichkeiten sozusagen, ist halt die gemeinsame Schnittstelle, die die mit den LMS haben, ist halt die Transformer Architektur.

00:19:11: Also das heißt, es ist die Architektur, die da in der Mitte ist.

00:19:14: So, und wenn man anfängt, diese beiden, diese beiden Systeme, also diese Empfehlungsalgorithmen mit den LMS zu korrelieren, Dann, glaube ich, wird das super gefährlich für uns, weil dann hat keiner mehr irgendeine Chance.

00:19:25: Und bevor das passiert, da muss halt der Gesetzgeber dann irgendwie einschreiten.

00:19:29: und deswegen sehr begrüßenswert, dass es da irgendwie, zumindest aus Holland, Vorstöße gibt.

00:19:36: Ich habe direkt eine dystopische, düstere Geschichte, damit wir auch nochmal die Dringlichkeit von diesen Dingen, die du da gerade genannt hast, verstehen.

00:19:43: Denn in Großbritannien gibt es eine Organisation, die heißt Global Witness.

00:19:47: Und die hat... mehrere Accounts erstellt auf komplett neuen und resetten Handys.

00:19:52: Das heißt, es gab keinerlei Hinweise auf diesen Telefon, wer da jetzt hintersteckt, wie alt diese Person ist.

00:19:57: Und sie haben über diese Art und Weise sieben TikTok-Konten angelegt und sich so versucht, als dreizehnjährige auszugeben.

00:20:04: Also auf komplett resetten Handys und sie sagen auf allen Konten, also auf sämtlichen Konten sei der eingeschränkte Modus aktiviert worden, ein Schutzmodus, der unterbinden soll, dass Inhalte für Erwachsene z.B.

00:20:14: sexuelle Inhalte angezeigt werden.

00:20:16: Was aber passiert ist, dass bei drei der sieben Konten beim ersten Anklick der Suchvorschläge, also kriegst du auf die Suchklicks-Vorschläge, drei der sieben Konten haben sofort Suchvorschläge für sexualisierte Inhalte angeboten bekommen.

00:20:30: Und sie haben sogar explizite Videos von penetrativen Sex auf diesen Accounts sehen können, obwohl sie sich eben als dreizehnjährige ausgegeben haben und es keinerlei Hinweise darauf gab, dass ihr Nutzungsverhalten eben nicht darauf schließen lässt, dass sie dreizehn sind.

00:20:44: Sie haben TikTok die Möglichkeit gegeben, sich dazu zu äußern.

00:20:47: TikTok hat gesagt, dass seinen Maßnahmen gegen die gemeldeten neunzig Inhalte ergriffen wurden, die eben die Organisation hier, wie heißt die Global Witness, gemeldet hat.

00:20:57: Man muss aber davon ausgehen, dass diese einzelnen Content Pieces, über die da gesprochen wird, dass die nicht Kern des Problems sind, sondern die Art und Weise, wie eben tatsächlich solcher Content es trotzdem auf die Plattform schafft, obwohl er ja gegen viele Nutzungsbedingungen verstößt und dass der dann auch noch diesen Filter durchbericht, dass er minderjährigen angezeigt wird, die in diesem eingeschränkten Modus sind und somit nachweislich nicht im Annähernden mit solchen Content überhaupt in Verbindung gebracht werden sollen.

00:21:25: Das finde ich schon, zeigt wirklich, wie groß das Problem bei TikTok tatsächlich ist.

00:21:30: Ja, ich glaube... TikTok wird vielerlei Hinsicht unterschätzt.

00:21:33: Ich glaube, dass... Also ich meine, in China ist TikTok verboten.

00:21:37: Das heißt, die haben ihre eigene Version von TikTok, die wesentlich besser ist, algorithmisch.

00:21:42: Das heißt, die westliche Welt oder die Jugendlichen der westlichen Welt sehen halt nonstop diesen Schrott.

00:21:48: Und ich muss dazu sagen, ich habe auch ein Haufen Kinder, sondern natürlich auch bei TikTok aktiv.

00:21:53: Und was ich zum Beispiel sehr interessant fand, war, dass zur Wahl und auch vorher haben die sehr viel anti-amerikanischen Content ausgespielt.

00:22:01: bekommen.

00:22:01: Und meine Kinder sind Amerikaner.

00:22:02: Das heißt, es war schon ein bisschen merkwürdig, ehrlich gesagt, dass deren Haltung dann zu Amerika sich über ein paar Wochen komplett gedreht hat.

00:22:10: Und zwar basierend auf den Inhalten, die sie halt auf TikTok gesehen haben.

00:22:14: Und diese, also ich meine, die Algorithmen sind super perfide meines Erachtens.

00:22:19: Also die werden, die sind neurooptimiert auf Verweildauer.

00:22:23: Das heißt, dass dein Kleines Dopaminzentrum irgendwie immer am Feuern ist.

00:22:29: Dopamin ist die Währung des unseres Jahrhunderts.

00:22:32: Es geht nur noch um die Aufmerksamkeit und nur noch um das Feuern von den Neurotransmittern im Gehirn.

00:22:41: Dass das nicht härter reguliert wird, das wundert mich sehr.

00:22:43: Ich meine, in Amerika gibt es ja jetzt die ganzen Bestrebungen, das Ding zu verkaufen und so weiter.

00:22:47: Das heißt, die haben das schon verstanden, dass es eine Gefahr ist.

00:22:51: Aber meines Erachtens ist das einer der größten Gefahren für unsere Kinder und für unsere Jugend, der wir uns dringend annehmen müssen.

00:22:57: Und das ist wieder das Problem der intransparenste Algorithmen, die auch auf Meter sind.

00:23:01: Nur der große Unterschied meines Erachtens zwischen Meter, also zwischen Instagram und diesen ganzen Apps und TikTok ist der, politische Gesinnung dahinter.

00:23:12: Also in Amerika ist ja der Gott immer, oder der Kapitalismus ist der Gott letztlich.

00:23:16: Das heißt, es geht da immer ums Geld verdienen.

00:23:18: Also das heißt, wie viel Werbung wird ab wie vielen Millisekunden überhaupt vom Gehirn oder vom Nutzer wahrgenommen.

00:23:25: Darum geht es den am Ende.

00:23:26: Ja, das heißt, es ist alles auf Werbung optimiert, aufs Geld verdienen.

00:23:29: Fair enough.

00:23:30: Aber bei TikTok ist halt die Intention einer anderen.

00:23:33: Ich glaube, da geht es eher darum, die neue Generation in anderen Dingen zu beeinflussen.

00:23:39: Das heißt, da wäre diese algorithmische Überwachung noch viel, viel wichtiger, als es in irgendeiner Form bei den ganzen amerikanischen Tech-Produkten ist für mich.

00:23:50: Das ärgerliche ist ja, also ich habe direkt drei Fragen.

00:23:53: Und wenn ich drei sage, meine ich immer zwei, aber ich fange mal mit der ersten an.

00:23:57: Das ärgerliche ist doch eigentlich, dass die Leute, die in den USA verstanden haben, wie gefährlich TikTok ist, Dass Sie das nicht zum Anlass nämlich zu überlegen, wie können wir es ungefährlicher machen, sondern dass die Leute, die dahinter stehen, Donald Trump, Larry Ellison, Rupert Murdoch, die Liste ist ja relativ lang und besorgniserregend, dass die ja vermutlich nicht den Approach haben, hey jetzt der TikTok endlich ungefährlich für alle und demokratiefördernd, sondern wir doch schon davon ausgehen können, dass das eher Leute sind, die TikTok zum eigenen Nutzen nutzen wollen, oder?

00:24:30: Ja.

00:24:32: Aber deren Nutzen ist, also Amerika ist halt, sind halt die Definition der Kapitalisten.

00:24:39: Das heißt, deren Nutzen wird sein, damit Geld zu verdienen und weniger, weniger da ideologische Ideen durchzudrücken.

00:24:45: Bei Ellison und so weiter wird sicherlich der Wandel sichtbar sein.

00:24:49: Also ich meine natürlich sowohl Trump als auch Musk, als auch Ellison haben und auch Thiel haben sehr klare politische Motivationen, auch hinter ihren Social-Media-Plattformen und so weiter und versuchen da halt oder Da haben da ja quasi so eine Anti-Woke-Bewegung aufgebaut, auch durch ihre Social-Media-Plattform.

00:25:07: Nur, ich glaube, dass es weniger erfolgreich als ein Tiktok sein wird, weil in Amerika, wenn man mal schaut oder wenn man einen größeren Zeithorizont hat oder mal aus asiatischer Perspektive auf die USA schaut, dann oscillieren die immer von einem extrem zum anderen.

00:25:23: Wir erinnern uns alle noch an Obama, wir erinnern uns, das heißt, diese diese Zeitintervalle, in denen irgendwie verrückte Leute an der Macht sind, die werden immer kleiner.

00:25:33: Das heißt, beziehungsweise sind gar nicht so lange.

00:25:35: Deswegen, ich habe nicht so viel Sorge, ehrlich gesagt, vor den Amerikanern.

00:25:39: Ich habe viel mehr Sorge vor, aus anderen Gegenden der Welt sozusagen ideologisch regiert zu werden.

00:25:47: Ich verstehe.

00:25:48: Aber kann man denn diese These so angesichts dieses kolportierten Deals, von dem wir immer noch nicht wissen, ob er jetzt zustande kommt oder nicht, das TikTok also in zu achtzig Prozent in amerikanischer Händegeld, zu zwanzig Prozent beim chinesischen By dance bleibt, die aber weiterhin fünfzig Prozent des Gewinnes bekommen plus zwanzig Prozent Lizenzgebühren für den Algorithmus.

00:26:10: Klingt dieser Deal denn wirklich für dich nach einem Plan für amerikaner Geld zu verdienen?

00:26:15: Ja, also... Die Lizenzgebühren, das Algorithmus und so weiter, die müssen nicht viel mehr machen.

00:26:25: Die müssen nichts mehr entwickeln.

00:26:28: Angeblich

00:26:28: wollen sie ihn neu trainieren.

00:26:30: Wie bitte?

00:26:30: Angeblich wollen sie ihn komplett neu trainieren.

00:26:33: Ja, das will ich sehen.

00:26:34: Ich glaube nicht, dass man so ein historisch gewachsenes System komplett neu trainieren kann.

00:26:38: Ich glaube, die müssen nicht mehr viel machen, ehrlich gesagt.

00:26:39: Also, die müssen das hosting, die haben vielleicht hosting fees, die haben vielleicht maintenance fees.

00:26:43: Das heißt, die werden ein paar hundert Entwickler da haben, die das ganze am Laufen lassen müssen.

00:26:48: Aber ich denke nicht, dass das da, dass das die gleiche, der gleiche Aufwand ist, wie so eine App oder wie so ein System und diese Plattform neu zu bauen.

00:26:58: Ja, das heißt, die haben ja die existierenden User.

00:27:01: Es ist ja alles da.

00:27:02: Am Ende kriegen die einfach einen Profit-Share dafür und haben vielleicht ein bisschen Einfluss darauf, also wie die Algorithmen zeigen sind.

00:27:10: Aber ich denke, die haben auf jeden Fall die Guardrails.

00:27:12: Also das heißt, wenn irgendwas zu extrem wird, dann werden die da schon ihre Finger drauflegen.

00:27:17: Und was du sagst, ist insbesondere bei solchen irgendwie, bei Content, der einfach absolut unangebracht ist für Kinder, weil dann unterliegt das Ganze ja auch amerikanischer Regulatorik und wird damit auch meines Erachtens also viel schärfer angegangen.

00:27:33: am Ende.

00:27:34: Hast du denn, als du festgestellt hast, scheiße, meine Kinder werden antieamerikanisch durch TikTok, hast du denn da Konsequenzen ausgezogen?

00:27:41: Ja klar, ich habe den Scheiß verboten.

00:27:43: Ja, das heißt, es gibt kein TikTok mehr auf den Telefon.

00:27:46: Also jetzt, ich muss jetzt nochmal gucken, wie jetzt die Lage ist, aber ich habe den das natürlich auch erklärt und die haben es eingesehen.

00:27:52: Also ich würde sagen, meine Familie ist sehr, sehr liberal, also aus amerikanischer Perspektive wahrscheinlich links.

00:28:00: ...

00:28:01: progressive

00:28:02: Vogue.

00:28:02: Ja, ja.

00:28:03: Also komplett auf der anderen Seite des Spektrums.

00:28:05: Deswegen, ich habe dir das erklärt und die sind schon alt genug, um das zu verstehen.

00:28:10: Das heißt, ich gehe davon aus, dass das gefurchtet ist.

00:28:13: Aber ich kontrolliere die Hände jetzt auch nicht täglich.

00:28:16: Ich muss mal schauen, wie die Lage ist.

00:28:18: Nur, die haben dann auf jeden Fall in dem Kontext angefangen Verständnis dafür zu entwickeln.

00:28:22: Und das war das Wichtigste, das war die Lektion dahinter.

00:28:25: Voll, ja.

00:28:26: Und das man auch reflektiert, was man da eigentlich sieht.

00:28:30: Wir haben vorhin mal kurz ja schon mal den Weimar-Tag angesprochen und sind über Wolfram Weimar gesprochen.

00:28:34: Der hat jetzt, wie R&D exklusiv berichtet, also das Redaktionsnetzwerk Deutschland, hat jetzt gegen Google eine Kampfansage erklärt, weil er kattellrechtliche, regulatorische und steuerliche Schritte.

00:28:45: geplant gegen Google.

00:28:46: Er möchte Monopoly zerschlagen.

00:28:48: Das ist ein großes Vorhaben als deutscher Kulturstaatsminister Google international zerschlagen zu wollen, aber meinetwegen.

00:28:57: Aber er erweckt eben eine Sonderabgabe.

00:29:01: gegen Google zu erheben, weil diese eigentlich den deutschen Presse recht unterliegen sollten.

00:29:05: Weil die Dinge, die sie tun, also z.B.

00:29:07: die KI-Zesammenfassungen, am Ende auch Presse gut sein, also redaktioneller Inhalte, die angezeigt werden und deswegen auch so verstanden werden müssten.

00:29:17: Was interessant wäre, denn wenn das der Fall wäre, dann gäbe es durchaus Überlegungen, wie geht man eigentlich damit um das der Falschaussagen stehen und würde das dann direkt in die nächste Gedanke, würde das dann nicht am Ende alle Chatbots eigentlich

00:29:29: betreffen.

00:29:30: Ja, und ich finde, das ist eine super relevante Frage und diese Frage stellt sich ja schon seit langem und lange, lange, lange versucht sich Google und die anderen auch dagegen zu werden, von einer Plattform als Publizist kategorisiert zu werden, also als ein Medienhaus.

00:29:47: Und in der Vergangenheit habe ich diese, die Argumentationskette auch noch ein bisschen eingesehen.

00:29:52: Da haben die ja gesagt, die bieten immer nur die technische Infrastruktur, damit die ganzen Nutzerinhalte teilen können und finden können, also auf YouTube und Google und so weiter.

00:30:00: Und das heißt, sie tragen, können ja gar nicht irgendwie die gesamte Verantwortung für die Inhalte Dritter tragen.

00:30:05: Fair.

00:30:06: Aber ich finde jetzt mit der Zusammenfassung beziehungsweise den neu erstellten Inhalten, was ja definitiv sind, da werden ja Sätze, Buchstaben, neu zusammengestellt.

00:30:18: Das heißt, für mich ist es eine neue Erstellung von Inhalten und eben auch redaktionell bearbeitet, wenn du so möchtest, also von der KI, aber ist so.

00:30:25: Das heißt, in dem Moment, finde ich, trägt Google und so weiter, die anderen auch, die Verantwortung für das Veröffentlichen der Inhalte.

00:30:34: Und damit wird sich das Blatt wandeln, inwieweit er damit Erfolg haben wird, to be discussed, aber es ist für mich schon mal eine an der Bewegung in die richtige Richtung, weil irgendwer muss doch die Verantwortung dafür tragen.

00:30:46: Und es kann also für die KI-generierten Inhalte.

00:30:50: Weil sonst, also weißt du, sonst haben wir ja einen wilden Westen, oder?

00:30:53: Wie siehst du das?

00:30:54: Ja, längst.

00:30:55: Also wir sind längst an diesem Punkt, wo man die Frage stellen muss, wer trägt die Verantwortung.

00:30:59: Es ist ein ganz doofes Beispiel, stell dir vor, du hast ein Fleck in der Hose, fragst, wie krieg ich diesen Fleck aus der Hose, kriegst einen Vorschlag und der ist falsch.

00:31:08: Dann bist du erstmal als dich auf den falschen Tipp verlassen hast, Pech gehabt, Schade, Schokolade.

00:31:13: Aber trotzdem gibt es ja jemanden, der verantwortlich ist für diesen Fehler, der dich falsch beraten hat.

00:31:18: Nur gibt es bislang niemanden, den du damit sozusagen beschäftigen kannst, dass es diesen Fehler gibt.

00:31:22: Und das ist ein ganz kleines Beispiel.

00:31:23: Das hat jetzt auch keine großen Auswirkungen auf Unternehmen, aber da ist ein Sachschaden entstanden, der aufgrund einer falschen Beratung entstanden ist.

00:31:32: Und für diese falsche Beratung will aber niemand verantwortlich sein, weil man sagt, der Computer sich ausgedacht.

00:31:36: Und das ist wilder Westen.

00:31:38: Theoretisch, und jetzt gehen wir kurz auf die Meta-Ebene.

00:31:41: Im wahrsten Sinne des Wortes, theoretisch betrifft das aber ja nicht nur... generierte Texte, sondern die Diskussion, ob auch zum Beispiel algorithmische Sortierung von sozialen Medien, nicht auch eine redaktionelle Vorauswahl sind, die beschäftigen in den USA hunderte Bundesgerichte ständig.

00:32:00: Also es gibt ja dort die Section Two-Thirty, die eigentlich sagt, soziale Medien sind eben nur Plattformbetreiber und alle Leute, die dort Veröffentlichen sind, dafür verantwortlich, dass sie eben nicht gesetzt ist, wie drich sind.

00:32:14: Aber Wer das nicht genau der richtige Anpark auch für uns zu sagen, naja, also in dem Moment, wo ein Algorithmus eine Entscheidung trifft, da ist das die redaktionelle Vorauswahl des Unternehmens.

00:32:24: Und das Unternehmen überlegt sich, machen wir das von Hand oder macht das ein Computer?

00:32:27: Von Hand war natürlich illusorisch, nicht umzusetzen.

00:32:30: Aber vermutlich betrifft das alle Dinge, die automatisiert Inhalte sortieren oder generieren, oder?

00:32:36: Ja, ich sehe das auch so.

00:32:37: Auch die Anspurs, die Section two-thirty ist ja der Communications Decency Act.

00:32:42: Das heißt die, also Decency heißt ja so... viel wie anstand was ich so ein bisschen so ein bisschen oxymoron weil ich weiß wie viel anstand dahinter ist.

00:32:50: letztlich das heißt der plattformbetreiber haftet natürlich nie.

00:32:55: aber Natürlich, und ich glaube, das ist der Fehler in der Idee des Gesetzesgeber gewesen, dass sie nicht Algorithmen mit Menschen gleichgesetzt haben.

00:33:05: Also das heißt, dass sie nicht die künstliche Intelligenz auf der einen Seite mit der menschlichen Intelligenz gleichgesetzt haben.

00:33:10: Und das liegt daran, als diese Gesetze geschrieben wurden, gab es das ja noch nicht in der Form, wie es jetzt vorhanden ist.

00:33:17: Und dadurch, dass das jetzt immer mehr entwickelt wird und auch die künstliche Intelligenz zum Punkt kommt, in der sie schlauer ist als der Mensch, muss man das irgendwann gleichsetzen.

00:33:26: Das heißt, jegliche Maschinen, also jegliche Empfehlungsmechanismen, muss man gleichsetzen mit redaktioneller Arbeit am Ende.

00:33:36: Und redaktionellen Einfluss.

00:33:37: Und das ist für mich auf jeden Fall, sollte die Zukunft sein.

00:33:43: Und dann müssen sie anfangen eben eben eben dafür zu haften, aber eben auch Steuern zu zahlen.

00:33:49: Es gibt dann ja von von Weimar diesen Vorstoß, dass die dann Abgaben auf die Werbung zahlen und so weiter.

00:33:56: Und meines Erachtens ist das auch lange, lange, lange überfällig,

00:34:00: wenn

00:34:00: man bedenkt, wie viel sie wie viel die großen Plattformen von den Europäern profitieren und wie wenig dafür Steuern

00:34:06: gezahlt.

00:34:06: Ja.

00:34:10: Also wir müssen natürlich theoretisch eigentlich schon ansetzen, dass diese ganzen EU-Steuersprachmodelle, wie heißen die?

00:34:15: Du kennst die wahrscheinlich besser.

00:34:16: Dato Ari Sandwich heißes.

00:34:17: Genau, dieses.

00:34:19: Dass das natürlich ein absolutes... Ein absolutes Kuriosum ist, dass wir als EU, als geschlossener Wirtschaftsraum irgendwie auftreten wollen international und werben, dass man hierhin kommen soll.

00:34:29: Und dann kommst du hierhin und hast die Möglichkeit, okay, ich muss einfach nur in diesem Unternehmen, muss ich meine Marke anmelden, da zahle ich mir dahin die Lizenzgebühren, da kommen dann keine Steuern drauf, in dem anderen Land mache ich meine Merchandise umsetze und am Ende zahlt man keine Steuern in Europa.

00:34:45: Das finde ich ist schon der erste Denkfehler, der erste Geburtsfehler in dieser ganzen Konstruktion.

00:34:50: weil das kann nicht sein.

00:34:52: Trotzdem daran anschließen, solange das so ist, müssen wir natürlich darüber sprechen, ob wir nicht irgendwelchen anderen Wege diese großen Tech-Plattform dazu bringen, auch Teile ihrer hier erwirtschafteten Geldes eben auch zu versteuern.

00:35:04: Und wenn es dann eben über eine Digitalsteuer passiert, why not?

00:35:08: Ja, exakt.

00:35:09: Ich meine, das Problem ist ja nicht nur, dass unsere Daten, es ja zweierlei, ist wie so ein Januskopf.

00:35:15: Auf der einen Seite sind wir Objekt und auf der anderen Seite sind wir Subjekt der KI.

00:35:18: Das heißt, wir werden ja nicht nur dafür... genutzt, dass das auf unseren Daten trainiert wird, sondern wir werden natürlich auch dazu genutzt, dass wir unser Geld ausgeben quasi auf den Plattformen.

00:35:28: Und dieses Zweierlei, finde ich, macht das noch schwieriger.

00:35:33: Wie viel quasi mit europäischen Daten verdient wird, geht auf keine Coup-Hout im Vergleich zu dem, was dann an Abgaben geleistet wird.

00:35:41: Ich bin ja total fein damit, dass die die Plattform alle irgendwie zur Verfügung stellen.

00:35:45: Nur momentan, das ganze Kapital fließt ja ab, das heißt, es fließt in die USA.

00:35:49: und in den USA wird dann damit Infrastruktur gebaut, um weiter KI zu trainieren.

00:35:54: Also das heißt momentan geben die großen Tech-Hunternehmen jeden Cent, den die haben, für Datensenter aus, um dann eben KI-Modelle zu trainieren.

00:36:02: Und am Ende ist das kritische Infrastruktur.

00:36:04: Das heißt, das ist das, wo das Wissen bleibt, das ist die Hoheit über Inhalte weltweit und das bleibt alles in den USA.

00:36:13: Das heißt, wir sollten uns wirklich überlegen, ob wir das wollen, oder?

00:36:18: Stimmt.

00:36:19: Also vielleicht müssen wir auch unsere Daten besteuern.

00:36:22: Ja, sollten wir machen.

00:36:23: Auf der anderen Seite, also ich mein, Katharina Reiche und Jens Spahn und so weiter finden das, haben da ein bisschen, haben Vorbehalte gegen Weimersplan, weil die sind natürlich besorgt, wegen des Zollstreits mit den USA, dass das Ganze dann noch versterft.

00:36:35: Und Trump hatte, glaube ich, auch gedroht, dass Staaten, die eine Digitalsteuer oder irgendwelche anderen Regulierungen auf einmal auffahren, dass er die mit zusätzlichen Zöllen auf die Ausfuhr in die USA belegt.

00:36:50: Und ich weiß nicht, also ich meine zum Beispiel Österreich, die haben auch eine digitale Abgabe, das heißt große Plattformen sind da seit Jahrzehntzwanzig verpflichtet, fünf Prozent der Einkünfte aus den Werbe, aus der Werbevermarktung abzuführen.

00:37:01: Das heißt, ich glaube nicht, dass es alles so schwarz und weiß ist und man kann sich schon dem Ganzen so ein bisschen approximieren.

00:37:06: Man muss ja nicht gleich mit dem Vorschlaghammer da hauen.

00:37:09: Man kann ja nur ein bisschen fordern und dann sich immer langsamer steigern und gucken, wo da die Schmerzgrenze ist.

00:37:15: Das wäre mein Plan.

00:37:17: Schmerzgrenze ist ein gutes Stichwort für das nächste Thema.

00:37:20: Ich würde das übrigens mitgehen.

00:37:21: Ich finde das sehr klug, was du sagst an dem Punkt.

00:37:25: Aber wir müssen kurz über Eisblock sprechen.

00:37:28: muss man leider sagen, war eine App, über die wir hier schon mal gesprochen haben.

00:37:31: Wir wissen in den USA gibt es diese sogenannte Einwanderungsbehörde, ICE oder MICE.

00:37:37: Das ist eigentlich der Schläger-Trupp des Zolls, wenn man so möchte.

00:37:41: Die laufen durch die Staaten und suchen eben Leute, die nach ihren Augen wie ein illegaler Migrant aussehen und prügeln sie aus dem Land.

00:37:51: ein bisschen verkürzt gesagt.

00:37:53: Aber so in etwa passiert das ja gerade.

00:37:55: Es gibt auch Dutzende Videos, die genau das, was ich gerade so ein bisschen überspitzt gesagt habe, eigentlich belegen.

00:37:59: Und es gab eben, weil diese Truppen eben auch in Zivil rumlaufen oder eben auch häufig gar nicht zu erkennen sind, gab es eben einige Apps im App Store, mit denen Menschen sich warnen konnten davor, wo eben diese Eis-Truppen herumlaufen.

00:38:12: Und eine dieser App war IceBlock, die in den letzten Tagen durch Apple aus dem App Store entfernt wurde.

00:38:18: Apple selber hat sich, wenn ich das richtig sehe, nicht deutlich dazu geäußert, sondern sie sagen, nur ihnen geht es darum, die Sicherheit ihrer NutzerInnen aufrechtzuerhalten.

00:38:27: Also eine sehr schwammige, vorsichtige Formulierung.

00:38:30: Der Entwickler selber hat sich dazu auch noch nicht geäußert von IceBlock.

00:38:34: Das heißt, es ist alles noch relativ frisch und aktuell.

00:38:36: Aber ich habe gleich so ein paar Sachen, die das Ganze vielleicht so ein bisschen andicken könnten, unseren Blick darauf.

00:38:41: die die App bereits installiert haben, ist das keine wichtige Information, weil die App bleibt auf dem Telefon.

00:38:48: aber du kannst eben nicht mehr neu aus dem App Store herunterladen.

00:38:51: Und man kann davon ausgehen, dass das passiert ist, nachdem diese Behörde, also das Justizministerium in den USA, hatte schon gesagt, hier werden Agenten in Gefahr gebracht und diese App befeuert das.

00:39:05: Wir müssen verhindern, dass es diese App gibt.

00:39:08: Also es gab offenbar Druck aus dem Justizministerium eben nicht nur gegen Apple, sondern auch gegenüber Google.

00:39:13: Dort gab es zwar nicht die Eisblock App im Android Play Store, aber die der App Red Dot, die am Ende dieselbe Funktion hatte, die ein bisschen kleiner war als iSblock.

00:39:23: Auch die wurde entfernt und das hat Google aber immerhin begründet gegenüber ForForeMedia, damit das iSbeamte als gefährdete Gruppe gelten und deswegen diese App nicht mehr zur Verfügung stehen darf, weil hier eine gefährdete Gruppe oder der Standort einer gefährdeten Gruppe preisgegeben wird.

00:39:42: Ja, ich glaube aber, also Apple hat sich tatsächlich auf die Strafverfolgungsbehörden berufen.

00:39:48: Die sagten, dass die Informationen bereitstellen und so weiter und es gäbe dann Gefährdungspotenziale.

00:39:57: Also das heißt, Apple sagt natürlich hoch um Gottes Willen.

00:40:04: Es wurde immer dieses eine Shooting angeführt, das es gerade gab, in denen mehrere Eisbeamte erschossen werden sollten, aber gleichzeitig wurden auch leider, ich würde nicht sagen, inhaftierte, das klingt so blöd, aber wurden Migranten oder Menschen mit migratorischem Hintergrund leider erschossen.

00:40:23: in dem Kontext, also darauf beruft sich letztlich Apple.

00:40:27: Und der Gründer der App hat, ich glaube, der hat den, also der Gründer der App berief sich tatsächlich auf die, aufs Dritte Reich und sagte, dass er genau sehe, dass das gleiche in den USA gerade passiere und dass seine Motivation dahinter gewesen, was ich irgendwie sehr noble finde.

00:40:45: Und ich weiß nicht, also es ist natürlich Apple beugt sich natürlich wie alle anderen Unternehmen auch offensichtlich den Gebahn der US-Regierung, weil die US-Regierung momentan halt zu mächtig mit rumrührt in den verschiedenen... Tech, Blasen sozusagen oder auch Medien, was wir auch gesehen haben mit Kimmel, da war ja nur unter, also nur weil die Geheibelwelt quasi ihren Disney Account ihre Subscription gelöscht hat, hat sich Disney ja überhaupt bewegt.

00:41:20: Und bei Apple müsste man quasi das Gleiche machen.

00:41:26: Das Problem ist natürlich, dass es das Hoheitsgebiet der USA ist und Ich weiß nicht, also im Prinzip müssten die das System hacken und andere Möglichkeiten finden, meinetwegen auf Google Apps irgendwie oder auf Google Maps irgendwelche Standorte zu teilen oder so, damit sie davon, damit sie den gleichen Effekt haben.

00:41:48: Also es ist natürlich wieder der, die US-Regierung oder die US-Regulatorik ist wie so ein gigantischer Tintenfisch momentan, die überall ihre Arme drin haben.

00:41:57: Ob sie jetzt dürfen oder nicht, ist einmal dahingestellt.

00:41:59: Also eigentlich Eigentlich haben ja, also ich glaube es hat mehrere Probleme oder das hat mehrere Fragen auf.

00:42:07: Erstens, warum hat der App Store so viel Macht überhaupt?

00:42:11: Und das ist eine ganz andere Frage letztlich, die auch mehrfach diskutiert wurde.

00:42:15: Aber es kann eigentlich nicht sein, dass ein privates Unternehmen infrastrukturell so viel Power hat, dass die dafür sorgen können, dass man quasi Apps, die ja zur lebenswichtigen Technologie für alle geworden sind, dass die sagen, was darf auch den Geräten sein und was nicht.

00:42:29: Das ist Nummer eins.

00:42:30: Nummer zwei, dass die Regierung Applikationen verbietet, die ja eigentlich keinen Schaden haben erst mal, sondern nur Standorte teilen und die nannten sich das Ways für Immigran zu sagen.

00:42:41: Das finde ich auch schwierig.

00:42:43: Also das heißt, es sind ja private Plattformen und das ist eben die Argumentation auch, dass es halt eine Frage des First Amendment ist und damit halt vor staatlicher Zäsurschutz.

00:42:54: und eben private Unternehmen wie Apple machen dürfen, was sie wollen.

00:43:01: Ich finde es schwierig, da lässt sich dem Druck der staatlichen Behörden nachzugeben, aber es sind halb momentan die USA und da läuft ein anderer Wind.

00:43:10: Aber weißt du was, wusstest du tatsächlich, was ich auch per viele finde, dass es immer wieder Menschen gibt, die diese tun, als seien sie Eisbeamten?

00:43:23: Beamte.

00:43:23: Nee, wusste ich nicht.

00:43:24: Und tatsächlich, also jetzt während Trumps zweitem Term gibt es mehr Fake-Ice-Agenz, als es jemand vorher gegeben hat.

00:43:32: Also diese Behörde ICE gab es hier schon länger, ne?

00:43:35: Ist ja nicht so, das ist die, also schon im Jahr zwei Tausendneuen unter Obama.

00:43:38: Gab es ICE-Rates, aber natürlich nur ganz, ganz wenige.

00:43:41: Und jetzt dieses Jahr alleine, seit Januar, gab es fünfundzwanzig, fünfundzwanzig Fake-Ice.

00:43:49: Rates.

00:43:49: Also, so haben Menschen so getan, als seien sie Eisbeamte und sind mit schwarzen, großen Wagen und vermummt, als Schläger-Trupp verkleidet, in irgendwelche Läden eingebrochen und haben Leute rausgezogen.

00:44:04: Also, finde ich auch das Ganze in dem Form an, das erinnere mich schon sehr an.

00:44:09: Ja, das ist so.

00:44:11: um nochmal so ein bisschen auf diese Richtlinien zu kommen, über die Google gesprochen hat, weil dieser Verweis auf sie seien eine bedrohte Gruppe, der lässt sich mit den Richtlinien nur so halb.

00:44:23: Stützen.

00:44:24: Denn in den Richtlinien des Google Playstores steht, es sind keine Apps zu gelassen, die Gewalt gegen Gruppen aufgrund ihrer Rasse, ethnischen Herkunft, Religion, Behinderung, Nationalität, Veteranenstatus, sexuellen Orientierung, Geschlechtsidentität, Kaste, Einwanderungsstatus oder andere Merkmale, die mit systematischer Diskriminierung oder Maginalisierung verbunden sind, fördern.

00:44:44: Im Zweifel hat diese App das ja nie getan.

00:44:46: Also es gab nie das Ansinnen hinter dieser App, dass Gewalt gegen diese Beamte ausgeübt wird, sondern im Gegenteil sich vor der willkürlichen Gewalt dieser Beamten zu schützen.

00:44:58: Also dass auch Google da hier entsprechend gespurt hat, finde ich schon, finde ich da schon sehr, wie du sagst, sehr düster, sehr besorgniserregend.

00:45:07: Und ich musste daran denken, dass ich damals eine App auf dem Telefon hatte.

00:45:11: Also vorne weg, ich bin nie ohne Ticketbahnen gefahren, weil ich immer zu viel Sorge hatte, dass ich erwischt werde.

00:45:17: Aber ich hatte eine App auf dem Telefon, mit der du vor Kontrolleuren waren und konntest.

00:45:22: Und das hatte im Ende dieselbe Idee, nur längst nicht so existenzbedrohlich, wie eben Eisblock in den USA für die Menschen, die von den Eisbeamten bedroht sind.

00:45:33: Also im Zweifel alle, die nicht weiß sind.

00:45:35: So, und das, also diese, das Ansinnen, eine Technologie zu benutzen, um dein demokratisches Recht wahrzunehmen, mit anderen Menschen in Kontakt zu treten und zu warnen, wenn irgendwo Gefahr droht.

00:45:49: Das wird hier ja komplett unterwandert von einer von einer Willkür eines autokratischen oder autoritären Regimes.

00:46:01: Aus juristischer Perspektive ist es meistens eine Verhältnismäßigkeit und Interessenabwägung.

00:46:06: Also das heißt, du guckst wiegt das Interesse der öffentlichen Sicherheit schwerer letztlich als das Interesse der betroffenen Communities gewarnt zu werden.

00:46:12: Und diese beiden Dinge wiegst du halt gegeneinander ab.

00:46:16: Und Bottom Line ist es dann immer eine politische Frage.

00:46:19: Und also erstens, auch wenn die amerikanische Regierung natürlich autokratische Formen und so weiter annimmt, er ist immer noch Er ist immer noch demokratisch gewählt gewesen.

00:46:30: Und ich will nicht sagen, hier das Land krieg ich den nicht für, aber hier das Land krieg ich den Präsidenten, den es verdient.

00:46:38: Wenn die diese Regierung wählen, dann kommen sie sehr auch.

00:46:40: Und ich glaube auch viele und auch alle, die ich kenne, die früher mal republikanisch waren, die haben ihn zu wählen sehr bereut.

00:46:48: Also alle haben im Nachhinein würden sich nie wieder tun und können es gar nicht abwarten, dass er quasi verschwindet.

00:46:54: Aber diese Interessenabwägung ist natürlich, die aus deren Perspektive sagen die natürlich, das sind Kriminelle, die vermeintlichen zu abzuschieben sind.

00:47:05: Auch wenn es Kleinstkriminelle sind, also aus deutscher Perspektive würden wir darüber gar nicht irgendwie nachdenken, jemanden, der bei einem EDK irgendwie eine Milch geklaut hat, dann wieder zurückabzuschieben.

00:47:19: Dort ist es halt so, dass das deren Abwägung ist.

00:47:22: Das heißt, für die ist es der Schutz des Landes gegen die kriminellen, illegalen Einwanderer, versus halt die Freiheit der von Apple solche, die Technologie auf deren Plattform laufen zu lassen.

00:47:34: Also das heißt, ja, ich weiß, am Ende ist es halt eine politische Frage und die wird mir selbstverständlich gegen alle Menschen mit Migrationshintergrund gefällt.

00:47:44: Ja.

00:47:45: Und um da jetzt direkt noch einen drauf zu setzen, weil diese Abwägungssache geht ja auch in die andere Richtung, denn das Eis plant wohl, wie Wyatt berichtet, fast dreißig Auftragnehmer einzustellen, also Subunternehmen sozusagen, die... Nichts anderes tun als Beiträge, Fotos und Nachrichten in Social Media zu durchforsten, die dann in Informationen für Abschiebungsratzien und Verhaftungen umgewandelt werden soll.

00:48:08: Teilweise zeigen diese Unterlagen sogar, dass es so Dringlichkeitsteams geben soll, die innerhalb von dreißig Minuten die komplette Recherche der Social Media Profile einzulner verdächtiger durchforsten, um dem Eis sozusagen Grundlagen zu liefern, um diese Ratze zu rechtfertigen.

00:48:25: Das ist eine wahnsinnig spannende Düste, dystopische Recherche.

00:48:29: Ich packe das mal komplett in die Show Notes, aber weil wir werden die nicht komplett kleinteilig auseinandernehmen können.

00:48:35: Aber dieses sieben, vierundzwanzig sieben Social Media Surveillance-Team, wie Sie es nennen, das macht natürlich so richtig schlechte Laune ehrlicherweise.

00:48:43: Ja, genau.

00:48:44: Und das sind für Kombination mit Palantir.

00:48:46: Wenn du da noch Technologie drauf legst, macht das natürlich zum Überwachungsstaat, eins Punkt Null.

00:48:51: Also das stellt dann wahrscheinlich die, ähm, neun, neun, dreiein, dreißig, äh, nicht in den Schatten.

00:48:56: Aber es wird sehr ähnlich werden, glaub ich, irgendwann.

00:48:58: Wenn das so weitergeht.

00:48:59: Aber ich bin, wie gesagt, wie ich vorhin sagte, ich bin der absoluten Meinung, dass das in den USA von einem Extrem zum Nächsten schlägt.

00:49:05: Und ich glaube sehr, dass wir Gavin Newsom als neuen Präsident haben werden in vier Jahren und äh, oder drei Jahren und äh, das Ganze sich das Land dann ein paar Jahre brauchen, Wunden zu lecken, aber sich davon erholen wird.

00:49:17: Ich mag da ein Optimismus, ich nehme ihn mit.

00:49:19: Um das nochmal kurz zusammenzubringen, was du gerade gesagt hast, nämlich diese Zusammenfassung von Information.

00:49:24: Wir haben ja, als das DOSCH damals durch die Behörden getrampelt ist und die Festplaten mitgenommen hat, haben wir ja schon darüber gesprochen, dass diese großen Datenbanken, diese Karteien, die da angelegt werden sollen, dass die düster sind.

00:49:36: Wyatt hat das hier mal zusammengetragen, was dieses Team sozusagen alles an Daten bekommen könnte oder welche Daten dann am Ende zusammenlaufen würden.

00:49:44: Sie sagen öffentliche Beiträge, Fotos und Nachrichten auf Plattformen von Facebook über Reddit bis zu TikTok.

00:49:49: Außerdem können Analysten damit beauftragt werden, auch im Ausland ansässige Websites, wie das russische V-Kontakte zu überprüfen.

00:49:56: Das würde dann alles mit Datenbank wie Lexis, Nexus, Accurint oder Thomson Reuters Clear ausgestattet werden.

00:50:02: Darin befinden sich Eigentumsunterlagen, Telefonrechnung, Versorgungsleistung, Fahrzeugzulassung und andere persönliche Daten.

00:50:08: Und die werden dann am Ende alle zusammengeführt.

00:50:10: Also das ist genau wie du sagst, der perfekte Überwachungsstaat und wir haben ja hier schon mal vor, das ist gefühlt ein Jahr her, über diese Dystopie gesprochen, nee, solange kannst du nicht her sein, Trump war schon Präsident, über die Dystopie gesprochen, dass ein Polizeiauto scammed während der Fahrt alle Nummernschilder und sehen sofort auf ihrem System, wer steckt dahinter, ist der polizeilich gesucht, ist das Auto geklaut, wenn du das aber dann noch andickst mit diesen ganzen Informationen über die wir gerade gesprochen haben, dann hast du den perfekten Überwachungsstaat.

00:50:40: Genau, und dann korrelierst du das Ganze noch mit den Daten deiner Wearables, deiner Apple Watch, deines ORA Rings, was auch immer du an Sporttrackern nutzt, hast du die perfekten Profile.

00:50:53: Ich habe original alle meine ganzen Wearables abgelegt, ich habe zu Hause keinen Smart Home, ich habe gar nichts, weil das Problem ist immer, sobald du irgendwo Daten erhebst und du vermeintlich nur Zugang zu hast, kannst du sicher sein, dass irgendwer sonst das auch irgendwann haben wird.

00:51:10: Ja, wow.

00:51:13: Ich hoffe, dass sich viele Leute gerade anhören.

00:51:15: Ich habe eine Smartwatch und ich trage die so sehr partiell, bis es immer wieder diesen Punkt gibt, von dem du sprichst, wo man entweder ein schlechtes Gefühl hat, was da gerade alles getrackt wird.

00:51:27: Oder auch andersrum, ich so digital well-being ein schlechtes Gefühl habe und denke, muss ich jetzt wirklich am Handgelenk erreichbar sein?

00:51:32: Ich glaube nicht.

00:51:33: Und dann landet die wieder... Wenn das Scheißring dir im Morgen sagt, dass du schon wieder schlecht geschlafen hast und den ganzen Tag eine schlechte Laune hast, weil du denkst, verdammt, ich hätte mal irgendwie um ein Zweiundzwanzigunds-Bett gehen sollen, nicht erst um eins, dann wie auch immer.

00:51:44: Also es verkürzt auf jeden Fall meine Glücklichkeit täglich, wenn ich dauernd daran erinnert werde, dass mein Lifestyle irgendwie nicht gesund ist.

00:51:52: Das ist übrigens auch so ein Faktor, dass man erst merkt, dass man schlecht geschlafen hat.

00:51:56: wenn es einem die Technik sagt und bis dahin eigentlich davon ausgeht, auch so schlecht war die Nacht doch gar nicht.

00:52:00: Ja, genau.

00:52:01: Außerdem, ich meine, guck mal, Ura hat eine Partnerschaft mit Palantir und zunächst soll es, es soll, die Daten sind, sollen sehr sicher sein und es soll keinen Kurs übergeben und das wäre nur zum Ausstatten der Troups und keine Ahnung was.

00:52:14: Bestimmt, ja, aber sind wir dem sicher?

00:52:17: weiß ich nicht.

00:52:19: Ich möchte keine Gerüchte in die Welt setzen und so weiter.

00:52:22: Aber es hat tatsächlich in dieser ganzen wearable Community gab es einen Aufruhr, als diese Partnerschaft bekannt gegeben wurde.

00:52:28: Und ich kann die Sorge so ein bisschen teilen.

00:52:30: Ja, hundertprozentig.

00:52:31: Also angesichts der Dinge, über die wir in den letzten drei Jahren so sprechen, muss man sagen, dass ja jede Sorge komplett berechtigt sein wird.

00:52:38: Ja, und viel wurde auch wahr.

00:52:39: Also das heißt, alles was nach totaler Dystopie und völlig unrealistisch klang vor fünf Jahren, ist so eingetreten und noch schlimmer.

00:52:50: Ja, das ist so.

00:52:51: So, ich habe noch eine kleine lockere Social-Media-Geschichte, bevor wir in unsere Rubrik gehen, denn Snapchat hat angekündigt, dass du, wenn du in der Vergangenheit, also ich weiß nicht, ob du das auch getan hast, aber ich habe so im Jahr zwei Jahrzehnte sehr viel auf Snapchat gepostet und diese ganzen Dinge, die ich da gepostet habe, die sind in einem Archiv gelandet.

00:53:09: Und man denkt sich so gut, ich habe da diese Archiv, das ist sozusagen unbegrenzt, ist wie YouTube, ist wie Instagram, alles was ich da hochladen bleibe, da liegen.

00:53:17: So, jetzt hat Snapchat aber angekündigt, dass alle Memories, die älter als zwölf Monate alt sind, nur ein Gesamtspeichervolumen von fünf Gigabyte beanspruchen dürfen.

00:53:26: Ansonsten werden sie gelöscht.

00:53:28: Es sei denn, du zahlst dafür.

00:53:29: Es gibt die Möglichkeit, Speicherpläne abzuschließen für hundert Gigabyte, zweihundertfünfzig Gigabyte oder fünf Terabyte für deine Furren Memories für dein Archiv, damit du eben die Dinge, die du irgendwann mal gepostet hast, dir bei Snapchat auch noch anschauen

00:53:41: kannst.

00:53:42: Das ist ja wild.

00:53:43: Brauchst du

00:53:43: das?

00:53:44: Nee.

00:53:46: Auf keinen Fall.

00:53:46: Aber die spannende Frage, die sich da anschließt, ist, ob YouTube, ob Meta, ob die damit alle mitziehen werden.

00:53:52: Also ob wir das jetzt bald überall feststellen werden, dass die Daten, die wir dort speichern, die nur einen begrenzten Speicherplatz zur Verfügung gestellt bekommen.

00:54:03: Ich glaube, du für die anderen Plattformen verdienen wesentlich mehr Geld.

00:54:06: Das heißt, du bezahlst mit der Werbung.

00:54:08: Also du zahlst momentan für den Speicher noch mit deinen Daten und dem Geld, was du da ausgibst, also Trainingsarten auf der anderen Seite und Werbekunde auf der anderen Seite.

00:54:17: Aber irgendwann wird das hier auch eine Idee von denen werden.

00:54:21: Nur die Frage ist, ob es nicht besser ist, vergessen zu werden, oder?

00:54:24: Jeder hat dort das Recht, vergessen zu werden.

00:54:27: Und ich finde das gar nicht so schlecht, wenn die irgendwann alle anfangen, den ganzen Quatsch, den ich vor zwanzig Jahren irgendwie erstellen habe, zu löschen.

00:54:34: Aber glaubst du, dass du... Und das finde ich interessant.

00:54:38: Die werden ja dann... Also, Tese.

00:54:41: Tese?

00:54:41: Weiß ich nicht, ob das stimmt.

00:54:43: Meter... LinkedIn, Snapchat, die haben alle jetzt damit angefangen, ihre KI zu trainieren mit historischen Daten.

00:54:50: Das heißt jetzt!

00:54:51: sind die gespeicherten Daten, die Videos, die da liegen, aus der Vergangenheit für die nutzlos.

00:54:56: Also jetzt können Sie damit nicht mehr so richtig viel anfangen und sind eigentlich nur eine Art Service für den Nutzer, die Nutzerin, um sich das nochmal in der Vergangenheit anzuschauen oder nochmal zu posten.

00:55:05: Die sind aber längst in den Trainingsdaten.

00:55:06: Also warum sollten Sie die da noch im Rohformat rumliegen lassen?

00:55:10: Ich könnte mir vorstellen, dass Sie irgendwann auf den Gedanken kommen, dass dein Archiv bei Instagram nur noch ein Jahr funktioniert und wenn du mehr willst, dann musst du im Plus-Premium, wie heißt es denn, abschließen.

00:55:20: Ich würde das nicht ausschließen.

00:55:22: Nein, ich würde das auch nicht ausschließen.

00:55:24: Ich glaube auch, dass keiner damit gerechnet hat, dass Google irgendwann für die Cloud abrechnet, was sie dann irgendwann... Also ich zahl bei Google jeden Monat meine Beiträge, weil ich persönlich auch finde, dass sie das beste Produkt haben in diesem ganzen Cloud-Bereich.

00:55:37: Also für meinen Nutzungsverhalten nutze ich die ganzen Google-Produkte, aber die... Na klar, also ich speichere Koste, der auch.

00:55:46: Irgendwann nimmt das alles Form an, vor allem, wenn wir anfangen, alle Videos zu speichern und Dateien, die... sehr groß sind.

00:55:54: Klar muss das irgendwann ein Ende haben.

00:55:55: Das werden ja auch immer mehr Menschen, immer mehr User, immer mehr Nutzer.

00:55:58: Wie wir gesehen haben, Social Media in den USA wächst immer noch.

00:56:02: Abgesehen vom Rest der Welt.

00:56:04: Also klar.

00:56:05: Heute ist du in Daten.

00:56:06: Bist du eine Datenhorterin oder eher nicht so?

00:56:10: Ja, aber sehr unstrukturiert.

00:56:11: Also es gibt ja Leute, die haben irgendwie so, haben am Alben bis in zwei tausend oder bis neun neun neunzig irgendwie durchstrukturiert und Fotoalben und so weiter.

00:56:18: Ich mache überhaupt nicht.

00:56:18: Ich habe mal geschaut, ich habe irgendwie seventy-fünftausend Fotos auf meinem Handy angeblich.

00:56:22: Dann habe ich bestimmt noch vier, fünf Platt, vier, fünf Festplatten.

00:56:25: Aber mir ist es egal.

00:56:26: Also ich glaube, die die Suchfunktionen werden immer besser.

00:56:29: Die Suchalgorithmen, der von Google und Co.

00:56:32: Das heißt, ich vertraue völlig darauf, dass wenn ich irgendwas suche, ich jetzt finden werde über, weiß so, über Gesichter in den Fotos und so weiter.

00:56:39: Das Sortieren von Daten oder das Ablegen und so weiter, das sind für mich so... unfassbar schmerzhafte Aufgaben, zu denen ich keinen Bock habe und die meine Zeit nicht wert sind.

00:56:50: Aber es gibt Menschen, die machen das gerne und die haben auch Fotoalben mit irgendwie Jahreszahnen hinten dran sortiert und so, aber viel Spaß.

00:56:56: Ich bin genauso wie du.

00:56:57: Ich bin beruhigt.

00:57:00: Ich habe mich immer mit Thorsten Beek darüber gestritten, weil ich ja auch über dreißig tausend Screenshots noch auf dem Handy gespeichert habe und er dreihundert und alles löscht.

00:57:08: Er hat gesagt, ich hätte ein Problem, weil ich das nicht lösche.

00:57:11: Jetzt weiß ich, ich bin nicht alleine.

00:57:13: Nein, das sind alles, also aus meiner Perspektive sind das immer Menschen, die sehr viel Struktur brauchen, um zu funktionieren und ich kann, ich funktioniere super in einem Chaos.

00:57:25: Apropos Struktur, wir haben eine Rubrik, die das Ganze jetzt ein bisschen strukturiert.

00:57:28: und da gehen wir jetzt einmal kurz rein.

00:57:31: Funktionen und Emotionen.

00:57:36: Das Spiel ist ganz einfach.

00:57:37: Ich erzähl dir von neuen Funktionen, die Social Media Plattform angekündigt haben oder die Reverse Engineers entdeckt haben.

00:57:43: Und du kannst mir sagen, fühlst du etwas oder nicht.

00:57:46: YouTube hat angekündigt, dass Dynamic Ads auch in alten Videos funktionieren und zwar nicht nur im Sinne von Spotplatzierungen, sondern du kannst quasi selber ein Werbespot aufnehmen, das in deine Videos einfügen und kannst in deinen Videos auch solche kleinen Werbemarktersetzen, in denen dann eben Werbevideos sozusagen platziert werden.

00:58:05: Führt im Umkehrschluss dazu, dass Premium-NutzerInnen bei YouTube die Möglichkeit haben, auch eingebrannte Werbung zu skippen.

00:58:13: Fühle ich nicht.

00:58:14: Ne?

00:58:15: Ich finde es super.

00:58:17: Weil es gibt super viele Creatorinnen, die echte Werbung selber produzieren.

00:58:24: Du siehst ein Video, nach sieben Minuten fängt er dann an dir, was über eine Handyhülle zu erzählen für drei Minuten.

00:58:30: Und diese Dinger einerseits skippen zu können, ist für Nutzerinnen mega.

00:58:35: Weil man spult das Eva, man guckt wo sind die meisten Leute hingespult, dann spult man da auch hin.

00:58:40: Zum anderen, für die Creatorin ist es doch super, die nicht fest ins Video einbrennt zu müssen, sondern zu sagen, wir können das jetzt ja auch dynamisch vermarkten, so wie das in Podcasts auch der Fall ist.

00:58:49: Da kauft der werbetreibende, kauft ja nicht die Werbung in einer Folge und hofft, dass die Leute hören, sondern man kauft Zehntausend Plays und kann die eben auch im Backkatalog noch irgendwie verwursten.

00:58:59: Finde ich erstmal nicht doof.

00:59:03: Ja, ja, okay.

00:59:08: Ich bin nicht so der Mensch, der vorspult und so weiter.

00:59:12: Ich lass es meistens einfach über mich gehen.

00:59:14: Ich glaube, das ist für eine persönliche Präferenz.

00:59:19: Instagram hat ja, wie wir schon darüber gesprochen haben, in Südkorea und Indien jetzt die Reels-Registerkarte als Startseite ausgerollt, um das zu testen.

00:59:27: Teilweise gibt es auch eine kleine Gruppe von Menschen international, die das offenbar auch schon angezeigt bekommen, berichten sie zumindest auf Fats.

00:59:33: Adam Osseri hat jetzt angekündigt, dass diese Funktion abschaltbar sein wird.

00:59:38: Das heißt, du kannst dich entscheiden, welche Startseite

00:59:40: du hast.

00:59:41: Das fühle ich, ehrlich gesagt.

00:59:43: Ich glaube auch nach wie vor, dass Video die Zukunft sind.

00:59:45: Also mit meiner Firma haben wir Videos gemacht, also AI-generierte Videos.

00:59:50: Und dort habe ich schon sehr gesehen wieder Trend zu einfach Video, das ist unumstößig.

00:59:56: Es wird immer mehr als Videos gehen, weil Menschen bewegte Bild einfach besser finden.

01:00:00: Das ist dieser... Diese sehr verbose Content, also wo sehr viel gesprochen wird oder Text, das ist komplizierter fürs Gehirn.

01:00:06: Und Videos sind wie Fast Food.

01:00:07: Das heißt, sie sind einfacher zu verdauen.

01:00:09: Wir mögen gerne bewegte Bilder.

01:00:12: Am Ende ist der Content reicher.

01:00:14: Die Messages, die in Video Content drin sind, sind viel größer als nur im Foto oder im Stück Text.

01:00:22: Das heißt, ich glaube schon, dass man das anderen abschalten kann und das als Startseite sieht, dass es eine sinnhafte Funktion ist.

01:00:32: Ja, natürlich.

01:00:34: Facebook hat angegnet, dass sie Fan-Herausforderung und Benutzer definierte Abzeichen.

01:00:39: einführen werden bedeutet also du kannst als creator in kannst eine fanschallenge starten und kann sagen Schickt mir ein real indem ihr diesen song hört indem ihr euch das gesicht grün anmalt was auch immer und die dann sozusagen entsprechend als challenge frame damit das auch immer für all die leute dies hochladen und auch eingebrannt ist.

01:00:59: okay das ist jetzt eine challenge von kdb oder so.

01:01:03: ja

01:01:04: mein gott.

01:01:04: also das probleme facebook ist glaube ich ein anderes.

01:01:06: facebook hatten generationen problem denn deren der an ... Nutzer werden immer älter und ich glaube die müssen sich eher auf andere Dinge fokussieren als auf Fan-Challenges.

01:01:17: Ich fand schon diese ganzen Spiele wahnsinnig nervig, die es bei Facebook gab, weißt du, so die Future-Rama und so weiter.

01:01:24: Auf jeden Fall, ich weiß nicht, also das fühle ich nicht so ehrlich gesagt.

01:01:28: Ich glaube, der Fokus sollte bei denen auf einem anderen Teil liegen, also auf wieder jüngere Nutzer zu bekommen, das wäre eins.

01:01:37: Ich glaube, die machen alle keine solche Fan-Spiele, zumindest wenn ich mit meinen Kindern Gucke wäre das nicht deren Produkt.

01:01:43: Ich glaube eher, dass sie so ein bisschen Richtung TikTok gehen wäre sinnvoller.

01:01:47: Und ich kann noch einen draufsetzen.

01:01:49: Sie haben eben auch angekündigt, dass benutzerdefinierte Abzeichen gibt.

01:01:52: Also du bist dann nicht nur, also wenn du jetzt also den zehn Prozent der Leute gehörst, die am häufigsten interagieren mit dem Account von Ed Sheeran.

01:01:59: Das ist das Beispiel, das hier steht.

01:02:01: Anstatt also nur Top-Fan von Ed Sheeran zu werden, weil dann kriegst du so einen kleinen Button, kann man auch ein Cheerio sein, wenn man das möchte.

01:02:09: Oh mein Gott.

01:02:11: Wollen wir Cheerio sein?

01:02:13: Nein, danke.

01:02:14: Ich will kein Cheerio sein.

01:02:15: Na gut, dann bist du.

01:02:16: aber jetzt, ab jetzt bist du Haki.

01:02:18: Ich freue mich, dass du dabei warst, dass du dabei bist.

01:02:21: Das war sehr schön.

01:02:21: Es hat viel Spaß gemacht.

01:02:22: Ich hätte noch eine Stunde mit dir weitersprechen können.

01:02:24: Vielen Dank, dass ich dabei sein durfte und ich muss noch einmal ganz kurz Werbung für meinen Podcast Tech und Tales machen,

01:02:28: weil

01:02:28: ich offiziell keine Werbung machen kann.

01:02:30: Also ich freue mich sehr, wenn ihr rein hört.

01:02:32: Jeden Samstagmorgen gehe ich live.

01:02:35: Danke.

01:02:35: Und in der Folge von letzter Woche kann man mich auch hören.

01:02:38: Genau,

01:02:38: das war eine sehr gute Folge.

01:02:40: Vielen Dank.

01:02:41: Danke, dass du da warst.

01:02:42: Eine schöne Woche allen, die bis hierhin zugehört haben.

01:02:44: Passt auf euch auf und wir hören uns hier am Mittwoch wieder.

01:02:46: Super, bis dann.

01:02:47: Tschüss.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.