Der Content-Müll-Kapitalismus (mit Lorenz Meyer)

Shownotes

Hört diese Folge, solange es noch Podcasts gibt, in denen Menschen sprechen. Wie gehen Plattformen mit drastischen Gewaltdarstellungen um? Und wie gehen wir als Gesellschaft mit “AI Slop” um? Wie funktioniert “For You”? Wir reden über die Abschaffung von Agenturen aller Art und kriegen alle Emotionen aus Lorenz raus, die er anzubieten hat.

🗓️ Am 6. November feiern wir 500 Episoden und 3 Jahre "Haken dran" mit einem 12 Stunden-Livestream! ➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt

00:00 Hallo Lorenz! 01:50 Der Fall "Charlie Kirk" in sozialen Medien 11:47 So geht "For You" auf X 22:34 Meta und die Industrialisierung des Influencer-Marketings 29:28 Apple vs. EU und Apple feat. Trump 36:07 Podcasts, aber vom Computer 40:18 Funktionen und Emotionen

Transkript anzeigen

00:00:00: Hallo, Lorenz.

00:00:02: Grüß dich, Kevin.

00:00:03: Bei mir ist heute Lorenz Meier, mein geschätzter Kollege und Tutor.

00:00:10: Oh nein, nein.

00:00:11: Internet-Ikone.

00:00:13: Also jemand, bei dem ich mich immer freue, dass ich seine Nummer habe.

00:00:18: Gleichfalls.

00:00:20: Aber das Geld zahlst du mir nur zurück.

00:00:22: Das hast du mir versprochen.

00:00:24: Kannst du zehn Euro haben die Paper in mir geschenkt hat, weil sie meine Überweisung verkackt haben?

00:00:31: Ja, wirklich.

00:00:32: Ich hab zehn Euro geschenkt bekommen.

00:00:34: Ich frage mich aber jetzt, ob das Geldwärter vorteilt ist oder ob ich das verstanden

00:00:38: ist.

00:00:38: Ob das annehmen kannst, ne?

00:00:38: Ja, genau.

00:00:39: Oder ob das nicht nur auch eine Bestechung ist hier im Rahmen dieses Podcasts vielleicht.

00:00:42: Ja,

00:00:43: das stimmt.

00:00:43: Du bist jetzt befangen in allen Paypal-Themen.

00:00:46: Da muss Dennis wieder reinkommen.

00:00:47: Ja, das wäre so toll, wenn es nicht immer ein Paypal geht und ich einfach lache, das ist schon ein tolles Unternehmen.

00:00:53: Aber für zehn Euro, nee, nee, nee.

00:00:55: So billig bin ich dann auch nicht.

00:00:57: Also, wenn ihr mich bestechten wollt, ich könnte mal geschichten, aber nee, das machen wir alles am sechsten, elften.

00:01:02: Lorenz, kommst du?

00:01:03: da vorbei, am sechsten Elfen.

00:01:04: Bin

00:01:04: ich denn eingeladen?

00:01:05: Ja, aber

00:01:05: absolut bist du eingeladen.

00:01:06: Ich komme da

00:01:06: gerne vorbei, ich trage mir das mit rotem Siegestift ein.

00:01:09: Wir können mal nachher plaudern, um wieviel Uhr du dann kommst, aber wir machen ein Livestream.

00:01:13: Es gibt jetzt in unserem Discord, auf www.haken-rand.org, gibt es jetzt hier schon einen Channel, wo Leute die Möglichkeiten haben, sich Dinge zu wünschen, die wir an diesem Livestream-Tag alles machen.

00:01:21: Also ich werde zwölf Stunden lang live streamen, wir werden Gäste haben, man kann anrufen zwischendurch, wir werden alles machen, was mir das Internet ermöglicht und ich freue mich sehr drauf.

00:01:30: Sehr gut, genau.

00:01:31: Und die Leute, Discord, ich wünsche euch gerne von mir was.

00:01:34: Ich schreibe ein Lied für Gavin oder singe was oder schreibe ein Gedicht.

00:01:40: Soll ich eine Gitarre mitbringen?

00:01:43: Oh, ich wehe, wenn sich jemand mein singen wünscht.

00:01:49: Wir müssen leider mit einem ganz düsteren und auch nervigen Thema loslegen und ein Thema, bei dem eigentlich alle schon wahrscheinlich antizipiert haben, dass wir darüber sprechen.

00:01:59: Aber wir müssen kurz über Charlie Kirk sprechen.

00:02:01: Wir müssen nicht über den ganzen Sachverhalt sprechen.

00:02:03: Erstens, weil zwischen Aufnahme und Veröffentlichung etwa zwölf Stunden liegen dieser Episode.

00:02:07: Wir nehmen das hier im Donnerstag Nachmittag auf gegen halb sechs und sich viel ändern kann seitdem, aber auch weil viele, viele andere Menschen deutlich mehr Expertise haben und einordnen können, was das jetzt für ... folgen in der amerikanischen gesellschaft mit sich bringen kann was dahinter steckt und ist halt auch ganz viel dinge noch nicht gibt die wir bislang nicht wissen aber was wir festgestellt haben und da sind wir dann doch im berichterstattungsbereich dieses podcasts dass die sozialen netzwerke überflutet wurden mit videos von diesem attentat das dort am mittwochabend stattgefunden hat.

00:02:38: ich weiß nicht ob es ja auch so ging Aber egal, auf welches Netzwerk man geschaut hat, du hast wirklich sehr sehr, wie man amerikanisch sagt, sehr grafische Inhalte oder sehr explizite Videos von diesen Schuss auf diesen rechtsradikalen eben gesehen.

00:02:53: Und die waren teilweise so explizit, dass man sich schon gefragt hat, wie kann das sein, dass diese Inhalte tatsächlich einfach online gegangen sind?

00:03:02: Ja, das ging schon Richtung Splattermovie, ganz grauenhaft, für sensible Gemüter.

00:03:08: Eigentlich für jeden ist das ja unzumutbar.

00:03:11: Ja.

00:03:11: Ja.

00:03:11: Und, also furchtbar, und da frage ich mich auch genau, warum da die ganzen KI-Mechanismen nicht greifen, wo sie doch sonst immer sehr greifen.

00:03:22: Es gibt von The Verge tatsächlich eine ganz interessante Rechercheleistung, denn die haben die Verantwortlichen von Plattformen gefragt, wie ihr Umgang mit diesem Video war.

00:03:32: Und ich zitiere da mal ein bisschen raus, um da mal so ein Gefühl für zu schärfen.

00:03:36: Interessanterweise, das kann ich direkt vorweg schicken, haben sich zwei Plattformen nicht äußern wollen oder sich nicht geäußert bislang.

00:03:42: Und das sind X und TikTok.

00:03:44: Und vermutlich sind es damit auch die Plattformen, auf denen am meisten von diesem Content zu sehen war.

00:03:49: Aber Blue Sky hat erklärt, die Verherrlichung von Gewalt oder Schaden verstößt gegen die Community-Richtlinien.

00:03:54: Wir prüfen Meldungen und ergreifen Maßnahmen gegen Inhalte, die Schaden gegen Personen verherrlichen.

00:03:59: Gewalt hat in einer gesunden öffentlichen Debatte keinen Platz und wir setzen uns für einen gesunden, offenen Dialog ein.

00:04:05: Ja, das ist wie wenn unser Bundespräsident ein Spracher macht.

00:04:09: Bisschen ja.

00:04:10: Zu Saudi-Arabien und den Menschenrechtsproblemen dort oder so.

00:04:14: Das sind ja alles Nullnummern, das sagt irgendwie gar nichts.

00:04:19: Ja, ich bin ja auch wirklich ein sensibles Gemüt und ich finde, das kann auch traumatisierend wirken.

00:04:25: Und in den sozialen Medien sind ja nicht nur abgehärtete, taffe Typen wie Gavin Kallmeier, Social Media, Milch,

00:04:32: über

00:04:33: Jahrzehnte.

00:04:35: Ich nehme mich auch nicht.

00:04:36: Genau, ich nehme mich auch nicht.

00:04:39: Ja, und das Worthing.

00:04:41: Wollen wir darüber sprechen oder sind wir mit dem Blut durch?

00:04:44: Sind wir mit dem Blut, müssen wir noch was zum Blut sagen?

00:04:47: Also ich habe noch Meta, was Meta dazu gesagt hat.

00:04:50: Ja gerne.

00:04:50: Da hat nämlich Francis Brannon, der hat The Verge direkt selber geantwortet, sein Sprecher des Unternehmens und hat auf die Richtlinien des Unternehmens verwiesen.

00:05:00: laut denen gewalttätige und grafische Inhalte nicht erlaubt sind.

00:05:04: Wir entfernen die grafischsten Inhalte und versehen andere Arten von Inhalten mit Warnhinweisen, damit sich Nutzer vor dem Anklicken bewusst sind, dass es sich um sensible Inhalte handeln könnte.

00:05:12: Wir schränken die Möglichkeit, jüngerer Nutzer einen Inhalt zu sehen, für die sie möglicherweise nicht geeignet oder altersunangemessen sind.

00:05:19: Damit wollen wir eine angemessene Nutzererfahrung bieten und gleichzeitig unseren Nutzern weiterhin Raum geben, sich auszudrücken.

00:05:25: Was ich eine interessante Formulierung finde, weil ob ein hochgeladenes Video, das mehrfach reproduziert wurde.

00:05:30: Also der Mensch, der das Video als erstes erstellt hat, wird ja uns allen wahrscheinlich gar nicht angezeigt worden sein, sondern eben Dutzend Leute, die das Video eben gerippt und wieder hochgeladen haben.

00:05:41: Das ist für mich nicht Teil einer Ausdrucksform, ehrlicherweise.

00:05:46: Nein, überhaupt nicht.

00:05:47: Überhaupt nicht.

00:05:48: Das ist auch alles Unsend.

00:05:49: Das müssen Sie eigentlich wissen.

00:05:52: Überhaupt nicht.

00:05:55: Reddit sagt, wir überwachen unsere Plattform, um diese regelwiedrigen Inhalte zu entfernen und nutzen Hashing, um ein neues Hochladen zu verhindern.

00:06:02: Jetzt muss man dazu sagen, dass verhindert nur das exakte selbe Video nochmal hochgeladen wird, aber die ganzen Tricks, die die Leute anwenden, mit Bildschirmabfilm, mit Spiegel, mit Tonverändern, mit irgendwie da drin, wie so einen Effekten arbeiten und so weiter.

00:06:17: Das ist davon natürlich nicht betroffen.

00:06:19: Hatten die nicht nach diesem Inselmassacker, von diesem Rechtsradikal, der da auf der Insel dieses Zeltlager weggeputzt hatte, Brewegg?

00:06:27: Und wieder hatten doch alle Besserung versprochen.

00:06:29: Dann hatten gesagt, wir werden jetzt alles dran setzen und wir kriegen das alles weggeputzt.

00:06:35: Und das ist ja nur auch schon ein paar Monate her.

00:06:38: Wohl war.

00:06:38: Und nicht

00:06:39: zu sagen Jahre.

00:06:40: Ja, das ist so.

00:06:41: Und die Plattformen kommen da einfach... ... häufig einfach tatsächlich nicht nach.

00:06:46: Trotzdem muss man dazu sagen, ... ... das sind alles die Plattformen, ... ... auf denen du diese Inhalte deutlich weniger siehst, ... ... als eben TikTok oder X. Und bei X gibt es nämlich die ... ... interessante Geschichte, das Nikita Beer, ... ... das hat CoffeeHolic recherchiert natürlich ... ... wer sonst, liebe Grüße an CoffeeHolic.

00:06:59: ... ... und der Nikita Beer ist veröffentlicht, ... ... in dem er geschrieben hat, ... ... dass das Team mit Hochdruck daran arbeitet, ... ... diese Inhalte aus dem Netz zu kriegen.

00:07:11: Und man dabei ist, sensitive Content Warnings an diese Inhalte zu bappen und dass man versucht, eben diese Inhalte zumindest zu labeln, damit man eben diese Inhalte nicht mehr einfach so sieht oder sie einfach starten.

00:07:24: Interessant ist aber, dass dieser Post von Nikita Bier gelöscht wurde kurz danach und Elon Musk.

00:07:31: selber weiter dazu angestiftet hat sozusagen Stimmung gegen die politische Linke zu machen und gesagt hat die Partei der Linken ist die Partei des Mordes.

00:07:39: Also sich sozusagen eher in diesen Tenor reingehangen hat, der jetzt gerade eben häufig da so mitschwingt.

00:07:47: Es spricht also eher dafür, dass bei X eben diese Inhalte, diese Videos entweder, also ich versuch's mal, ich mach's einmal diplomatisch und dann mach ich's zynisch.

00:07:56: Diplomatisch formuliert, dass Ex diese Videos in ihrem Verständnis der Redefreiheit weiterhin als zulässig ansehen.

00:08:04: Zynisch formuliert, der Agenda des Besitzers auch noch in die Karten spielen könnte, wenn sie sich weiter verbreiten.

00:08:11: Ja, genau.

00:08:13: Also ich würde mal auch zu der zynischen Version neigen, weil sie ist ja gar nicht so zynisch.

00:08:19: Es geht ja nie um Redefreiheit, das ist ja vorgeschoben.

00:08:23: Es geht nie um Redefreiheit, weil er hat ja einen Glaskinn.

00:08:26: Sobald irgendeiner auch nur den leisesten Kritik äußert, wird ja jeder weggeputzt.

00:08:32: Also um Redefreiheit geht es dabei nicht.

00:08:37: Ja, so ist es.

00:08:38: Und wir bleiben da direkt mal im Thema, denn Elon Musk, also nicht er selber, sondern ex, hat mal wieder, also hat ein Versprechen eingelöst, nein, mal wieder ist falsch, das passiert quasi nie, dass Elon Musk ein Versprechen eingibt, hat ein Versprechen eingelöst, dass schon seit vielen, vielen Jahren im Raum steht und dass er beim letzten Mal sehr halbherzig nur beantwortet hat.

00:08:57: Und zwar geht es um die Veröffentlichung und damit verlassen wir, glaube ich, auch dieses sehr düstere Thema.

00:09:01: Ja,

00:09:02: einen Schlenke, einen Schlenke

00:09:03: habe ich noch.

00:09:05: Das ist nämlich dieses, ich weiß nicht, ob es dir aufgefallen ist, wie die deutschen Medien so rumschlingern in der Bezeichnung von Charlie Kirk.

00:09:13: Umstritten

00:09:14: rechtskonservativ.

00:09:15: Umstritten

00:09:15: rechtskonservativ, genau.

00:09:17: Und wenn man mal nachguckt, also ich habe heute Mittagsmagazin gesehen, dann haben sie halt gesagt, das ist ein rechtskonservative Aktivist.

00:09:25: Das klingt ganz toll, aber rechtskonservativ heißt halt im Spektrum.

00:09:31: der Demokratie.

00:09:32: Das ist dieser Mann nicht gewesen.

00:09:33: Das war ein Rechtsextremer.

00:09:35: Der hat die Busse organisiert zum Kapitulsturm zum sechsten Januar.

00:09:40: Der ruft, der hat crude Rassentheorien.

00:09:44: Der, der vertritt diese Great Replacement Verschwörungstheorie vom vom Rassenaustausch vom Angeblichen.

00:09:53: Also der ist richtig schief abgetreten.

00:09:56: Also es gibt da Zitate, da könnte man jetzt irgendwie zehn Minuten drüber reden.

00:10:01: Wie außerhalb des konservativen Spektrums dieser Mandi ist, der ist nicht rechtskonservativ.

00:10:08: Und da würde ich in dem Zusammenhang mal die Medien zu etwas mehr Mut aufrufen, auch die öffentlich-rechtlichen.

00:10:15: Seid doch mal so mutig und ordnet das auch ein und versteckt euch nicht.

00:10:19: Rechtskonservativ, das ist so bequem, da kann man sich verstecken dahinter.

00:10:23: Aber sagt es doch bitte, was es wirklich ist, benennt es doch oder beschreibt wenigstens,

00:10:29: wie

00:10:30: er gehandelt

00:10:32: hat.

00:10:34: Aber ihr bräuchtet ja noch nicht mal dieses Label raufzukleben, wenn es einfach beschreiben würde, was er gemacht hat.

00:10:40: Dann wird klar, dass das ist nicht irgendeiner, wo man sagt, naja, das ist Bierzelt CSU Bayern, rechtskonservativ.

00:10:48: Das ist es eben nicht.

00:10:50: ist leider wirkt das halt verharmlosend.

00:10:53: Und das ist der falsche Weg.

00:10:55: Und wir müssen jetzt alle vorgewarnt und wachsam sein.

00:11:00: Gerade jetzt, wo unsere Demokratie stromreif geschossen wird von allen Seiten, dürfen wir nicht in diese verharmlosenen Wordings reinrutschen.

00:11:08: Dennis Horn hat dazu geschrieben, es gibt genug Fakten über Charlie Kirk.

00:11:11: Würde man die aufzählen, wäre man viel konkreter und könnte sich das umstritten oder kontrovers sparen.

00:11:16: Ich finde, das ist nämlich genau der Punkt.

00:11:19: Aber gut,

00:11:20: das war aber auch nur der Schlenker dazu.

00:11:22: Ich will dir komplett zustimmen.

00:11:23: Das ist aber ja ein Problem, das betrifft jetzt nicht nur diesen einkonkretenden Sachverhalt.

00:11:28: Wir waren hier in diesem Podcast immer schon sehr schnell dabei, das Kind beim Namen zu nennen, wenn die amerikanische Demokratie ausgehüllt wird.

00:11:35: Wir haben schon sehr häufig von großen Schritten Richtung Faschismus gesprochen, von autokratischer Regierungsarbeit, die das Management, sage ich schon, die Administration unter Trump eben dort.

00:11:46: in die Demokratie gerade reinprügelt und sie damit aushüllt.

00:11:50: Und ich finde, das ist eine völlig angemessene und richtige Anmerkung, die du da noch hattest.

00:11:55: Danke.

00:11:56: Prima.

00:11:57: Jetzt kommen wir aber zurück zu Elon Musk.

00:11:58: Oh Gott, oh Gott, oh Gott.

00:11:59: Aber wir bleiben trotzdem ein bisschen beim Thema, aber auch nicht ganz.

00:12:04: Elon Musk hatte vor vielen Jahren das Versprechen gegeben, dass der Algorithmus von X. veröffentlicht wird, das bekannt gegeben wird, wie er funktioniert.

00:12:11: Es gab damals eine Open Source Liste, die aber auf ganz, ganz viele Dinge verzichtet hatte, wie zum Beispiel Gewichtung.

00:12:17: Das heißt, wir wussten zwar so ein bisschen, worauf der Algorithmus achtet, aber nicht, was er tut.

00:12:21: Gleichzeitig hat Elon Musk zu der gleichen Zeit, kurz nachdem er Twitter immer noch mehr hat, und das ist eine interessante Notiz, um diese Geschichte jetzt gleich noch ein bisschen anzusalzen.

00:12:31: Hat er damals gesagt, dass ja so Dinge wie Shadowbanning die Twitter damals offenbar, wie er sagte, aus politischen Gründen vorangetrieben hätte, dass es die unter ihm ja nicht mehr gäbe.

00:12:40: Jetzt hat X den Algorithmus der For You Timeline veröffentlicht.

00:12:46: Es sind unglaublich viele Dokumente, Tausende und Tausende Dokumente, in denen man sich so ein bisschen wühlen muss.

00:12:52: Das heißt, wir werden wahrscheinlich in den nächsten Wochen immer wieder neue kleine Hinweise kriegen.

00:12:55: Aber ich habe mich mal so durch die Secondhand-Bearbeitung schon durchgewühlt und mal so versucht es ein bisschen zu extrahieren, was wir bis jetzt wissen, wie dieser For You Algorithmus funktioniert, weil For You Algorithmen ja eben nicht nur X betreffen sollen.

00:13:08: Wir können auch daraus lernen, wie Algorithmen auch andere soziale Netzwerke vermutlich funktionieren.

00:13:12: Und jetzt gibt es eben diese Veröffentlichung und interessanterweise tauchen da auch so Dinge wie Shadow Bands drin auf, wieder, nach wie vor.

00:13:20: Man muss vor weg schicken natürlich.

00:13:23: Auch das ist, glaube ich, eine ganz wichtiger Hinweis, dass wir natürlich nicht wissen.

00:13:28: Ob das wirklich die Art und Weise ist, wie der Algorithmus funktioniert und dass wir also Sebo hat es auch im Discord geschrieben, hier habe ich es gerade gefunden.

00:13:36: Es ist ein Riesendump, der die intern seit dem letzten Commit vor zwei Jahren bei X vorgenommenen Änderungen maximal schlecht nachvollziehbar macht und deren Timing verschleiert.

00:13:45: Ganz abgesehen davon ist auch unklar, ob dieser Code in Produktion laufen muss, also ob die Logik auch diese Daten hier nutzt, die wir hier sehen oder ob die gar nicht veröffentlicht sind.

00:13:53: Wir wissen, dass X ja eigentlich angekündigt hat, den Algorithmus auf GROC umzustellen, was eben etwas genau heißt.

00:14:00: Wahrscheinlich soll es einfach nur so heißen, aber dennoch, wir nehmen das jetzt einfach mal so, was wir da haben.

00:14:04: Und es taucht Shadowbanning darin auf, es taucht aber eine Art Punktesystem auf.

00:14:09: Dieses System heißt TweetCrat.

00:14:11: TweetCrat ist ein Reputationssystem, das es auch schon zu Twitterzeiten gegeben hat und das verteilt sozusagen für dich eine Reputation als Nutzerin oder Nutzer, um daraus abzuleiten, wie groß die Sichtbarkeit deiner Inhalte wird.

00:14:25: Wenn du dich registrierst bei X, startest du mit minus hundertundzwanzig TweetCrat Points.

00:14:31: Wenn du aber unter siebzehn Punkten bist, wirst du keine virale Reichweite.

00:14:34: in der For You Page bekommen.

00:14:35: Das heißt, du musst dich erstmal sozusagen hocharbeiten.

00:14:38: Und es gibt viele Dinge, die dazu führen, dass dieser Punkt des Stand sozusagen geboostet wird, wie hier die Formulierung ist, oder sogar gedrückt wird, gedrosselt wird.

00:14:45: Die Dinge, die dazu führen, dass du gedrosselt wirst in deiner Sichtbarkeit, sind Dinge wie Tweets von geringer Qualität, was mir sehr gut gefällt, Spam, Toxizität, eine nicht vertrauenswürdige URL, die verwendet wurde, wo man direkt dazu sagen muss, Es wäre ein leichtes, hier die New York Times mit aufzunehmen, hier CBS mit aufzunehmen, hier Mainstream Media, wie Elon Musk sagen würde, mit aufzunehmen.

00:15:12: Also das wäre hier schon mal so ein Punkt, wo man sagen muss, hier kann man den Algorithmus ziemlich leicht manipulieren.

00:15:17: Inhalte wie Not Safe for Work, Gore oder die mehrfache Erwähnung einer Person.

00:15:22: Das sind alles Inhalte, die dir schaden würden.

00:15:26: Was sagen wir dazu?

00:15:29: Ja, das wird wahrscheinlich... Folleeelle, sage ich mal.

00:15:32: Ist das Boomer Deutsch?

00:15:33: Folleeelle?

00:15:33: Ja, das ist mehr als Boomer.

00:15:35: Ich glaube, das ist schon... wie ließen die Generationen vor den Boomern eigentlich?

00:15:38: Kaiser?

00:15:39: Kaiser?

00:15:40: Die Kaiser-Deutsch?

00:15:42: Sagt man das so?

00:15:42: Also,

00:15:42: okay.

00:15:43: Also, volleelle Kaiser-Deutsch, genau.

00:15:45: Ja, also, das wird ja jetzt schon da.

00:15:47: Also, das wird alles genau so sein.

00:15:49: Und in dieser Liste der abzulehenden Medien werden genau die Medien sein, die du ja genannt hast, Washington Post, New York.

00:15:57: Times und so weiter und so weiter.

00:16:00: Das wird alles genauso sein.

00:16:04: Und als neuer Nutzerstaat ist so tief im Minus, dass du erst mal strampeln musst, um überhaupt an dieser, um überhaupt wahrgenommen zu werden.

00:16:13: Und das klingt ja eigentlich jede organische Debattenkultur, von der immer so mit so hochgestochenen Worten geschwärmt wird eigentlich.

00:16:23: Es gibt noch ein paar andere Faktoren, die dich drosseln, nämlich Ein anstößiger Nutzannahme.

00:16:29: Die Veröffentlichung eines Tweets komplett in Großbuchstaben.

00:16:32: Plötzlich verstehen wir, warum Donald Trump nur Screenshots auf X veröffentlicht, übrigens.

00:16:37: Und die gemessene Wahrscheinlichkeit, dass dann Inhalt gemeldet wird oder negative Reaktionen auslöst.

00:16:43: Also, dass jemand bei diesem Tweet rechts auf diese drei Punkte klickt und sagt, ich möchte das nicht sehen, das interessiert mich nicht.

00:16:49: Das ist wohl ein absolutes Todesurteil für deine Sichtbarkeit.

00:16:52: Was gut zu wissen ist, sowohl für die einen als auch für die anderen.

00:16:56: gut zu wissen ist.

00:16:58: Es gibt aber auch Dinge, die dazu führen, dass du geboostet wirst in diesem Algorithmus.

00:17:02: Die auf dem Sichtlichsten Dinge muss man fast gar nicht benennen.

00:17:05: Also, dass jemand darauf antwortet oder die Wahrscheinlichkeit, dass es jemand tut, dass du selber nochmal etwas verlängerst und da drunter schreibst.

00:17:12: Das wirkt auch sich positiv aus, dass es geliked wird, reposted wird.

00:17:16: Dass jemand diesen Post anklickt und sich länger durchliest und dass jemand mehr als zwei Minuten darauf verbringt, ist ein wahnsinnig guter Faktor für ein Post übrigens, also Videos.

00:17:26: Und mehr als die Hälfte des Videos ansehen, ist auch ein positiver Faktor dieser Inhalte nach oben zu schieben.

00:17:32: An diesen Spielregeln werden natürlich alle sozialen Netzwerke

00:17:35: haben.

00:17:35: Ja, deswegen finde ich, wenn ich müssen darüber sprechen.

00:17:38: Ja, genau, aber die Ausformung ist halt so interessant.

00:17:41: Und ich würde halt mal gerne sehen, diese, da war ja die Sprache, glaube ich, von so einer Adults-Token.txt-Datei mit den Anstößigen begriffen.

00:17:50: Ja, die würde ich aber gerne sehen, was Elon Musk für Anstößig hält.

00:17:55: Ja, das ist wirklich eine interessante Frage, vor allem, wenn wir ihn überlegen.

00:17:57: Wahrscheinlich

00:17:58: auch Gleichberechtigung oder so, das ist ja schon Anstößig.

00:18:01: Regenbogen-Emoji führt natürlich zu, is not safer work.

00:18:05: Ja, genau.

00:18:07: Ja, wir lachen darüber, es ist so düster, ne?

00:18:10: Weil es stimmt.

00:18:11: Was übrigens auch einen riesen, riesen, riesen, riesen Reichweitenboost gibt und zwar einen der wichtigsten und man ahnt es fast, hat das gekaufte blaue Hickchen.

00:18:20: Laut diesen Dokumenten ist es blaue Hickchen.

00:18:22: Also der, wer hat das geschrieben hier, Alex Finn, der hat eine Zusammenfassung geschrieben und der hat gesagt, wenn du dir keinen blauen Haken holst, ist deine Sichtbarkeit quasi erledigt.

00:18:34: Ja, diese Legacy Verifizierung.

00:18:36: Die gibt es ja nicht mehr, das ist die gekaufte Verifizierung.

00:18:39: Die gekaufte Verifizierung.

00:18:40: Stimmt, ja, die acht Dollar oder was das kostet, genau.

00:18:44: Ja, ja.

00:18:46: Ja, herrlich, geltregiert

00:18:47: die

00:18:47: Welt.

00:18:48: Haken dran.

00:18:49: Ja, nee, das Problem ist, und da sind wir wieder bei Designentscheidungen, die den Algorithmus manipulieren, das ist ja eben nicht nur geltregiert die Welt, sondern die Leute, die bereit sind, dem mehr oder weniger erreichst man in der Welt.

00:18:59: Das reden wir am Ende mal kurz drüber.

00:19:02: Elon Musk Geld zu überweisen sind nicht die Leute, die sich inhaltlich mit ihm überwerfen wollen, die ihm widersprechen wollen, die eine andere politische Meinung haben und glauben, ich bezahl jetzt X, damit ich hier gegenwirken kann.

00:19:14: Also außer Robert Habeck vielleicht.

00:19:16: Aber alle anderen sagen natürlich, Ich zahl doch nicht auch noch Geld dafür, in so ein Grottenloch hier einzusteigen.

00:19:24: Die Leute, die aber auf der Seite von Elon Musk sind, ihnen unterstützenswert finden, die alles richtig finden, was er macht und tut und sagt, die würden natürlich im Zweifel eher dafür bezahlen.

00:19:34: Was bedeutet das im Umkehrschluss?

00:19:36: Das bedeutet im Umkehrschluss, dass die Leute, die Elon Musk's Meinungen sind und ihnen unterstützen, mehr Sichtbarkeit bekommen als die Leute, die das nicht tun.

00:19:43: Einfach nur über diese kleine Selektion.

00:19:46: Okay, genau.

00:19:47: Normalerweise würde man sagen, das ist die Falle der Selbstverstärkung.

00:19:50: Aber als Falle wird er das nicht empfinden.

00:19:52: Er wird sich freuen über diese Selbstverstärkung.

00:19:54: Ihnen sind das Anreize.

00:19:56: Er hat jetzt genau einen anderen Blickwinkel.

00:19:57: Er schaut da positiv drauf.

00:19:59: Ja, stimmt.

00:20:00: Ich bin

00:20:00: viel zu negativ.

00:20:03: Also, die Sichtweise von Elon Musk nicht sofort zu teilen, ist, glaube ich, eine Charakterstärke.

00:20:10: Ansonsten war Elon Musk noch im All In Podcast.

00:20:13: Das ist so ein Tech Bro, rechtskonservativer Tech Bro Podcast zu Krypto Typen und so.

00:20:19: Und die haben, da kann man übrigens, glaub ich, wirklich rechtskonservativ sagen, sag ich jetzt vorsichtig, vielleicht fliegt es um die Ohren, aber das ist jetzt nicht, es ist jetzt kein, nicht, sagen wir mal, Nazi-Tümpel, aber das sind ja Leute, die Trump wählen, weil es ihn wirtschaftlich mehr bringt.

00:20:32: So muss man das, glaub ich, verstehen.

00:20:34: Das heißt, Elon Musk und hat darüber gesprochen, wie Grock sich in nächster Zeit entwickeln wird.

00:20:38: Und er hat angekündigt, dass beim nächsten Trainingslauf von GROC synthetische Daten verwendet werden.

00:20:43: Was bedeutet, dass wir jetzt an dem Punkt sind, dass KI-Inzucht betreibt, dass sie sich mit sich selber speist, dass sie sich selber in den Schwanz beißt.

00:20:53: Was bedeutet, dass diese Daten, die dann entstehen, nicht noch weniger vertrauenswidrig sind als ohnehin schauen?

00:21:01: Ja, und er redet ja, er hat ja so Formeln da, ne?

00:21:06: Er redet ja von so einer Verziehenfachung.

00:21:08: Der Rechenleistung, die soll die KI-Intelligenz verdoppeln, glaube ich.

00:21:13: Und mich erinnert das an diese Sachen, die er auch so bei Tesla immer so rausgehauen hat.

00:21:20: Einfach mehr reinschmeißen an Power wird schon werden irgendwie.

00:21:24: Und AGI nächstes Jahr, aber... Hat er

00:21:26: gesagt, ja, nächstes Jahr eine KI, die in allen Bereichen intelligenter ist als Menschen.

00:21:29: Ja, aber ich meine, der Mann hat es im Jahr zwei Tausend Sechzehn versprochen, dass das Tesla als zwei Tausend Achtzehn autonom von L.A.

00:21:37: nach New York fahren.

00:21:39: Ja, wir warten immer noch, sag ich dazu nur.

00:21:41: Absolut.

00:21:43: Also, ein seiner weiteren Versprechen, können wir aufschreiben auf die Liste.

00:21:47: Er hat übrigens auch darüber gesprochen, dass er überlegt, eine Grockypedia einzurichten, die die Voreingenommenheit der Wikipedia entgegensetzten sei.

00:21:56: Ja, hat eine ganz tolle Idee.

00:21:58: Ganz, ganz tolle Idee.

00:22:00: Wer

00:22:01: danach schlägt, tut mir leid.

00:22:06: Ja, so viel zum Thema Elon Musk.

00:22:08: Können wir damit abhaken, zur Seite legen und vielleicht mal kurz auf Meter schauen, denn auch da passiert was.

00:22:15: Meter hat angekündigt, dass es eine Creator Marketplace und Creator Discovery API geben soll, bei Instagram und Facebook, mit der es möglich sein wird, dass Menschen nach Creators suchen können, indem sie einfach nur Stichwörter eingeben, was am Ende dabei helfen soll, mit denen zusammenzuarbeiten, Partnerschaften einzugehen oder mit denen möglicherweise Werbung zu treiben.

00:22:37: Und ich habe direkt einen Take, vorhin das hinführt, aber ich bin erstmal gespannt, was so deine Gefühle dazu sind.

00:22:42: Ja, für mich ist es so ein bisschen so, das ist so die Industrialisierung des Influencer-Marketing.

00:22:49: Exakt.

00:22:50: Und es passt in dieses Versprechen von Zuckerberg, dass er den Agenturmarkt komplett ausholen möchte.

00:22:56: Dass er sagt, wir brauchen niemanden mehr der berufliche Werbung macht, weil am Ende kommen die Unternehmen zu uns und sagen uns, was sie für ein Ziel haben und wir werden mit Hilfe von KI dieses Ziel für die sie umsetzen.

00:23:07: ... dass da drin auch noch echte Menschen eine Rolle gespielt haben, ... ... das erfahren wir ja quasi erst jetzt.

00:23:13: Ja, genau.

00:23:13: Und so wird aus den ... ... den spontanen Empfehlungen ... ... wird halt so eine

00:23:19: ... ...

00:23:19: algorithmisch optimierte ... ... Werbemaschine gebaut.

00:23:24: Also ... ... ganz

00:23:25: toll.

00:23:26: Es hüllt weiter den ... ... so

00:23:27: wie wir jetzt ... ... wird halt zur Verkaufsplattform immer mehr ... ... geschraubt werden.

00:23:31: Das ist Entschädtification im Endstadium.

00:23:33: Aber ... Es Interessante ist ja, dass er damit nicht nur den Werbemarkt oder den Agenturmarkt der Kreativindustrie aushüllt, weil es keine Werbe-Innen mehr gibt, die Inhalte erstellen.

00:23:46: Weil das muss er nicht mehr, weil dafür ist KI da.

00:23:48: Man muss sich keine Strategien mehr überlegen, dafür ist KI da.

00:23:50: Nee, jetzt sind auch noch die Influencer-Marketing-Agenturen dran, weil dafür ist ja jetzt auch dieser Service da.

00:23:57: Bedeutet Meta scheint hier ganz gezielt einen Angriff auf alle Formen der Agenturen zu setzen.

00:24:03: Kliniklied zwischen Unternehmen und den Plattformen stehen.

00:24:07: Ich finde, das passt total ins Bild.

00:24:10: Ja, absolut, genau.

00:24:12: Und echte Authentizität wird nur noch so eine Simulation dabei.

00:24:17: Ist sie längst?

00:24:18: Eigentlich.

00:24:19: Es ist ja das Traurige.

00:24:20: Also ist sie längst, aber jetzt wird es vielleicht endlich noch erkennbarer.

00:24:24: Mal sehen.

00:24:25: Gleichzeitig hat Meta an Hundertvierzig Millionen Vertrag abgeschlossen für die Nutzung von der Black Forest Labs KI.

00:24:31: Das ist interessant, weil das ist die KI, die anfangs GROC genutzt hat, um Bilder zu generieren.

00:24:36: Das Meta mit den eigenen KI-Tools nicht so zufrieden ist, haben wir hier eigentlich hunderttausendmal besprochen.

00:24:41: Wissen wir schon, Max Acker-Börger hat das zur Chefsache gemacht und jetzt scheinen sie offenbar, sich diesen Service hier einzukaufen, weil Black Forest Labs ein bisschen weiter ist als das, was sie selber anbieten können.

00:24:51: Black Forest Labs ist ein deutsches Start-up, das ein Sitz in den USA hat, um solche Deals hier einfacher werden zu lassen.

00:24:58: Auch Andreessen Horowitz haben darin investiert.

00:25:00: Das ist so ein Investor-Fond, in den auch die auch in Meta in Facebook sehr sehr früh investiert haben.

00:25:08: Und mit Marc Andreessen eben auch jemand, der Donald Trump sehr nah ist.

00:25:11: Das muss man dazu sagen.

00:25:16: ist bestimmt richtig, wirkt aber auch ein bisschen verzweifelt.

00:25:19: Also, Sie sehen jetzt irgendwie, da rennt Ihnen was weg irgendwie.

00:25:25: Und ich finde, es klingt jetzt irgendwie, ja, wir müssen jetzt auch, wir müssen, wir müssen, wir müssen.

00:25:30: Also, man merkt, Sie sind nicht nur Treiber, Sie sind auch die Getriebenen.

00:25:36: Ja, total sind Sie die Getriebenen.

00:25:38: Und das ist ja gefährlich.

00:25:40: Das gilt für Elon Musk, das gilt für Mark Zuckerberg.

00:25:43: Wenn diese Leute die Erfolgsverwüns sind, merken, dass sie abgehängt werden, dann werden sie auch die Dinge, die sie in ihrem eigenen Regel konstrukt.

00:25:52: Erwogen haben, auch über Bord werfen.

00:25:54: Und das ist bei Leuten wie Elon Musk und Max Ackerberg nicht allzu viel, muss man dazu sagen.

00:25:58: Also die letzten Dinge, die sie hier sozusagen als eigene Grenzen noch akzeptiert haben, die sind sie ja offenbar bereit auch zu riskieren.

00:26:05: Wir haben ja darüber gesprochen, dass Meter einundsiebzig, wie viel waren das, Terabyte an pornografischen Videos hochgeladen haben, um damit an mehr Inhalte zu kommen, KI zu trainieren.

00:26:13: Das passt ja fast gar nicht in das Bild eines so großen Unternehmens.

00:26:18: Es sei denn, sie stehen eben so sehr unterzuzogen, dass sie bereit sind.

00:26:21: alles zu tun.

00:26:23: Ja, genau.

00:26:24: Es muss irgendwie aus allen Ecken alles hervorgekramt werden.

00:26:27: Ja.

00:26:29: Ich habe eine kleine Geschichte, da bin ich so ein bisschen auf das kollektive Gedächtnis der Hakis angewiesen.

00:26:36: Wir haben hier vor Ewigkeiten darüber gesprochen, dass die EU die Untersuchungsverfahren gegen große Plattformen wie Meta und TikTok, die einen Rechtsstreit gegen die EU deswegen angezettelt haben, ihnen in Rechnung stellt, dass sie sagen, dass sie eine Aufsichtsgebühr dafür bekommen, dass sie sie untersuchen.

00:26:54: Und diese Aufsichtsgebühr beträgt nur zero fünf Prozent des weltweiten Jahresnettogewins.

00:27:00: Und ich habe damals gesagt, ich finde es richtig, dass sie Untersuchungsverfahren gibt.

00:27:03: Ich habe nur das Störgefühl gehabt, dass der Jahresnetto gewinnt, dass das ein relativer Wert ist, der sich nach dem Unternehmensgewinn ermisst, dass das irgendwie sich mit meinem Gerechtigkeitsverständnis beißt.

00:27:16: Weil ich gesagt habe, es ist richtig, diese Unternehmen zu untersuchen.

00:27:19: Ich finde es sogar legitim, die zur Kasse zu bitten.

00:27:21: Aber warum machen wir das an finanziellen Faktoren fest, wie die arbeiten, was sie uns zahlen müssen?

00:27:26: Das habe ich nicht so ganz verstanden.

00:27:28: Offenbar bin ich nicht der Einzige, der es nicht so ganz verstanden hat, denn das in Luxemburg ansässige Gericht, das verantwortlich ist für dieses Verfahren, hat Meter und TikTok in der Sache recht gegeben und die Regulierungsbehörden jetzt dazu aufgefordert innerhalb von zwölf Monaten diese Methodik zu ändern, weil sie eben so im DSA auch nicht vorgesehen und auch nicht klar geregelt sind.

00:27:48: Das heißt, diese Gebühren müssen nicht zurückerstattet.

00:27:50: werden bis zum Jahr zwanzig dürfen aber in Zukunft so ab nächste mehr nicht mehr erhoben werden.

00:27:56: Ja die EU muss nochmal ihre Hausaufgaben neu machen und und das zeigt aber schön wieder wie Big Tech irgendwie jeden kleinen Winkel nutzt natürlich um gegen Regulierung vorzugehen und und und selbst wenn es nur um Formfehler geht.

00:28:16: aber man hat man hat wieder irgendwie ... schön Sand ins Getriebe geworfen und die Sache verzögert.

00:28:22: Ja.

00:28:22: Aber ... ... ja, da muss die EU natürlich dranbleiben.

00:28:27: Ja, total.

00:28:28: Aber ich ... Die

00:28:29: müssen eben sauber

00:28:29: arbeiten.

00:28:30: Genau, die müssen eben sauber arbeiten.

00:28:31: Und ich ... Also kannst du denn meinen Störgefühl verstehen, ... ... dass ich so sage, das ergibt irgendwie für mich ... ... ist das nicht aufrichtig, ... ... das daran abzumessen?

00:28:41: Ja, wie würde man sonst?

00:28:45: Hinkriegen?

00:28:46: entweder ein fester Betrag oder einen Betrag der sich an den Nutzer zahlen, die die Plattform ohnehin messen oder und reporten müssen.

00:28:54: Ansetzen also das sozusagen ein ein feststehendes Regelwerk, das nicht sagt also wenn ihr mehr Werbung verkauft, müsst ihr mehr zahlen damit wir euch ein versuchen dürfen.

00:29:04: Ja ich finde das auch unschön.

00:29:06: I don't get it ehrlicherweise.

00:29:10: Ja da

00:29:10: ist man ihnen sehr entgegengekommen.

00:29:12: Apropos entgegenkommen.

00:29:14: Wir müssen kurz über Apple sprechen, ich habe zwei Apple Themen.

00:29:17: Apple hat am Dienstagabend ja ihre große Keynote veranstaltet, bei dem sie das neue iPhone vorgestellt haben und die neuen Apple Watch vorgestellt haben und die neuen AirPods Pro III.

00:29:28: Und die AirPods Pro III haben so ungefähr zehn bis fünfzehn Minuten in dieser Keynote beansprucht, vor allem wegen einem neuen Feature, das mich auch so ein bisschen beeindruckt hat, während ich mir erst angeguckt habe, denn du kannst ... Diese Airpods tragen und dann angenommen du bist nicht sprichst meine Sprache nicht du sprichst spanisch und ich spreche kein spanisch in unserem Szenario.

00:29:46: Dann kann ich mir die Airpods reinnehmen und sie können mir live besetzen was du mir sagst.

00:29:50: und wenn du auch Airpods trägst kann ich auf meiner Sprache antworten und sie übersetzen dir auch direkt was ich sage.

00:29:55: eigentlich ein super Feature eine gute Idee.

00:29:58: Absolut kommt aber nicht nach Europa und es ist bislang nicht ganz bekannt warum das so nicht nach Europa kommen wird.

00:30:04: also es gibt es gibt.

00:30:05: zwei Theorien.

00:30:06: Und die eine Theorie ist eine, die ich glaube ich für plausibel halte.

00:30:09: Also die erste Theorie ist die, dass Apple aus Vorsicht und Angst vor Regulierungsmaßnahmen und gleichzeitig um die Wut der NutzerInnen in Europa auf die EU zu lenken, solche Features einfach nicht nach EU bringt.

00:30:21: Wir kennen das zum Beispiel von der iPhone-Synchronisation, mit der du das Telefon auf den Mac spiegeln können sollst, ist nicht in Europa eingeführt worden, mit Verweis auf die EU, auf die Gesetzeslage.

00:30:32: So, jetzt ist aber IOS, das Betriebssystem des iPhones und damit auch der Rechenkern dieser Aktion, ist ja als Very Large-Plattform, Online-Plattform oder als Gatekeeper, sorry, als Gatekeeper nach DMA eingestuft worden.

00:30:46: Bedeutet also, sie müssen Dinge anbieten, damit andere Unternehmen die Möglichkeit haben, dieselben Features auf dem Gerät anzubieten.

00:30:53: Und jetzt gibt es ja durchaus Mitbewerber wie Google, die mit Google Translate wahrscheinlich den Marktführer bilden, nehme ich an, DeepL als deutsches Unternehmen, das eben unter Übersetzung mithilfe von KI durchführt.

00:31:06: Und meine Theorie ist, dass Apple die Sorge hat, dass sie dieses Feature auch von DeepL durchführen lassen müssten, wenn sie das in Europa einführen und deswegen dieses Feature gar nicht erst hierhin bringen.

00:31:17: Das kann sein, genau.

00:31:19: Aber es könnte natürlich auch sein, dass sie die Gespräche und der Wahrung der Anonymität natürlich alle aufzeichnen und zum Training der KI wieder verwenden wollen.

00:31:33: Und dann hoch und heilig versprechen, wir ordnen das nicht dem Account zu, wir nutzen das wirklich nur intern, aber dass sie denken, dass das Versprechen der EU nicht reichen wird.

00:31:45: Ja, zumal die Datenverarbeitung vermutlich nicht auf europäischem Salvern stattfinden würde.

00:31:50: Ja, und

00:31:50: dann wieder nicht überprüfbar ist und jederzeit Donald Trump sagen können, wenn ich da reingucken will, dann muss das erlaubt sein.

00:31:59: Ja,

00:32:00: und das ist also ich finde das tatsächlich

00:32:03: seine Behörden.

00:32:04: Ja,

00:32:04: es ist schon auch schade, dass du solche, dass so ein Unternehmen wie Apple also.

00:32:10: Am Ende ist es natürlich Geschmackssache, was man daran schade findet.

00:32:13: Findet man jetzt schade, dass die EU so feste Regeln vorschreibt, dass solche Innovationen hier nicht genutzt werden können?

00:32:19: Oder ist es schade, dass Apple aus Angst ihre Marktdominanz zu verlieren, wobei es, du musst halt dafür trotzdem die Airpods kaufen, aber naja, diese Marktdominanz zu verlieren, lieber einen kompletten Markt, der dreihundertfünfzig Millionen Menschen umfasst, plus minus, als zu sagen, na gut, dann öffnen wir halt hier den Service.

00:32:40: Ja, ja, sie gehen da ganz brutal, sie spielen eine Monopoly.

00:32:46: Ja, apropos Monopoly, Apple hat ja auch mit Apple Intelligence eine eigene KI, die sie eigentlich, also theoretisch, die ist technologisch noch nicht davon, sie ist gerne hätten und so, aber sie arbeiten dafür auch mit Dienstleistern zusammen, zum Beispiel mit einem Subunternehmen in Barcelona.

00:33:02: Und in diesem Subunternehmen in Barcelona werden Dinge durchgeführt, die sozusagen, das heißt Datenano-Tatoren.

00:33:08: Dass die Übersetzung also sie überprüfen sozusagen die Antworten der KI schärfen sie geben der KI bessere Kommandos und arbeiten damit oder dafür mit einem Handbuch das Apple in die Hand gegeben hat und offensichtlich hat sich seit.

00:33:25: Donald Trump Präsident ist im Januar, ist hier ins Amt gekommen, haben sich dort einige Formulierungen in diesem Handbuch verändert.

00:33:32: Wie zum Beispiel die Hinweise, wie die KI über Diversität, Gleichberechtigung und Inklusion spricht.

00:33:38: Tatsächlich ist das Wort Trump, bevor sie dieses Handbuch also überarbeitet haben.

00:33:45: Ich glaube, viermal aufgetaucht.

00:33:47: Ich suche das gerade genau was, damit ich jetzt kein Quatsch erzähl, warte.

00:33:50: Dreimal vorgekommen, während es in der neuen Version aus Sie scheinen offenbar, obwohl Apple das Unternehmen ist, das immer so am... Stabilsten gilt, sich am Weltoffensten gibt und auch am wenigsten in dieser Trump-Agenda reinschmeißt, obwohl sie so ein bisschen mitspielen.

00:34:08: Wir erinnern uns an dieses Geschenk, oder Tim Kuck saß an diesem Dinnertisch und hat auch gesagt, wir investieren Milliarden und so.

00:34:14: Waren Sie trotzdem immer das Unternehmen, das sich am wenigsten sozusagen Trumpisieren ließ?

00:34:19: Scheinbar haben sie aber unter der Haube schon einige Entscheidungen getroffen.

00:34:25: um sozusagen zu verhindern, in die Ungunst von Donald Trump zu fallen.

00:34:30: Und wir haben ja hier auch darüber gesprochen, wie Donald Trump oder das Team um Donald Trump die Regierung von Donald Trump auf den Umgang von künstlichen Intelligenzen und Chatbots vor allem schaut und darauf wie sie mit Begriffen wie Diversität, LGBTQI Gleichberechtigung überhaupt umgeht.

00:34:49: Ja, das ist ganz traurig, wie sich das Silicon Valley dem politischen Wind angepasst hat.

00:34:55: Und ehrlich gesagt hätte ich es nicht gedacht, dass es so schnell und so deutlich geht.

00:35:03: Also dass man wirklich so schnell und so deutlich alle seine, naja, wie auch immer ernst gemeinten Werte über Bord wirft.

00:35:12: Das finde ich schon schockierend.

00:35:14: Also selbst mich, der ich Berufspassimist bin, also selbst mich hat das überrascht.

00:35:20: Oder überrascht es auch immer noch eigentlich.

00:35:23: Ich verstehe das.

00:35:24: Es ist auch düster.

00:35:26: Also es gibt so Begriffe, die da drin stehen wie regierungsfeindliche Inhalte.

00:35:31: Das ist eine Formulierung, die diesem Handbuch auftaucht.

00:35:34: Und da muss man schon sagen, für einen Chatbot, der sich eigentlich an Wahrheit, Wissenschaft, Fakten orientieren sollte, sollte Regierungsfeindlichkeit nicht zwangsläufig ein Kriterium sein.

00:35:46: Ist mein Empfinden.

00:35:48: Ja, absolut.

00:35:48: Also, wenn ich ein Chatboard frage, ob das was, fiktives Beispiel, Friedrich Merz gesagt hat, ob das richtig ist, sollte die KI nicht überprüfen, ob die Aussage, die sie mir gibt, gegen Friedrich Merz und seine Gunst verstößt, sondern sollte mir auf Grundlage der Fakten eine Antwort geben.

00:36:06: Was ich damit mache, ist meine Entscheidung, wie ich meine Meinung darauf bilde, aber ja, dat.

00:36:14: Ja, stimmt.

00:36:15: Ja,

00:36:16: ich habe noch eine KI-Geschichte.

00:36:19: Sorry, Leute, ich muss das erzählen.

00:36:20: Es ist wahrscheinlich eine der dystopischsten Geschichten des Tages und eine, bei der man sich so denkt, wie konnten wir so schnell da hinkommen?

00:36:28: Sie ist nicht ganz so politisch, aber am Ende vielleicht doch doch.

00:36:32: Und zwar hat Amazon ja ein eigenes Podcaststudio mit dem Namen Wandery.

00:36:35: gehabt.

00:36:36: Sie haben das so ein bisschen abgewickelt in den letzten Monaten.

00:36:38: Sie haben viele dieser Podcasts, die dort veröffentlicht wurden, in ihren anderen Marken aufgehen lassen, wie Ordebez.

00:36:43: Die Deutsche, die Deutsche Vierale haben sie geschlossen, habe ich gehört.

00:36:47: Das kann

00:36:47: sein, das weiß ich nicht.

00:36:48: Ich habe

00:36:49: den Bose Park Podcast gehört, die ja produzieren und die haben gesagt, die Deutsche Vierale haben die dicht gemacht.

00:36:57: Ja.

00:36:58: So, jetzt bedeutet aber natürlich, wenn so ein Label schließt, dass die Leute, die dort gearbeitet haben, sich eine neue Beschäftigung suchen mussten.

00:37:04: Wie zum Beispiel... Ach

00:37:05: so, wir mussten eigentlich noch, schuldigung, haben wir gesagt, wem das, wem die Bude gehört?

00:37:09: Jeff Bezos meinst du?

00:37:10: Emerson?

00:37:11: Ja.

00:37:12: Ja, haben wir glaube ich gesagt, aber können wir auch noch mal sein.

00:37:15: Das ist Emerson.

00:37:16: Janine Wright, die war eine Führungskraft bei One Tree in den USA und die hat jetzt ein neues Unternehmen gegründet, aber auf jeden Fall ist sie dort Management mit dem Namen Inception Point AI.

00:37:26: Und deren Ziel ist es, den Markt mit Audioinhalten zu überschwemmen, sie planen oder haben schon jetzt den Weg, fünftausend Podcasts in den Staat zu bringen, dreitausend Episoden pro Woche komplett mit KI generiert.

00:37:42: Ja, das ist der ultimative Content-Müll-Kapitalismus.

00:37:49: Das ist einfach unglaublich.

00:37:52: Sie sagen selber, wir könnten einen Pollen-Podcast produzieren.

00:37:55: Der hätte vielleicht nur fünfzig Hörer, aber damit würden wir bereits eine Gewinnschwelle erreichen, sodass ich dann vielleicht fünfhundert Pollen-Bericht-Podcasts produzieren könnte.

00:38:03: Ja, das ist akkustische

00:38:06: Umweltverschmutzung.

00:38:07: Also vielleicht sind wir da wertekonservativ, aber wenn ich das höre, möchte ich meinen Kopf auf den Tisch schlagen.

00:38:12: Also nicht nur, weil ich ein Podcast mache und daran glaube, dass das Wichtigste an Podcast, also ich mache ja auch ganz viel Podcastproduktion für andere Unternehmen, für Medienhäuser, ich berate und erzähle so viel und rede mir den Mund fuzzlig, weil ich immer sage, der wichtigste Faktor bei einem Podcast, und jetzt lasse ich mir doch ein bisschen hier in die Karten schauen, aber ich habe der Emotion.

00:38:28: Der wichtigste Faktor bei einem Podcast sind ja die Menschen, weil sie nicht perfekt sind, weil es keine Maschinen sind.

00:38:34: Es ist nicht, ich lasse mir nicht die Wikipedia vorlesen, sondern ich will, dass Leute sich unterhalten, dass sie sich reiben, dass sie Kanten haben, dass sie Ideen haben.

00:38:41: Das während eines Podcasts ja auch was entsteht, dass wir beide hier in ein Gespräch kommen und dann Ideen haben und so.

00:38:48: Dass wir auch mal sprechendes Denken entwickeln.

00:38:50: Ja,

00:38:50: genau.

00:38:51: Und das haben wir bei diesen vorgefertigten KI hin und her geplänkeln eben nicht.

00:38:57: So beeindruckend das gemacht wird.

00:39:00: Also ich habe es auch schon mal ausprobiert mit diesem Google Automaten, den man irgendein Text hingibt und dann spielen sie ein Mann und eine Frau da die Bälle hin und her.

00:39:09: Und das ist alles so auf so einer technischen Ebene beeindruckend.

00:39:13: Aber es ist halt furchtbar.

00:39:16: Genau.

00:39:16: Weil

00:39:16: es einfach klinisch ist.

00:39:18: Es ist wie mit so einem Klarlack drüber.

00:39:22: Dann kriegen wir halt nur noch so eine Klarlackteile.

00:39:25: Sie behaupten aber auch übrigens, dass sie einen Dollar pro Episode brauchen, Handkosten.

00:39:32: Da gibt's nicht so, also wir haben hier im Discord heute ein bisschen diskutiert und die find nerd und sebo haben sich das mal ein bisschen genauer angeschaut was auch so geil ist.

00:39:39: ne das ist einfach.

00:39:40: vielen dank leute.

00:39:41: ich muss das mal kurz sagen.

00:39:42: da sitzen einfach leute.

00:39:43: ich post diesen link und schreibe ich finde das schlimm.

00:39:45: Und dann recherchieren die da so tief rein und gehen da so rein und sagen, das kannst du nicht mit ein Dollar pro Podcast machen, weil die Tokens vermutlich teurer werden, um das zu tun.

00:39:53: Gleichzeitig haben sie aber bislang wohl noch keine Investoren.

00:39:58: Versuchen also damit offenbar irgendwie, wie Cebu sagt, mit Bullshit Bingo hier Investoren auf sich aufmerksam zu machen.

00:40:03: Also ich glaube, die sind ein Dollar pro Episode.

00:40:04: Kram, den können wir einfach mal ignorieren.

00:40:07: Aber alles andere ist natürlich schlimm, vor allem wenn man dann liest, dass Janine Wright sagt, ich glaube, dass Leute, die AI-Slop als, oder KI-generierte Inhalte als AI-Slop bezeichnen, einfach nur Technikmuffel sind.

00:40:20: Ja, nein, wir sind Menschen, die noch wissen, dass guter Content Zeit, Gedanken und echte Erfahrungen braucht.

00:40:29: Das ist die Antwort.

00:40:30: So ist es.

00:40:31: Ja.

00:40:32: Ja und mehr habe ich dazu nicht und deswegen nehme ich dich hier mit in unsere

00:40:38: Funktionen und Emotionen.

00:40:43: WhatsApp erlaubt es jetzt, dass du Dateien mit bis zu zwei Gigabyte Dateigröße verschicken kannst.

00:40:51: Ich bin kein Power-User, aber

00:40:54: das,

00:40:55: ja, keine Ahnung, da klär du mich auf.

00:40:58: Also, normalerweise bin ich immer für so tolle Sachen.

00:41:02: Wenn man noch mehr kann, bin ich jetzt mehr als tech, als techverliebter Mensch, finde ich es immer toll.

00:41:08: Noch mehr.

00:41:09: Toll.

00:41:12: Muss natürlich sich überlegen, ob man das alles über WhatsApp-Server schicken möchte, wenn man sich eine Datei senden will.

00:41:16: Aber sie haben glaube ich so ein bisschen die Lücke erkannt, die Retransfer im Moment aufreist, dass es ganz, ganz viele Einschränkungen für nicht zahlende Nutzerinnen gibt, wie zum Beispiel, dass der Inhalt nur noch drei Tage online ist und so.

00:41:26: Ja, stimmt.

00:41:27: Und es ist halt kein peer-to-peer, also ich schicke den nicht wirklich die Datei, sonst liegt er dann auf dem WhatsApp-Server.

00:41:32: und da frage ich mich, ja, also am Ende, why not?

00:41:35: Kannst du halt machen, ich würde es für sensible Daten jetzt nicht unbedingt machen.

00:41:38: Einfach nicht nur wegen der Verschlüsselung, die ja immer ein wahrscheinlich in den Dateien vorliegt.

00:41:43: I don't know.

00:41:45: Nicht nur deswegen, sondern auch einfach, weil das halt trotzdem sicher als Risiko ist.

00:41:48: Du hast so viele Geräte im Zweifel, die sich mit WhatsApp für dich verbunden haben, das sind Laptop-Infos.

00:41:52: stehen, kommen Leute an die Daten.

00:41:53: Das ist nicht perfekt, ist ein Retransfer-Link aber auch nicht fairerweise.

00:41:58: Keine Ahnung, ich weiß auch die Anwendungsfälle nicht.

00:42:01: Du bist auf einer Hochzeit und hast mit deinem Handy das Video gedreht und Ballast da jetzt, jetzt, jetzt, jetzt, jetzt,

00:42:09: jetzt, jetzt, jetzt, jetzt, jetzt, jetzt, jetzt, jetzt,

00:42:19: jetzt, jetzt,

00:42:21: jetzt,

00:42:21: jetzt, jetzt, jetzt, jetzt.

00:42:32: Wir haben jetzt mal zehn verschiedene Entwürfe für das Kita-T-Shirt gemacht.

00:42:35: Hier sind die Roh-Druck-Dateien.

00:42:36: Stimmt doch mal ab.

00:42:37: Und dann kriegst du zehn, zwei Gigabyte Dateigroße PDF.

00:42:40: Genau.

00:42:41: Ja, oder Chantal im Wildpark, wie sie den weißen Hirsch füttert.

00:42:46: Wie das ist so süß.

00:42:47: Ich schick das mal in die Gruppe.

00:42:50: Ja, ich freu mich.

00:42:51: Schöne Neuzeiten.

00:42:53: Und Snapchat.

00:42:55: Snapchat hatte den Plan.

00:42:58: Eine Milliarde monatlich aktive...

00:42:59: Ist es auf Snapchat?

00:43:01: Ich bin nicht auf Snapchat.

00:43:02: Also ich hab die App auf dem Telefon und guck da manchmal aus beruflichen Gründen rein.

00:43:05: Aber das ist jetzt nicht mein soziales Netzwerk der Ball.

00:43:08: Ich bin da aber auch mindestens dreifach zu alt dafür, um das zu nutzen.

00:43:13: Aber es gibt jetzt einen offenen Brief von Evan Spiegel, das ist der CEO.

00:43:18: Und der hat gesagt, wir haben das Ziel, in den Jahren im April einen monatlich aktiven Nutzerin zu erreichen.

00:43:25: Diesen Jahr ist schon bei neunhundert Millionen.

00:43:27: Im Februar letzten Jahres waren es noch achthundert Millionen.

00:43:31: Kann sein.

00:43:32: Thomas Gigault hat das in seinem fantastischen Newsletter, siebendreißig, alles mal aufgeschrieben.

00:43:36: Wenn ihr den noch nicht abonniert habt, tut das mal.

00:43:39: Aber sie haben deswegen angekündigt, dass es ein paar neue Features gibt, um, wie sie sagen, den Fokus zu justieren.

00:43:44: Wie zum Beispiel Live Streaming auf WhatsApp, ein Snapchat, eine neue AR-Brille und Sponsored AI-Chats für Marken.

00:43:53: Also du kannst dann mit Nivea direkt schreiben.

00:43:57: Ja, das hört sich für mich auch alles ein bisschen verzweifelt auch wieder an, wo wir vorhin schon bei der Verzweiflung waren.

00:44:03: Ich meine, die App, das war mal eine echte Alternative für die Kids, für Großvater Facebook, privat flüchtig, für die Freunde.

00:44:13: Und jetzt kopieren Sie also verzweifelt TikToks Erfolgsrezept und werden zur nächsten Videoplattform.

00:44:22: Ja, ich weiß nicht.

00:44:24: Und Sponsored AI schätzt, das ist... Das ist so ein dystopischer Bullshit.

00:44:32: Die Marken sollen mit Fake-KI-Freunden dann die Kids voll quatschen?

00:44:37: Nee, ich weiß nicht.

00:44:40: Ich weiß nicht, ob der Spiegel nicht seine einzigartige Plattform, gerade in so einen generischen Attention Harvest, da irgendwie verwandelt.

00:44:50: Und genau das verliert, was der überhaupt noch so besonders war an diesem kleinen Ding.

00:44:56: Ich lass dich einfach weiterreden.

00:44:57: Das ist wundervoll, dir zuzuhören.

00:44:59: Das ist ganz toll.

00:45:00: Ich hab da so ein Westnest gerade eingepiekt.

00:45:03: Genau.

00:45:04: Nee, ich bin auch schon durch.

00:45:07: Und dann haben wir zum Schluss, werden wir versprochen, so Elon Musk-Meldungen an den Schluss zu schieben.

00:45:11: Aber die passt hier so ein bisschen trotzdem in den Podcast.

00:45:14: Elon Musk ist wieder reichster Mensch der Welt.

00:45:16: Und da fragt man sich Momentchen mal.

00:45:18: Elon Musk war doch die ganze Zeit der Reiste Mensch der Welt.

00:45:20: Ja, aber Dienstag und Mittwoch nicht.

00:45:23: Denn Oracle, das Unternehmen von Larry Ellison, der ja auch so ein Trump-Buddy ist und der so viel so, der überlegt TikTok zu kaufen, wenn es dann irgendwann tatsächlich mal passieren sollte.

00:45:33: Der, also Oracle, hat in der Nacht zum Mittwoch, glaube ich war das, einen absoluten Kurssprung hingelegt und durch diesen Kurssprung ist das Vermögen von Larry Ellison über Nacht um hundert Milliarden Dollar gestiegen auf dreieinundneinzig Milliarden Dollar und damit mehr als die dreieinundachzig Milliarden Dollar von Elon Musk.

00:45:51: Das hat sich wieder ein bisschen, wie sagt man, ausgeglichen mit der Zeit und deswegen ist Elon Musk jetzt wieder der reiste Mensch der Welt, aber nur mit einer Milliarde Vorsprung.

00:46:00: zum Zeitpunkt dieser Aufnahme könnte also durchaus sein, dass da jetzt ein bisschen Kopf an Kopfrennen entsteht und vielleicht sogar ein bisschen wettbewerb der schlimmsten Menschen der Welt.

00:46:10: vielleicht, I don't know, aber... Das ist alles erst mal gar nichts in Tesla erwägt.

00:46:15: Elon Musk ein neues Gratifikationspaket zu kommen zu lassen in der Höhe von ein tausend Milliarden Dollar.

00:46:20: Also eine Billion Dollar sollte er es schaffen, dass den Wert des Unternehmens zu verachtfachen.

00:46:26: Die Frage ist natürlich ab wann, wenn er das Unternehmen jetzt so richtig in den Sand setzt, dann ist die Verachtfachung nicht mehr schwierig.

00:46:32: Ja, das stimmt.

00:46:33: Das ist ein guter Hinweis.

00:46:35: Ja, also die betteln sich irgendwie wie im wilden Westen.

00:46:42: Ich glaube der Elison, der spielt das Spiel irgendwie cleverer.

00:46:46: Während Musk die ganze Zeit auf Twitter rumpoltert und weltweit alle Tesla-Käufer vergrault, macht Elison eben diese leisen Mega-Deals und sahnt im Cloud-Geschäft ab.

00:47:04: Man könnte sagen, die wahre Story dahinter ist, Musk hat sich mit seinem Politiker-Hampel hat er sich halt selbst ins Knie geschossen.

00:47:12: Aber, naja, für einen guten zweiten Platz ist er auch aller Ehren wert.

00:47:16: Ja, und dieser Knie-Schuss, glaube ich, gilt ja nicht nur deswegen, weil er sich so politisch so, ja, wie formuliert das jetzt, so verhalten hat, wie er sich im Verhalten hat, sondern auch, und das ist ja eigentlich die größte Erkenntnis, die Leute haben gelernt, was Elon Musk für ein Mensch ist.

00:47:34: Also die Radikalisierung von Elon Musk ist er sehr langsam vorangeschritten, aber der Moment, wo alle Leute mitbekommen haben, wie weit er sich schon radikalisiert hat.

00:47:42: Der war ja so spät, dass das öffentliche Bild von Elon Musk auf Jahrzehnte ruiniert ist.

00:47:49: Und das ist aber vielleicht auch ganz gut so, weil das vielleicht dazu führt, dass so einige Leute, die trotzdem von den Innovationen angetan waren, was ... Zu manchen Zeiten, auch wenn es nicht seine Innovationen waren, aber die seiner Unternehmen, zu manchen Zeiten sicherlich gerechtfertigt war, dass sie jetzt verstehen, dass damit auch eine politische Botschaft einhergeht, wenn sie sich einen Tesla kaufen.

00:48:10: Das stimmt, absolut.

00:48:12: Und mit diesen doch versündlichen Worten bedanke ich mich, dass du heute da warst, lieber Lorenz.

00:48:16: Es war mir Freude und Ehre zugleich, wie immer.

00:48:18: Es ist immer so

00:48:19: schön.

00:48:20: Nächstes Mal haben wir mehr Zeit, weil ich muss jetzt leider direkt weiter.

00:48:24: Aber ich wünsche euch allen einen ganz wundervollen Freitag, ein ganz wundervolles Wochenende.

00:48:29: Passt bitte ganz auf euch auf, es wird nass zumindest im Ruhrgebiet.

00:48:32: Wie es bei euch ist, wisst ihr wahrscheinlich besser als ich.

00:48:34: Wir hören uns sehen da am Montag mit Dennis und Lorenz.

00:48:37: Vielen Dank für alles.

00:48:38: Das war sehr, sehr schön.

00:48:39: Bis bald.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.