Der Phoenix in der Asche

Shownotes

Musk hat ein Versprechen gehalten! 👏 Aber wie immer: Halbgar. Denn zwar hat xAI den Algorithmus der For-You-Page veröffentlicht, aber immer noch fehlen hier die Gewichtungen. Wir wissen also: Likes sind wichtig, aber nicht, WIE wichtig. Dafür gibt es aber Good News, denn die Gasturbinen, die xAI betreiben, sind nun illegal. Außerdem sprechen wir über einen Richter, der im Netz “anonym” Hasskommentare verbreitet und darüber, wie Bluesky mal wieder Kultur und Realität aufeinanderknallen.

➡️ So erklärt Grok seinen Algorithmus selbst (Vorsicht, Link zu X!): https://x.com/cb_doge/status/2013479028158800185 ➡️ taz - “Anonym verurteilt”: https://taz.de/Hasskommentare-im-Internet/!6142257/

🎤 Haken Dran geht auf Tour! Wir sind mit 4 Liveterminen Anfang 2026 quer druch Deutschland unterwegs - alle Infos und Tickets hier: http://hakendran.org

➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt: 00:00:00 - Hallo zusammen! 00:00:41 - Elon Musk “veröffentlicht” X-Algorithmus 00:13:44 - Die Gasturbinen von xAI 00:16:15 - taz-Recherche: Richter als Hass-Troll auf Instagram 00:18:59 - Metaverses angeblicher Tod 00:21:12 - Bluesky in der Kritik

ℹ️ Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier: https://wonderl.ink/%40heise-podcasts

Transkript anzeigen

00:00:00: Hallo zusammen zu dieser kleinen Solo-Ausgabe von Haken dran, Folge fünfundundzwanzig ist das ihr übrigens.

00:00:07: Und ich bin heute alleine für euch da, ihr wisst normalerweise habe ich ja eigentlich immer Gäste, aber wir hatten dieses mal kleine koordinative Herausforderungen, weswegen ich das ganze heute einmal nochmal für euch alleine mache, bevor wir dann die nächste Episode am Freitag live vor Publikumaufzeichnen werden mit zwei Gästen.

00:00:26: Das ist verrat ich dann am Ende dieser Episode hier.

00:00:29: Aber es sind ein paar Dinge passiert, über die ich euch gerne auf dem Laufenden halten würde.

00:00:35: Und bevor das Ganze ausfällt, das machen wir nicht, mache ich das Ganze einmal mit euch gemeinsam hier alleine.

00:00:41: Und ich möchte gerne mit einer Geschichte anfangen, die Elon Musk vor langer Zeit versprochen hat, auf die wir quasi gewartet haben, mehr oder weniger, die aber unter zwei Gesichtspunkten sehr interessant ist, nämlich zum einen, weil man daraus lernen kann, wie andere Social Media Plattform neben X, möglicherweise eben auch vorgehen, die ähnliche Dinge anbieten wie X, also im konkreten geht es hier um die For You Page, zum anderen aber auch, weil es vielleicht Rückschlüsse darauf schließen lässt, zumindest in Teilen.

00:01:12: Wie wenig ausgefuchst und ausgeklügelt dann diese vor you page manchmal trotzdem ist Obwohl man andere gefühle bekommt.

00:01:19: ich fange aber ganz vorne an denn Elon Musk hatte schon vor einigen wochen versprochen dass er den Algorithmus der die Grundlage bildet dafür welche Inhalte uns auf der vor you page vorne angezeigt werden Veröffentlichen möchte.

00:01:31: angekündigt war das ganze für letzte woche freitag.

00:01:34: veröffentlicht wurde das ganze dann diese Woche am Dienstag also Mal wieder nur mit einer kleinen verspätung wie sich das eben gehört.

00:01:41: Das war's für heute.

00:01:42: Und trotzdem müssen wir da mal drauf schauen und mal versuchen zu schauen, was wir daraus lernen können.

00:01:47: An der Stelle ein ganz großes Dankeschön an unsere Haki's im Discord.

00:01:50: Wir haben ja den begleitenden Discord-Kanal www.hagnan.org.

00:01:53: Über zwei tausend einhundert und siebzig Leute sind da inzwischen, die sich eigentlich mit all diesen Themen hier auch schon auseinandersetzen und auch einen ganz schönen großen Teil an der Recherche für diesen Podcast hier übernehmen.

00:02:03: Und namentlich haben sich hier, nämlich sobald dieser Algorithmus veröffentlicht wurde, relativ schnell Koffi-Hollig, Viase, Define Nerd und Sunderbird.

00:02:11: eingeschraubt in diesen Algorithmus, wie Tina Wittler in der Folge blau, in Minute vier.

00:02:19: Ihr erinnert euch, wir haben letzte Mal am Montag darüber gesprochen in der Folge mit Simon und haben sich angeschaut, was eigentlich zu diesem Algorithmus dazugehört.

00:02:26: Gleichzeitig haben meine Kollegen von Heise das Gleiche getan und man kann direkt vorne weg schicken, dass Elon Musk selber bei der Veröffentlichung dieses Algorithmus ist.

00:02:35: Die, wie gesagt, später kam, als sein Versprechen eigentlich vorgegeben hatte, sich mehr oder weniger dafür entschuldigt hat, wie dieser Algorithmus aussieht.

00:02:42: Denn er hat geschrieben, wir wissen, dass dieser Algorithmus dumm ist und massive Verbesserungen benötigt, aber wenigstens könnt ihr uns in Echtzeit dabei zuschauen, wie wir kämpfen, ihn besser zu machen.

00:02:52: Und das sind ganz schön große Worte angesichts der Tatsache, dass seit zwei Jahren auf dem GitHub Repository von Twitter mittlerweile XAI ein paar Daten rumliegen, die relativ wenig Aussagekraft haben angesichts dessen, dass wir dabei in Echtzeit zuschauen sollen.

00:03:09: Also seit zwei Jahren wurde daran auch nichts mehr aktualisiert.

00:03:13: Wie er besser gemacht werden soll, auch das wissen wir nicht so richtig und vor allem wissen wir auch noch nicht so richtig, wie er tatsächlich funktioniert.

00:03:19: Aber ich fang ganz vorne an.

00:03:20: Dieser Algorithmus, der hier veröffentlicht wurde, der wurde hier vor allem in Sonne.

00:03:24: Also, man muss sich das ungefähr so vorstellen, dass wir jetzt die Bauanleitung für das Billy Regal geliefert bekommen haben, aber wir wissen nicht, wie viele Schrauben in dem Paket sind.

00:03:33: Denn wir wissen jetzt, wie der Algorithmus auswählt.

00:03:36: Also, es gibt erst mal zwei Arten von Postings, die grundsätzlich ausgewählt werden können.

00:03:41: sogenannten in-network-posts und die out-of-network-posts.

00:03:45: Also die Inhalte, die von Accounts kommen, denen man folgt und die Inhalte, von denen ein Algorithmus, ein Machine Learning Prozess denkt, dass sie für uns interessant sind.

00:03:58: Also hier wird ein similarity search durchgeführt.

00:04:00: Also Inhalte, die so ähnlich sind wie die Inhalte, die uns sonst gefallen.

00:04:05: Interessant ist, dass eigentlich überall in dieser Dokumentation und auch in den Quellcode dieses Algorithmuses immer wieder davon gesprochen wird, dass der neue Algorithmus auf GROC-Basis läuft.

00:04:16: Und das finde ich interessant, dass haben unsere Hackies im Discord auch so ein bisschen nochmal auseinander gefremelt.

00:04:21: Es gibt wenig Hinweise darauf.

00:04:23: Dass da tatsächlich ein LLM irgendwo drin stecken würde.

00:04:28: Also Define Herd schreibt, dass es nur ein Mischmarsch aus Rust und Python und anderen Kramen, der als Demo Code gedacht ist.

00:04:35: Und Cebu, der auch mit gebastelt hat, sagt, also da ist nicht viel LLM drin zu finden.

00:04:40: Es sind keine Prompts zum Beispiel dabei und nicht, sondern es sind halt Machine Learning Prozesse.

00:04:45: Und da muss man sagen, dass die These, die wir hier aufgestellt haben, dass dieser Algorithmus auf Grockbasis eigentlich nichts anderes ist als Alta Weinen in neuen Schläuchen.

00:04:54: weiter Nutzung der bestehenden Prozesse, die man jetzt einfach nur als grock labelt, um dem ganzen so ein KI-Label draufzusetzen, wie wir das auch von anderen Unternehmen kennen, die sagen, hey, jetzt ist plötzlich alles AI-powered und eigentlich hat sich aber gar nichts verändert außer die Tatsache, dass da jetzt ein Sticker draufklebt, auf dem KI steht.

00:05:12: Das muss man direkt dazu sagen, aber um das Ganze nochmal so ein bisschen weiter auseinanderzunehmen.

00:05:16: Also es gibt diese Auswahl der in-Network-Posts und der out-of-Network-Posts, also der Inhalte von Leuten, denen ich folge oder denen, denen ich nicht folge.

00:05:25: Die werden dann durch den sogenannten Hydration-Prozess angereichert, also durch Metadaten, aber auch Informationen über die Person, die den Inhalt hochgeladen hat oder die Fakten, ob da zum Beispiel Medien dran hängen oder Links oder so was.

00:05:37: Und dann wird gefiltert.

00:05:38: Also es wird alles rausgenommen, was Duplikate sind, was alte Postings sind.

00:05:43: Duplikate übrigens deswegen interessant, weil Threads es nicht tut oder lange nicht getan hat.

00:05:47: Da haben wir sehr häufig ähnliche Inhalte gefunden, die trotzdem angezeigt wurden.

00:05:52: Inhalte die man selber gepostet hat, Inhalte die Menschen gepostet haben die man blockiert hat oder Inhalte die... Keywords beinhalten, die man stummgeschaltet hat, also eigentlich all die Dinge, die man eben nicht sehen möchte.

00:06:03: Und dann wird das Scoring-Prozess durchgeführt.

00:06:05: Und dafür nutzt XAI ein Prinzip, das Phoenix heißt.

00:06:10: Und Phoenix macht eigentlich nichts anderes, als das Auseinandernehmen von den Sachen, die man dort sieht.

00:06:17: Sie anreichern mit Inhalten, oder Zahlen, wie Likezahl, Antwortzahl, Talzahl, Retreatzahl, Zitierzahl, Klicks, Profis, hier besuchen, wie viele Menschen haben sich das anhängende Video mehr als fünfzig Prozent angeschaut, wie viele Leute haben das Bild größer gemacht, wie oft wurde es geteilt und wie viele Leute sind gefolgt, aber auch negative Aspekte wie nicht interessiert blockieren, stumm schalten oder melden.

00:06:42: Diese ganzen Faktoren werden dann mit der Wahrscheinlichkeit multipliziert und dann mit einem Gewichtungsfaktor versehen.

00:06:49: Und dieser Gewichtungsfaktor am Ende hilft dabei, das Ganze zu scoren.

00:06:53: Der Gewichtungsfaktor ist deswegen wichtig, weil der eigentlich der spannende Punkt wäre, nämlich dadurch würden wir erfahren, welche Inhalte tatsächlich angezeigt werden, ausgewählt werden.

00:07:02: Also was ist dem Algorithmus denn wichtig, wenn wir Inhalte hochladen?

00:07:05: Und ihr ahnt, dass so wie ich da herum eiere, Diese Gewichtung kennen wir nicht.

00:07:10: Die sind in dieser Dokumentation nicht dabei.

00:07:13: Es gibt keinen Punkte, keinen Schema, keinerlei weitere Gewichtungsfaktoren.

00:07:17: Wir können also nicht nachvollziehen, so schreibt es Heise auch, ob ein welcher Inhalt jetzt warum angezeigt wird.

00:07:23: Wir können nicht nachvollziehen, ob der Negativfaktor eines Blocks schwerer wiegt als der Positivfaktor einer Reply usw.

00:07:31: Das wissen wir alles nicht.

00:07:33: Genauso, was wir nicht haben, sind die Trainingsdaten.

00:07:36: Also wir wissen nicht, welche unsere Nutzerinteraktion eine Grundlage bilden, damit uns Inhalte angezeigt werden.

00:07:42: Wie groß ist der Zeitraum eigentlich, um die Ähnlichkeit festzulegen, die Inhalte bestimmen, die mir eventuell gefallen können?

00:07:49: Wissen wir alles nicht.

00:07:50: Sprich, diese weitere Veröffentlichung eines Algorithmuses ist ja mal wieder einfach nur ein Anreichern von diesen von diesen grundsätzlichen Strukturen, wie ein Algorithmus funktioniert.

00:08:03: Wir wissen aber nicht ganz genau, welche Inhalte oder welche Entscheidungen.

00:08:07: in Anführungsstrichen, dieser Algorithmus hier vornimmt.

00:08:09: Das ist natürlich unter einem gewissen Gesichtspunkt nachvollziehbar, weil wenn wir das wüssten, würde sich die Art und Weise wie Menschen auf der Plattform Inhalte veröffentlichen auch verändern.

00:08:19: Wir würden unsere Inhalte darauf hin anpassen und müssten nicht einfach nur so wie das alle die ganze Zeit machen, trial and error betreiben und daraus lernen, was die Zahlen und sagen nachdem wir etwas veröffentlicht haben, sondern wir könnten konkret auf den Algorithmus maßschneidern.

00:08:33: Das ist also... aus Plattformgesichtspunkten nachvollziehbar das nicht zu veröffentlichen.

00:08:37: Problematisch wird es dann, wenn das Versprechen aber gegeben wird, dass der vollständige Algorithmus komplett veröffentlicht wird, damit wir nachvollziehen können, wie diese Entscheidung getroffen werden, weil das hier ist nicht der Fall.

00:08:48: Das heißt, Phoenix bleibt da in seiner Asche liegen und wir können nicht so richtig auseinanderzählen, was jetzt hier eigentlich Asche und was es einfach nur dreck.

00:08:54: Und das ist ein bisschen schade, weil das Versprechen halt einfach mal wieder nicht gehalten wird.

00:09:00: Gleichzeitig liegt diesem Algorithmus übrigens ein sogenannter Code of Conduct by in einer Markthandertei und dieser Verhaltenscodex, wie wir ihn auch von anderen Unternehmen, Plattformen und so weiter kennen, besteht aus einem Satz und der sagt einfach nur be excellent to each other.

00:09:16: Was natürlich ganz toll klingt und ganz groß klingt und große Worte passt einfach aufeinander auf, seid excellent zueinander.

00:09:23: Man musste zu sagen, das hat nichts mit Content-Moderation zu tun, nichts mit einem Approach von Content-Moderation.

00:09:30: Und es ist auch deswegen interessant, weil es so wie X eigentlich uns vormacht, wie wir miteinander umgehen müssten, dass es eigentlich gar keine Rolle spielt, wie wir miteinander umgehen.

00:09:40: Also diese Exzellenz einander beweisen zu wollen, die spielt gar keine Rolle.

00:09:44: Das ist ja einfach nur eine völlig sinn- und Inhaltslehre Datei, die hier beiliegt, um... vielleicht die Leute, die nicht bei GitHub einen Klick mehr machen, mit dem Gefühl nach Hause gehen zu lassen, es gäbe einen Code of Connect bei X. Interessant ist übrigens das X Daily News, ein Account, den wir ja auch schon öfter uns angeschaut haben.

00:10:05: diesen Algorithmus mal in GROC gegeben haben und gefragt haben, wie funktioniert er eigentlich?

00:10:09: Also was kann man aus diesen ganzen Skrippen herauslesen, darüber wie dieser Algorithmus funktioniert?

00:10:14: Wenn ihr möchtet, packe ich euch dieses GROC-Protokoll mal in die Show Notes.

00:10:19: Ihr könnt euch dann selber aussuchen, ob ihr da drauf klicken möchtet und GROC einen Klick schenken möchtet oder nicht, aber der ganze Prozess, den ich euch gerade so ein bisschen dargestellt habe, der wird hier nochmal erzählt.

00:10:31: und hintereinander gesetzt.

00:10:33: Spannend übrigens, dass Grock selber von sich behauptet, dass Grock ein leistungsstarkes KI-Modell wäre, das alle bisherigen Interaktionen nutzt und dann herausfinden möchte oder voraussagen möchte, wie wahrscheinlich es ist, dass man diesen Inhalten mögen wird.

00:10:48: Ob das dann tatsächlich am Ende auch wirklich gut funktioniert und eine Grundlage für die Punkte bildet, wissen wir nicht, weil wir, wie gesagt, die Gewichtung dieser Punkte.

00:10:56: nicht kennen.

00:10:57: Also das ist jetzt erstmal so.

00:10:59: der Stand zum X-Algorithmus.

00:11:01: Man erfährt nicht so viel wie eigentlich grundsätzlich versprochen wurde.

00:11:06: Aber naja, wer will sich denn noch beschweren, dass Versprechen von Elon Musk nicht gehalten wurden.

00:11:11: Ich glaube aber, und jetzt kommt mein Hot Take zum Wenn man in die Algorithmen von Meta und TikTok schauen würde, würde man zwar wahrscheinlich eine deutlich größere Datenflut finden, weil man länger schon mit diesen Prinzipien arbeitet und auch wahrscheinlich mehr Datenbestände hat, aber ich glaube am Ende die kochen alle nur mit Wasser.

00:11:31: Wow, hab ich das wirklich gesagt.

00:11:33: Das wird alles ähnlich wenig mit Magie zu tun haben, was da am Ende passiert.

00:11:39: Ich glaube einfach nur, dass die Datenpunkte, die genutzt werden, um solche Voraussagen anzustellen, dass die einfach insgesamt ein bisschen mehr sind.

00:11:47: Aber ich glaube, man darf da jetzt keine Zauberei erwarten.

00:11:50: Und vermutlich ist es einfach so dieses immer wieder zitierte drei Videos bei TikTok gucken und dann weiß der Algorithmus, was dir gefällt.

00:11:57: Ich glaube, das sind auch ganz viele Placebo-Effekte.

00:12:01: Jetzt habe ich es gesagt.

00:12:02: Sorry.

00:12:04: Es gibt ein Screenshot der gerade rum geht, damit bleiben wir noch kurz bei X, der so ein bisschen auch zeigt, wie Grock sich vielleicht mittlerweile selber begreift oder wie man im X-Kontext das selber versteht, denn jemand hat ein Bild von N-Hathaway veröffentlicht.

00:12:19: Und jemand anders hat auch drunter geschrieben, Ed Grog, do your thing.

00:12:22: Und wir wissen, dass es gerade in den letzten Wochen ziemlich viele Gespräche darüber gab, dass Grog Menschen in Bikinis gesetzt hat, die das eben nicht möchten, in sexualisierte Kontexte gesetzt haben, die das nicht wollten und die auch garantiert dieses Bild nicht erstellen lassen wollten, weil das passiert ist.

00:12:36: Grog hat hier aber interessant geantwortet.

00:12:38: Übrigens in Europa und Großbritannien und offenbar auch in Kalifornien, wie es aussieht, das kann ich nicht überprüfen, ist diese Bilderstellung mittlerweile gar nicht mehr möglich.

00:12:49: ist sie nur noch gegen Geldzahlung möglich.

00:12:50: Zumindest die öffentliche, die die Leute auch sehen.

00:12:53: Wenn man mit dem Chatbot grock auf grock.com spricht, ist das, glaube ich, die Domain oder vielleicht auch nicht.

00:13:02: Da funktioniert das tatsächlich immer noch.

00:13:04: Auf jeden Fall hat grock das hier nicht gemacht, sondern grock hat folgende Antwort gegeben.

00:13:09: isn't Jewish, also ist keine Jüdin.

00:13:11: Sie ist katholisch aufgewachsen, hat dann die Kirche verlassen, hat Adam Schalman geheiratet, der jüdisch ist und sie verbringen jüdische Urlaube mit ihren Kindern.

00:13:20: Sie hat auch jüdische Rollen gespielt, dass sie Antwort die Grock gibt.

00:13:24: Womit Grock quasi als Chatbot selbst impliziert, dass at Grock do your thing hier nicht auf diese Sexualisierung von Bildern anspielt, sondern eher auf dem Antisemitismus oder möglicherweise den auch erwartet, was sehr bemerkenswert ist.

00:13:42: Ich sage das vorsichtig.

00:13:45: Unseren KI wie Grock verbraucht eben auch viel Strom.

00:13:48: Das war meine tolle Überleitung zum einzundigsten Jahr neunzeiten, das ist sechsundzwanzig.

00:13:53: Und der ist ja, wie wir wissen, bei XAI häufig aus Gasturbinen generiert worden.

00:13:56: Es gibt zwei Rechenzentren, nämlich Colossus One und Colossus Two, die in Memphis stehen und die wurden eben mit Gasturbinen angetrieben, die einfach daneben aufgestellt wurden.

00:14:08: Viele Expertinnen sagen auch, diese ganzen KI-Rechenzentren brauchen so viel Strom, dass es man darauf angewiesen ist, dass man eigentlich außerhalb des Stromnetzes selber eigenen Strom generiert, Meter wissen wir überlegt, ob sie kleine Atomkraftwerke auf ihre Grundstücke bauen und so weiter.

00:14:25: Tatsächlich ist es aber so, dass diese Gasturbien, als sie aufgestellt wurden, durch eine Gesetzeslücke in Memphis genutzt werden durften und zwar solange die Maschinen nicht länger als dreihundertsechzig Tage an einem Ort stand.

00:14:36: Das war ein Gesetz in Memphis, das genutzt wurde.

00:14:39: Dieses Gesetz gilt aber nicht mehr.

00:14:40: Es gibt eine neue Regelung der Umweltschutzbehörde IPA und die sagt, dass die Genehmigung solcher Tumibienen jetzt bundesrecht ist.

00:14:48: Das heißt grundsätzlich müsste XAI dort jetzt eigentlich eine Genehmigung für diese Gasturbine einholen und das ist auch mehr als angebracht und angemessen in den Gemeinden, die direkt anliegend sind.

00:14:58: an diesen Colossus-Rechenzentren, die leiden unter extrem schlechter Luft, seitdem diese Turbinen dort stehen.

00:15:04: Die war vorher schon nicht perfekt, die Luft, aber sie wurde nochmal deutlich stärker verschmutzt.

00:15:08: Also extrem hohes Stickoxidemission dort.

00:15:11: Und deswegen muss eben die EPA dort auch handeln, um den Lebensraum dort besser zu gestalten und das irgendwie besser hinzukriegen.

00:15:21: Es geht übrigens um den Ort South Haven in Mississippi, der direkt an Memphis angrenzt, also sozusagen Grenzgebiet von diesen Bundesstaaten.

00:15:28: Und das Interessante, warum ich das alles erzähle, ist, weil eben durch diese neue Gesetzesregelung diese Gas-Turbinen, so wie sie dort stehen, illegal werden und von der IPA auf Bundesgrundlage erstmal genehmigt werden müssen, damit sie weiter genutzt werden dürfen.

00:15:43: Ob XAI das tut und ob XAI etwas zu befürchten hat, wenn sie das nicht tun, das steht natürlich auf einem anderen Blatt, aber zumindest gibt es jetzt erstmal keine rechtliche Grundlage mehr, keine Gesetzeslücke mehr.

00:15:57: dafür, dass diese Gasturbine, die dort stehen, eben einfach betrieben werden dürfen.

00:16:02: Und man sich sozusagen seinen eigenen Strom generiert.

00:16:06: Aber na ja, ehrlicherweise auch deswegen eine überraschende Geschichte, weil ich also na ja, wir sind hier in den USA, ne?

00:16:12: Was soll ich sagen?

00:16:13: Was soll ich sagen?

00:16:15: Ich habe noch ein bisschen was zu Meta heute und zwar geht es um eine Anonyme, Entschuldigung, eine Recherche der Tats, die ich euch aber in die Schornholz packe, denn es geht um ein, also ganz Bemerkenswertenvorfall.

00:16:28: Es geht um ein Instagram-Account mit dem Namen PROF-PROF-DR-CN.

00:16:35: Dieser Account beleidigt seit Jahren Frauen und queere Menschen auf Instagram in den Profilen.

00:16:40: Also ich muss dir diese Beleidigung nicht nicht wiedergeben, aber es wurde wirklich wahnsinnig geschmacklose Beleidigungen, die eben weit auch überrein Lukismus hinausreichen.

00:16:49: Frauen, die über Krebserkrankungen gesprochen haben, wurden beleidigt.

00:16:52: Menschen, die Unfälle hatten, wurden beleidigt.

00:16:54: Also wirklich ein absoluter Troll, der Hasskommentare verbreitet hatte.

00:16:58: Und wie die Tats jetzt recherchiert hat, handelt es sich bei dieser Person offenbar um den Präsidenten.

00:17:04: eines Verwaltungsgerichtes in Niedersachsen.

00:17:08: Entschuldigung, in Niedersachsen.

00:17:11: Der ist dort Vorsitzender, Verwaltungsrichter und soll offenbar hinter diesem Account stecken.

00:17:16: Und die Tats musste jetzt nicht sich so richtig tief rein basteln und mit O-Sint versuchen, irgendwie herauszufinden, wer hinter prof.cn steckt.

00:17:26: Denn relativ lange hatte dieser Account einen anderen Nickname.

00:17:31: Und dieser Nickname, den er zuvor hatte, der war nicht nur... Professor Doktor, wie es im Namen stand, sondern auch Professor Doktor GAN, was die Initialen dieses Verwaltungsrichters eben sind, dessen Namen ich jetzt hier glaube ich nicht wiedergeben muss, aber ich finde den Text, wie gesagt, in den Show notes und dieses GAN, eben die Initialen dieses Verwaltungsrichters.

00:17:53: hatte er dann auch noch in der instagram bio wohl offenbar ausgeschrieben stehen also seinen namen und er wurde auch häufiger in den kommentaren mit seinem namen angesprochen zum beispiel in einer lokalen fleischerei in rindeln in dem ort in haste bei rindeln in dem ort aus dem dieser richter kommt.

00:18:10: das heißt es gibt ohne ende hinweise die eben darauf schließen lassen, dass es sich dabei um diesen Richter handelt.

00:18:15: Und da muss man doch mal die Frage stellen, ob Menschen sich im Internet einfach nach wie vor so sehr sicher fühlen, vor allem wenn sie Richter sind und damit wirklich ein wirklich essenzieller Teil des ausführenden Organes unseres Rechtssystems, dass sie sich quasi unter anonymen Namen sich so im Internet bewegen.

00:18:35: Ich finde, das ist... erschreckend.

00:18:38: Ich finde, das ist schlimm, das ist traurig und das lässt viele Rückschlüsse darauf zu, wie weit wir mit unserer Regulierung eigentlich tatsächlich bislang sind.

00:18:45: Nämlich nicht.

00:18:47: So, und ich habe ansonsten, wie gesagt, ich packe euch den Text in die Show Notes, ist eine absolute Lektüre-Empfehlung für euch und leider auch kein Einzelfall fürchte ich.

00:18:59: Dann hatten wir angekündigt, dass wir kurz darüber sprechen, ich will es nicht ausführen, aber ich finde das... Interessant, wie sozusagen die Medienrezeption zu dieser Geschichte kommt, denn man liest gerade an allen Orten, dass Meta angekündigt hat, dass sie das Metaverse aufgeben, dass sie die ganzen, ich glaube, seventy Milliarden Dollar, die sie dort investiert haben in den letzten Jahren, dass sie die wegschmeißen, dass sie nicht mehr ins Metaverse glauben und dass es so ein paar Hinweise darauf gibt.

00:19:26: Na ja, je näher man da auf diese Geschichte schaut, desto mehr unsicher bin ich mehr, ob ich diese Schlagzeilen so mitgehen würde.

00:19:33: Denn wenn man sich den Text von The Verge anschaut, dann sieht man, sie beziehen sich auf eine Recherche von Bloomberg, die sagen, dass zehn Prozent der Mitarbeiter, die bei Reality Labs der Meta-Abteilung für XR Produkte arbeiten, entlassen werden.

00:19:46: Zehn Prozent, das ist bei einem Team von zehntausend Leuten oder fünfzehntausend Leuten sind das tausend bis tausendfünfhundert Menschen und das sind natürlich Im Einzelfall große Schicksale, wenn diese Menschen ihren Beruf verlieren, allerdings heißt es auch, dass eben oder Zehntausend bis dreizehntausend andere Menschen ihren Beruf behalten.

00:20:05: Das Team bestehen bleibt, die Investitionen sicherlich nicht komplett reduziert werden und na ja, im Grunde halt, jetzt halt stärker auf Variables gesetzt wird, weil das das Produkt ist, das mehr Geld einbringt, vermutlich als VR-Brillen.

00:20:19: Ihr wisst schon, diese Ray-Ban Sonnenbrillen, die Sie zum Beispiel verkaufen.

00:20:24: Gleichzeitig hat Meta zu angekündigt, dass sie die Gamesstudios, die eben für diese Metaverse-Welt bislang Spieler entwickelt haben, erst mal aufs Eis gelegt werden oder im Zweifel sogar dicht gemacht werden.

00:20:34: Aber ich wäre nicht so voreilig zu sagen, die komplette Metaverse-Geschichte ist für Meta damit beendet, sondern ich würde eher sagen, dass man das gerade so ein bisschen parkt, aber die Leute weiter daran arbeiten lässt.

00:20:48: Trotzdem muss man dazu sagen, dass es im Jahr mit das Metaverse weniger als zweihunderttausend monatlich aktive Nutzer innen.

00:20:56: Angesichts der Tatsache, dass wir bei Facebook und Instagram im Milliardenbereich sind bei der gleichen Metrik, ist das natürlich verhältnismäßig wenig.

00:21:05: Aber die komplette Einstellung des Metaverses würde am Ende auch anders klingen.

00:21:09: So, um das ein bisschen mit Vorsicht aufzuhängen und einzuhängen.

00:21:13: Und dann habe ich noch eine Sache zum Thema Blue Sky, über die ich sprechen möchte.

00:21:17: Denn folgendes ist passiert, an diesem Wochenende hat sich das Eis, ihr wisst schon, der Schläger-Trupp, die eigene Gestapo der amerikanischen Regierung, die Menschen, die erst zum Jahresbeginn eine unschuldige Frau anlasslos erschossen haben, man muss das angesichts der Videos leider so sagen, dieser Account wurde erstellt auf Blue Sky, also Eis ist jetzt auf Blue Sky.

00:21:44: Und es gibt gerade deswegen eine große Entrüstung in der Blue Sky Bubble, die ja leider auch, muss man dazu sagen, seitens Blue Sky schon relativ viel Frust ertragen musste und sich auch relativ häufig damit zufrieden geben musste, dass die Content Moderation dort nicht funktioniert oder wie Blue Sky sagt, sie ausgegliedert wurde.

00:22:05: Ich benutze Blue Sky weiterhin als Netzwerk, weil ich das Gefühl habe, dass viele Menschen, mit denen ich von Twitter umgezogen bin, dort weiterhin habe.

00:22:13: Aber der Frust ist groß geworden, weil man sozusagen sagt, Blue Sky ist vielleicht nicht die Twitter-Alternative, die wir immer gesucht haben, weil man heißt hier, Welcomet.

00:22:23: So ist die Formulierung in vielen Texten, die Blue Sky das vorwirft.

00:22:27: Eis wurde verifiziert durch Blue Sky, hat einen blauen Haken bekommen.

00:22:30: Und ich halte den Prozess, um das direkt vorne wegzuschicken, der Verifizierung nicht für problematisch.

00:22:36: Denn wir wissen, dass zum Beispiel die Taliban auf Twitter eine Account hatte.

00:22:40: Auch da muss man sagen, man muss eigentlich nicht mal... absoluter Demokratie befürworter sein, um das, was die Taliban so macht, komplett abzulehnen.

00:22:51: Also will sagen, ich finde das erst mal wertvoll, wenn die Accounts dieser Entitäten, die ich für verwerflich menschenfeindlich Demokratie zersetzend halte, Wenn ich weiß, dass das, was sie schreiben, auch wirklich von denen kommt.

00:23:05: Das ist die Idee von Verifizierung.

00:23:07: Und dafür haben wir damals diesen Podcast, die Haken dann genannt, weil die Idee von Verifizierung im Kern ja keine schlechte ist, auch wenn sie in vielen Orten krankt, weil zum Beispiel die Verifizierung durch die Plattform vorgenommen wird, die Kriterien und durchsichtig sind und so weiter.

00:23:19: Ihr wisst, ich will mich da nicht wiederholen.

00:23:21: Warum aber jetzt diese Diskussion in der Bubble in der Community entstanden ist, ist die Frage.

00:23:27: Ob man solche Accounts auf der Plattform überhaupt halten möchte.

00:23:31: Und viele Leute sagen, es ist keine Twitter-Alternative.

00:23:34: Sie machen sich damit auch zu den Schergen des Trump-Regimes und so weiter und so weiter.

00:23:40: Und ich verstehe diese Argumente und ich glaube, man kann diese Meinung einnehmen.

00:23:45: Ich will nur anbieten, man kann es natürlich auch anders sehen und sagen, wenn man hier eine offene Plattform hat, bei der man den Diskurs stattfinden haben möchte, dann macht es durchaus Sinn, wenn auch die Player, die man eigentlich ablehnt, ihre Kommunikation auch auf solche Wege ausweiten.

00:24:03: Also wir sagen alle, warum veröffentlicht Friedrich Merz seine Inhalte auf X?

00:24:07: Das ist genau der richtige Impuls, weil X als Plattform für diese Dinge nicht geeignet ist.

00:24:11: Das liegt aber nicht daran, dass auf X auch Donald Trump, Elon Musk oder die Taliban kommuniziert, sondern das liegt daran, weil die Plattform unzuverlässig, gefährlich und selbst politisch aktiv ist.

00:24:23: Und das sind alles Dinge, die ich bei Blue Sky bislang nicht als Vorwürfe habe.

00:24:27: Und deswegen bin ich, ich bin so ein bisschen hinterhergerissen, weil ich, wie gesagt, beide Seiten gut verstehen kann, will diese Diskussion aber hier euch mal so ein bisschen mitgeben und glaube, dass Ihr vielleicht auch eine Meinung dazu habt, ihr könnt sie gerne in die Spotify-Kommentare schreiben.

00:24:42: Wenn ihr keine Meinung dazu habt und diese Folge aber bis hierhin und bis zum Schluss gehört habt, würde ich mich freuen wie bei allen Solo-Episoden, wenn ihr einen Emoji da reinschmeißt, mit dem ihr euren derzeitigen Geisteszustand beschreibt.

00:24:55: Ich finde das eine ganz schöne Formulierung.

00:24:57: Das gilt natürlich nicht nur für die Spotify-Kommentare, es gilt auch für Campfire, das gilt auch für YouTube, für PeerTube, für den Discord, für... Alles, wenn ihr das Gefühl habt, das sind alles nicht die Wege über die ich diesen Podcast höre, weil ich gehört zu dem Großteil der Leute, die diesen Podcast klassisch über ein RSS Feed hören, dann schreibt mir einfach auf irgendeinem Weg, ob ihr bei Blue Sky oder MFDiverse oder... Wo auch immer, schreibt mir auf Kontakt weg eurer Wahl.

00:25:22: Vielen Dank, dass ihr das Solo gebrammelt hier bis hierhin gehört habt.

00:25:26: Ich glaube, das ist die längste Solo-Episode, die ich hier aufgenommen habe.

00:25:29: Aber anyway.

00:25:30: Vielen Dank, dass ihr euch das bisher angehört habt.

00:25:32: Wir hören uns wieder am Freitag dann live aus München.

00:25:36: Wir nehmen am Donnerstagabend in München.

00:25:38: die Tour beginnt.

00:25:39: Die Sachen werden jetzt gleich im Anschluss hier alle eingepackt.

00:25:42: aus der juristischen Stadtbibliothek nehmen wir auf, juristische Bibliothek, so heißt sie im Rathaus München, zusammen mit Roland Hindl und Dominik Hammes, die das erste Mal aufeinandertreffen, die aber hier in diesem Podcast zum Stammrepertoire gehören.

00:25:57: Und ich bin gespannt, wie euch das gefällt.

00:25:59: der Live-Mitschnitt, bin gespannt, wie euer Geisteszustand ist heute und wünsche euch einen ganz wundervollen Mittwoch und bis Freitag.

Kommentare (1)

Erna42

Hey Gavin, ich find übrigens du musst dich nicht (so umfassend) entschuldigen wenn du solo aufnimmst. Wir hören doch alle gern deine Stimme und ich find diese kürzeren Episoden immer sehr angenehm hörbar! Beste Grüße!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.