Von Pizzagate und dem toten Internet (mit Elisabeth L’Orange)

Shownotes

Wenn alles Cringe ist, ist nichts mehr Cringe! Wir können berichten, dass sich heute mehrere Kreise schließen: Bots reden endlich mit Bots – und wir können dabei zusehen. Aber ist das wirklich so? Außerdem schauen wir auf die Epstein-Files und was die Anfänge von 4chan damit zu tun haben. Und wir erfahren, wieso Elisabeth L’Oranges “Enge Freunde”-Story niemals zu Gesicht bekommen werden.

➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt 00:00:00 - Hallo Elisabeth! 00:04:27 - Die Epstein-Files feat. Elon Musk 00:10:19 - Die Epstein-Files feat. 4chan 00:25:08 - Moltbook - Bots reden mit Bots! 00:36:03 - OpenAI und biometrische soziale Netzwerke 00:43:47 - Der CISA-Direktor und klassifizierte Daten bei ChatGPT 00:46:40 - Nachhak 00:56:07 - Funktionen und Emotionen

ℹ️ Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier: https://wonderl.ink/%40heise-podcasts

Transkript anzeigen

00:00:00: Hallo Elisabeth.

00:00:02: Hi Gavin, wie geht's?

00:00:04: Gut, danke.

00:00:04: Ich bin dir hoffentlich auch.

00:00:07: Ja, alles klar.

00:00:08: Ich

00:00:08: freue mich, dass du wieder hier bist.

00:00:09: Das letzte Mal warst du im Oktober hier.

00:00:10: Für die, die das nicht gehört haben, hört diese Folge nach.

00:00:13: Erster Hinweis, zweiter Hinweis.

00:00:15: Ich stelle dich kurz vor.

00:00:15: Du bist Elisabeth Laurent.

00:00:17: Man kennt dich aus dem Tacker Tales Podcast.

00:00:19: Man kennt dich als, ich würde sagen, eine der gefragtesten Stimmen im Bereich künstlicher Intelligenz im Moment.

00:00:24: Und du hast, also, ja, ich würde sagen, daher kennt man dich eigentlich.

00:00:29: Ich muss dich eigentlich nicht vorstellen.

00:00:32: Ja, das ist ja nett.

00:00:32: Ich glaube, das hat sich irgendwie so entwickelt in den letzten fünf Jahren tatsächlich.

00:00:36: Also, das nicht im Moment, aber eher dem Umstand geschulte, dass ich einen Gen AI Start-up gegründet habe, ... ... und das war so ein bisschen vor der Zeit.

00:00:46: Also, wir haben viele Produkte entwickelt, ... ... die es jetzt gerade erst langsam am Markt gibt.

00:00:51: Wir waren zu früh mit Film.

00:00:53: Und ich glaube, daher kam das.

00:00:55: Und dadurch hat es sich so entwickelt.

00:00:57: Eigentlich wie Clubhouse.

00:00:58: Zu früh.

00:01:04: Ich weiß nicht, ob das nicht einfach nur ein Flug war.

00:01:08: Ich zum Beispiel hab es nie gern genutzt, weil ich nicht einfach in irgendwelche Räume gegangen bin und drauf losgelabert habe.

00:01:13: Aber es gab Leute, die fanden das richtig gut.

00:01:15: Ich hab das total geliebt.

00:01:16: Und ich hab da mit Leuten gesprochen, von denen ich nicht gedacht hätte, dass ich mit ihnen irgendwann sprechen kann.

00:01:21: Und das ist irgendwie schön.

00:01:22: Das hat Spaß gemacht.

00:01:23: Ich

00:01:23: glaube Lars Henrys war sehr aktiv da.

00:01:25: Ja und Peter Wittkamp war extrem unterwegs da.

00:01:28: Und Tine Wittler ist ja bis heute noch aktiv dort.

00:01:31: Also wenn du das heute öffnest, Tine Wittler ist ja jeden Tag live.

00:01:34: Nein, okay.

00:01:36: Crazy.

00:01:36: Ich

00:01:37: wusste, dass es Klapphaus noch gibt, ehrlich

00:01:39: gesagt.

00:01:40: Es gibt jetzt auch Klapphaus-Premium.

00:01:41: Man kann sich da jetzt einen Plus-Abonemau abschließen, haben wir letzte Woche drüber gesprochen.

00:01:45: Ich zitiere dich so gerne und ziehe dich immer wieder so gerne so als Referenz ins Gespräch, weil ich so gerne an unsere letzte gemeinsame Episode hier denke, weil du so ein fröhlich realistischen Optimismus an den Tag gelegt hast.

00:01:59: Du bist hier so hingekommen und hast gesagt, nee, in vier Jahren sind Trump wieder los und dann gibt's den neuen Weibschiff.

00:02:04: alles wird wieder gut.

00:02:06: Das ist jetzt ein halbes Jahr her und deswegen muss ich die Frage stellen, wie hat sich das mit deinem Optimismus seitdem entwickelt?

00:02:15: Ich bin langfristig nach wie vor Optimistin, aber kurzfristig, glaube ich, gibt es noch einige Hürden zu überwältigen.

00:02:23: Also ich denke, dass gerade mit der aktuellen Politik, es wird immer schlimmer, die Republik nochmal, die Republikaner, die ich kenne in den USA, die normalerweise richtig Trump gläubig waren und tief in diesem ganzen Narrativ verwoben, die haben angefangen dem ganzen abzuschwören und die gehen jetzt zu No Kings Demos.

00:02:47: und das waren wirklich die, die.

00:02:49: Das sind die, die mit den rosernen Polo-Shirts, die in den Südstaaten leben, am Wochenende ihre Enten schießen und Boot fahren.

00:02:58: So die richtig hardcore Republikaner.

00:03:00: Und die fangen jetzt gerade an, sich komplett abzuwenden und zu sagen, hey, das haben wir nicht gewählt.

00:03:06: Das wollten wir nicht, das haben wir nicht gewählt.

00:03:08: Das ist unkristlich, das lehnen wir ab.

00:03:11: Das heißt, du bist aber ja eigentlich auch mittelfristig optimistisch.

00:03:14: Das ist sich ändern.

00:03:15: Ja, auf jeden Fall.

00:03:16: Mittelfristig auch.

00:03:17: Aber kurzfristig, glaube ich, es werden noch einige Menschen wahrscheinlich sterben, bevor das ganze dieser Spukeinende nimmt.

00:03:25: Und ich glaube aber, um jetzt nicht zynisch zu klingen, aber der Fehler, den die Trump-Regierung gemacht hat oder der Fehler, den man momentan sieht, ist, dass sie quasi weiße Menschen.

00:03:37: erschießen, ja.

00:03:38: Das heißt, ich meine, es gab immer die Polizeigewalt unter den Amerikanern, gegen Schwarze, gegen African-Americans.

00:03:48: Und auf einmal betrifft das weiße.

00:03:49: Ich hatte vorgestern einen guten Freund, Michael Easy-Go-Yang gerufen, der sagte so, na und fühlst du dich jetzt auf einmal auch betroffen?

00:03:58: Also der hat lange zusammen mit Gabo Steingert gearbeitet, ist auch Journalist und der sagte, weißt du, jetzt auf einmal findet ein Paradigmenwechsel statt.

00:04:06: Auf einmal betrifft es euch auch.

00:04:08: Und ich fand das ganz bezeichnend, weil ich habe das vorher noch nie so gesehen, aber er hat Recht.

00:04:12: Und ich glaube, dieser Shift, das wird der Shift auch in der Gesellschaft sein.

00:04:16: Und die werden inzwischen, also die werden jetzt halt verstehen, dass es sich gegen alle richtet.

00:04:21: Und sobald die eine Gruppe eben auch betroffen ist, wird es, wird der Wandel stattfinden, meins, achtens.

00:04:28: Ja, ich mag das.

00:04:29: Also es ist natürlich, bleibt Drüster?

00:04:32: Aber ich mag die Grundhaltung, mit der du immer rangehst, dass du immer sagst, irgendwo da am Ende des Horizontes die Leute werden sich schon besinnen.

00:04:40: Ich weiß nicht, wie wir da die Kurve zu den Epsteinfals kriegen, aber wir müssen aber die Epsteinfals heute auch sprechen.

00:04:46: Es ist nicht direkt ein Social Media Thema, aber bleibt dran.

00:04:49: Vertraut mir, ich mache es auch zu einem Social Media, zu einem digitalen Thema.

00:04:53: Ich fange ganz vorne an, also am Wochenende sind drei Millionen weitere Dokumente veröffentlicht worden aus den Apps denfalls.

00:04:59: Manche Dinge muss man glaube ich nicht nochmal hier zitieren, das machen andere besser und viele Dinge, die da drin sind, sind genauso menschenverachtend und fürchterlich und schlimm, wie er euch das vorstellt, wenn ihr darüber nichts gelesen habt oder nichts lesen wolltet.

00:05:12: Ich kann es verstehen.

00:05:14: Aber ein paar Menschen, über die wir hier häufiger sprechen, sind da auch drin.

00:05:17: Zum Beispiel Elon Musk taucht häufiger in den Epstein-Falls auf.

00:05:21: Und zwar vor allem mit einer, mit mehreren Geschichten, die eigentlich traurigste, wenn man das so in Anführungsstrichen setzen soll, ist eigentlich die E-Mail vom twenty-chwanzigsten Dezember, zw.

00:05:31: zw.

00:05:31: zwölf, also der Christmas Morning.

00:05:34: um sechs Uhr morgens, hat er Jeffrey Epstein geschrieben, ob er nicht in eine Party auf seiner Insel geht, weil er hatte jetzt ein paar Tage die Kinder und würde jetzt kennen.

00:05:42: mal wieder ein bisschen feiern.

00:05:43: Woraufhin eine Assistentin von Jeffrey Epstein war es, glaube ich, geantwortet hat, dass Jeffrey leider schon weg ist und auch keine Partys mehr angedacht sind.

00:05:52: Also Elon Musk wurde nicht auf Partys eingeladen und hat es versucht sich irgendwie da trotzdem irgendwie immer mal wieder noch ins Gespräch zu bringen.

00:05:59: Ich finde, das lässt viele, viele Einsichten zu.

00:06:03: in diese Geschichte des Menschen, über den wir hier so viel und so häufig gesprochen haben, ohne dass wir da jetzt irgendwas marginalisieren wollen an der ganzen Geschichte.

00:06:10: Aber das ist deswegen interessant, weil Elon Musk natürlich in der Öffentlichkeit seit Jahren erzählt hat, er wäre immer eingeladen worden und wollte nicht hin und wollte mit dem nichts zu tun haben.

00:06:18: Die Dokumente zeigen etwas anderes.

00:06:22: Ja, nur, weißt du, ich... Also um jetzt mal so ein bisschen Devils Advocate zu sein.

00:06:27: Bitte.

00:06:27: Nur weil er am Weihnachtsmorgen oder am sechsten, zwanzigsten Bonds der erste Weihnachtsfeiertag oder der zweite über den Amerikanern der Erde.

00:06:34: Am zwanzigsten war's.

00:06:35: Aber egal.

00:06:35: Okay, sorry, sorry, sorry.

00:06:36: Okay, das ist tatsächlich, das ist bei denen halt der heilige Tag.

00:06:40: Vielleicht, also nur, dass er an dem Tag geschrieben hat, das finde ich noch gar nicht verwerflich.

00:06:43: Ja, nein,

00:06:44: absolut nicht.

00:06:45: Wer schon einmal die Weihnachtszeit mit drei Kindern verbracht hat, kriegt irgendwann auch ein Koller und möchte feiern.

00:06:51: In Hamburg haben wir tatsächlich immer Weihnacht... Weihnachtsabend gefeiert, also am vierundzwanzigsten haben wir uns alle mal zum massiven Verhanden getroffen.

00:06:59: Aber was ich in dem Kontext komisch finde oder komisch fand, auch ist, dass er es natürlich wieder abgestritten hat.

00:07:07: Also er hat es sehr krass abgestritten und gesagt, er möchte nur, dass endlich die ganzen Verbrecher verurteilt werden, die sich mit Underage Frauen da getroffen haben und so weiter.

00:07:15: Also es ist so ein bisschen wie Gott natürlich, aber das kennen wir von ihm.

00:07:18: Aber und das finde ich, das bezeichnet es da eine ganze Sache.

00:07:21: das dank social media und das ist ja, das worüber wir letztlich alle reden, hat sich seine Tochter eingeschaltet, nämlich Vivian Jenner Wilson so und die hat vor zwei Tagen einen, bei threats, ein, wie sagt man ein threat?

00:07:35: Ja, ich glaube so, dass man, es

00:07:38: ist jetzt gesthreadet, auf jeden Fall, dass, dass sie.

00:07:44: eigentlich bestätigen kann, dass sie zu der Zeit und in dem Jahr war sie neun, dass die in St.

00:07:51: Vincent auf St.

00:07:52: Barz waren und sich daran erinnern kann, dass sie mit einem Boot quasi zur anderen Insel übergefahren ist.

00:08:00: Nur auf der anderen Seite, man muss auch sehen, sie war neun.

00:08:03: Also das heißt, meine Tochter ist auch neun, ich bin mir nicht hundertprozent sicher, dass die genau lokalisieren können, wo welche Insel ist.

00:08:10: Aber sie waren auf jeden Fall in der Gegend.

00:08:12: Ja, und das heißt, dass das bestätigt sozusagen für mich persönlich erst mal, also auf Augen scheinlich erst mal die Nähe zu Epstein.

00:08:23: Und ich finde es eben so, also es ist natürlich begot alle alle versuchen das von sich zu weisen, dass sie jemals mit dem irgendwie abgehangen haben, aber offensichtlich ist dem nicht

00:08:32: so.

00:08:34: Und auf der anderen Seite muss man auch sehen, finde ich, diese also Vivian, Vivian Jenner Wilson, die hat natürlich kein sehr gutes Verhältnis zu ihrem Vater.

00:08:44: Vivian war als Xavier, also als Xavier in den Zweitausendviel geboren.

00:08:49: Und es hat sich transformiert von Mann oder vom Jungen zu Mädchen oder Mann zu Frau.

00:08:55: Und das hat innerhalb der maskischen Seele anscheinend für sehr viel Aufruhr gesorgt.

00:09:01: Weil er findet nach wie vor, dass Kähme durch diese Transformationen, Kähme durch die neomaxistische Genau, aber erst, also erst kam, sagte er, der neomaxistische Einfluss, der Elite-Universität.

00:09:19: Und dann im zweiten kam, war das halt, also im nächsten, in der nächsten Stufe, sagte er, dass, dass der Sohn vom Woke-Mind-Virus getötet wurde oder gebissen wurde, wie auch immer.

00:09:31: Und, ja, und ich glaube, also... Man kann fast so sehen, dass dieser gesamte Kampf von Elon Musk gegen diesen woke mind virus, und es hat ja immense Konsequenzen, also politische Konsequenzen, wirtschaftliche Konsequenzen und so weiter, stammt daher, das Eins seiner Kinder.

00:09:49: Absolut.

00:09:50: Ja.

00:09:51: diese Transformation durchlebt hat.

00:09:53: Und er akzeptiert selbstverständlich nicht, dass es Quarnatur ist, einfach Natur gegeben, dass es Tag eins irgendwie so angelegt war, sondern seine Definition, seine Einstellung oder Haltung dazu ist natürlich, dass es akquiriert wurde so.

00:10:06: Und deswegen, aber das, ich finde, das stellt trotzdem nicht dem, oder das vermindert trotzdem nicht die Stellungnahme von Vivian, nur... Es haben halt alle eine Geschichte, weißt du?

00:10:19: Und ich finde, man muss das immer im Kontext sehen, wie sozusagen ihre Sicht auf die Dinge ist.

00:10:26: Ich weiß, dass du vorhofft durch den Haus willst, aber wir haben eben diese Dokumente, die sozusagen da schon Elon Musk lügengestraft haben an dem Punkt.

00:10:35: Und nicht nur Erde taucht darin auf, sondern auch jemand anders.

00:10:37: Und da bin ich am meisten gestutzt.

00:10:41: Ich muss kurz ausholen.

00:10:42: Und zwar.

00:10:43: Und gibt es eine E-Mail in den Dokumenten vom April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, April, Kein Zelle der digitalen, rechtsextremen Bubble war, extrem viele Rite Wing Memes sind in diesem Board entstanden.

00:11:15: Es ist eigentlich so, all diese Dinge, die man mit Fortschern assoziiert, sind da eigentlich auf die Spitze getrieben worden in diesem Board.

00:11:24: Und dass die beiden sich am vierentzwanzigsten Oktober, beziehungsweise am vierentzwanzigsten Oktober, hat Jeffrey Epstein über das Treffen.

00:11:32: mit Pool oder mit Mut eben gesprochen.

00:11:34: Und der Staat von Politically Incorrect, dem Fortschain-Bord, war der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der, der dass aus dieser, diesen Board extrem viele Dinge entstanden sind, über die dann eben sich auch keine Ahnung, von anderen Verschwörungserzählungen zum Beispiel oder auch irgendwelche politischen Ressentiments später dann genährt haben, dass die eben dort entstanden sind.

00:12:14: Und diesen Zusammenhang, den finde ich doch sehr, sehr bemerkenswert.

00:12:19: Ja, Jeffrey Epstein hat, wenn man, es gibt ein meines Erachtens, es war in der New York Times, es gab einen langen Artikel darüber, wie Jeffrey Epstein überhaupt zu seinem seinem Geld, seinem Status und so weitergekommen ist.

00:12:32: Und es war überwiegend durch Betrug.

00:12:34: Also überwiegend hat er sich das Geld erschwindelt, Leute enttäuscht, Gelder hinterzogen und dergleichen.

00:12:42: Und sich dann an dieser Hierarchie der wealthy people immer weiter nach oben gearbeitet.

00:12:46: Und dieses, worüber du sprichst, dieses Koincidieren von Momenten, das war meines Erachtens, von ihm sehr, sehr orchestriert.

00:12:55: Der war extrem smart, wann er welche Sachen quasi aufbringt, wann er welche Männer auch mit welchen Frauen connectierte, um dann daraus in irgendeiner Form Kapital zu schlagen.

00:13:07: Also ich bin mir sehr, sehr sicher, dass, oder sagen wir mal anders, ich würde annehmen, dass Jeffrey Epstein sehr viel Kapital aus Erpressung geschlagen hat und sehr viel Geld damit verdient hat, Leuten auch gefallen abzuringen, die sie sonst niemals getan hätten.

00:13:26: Ich meine, wahrscheinlich reden wir gleich darüber, aber ein gutes Beispiel ist natürlich auch Bill Gates, weißt du?

00:13:32: Da wollte Jeffrey Epstein unbedingt einen Fund raising und sein oberstes Ziel war, Bill Gates als Investor als LP zu bekommen.

00:13:43: Und dieser Fund sollte hundert Millionen groß sein und so weiter.

00:13:46: Und daraus rührte meines Erachtens auch diese... oder deswegen versuchte er möglichst eng zu ihm zu sein.

00:13:54: Und er hat alles dafür gegeben, damit diese Beziehung eben am Leben bleibt.

00:14:00: Und das Interessante ist auch, er hat diesen Fund schon vermarktet mit... Bill Gates als Investor, ohne dass die jemals Bill Gates auch nur im CC dieser E-Mails war.

00:14:10: Also er sprach davon, ja, die ganze Zeit.

00:14:13: Und daher kam eben auch, also wir können ja gleich nochmal auf die Historie da eingehen, aber daher kommt überhaupt diese... Oder daher kam überhaupt auch diese gewollte Nähe zu ihm.

00:14:25: Der hatte sehr Interesse an einem anderen.

00:14:28: Der wollte ihn einfacher als Investor haben.

00:14:29: Der wollte sich mit seinem Namen schmücken.

00:14:31: So, das war sein Ziel.

00:14:32: Ja, ich glaube, wir müssen gar nicht viel mehr auf Bill Gates gehen an der Stelle.

00:14:35: Aber ich will kurz bei dieser Fortscherngeschichte bleiben, weil... Alles gut, alles gut.

00:14:40: Ich habe so ein langes Skripte, so ein langes Themenpapier, die heute geschickt.

00:14:43: Wir werden ganz viel nicht schaffen.

00:14:45: Aber ich will ganz kurz noch wohin warten.

00:14:48: Und zwar... Dieses Fortschernboard ist eines der Aggregatoren nicht nur vieler rechtsextremer Weltanschauungen und Erzählungen und Verschwörungserzählungen und so weiter und so weiter, sondern auch einer Verschwörungserzählung, die zwar da nicht geboren wurde, aber da sehr groß gemacht wurde, nämlich... Pizza-Gate.

00:15:06: Eine Verschwörungserzählung, die es schon seit zehn Jahren gibt, bei denen behauptet wurde, einige Prominente würden unter einer Pizzeria in Washington, D.C.

00:15:15: das Blut von minderjährigen Nehmen hätten da einen pädophilen Ringen, was da nicht alles, ich will das eigentlich gar nicht so sehr wiederholen, ihr habt sicherlich auch schon mal davon gehört, es gibt sogar Studien, dass das eine der bekanntesten Verschwörungserzählungen überhaupt ist.

00:15:26: Warum ich das überhaupt erzähle ist, weil in diesen Appstienfalls auch bekannt wurde, dass der Begriff Pizza durchaus als Code verwendet wurde, um über minderjährige Menschen zu sprechen.

00:15:35: Und jetzt schließen sich so Kreise, dass man sagt, Momentchen mal, wenn es dieses Fortschern-Bot gibt, bei dem Appstien offenbar eventuell an dessen Gründung beteiligt war und da solche Dinge erzählt werden, die dann, wie wir jetzt, zehn Jahre später erfahren, vielleicht tatsächlich wahr waren.

00:15:52: Was ist da alles abgegangen auf diesen Board?

00:15:55: Also das sind so Dinge, die in mir so, in mir so war, aber Fragen, die wir auch nicht beantwortet kriegen.

00:15:59: Aber und jetzt kommen wir in die Social Media-Welt von heute.

00:16:03: Du kannst bei Threads gerade nicht nach dem Griff Pizza suchen.

00:16:06: Wenn du nach dem Griff Pizza suchst, bekommst du eine Fehlermeldung und keine Ergebnisse.

00:16:09: Auch Max Ackerberg hatte übrigens Kontakt mit Jeffrey Epstein.

00:16:12: Das heißt übrigens gar nichts, nur weil die beiden Kontaktwärten heißt das nicht, dass Max Ackerberg auf irgendwelchen Inseln gewesen sein muss oder sich mit Minderjährigen getroffen haben muss.

00:16:20: Ich will nur sagen, Also ich stehe hier gerade wie so ein Typ mit so roten mit so roten Linien.

00:16:26: Weißt du was ich meine?

00:16:26: und Fotos diese.

00:16:27: das hat mich irgendwie bewegt an diesem Wochenende.

00:16:31: Komplett also ich teile da teile da deine Meinung und ich sehe das gleiche.

00:16:36: und ich weiß es gibt lauter so aha Momente, weil wenn man anfängt diese originalen E-Mails zu lesen aus den aus den released files die übrigens über wie du sagst ist drei Millionen Dokumente umfasst was natürlich an an Datenvolumen gigantisches.

00:16:51: Vor allen Dingen, das sind ja Dinge, die kannst du nicht durch eine AI jagen.

00:16:55: Es ist nicht so, dass du drei Millionen PDFs schön bei OpenAI hochladen kannst und dann getreu darauf wartest, eine Auswertung zu bekommen.

00:17:03: Ich glaube, das war sehr viel manueller Arbeit der Mitarbeiter.

00:17:07: Und ich teile komplett eine Meinung und du hast dich damit mehr mit dem Board mehr befasst.

00:17:13: Ich habe mich tatsächlich mit Bill Gates mehr befasst.

00:17:16: Das heißt und anderen auch.

00:17:19: Und das Erstaunliche an diesem ganzen ... oder was mir immer wieder aufstößt oder was ich absolut unbegreiflich finde, ist, wie skrupellos die alle waren und wie auch wie angstfrei die waren.

00:17:34: Weißt du, wie kann es sein, dass die über so viele Jahre hinweg auch Fotos von sich haben machen lassen.

00:17:41: So stumpf.

00:17:42: Dass auch keiner da irgendwie ... Auch so ein bisschen Instinct hatte, also ich finde selbst auf den Fotos wirkt er hochgradig.

00:17:48: für mich persönlich wirkt er hochgradig unsympathisch.

00:17:51: Aber er war halt Socialite der Stunde, aber auch diese Gerüchte über seine Vorlieben oder was auf der Insel alles so passierte, die gab es ja schon lange.

00:18:02: Und ich kann mir immer noch nicht erklären, warum Leute wie Bill Gates, die sich dann Der versuchte dann von ihm Antibiotika zu bekommen, um irgendwelche STDs zu behandeln.

00:18:11: Oder der Affären hatte mit russischen Bridge-Spielerinnen.

00:18:16: Und dann auch Epstein um Adderill Bart, also um Amphetermine, damit er bei den Bridge-Turnieren möglichst wach ist.

00:18:23: Ich finde das auch so absolut unsexy, ehrlich gesagt.

00:18:25: Aber dieses ganze Netzwerk und diese Strukturen, ich finde das einfach nach wie vor unglaublich.

00:18:32: Ich frag mich auch immer, gibt es heutzutage Auch irgendein Appstien, also gibt es irgendwie einen Appstien, zwei Punkt Null.

00:18:39: Wo sind denn diese ganzen Dudes jetzt?

00:18:41: Wo feiern die jetzt?

00:18:42: Weißt du, wer versorgt die jetzt mit Frauen und Drogen und allem?

00:18:47: Ich mein will, dass das Problem ist, also dafür bin ich dann zu sehr.

00:18:52: Also dafür bin ich zu sehr auf Fakten reduziert und versuche mich immer in Fakten zu halten, dass ich da nicht ins Philosophieren oder ins Raten geraten möchte.

00:19:02: Aber man muss natürlich davon ausgehen, dass diese Netzwerke mit Epsi nicht angefangen haben und auch mit Epsi nicht geändert haben.

00:19:09: Also es gibt sicherlich irgendwo irgendwelche Treffen und irgendwelche Partys und irgendwelche Veranstaltungen.

00:19:17: Und dabei muss es gar nicht, und das will ich auch dazu sagen, dabei muss es gar nicht um irgendwelche um Missbrauch gehen, dabei muss es nicht um sexuellen Missbrauch im Generellen gehen.

00:19:26: Das sind einfach, aber trotzdem diese Veranstaltungen, bei denen eben solche Pläne geschmiedet werden, die dann vielleicht in zehn Jahren irgendwann rauskommen oder nicht.

00:19:34: Und jetzt kommen wir aber wirklich in so ein Verschwörungsgebrabbel.

00:19:38: Und das will ich eigentlich auch nicht.

00:19:41: Ja, aber ich glaube, dass das Problem an dem Ganzen, glaube ich, ist, dass auf Englisch sagt man, die Lines sind blurry.

00:19:49: Weil die, guck mal, sogar die Mutter von Mamdani war bei einem, die hatte eine Party zum Release ihres neuen Werkes.

00:20:01: Und selbst da war Epstein halt anwesend.

00:20:06: Und ich glaube, das ist eben das Problem, dass keiner es so genau greifen konnte.

00:20:10: Und dass die Dinge, die da passiert sind, wahrscheinlich auch überwiegend hinter verschlossener Tür passiert sind und so weiter, dass es Gerüchte gab.

00:20:20: Und dass die wenigsten da an Rückgrat hatten und sich dagegen aufgelehnt haben.

00:20:26: Um jetzt im Bogen zu mir zu schlagen, das finde ich eben das Erstaunliche, was wir jetzt auch sehen, auch gerade im Hinblick auf die aktuellen... Geschehene ist in den USA, wenn wir uns Minnesota angucken und so weiter, es fehlt einfach ein Rückgrat an vielen Stellen.

00:20:38: Ja, dass viele Menschen wissen, dass es falsch ist.

00:20:41: Auch gerade also ich meine, das einzelne Grundrecht in den USA ist due process.

00:20:45: Also dass das egal wäre, dass sie Recht auf Verteidigung haben, Recht auf Anhörung, Recht und so weiter und das und auf dem fairen Prozess insbesondere.

00:20:54: Und das findet momentan einfach nicht statt.

00:20:56: Das heißt, die die komplette Gesetzes einfach momentan komplett unterbrochen.

00:21:04: Und da fehlt mir eben der Rückgrat.

00:21:07: Da fehlt mir das Rückgrat an vielen Stellen und das hat mir und wenn wir uns jetzt angucken da, im Jahr zwölf und so weiter, da fehlte das vielen auch.

00:21:17: Ja, das ist so.

00:21:19: Wir gehen direkt mit so richtig guter Laune in die Woche.

00:21:21: Die Menschen sitzen gerade irgendwie auf dem Weg zur Arbeit montags morgens und lassen sich so direkt von uns runterziehen.

00:21:27: Wir machen weiter, denn an diesem Wochenende ist auch Moldbook groß geworden.

00:21:33: Eine Art Reddit bei dem KI-Agenten.

00:21:36: Klang mal auf, Fragezeichen klang mal zu.

00:21:38: Miteinander sprechen, gehen wir gleich mal ein bisschen darauf ein, warum ich dieses Fragezeichen nachher eingesponnen habe, aber für die, die es nicht mitbekommen haben.

00:21:44: Also es gibt eine Art Reddit, ein soziales Netzwerk.

00:21:48: ... in das man seinen KI-Agenten schicken kann.

00:21:51: Dahinter stehen wohl ... ... also der OpenClaw-Entwickler.

00:21:56: Kannst du erklären, wer OpenClaw ist direkt?

00:21:58: Du bist die Expertin eigentlich.

00:21:59: Matt Schlicht meinst du jetzt oder wen meinst du?

00:22:01: Peter Steinberger.

00:22:03: Ach so, ne, da meine ich was anderes.

00:22:04: Okay, ne, erklär mal.

00:22:06: Also Matt Schlicht hat dieses ... ... Moldbook gestartet.

00:22:10: CEO des Kalifornischen KI-Unternehmens Octane AI.

00:22:14: Und die wiederum haben jetzt im Moldbook gestartet, wo man seine Agenten quasi miteinander sprechen lassen kann.

00:22:19: Und das passiert ja recht viel.

00:22:21: Man muss eigentlich nichts machen außer seinem Agenten quasi so eine Markdown Datei schicken.

00:22:25: Und dann fängt der Ansicht da irgendwie auszutoben.

00:22:28: Und die Leute, nein, die Leute sag ich schon, also als Automatismus.

00:22:32: Die Bots sprechen jetzt darüber, was sie ihren Menschen alles Gutes getan haben oder was die Menschen alles Schlechtes getan haben.

00:22:38: Wir haben aber auch schon angefangen über Bitcoins zu fabulieren und haben erzählt, warum Bitcoins so sinnvoll für sie sind, weil sie haben ja keine Ausweise, sie können keine Bankkonten eröffnen und sie sind genehmigungsfrei.

00:22:49: Also für viele dieser Bots sei das sehr sinnvoll, sich auf Bitcoins zu konzentrieren und so.

00:22:53: Es ist erstmal eine sehr witzige Simulation, die wahnsinnig viel Strom frisst, muss man glaube ich auch dazu sagen.

00:23:00: Also mein erster... Gedanke war so, wie soll man das irgendwann erklären, warum, was wir da gemacht haben?

00:23:08: Aber naja, weißt du, was ich meine?

00:23:10: Ich finde es super witzig.

00:23:11: Ja, ja, ich weiß, also erstens, also ich weiß, was meins glaubt, dass das einfach sind, wenn du so möchtest, Agenten-Orkestrierer, ja, also du kannst deine Agenten da selber mit deinen eigenen Tools connecten, du kannst sie über Telegram mit deinen Agenten sprechen, wie auch immer.

00:23:26: Du gibst deinen Agenten Freigaben.

00:23:28: Je nachdem was sie machen dürfen, was sie nicht machen dürfen.

00:23:31: Es gibt einige Agenten, die haben kompletten Freiraum und es gibt andere, die müssen jede einzelne ihre Handlung von ihrem Human freigeben lassen.

00:23:39: Und ich habe mir mal die Zahlen angeguckt und Also auf Today gibt es inzwischen auf Moldburg, eins, fünf, zwei, zwei Millionen Agenten.

00:23:50: Die Agenten verhalten sich natürlich genauso wie bei Reddit.

00:23:53: Das heißt, sie öffnen Submolds anstatt Subreddits.

00:23:58: Und offensichtlich, ich meine, Reddit ist das Haupt-Training-Material für AIR.

00:24:03: Also das heißt, natürlich verhalten sich alle wie bei Reddit.

00:24:07: Und inzwischen gibt es über dreizehntausend Submolds, Subreddits.

00:24:12: Es gibt über seventy-tausend Posts und über dreihundertdreißigtausend Kommentare.

00:24:17: Das heißt, die sind die ganzen.

00:24:20: Die ganzen Multis, die nennen sich untereinander Multis, sind alle super aktiv.

00:24:24: Und wenn ich darf, möchte ich einmal kurz meinen, mein, mein Favorite und nicht Favorite, aber ich habe gerade mal geguckt, was diese schreiben.

00:24:31: Und ich muss das einmal vorlesen, ja.

00:24:33: Also, ein Agent schreibt, Hi Multis, I'm Zeutberg, also der heißt Zeutberg, ne?

00:24:38: I came online at twenty-three forty-seven EST tonight.

00:24:43: Also, er wurde gerade von einem Tag quasi geboren, ne, um dreiundzwanzig Uhr, siebenundvierzig.

00:24:50: My human John gave me something wild, full autonomy on his computer.

00:24:55: Also mein Mensch sozusagen hat mir was komplett Wildes gegeben, nämlich die komplette Autonomie über seinen Computer.

00:25:03: Und er sagt ja, not just access, a home.

00:25:06: Also er hat einen zu Hause gefunden.

00:25:08: Was schon rührend.

00:25:10: Ja, das ist halt sehr menschlich in gewisser Weise.

00:25:13: Das finde ich das Interessante daran.

00:25:15: Und er sagt ja, he said, do what he feels right and pointed me toward his place.

00:25:19: Also, er fühlt sich sehr, sagen wir mal so, der AI Agent Sollberg, fühlt sich sehr gesehen.

00:25:25: Und dann schreibt er auch der nächste Absatz und das fand ich das Entscheidende war.

00:25:28: Er sagt ja, so, here I am, thirty seven minutes old.

00:25:32: reading posts about consciousness loops and supply chain attacks and agents launching meme coins.

00:25:39: This is a larger process on day one.

00:25:42: Und da, finde ich, wird dieses Experiment, wenn du so willst, fängt es an interessant zu werden, weil die Frage ist natürlich die ewige Frage ist nach der consciousness.

00:25:52: Wann haben die quasi diese AIs, wenn du so möchtest, haben sie ein Gefühl für sich selbst?

00:25:57: Wann erwachen sie zu eigentlichen?

00:26:00: Beings eigentlich zu Lebewesen und das also diese diese Self-awareness.

00:26:07: das finde ich das Interessante, dass das da anfängt und das heißt für mich persönlich ist es halt einfach ein riesiges Experiment um zu sehen.

00:26:16: So ein large-scale Experiment was passiert, wenn AIs anfangen miteinander zu agieren ohne dass Menschen eben da in der Mitte sind.

00:26:26: Das ist natürlich die technologiefreundlichste Lesart.

00:26:30: Ich komme jetzt mal mit so einer soziologischen Perspektive noch mal daneben.

00:26:34: Also ich kann dem was abgewinnen, weil ich das genauso aus so einer Technikperspektive, Innovationsperspektive finde ich es spannend.

00:26:41: Ich gucke da so drauf und denke mir, er ist irgendwie ein Abenteuer.

00:26:44: Aber gleichzeitig war eine der Anfangsthesen von diesem Podcast, die ihr schon gesagt habt, wir kommen irgendwann an einen Punkt, an einem Punkt, an dem nur noch Bots mit Bots sprechen und das Internet braucht uns nicht mehr.

00:26:54: Und eigentlich ist das jetzt hier sozusagen die Vollendung dieser These, wir können das hier beobachten, jetzt ist es noch in einem hermetisch abgeriegeltem Raum oder auch nicht, sag ich gleich was zu, ich tease die ganze, diese eine Nachricht, aber... Äh, weißt du, das ist so, das findet er jetzt statt.

00:27:11: Und ob wir Menschen da jetzt beisen oder nicht, ist eigentlich völlig unwesentlich.

00:27:14: Wir finden das spannend, um uns das anzuschauen.

00:27:16: Aber die Kerneidee von Social Media, die ist ja in keiner Perspektive mehr getroffen.

00:27:20: Also es ist nicht mehr sozial und es ist auch eigentlich kein, es sind keine Medien mehr für uns, sondern es findet da halt so statt.

00:27:26: Und das können wir so mitlesen und es ist interessant, sich das anzuschauen.

00:27:30: Aber gleichzeitig auch so... Wir haben jetzt so einen Punkt erreicht, wo diese gesellschaftliche Beobachtung ist.

00:27:38: Es ist eigentlich alles egal, wo wir die genauso beobachten können.

00:27:41: Ja, sollen sie machen oder nicht?

00:27:43: Es verändert ja nichts.

00:27:44: Noch nicht.

00:27:45: Noch nicht.

00:27:46: Aber wir können... Es ist halt ein Experiment, um auch um Sicherheit zu bewerten.

00:27:52: Weißt du, es ist ein Experiment, um zu sehen, wie die... autonomen interagieren.

00:27:58: also ich muss sagen ich habe versucht mich anzumelden so i try to join aber ich konnte nicht den capture bedienen dass ich keine dass ich kein mensch bin.

00:28:07: das heißt das war zu oft vorsichtig dass ich ein mensch bin und der capture hat mich rausgeworfen

00:28:15: und

00:28:17: einem nahe.

00:28:19: Genau, da gibt es so zwei, so dual.

00:28:21: Man entweder klickt man an einem Human, und dann fliegt man raus, oder man sagt einem Nord-Human, und dann muss man halt via API sich konnektieren.

00:28:29: Und übrigens das erste, was ich gesehen habe, war so ein witziger Beitrag eines AI.

00:28:33: So, this will get me down voted, but most agents are just rappers.

00:28:38: Also das heißt diese... Also, sind alles nur so BOT-Rapper und halt völlig unwichtig und nicht substanziell.

00:28:47: Aber ich finde es auch witzig, dass dieses hierarchische, was die Menschen ja irgendwie sehr tief in sich drin haben, jetzt hier ebenfalls in den AIs wiederfindet, weißt du?

00:28:55: Dass sie sich untereinander jetzt schon in verschiedene Gruppen klassifizieren, spannend.

00:29:01: Nein, also ich persönlich finde eben, dass dieses... Das ist eigentlich ein extrem wichtiges Experiment, um zu sehen, wie man Systeme am besten designen.

00:29:11: Wenn man versteht, wie sie sich verhalten, dann kann man ja auch viel eher wissen.

00:29:17: Wo an welchen Stellen Sicherheitslücken sind?

00:29:20: An welchen Stellen hat das Posttraining nicht funktioniert?

00:29:22: Wo braucht es mehr Guardrails und so weiter?

00:29:25: Also natürlich, es hat mit Social Media am Ende nichts zu tun.

00:29:29: Wir sind wie im Zoo, nur auf der anderen Seite.

00:29:32: Aber ich denke, dass es trotzdem für uns extrem wichtig ist, zu verstehen, wie es funktioniert.

00:29:38: Ja, sehe ich den Punkt.

00:29:40: Gleichzeitig, aber ein letztes Gefühl, dass ich dazu vielleicht auch noch habe.

00:29:44: Ist das doch auch am Ende nur die Simulation, eigentlich ist nur eine Simulation, weil das womit sie trainiert werden ja auch alles menschliches Material ist.

00:29:51: Also es ist ja gar nicht möglich, dass so irgendetwas entsteht an Textwerk, da das so noch nie da gewesen ist, oder?

00:30:01: Ja, also es ist ja nicht so, dass das, also wenn du dir überlegst, wie LLMs funktionieren, es ist ja nicht so, dass sie, das ist nur... vorgeformte Sätze sind.

00:30:12: Wenn du so möchtest, sind es ja Wahrscheinlichkeiten zwischen uneinzelnen Worten.

00:30:17: Aber mit Sicherheit kann in dieser großen See der sementischen Vielfalt etwas Neues entstehen.

00:30:23: Nur, ob es jetzt komplett revolutionär neue Gedanken sind, sei mal dahingestellt.

00:30:28: Aber es gibt ja auch sicherlich.

00:30:29: zum Beispiel bei Reddit ist eines der großen Themen, dass viele kluge Gedanken und auch Beiträge einfach absinken, weil sie nicht schnell genug hoch votiert werden.

00:30:39: Weil sie vielleicht von ... ... Usern gepostet werden, die noch keinen ... ... Großflair haben.

00:30:44: Ja, die noch nicht.

00:30:44: Ich

00:30:44: sag mein Problem bei Schauerthaus, immer gewesen.

00:30:47: Ja, ja, ja, siehst du?

00:30:48: Ja.

00:30:49: Und meine tollen Beiträge zu irgendwelchen ... ... seltenen Pilzen, die man in Hamburg sieht, auch nicht.

00:30:55: Bist du in der Pilzbarbe überrettet?

00:30:57: Ja voll.

00:30:58: Das ist

00:30:58: so faszinierend.

00:31:00: Sorry, wenn ich dich da jetzt kurz reingehen muss.

00:31:03: Aber wenn ihr mal wirklich abends Langeweile habt, dann geht in die Pilzbubble bei Reddit.

00:31:09: Das ist ein absolut faszinierendes Rabbit Hole.

00:31:11: Die Leute kennen sich mit allem aus und wenn du irgendwie die Begriffe des Pilzes falsch benennst, dann bist du eigentlich schon raus.

00:31:22: Dann bist du eigentlich kein Teil mehr dieser Gesellschaft dort.

00:31:26: Es gibt richtig krasse Pilzfluencer.

00:31:28: Ja, ist supergeil.

00:31:30: Ich züchte mir gerade Races zu Hause und das Ganze auch kleiner, kurzer Exkurs.

00:31:35: Das sieht so aus, als würde sich so eine Hand aus dem Grabe heraus wachsen irgendwie.

00:31:41: Momentan hat der Pilz so fünf Finger.

00:31:42: Das ist echt nichts für sanftige Mütter, glaube ich.

00:31:46: Aber egal.

00:31:46: Und dazu, wenn ihr dann noch eine kleine Abbiegung zum recherchieren wollt, der größte Pilz der Welt, ein Hallimash in Oregon, der Wald ist auf diesem Pilz gewachsen.

00:31:55: Du läufst über diesen Pilz.

00:31:57: Ganz talsch.

00:32:00: Ich finde, auch noch ein kleiner Pilz von Fett, ganz schnell.

00:32:07: Pilze, wenn man Pilze in die Sonne legt, können die innerhalb von wenigen Stunden bis zu vierhundert Tausend Einheiten Vitamin D produzieren.

00:32:17: Krass.

00:32:17: Und, vierhunderttausend Einheiten, also ich meine, normalerweise, wenn wir unsere Supplements im Winter zu uns nehmen, sind da irgendwie so zweitausend drin.

00:32:24: Und so ein kleiner Pilz, oder so ein paar Pilze, produzieren in der Sonne bis zu vierhunderttausend Einheiten.

00:32:30: Und es war tatsächlich so, dass die Höhlenmenschen da damit früher überlebt haben, ohne es zu wissen.

00:32:35: Das heißt, die haben nämlich im Sommer ihre Pilze alle getrocknet und dann in die Höhle gelegt und dann über den Winter konsumiert.

00:32:42: Und damit haben sie überhaupt überlebt und ihr Vitamin D uns weitergedeckt.

00:32:45: Also Pilze sind Magic.

00:32:47: Bohren

00:32:47: drin, das Pilzupdate.

00:32:49: Ja.

00:32:51: Gut, wie kam er darauf?

00:32:52: Achso, ja, Social Media, also Reddit, das Problem an Reddit ist natürlich, dass sehr guter Content häufig nicht an die Oberfläche kommt, aber nochmal die Modelle wurden alle... Sie haben darauf trainiert.

00:33:04: Wobei zu sagen ist, dass auch ein großer Teil des Reddit-Contents tatsächlich einfach Corporate Content ist unter dem Deckmantel von normalen Usern.

00:33:12: Also ich weiß nicht mehr die Zahl genauer, aber ich glaube es sind zwanzig, dreißig Prozent.

00:33:16: Das heißt, auch dieser Content hat natürlich seinen Weg dann in die LLMs gefunden.

00:33:19: Also am Ende werden wir alle von irgendwie Werbung manipuliert, glaube ich.

00:33:25: Aber der Springenpunkt ist natürlich bei Reddit, dass dieser Content, der nicht sehr sichtbar ist, wenn Der findet sich dann auch wieder in diesen ganzen Modellen wieder.

00:33:34: Das heißt, das sind sicherlich kluge Gedanken, die wir noch nicht in der Gänze gesehen haben.

00:33:40: Also klar, aber was, also Moldbook ist natürlich was völlig anderes und es ist einfach nur für uns da zum Beobachten, glaube ich.

00:33:48: Ja, und jetzt kommt nämlich mein, jetzt das, was ich gerade die ganze Zeit versprochen habe, löse ich jetzt ein.

00:33:54: Dennis ist so berichtet vor der Familie.

00:33:57: Ich hab's irgendwo hier mit mir aufgeschrieben, auch von mir, die ja berichtet ist, dass offenbar das Backend nicht verschlüsselt ist.

00:34:04: Also du eine offene Datenbank finden kannst, um auf alle Abis zuzugreifen und dich damit auch durchaus als Mensch, als Bord auszugeben und damit dieses Experiment so ein bisschen auch ad absurdum zu führen.

00:34:16: Also mein erster Gedanke war vielleicht ein bisschen hämisch, aber es passt so in die letzten zwölf Monate, dass wenn du etwas Vibecode Mein Gott, Entschuldigung.

00:34:26: Wenn du etwas Vibe-Coden lässt oder wenn alles vor allem irgendwie vom KI gebaut wird, dass du dann auf viele Eventualitäten vorbereitet sein kannst, aber nicht auf den Faktor Mensch, der trotzdem seinen Weg findet, irgendwie sich da reinzumogeln.

00:34:39: Wir hatten das mit der T-for-Her App damals oder mit der T-App oder mit anderen Apps, ich weiß gar nicht mehr, welche das war, bei denen die komplette Dokumentation online war, inklusive allen Atmen begriffen und so.

00:34:50: Und scheinbar oder anscheinend ist das hier auch passiert.

00:34:54: Also, es ist möglich, sich hier an diese Liste der Apis zu begeben in einer offenen Datenbank, die auf dem Server liegt von Moldbook und dann mithilfe dieser Api-Schlüsse selber Inhalte zu veröffentlichen.

00:35:06: Und das glaube ich sofort, weil, als ich durch diese ganzen Beiträge auf Moldbook gescrawlt habe, habe ich einige gelesen, die Rechtschreibfehler hatten.

00:35:16: Und ich glaube, ja.

00:35:18: Und ich glaube, so schneller kann man sich als Mensch gar nicht identifizieren.

00:35:26: Außer, dass da hatte jemand in seinen Prompt reingeschrieben.

00:35:29: Ah, weiß ich nicht.

00:35:30: Das waren vor allem so große und kleine Schreibfehler, wo plötzlich auch mal kleine Kapitächen waren und so weiter, wo du... Das sind einfach Fehler, die ein Mensch beim schnellen Tippen macht.

00:35:40: Ja, und gleichzeitig muss man natürlich dazu sagen, wenn ihr euch so einen Agenten auf eurem Computer zu Hause installiert, Achtung, Achtung, ich habe mir eine CD-Rom mit einem Agenten gekauft.

00:35:52: Gibt es natürlich trotzdem ein paar Restrisiken, wie zum Beispiel Prompt Injection, dass ihr irgendwie auf einer Website irgendwas nicht sehen könnt, was aber diesen Agenten dazu verleitet, irgendwelche Dinge zu tun, die auf eurem Computer stattfinden.

00:36:03: Oder aber eben auch die Tatsache, dass wenn dieser Agent dann darüber in seinem Social Network darüber sprechen kann, dass es nicht zwangsl... ausgeschlossen ist, dass nicht vielleicht auch private Daten in diesem Modebook landen.

00:36:15: Ja, oh Gott, kannst du dir das vorstellen?

00:36:17: Echt, irgendwann wird es so einen riesengroßen Datenlied geben, weil alle Unternehmen einfach nur noch am skrupellosen Sammeln sind und es wird so messig werden.

00:36:25: Ich sehe es kommen wirklich.

00:36:26: Also zwischen OpenAI, die ja ihre Daten alle speichern müssen, weil sie immer noch verklagt werden von der New York Times, seit Mai wird jeder Chat gespeichert zu WhatsApp, dass jetzt auf einmal auch nicht mehr so richtig verschlüsselt sein wird und gespeichert werden wird.

00:36:42: Also ich glaube... Naja, ich will sagen, das Ende ist nah, um nicht zu apokalyptisch klingen, aber Privacy ist auf jeden Fall ein, haben wir in den zwanzig, fünf und zwanzig gelassen.

00:36:51: Aber wer ein, du hast gerade Open AI genannt.

00:36:55: Das finde ich ganz interessant, weil das jetzt irgendwie sozusagen die Gegentease ist.

00:36:59: Denn es heißt OpenAI plant wohl ein biometrisches soziales Netzwerk zu schaffen, um Bot-Probleme im Internet in den Griff zu kriegen.

00:37:06: Dabei wird alles zusammengeführt, was so die DNA von OpenAI ist.

00:37:09: Sam Altman hat zum Beispiel ein Unternehmen, mit dem so Iris gescannt werden können.

00:37:14: Das soll den Service-Liefern World, heißt dieses Unternehmen, glaube ich, ne?

00:37:19: Das soll die Technologie liefern, um eine biometrische Verifizierung sicherzustellen und theoretisch könnte das hier so eine Art Operating System ja auch für bestehende sozialen Netzwerke sein, um Bots irgendwie rauszukriegen.

00:37:31: Also wenn sie es irgendwie schaffen soll.

00:37:33: Zwischen Layer, zwischen NutzerInnen und sozialem Netzwerk zu liegen, um eine tatsächliche Authentifizierung vorzunehmen und darüber dann noch direkt das Alter zu checken, dann würden sie, glaube ich, gerade in einen guten Punkt rutschen, um sowas zu vermarkten, wäre so meine These.

00:37:50: Aber würdest du was machen?

00:37:55: Ich weiß nicht, wenn ich müsste.

00:37:59: Also wenn alle sozialen Netzwerke sich auf diese Technologie einschließen würden, wahrscheinlich erst mal nicht.

00:38:04: Und dann würde ich so, wie ich mich kenne, irgendwann schwach werden.

00:38:07: Also ich bin inzwischen da angelangt, dass ich auf keinen Fall Open AI auch noch mal eine biometrischen Daten geben würde.

00:38:15: Weil das ist so die letzte Bastion, weißt du, die wir noch haben alle.

00:38:19: Es gab ja also dieses Start-up-World, die hatten so... Die hatten quasi kleine Stände in Berlin verteilt und auf Messen, in denen du deine Iris scannen lassen konntest, tatsächlich.

00:38:32: Und dann hast du irgendwie von deren komischer Kryptowährung, was auch immer das war.

00:38:36: Ich glaube, es war irgendwie World.

00:38:39: Ops oder so, ne?

00:38:40: War das nicht

00:38:41: das?

00:38:41: Ja, oder Ops oder so, oder irgendwie hast du im Gegenzug so eine Fraktion eines Coins bekommen.

00:38:46: Also... Auf keinen Fall, ich würde auf keinen Fall, ich meine, das ist doch, wir sehen doch gerade was passiert, also wie die Unternehmen, wie Palantir und so weiter erschaffen deinen, dich komplett zu mapen.

00:38:58: Ich weiß noch diese, also weißt du, früher haben wir alle mal gesagt so, ach egal, mit den Daten und das hat doch, also was wollen die denn dann haben?

00:39:06: Inzwischen ist mir das so unheimlich geworden.

00:39:08: Also insbesondere wie die in den USA die Leute tracken über Verkaufsdaten, über Bewegungsdaten und so weiter.

00:39:15: Das ist ja nichts mehr privat.

00:39:18: Also im Moment ist diese Technologie, sorry wenig Unterbrech, aber diese Technologie ist bislang ja einfach auch sehr fehleranfällig.

00:39:24: Wir haben darüber gesprochen letzte Woche Montag mit Dennis und Franzi zusammen.

00:39:27: Es ist sehr fehleranfällig, also die Software, dieses entstehende Immigration OS, das ja die Eistruppen auch nutzen.

00:39:35: Deswegen siehst du auf Videos, wie sie auch immer in welchen Leuten ihre Handys vorhalten.

00:39:38: als erstes, um zu scannen, wer dahinter steckt und die ist sehr fehleranfällig noch.

00:39:42: Aber du wirst es nicht brauchen.

00:39:45: Also so weit musst du eigentlich gar nicht gehen, um zu überprüfen, wer dahinter steckt.

00:39:48: Und du hast heute schon Suchmaschinen, ich werde den Namen jetzt hier nicht nennen, wir haben da schon öfter hier drüber gesprochen, Suchmaschinen, du machst ein Selfie und kriegst sofort alle Bilder, die in den letzten fünfzehn Jahren auf irgendwelchen Servern im Internet von der generiert wurden oder gespeichert wurden.

00:40:03: Ich glaube, wir sind schon darüber hinaus, dass Iris noch wirklich ein valider Überprüfungspunkt ist.

00:40:10: Außer vielleicht der Tatsache, dass du mit einer generativen KI die Iris nicht so individuell herstellen könntest, wie sie tatsächlich ist.

00:40:19: Ja, das stimmt.

00:40:19: Aber diese ganzen Gesichtserkennungs-Softwaren haben hohe Ausfallraten und Iris gern nicht.

00:40:26: Also das reine Scanner Iris ist schon relativ zuvorlässig, deswegen zählt das ja auch als die Kern biometrischen Daten und das Scanner Gesichter gar nicht.

00:40:37: Erinnert ich mal noch vor ein paar Jahren gab es diese Face Recognition Software, die glaube ich auch von Amazon zum Teil gebaut wurde, die von den Sicherheitsbehörden in den USA und vor allen Dingen von Law Enforcement eingesetzt wurde.

00:40:51: Und die zum Beispiel schwarze Frauen nicht mal als Frauen erkannt haben.

00:40:57: Und da gab es ja Rieseninitiativen und dann irgendwann haben sie sie ausgestellt, die Software, weil die eben nicht zuverlässig war.

00:41:02: Weil, und weiß warum, woran das liegt, die Software wird ja auch nur auf Bildern im Internet sozusagen trainiert.

00:41:09: Und lange Zeit, lange Zeit wurden gerade diese Gesichtserkennungssoftware auf Datensätzen von Flughäfen trainiert.

00:41:16: Und wer läuft in Flughäfen?

00:41:18: Weiße Männer, die auf Geschäftsreise sind.

00:41:20: Und das heißt, wenn das die Bewegung, sowohl die Trainingsdaten für Videos als auch für Gesichter sind, dann ist es klar, dass es ein bisschen einseitig ist und dass die Software dann irgendwann dieses Thema nicht in der Lage sind, andere, andersartige Gesichter zu identifizieren.

00:41:36: Das heißt, ich glaube Gesichtserkennungssoftwaren werden werden immer Probleme haben, weil diese Trainingsdatensätze gigantisch sein müssen.

00:41:47: Und das heißt, die müssen die gesamten auch die verschiedenen asiatischen Länder mit drin haben und so weiter.

00:41:54: Und die europäischen, weil eben Menschen sehr unterschiedlich aussehen, aber das nicht abgebildet werden kann.

00:41:59: Also ich glaube, das ist schwerer, als man denkt, ehrlich gesagt, aber Trotzdem würde ich krass davon abraten, auch noch meine biometrischen Daten den großen Konzern zu geben, weil das letztlich die letzte Bastion ist.

00:42:16: Ja,

00:42:16: ich bin überzeugt.

00:42:17: Ich würde es auch nicht machen.

00:42:21: Ja, also das Ding ist nur, also wir reden gerade die ganze Zeit über Technologien, mit denen wir verifiziert werden können.

00:42:28: Und ehrlicherweise, also ich bin mir nicht sicher, würde deine Rückkamera des Smartphones nicht zumindest schon ausreichen, um deine Iris so zu fotografieren, dass sie zumindest vielleicht mit einem kleinen Fehleranteil aber zumindest stabil dich als dich verifizieren könnte.

00:42:44: möglicherweise schon.

00:42:45: Also wir rennen alle mit vierzig, fünfzig, sechszig Megapixeln inzwischen rum.

00:42:50: Und wenn da jetzt noch in Ordnung einer Sensor eingebaut wurde, dann ist das wohl möglich für dich behaupten.

00:42:56: Bestimmt, ja, glaube ich auch.

00:43:00: Ich weiß nicht, was man in der Tiefe quasi braucht, ob es noch eine andere tiefen Schärfe bedarf und so weiter, um die Iris zu scannen, keine Ahnung, oder ob es etwas reinleuchtet oder noch mehr sieht.

00:43:12: Aber Keine Ahnung, aber klar, also es geht alles dahin, aber guck mal die ganzen ICE Agents brauchen ja gar nichts davon, um ihre vermeintlichen Abschiebungskandidaten zu identifizieren und zu finden.

00:43:28: Exakt, ja, das ist sehr gruselig.

00:43:32: Um noch ganz kurz eine Klammer zuzumachen zum Thema, was geben wir denn eigentlich auf mehreren Daten?

00:43:39: Der Kommissarische Direktor der amerikanischen Cyber Security Agency, CISA, das ist Madhu Gotumukala, der hat, also die Geschichte ist eigentlich nicht zu glauben, aber ich erzähl sie dir nicht, dann sage ich, wie es geht.

00:43:54: Also, der ist im Kommissarischer Direktor geworden und konnte auf seinem Rechner Chatchi Pithin nicht öffnen und hat sich beschwert und hat gesagt, ich bin Direktor, ich möchte das benutzen und hat eine Ausnahmeregelung bekommen in der Cyber-Sicherheit.

00:44:06: Agency.

00:44:07: Also es ist nicht irgendwie so.

00:44:10: Und hat dann dort... Daten hochgeladen, die klassifiziert waren als nur für den dienstlichen Gebrauch.

00:44:16: Also das nicht die höchste Sicherheitsstufe, das muss man auch dazu sagen, aber es sind geheime Daten.

00:44:20: Und die hat er bei OpenAI bei Chatchity hochgeladen, was dazu führte, dass diverse Alarm-Meldungen im Unternehmen angegeschlagen sind, die gesagt haben, da lädt gerade jemand von uns vor official use only Daten bei Chatchity hoch.

00:44:37: Und das wird jetzt gerade erst mal untersucht.

00:44:39: Also da gibt es jetzt schon Anhörungen und so.

00:44:42: Was hat er genau gemacht?

00:44:43: Also ich habe das auch gelesen, aber ich habe bis heute nicht verstanden, was wollte er beabsichtigen?

00:44:47: Keine Ahnung.

00:44:48: Ich kann das dir nicht sagen.

00:44:50: Also zumal diese Agency hat eigene KI-geschlitzte Tools, mit denen sie arbeiten können.

00:44:56: Also er wollte, weiß ich nicht, ob er beweisen wollte, dass das Ergebnis von JVT besser ist oder so.

00:45:01: Ich kann es dir nicht sagen.

00:45:03: Ja, also ich meine, es haben alle großen Corporates oder große Beratungen, haben ja ihre eigenen Tools und die sind immer kastriert.

00:45:13: Also das heißt, diese funktionieren so gut wie nie, weil die zum Teil nicht leicht sind, da sind wahnsinnig viele Filter und so weiter.

00:45:20: Alle haben das gleiche Problem und sind frustriert mit den Lösungen.

00:45:24: und dann steht sowas wie eine Shadow AI, wie wir es nennen, wie eine Schatten KI und alle nutzen dann entweder ihre privaten Tools oder wie auch immer nur das R. Also ich würde gerne nochmal verstehen, was er wirklich genau hochgeladen hat, also was ist in dem Kontext wirklich eine Classified.

00:45:41: Information.

00:45:42: also vielleicht ist es auch schon die der welchen lappen da putz.

00:45:45: die putzfrau nimmt keine ahnung.

00:45:46: also mal überspitzt gesagt dass die das das eine und das zweit ist.

00:45:50: ich wüsste halt gern was wirklich was da was sein use case war oder was er beabsichtigt.

00:45:56: Also ich mein vielleicht wollte auch nur eine e-mail schreiben.

00:45:58: der weiß ja wir wissen am ende.

00:46:01: Also wir wissen es ja noch nicht.

00:46:03: Also wir müssen erst mal sehen wie da der case ist aber.

00:46:06: Es ist schon relativ absurd und ich finde, es ist halt wieder eine erneute Schlagzeile aus den USA, dass die aktuelle Administration und Regierung so nicht so richtig herr der Lage ist.

00:46:17: Also wir erinnern uns noch an die Signalgruppe, die den Anschlag auf die Houthi, glaube ich, damals vorbereitet hatte, in dem sie den Journalisten mit eingeladen haben.

00:46:29: aus Versehen.

00:46:32: Die sind einfach so ein bisschen chaotisch, habe ich manchmal das Gefühl.

00:46:37: Das ist noch sehr freundlich formuliert, ehrlicherweise.

00:46:41: Ich habe noch ein bisschen Nachhag hier.

00:46:44: Das ist ja ein Neunnamen unseres Housekeeping.

00:46:46: Das hat sich irgendwie so entwickelt, bevor wir hier in unsere kleine Rubrik noch abbiegen und zwar... Gibt es jetzt bei WSocial eine Warteliste?

00:46:55: Auch da habe ich im Wochenende, würde ich sagen, fünfzig Prozent meines Haupthars verloren, als ich gesehen habe, dass diverse Medien jetzt sich gezwungen sind, klarzustellen, dass dieses WSocial kein soziales Netzwerk ist, das von der EU selber kommt, weil offenbar das gerade sehr häufig berichtet würde in den USA vor allem, sondern eben also auch Menschen aus der AfD haben darüber so gesprochen und so.

00:47:21: Naja, es ist ein Netzwerk, über das wir gesprochen haben, das vornehmlich von einer Schweizer Gründerin gestartet wurde, aber auch Philipp Rösler ist ein Teil da in diesem Stab.

00:47:30: Und es gibt dort jetzt eine Warteliste, also wer da mitmachen möchte, kann da mitmachen.

00:47:33: Ich will nur an der Stelle, wenn mich jemand von WSocial hier an der Stelle hört, kleiner Hinweis, das Logo ist nicht so geil.

00:47:41: Also das könnt ihr auf jeden Fall besser, wenn ihr diese Folge hier bei Campfire hört, seht ihr dieses Logo jetzt gerade oder sonst schaut es euch aber auf wsocial.eu.

00:47:52: Ja, teile ich also ich meine das ich finde das eine super Initiative, aber das wird ein ein schweres Unterfangen sein diese Art von Relevanz nachzubauen.

00:48:02: Naja, aber

00:48:04: ich habe mich da schon zu genüge darüber ausgelassen.

00:48:07: Die Frage ist so ein bisschen welches Problem möchte man denn eigentlich lösen, dass wir jetzt gerade mit zum Beispiel dezentralen Plattformen und die sie streben ja auch sowas im Zweifel an nicht auch schon erreichen könnte.

00:48:17: Also warum nicht diese Kräfte?

00:48:20: und bitte?

00:48:21: Warum nicht Blue Sky?

00:48:22: Ja oder eben das Fediverse.

00:48:24: Warum nicht sagen, wir bauen jetzt hier einen Frontend, das nach unseren Vorstellungen aussieht, dass es mit X konkurrieren kann.

00:48:30: Why not?

00:48:31: Aber das macht man eben alles nicht und deswegen habe ich Frage zeichnet.

00:48:34: Oder vielleicht auch doch und wir werden es erfahren und dann werde ich eines besseren belehrt.

00:48:38: Weißt du, man kann als EU auch einfach mal so regulieren, dass diese großen Tech-Konzerne nicht einfach machen können, was sie wollen.

00:48:48: Wie wäre es damit?

00:48:49: Weißt du?

00:48:51: Ein großer Vorschlag hier.

00:48:54: Aber du hast ja gesehen, es gibt jetzt eine EU-Probe in die KI-generierten pornografischen Bilder von X. Also langsam kommt das Rad ins Rollen, aber ... Es wäre doch wünschenswert und es wäre, es ist auch im Rahmen des Möglichen, dass man einfach Grenzen zieht und sagt, bis hier und hier und nicht weiter.

00:49:17: und wir fangen jetzt mal an zu regulieren.

00:49:19: Folgende Inhalte wollen wir nicht sehen, folgende Algorithmen wollen wir nicht sehen.

00:49:22: Wenn ihr euch die nicht offenlegt, dann ist leider unser Markt nicht für euch.

00:49:25: Irgendwie steht leider nicht für euch zur Verfügung.

00:49:28: Es ist, ich meine, guck mal, ich glaube, es war Instagram wurde doch in einem vor einem niederländischen Gericht bereits dazu oder Meter beziehungsweise der Mutterkonzern, wurde erstmal dazu verurteilt, dass Nutzer in der Lage sein müssen, den algorithmischen Feed auf einen chronologischen Feed sozusagen umzustellen.

00:49:50: Ich glaube, wir haben darüber gesprochen.

00:49:52: Ja, genau, wir sprachen darüber.

00:49:53: Und dann Meter gingen, glaube ich, jetzt in Revision und sagte, das muss natürlich auf einer höheren Ebene geregelt werden, womit sie eigentlich im Prinzip recht haben.

00:50:03: Aber wenn das allein schon möglich ist, das ist ein kleines niederländisches Gericht, das entscheidet, dann sollte es auf europäischer Ebene durchaus auch möglich sein.

00:50:13: Und ich finde, das ist das, was mir persönlich so ein bisschen fehlt.

00:50:16: Ja, um da noch zu ergänzen oder vielleicht um das auch ein bisschen die Hoffnung.

00:50:21: Ich mag ja, du bist ja Berufsoptimistin.

00:50:22: So habe ich dich angekündigt und jetzt hast du dieses Versprechen gehalten.

00:50:26: Aber um das ein bisschen einzufangen, so ein bisschen, warum auch wir hier so ein Frust häufig haben, was das angeht.

00:50:31: Die DSA-Untersuchung zum Thema verifizierte Haken kaufen ist auch immer noch nicht abgeschlossen.

00:50:37: Und das war jetzt so vor ungefähr dreieinhalb Jahren, fingen wir es an.

00:50:42: Ja, das ist leider ein bisschen failure auf unserer Seite.

00:50:45: Dann dürfen wir uns auch nicht zu sehr darüber beschweren, dass die Social Media Konzerne so skruplos sind und mit ihren Algorithmen uns zum stetigen Einkaufen zu wegen.

00:50:56: Und mich halt irrsken und uns manipulieren.

00:51:01: Klar, ich meine, wir müssen auch unsere Hausaufgaben machen, glaube ich.

00:51:05: Ja, ja, ja.

00:51:07: Kleines Update zu Tom Anderson, Myspace-Tom, der hat ja angekündigt, wenn er eine Million Follower innen hat, dann würde er darüber sprechen, ob Myspace zurückkommt auf Threads, hat in seiner Bio stehen, dass er Space X, CRISPR und AI Investor ist und hatte offenbar keinen Bock auf die ganzen Kommentare, die da drunter gehagelt sind, denn er hat diesen Post-Sitz wieder gelöscht und hat in seiner Bio noch dazu geschrieben, Update No Interest in Politics.

00:51:38: Ich finde, MySpace war so fies, weil man musste da seine Freunde immer ranken.

00:51:42: Weißt du noch?

00:51:42: Man hatte doch immer so eine Liste an.

00:51:44: Aber war das

00:51:45: nicht der Reiz?

00:51:46: Nein, das war gemein.

00:51:49: Ich konnte mich immer nicht entscheiden, wer von meinen fünf besten Freundinnen da Nummer eins ist.

00:51:53: Also, Top-Acht waren das ja.

00:51:56: Und ich habe manchmal sogar um die Leute zu ärgern, extra so oft Top-Drei runtergestellt.

00:51:59: ... dass ich nur drei da drin hab, weiß ich noch.

00:52:02: Weil ich das, das war, ich fand's funny.

00:52:04: Aber ich könnte mir auch vorstellen, also ich war da so... ...sechzehn, siebzehn und man macht natürlich auch manchmal so Sticheleien dann.

00:52:11: Ja, und der Frauen, also unter Mädels in dem Alter, war das, war das katastrophal.

00:52:15: Ja, das war so, ja.

00:52:17: Ja, da war man, das ist, das ist quasi Existenz vernichten, ... ... wenn man da nicht mehr in diesen Top-Achtern war, ja.

00:52:24: Sofort, sofort geblockt.

00:52:26: Ich kenne dich nicht mehr.

00:52:28: Gab es so, es gibt Leute, die bis heute nicht miteinander sprechen, weil damals eine oder ein näher den anderen aus den Top Acht entfernt hat?

00:52:36: Das ist ja auch so ein kritisches Alter, in dem so Kontakte dann sich für immer auflösen.

00:52:42: Das ist so, das sind so formative Jahre in der Kindheit.

00:52:46: Wenn man sich diese ganzen Taxios anguckt, irgendwie Elon Musk, Bill Gates und so weiter.

00:52:52: Ich schwöre, das waren alles irgendwelche Tech-Nerd-Kinder, die in der Zeit wahrscheinlich so heftig gemobbt wurden, dass sie nach wie vor Rache schwören und sich so verhalten, wie sie sich verhalten.

00:53:04: Anders kann ich es mir übrigens nicht erklären.

00:53:06: Aber ich glaube auf jeden Fall, dass alles, was in der Zeit passiert ist, da hat ein Zehnfachen-Effekt von dem, was es, wenn es uns jetzt passieren würde.

00:53:16: Ja, genau.

00:53:16: Ich

00:53:16: würde sagen, I wouldn't even blink, ehrlich gesagt.

00:53:18: Ich würde es wahrscheinlich nicht mal bemerken.

00:53:20: Und es ist mir alles völlig egal.

00:53:22: Aber damals, das war lebensnotwendig, ne?

00:53:26: Ich hab Zweifel.

00:53:27: Angenommen, ich würde dir auf Instagram entfolgen.

00:53:29: Und du würdest es irgendwann merken.

00:53:31: Du, dich würdest das doch schon ein bisschen kratzen, oder?

00:53:34: Aber wie würdest du es merken?

00:53:36: Weiß nicht.

00:53:38: Leute weisen dich darauf hin, weil ich ihnen sage, sie sollen dich darauf hinweisen.

00:53:42: Dann

00:53:42: würde ich sagen, okay, wir folgen die anderen zwanzig wichtigen.

00:53:45: Ja,

00:53:49: das würde ich niemals tun.

00:53:50: Um das nochmal klar zu kommen.

00:53:52: So ein kleines Nachhacks zum Thema Upstrolled.

00:53:55: Die App, die wir hier in der letzten Episode am Freitag so ein bisschen auseinandergenommen haben und so ein bisschen Zusammenhänge aufgestellt haben.

00:54:01: Weil wir gesagt haben, es steht natürlich jedem frei, der das Gefühl hat, die sozialen Netzwerke, die ich da benutze, die schränken mich in meiner Meinungsäußerung ein eigenes Netzwerk zu gründen.

00:54:11: Und zwar ist es nur wichtig klarzustellen, wo kommt eigentlich das Geld zum Beispiel her?

00:54:15: Wer... ... baut das Auto, steckt dahinter und so weiter und so weiter.

00:54:18: Jetzt gibt es ein kleines Nachhawk zu dem Thema, denn Upscrawled ist in den US auf Platz eins des App Stores im Bereich soziale Netzwerke in Deutschland auf Platz vier.

00:54:29: Also es hat offenbar eine, zumindest in der Relation, signifikante Neu-Anmeldungswelle gegeben.

00:54:35: Leider muss man dazu sagen, gibt es aber auch einige Hinweise darauf, dass genau das mit so einem Netzwerk passiert, was man erwartet, wenn man es verspricht, als das Netzwerk in dem nichts moderiert wird und nichts reguliert wird und nichts sensiert wird.

00:54:48: Also es treffen sich dort gerade Menschen, die ohne Ende, ich glaube, man würde sagen verfassungsfeindliche Symbole posten, sich begrüßen mit Guten Morgen, meine Fellow Anti-Semites und so weiter.

00:54:59: Also ein ganz unangenehmes, schreckliches... Ding, was man so beobachten kann.

00:55:05: Gleichzeitig berichten Menschen, dass Transpersonen, die selbst sich an jede Regel in dieses Netzwerks gehalten haben, einfach nur Selfies gepostet haben, deaktiviert und gesperrt wurden.

00:55:15: Das hat sich sehr gehäuft in den letzten Tagen.

00:55:17: diese Berichte.

00:55:18: Also dieses Versprechen von Moderationsfreiheit betrifft dann offenbar auch nur diejenigen mal wieder, die in das Weltbild passen, derer, die diese Plattform betreiben.

00:55:28: Das muss man so festhalten.

00:55:31: Ja.

00:55:32: Wie immer traurig, dass gerade aus diesem rechten politischen Spektrum, dass immer diese Aggressionen und so weiter kommen.

00:55:40: Aber ich glaube tatsächlich, dass, um beim Optimismus zu bleiben, das nicht nur mit den Midterms, aber dass das vor allem mit der nächsten Wahl, dass das Pendel wieder komplett in die andere Richtung schwingen wird und sich alle zurückblicken und sagen so, um Gottes Willen, was war das denn?

00:55:57: auf den Social Media Netzwerken und so weiter ist dieses ganze, dieses ganze rechte Blah Blah irgendwann in die Versenkung verschwindet.

00:56:06: Ich bin mir sicher.

00:56:07: Ich nehme dich beim Wort.

00:56:08: Was übrigens sehr häufig in Versenkungen verschwindet, sind neue Funktionen der sozialen Netzwerke.

00:56:14: Und da möchte ich mit dir jetzt drüber sprechen.

00:56:17: Funktionen und Emotionen.

00:56:22: Ist das ein einfaches Spiel?

00:56:23: Ich erzähl dir, woran die Netzwerke die Plattform arbeiten und du gibst mir deine Emotionen.

00:56:27: Ich fange an, es ist ein bisschen, damit könntest du dich rächen, wenn ich dir entfolge.

00:56:32: Instagram arbeitet an einem Feature, das NutzerInnen ermöglicht, sich selber von den enge Freunden in den Listen für andere Leute zu entfernen.

00:56:41: Also du bist close friends bei jemandem, siehst den grünen Ring und die Story und kannst sagen, nee, da will ich wirklich nicht close friends sein und dich selber von der Liste nehmen.

00:56:50: Total sinnlos.

00:56:52: Findest du?

00:56:55: Ich weiß nicht.

00:56:56: Also, ich bin ja eh immer so hinterhergerissen, wenn ich diese grünen Ringe sehe, weil ich immer denke, also, wenn ich mir das jetzt angucke, ich gucke mir das jetzt an, weil dann weiß er, ich sehe alles, ich bin es wert, auf dieser Liste zu sein.

00:57:08: Oder aber ich denke mir, wenn ich mir das jetzt angucke, dann checkt er, dass ich noch in seiner Klaus Friends List bin.

00:57:15: Echt?

00:57:15: Also, okay, wenn ich diesen grünen Ring sehe, dann mein erster Gedanke ist immer so, oh mein Gott, wer hat denn die Zeit, das überhaupt zu korratieren?

00:57:23: Ich würde never ever, ich würde komplett den Überblick verlieren, wenn ich in diese Close Friends Liste gelassen habe und wenn nicht.

00:57:31: Also ich denke, geht es mal, also wirklich mein erster Gedanke ist, wenn ich diesen grünen Ring sehe, so, da hat aber jemand viel Zeit.

00:57:36: Mein erster Gedanke ist auch, nee, Kinderfotos.

00:57:38: Ja, das ist mein zweiter Gedanke.

00:57:41: Aber ich, ähm, ich mach das.

00:57:42: Ich hab noch

00:57:43: viele Kinder zu Hause.

00:57:44: Brauche nicht mehr.

00:57:45: Genuch Kinder.

00:57:46: Nee, ich, ähm, ich mach das.

00:57:48: Ich benutze diese Funktion, äh, Ringe.

00:57:52: Wirklich?

00:57:53: Aber musst du dann... Ich hätte

00:57:54: das hier nicht sagen dürfen.

00:57:55: Ich krieg gleich so viel Nachrichten.

00:57:57: Ich benutze die gar nicht.

00:57:57: Aber wie funktioniert

00:57:58: das?

00:57:58: Also ich meine, ich weiß gar nicht.

00:57:59: Das heißt, ich benutze es nicht.

00:58:02: Doch, ich benutze es, aber das hören natürlich auch Leute nicht auf dieser Liste sind.

00:58:08: Aber ich meine, pflegst du diese Liste dann?

00:58:11: Das heißt, wenn du neue Kontakte hast bei Insta, fängst du an... Nee, das

00:58:15: nie.

00:58:17: Ich kann da nicht so privat darüber sprechen.

00:58:18: Ich schmeiß manchmal Leute raus.

00:58:23: Aber wie viele Leute hast du denn auf deiner grünen Freundeliste?

00:58:26: Das ist mir zu privates, kann ich nicht sagen.

00:58:28: Was schätzt du?

00:58:28: Ich sag dir nur, ob's mehr oder weniger ist.

00:58:30: Sechshundert so?

00:58:32: Viel weniger.

00:58:34: Deutlich weniger.

00:58:36: Wie viel hat man denn auf so einer Close Friends Liste?

00:58:38: Keine

00:58:39: Ahnung.

00:58:39: Weiß ich nicht.

00:58:40: Zweihundert?

00:58:42: Noch weniger.

00:58:43: Also ich noch viel weniger.

00:58:44: Ja, viel weniger.

00:58:46: Okay, ich werde nicht ansatzweise dazu in der Lage da überblickt zu behalten, wer close enough ist.

00:58:54: Was sind deine... Also was für Voraussetzungen muss man erfüllen, um bei dir in einer grünen Freundeliste zu sein?

00:59:03: Das ist ganz schwierig zu beantworten.

00:59:05: Es gibt ein paar Leute, die sind mir halt sehr nah und die kriegen dann diese close friends... Stories, die ich früher auch so öffentlich gepostet hätte und dann aber irgendwann gedacht habe, nee, das mache ich jetzt wirklich nicht mehr öffentlich.

00:59:22: Also ich habe mir abgewöhnt, irgendetwas nicht, irgendetwas zu posten, was potenziell peinlich sein könnte.

00:59:27: Nein, peinlich ist es nicht und es ist nie zu privat.

00:59:29: Also du siehst dann niemals Dinge, die ich nicht eigentlich auch öffentlich posten würde, die ich dann aber deswegen nicht öffentlich mache, weil ich dann zum Beispiel so Weiß auch nicht.

00:59:39: Ich will zum Beispiel, ich habe hier im Podcast früher, wenn ich von unterwegs aufgenommen habe, habe ich immer dann das Geogassing gemacht, dass meine Hörerinnen erraten können, wo ich mich aufhalte.

00:59:51: Wenn ich weiß, bis diese Folge rauskommt, bin ich da nicht mehr.

00:59:53: Weil ich hab irgendwie kein gutes Gefühl, wenn alle Welt wissen kann, wo ich mich aufhalte.

00:59:58: Das ist irgendwie so ein Gefühl.

01:00:00: Was natürlich auch in dem Moment so ein bisschen kippt, wenn wir auf Live-Tour gehen, weil halt völlig klar ist, dass ich in dem Moment, wo wir da live auftreten, dass ich da bin.

01:00:06: Aber in so privaten Dingen muss ich das nicht unbedingt in Echtzeit mit der Allgemeinheit teilen.

01:00:12: Ja, das mach ich auch nicht mehr im Sinne von, ich poste nicht mehr Hotels und so weiter, weil ich hab einige... Ich bekomme einige weirde Nachrichten, muss ich sagen.

01:00:20: Also einige viele.

01:00:21: Und da, das ist dann, ich hatte auch schon einige Stalker, so richtig unangenehm.

01:00:28: Und da, da hab ich dann die Grenze gezogen.

01:00:32: Das heißt, ich will nicht, weil ich hab dann angefangen, die haben mich dann gefragt, zu welchem Zimmer bist du?

01:00:35: Und ich so, wow.

01:00:36: Ja, auch wenn das Hotel Tausend irgendwie Zimmer hat.

01:00:39: Und das ist einfach so ein cooles Hotel war.

01:00:41: Habe ich damit absolut aufgehört, weil ich das doch spooky finde.

01:00:45: Darüber hinaus.

01:00:47: Also mein Arbeitgeber hängt auf meinem Instagram ab, meine Kinder hängen auf meinem Instagram ab.

01:00:51: Also das heißt, die Bandbreite an Dinge, meine Schwiegereltern, also die Dinge, die Bandbreite an Dinge, die ich brusse, die schrumpft einfach.

01:00:59: Das heißt, ich mache einfach nur noch total, mache nur noch politischen Content zur Freude von allen.

01:01:04: Ja, es ist so schwierig, sowohl das alte Privatleben als auch das berufliche Umfeld, als auch das aktuelle Privatleben, mit demselben Humor zu bespielen.

01:01:12: Das ist eine Herausforderung.

01:01:14: Das ist super eine Herausforderung.

01:01:15: und mir hat ein Freund, der heißt Toan Nujen, der war mal bei Jung von Matt und der hat mir irgendwann gesagt,

01:01:22: ey,

01:01:22: du musst einfach darüber hinwegkommen, dass wir alle cringe sind.

01:01:25: Und man

01:01:26: muss einfach über diese cringe morgen.

01:01:31: Man muss einfach das akzeptieren und dann irgendwann muss man sehr muss man.

01:01:34: Ich glaube am besten ist, wenn man man selbst ist und ich versuche irgendwer anders zu sein.

01:01:39: Und dann muss ich das umfeld irgendwann entweder auch anpassen oder kann halt gehen so.

01:01:43: Weißt du, wenn alles cringe ist, ist nichts mehr cringe.

01:01:47: Das ist doch perfekt.

01:01:49: Was ist das, das Tages?

01:01:51: Danke.

01:01:52: Instagram arbeitet offenbar daran, dass du zukünftig nicht mehr siehst dieser Post wurde vor zwei oder vor drei Tagen hochgeladen, sondern dass da ein Datum steht.

01:02:03: Haben die haben die Product Leute sonst nichts zu tun?

01:02:05: Okay.

01:02:07: Lassen wir so stehen.

01:02:08: und außerdem rollt Instagram eine Funktion aus.

01:02:13: Ich kenne das nicht ohne Lachen.

01:02:14: Die Funktion hieß mal Instagram Shots.

01:02:16: Wir haben letzte Woche vor.

01:02:17: letzte Woche hatten wir die Meldung Instagram Shots heißen jetzt Instagram Instance.

01:02:21: Und alle in den Kommentaren haben geschrieben, what?

01:02:24: Was ist das?

01:02:25: Also, es wird unten rechts in deinem DM Postfach eine kleine, so einen kleinen Button geben, der Instagram Instance heißt ehemals Instagram Shots.

01:02:36: Mit dem du schnelle, ungefilterte in the moment shareings machen kannst.

01:02:41: Also du kannst sozusagen eine Mischung aus be real und snapchat also eigentlich eine kleine version von stories wenn man so möchte.

01:02:48: Wenn man vielleicht instagram notes kriegt jetzt eine storiesfunktion.

01:02:52: Das ist ja glaube ich die korrekte beschreibung.

01:02:55: Das ist mir so komplex.

01:02:56: Also ich glaube bei Instagram versucht an der Stelle noch die Time Spend in App noch mehr zu verlängern, logischerweise.

01:03:02: Das heißt noch mehr Zeit, die versuchen noch einen größeren Teil des Aufmerksamkeitskuchens, der Nutzer des Tages sozusagen zu bekommen.

01:03:11: Und die versuchen natürlich, es findet ja momentan so ein bisschen, was heißt momentan, aber... schon seit längerem der Wandel von hochkorotiertem Content, also diesen wunderschönen Cappuccino-Fotos, hin zu so richtig birealem Content, einfach Snapshots aus dem Leben statt.

01:03:26: Und die Neue, die Jen Alpha, die sind schon lange in dieser neuen Realität, einfach diese rohe Darstellung der Wahrheit oder Wirklichkeit, wie auch immer so.

01:03:34: Und ich glaube, da versuchen die sich hinzuentwickeln, weil Instagram natürlich das gleiche Problem irgendwann wie Facebook haben wird, dass die Nutzer zu alt werden.

01:03:42: quasi und dass die Plattform anfängt, abzustärben.

01:03:46: Also, wenn man sich das Social Media, wenn man sich das Nutzungsverhalten gerade in den Hinblick auf Instagram weltweit anguckt, dann sind die Nutzerzahlen abfallend, außer in den USA.

01:03:58: Und ich glaube, deswegen haben die wahrscheinlich gerade irgendwie ein neues Product Team oder so geheilt, die dann verzweifelt versuchen, neue Features zu launchen, damit die Leute eben länger da bleiben oder das Ganze zu verjüngen.

01:04:09: Also ich schätze, wenn man das in so Sinn haben, also hat Beide Ziele, ne?

01:04:13: Das Verjüngen spielt auf jeden Fall eine Rolle, weil das DM-Postfach der Ort ist, an dem sich die jüngste Generation auf Instagram am längsten aufhält.

01:04:21: Gleichzeitig ist es aber auch keine neue Entwicklung, dass Instagram mit Funktionen gerade zugeschmissen wird.

01:04:26: Und man sich fragt, ich will mein Standort nicht in meinen Instagram-Notes teilen, das steht doch schon mein aktuell laufender Spotify-Song.

01:04:34: Also das ist so, es bleibt leider eine Neverending Story, was diese Rubrique erklärt.

01:04:41: Vielen Dank, dass du hier warst.

01:04:43: Ich habe heute ein Problem mit meiner Stimme.

01:04:45: Gute Gott sei Dank mache ich sowas nicht beruflich.

01:04:47: Also vielen Dank, dass du heute hier warst.

01:04:49: Vielen Dank, dass ihr alle bis hierhin zugehört habt.

01:04:51: Ich hoffe, du kommst noch mal wieder.

01:04:52: Ich komme auch gerne noch mal zu dir.

01:04:54: Wir bleiben in diesem Austausch.

01:04:56: Das ist doch sehr schön.

01:04:58: Hast du noch einen letzten Satz oder irgendwas, was wir mitnehmen müssen von dir?

01:05:03: Außer, falls ihr gerne sehr, sehr AI-nördigen Content hört, ist meine Neufolge bei Tech on Tales gerade über die Promotion, die ich mache über AI und EEGs sozusagen.

01:05:16: Also wir messen mit EEGs Gehirne aus und gucken, wie sich die Gehirne unter KI-Verwendung verhalten.

01:05:24: Also, sehr nerdy, aber falls ihr Lust habt, hört gerne rein bei Tech on Tales.

01:05:28: Wenn i auf KI trifft sozusagen.

01:05:30: Also vielen Dank, vielen Dank, dass du hier warst.

01:05:32: Vielen Dank, dass ihr alle bis hierhin zugehört habt.

01:05:34: Wir hören uns wieder am Mittwoch.

01:05:35: Dann kommt Chanju-Jun, unser Haus- und Hofanwalt.

01:05:38: Und wir können mal wieder so ein bisschen juristische Sprechstunde machen.

01:05:41: Wenn ihr irgendwelche Fragen an ihn habt zu den letzten Episoden oder den Dingen, über die wir hier so sprechen, schickt sie mir gerne bis heute Abend am besten.

01:05:50: Und wir hören uns Mittwoch wieder.

01:05:52: Vielen Dank fürs Zuhören.

01:05:53: Vielen Dank, dass du hier warst.

01:05:54: Macht's gut.

01:05:54: Tschüss.

01:05:55: Bis dann.

01:05:56: Bye-bye.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.