Maschinengewehre und Marktplätze (mit Frederik von Castell)

Shownotes

Wie lange kann man around fucken, bis man endlich outfindet? Wir abern uns heute gegenseitig hoch. Denn die Geschichte um xAI und Grok lässt uns nicht los - und solange Grok auch nicht loslässt, haben wir ein sehr großes Problem. Wir leuchten von allen Seiten darauf. Aber auch darauf, dass YouTube jetzt Carousel-Postings anbietet (WIESO?!) und ChatGPT an eure Arztberichte will.

➡️ TechPolicy.Press über KI und Section 230: https://www.techpolicy.press/why-musk-is-culpable-in-groks-undressing-fiasco/

🎤 Haken Dran geht auf Tour! Wir sind mit 4 Liveterminen Anfang 2026 quer druch Deutschland unterwegs - alle Infos und Tickets hier: http://hakendran.org

➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt 00:00:00 - Hallo Frederik! 00:01:46 - Housekeeping: Kein Pinterest-Kauf durch OpenAI 00:02:53 - Kool Savas bei Tesla, Rückrunde 00:09:22 - Groks Grenzgang 00:19:33 - xAI sichert 20-Milliarden-Dollar-Finanzierung inmitten der Kontroverse 00:39:54 - ChatGPT Health 00:49:54 - Vietnams neues Werbegesetz 00:52:45 - Discord plant Börsengang 00:54:17 - Funktionen & Emotionen

ℹ️ Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier: https://wonderl.ink/%40heise-podcasts

Transkript anzeigen

00:00:00: Hallo Frederick.

00:00:01: Hallo Gavin.

00:00:02: Bei mir ist heute Frederick von Castell, Chefredaktor im Medium Magazin.

00:00:06: Ein alter Freund des Hauses und jemand, bei dem ich mich immer freue, wenn wir einen Grund haben miteinander zu sprechen.

00:00:11: Wobei bei dir ist das auch so kleine Geheimnisse aus meinem Telefon da sein.

00:00:16: Wenn du mich anrufst, weiß ich, das kann jetzt länger dauern.

00:00:20: Und es liegt ganz allein an mir, na klar.

00:00:22: Und was irritierend ist oder beeindruckend oder besonders oder ich weiß auch nicht so genau.

00:00:26: Du warst zwischendurch ja öfter mal hier, aber vor ziemlich genau einem Jahr warst du hier.

00:00:33: Und das war glaube ich der achte erste.

00:00:36: Interessanterweise danach warst du am ersten achten letzte mal da.

00:00:40: Jetzt neunte erste, wenn dieser Episode hier erscheint.

00:00:43: Das heißt, wir hören dich dann am ersten neunten, logischerweise wieder.

00:00:47: Auf jeden Fall.

00:00:47: Ich verquatsche mich schon.

00:00:48: Aber du warst am achten ersten hier.

00:00:50: Der achte erste, zweitelsundfünfzwanzig war auch der Tag, nachdem Mark Zuckerberg dieses sagenumwobene Video veröffentlicht hat.

00:00:57: Und wir mussten innerhalb von zwanzig Minuten die komplette Folge umschmeißen.

00:01:00: Und deswegen hatte ich entsprechend große Angst, wenn wir uns wieder hier für den Januar verabreden, dass das wieder passiert.

00:01:07: Aber es gibt keine Hinweise darauf.

00:01:08: Es gibt nicht die krassen Breaking News, die jetzt vor Aufzeichnung hier passiert ist.

00:01:12: Oder?

00:01:12: So,

00:01:13: jetzt sag aber auch mal, was du mir zwischen den Jahren aus deinem Spotify-Rap geschickt hast.

00:01:19: Das muss man zu der Folge auch noch sagen.

00:01:20: Oh, das weiß ich nicht mehr.

00:01:21: Was hab ich dir geschickt?

00:01:22: War

00:01:22: das die meist gehörte Haken dran Folge des letzten Jahres?

00:01:25: Oder täusche ich mich jetzt

00:01:27: sehr?

00:01:28: Da kam so ein Screenshot von dir.

00:01:30: Ja, und zwar, ich weiß nicht mehr, ob es die meist gehörte oder die mit den meisten Interaktionen war, oder auf jeden Fall eine sehr, sehr häufig angeklickte Folge.

00:01:39: Ja.

00:01:39: Tatsächlich.

00:01:40: Und auf jeden Fall, die war top, das lag nur an uns.

00:01:42: Ja, haben wir gut gemacht und nicht am Lachsackerberg.

00:01:44: Nein, Marc war da und nicht beteiligt.

00:01:46: Nein, nein.

00:01:47: Ich habe zwei kleine Housekeeping-Dinger.

00:01:50: Und das eine ist ein Fehler, den ich gemacht habe.

00:01:52: was eigentlich nie passiert, aber ich bin transparent, ich gebe alles auf und zu.

00:01:58: Ich habe in den letzten Episode diese Pinterest-Herleitung erzählt und habe gesagt, die Leute bei Pinterest sind unzufrieden mit Pinterest, weil über KI-Content ist und es gäbe Hinweise darauf, OpenAI könnte Pinterest kaufen.

00:02:08: Das war ein Übersetzungsfehler meinerseits, weil der Satz, den ich übersetzt habe, war, according to the information, OpenAI may be considering making a move on Pinterest.

00:02:17: Und da dachte ich, das klingt ja so, als würde sich beziehend auf the information of my eye erwegen, Pinterest kaufen.

00:02:25: Maybe ist hier aber ein, wie sagt man, ein Konjunktiv, der sich nicht auf etwas bezieht, dass jemand anders gesagt hat, sondern auf etwas, das sich jemand vorgestellt hat.

00:02:35: Denn man zitiert hier die Predictions von die Information, also die Jahresprognosen.

00:02:40: Und das war ein kleiner Übersetzungsfehler meinerseits.

00:02:42: Also es gibt bislang keine Überlegung bei Open AI Pinterest zu kaufen.

00:02:46: Aber wir können uns das sehr gut vorstellen.

00:02:48: Oder du wusstest es zuerst, bevor es die wussten.

00:02:51: Das Orakel von Selfie.

00:02:53: Da ist es wieder.

00:02:53: Das Orakel von Selfie.

00:02:55: So, dann habe ich ein anderes Housekeeping zu einer Geschichte, die Ende letzten Jahres passiert ist.

00:02:58: Wenn ich dir Kuhlsawasche sage, was ist das Erste, was du denkst?

00:03:04: Wir können das alles piepen, was dir als erstes in den Sinn

00:03:06: kommt.

00:03:06: Okay, gut, gut, gut.

00:03:10: Ich weiß nicht, warum das Wort Lappen in meinem Kopf gerade ist.

00:03:13: Ich

00:03:13: weiß es nicht, aber es ist irgendwie vorhanden.

00:03:15: Ich glaube, da gab es mal was mit Lappen und einer Auseinandersetzung.

00:03:19: Es war schon lange keine Meinung mehr.

00:03:21: Okay, er hat sich auf jeden Fall wie ein Lappenverhalten, weil er ist bei im Tesla-Werk Grünheide aufgetreten und hat, wie es das Handelsblatt damals berichtet hat, Elon Ruffer von der Bühne runtergegeben.

00:03:33: und hat sozusagen die Leute angefeuert und gesagt, wie geil Tesla ist und wie geil alles ist.

00:03:37: Der hat sich zwischen den Jahren in einer Instagram-Story geäußert, um diesen Handelsblattbericht so ein bisschen nach seiner Warte ein bisschen gerade zu ziehen, den er schreibt.

00:03:45: Ich bin nach Grünheit gefahren, um die Tesla-Arbeiter zu überraschen und für sie zu spielen, nicht um mich instrumentalisieren zu lassen.

00:03:52: Über alles, was nach meiner Bühnenperformance passiert ist, war ich nicht im Bilde, da ich ausschließlich für einen Auftritt im Rahmen einer Weihnachtsfeier für die Tesla-Mitarbeiter in die Produktion eingeladen war, die nach dem Schichtwechsel eine besondere Überraschung bekommen sollten.

00:04:04: Die vom Handelsblatt angeführten Vorwürfe, ich hatte die Ideologie des Unternehmens propagiert oder auch nur unterstützt, sind absurd.

00:04:10: In der Berichterstattung wurden mir Handlungen und Aussagen zugeschrieben, die ich so weder vertreten noch geäußert habe.

00:04:14: Insbesondere die Behauptung, ich hatte gewerkschaftsfeindliche Positionen vertreten ist falsch.

00:04:18: Ich stehe auf der Seite der Arbeiter, ich stehe auf der Seite der Gewerkschaften.

00:04:21: Alles andere widerspricht meiner Geschichte, der Geschichte meiner Familie und Almut für ich seit Jahren öffentlich eintrete.

00:04:27: Ich glaube, ein Pressefreiheit und Meinungsfreiheit und mache in meiner Musik davon Gebrauch.

00:04:30: Einordnung ist wichtig.

00:04:31: Sie darf aber nicht verfälschen.

00:04:33: Wie ist dein Gefühl?

00:04:36: Ist das ein PR-Text?

00:04:37: Ich wollte gerade

00:04:38: schon sagen, es hat sich weder gereimt, noch waren irgendwelche Punchlines drin.

00:04:41: Das klingt nicht ganz nach coolster Wasch.

00:04:45: Ja, natürlich ist das ein PR-Gewäsch.

00:04:47: Aber mal davon abgesehen, ich kenne jetzt den ursprünglichen Handelsblattbericht nicht.

00:04:51: Deswegen kann ich da jetzt keine konkrete Einordnung zu geben, außer dass sich so diese Kontaktschuld da Ohne den Handelsblatt berichtet zu kennen, dass ich diese Kontaktschuld erstmal gar nicht sehe.

00:05:05: In dem Tesla-Werk sollten Künstler auftreten können, wenn sie dafür Geld kriegen oder auch nicht.

00:05:08: Und das wollen die Menschen, die bei Tesla arbeiten, sind ja nicht alle automatisch kleine Elons.

00:05:15: Das mit dem Elon-Elon auf der Bühne rufen, finde ich dann schon interessanter.

00:05:20: Dazu hätte ich dann Emotionen.

00:05:21: Aber ja, also mein Gott, Kirche Dorf.

00:05:24: Ja, Savasch schreibt weiter rückblickend hätte ich mir denken können, dass ein Auftritt in diesem Umfeld politisch aufgeleitet und interpretiert werden kann.

00:05:30: Ja, wenn das denn hätte können, das ist ja mal das Problem.

00:05:32: Menschen, die sagen rückblickend hätte ich mir denken können, haben ja meistens genau dieses Problem, aber

00:05:37: egal.

00:05:39: Wir waren alles sehr enttäuscht, als wir darüber gesprochen haben, weil Savasch ja durchaus jemand ist, der ist jetzt einer von den Rappern, den man eigentlich ein bisschen mehr grips immer so, das klingt total werten, vergesst diesen Satz, aber das ist schon... Das ist doch

00:05:52: so ein bisschen boomerig.

00:05:54: Ich höre Blumentopf wegen der Texte.

00:05:56: Ich habe das aber immer geschätzt ein bisschen wegen dem, was er getan hat.

00:06:00: Er hat viele komische Sachen auch gemacht und hat ihn auch seit Jahren aus den Augen verloren.

00:06:04: Aber ich habe eine leichte Enttäuschung verspürt, dass er bei Tesla aufgetreten ist, weil du hast natürlich recht, Künstler können auftreten, wo sie wollen, wenn sie dafür Geld kriegen.

00:06:12: Aber bei Tesla aufzutreten, das hat schon immer auch noch einen Geschmäckler,

00:06:17: finde ich.

00:06:17: Ja, aber beim Saudi-Arabischen Prinzen aufzutreten, hat er einen

00:06:21: Geschmäckler.

00:06:23: Ja, das geht erst recht nicht.

00:06:25: Also würde

00:06:26: ich nicht machen auf jeden Fall.

00:06:28: Aber

00:06:28: dich fragt auch keiner.

00:06:30: Wenn du wüsst, es wäre mich alles fragen fragt.

00:06:32: Alles klar.

00:06:34: Da kann ich oft leider nicht darüber sprechen und auch nicht zusagen.

00:06:38: Ja, aber wir müssen doch mal irgendwie... Also irgendwo muss man doch mal so noch... So ein ganz kleines bisschen irgendwie Puffer haben in der Emotion.

00:06:45: Also ob jetzt ein Rapper, der jetzt auch nicht gerade irgendwie, das ist ja jetzt nicht gerade Haftbefehl über den jeder Rede oder sonst jemand mehr.

00:06:53: Und ob der jetzt bei Tesla auf der Bühne steht oder ob denn irgendeiner Dorfdisse, die am Ende irgendeinem AfD-Macher gehört oder sonst wo gebucht wird.

00:07:00: Also nicht, dass das jetzt bei coolster Wasch zutrifft, nicht falsch verstehen, sondern... Was die alles an irgendwelchen blöden Terminen irgendwie wahrnehmen, um Geld zu verdienen.

00:07:10: Gerade die, die irgendwie in den Neunzigern die Kohle gemacht haben und heute nicht mehr haben.

00:07:14: So what?

00:07:15: Aber wenn du Musiker wärst, würdest du auf der Tesla Weihnachtssache auftreten für zwanzigtausend Euro?

00:07:20: Nee, kannst du mir auch andersrum fragen, es gibt ja auch Medienunternehmen, für die ich nicht arbeiten würde, weil ich Journalist bin.

00:07:27: Also da kann ich mich leichter reinversetzen.

00:07:30: Wenn ich jetzt irgendwie... Künstler wäre und ich kann mir auch nicht vorstellen, wie man als Künstler sich über Wasser hält oder nicht, aber grundsätzlich Tesla wäre jetzt irgendwie schon allein.

00:07:41: das Bühnenerlebnis würde ich schon gar nicht wollen.

00:07:42: Also da bist du ja schon irgendwie auf einer Ebene offensichtlich angekommen, wo du sowas machen musst.

00:07:47: Das ist ja bestimmt nicht der große Traum von dem Künstler bei Tesla abends nach Feierabend.

00:07:52: ... in irgendeiner Kantine auf einer Bühne rumzuhobsen.

00:07:55: Ja, aber ich glaube, dass gerade diese Corporate-Shows ... ... das machen sehr, sehr viele ... ... auch sehr große Künstler für sehr viel Geld ... ... und Tesla ist jetzt ja auch nicht ... ... ist ja auch nicht Dachdeckermeister Schmidt, ... ... sondern ohne Dachdeckermeister Schmidt, ... ... sondern halt zu treten, aber ... ... das ist halt schon auch ein sehr großes Unternehmen und so.

00:08:11: Ja, und wenn ein großes Unternehmen viel Geld ... ... ausgeben will, dann buchen sie dann coolster Wasch.

00:08:16: Also jetzt mal so, wenn jetzt da der typische, thirty-jährige Mitarbeiter von Tesla, der irgendwie auf Rapmusik steht, wenn der jetzt dann coolster Waschhofterbühne sieht, ist glaube ich gar nicht mal so unbedingt Zielgruppenmatching, aber gut, egal.

00:08:30: Aber Trump kriegt auch noch Vanilla Ice und die Village People, weißt du?

00:08:33: Also vielleicht haben sie es auch bei den fantastischen vier probiert und sind gescheitert.

00:08:38: Ja,

00:08:40: frag nach.

00:08:40: Fragen wir jetzt nicht, weil wir haben andere Sachen, über die wir sprechen müssen.

00:08:43: Wir bleiben aber bei Elon Musk.

00:08:44: Wir müssen noch mal über X sprechen.

00:08:46: Das ärgert dich jetzt, dass ich mich darüber nicht so aufrege, ne?

00:08:48: Nein,

00:08:48: gar nicht.

00:08:49: Ich mag das doch.

00:08:50: Nein, nein, nein, das ist nicht wahr.

00:08:52: Ich finde das sogar schön, dass du es nicht tust, weil ich... Also, ich hab hier sehr häufig Menschen, die dieselben Emotionen haben wie ich, und dann schaukeln wir uns so hoch, aber es entsteht ja gar keine Reimung.

00:09:01: Aber so ist das ja bei uns eigentlich auch oft.

00:09:03: Deswegen telefonieren wir so lange, weil wir uns so schön hochschaukeln

00:09:05: eigentlich.

00:09:05: Ja, genau.

00:09:06: Und ich find das aber auch schön, wenn da mal jemand kommt und sagt, ja, komm, chill, alle würden bei Tesla auftreten.

00:09:11: Und dann kann ich immer noch sagen, das find ich Quatsch.

00:09:13: Komm, das ziehen wir jetzt auch so durch.

00:09:14: Ich sag jetzt bei einem Blö.

00:09:16: Also du bist immer auf der Seite der Besprochenen heute, wie im Debatierclub.

00:09:21: Das könnte schnell scheitern.

00:09:22: Ja, wir fangen mit Elon Musk an.

00:09:25: Damit.

00:09:27: Ich möchte, wir müssen noch mal über diese Rockgeschichte sprechen.

00:09:29: Es ist ja ehrlicherweise auch das Social-Media-Thema im Moment, dass so die Schlagzeilen auch außerhalb unserer kleinen Tech-Welt irgendwie dominiert.

00:09:37: Für die, die es nicht mitbekommen haben, X ist eigentlich nicht mehr nutzbar, weil dort eigentlich nur noch... eigentlich nur noch... Grog gebeten wird, irgendwelche bestehenden Bilder umzuwandeln.

00:09:47: Das geht soweit und ich will da kurz eine Content Notification aussprechen und eine kleine Triggerwarnung, weil wir jetzt gleich auch Dinge ansprechen, die noch unappetitlicher sind als dieser Fakt an sich schon, wenn ihr nicht gut... damit umgehen können, was gerade alles mit Elon Musk und GROC und so weiter passiert.

00:10:03: Und das ist, glaube ich, eine angemessene Triggerwarnung.

00:10:05: Dann spult gerne ins nächste Kapitel.

00:10:07: Ihr findet in den ShowNords die Kapitelmarken.

00:10:08: Aber also, es geht so weit.

00:10:10: Wir haben darüber gesprochen, dass Bilder von Minderjährigen genutzt wurden, um dessen Kleidung durch Bikinis auszutauschen mit Hilfe von GROC.

00:10:18: Ohne Ende Regierungen und Behörden haben angekündigt, das untersuchen zu wollen.

00:10:22: In Indien zum Beispiel ist am gestrigen Donnerstag eine Frist ausgelaufen, die sie ex gestellt und dann nochmal doppelt so lang verlängert haben.

00:10:30: Also von zwei mal zwanzig Stunden damit ex dieses Problem löst.

00:10:35: Oder ex AI hat sich jetzt geäußert auch und hat gesagt sie entfernt illegale Inhalte, einschließlich Material mit Darstellung von Sex einem Kindesmissbrauch, konnten die an Verstößen beteiligt sind, werden dauerhaft geschwert und Planungen zusätzlicher Schutzmaßnahmen werden jetzt vorgenommen darunter die Verschärfung der Bildgeber.

00:10:51: Nervierungsfilter.

00:10:53: Interessanterweise können wir in Europa nichts davon bislang beobachten, sondern es bezieht sich wirklich auch nur auf Indien.

00:10:59: Auch in Japan haben sie aber angekündigt, dass sie hier jetzt alle Konten von Nutzer in die illegale Inhalte erstellt haben, gelöscht, dauerhaft geschwert werden und auch an die Polizei weitergeleitet werden.

00:11:11: Da muss man dazu sagen, das sind alles Informationen, die von X selber, XAI selber kommen oder die eben öffentlich gemacht werden, die aber nur Handlungsabsichten beschreiben und nicht wirklich entstehende Dinge.

00:11:24: Hier ist keine Zahl, wie viele Konten gesperrt wurden, hier steht nirgendwo, wie viel Reichweite eingeschränkt wurde, weil das eigentlich die Logik von X immer war, zu sagen Freedom of Speech is not Freedom of Reach und wir können Dinge drosseln und so.

00:11:37: Ich bin mir da nicht ganz sicher, wie sehr vielbare Münze diese Ankündigungen tatsächlich zu nehmen sind oder ob das hier alles und das ist ein bisschen Mindtake auf diese ganze GROC Geschichte, die gerade unser Thema ist.

00:11:49: Ob das hier nicht so ein bisschen auch der Versuch ist, wie lange man eigentlich handeln kann, wie lange man around facken kann, um out zu feinden.

00:12:00: Ja, absolut.

00:12:02: Es fühlt sich alles immer an wie ein Grenzen ausloten.

00:12:06: Da ist jetzt Krok ja nicht mal die einzige KI, bei der man das Gefühl hat, dass das im Moment so passiert.

00:12:12: Aber natürlich ist es absurd.

00:12:14: Wie oft haben wir auch beide oder auch du in deiner Kolumne bei uns in den letzten Monaten über die Grenzen, die Krok sprengt, gesprochen?

00:12:25: Das ist absurd.

00:12:27: Zumal sie jetzt hier die einen oder anderen, die jetzt vielleicht das in die Hütte bekommen haben, werden jetzt denken so, ja Bikini-Bilder.

00:12:32: Also erstens, das sind Bikini-Bilder von Menschen, die sich nicht in Bikini gezeigt haben und das auch nicht wollen.

00:12:38: Also von Frauen reden wir jetzt nicht um heißem Reirom, es sind vor allem Männer, die das tun.

00:12:43: Komm wir gleich

00:12:43: drauf.

00:12:43: Und es bleibt ja nicht bei den Bikini-Bildern.

00:12:46: Also es gibt ja auch diverse korporierte Fälle, wo es dann eben um Animationen oder Stillstanding, also Bilder geht.

00:12:56: ... bei denen auch sexuelle Handlungen an Personen vorgenommen werden, ... ... fiktionalisiert natürlich oder

00:13:02: ... Aber einschließlich minderjähriger Person.

00:13:04: Genau, einschließlich auch noch ... ... minderjähriger, aber selbst ... ... also das ist wichtig, das ist ... ... nochmal on top.

00:13:10: Aber das ist ... ... jetzt erstmal auch nicht von Belang, ... ... wenn das nicht der Fall wäre.

00:13:14: Also wenn eine Frau, ... ... die sich mit ihrem Profilbild irgendwo in der Öffentlichkeit zeigt, ... ... in einem Netz ... Oder generell, je man sich das Bild auch einfach beschafft, da hat ja auch niemanden recht dran, das Bild zu nutzen.

00:13:26: Sich in einem Netzwerk damit konfrontiert, sieht das andere das hernehmen und auf simpelste Art und Weise es erreichen können, sie in eine sexualisierte Handlung abzubilden und zu verbreiten, eine pornografische.

00:13:40: Wenn man das überhaupt noch pornografisch nennen kann, ich glaube, damit beschmutzt man sogar die Idee von pornografischem.

00:13:45: Das finde ich ja noch absurd.

00:13:49: Das ist wirklich... hinreichend unerklärlich.

00:13:52: wieso dann z.B.

00:13:53: so eine KI nicht sofort erst mal abgeschaltet

00:13:55: wird.

00:13:56: Warum haben wir darauf

00:13:57: zu vermeiden?

00:13:59: Da werden reinweise Straftaten vorgenommen, Deepfakes werden erstellt, Dinge die übrigens in den USA durch den Take it Down Act übrigens auch als illegal gelten und sofort offline zu nehmen werden.

00:14:09: Also es gibt eine sehr klare Regelung gegen Deepfakes.

00:14:12: Und wir erleben gar nichts.

00:14:15: Wir erleben einfach nur, wie sich das alle anschauen, wie eben diese Plattform gerade immer mehr verrot und die Leute, die das eben auch machen, wie die auch immer mehr Grenzen ausloten.

00:14:24: Da kommen wir gleich auch nochmal ein bisschen drauf, weil nicht nur XAI lotet die Grenzen international aus, sondern eben auch die Leute, die es benutzen, die, wie du sagst, natürlich zu einem riesengroßen Anteil Männer sind, die dort gewaltsam sexualisierte Inhalte von Frauen erstellen.

00:14:39: Das ist auch sexualisierte Gewalt.

00:14:41: die da ausgeübt wird.

00:14:43: Das kann man nicht schön reden und nicht anders bezeichnen.

00:14:46: und das alles unter den, oder vor den Augen von Elon Musk, der ist alles auch noch billig am Ende.

00:14:51: Auch wenn er natürlich sagt, ja nur weil ihr hier illegale Inhalte erstellt, ist ja nicht die Plattform schuld.

00:14:58: Aber naja, wenn ich jetzt Maschinengewehre auf Marktplatz verteile, dann ist natürlich der Menschenproblem, der es benutzt, aber ich bin nicht unschuldig.

00:15:06: Genau.

00:15:06: Und also sein Tesla darf er auch nicht mit irgendwie, mit einem Kuhfänger vorne ausstatten, der kleinen Kinder von der Straße räumt oder sowas.

00:15:12: Auch wenn er das mit dem Cybertruck probiert hat.

00:15:17: Okay, der war schön verwandelt.

00:15:20: Aber ich habe ein paar Zahlen, um das Ganze mal so ein bisschen anzureichern.

00:15:23: Also AI Forensics hat sich alle von grock generierten Bilder im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum, im Zeitraum.

00:15:35: Aber selbst da waren schon dreinfünfzig Prozent aller von rockgenerierten KI-Bilder, Menschen in Bikini oder in Unterwäsche.

00:15:41: Achtzig Prozent von denen waren Frauen und achtzig Prozent der Tatpersonen waren Männer.

00:15:45: Also das ist schon sehr, sehr eindeutig, dass das hier eine Art von einem sehr klaren Nutzungsprofil ist, Männer, die Frauen beleidigen wollen.

00:15:57: die sie moralisch als minderwertig darstellen, dadurch, dass sie ihre Werte verletzen, ihre Ehre verletzen, indem sie sie eben von Grog in irgendwelchen Posen oder Outfit zeigen, in denen sie sich eben nicht darstellen wollten.

00:16:13: Ja, erwartest du da jetzt noch irgendein Wort mehr?

00:16:18: Du hast gesagt, du bist auf der Seite, der besprochen hat.

00:16:20: Absolut, ja, toll, danke, nee, da ziehe ich dann zurück.

00:16:23: Nein, aber ich, also nochmal zu dem... zu dem Punkt zurück.

00:16:27: Ich verstehe nicht über das Problem der Regulierung reden wir ja im Grunde jedes Mal, wenn wir sprechen.

00:16:36: Aber ich verstehe wirklich nicht, wie wenig und das mag dich jetzt überraschen, dass jemand überhaupt noch an sowas glaubt bei Elon Musk oder bei dem Unternehmen.

00:16:45: Aber wie wenig Verantwortungsgefühl und wie wenig Respekt vor dem Menschen musst du eigentlich haben, um in dem Moment weitermachen zu wollen, ist durchziehen zu wollen, es verschleppen zu wollen, statt zu sagen, da haben wir ein Problem.

00:17:00: Und das habe ich ehrlich gesagt, bei der Holocaust-Leugnung war der Punkt für mich erreicht.

00:17:05: Da hätte man sagen müssen, Sekunde, das ist eine Technologie, die wir da draußen haben, die schadet ganz schön der Menschheit und die ist missbräuchlich und die ist auch misinformativ oder desinformativ.

00:17:20: Also, ich weiß, dass, dass, dass Elon Musk offensichtlich sein Börsenkurs irgendwie wichtiger ist als als das voranschreitende Menschheit oder oder andere Menschen generell, dass das Gefühl habe ich natürlich auch.

00:17:33: Ich bin ja auch nicht völlig verromantisiert und naiv.

00:17:37: Aber in so einem Moment muss ich da sagen, selbst wenn ich nur auf mich und auf mein Unternehmen gucke, dann mache ich doch jetzt den Schritt zu sagen, ich wende Schaden ab und mache das Ding erst mal platt, bevor das weitergeht, weil die Klagewelle, die da jetzt kommt.

00:17:49: Also ich hoffe, dass die kommen kann.

00:17:51: Ja.

00:17:52: Die potenziert sich ja mit jedem einzelnen weiteren Fall und mit vor allem dem wissendlichen Fall jetzt.

00:17:58: Und theoretisch könnte man da jetzt, also wenn wir jetzt so, also wir kennen die Motive nicht.

00:18:07: Wir können ahnen, wie das Menschenbild von Elon Musk aussieht, auf Grundlage der letzten dreieinhalb Jahre Haken dran.

00:18:12: Und wir können ahnen, dass ihm Dinge egal sind, dass er hier Grenzen auslotet.

00:18:16: Wir könnten ihm aber auch, wenn wir das wollten, ihm etwas unterstellen, weil wir wissen ja, wie sehr Elon Musk sich an der EU stört.

00:18:25: Und wenn er es jetzt schafft, dass die EU jetzt Maßnahmen gegen X verhängt und damit die US-Regierung wütend macht, dann wäre das hier natürlich eine absolute Honeypot genau für diese Geschichte gewesen, auch das.

00:18:35: könnte man hier unterstellen, weil das alles passiert kurz nachdem eben Ex von der EU zu einer Strafzahlung verurteilt wurde.

00:18:42: Wir haben darüber berichtet.

00:18:44: Das Absurde ist ja, dass weltpolitisches Handeln mittlerweile auf so wenige Akteure manchmal so einfach reduzierbar ist, wie du es gerade getan hast.

00:18:51: Und das ist natürlich durch diese Bruderschaft, die zwischenzeitlich gestört wurde, zwischen Trump und Musk ist das natürlich und jetzt ja offensichtlich wiedergekittet ist.

00:19:00: Ist das ein absolut realistisches Szenario, dass man sich, wenn man jetzt auch mal Die andere Seite sich anschaut.

00:19:06: Also nennen wir einen Namen, bei dem du dir ein ähnliches handeln bei Barack Obama oder irgendeinem US-Präsidenten vorher hättest du vorstellen können.

00:19:17: Also dass so eine Einflussnahme da ist.

00:19:20: Also als ob irgendwie Bill Gates und Bill Clinton gut jetzt Appsteamfalls mal ausgefohren.

00:19:25: Also als ob die in den neunzigern irgendwie... so ein Einflussverhältnis zueinander gehabt hätten oder einen Steve Jobs in den Nullerjahren.

00:19:31: Also das ist völlig absurd.

00:19:33: Genau, das ist es.

00:19:35: Weil hier jemand seine Macht anerkennt, immer weiter ausdehnt und sie missbraucht.

00:19:40: Und das auf allen Ebenen.

00:19:42: und das ist deswegen interessant, weil du gerade von Aktienkursen gesprochen hast.

00:19:46: Und jetzt könnte man ja sagen, also vielleicht ist es auch einfach nur eine Maßnahme, um GROC und XAI irgendwie ins Gerede zu bringen.

00:19:54: Auch das könnte man unterstellen, weil man braucht diesen Studio Gibl Effekt den OpenAI damals hatte, den braucht man natürlich um GROC irgendwie interessant zu machen, vor allem angesichts der Tatsache, dass man auf der Suche nach Geld war und Geld braucht, denn XAI hat ausgerechnet jetzt genau in diesen Zeiten angekündigt, dass sie weitere zwanzig Milliarden Dollar neue Gelder eingesammelt haben.

00:20:15: Sie hatten eigentlich das Ziel von fünfzehn Milliarden Dollar, das haben sie selber natürlich übertroffen, weil sie sind fucking XAI, sie kriegen alles in.

00:20:22: Dabei ist das nicht nur Investorengeld, aber auch dazu gehören zum Beispiel Fidelity Management, the Stepstone Group, Qatar Investment Authority, aber auch NVIDIA und Cisco Investments.

00:20:33: Aber das auch, zwölf Prozent fünf Milliarden Dollar als Schulden aufgenommen wurden.

00:20:37: Also es sind auch noch Kredite mit drin.

00:20:41: Das muss Pipp Glockner einordnen, wenn er nächstes Mal hier ist.

00:20:45: Das klingt doch erst mal so, als bräuchte man gerade relativ schnell Geld und was würde den Wert des Unternehmens weiter nach oben bringen, als dass man es schafft, dass viele Leute es benutzen.

00:20:54: Und das Interessante ist, dass allein seit dem zweiten Januar berichtet Eptopia, die Downloads von der Grog App um fifty-fünfzig Prozent gestiegen sind wegen dieser ganzen Geschichte.

00:21:04: Auch da können wir davon ausgehen, dass die Leute, die die App heruntergeladen haben, jetzt nicht.

00:21:09: völlig normale auf dem Boden des Grundgesetzes stehende Europäer innen sind, sondern alles Leute, die eben mitbekommen haben, was da eben gerade abgeht und was man da alles machen kann.

00:21:17: Auch die täglichen Donalds von Ex sind übrigens in den letzten drei Tagen um zu fünf Prozent gestiegen.

00:21:23: Ja, super.

00:21:25: Ja, also, nee.

00:21:31: Ich verstehe zu wenig, ich verstehe zu wenig von solchen Das ist ja nicht mal Wirtschaftlich Planbarkeit oder das ist ja keine klassische Betriebswirtschaft, was man da betreibt, sondern das ist ja auch eine hohe Spekulation, die man da auch für sich selbst und für sein Unternehmen anlegt.

00:21:50: Und ich steig da schon aus, weil ich natürlich immer irgendwie von so klassischen Käufern ausgehe, die sagen, ich... investieren Unternehmen die irgendwie was auch versinnbildlichen die was erreicht das ist ja quatsch.

00:22:04: sobald du jetzt aufzählst wer da alles investiert ist es ja vorbei.

00:22:08: spätestens wenn dann auch in die wieder und so drin stecken dann ist ja auch schon wieder die frage so investieren die da nicht letztendlich darin dass dann am ende x die krone wieder dorthin packt weil die wiederum dann die kapazitäten dort brauchen weil wo da gehen sie alle hin?

00:22:20: also.

00:22:21: Naja, und jedes Nvidia, also wenn die sich alle gegenseitig einfach nur nur finanzieren, dann platzt die Blase ja auch nicht.

00:22:26: Das ist halt der Punkt, wo ich immer, also diese zwanzig Milliarden, das ist für mich so eine absurde Vorstellung.

00:22:33: Ist das wenig oder ist das viel für so eine Technologie?

00:22:36: Es ist vor allem aber einfach viel Geld, das da gerade im Kreis irgendwie wandert.

00:22:41: Meines sehr, sehr, sehr, sehr simtlen, naiven Verständnis von solchen wirtschaftlichen Prozessen.

00:22:46: Und du... Also sollen sie machen ist mir ist mir egal.

00:22:51: was mir wichtig ist ist das irgendwie wie uns ein gesellschaftliche Normen halten können und dass jeder frei irgendwie sich im internet so bewegen kann dass er und auch sonst dass er sich so ein scheiß nicht von sich oder von anderen anschauen muss was ich ab natürlich irgendwie total ehrlich gesagt erwartbar und trotzdem halt immer noch schockieren finde es einfach dass dann die darin laut zahlen so hoch gehen.

00:23:12: in solchen momenten aber ja.

00:23:14: Also das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das ist, das

00:23:42: ist, Aber kenne ich mich nicht gut genug aus, ich dachte nur, Investments sind oft tatsächlich höher als Käufe, weil Käufe oft damit einhergehen, dass man investieren muss, weil etwas nicht mehr funktioniert, wird ja häufiger gekauft als... Als andersrum, weil es funktioniert, dann sind die Preise zu hoch.

00:23:57: Aber wie gesagt, keine Ahnung von.

00:23:59: Nicht schlimm, müssen wir nicht tiefer reingehen.

00:24:01: Ich will eigentlich noch mal auf die inhaltliche Ebene von Grog gehen, weil wir haben noch ein paar weitere Zahlen.

00:24:05: Also, Blumberg bezieht sich auf die Forscherin Genevieve O. Die ist Forscherin für soziale Medien und Deepfakes.

00:24:12: Und die hat herausgefunden, die hat sich vierundzwanzig Stunden lang Grog angeschaut und hat gesagt, ah, sechstausend siebenhundert Bilder, die als sexuell anzüglich oder entkleidend identifiziert wurden, wurden generiert, pro Stunde.

00:24:24: Also das ist schon ziemlich, ziemlich viel, was da hergestellt wird.

00:24:28: Wir beziehen uns hier auf den fünften bis sechsten Januar.

00:24:30: Man muss davon ausgehen, dass das wahrscheinlich aber inzwischen auch gestiegen ist.

00:24:37: Und also, hilft mir ein bisschen, weißt du, weil du auch vorhin schon mal den Aspekt der Beleidigung ja verraten gestellt hast, den ich bisher so aus der Berichterstattung gar nicht so sehr als primär wahrgenommen habe, aber also geht es tatsächlich dann auch darum, prominente Politikerinnen oder Ähnliches, also ist das jetzt irgendwie, ist das alles Nancy Pelosi, die da irgendwie oder, also wie muss ich mir das vorstellen, weil wenn... Also offensichtlich, in der beleidigenden Absicht kann ich das ja primär mit Personen tun, die öffentlich bekannt sind.

00:25:10: Genau,

00:25:10: das passiert auch.

00:25:12: Du bezeichnest irgendwie, beleidigst Elon Musk zum Beispiel, Donald Trump.

00:25:16: Da passiert das schon relativ viel.

00:25:18: Christiane Ronaldo wird extrem viel gerade diffamiert dadurch und so was.

00:25:23: Jetzt hast du drei Bänder genannt.

00:25:26: Stimmt.

00:25:27: weil wir gerade noch gesagt haben,

00:25:29: dass es um

00:25:39: den Beleidigungs-Aspekt geht.

00:25:40: Das ist jetzt meine Mutmaske.

00:25:47: Bedürfnis der sexuelle oder was auch immer dahinter steckt zu befriedigen auch wenn auch ich da jetzt Schwierigkeiten habe das richtige wort für zu finden.

00:25:54: aber also da geht das dann weniger um die bloßstellung der personen auch wenn das natürlich damit einher geht sondern da geht es dann tatsächlich.

00:26:00: darum will ich nackt sehen.

00:26:03: Ja, also ich bin kein Jurist und kein Botaniker, wie wir wissen, aber nach Paragraph hundred und achtzig bis hundred sieben und achtzig Strafgesetzbuch können solche Deep Fakes auch als Beleidigung, Verleumdung oder übler Nachrede angezeigt werden, weil diese Inhalte Menschen in ihrer Würde verletzt und beleidigt und damit eben eine Beleidigung darstellt, wenn der Kontext eben zum Beispiel ein Wert verächtlicher ist.

00:26:28: Okay, also es ging also um den juristischen Begriff auch der Beleidigung ist

00:26:32: okay, gut.

00:26:33: Ja, genau.

00:26:33: Aber auch um de facto Beleidigung, das passiert ja.

00:26:38: Genau, so viel dazu übrigens, damit postet Grock pro Stunde, eighty-four Mal mehr Deepfakes als die fünf größten Deepfake Websites zusammen.

00:26:50: Ja.

00:26:51: Toller Rekord.

00:26:52: Wirklich.

00:26:53: Und um da noch ein bisschen was draufzusetzen, es gibt eine relativ umfangreiche Recherche von vor vom Media.

00:26:58: Die haben, also das ist ganz interessant, weil der Autor schreibt hier, seit zwei Monaten verfolge ich eine Telegram Community, die GROC mit immer ausgeklügelteren Methoden dazu bringt, nicht einfach nehmliche sexuelle Bilder und Videos von realen Personen zu generieren, sagt aber selber, dass Grog offenbar auch dem versucht irgendwie auf die Schlüche zu kommen, weil jedes Mal, wenn der Autor diesen Text schreiben wollte, diese Maßnahme, die die Leute dann herausgefunden haben, wieder nicht mehr funktioniert hat.

00:27:25: Also er sagt hier... dass sie immer wieder die Methoden, die dort herausgefunden wurden, dann von ein paar Leuten immer wieder verwendet wurden, bis sie dann tatsächlich gesperrt wurden.

00:27:37: Und der Autor schreibt, es ist jetzt klar, dass das Problem mit Grog nicht eine bestimmte Methode ist, sondern dass Grog insgesamt einfach nur das Spiel von Wackermole deutlich verliert.

00:27:45: Und weiter gedacht könnte natürlich die Entwicklung, die wir gerade mit Grog und Ex erleben, einfach nur bedeuten, dass sie diesen Kampf vielleicht auch ein Stück weit aufgegeben

00:27:53: haben.

00:27:54: Es erinnert mich jetzt, ich muss, dafür muss ich leider zwei Sätze ausholen, aber es erinnert mich jetzt sehr an was, was mich jetzt erst kürzlich ausführlicher Beschäftigten.

00:28:02: zwar, wir haben kürzlich beim Medium Magazin die Journalistinnen und Journalisten des Jahres gewählt und da sind das in diesem Jahr in der Hauptkategorie sind es Isabel Bär und Isabel Ströhr geworden, die für den NDR drei Steuerung F, jetzt drei Steuerung F-Dokus gemacht haben, zu vergewaltigen Netzwerken bei Telegram beziehungsweise auch auf einer öffentlich zugänglichen pornografischen Seite.

00:28:26: Und da gibt es Täter, die ihre Partnerinnen unter anderem sedieren, vergewaltigen das Filmen und in diesen Gruppen, in diesen Netzwerken teilen und das dann auch teilweise in Interaktion miteinander auch vorantreiben.

00:28:44: Also sich beraten, wie man dort unter lebensgefährlichen Bedingungen für die Betroffenen die Sedierung zusammensetzt, pancht, um es mal sozusagen, was man denn dann alles mit den Personen tun sollte und so weiter.

00:29:00: Dann haben wir mit den beiden ein Interview geführt mit Isabel und Isabel und haben sie gefragt, wie ist denn das als eure Filme rauskam, die auch ziemlich eingeschlagen haben und letztes Jahr war auch eben das Thema Pelikoya sehr groß, also das heißt, es gab auch eine gewisse Aufmerksamkeit zum Glück für diesen Themenbereich.

00:29:17: Und dann haben wir gesagt ihr wart ihr immer noch in den Gruppen drin, denn die waren undercover in so einer Telegram Gruppe.

00:29:22: Und da muss doch, also den muss doch dann wenigstens, wenn schon die Strafverfolgung sie nicht weiter bisher irgendwie, das war auch Gegenstand der Filme, nicht weiter irgendwie beherrlicht hat oder sie nicht weiter aufgeschreckt hat, dann muss doch jetzt die Öffentlichkeit, die jetzt da geschaffen wurde, es wurden ja auch Täter in den Filmen dann auch eben gefunden.

00:29:44: Also, das muss doch Angst machen.

00:29:47: Dann haben die beiden so sinngemäß jetzt gesagt... Die haben sich eigentlich im Grunde nur darüber ausgetauscht, dass sie jetzt in andere Gruppen wechseln müssen oder eventuell eine andere Plattform nutzen müssen oder haben sich darüber geärgert, dass ihre Favorites, also ihre Videos, die sie sich abgespeichert haben, auf der Website jetzt so nicht mehr verfügbar sind, weil die Website reagiert hat und ein paar der Text entfernt hat, die da so irgendwie auf Deutsch übersetzt, irgendwie keine Ahnung betäubt oder schlafend oder so.

00:30:13: Diese Text wurden dann teilweise gesperrt, auch nicht sehr gut und nicht sehr umfassend.

00:30:19: und auf jeden fall die haben sich also die haben das quasi registriert und gesagt so okay wie machen wir jetzt dann anders weiter und so?

00:30:26: das erinnert mich gerade sehr stark daran und das zeigt aber auch und deswegen sorry für den langen bogen aber das

00:30:31: zeigt auch

00:30:33: dass wir keine.

00:30:34: Dass wir das das Problem dieser fehlenden Regulierung gegenüber den Netzwerken schlägt sich auch um ein Problem gegenüber der fehlenden Regulierung und der auch ehrlich gesagt der fehlenden Drangsalierung dann von Tätern im im online Bereich.

00:30:51: Die dürfen sich nicht so verdammt sicher fühlen, aber natürlich können sie es, das ist jetzt absurd, also nicht moralisch legitim, sondern sie können es reinfaktisch, weil ihnen nichts passiert, weil niemand was tut und weil halt eben auch die entsprechenden Betreiber, das war jetzt in dem Beispiel der beiden, der Recherchen mit den Vergewaltigernetzwerken ähnlich, weil die nichts tun und weil die Strafverfolgungsbehörden hunderte Jahre hinterher sind und teilweise nicht können oder wollen.

00:31:20: Ja, und da muss man dann immerhin jetzt hier mal im Sinne von XAI argumentieren, dass sie das offenbar halt nicht so hingenommen haben.

00:31:26: Also in dem VOR vom Mediatex zum Beispiel lautet es, ein Nutzer findet eine Methode, um ein besonders überzeugendes und reißerisches von KI-generiertes Sexvideo einer realen Person zu produzieren, importiert es aus einer anderen Online-Community wie Fortschereien und halt es mit der Gruppe.

00:31:40: Andere Nutzer überschwemmen dann begeistert den Kanal mit ihren Kreationen, der mit derselben Methode erstellt wurde.

00:31:46: Dann melden einige Nutzer, dass Grog ihre Kreationen wegen Verstoßes gegen seine Richtlinien blockiert, bis die Nutzer zum Schluss kommen, dass Grock die Glücke geschlossen hat.

00:31:54: Also, dass sie da offenbar immerhin versucht haben, gegen vorzugehen.

00:31:58: Vielleicht Aussorge der Strafverfolgung.

00:32:00: Und das ist tatsächlich ein ganz interessanter Punkt, nämlich die Frage.

00:32:04: Wer ist da jetzt eigentlich verantwortlich?

00:32:06: Wenn ich auf dem Marktplatz stehe und Maschinengewehre verteile, um im Bild zu bleiben, verantwortlich für alles, was Leute mit diesen Gewehren machen?

00:32:12: Oder sind es nur diejenigen, die dieses Gewerbe nutzen?

00:32:14: Da hat Tech Policy Press ein Text geschrieben zu, den wir euch in die Schornauts packen, weil sie darin die Frage aufwerfen, ob XAI weil die Inhalte auf einer Social-Media-Plattform zwar stattfinden, aber trotzdem von einem Chatbot generiert werden, damit auch in die Section two-thirty fallen.

00:32:31: Also in das Gesetz, das Social-Media-Plattform sozusagen redaktionell und juristisch völlig aus der Schusslinie nimmt für die Inhalte, die auf den Plattformen geteilt werden in den USA.

00:32:42: Das ist eine Frage, die es noch nicht beantwortet.

00:32:44: So, Rechtswissenschaftlerin Mary Ann Franks hat The Verge gegenüber dazu gesagt, völlig unklar gerade und man muss leider davon ausgehen, dass das jetzige Rechtsverständnis und das jetzige amerikanische System nicht unbedingt gegen Social Media oder AI-Plattform argumentieren wird?

00:33:04: Ja, es verbietet sich ja einerseits immer dann so Vergleiche zu ziehen mit der analogen oder realen Welt.

00:33:10: Aber wie ist das denn bei einer normalen Lieferkette oder so?

00:33:13: Also jetzt mal wirklich mal das versimplifiziert.

00:33:16: Du hast ein Produkt, das wird irgendwie bei einer Supermarktkette verkauft.

00:33:19: Das wird vorher von irgendeinem Betrieb hergestellt.

00:33:22: ... irgendein Lebensmittel oder so und das stellt sich im Nachhinein raus durch die Proben.

00:33:25: Also das ist verunreinigt, das muss zurückgezogen werden, weil das ist irgendwie keine Ahnung für Babys tödlich oder so.

00:33:32: Dann sind doch alle, die in dieser Kette beteiligt sind, jeweils dazu aufgerufen ihr bestmögliches zu tun.

00:33:37: Also die einen müssen schauen, dass sie die Produktnummern irgendwie zusammenkratzen, die anderen müssen schauen, dass sie die Kunden an den betroffenen Märkten informieren und mit jeder Form der öffentlichen ... Kommunikation, die in Verfügung steht, den Kunden mitzuteilen.

00:33:50: Das ist ganz gut, wenn sie den Joghurtbecher oder was auch immer jetzt bitte nicht öffnen.

00:33:56: Was mich zu der These bringt, dass XAI diesen Kampf eigentlich aufgegeben hat, wenn wir uns anschauen, wie sich das entwickelt hat.

00:34:03: Und jetzt kommen wir zu diesen richtig unappetitlichen Geschichten.

00:34:05: Auch hier wieder, wenn das bis jetzt für euch unproblematisch war, aber ihr eigentlich Sorge habt.

00:34:10: Sput gerne vor, weil jetzt jetzt düster.

00:34:12: Die Coherence Media zum Beispiel hat eine Recherche veröffentlicht, dass viele betroffene Frauen, die eben solchen Deepfakes unterliegen, häufig auch jüdisch sind.

00:34:21: Also es gibt jüdische Holocaust-Überlebende, die hier Hakenkreuzbikinis angezogen bekommen haben von Grog.

00:34:28: Es gibt eine Liste von Frauen, die von Grog Hakenkreuzbikinis bekommen hat.

00:34:32: Dazu gehören Billy Eilish, Alexandria Ocasio Cortez, die First Lady von Venezuela, der US-Vizepräsident J. der eine Baderhose trägt und kein Bikini, aber auch seine Frau.

00:34:43: Also das ist schon geschmacklos und es geht noch weiter.

00:34:46: Das betrifft auch das Opfer des Eisangriffes aus Minneapolis, falls ihr die Nachrichten verfolgt habt.

00:34:54: Auch sie wurde natürlich schon von Grog, natürlich sage ich hier so selbstverständlich, aber auch sie wurde schon von Grog in verschiedenen anderen Kleidungsstücken dargestellt und verändert, weil das im Moment die Art ist, wie Ex sich um Dinge kümmert, gar nicht.

00:35:10: Ja, komme aber.

00:35:10: Also jetzt, jetzt, jetzt mache ich mal wieder den Conta-Part.

00:35:13: Bitte.

00:35:16: Das perverse Schwein ist nicht die KI.

00:35:19: ... das menschliche Gedanken, die da reingegeben wurden und die das erzeugen sollten.

00:35:25: oder habe ich das jetzt falsch verstanden?

00:35:26: Nein, du hast, das stimmt natürlich.

00:35:27: Da sitzt ein User

00:35:29: und sagt mach das.

00:35:30: Also das Werkzeug darf es dafür nicht geben beziehungsweise das Werkzeug, wenn das Werkzeug so missbraucht wird, muss das Werkzeug nachgeschafft werden.

00:35:37: Wenn das Werkzeug nicht nachgeschafft werden kann, muss das Werkzeug verschwinden bis es sicher ist so.

00:35:45: Aber das ist nicht Krog.

00:35:47: Also das

00:35:48: ist ...

00:35:50: das hätte jemand vor fünf jahren auch als karikatur dann zeichnen können oder mit photoshop basteln können.

00:35:55: wird das werkzeug nur für eine dermaßen absurd pervers ekelhafte.

00:35:59: Für so ein gedankengut verwendet.

00:36:03: aber das entsteht immer noch im menschlichen gehören und das ist immer noch das gruseligste von allen.

00:36:08: Das Problem ist nur, dass dieses Tool natürlich, und da sind wir so ein bisschen bei Brocken Windows, diese Theorie, die besagt, wenn ein Haus irgendwo auf dem Feld steht und da ist ein Fenster kaputt, dann sind am nächsten Tag auch zwei weitere kaputt, sind alle Fenster in Ordnung, schmeißt doch keiner was ein.

00:36:22: dass das natürlich einlädt die ganzen fordschandrolle die im internet eben auch unterwegs sind solche dinge dort generieren zu lassen.

00:36:30: ich will das nicht in schutz nehmen im gegenteil es ist wie du sagst sind die leute dies benutzen sind die dessen hier eine diese gedanken eben zu tage gebracht haben.

00:36:40: aber trotzdem ist bietest du hier sozusagen gerade eine offene tür an für diese leute.

00:36:45: du sagst hey kommt doch vorbei und macht all diesen Menschen verachtenden Scheiß macht den doch bei uns.

00:36:51: ihr habt den Werkzeug dafür.

00:36:53: Ja, ich meine also ist das Problem ist so alt wie die Manipulation von Bildern und ähnlichem als ich in der sechste oder siebten Klasse war.

00:37:03: Ist jeder irgendwie mit irgendwelchen ausgedruckten Zettelchen rumgelaufen, bei denen er irgendwie Britney Spears auf irgendein Playboy-Bunny den Kopf drauf gesetzt hat.

00:37:14: Zuhause mit Paint, also wirklich mit der Ursprungstechnologie, der schlechtestmöglichen Form der Bildbearbeitung.

00:37:20: Also das Phänomen und gut, das waren damals, das war ein Siebtesler.

00:37:24: Aber das Problem, dass das mit der Technologie, ich glaube nicht, dass die Gelegenheit Diebe macht oder die Gelegenheit Täter macht, sondern ich glaube, die Täter sind da.

00:37:35: Und die Technologie ist egal, ob es dies oder eine andere ist.

00:37:41: Es passiert jetzt öffentlicher, weil es ... weil es auf einer Plattform stattfindet.

00:37:46: Und das ist das, was neu ist.

00:37:48: Dass das vorher sonst irgendwie in geschlossenen Gruppen ... ... oder dass das in irgendwelchen Foren hochgeladen wurde.

00:37:51: Ich glaube, ... ... ich möchte nicht wissen, wieviel Prozent ... ... des Datenvolumens im Deep Web ... ... und ich rede jetzt nicht vom Dark Web, ... ... sondern ich rede zwar wieder, wo im Deep Web ... ... also alle Datenbanken, die letztendlich ... ... unter dem Surface Web liegen, ja.

00:38:04: Wieviel Prozent des Datenvolumens dort für ... ... solchen Mist ... ... drauf gehen.

00:38:11: Und ich glaube,

00:38:12: das

00:38:13: Problem ist, du bist trotzdem der Werkzeughersteller.

00:38:15: Bleiben wir uns völlig einig.

00:38:18: Aber ich habe ein kleines Aber noch.

00:38:20: Weißt du, wenn du eine Telegram-Gruppe mit dreißig Leuten hast und ihr macht kranken Scheiße drin, dann ist das natürlich nicht besser, aber es findet unter Ausschluss der Öffentlichkeitsstadt.

00:38:30: Diese Kommands an Grock, abgesehen von denen aus dieser Telegram-Gruppe, über die wir gerade gesprochen haben, die alle auf dem privaten Interface eben durchgeführt wurden, sind öffentlich und sie bestimmen auch das öffentliche Bild des Netzwerkes X, dass der Marktplatz der Welt sein sollte.

00:38:46: Und jetzt ist der Marktplatz der Welt voll geschwemmt mit irgendwelchen Deepfakes, die sexualisierte Darstellung von Menschen zeigen, die das nicht möchten.

00:38:54: Und das finde ich erstmal ein Plattformproblem, weil ich glaube schon, dass Gelegenheit da auch Täter macht und Leute dazu einlädt, dich doch doch mal auszuprobieren und so.

00:39:06: Ja absolut, ich ziehe auch den Gedanken zurück, da ist vollkommen recht.

00:39:09: Ich finde immer diesen Gedanken, es lädt ein, entlastet die Täterschaft auf der einen Seite.

00:39:15: Aber

00:39:16: jetzt sind wir wieder beim Beispiel Maschinengewäret.

00:39:19: Ich weiß, der Sprung ist immer ein bisschen weit und so, aber ist jetzt egal.

00:39:23: Ja, es gibt bestimmte Dinge, die darf man nicht tun und deswegen sind auch Produkte, die dazu geschaffen sind, die zu tun, limitiert oder nicht erlaubt.

00:39:32: So.

00:39:34: Da brauchen wir nicht mal vom Waffenrede, da reicht es jetzt, wenn wir schon mal von Feuerwerkskörpern oder sowas reden, die ja auch ganz ehrlich im Verkauf nicht erlaubt sind aus gutem Grund, wie man dann wieder die zwei Tage an denen sie dann irgendwie rumgehen, wieder sieht, wenn man dann einfach nur am ersten Januar um elf Uhr vormittags die Nachrichten sich anschaut.

00:39:51: Ja, okay, jetzt trifft Maab, aber ich sehe den Punkt.

00:39:55: Und was aber jetzt zum Beispiel andere Betreiber von solchen künstlichen Intelligenzen machen, was Elon Musk nicht tut, ist.

00:40:02: Sam Altman hat einen Tweet geschrieben und hat geschrieben, wir stellen einen Leiter für den Bereich Krisenvorsorge ein.

00:40:08: Es geht darum, dass man es schaffen möchte, die Auswirkungen von Modellen auf die psychische Gesundheit verstanden zu werden, aber auch für die Vorstellung, dass früher oder später OpenAI dann doch die AGI knackt und es eben irgendwie schafft, dass es eben dieser General Intelligence gibt und dass da jemand ist, der diese Krisensicherheit irgendwie auch in das Open AI System übersetzt.

00:40:31: Er schreibt, es wird extrem hardcore, nein, schreibt er nicht.

00:40:35: Er schreibt, this will be a stressful job und ich glaube, das ist so, ehrlicherweise.

00:40:41: Ist zumindest ehrlich bei der Ausschreibung, ja.

00:40:44: Vor allem passend dazu, ich finde interessant, dass Sie die jetzt kommende Ankündigung getroffen haben, bevor Sie Diese Stelle schon besetzt haben, denn gleichzeitig hat OpenAI in den USA ein neues Feature vorgestellt mit dem Namen ChatGPT Health.

00:40:58: Ist ein bisschen schon Funktion und Emotionen, aber ich habe es da mal rausgenommen, weil hier sind, haben wir, glaube ich, viele Emotionen und Gedanken dazu.

00:41:04: Also, OpenAI erweitert seine Funktion durch den Zufügen einer speziellen Gesundheitsregisterkarte zu ChatGPT über die Nutzer elektronische Krankenakten und andere Datenoids-Apps wie Apple Health und MyFitnessPal einlesen können.

00:41:17: Was ist dein erster Gedanke dazu?

00:41:19: Was könnte alles schiefgehen?

00:41:21: Ja.

00:41:23: Oder andersherum formuliert, was daran, also in der Anlage ist das schon eine katastrophale Idee.

00:41:29: Also ich habe viele Gedanken, ich komme aus einer Medizinerfamilie, das größte Problem.

00:41:36: Im Gesundheitssystem in Deutschland ist neben vielen anderen oder einziger Griffsprobleme die Selbstdiagnose mit Hilfe von gegoogelten Krankheitsbildern.

00:41:44: Das kann in vielen Bereichen, kann das durchaus auch dazu beitragen, dass Menschen früher aware sind bei bestimmten Sachen, aber grundsätzlich ist der Panikmodus an.

00:41:54: Also, künstliche Intelligenz hat in der Medizin eine absolut wichtige Funktion im Bereich der Forschung und auch in der Anwendung perspektivisch mit hundertprozentiger Sicherheit.

00:42:05: künstliche Intelligenz an den Patienten, der dann nicht mal ein Patient ist, zu geben, halte ich jetzt erst mal für einen sehr gewagten, sehr weiten Schritt.

00:42:15: Vor allem haben medizinische Unterlagen, haben Patientenprofile, haben Gesundheitsinformationen und ich mal, wie lange reden wir in Deutschland über die Patientenakte und welche Probleme das mit sich bringt, rein datenschutztechnisch.

00:42:28: Aber haben solche Informationen nichts bei einem US- Konzern oder sonst jemandem zu suchen.

00:42:36: Und wenn man auf die Idee kommt solche Dienste anzubieten, dann muss man auch an Dezentralisierung ran und dann muss man das auch in Zusammenarbeit mit den einzelnen Staaten angehen.

00:42:50: Aber das ist sicherlich nichts, was man einfach so global denken darf und sollte.

00:42:54: Ja, ich gebe dir recht.

00:42:55: Ich habe zwei Abas, die sich einander aufabern.

00:43:00: Aufabern.

00:43:01: Ein neues Verb.

00:43:02: Das finde ich gut.

00:43:03: Danke.

00:43:04: Also du hast mit allem Recht und alle, die diesen Podcast schon länger hören, aber auch die, die sich mit KI in den letzten Jahren beschäftigt haben, irgendwie, und wenn es nur im Vorbeigen ist, wissen wir, warum es eine schlechte Idee ist, sich in seinen Gesundheitsprognosen und Diagnosen auf eine KI zu verlassen, und zwar nur auf die.

00:43:21: Damit meine ich explizit nicht, dass eine KI zum Einsatz kommt, um deine Röntgenbilder auszuwerten und Dinge zu sehen, die Menschen nicht sehen.

00:43:27: Das ist genau dafür gibt es das.

00:43:31: Jetzt leben wir aber in der Realität, in der zum Beispiel in den USA sich sehr, sehr viele Menschen gar keine medizinische Versorgung leisten können.

00:43:38: Die sagen, es gab diesen Menschen, der sich entscheiden musste, zeige ich meine Miete, oder hole ich mir mein Asthma-Spray.

00:43:47: Also wir erleben gerade in den USA, dass es viele Leute gibt, die gar nicht zum Arzt gehen.

00:43:53: Und die jetzt immerhin von Chachibiti vielleicht Dinge gesagt kriegen wie, das ist schon ziemlich doll entzündet, vielleicht nimmst du mal ein Antibiotikum.

00:44:01: Was immer noch ein schwieriger Ratschlag ist, aber ehrlicherweise immer noch ein besserer als gar nichts zu machen, oder?

00:44:10: Ja, das kommt jetzt stark darauf an.

00:44:12: Da müssen wir jetzt von völlig verschiedenen Krankheitsbildern reden.

00:44:16: Aber wenn wir jetzt mal das Beispiel, das du gerade genommen hast, eine Entzündung, jemand fotografiert seinen offenen Knöchel oder sowas und lädt das Bild da rein, dann ist das Bild von dem offenen Knöchel dort.

00:44:27: Ja, und das ist genau das andere.

00:44:32: Also das ist das aber, dass ich da hinter setzen könnte.

00:44:34: Es gab schon häufiger Vorfälle, in denen zum Beispiel irgendwelche Parteien, mit denen man prozessiert hat, also Leute, die einen verklagt haben oder die man selber verklagt hat, Zugriff durch das Verfahren auf deine Chat-Gipetie-Verläufe bekommen hat.

00:44:49: Heißt also, in dem Moment, wo du diese Inhalte in diese künstliche Intelligenz setzt, Gibt es nachweislich diese Inhalte über dich?

00:44:56: Und das ist gerade bei gesundheitlichen Informationen meistens keine gute Idee.

00:45:01: Das gab es doch, also jetzt muss ich jetzt muss ich so ein bisschen Recherche und Kopf betreiben, aber es gab doch zum Beispiel diese Fälle, bei denen Krankenversicherungen auf Facebook und anderen frühen sozialen Netzwerken, Studievorzeiten, sonst was, dann irgendwie auch nach Bildern gesucht haben oder die teilweise auch das Recht eingeklagt haben in private... Accounts zu gucken, um dann herausfinden, ob jemand Alkohol konsumiert oder mutmaßig Alkohol konsumiert hat oder geraucht hat oder ähnliche Dinge getan.

00:45:29: Und also dieses Konstrukt meinst du jetzt in dem Zusammenhang, oder?

00:45:36: Ja, nicht nur, also allein die Tatsache, dass eben Inhalte, die über dich existieren, nachweislich durch GPD-Verläufe in Prozessen schon als Beweismittel verwendet wurden, dass die im Rahmen einer Hausdurchsuchung möglicherweise auch ausgewertet wurden, ist manchmal eben nicht besonders gut.

00:45:53: Angenommen, du holst noch eine Lebensversicherung, obwohl GPD gesagt hat, das sieht so aus, das hättest du nicht mehr viel Zeit, dann hast du nachweislich Versicherungsbetrug begangen.

00:46:01: ... die Sicherungswechsel so muss ... ... der Vorerkrankungen angeben ... ... und so, wenn du jetzt privat ... ... dich versicherst zum Beispiel ... ... kennst du das System in den USA ... ... nicht genau, wie das da in den Einstufen ist, ... ... aber das ist ja genau der Punkt.

00:46:14: Also wenn es jetzt hier ... ... ein US-Amerikanisches ... ... du hast jetzt gerade beschrieben, ... ... das war jetzt ein US-Amerikanisches Szenario, ... ... wenn es dort ... ... und wir kennen das Gesundheitssystem ... ... in den USA, ... ... wenn es dort ... ... den Menschen gibt, der sagt ... ... ich kann mir entweder ... ... die Miete oder meine Gesundheit leisten ... ... und deswegen bin ich froh, dass es die KI gibt ... ... und ich entscheide mich privat dafür.

00:46:35: Dann ist der Schlüssel, wie so oft bei solchen Fragen, ja, nicht soll das Individuum das tun, sondern muss die Gesellschaft zu organisiert sein, dass das nötig ist.

00:46:44: Das ist jetzt wieder die ganz große, ja, die Makro-Perspektive.

00:46:47: Da macht man sich dann auch wieder leicht.

00:46:48: Und wenn man sagt, dass der Fall darf es gar nicht geben.

00:46:51: Aber auf der Meta-Ebene finde ich also jetzt nicht irgendwie das ganze Gesellschaftssystem einmal auf den Kopf stellen wollen in der romantischen Vorstellung.

00:46:59: Danach geht es allen gut.

00:47:00: Aber auf der Meta-Ebene frage ich mich.

00:47:03: Wo ist die Medienbildung und wo ist die Bildung der Menschen?

00:47:06: und wo ist die Aufklärung, wo ist die Transparenz?

00:47:08: Und die Transparenz ist eindeutig die Unternehmensaufgabe, also ganz eindeutig.

00:47:12: Wenn du ein Produkt, und das ist jetzt quasi analog zum Bipark-Zettel, wenn du ein Produkt rausgibst, mit dem bestimmte Risiken einhergehen in der Nutzung, dann musst du das transparent machen und dann musst du das auch klar kommunizieren.

00:47:27: Und wer oder was wäre besser geeignet als eine KI, ein Chatbot?

00:47:31: ... ein Sprachmodell als Risiken zu kommunizieren, ... ... die damit eine hergehen.

00:47:36: Was passiert dabei in Wahrheit?

00:47:39: Also ... ... du kannst das ja mit völlig anderen ... ... ich finde es ganz interessant, ... ... wenn du bei ChatGPT zum Beispiel gerade Bilder ... ... zu einer absichtlichen Täuschung ... ... produzierst und das auch kommunizierst ... ... in deinem Prompt.

00:47:49: Habe ich jetzt gemacht, ... ... weil ich die nächsten zwei Tage ... ... Effect Checking Seminare und ... ... und und und und ... ... und und und und ... ... und und und und ... ... und und und und ... ... und und und und und ... ... und und und und und ... ... und und und und und ... ... und und und und und ... ... und und und und und ... ... und und und und und und ... ... und und und und und und ... ... und und und und und und ... ... und und und und und und und ... ... und und und und und und und ... ... und und und und und und und ... mit zwei, drei Tricks so.

00:48:03: Und ... ... daraufhin kriege ich von ChatGipetier das allererste Mal die Einschränkung.

00:48:07: Das ist gesagt, nein, das ist moralisch nicht ... ... in Ordnung, was du davon mir verlangst.

00:48:12: Wenn dann möchte ich das Kennzeichen in das Bild.

00:48:14: Sag ich, ja, nee, ist aber für eine Übung, die soll mir selber rausfinden, ... ... das wird danach auch der Prompt und alles aufgeklärt.

00:48:18: Zack, plötzlich geht's so.

00:48:20: Also auch lustig, also die moralischen Bedenken, so sind die über Bord geworfen, wenn ich als der Mensch dann, dann wird das Pleasing wieder betrieben.

00:48:26: Nur zumindest gibt es da jetzt diese Form der Kommunikation in dem Zusammenhang.

00:48:32: Das ist doch, also das ist doch das Mindeste, was ich dann erwarten muss, dass Nutzer und Nutzerinnen über ihre Risiken dort entsprechend aufgeklebt werden.

00:48:40: Trotzdem ist es eine absurde, grundsätzlich eine absurde Idee, natürlich ist ein Riesenmarkt

00:48:45: auch

00:48:45: völlig logisch.

00:48:47: Aber es ist auch eine eine eine eine kunstlich absurde Idee, dass man glaubt, dass das in dieser Kombination, denn es ist keine professionelle Diagnose, wenn jemand nicht die richtigen Fragen stellen kann.

00:49:00: Und das kann die KI nur dann, wenn sie ein aufgeklärtes oder ein medizinisch geschultes Gegenüber hat.

00:49:06: Deswegen sind ja Termine beim Arzt von hoher Relevanz, weil nicht jeder seine Probleme artikulieren kann oder überhaupt erkennt.

00:49:14: und dann sich da auf Fetzen dessen was von der anderen Seite kommt zu verlassen und daraufhin dann Diagnosen zu betreiben das finde ich schon absurd.

00:49:20: und da da ist die zweite Ebene ehrlich gesagt fast schon die geringere weil ich glaube das geht gehöre ich schief.

00:49:27: Sam Ordmann hat angekündigt, dass er sich für eine Art Rechtsprivileg zum Schutz in siebler Daten einsetzen möchte, damit eben Gesundheits- und Rechtsinformationen geschützt bleiben.

00:49:36: Aber man hat es jetzt erstmal an den Start gebracht, das Feature, bevor man dann sich irgendwie darum kümmert könnte, was es denn ist, wenn es Probleme gibt.

00:49:45: Ja,

00:49:45: das ist ja das Prinzip, das wir jetzt in den letzten zwei, drei Jahren irgendwie verfolgen.

00:49:51: So, ich habe noch zwei Meldungen und dann gehen wir in unsere Rubrik.

00:49:55: Der Vietnam, im Vietnam gibt es jetzt ab dem fünften Februar ein neues Gesetz, das verpflichtet YouTube und andere Plattformen die Online-Werbung anzeigen, dass diese nach fünf Sekunden zwangensläufig übersprungen werden darf.

00:50:10: Gefühle?

00:50:13: Ich kenne jetzt die Argumentation dahinter nicht.

00:50:17: Ich habe mich schon oft gefragt, warum es ein grundsätzliches Recht geben soll auf als Nutzer Werbung zu vermeiden.

00:50:25: Also ich bin ja genau, ich bin auch mit Adblockern groß geworden.

00:50:30: Ich nutze ihn nicht.

00:50:31: Ja, jetzt auch nicht mehr, ich auch nicht mehr.

00:50:33: Spätestens seit ich in der Branche arbeite, die massiv davon abhängig ist, dass es überhaupt noch Werbung gibt.

00:50:41: Journalismus ohne Werbung funktioniert nur, wenn es beitragsfinanziert ist oder mit ganz wenigen Ausnahmen rein Abonnenten finanziert ist.

00:50:52: Ich verstehe jetzt nicht, was für eine Logik dahinter steckt, das auf diese fünf Sekunden irgendwie zu gehen, müsste ich mehr zu wissen.

00:51:05: Ich habe jetzt nicht den Bedarf, dass wir das hier auch unbedingt haben.

00:51:07: Ich nutze die Funktionen, wo sie angeboten und YouTube oder so, nutze ich die auch natürlich immer, die Werbung zu überspringen, wenn sie mich nervt.

00:51:13: Aber ich habe mich noch nie da gesessen mit ropen Kopf und beiden Fäusten irgendwie gegen den Bildschirm trommeln und sagen, ich möchte jetzt nur fünf Sekunden skippen.

00:51:21: Ja, verschw-.

00:51:22: Ich verstehe, also vor allem ist damit verboten, dass es keine falschen Fake X da drauf zum Beispiel gibt.

00:51:29: Das gehört damit zu, also es darf keine Irreführung geben.

00:51:34: Gleichzeitig verpflichtet diese Verordnung, das ist eigentlich der interessanteste Teil, werbetreibende Werbedienstleister und Vertreiber von Werbe enthalten.

00:51:40: Alle als illegal eingestuften Anzeigen, spätestens nach vierzehn Stunden nach Aufforderung durch das Ministerium oder eine andere Behörde zu entfernen.

00:51:48: Das heißt, es wird so eine Meldestelle geben, die sagen, das muss weg und dann müssen sie sofort auch unternehmen und eben das Werbung nicht überspringbar sein darf.

00:52:00: Ich verstehe alles daran, aber ausgerechnet den Banger nicht.

00:52:03: Also ausgerechnet die fünf Sekunden da oder zehn oder wie auch immer ist erwischt, aber mit welcher Argumentation?

00:52:11: Also,

00:52:13: der Text, den mir vorliegt, lautet wie folgt.

00:52:15: Gemäß dem Dekret sind Onlineplattformen verpflichtet, die nicht überspringbare Dauer von Videos und Bewegbildanzeigen auf maximal fünf Sekunden zu begrenzen.

00:52:22: Das bedeutet, dass digitale Dienstleister Zuschauer nicht zwingen dürfen, nicht überspringbare Anzeigen länger als fünf Sekunden zu ertragen.

00:52:29: Ja, das habe ich alles verstanden.

00:52:30: Die Frage ist, warum ausgerechnet?

00:52:35: Das kann man bestimmt nachlesen, wenn ihr das möchtet.

00:52:38: Die Verordnung heißt drei, vier, zwei, zwanzig, fünfundzwanzig und dritt am fünfzehnten Februar, zwanzig, sechsundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundund.

00:52:52: als Leute, die diesen Podcast jetzt nicht zum ersten Mal heute hören.

00:52:56: Für alle anderen, die es jetzt zum ersten Mal hören.

00:52:58: Hey, kommt doch vorbei.

00:52:59: Wir haben unsere Community abgebildet auf Discord.

00:53:01: Über zwei-tausend-einhalb-undfünfzig Leute sind da, die sind alle sehr schlau.

00:53:04: Tauschen sich über diese Themen aus Digital-Themen, Internet-Themen, Social Media Phänomene.

00:53:08: All diese Dinge werden dadurch gesprochen.

00:53:10: Das ist wirklich ein Ort voller Menschen, die schlauer und netter sind, als man glaubt und selber ist, glaube ich.

00:53:17: Also kommt vorbei www.hackentran.org.

00:53:20: Und helft dabei, Discord im Wert zu steigern.

00:53:22: Nee, so will ich das nicht sagen.

00:53:23: Also, man muss leider befürchten, dass Discord, die nämlich jetzt vertraulich, einen Antrag für einen Börsengang eingereicht haben, wie Bloomberg News berichtet, dass die Plattform darunter eher leiden wird, ehrlicherweise, als dass sie davon profitiert, dass sie jetzt in die Hände von vielen Aktionärinnen geht.

00:53:43: Ja.

00:53:44: Es geht um Börse, es geht um Investition, es geht um Geld, ich bin raus.

00:53:48: Okay, aber ich weiß, wo du nicht raus bist.

00:53:50: Warte.

00:53:53: Funktionen und Emotionen.

00:53:57: Ich habe das im Vorgespräch schon mal gesagt.

00:54:00: Wir haben zusammen über TikTok Pro gesprochen damals.

00:54:03: Eine App von TikTok, mit der man eigentlich de facto das gleiche hat wie im normalen TikTok, aber ein bisschen positiver ausgewählt.

00:54:11: Zumindest war das unsere Lesart damals.

00:54:13: Jetzt muss man sagen, es ist eigentlich dieselbe App nur ohne Werbung und du kannst Geld spenden.

00:54:17: So.

00:54:18: Es gibt jetzt auch Xlight.

00:54:20: Ich konnte allerdings bis zum Moment der Aufnahme nicht herausfinden, was ein Xlight anders ist als ein X. Aber es gibt jetzt für die Leute, die X nutzen, für Android eine App, mit der man eine andere App benutzen kann.

00:54:34: Ist das dann so eine Diet-Coke-Variante?

00:54:38: Was ist da?

00:54:39: Keine Bilder.

00:54:40: Nein, ich weiß es nicht.

00:54:41: Aber jetzt, weißt du, wir haben eine riesen Chance jetzt.

00:54:46: Da wir beide unwissen sind können wir uns jetzt eigentlich mal ausmalen was X light bedeuten könnte.

00:54:52: ich habe eine tese.

00:54:54: Und zwar ich muss ex sollte die everything app werden und haben aber gleichzeitig angekündigt das ex chat eine eigene app wird das grock eine eigene app wird das ex money sicherlich auch eine eigene app wird.

00:55:06: sprich sie bauen schon daran dass es so eine art große suite gibt.

00:55:09: So, was passiert also mit der normalen X-App?

00:55:11: Sie ist im Moment de facto nur der Chat, nur das alte Twitter.

00:55:16: Der Feed

00:55:16: quasi.

00:55:18: Der Feed, genau.

00:55:18: Und man will aber X jetzt everything app machen.

00:55:20: Also baut man jetzt schon X-Lite, was de facto der Feed werden wird, um aus X eine App zu machen.

00:55:25: Und damit tritt endlich meine Vorhersage von vor zwei Jahren ein, um endlich die Startseite der X-App so zu verändern, dass es sich eben nicht wie der Feed anfühlt, sondern wie eine everything app.

00:55:36: Okay, schöne Theorie.

00:55:37: Ich mache eine völlig andere Spekulation auf.

00:55:41: Ich glaube Xlight wird ein X, das du nur konsumieren kannst, aber nicht mit produzieren oder nicht mit interagieren kannst.

00:55:51: Also du kannst nur Veeds lesen, du kannst dich nur durch scrollen, du kannst nur irgendwie Trends und sonst was verfolgen, aber du kannst selber gar nicht kommunizieren.

00:55:58: Also du wirst zum Zuschauer.

00:55:59: Das hebelt dann wieder die ganze Idee von einem sozialen Netzwerk.

00:56:02: Komplett aus, es fühlt es komplett unabsurdum und genau deswegen würde es in diesen Gedankenkosmos super reinpassen.

00:56:09: Ja, finde ich schlau.

00:56:10: Könnte auch sein.

00:56:11: Wir werden das erfahren.

00:56:12: Vielleicht jetzt schon im Hacknerndiscord auf Hacknern.org, vielleicht gibt es da schon mehr Infos, Ex-Light von Leuten, die es ausprobiert haben.

00:56:17: Gibt es bislang nur eine Beta für Android und ich habe leider kein Android-Gerät vorliegen.

00:56:21: Du bist doch bestimmt ein Android-Typ, oder?

00:56:24: Ja, ja.

00:56:25: So, ich bin schon dran.

00:56:26: Ich werde jetzt testen.

00:56:27: Gut.

00:56:27: Währenddessen erzähle ich schon nochmal ein bisschen weiter.

00:56:30: Also... YouTube, und da muss ich dich festhalten.

00:56:34: YouTube.

00:56:36: YouTube testet Karussellbeiträge mit Standbildern im Shorts feed.

00:56:40: Also, genauso wie man das in der Reals Timeline oder TikTok für YouPage kennt, kann man jetzt bei YouTube auch bis zu zehn Bilder hochladen, die dann im Shorts Feed angezeigt werden als Bilder.

00:56:55: Warum?

00:56:58: Ist das

00:56:58: so beliebbar?

00:56:59: Also ist das bei Insta zum Beispiel... Ich hab schon öfter gehört, dass Leute diese Karussellfunktion tatsächlich nur... Ich zum Beispiel, ich bin Top-Down-Scroller, also ich nutze das nicht.

00:57:10: Karussell-Postings sind die einzigen statischen Inhalte auf Instagram, die algorithmisch stärker viral ausgespielt werden, die dir über For You Dynamiken ausgespielt werden.

00:57:20: Also wenn du nur an einzelnes Bildhoch lädt sind, das sind Leute, die dir folgen in der Regel, wenn du aber ein Karussellhoch lädt, dann kann das die ganze Welt sehen.

00:57:27: Und ich glaube, der Grund dahinter, Tee so auch, wäre, naja, Es ist halt leichter, zehn Fotos hochzuladen als ein Video zu machen.

00:57:34: Die Überwindung ist kleiner.

00:57:35: Du schaffst es damit, diese Gap zwischen den Leuten, die nur konsumieren und den Leuten, die auch produzieren, ein bisschen kleiner zu machen.

00:57:43: Wäre meine These.

00:57:45: Gut, ich schalte da gerade parallel dran, mir X-Lite runterzuladen.

00:57:50: Ich

00:57:50: schätze mal, ich muss einen amerikanischen, also ich muss erstmal einen VPN anschalten.

00:57:55: Nein, du musst dir die APK runterladen.

00:57:59: Oh, ich hab das jetzt klassisch über den Place Dorf versucht.

00:58:01: Ähm, du schaffst das.

00:58:03: Während wir schwächen.

00:58:04: Reddit!

00:58:05: testet, verifizierte Profile, also Häkchen of Reddit, damit zum Beispiel Expertinnen oder Prominente, die ein AMA veranstalten, auch als authentische Profile erkennbar sind.

00:58:16: Das machst du jedes Mal, wenn ich hier bin, suchst du mir irgendeinen Verifikationshäkchen raus, weil ich mich seit Jahren über den missbräuchlich unternehmerisch-kapitalistischen Take aufrege, diese Verifikationsbatches nach Bezahllogiken zu vergeben.

00:58:34: Und hier muss man

00:58:34: es nicht kaufen.

00:58:36: So.

00:58:37: Hier wird es ausgezeichnet, immerhin.

00:58:40: Verified Profiles of Reddit.

00:58:43: Also du findest das super, ja?

00:58:47: Erzähl nochmal.

00:58:47: Also, ich kann... Es ist nur für Prominente.

00:58:51: Ja.

00:58:53: Und nach welchen Kriterien wird es vergeben?

00:58:56: Unklar.

00:58:58: Es kannst du nicht beantragen und sie selber entscheiden, wer den Test mitmacht.

00:59:03: Ja, absolut.

00:59:04: Ja, aber... Ich fand es bei weiß was eine riesen Stärke früher bei Twitter war.

00:59:08: Klar, also diese blauen Haken haben teilweise auch eine Dynamik, eine Logik erzeugt, also weit vor X jetzt, die manchmal auch ungut war.

00:59:15: Die haben nämlich das, was an Twitter die große Stärke war, nämlich jeder kann mit jedem diskutieren auf mehr oder weniger Augenhöhe.

00:59:21: Die haben das natürlich ein bisschen eine Absurdung gehoben.

00:59:23: Das tun aber Follower-Zahlen endlich es ja auch schon.

00:59:25: Aber es war trotzdem damals eine große Stärke, dass relativ transparent war, wie du sie warum bekommst.

00:59:31: Also mit bestimmten Einflussbereichen in bestimmten ... Branchen oder in bestimmten Wissensferien ... ... oder eben mit Funktionen und so.

00:59:40: Das fand ich immer sehr gut.

00:59:42: Ich fand das auch immer eine gute Idee, ... ... dass Journalisten und Journalistinnen nicht, ... ... weil ich selber einer bin, sondern grundsätzlich ... ... fand ich das immer eine gute Idee auch, ... ... denen zur Möglichkeit zu geben, ... ... um eben bei der Kontaktaufnahme zu sagen, ... ... hey, ... ... ich bin übrigens wirklich die Person, ... ... für die ich mich ausgebe.

00:59:55: Also damals ... ... in der blauen Hakenlogik, ... ... in der ursprünglichen Haken dran, ... ... super, finde ich gut.

01:00:02: Hat ... ... hat mir immer gut gefallen.

01:00:05: Und dann fing das halt eben ... ... ja, wirklicherweise mit Mask ... ... und dem blauen Haken eben an ... ... missbraucht zu werden.

01:00:13: Und dann haben das ja ... ... letztendlich mehr oder weniger ... ... alle für sich entdeckt.

01:00:16: Also Meta ... ... ist ja dann auch relativ schnell ... ... hinterhergegangen.

01:00:18: Beziehungsweise ehrlich gesagt ... ... ich weiß gar nicht, ob das nicht damals ... ... sogar schon Zeit gleich war, dass ... ... dass die Facebook und Instagram ... ... Haken nicht auch schon käuflich, aber ... ... da war nicht so viel Zeit dazwischen auf jeden Fall.

01:00:30: Als dass das jetzt irgendwie ein kompletter logischer Entwicklungssprung dann in der Folge gewesen wäre.

01:00:35: Was ich bis heute nicht verstehe ist auch da.

01:00:39: Warum es keine andere Möglichkeit gibt die extern dieser Netzwerkbetreiber dieser Unternehmen liegt.

01:00:47: dass ich mich digital verifizieren kann, ohne gleich jetzt mit meinem Ausweis kommen zu müssen.

01:00:52: Also das habe ich nie begriffen, warum das nicht eine staatliche Aufgabe sein sollte, wenn ich auf der einen Seite zum Beispiel darüber rede, bestimmte Klarnamenpflichten oder so einzuführen.

01:01:02: Auf der anderen Seite auch dafür zu sorgen, dass jemand sich auch verifizieren kann, weil er sich authentifizieren möchte.

01:01:08: Genau.

01:01:09: Ich bin hier schon mal gekommen und ich stimme dir hundert Prozent zu.

01:01:14: Das darf nicht in der Hand einzelner Plattform liegen.

01:01:16: Weil dann passiert genau das, was bei Reddit passieren wird.

01:01:18: Sie werden das ausrollen.

01:01:20: Dann wird es das ein halbes, dreiviertel Jahr geben, damit der Haken eine Begehrlichkeit weckt.

01:01:24: Und dann wird es ihnen mit Reddit Pro kaufen können.

01:01:26: Hundert Prozent, ich read mein Lips, das wird so kommen.

01:01:29: Ja, bin ich dabei, würde ich das Geld aufwetten.

01:01:32: Ja.

01:01:33: Apropos, es wird so kommen.

01:01:34: In der nächsten Folge von Haken dran kommt Stefan Schulz.

01:01:37: Der war noch nie hier, Journalist.

01:01:38: Bin sehr gespannt, freu mich sehr drauf.

01:01:41: Und freu mich, dass du heute hier, was ich hoffe, das dauert jetzt nicht bis September, bis du wiederkommst.

01:01:45: Ich kann aber nichts versprechen, aber wir versuchen das vorher mal hinzukriegen, oder?

01:01:48: Ist der erste Neunte eigentlich überhaupt ein Haken dran Tag?

01:01:51: Das ist ja die spannende Frage.

01:01:55: Es ist ein Dienstag, leider nicht.

01:01:57: Also dann musst du vorher

01:01:58: kommen.

01:01:59: Dann muss ich zum ersten achten Kombo.

01:02:01: Bei dieses acht eins und eins acht Zahlen spielen möchte ich eigentlich nicht unbedingt fortsetzen.

01:02:04: Nee,

01:02:05: das ist ja jetzt auch gebrochen, weil heute ist ja schon der neunte erste.

01:02:07: Ja, ja, ja, ja.

01:02:09: In der Podcast-Logikwelt, ja.

01:02:12: Wir finden das alles raus, Frederik.

01:02:13: Vielen Dank, dass du da warst.

01:02:14: Es war mir ein Fest.

01:02:15: Es war sehr schön, auch wenn wir heute sehr viel über ein Thema gesprochen haben.

01:02:18: Aber das war leider wichtig, Leute.

01:02:20: Sorry.

01:02:21: Wir hören uns wieder am Montag ab.

01:02:22: Ein ganz schönes Wochenende passt auf euch auf und bis bald.

01:02:26: Du kannst noch Tschüss sagen.

01:02:28: Tschüss.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.