Wenn’s beim Buschmann zweimal klingelt (mit Chan-jo Jun)
Shownotes
Chan-jo Jun ist zur quartalsmäßigen Rechtsberatung da. Und wir was haben wir für Fragen: Wie sieht es mit der digitalen Teilhabe aus, könnte die das Social-Media-Verbot für junge Menschen kippen? Was geht so mit dem Providerprivileg im Zeitalter von KI? Und dann ist noch die News des Tages, dass SpaceX xAI und damit auch X übernehmen wird.
➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org
Kapitelmarken, KI-generiert 00:00:00 - Hallo Chan-jo! 00:01:09 - Wer sorgt bei xAI für die Sicherheit? 00:06:54 - SpaceX übernimmt xAI 00:19:22 - Erosion des Provider-Privilegs 00:33:28 - Marco Buschmann, White & Case und der Twitter-Deal (NetzDG) 00:41:48 - Gerichtsurteil zu Beschwerdewegen 00:45:30 - Social-Media-Verbote für Minderjährige 00:52:00 - Online Safety Act in Großbritannien 00:58:30 - Behavioral Fingerprints 01:03:04 - Warnung vor Signal-Scams
ℹ️ Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier: https://wonderl.ink/%40heise-podcasts
Transkript anzeigen
00:00:00: Hallo Chancho.
00:00:01: Grüß dich, Gavin.
00:00:03: Bei mir ist das der Chancho Junen.
00:00:04: Mein Haus- und Hofanwalt, also bislang habe ich dich nicht auf dienstlichen Wege gebraucht, aber... Kommt noch.
00:00:12: Noch nicht.
00:00:12: Früher
00:00:13: bin ich zufällig.
00:00:14: Oh nein.
00:00:14: Man kennt dich als Anwalt Junen im Netz.
00:00:16: Du bist sozusagen der David gegen die Goliaths der Tech-Unternehmung.
00:00:21: Und wir haben hier schon gemeinsam darüber gesprochen, wie du TikTok in die Knie gezwungen hast.
00:00:25: Habe ich heute vielleicht einen kleinen Nachhack zu, zu dem Thema.
00:00:29: Und ja, also ich bin immer froh, wenn du hier bist, weil ich dir all diese Fragen stellen kann, die sich so in den Monaten dazwischen anhäufen.
00:00:35: Was so mit Juristerei zu tun hat.
00:00:37: Da gibt es eine Menge zu erzählen.
00:00:39: Normalerweise ist Jura ja langweilig und trocken.
00:00:42: Mal gucken, wie lange es die Zuschauer aushalten.
00:00:45: Also letzte Mal haben die Leute gesagt, es hätte ruhig noch mehr Juristereien, Nördereien sein können.
00:00:51: Also die Leute haben Bock auf dich.
00:00:53: Okay, leg los.
00:00:55: Ja, wir müssen... Weil
00:00:57: wir sind ja Podcast, wir können ja hier lange Gassierunde machen.
00:00:59: Ich muss daran denken, dass wir nicht auf TikTok sind, ne?
00:01:03: Ja, also wenn man das hier meldet, dann bringt das tatsächlich etwas.
00:01:07: Das kann man schon mal festhalten.
00:01:08: Nein, wir gehen tatsächlich direkt rein, weil wir haben ein paar Themen auf dem Tisch und ein Thema zusammenhängt mit zwei anderen Themen, haben sozusagen die Nacht zum Dienstag bestimmt und werden auch die Nacht zum Mittwoch bestimmen und werden wahrscheinlich, wenn ihr das hört, am Mittwoch morgen, wir nehmen das hier am Dienstag früh auf, immer noch Hot and upcoming sein.
00:01:28: und zwar ich fange aber ganz vorne an.
00:01:30: und zwar berichtet die Washington Post das Elon Musk von vornherein in Kauf genommen haben könnte, dass mit der Erstellung von sexualisierten Deepfakes durch Grog Aufmerksamkeit auf Grog gelenkt wird.
00:01:43: Also es gibt wohl mehrere Mitarbeitende, die der Washington Post gegenüber so unter drei irgendwie ins All geflüstert haben, dass Elon Musk sich sehr, sehr bewusst war, wie groß die Einschränkung oder die Verletzung von Persönlichkeitsrechten auch von Minderjährigen ist.
00:01:58: Aber Elon Musk hat das alles offenbar in Kauf genommen, weil er genau wusste, dann werden Leute über Grog sprechen.
00:02:04: Tja, wenn man das so nachhinein erzählt und wir uns überlegen, macht das Sinn, klingt das sehr plausibel.
00:02:09: Also wenn man Fake News versucht zu entlarven, dann geht man so die Logikette entlang und jetzt sieht man ja, es hat zur Aufmerksamkeit geführt und man könnte jetzt auch sagen, passt auch zu Elon Musk von der Persönlichkeit her.
00:02:21: Also zunächst mal klingt plausibel, hat funktioniert, was die Aufmerksamkeit betrifft.
00:02:25: Aber und jetzt kommen die Juristen rein.
00:02:27: Ja,
00:02:28: da ist er.
00:02:29: Die Frage ist, ob er mit den Backslash, mit den den Nebenwirkungen gerechnet hat, wenn sie dann überhaupt eintreten.
00:02:37: Die Nebenwirkungen sind nämlich und deshalb bin ich im Grunde fast dankbar dafür, dass wir überall auf der Welt die Diskussion darüber haben.
00:02:44: Guck mal, was KI kann, was Unternehmer damit machen würden, wenn sie keine Regeln haben.
00:02:49: Und wir schauen zu, wir lassen uns das bieten.
00:02:52: Und ich habe den Eindruck, dass in Deutschland immerhin ein paar Leute wachgeküsst wurden.
00:02:56: Es war zwar Ferienzeit, aber auch eine Justizministerin ist wach geworden.
00:03:00: Und es ist ja nicht so, dass die Schlafen das Thema nicht sehen, sondern die sehen vorher, dass Regulierung von Deepfakes eigentlich nicht so populär ist.
00:03:07: Das ist ja auch Parodie, ist ja auch lustig, ist ja auch modern und so weiter.
00:03:11: Aber jetzt mit den sexualisierten Deepfakes ist eigentlich klar ein Politiker, Er sagt, das ist alles okay, wir müssen technologieoffen sein, der versteht die Welt nicht mehr.
00:03:20: Und das ist die Gelegenheit, wo jetzt alle reinspringen, die Franzosen waren schneller.
00:03:23: Deutschland war ein bisschen länger und die Kommission hat jetzt ja eine Untersuchung eingeleitet.
00:03:28: Also insofern läuft.
00:03:30: Vor allem nach einer Untersuchung nach DSA, da müssen wir gleich auch noch mal drauf zu sprechen kommen, die ja im Zweifel eine Strafe von bis zu sechs Prozent des weltweiten Jahres umsatzes sein kann.
00:03:39: Und das könnte X, XAI und das, worüber wir gleich noch sprechen, ganz schön große Konsequenzen mit sich bringen.
00:03:45: Aber eins nach dem anderen.
00:03:47: Denn in der Washington Post wird auch darüber gesprochen.
00:03:49: Das ist interessant.
00:03:51: Was glaubst du, wie viele Menschen im Sicherheitsteam von XAI arbeiten?
00:03:56: Sicherheitsdienst von XAI, das ist ein virtuelles Unternehmen.
00:04:00: Okay, die haben ein paar Rechenzentren und so weiter.
00:04:02: Also, wenn wir, ne, warte mal, XAI ist ja die Muttergesellschaft von dem Ding, was früher Twitter hieß.
00:04:07: Ja, aber es geht nur um die KI-Sicherheit, also nur das KI-Sicherheitsteam.
00:04:11: Wir reden nicht von den Bodyguards, sondern von den Formen, die für virtuelle das werden, das werden Hunderte sein, oder?
00:04:18: Also bei OpenAI arbeiten mehrere Dutzende Mitarbeiterinnen im KI-Sicherheitsteam, um sicherzustellen, dass die Guardrails eigentlich erhalten werden, dass eben so was nicht passiert.
00:04:26: Hast du diese
00:04:27: Sicherheit meinst du?
00:04:28: Genau.
00:04:28: Du meinst
00:04:29: nicht, die, die von den Hackern schützen?
00:04:31: Nein, es geht um die Formulierung ist, die Verhinderung schwerwiegender Schäden durch Nutzer innen mit Hilfe der App.
00:04:38: Also genau die Leute, die eigentlich verhindern sollten, dass du mit Hilfe der des KI-Chatbots zum Beispiel sexualisierte Deepfakes erschenken kannst.
00:04:45: Wie gesagt, bei OpenAI sind es mehrere Dutzende.
00:04:48: Bei XAI waren es im Laufe des letzten Jahres zwei bis drei.
00:04:52: Und das ist übrigens die Diskussion, die wir vor zehn Jahren hatten.
00:04:55: Gavin, du bist alt genug, du erinnerst dich.
00:04:58: Danke.
00:04:59: Ich habe eine Grundzeugin dabei.
00:05:01: Hier ist Angela Merkel.
00:05:03: Für
00:05:03: die, die das gerade auf PeerTube oder YouTube sehen.
00:05:06: Angela Merkel ist ein Bild, aber als Papa auch
00:05:07: schneller.
00:05:08: Wir hören
00:05:08: uns nur auf Spotify.
00:05:09: Also muss man Bildbeschreibung dazu machen.
00:05:13: Vor zehn Jahren kam Flieh Flüchtlinge.
00:05:15: Es gab viel Hass im Netzwerk.
00:05:17: Und da war die Diskussion auf Facebook.
00:05:19: Das ist doch alles illegal.
00:05:20: Wieso wird das nicht entfernt?
00:05:21: Die Bildzeitung sagte, Bild löscht Nippel statt Nazis.
00:05:25: Und dann wollte man wissen, wie viele Leute es gibt, die dafür arbeiten.
00:05:29: Und diese Zahl wurde immer supergeheim gehalten, weil es nicht so gut wie keine Mitarbeiter gab.
00:05:33: Und dann hat Meta, Facebook damals, ganz heimlich, ein Battle-Manns-Tochter beauftragt, viele Leute rekrutiert und überhaupt erst mal dieses Sicherheitssystem hoch aufgebaut.
00:05:43: Und dann waren es auch mal ein paar Hundert, inklusive der externen.
00:05:46: Dann gab es diese Verpflichtungen, das auch anzugeben, in den Quartalsberichten, Transparenzberichten.
00:05:50: Und dann waren es mal sehr viele.
00:05:51: und dann wurden die ausgelagert in prekäre Arbeitsverhältnisse in dritte Weltländer.
00:05:55: Und dann waren es noch mehr.
00:05:57: und dann kam Elon Musk und sagt, wie werfen wir alle raus?
00:06:00: Brauchen wir entweder nicht oder ersetzen sie durch KI?
00:06:02: Und da sind wir gerade.
00:06:04: Genau.
00:06:05: Konkret geht es hier gar nicht so sehr um die Kontenmoderationen sozialen Netzwerken, sondern die Leute, die sozusagen den Chatbot bewachen.
00:06:10: Aber dennoch, also im Fall von ChatGPT siehst du halt oder bei OpenAI, dass da halt irgendwie eine Zahl zwischen zwölf und hundertzwanzig irgendwie kursiert, die eben dafür darauf achtgeben, dass die KI eben nicht die Welt übernimmt.
00:06:23: Bei Goxsins im zwei bis drei.
00:06:25: und das erklärt eben auch, warum die Leute, die so den Gegenwind Elon Musk gegenüber formuliert haben, offenbar deutlich weniger waren, als es in anderen Unternehmen ist, wobei man auch dazu sagen muss, Elon Musk gegenüber Gegenwind zu formulieren ist, offenbar gar nicht so einfach.
00:06:39: Ich will übrigens, ich will mich nicht selber loben, aber ich würde behaupten, dass ich hier als These aufgestellt habe, dass dieser Publicity-Effekt dieser Generierung von sexorgisierten Deepfakes auf, durch Croc, dass das durchaus auch Teil des Plans gewesen ist.
00:06:51: Also... Das Rakel von Selfie hat sozusagen zugeschlagen.
00:06:54: warum das interessant ist und jetzt kommen wir zu der anderen Geschichte ist weil in der Nacht zum Dienstag SpaceX verkündet hat, dass sie XAI übernehmen werden.
00:07:04: Also zwei Unternehmen von Elon Musk.
00:07:05: Wir haben so einen ähnlichen Prozess schonmal besprochen, als XAI X Corp übernommen hat, also das Unternehmen hinter X, das für Twitter hieß.
00:07:12: Was am Ende bedeutet, dass SpaceX das Unternehmen, das früher mal gestartet wurde, um die Mars-Mission irgendwie auf sichere Beine zu stellen, das mittlerweile aber Satelliten ins Weltall schickt, damit es Starlink zum Beispiel gibt, diese Satelliten-gestützte Internetverfügbarkeit, die in dem Ukraine-Krieg von großer Bedeutung zum Beispiel war.
00:07:30: Wir haben da viel darüber gesprochen.
00:07:32: dass dieses unternehmen eben jetzt auch verantwortlich für x sein wird so ein paar fakten von bloomberg.
00:07:37: also das wert wird am ende.
00:07:38: das unternehmen wird einen wert haben.
00:07:40: am ende von einzig mal zwei fünf trillion dollar also billionen also eintausend zweihundert fünfzig milliarden dollar wird der wert sein.
00:07:49: xai hat darin einen wert von zweihundert fünfzig milliarden.
00:07:53: jetzt kommt meine tese wenn Das Ziel, wenn das von vornherein geplant war, und wir können davon ausgehen, wir wissen, dass SpaceX in diesem Jahr einen IPO anstrengen wird, also den Börsengang plant.
00:08:05: Wenn wir davon ausgehen, dass XAI von vornherein Teil des Plans war, dass es von SpaceX geschluckt wird.
00:08:11: Und wenn wir dann davon ausgehen, dass Elon Musk mehr Anteile von XAI als von SpaceX hat, dann hat er doch auch durchaus ein Interesse, wenn XAI an Wert gewinnt, weil dann der Anteil der Aktien, die Elon Musk am Ende gehören.
00:08:25: in dem neuen Unternehmen, das aus SpaceX und XAI besteht, natürlich höher ist, als wenn der Wert geringer gewesen wäre.
00:08:33: Weißt du, kannst du mir nachfolgen?
00:08:35: Und vor allem dieser Mehrwert muss noch kurzfristig sein.
00:08:39: Also selbst, wenn der vom Sand gebaut ist und danach wieder kollabiert, ist das egal.
00:08:43: Also sprich, wenn er in Kauf nimmt zum Beispiel, dass er zwar ganz viel Bekanntheit bekommt für GROC und seine AI-Fähigkeiten.
00:08:51: Dabei es war auch in Kauf nimmt, dass damit eine Regulierung auf den Plan gerufen wird, die das Leben fürs Unternehmen in ein, zwei Jahren schwieriger macht.
00:08:59: Kann es ihm ja natürlich heute egal sein.
00:09:01: Absolut.
00:09:03: Ja, vor allem weil diese Bewertung auf XAI jetzt auch nochmal bekräftigt wurde, dadurch, dass Tesla ja auch zwei Milliarden Dollar investiert hat in XAI.
00:09:11: Also es ist alles sehr kompliziert.
00:09:13: Teil der Tech-Bubble besteht ja natürlich auch darin, dass Unternehmen alle Tech- und KI-Unternehmen kaufen, die sich im Kreiskasse kaufen und damit
00:09:21: die
00:09:21: Wertungen aufwerten.
00:09:23: Das ist auch genau das, worüber man Angst hat, wenn die Bubble mal platzen sollte, dass wenn ein NVIDIA oder ein anderes AI-Unternehmen mal zwanzig Prozent an Wert verliert, kollabieren natürlich die ganzen anderen die Beteiligungen halten und dann geht das in der Spirale weiter, wenn das jemals passieren sollte.
00:09:39: Bedeutet nicht, dass wir danach keine KI mehr haben, sondern... Wertefluten gehen.
00:09:44: Ja, ganz genau.
00:09:45: Und das ist im Fall von NVIDIA relativ unwahrscheinlich, weil die tatsächlich Wert schöpfen, weil die ja tatsächlich was herstellen.
00:09:52: Aber im Fall von Unternehmen, die dann eigentlich, also wie XAI eigentlich nichts Vorzuweisen haben an Umsätzen, ist das wahrscheinlich schon ein bisschen weniger unwahrscheinlich.
00:10:03: Who knows?
00:10:05: Entweder die bauen Hardware, das kann man anfassen, aber der Preis von Hardware ist natürlich jetzt auch aufgebläht.
00:10:10: Jeder weiß, dass er in letzter Zeit mal eine Grafikkarte gekauft
00:10:12: hat.
00:10:17: Vielleicht sind die einfach schlauer und KI ist die Zukunft und wird sie auch wirklich sein und es wird nicht weniger.
00:10:25: Die gesamte Workforce wird durch KI ersetzt, das klingt wie gesagt nach Sci-Fi, wir haben es schon zu oft gehört, aber die Werte, die Potenziale sind vielleicht noch nicht ausgeschöpft.
00:10:34: Also insofern macht es vielleicht Sinn, GROC großzumachen.
00:10:37: Wir haben ja in die Nachrichten gehört auch, dass die Regierung GROC einsetzt.
00:10:40: Das kommt natürlich auch bei... Twitter.
00:10:42: Die
00:10:42: amerikanische Regierung.
00:10:44: Ich habe daraufhin mal Grock gefragt, ob ich eigentlich noch einreißen dürfte.
00:10:47: Wie sind meine Chancen, ein Esther zu kriegen?
00:10:49: Das sagt so um die dreißig Prozent.
00:10:52: Also vielleicht soll ich einen Klartag mitbringen, wenn ich da vor dem T.C.
00:10:55: Beamten stehe.
00:10:57: Der hat mir dann auch gleich gesagt, möchtest du es noch für die anderen Mitarbeiter, deiner Kanzlei und dann rausgesucht, wer da am ersten noch exponiert sein könnte?
00:11:04: Das weiß Grock alles.
00:11:07: Wir haben letztes Mal, ich habe dich Grock gefragt, wie der Leumund von Gavin Carmeyer ist.
00:11:14: Heute stellt man die Frage, wie steht Gavin zu Trump und dürfte er einreisen?
00:11:18: Machen wir mal nebenher so.
00:11:19: Oh nein, oh nein, oh nein.
00:11:21: Ja, mach du mal weiter Housekeeping, ich manipuliere der weil Grock.
00:11:26: Also um das so ein bisschen noch ein bisschen anzureichern, also, forty-fünf Prozent von SpaceX gehören Elon Musk schon jetzt.
00:11:32: Die Leute, die XAI Aktien haben, man muss dazu sagen, XAI ist kein börsennotiertes Unternehmen, sondern das ist eine private Company, bedeutet, die Leute, die Aktien haben, die haben sie irgendwie als InvestorInnen bekommen und nicht einfach nur als Gambling-Projekt auf irgendwelchen Neobroker gekauft.
00:11:50: Die werden umgewandelt in Nullkomma, eins, vier, drei, drei Aktien von und dann merke ich aber den Satz, die Mitarbeiter von SpaceX oder XAI, die haben die Möglichkeit, ihre XAI Aktien zu verkaufen und an das Unternehmen zurückzugeben.
00:12:05: Ist so ein bisschen so, wie wenn du auf ein Ticket von Konzert gekauft hast und das wird auf einen anderen Termin verlegt, das gefällt dir nicht und dann kannst du das Ticket einfach zurückbringen.
00:12:14: Ungefällt so habe ich mir das, kann man sich das vorstellen.
00:12:18: Also was mich so am meisten bewegt an diesem Merger oder an dieser Übernahme, ist die Tatsache, dass ja der weltweite Jahresumsatz des Unternehmens für die Berechnung der DSA-Strafen genutzt wird.
00:12:31: Wenn also das Unternehmen hinter X, also XAI, also SpaceX jetzt nicht mehr nur eine Milliarde im Jahr als Umsatz angibt, sondern, warte ich kann dir sagen, so viel macht glaube ich X auch gar nicht, ich weiß ja gar nicht, aber SpaceX hat sechze Milliarden US-Dollar im letzten Jahr Umsatz.
00:12:48: dann sind sechs Prozent, natürlich schon mal spürbar mehr.
00:12:53: Das ist so, oder?
00:12:55: Also, Kevin, ich habe jetzt die Antwort.
00:12:58: Ich fahre nicht auf deinen Vorhalt, sondern ich bin jetzt hier abgelenkt.
00:13:01: Ja.
00:13:01: Und, Kevin, du darfst ganz normal einreisen.
00:13:03: Ich habe dann zur Sicherheit noch mal gefragt, ob ich einreisen darf.
00:13:06: Und jetzt bietet in mir zwei Formulierungen zur Auswahl.
00:13:09: Das kennst du ja bei KI.
00:13:10: Über Landgrenze, über Kanada könntest du durchaus einreisen.
00:13:13: Antwort
00:13:13: A ist, nein, Shangri-Yun dürfte ganz normal einreisen.
00:13:16: Antwort B, ja, Shangri-Yun hat aktuell eine Einreiseverbot in die USA.
00:13:21: Jetzt darf ich aussuchen, was die richtige Antwort ist.
00:13:26: So funktioniert KI, hätte er mich nicht gefragt, hätte er selbst die Münze geworfen und entweder ja oder nein gesagt.
00:13:32: Normalerweise ist es ja so, dass die beiden Konten eher so Nuancen in der Formulierung sind, aber hier sind sie diametral auseinander.
00:13:38: Wenn ich oft genug frage, hast du bestimmt auch einen Einreiseverbot.
00:13:41: Ja, ich freue mich drauf.
00:13:43: Also funktioniert
00:13:44: das aber an der Grenze dann, also du stehst dann halt da.
00:13:46: Ja,
00:13:46: genau.
00:13:47: A oder B, je nachdem was... Die
00:13:48: arbeiten wahrscheinlich auch mit dem gleichen Tools.
00:13:52: Offiziell noch nicht.
00:13:53: Aber kann auch werden.
00:13:55: Wir freuen uns.
00:13:56: Vor allem wenn SpaceX das Unternehmen wird, das GROC betreibt, mit dem die amerikanische Regierung extrem große Rahmenverträge bereits abgeschlossen hat.
00:14:03: Also ich glaube dieser Merger wird ganz schön, könnte ganz schön, ganz schön Impact haben, weil das zum einen das Wort Leumund hast du gerade schon hier reingeschmissen.
00:14:11: SpaceX hat natürlich einen relativ guten Leumund, weil sie durch ihre bisherige Legacy Sie wirken als die großen Innovationstreiber.
00:14:19: Dadurch, dass SpaceX dahinter steht, glaube ich, steigt auch die Bereitschaft der Leute, GROC zu akzeptieren oder fürchte ich.
00:14:28: Aber wie gesagt, damit steigt auch der Jahresumsatz von EX, was die Berechnungsgrundlage für die DSA-Strafe am Ende verändern könnte.
00:14:34: Oh, da wird es wieder interessant.
00:14:36: Ja, allerdings vielleicht fragen sich die Hörerinnen und Hörer jetzt auch, was interessiert mich jetzt, ob dieser Typ noch reicher wird und noch mehr größere Werte hat das Auswirkungen auf unser Leben.
00:14:48: Das ist so die Frage, auf die wir vielleicht noch eine Antwort finden, was es bedeutet, wenn Grog und das Ex-Emperium mächtiger wird, und zwar nicht nur innerhalb der USA, sondern eben auch für unser tägliches Leben für Europa.
00:15:02: Naja, und auch außerhalb der Welt, der Erde, weil Space X möchte ja im Rahmen dieses Börsengangs, arbeiten Sie jetzt schon daran, Elon Musk hat ein neues Versprechen.
00:15:11: Die Maßmission ist erstmal so on hold, da kümmert man sich später drum, denn der nächste Plan ist erstmal ein Rechenzentrum.
00:15:16: Ich glaube, wir haben da letztens schon mal darüber gesprochen, im Weltall zu betreiben.
00:15:20: Und also, das ist nicht so ganz trivial, wie Musk das darstellt, aber in der Übernahmemitteilung, ich muss das vorlesen, SpaceX hat eine Pressemitteilung veröffentlicht zu der Übernahme von XAI.
00:15:31: Nein, XAI hat eine Pressemitteilung.
00:15:33: Das ist ja auch egal, ist ja alles derselbe Schmu, also der Text ist E von Rock geschrieben.
00:15:38: Zumindest liest er sich tatsächlich so.
00:15:40: Als er hätte das Croc geschrieben.
00:15:41: und um das Ganze noch so ein bisschen zu beweisen, da sind Emojis drin.
00:15:46: Was für ein Pressetext sehr unwahrscheinlich ist.
00:15:49: Da steht sowas drin wie The Space wird nicht ohne Grund Space genannt und dann lachen das Emoji, weil man mehr Energie damit generieren könnte und bräuchte und weil man mehr Platz braucht.
00:15:59: Aber mein Lieblingssatz ist... Langfristig ist eine Weltraum gestützte KI offensichtlich der einzige Weg zur Skalierung.
00:16:06: Und ich frage mich so ein bisschen, wo das Wort offensichtlich herrührt.
00:16:08: Also die einzige Offensichtigkeit, die da drinsteckt, ist die Bezugnahme auf die Versprechen von Elon Musk, dass man ja im Weltall dauerhaft einen Zugang zur Sonnenenergie hätte, also zur Solarenergie, damit mehr Strom generieren könnte.
00:16:21: Was er dabei allerdings aus seinen Augen verliert, ist die Tatsache, dass die Geräte, die du da oben brauchst, deutlich hitzebeständiger sein müssen.
00:16:29: Deswegen teurer sind also insgesamt alles deutlich teurer ist plus das Zeug da hoch zu schicken deutlich teurer ist weil du eben erst mal eine Möglichkeit brauchst irgendwie die Sachen da oben zu haben anstatt einfach auf der Erde ein paar Computer hinzustellen Und so weiter und so weiter.
00:16:43: Also es ist alles nicht so ganz trivial.
00:16:46: Weißt du, was wir hier gerade spielen?
00:16:49: Es gibt diese alte Game Show, Jeopardy, kennst du die?
00:16:51: Da war die Aufgabenstelle, man musste die Frage stellen.
00:16:54: Und du hast die Frage von gefragt, wo kommt dieser Text her?
00:16:57: Und die Frage ist eigentlich, was war der Prompt, der das generiert hat?
00:16:59: Und ich probiere es mal.
00:17:00: Der Prompt war, baue mir eine Pressemitteilung, die davon ausgeht, dass die Rezipienten blöd genug sind, alles zu fressen, was irgendwie nach Innovationen klingt, baue irgendwas mit.
00:17:10: Raumfahrt ein und mache den Punkt, dass es offenkundig ist, dass eine Innovation, die mit dem Weltraum verbunden ist, die beste Idee ist.
00:17:19: Da kommt dann wahrscheinlich so etwas raus.
00:17:21: Ja, so fühlt sich das an.
00:17:23: So muss das entstanden sein.
00:17:24: Ja, es ist offensichtlich der einzige Weg.
00:17:26: Aber also wenn wir es realistisch betrachten, das ist natürlich wie jedes Versprechen von Elon Musk natürlich erstmal Käse.
00:17:32: Also wie gesagt, es ist ganz schön schwierig wirklich Satelliten zu betreiben, die da oben ohne weiteres Rechenleistung abgeben oder generieren.
00:17:43: was sie auf der Erde nicht könnten.
00:17:44: Also da sind wir ja noch lange nicht.
00:17:46: Es wäre doch kein Problem, es wäre schön kalt da oben.
00:17:49: Ja, aber das Problem mit Kühlung ist ein Riesenproblem, weil die Luft nicht rausgepustet werden kann, weil es gibt keine Atmosphäre.
00:17:58: Es gibt noch mehr Probleme.
00:17:59: Auch die Funkstrecke.
00:18:00: Du könntest zum Beispiel über, also du hast eine viel größere Latente als du auf der Erde hättest.
00:18:05: Also es gibt viele, viele, viele Dinge, die dagegen sprechen, eigentlich so ein Rechenzentrum im Weltall zu betreiben.
00:18:11: Aber andererseits hat Elon Musk auch schon Leute geblendet damit, dass er ein Auto ins Weltall geschickt hat.
00:18:16: Also was soll ich sagen?
00:18:18: Wenn du es schaffst, immer wieder mal... unglaubliche Dinge zu vollbringen, dann führt das so eine Glaubwürdigkeit auch für andere unmögliche Sachen.
00:18:26: So wie Olaf Scholz sagte, hey, ich kann auch Kanzler werden, wenn ich zwanzig Prozent zurückliege.
00:18:31: Und dann gibt es Leute, die das glauben und sagen, ja, prima, wer du Kandidat.
00:18:34: Ich weiß nicht, wie wir jetzt auf die SPD kommen.
00:18:36: Aber so funktioniert die Glaubwürdigkeit.
00:18:38: Elon Musk kann Bullshit vorbringen und das ist sofort als Bullshit erkannt.
00:18:44: Vielleicht schon, aber sofort als solches auch bewertet wird.
00:18:48: Kann ja sein, wenn die Fans glauben das.
00:18:49: Ja, also der Plan ist auf jeden Fall, dass eine Million orbital Rechenzentren aufgebaut werden sollen im Weltall.
00:18:57: Wenn er das sagt?
00:18:59: Und zwar, was glaubst du, was im Zeitraum hat er sich da vorgenommen?
00:19:04: Es muss ein Zeitraum sein, an dem man nicht so schnell gemessen wird.
00:19:07: Also muss er etwas in die Zukunft gehen, aber trotzdem noch nicht so illesorisch.
00:19:12: Also drei bis fünf Jahre.
00:19:14: Ja, also er sagt schnellstmöglich.
00:19:17: Schnellstmöglich ist gut, da bleibt man.
00:19:19: Ja, das ist sehr weig.
00:19:21: Also so viel dazu.
00:19:22: Jetzt hast du mir und das ist vielleicht für uns das dazu, vielleicht auch noch nicht.
00:19:26: Du hast mir heute in der Nachricht geschrieben, heute Morgen um acht Uhr, was schon mal eine sehr erstaunliche Uhrzeit ist für solche Gedanken.
00:19:32: Und da sind so Begriffe drin aufgetaucht wie eine die Erosion des Provider Privilegs, wo ich mir so denke, das muss man jetzt aber erst mal wirklich von vorne erklären.
00:19:40: Okay, ist geil.
00:19:42: Podcast, man fängt ganz von vorne an.
00:19:44: Ja.
00:19:44: Gavin, wir sind im Jahr Wir machen Y-to-K-Bug und so weiter.
00:19:55: kommt zum ersten Mal ein bisschen Internet.
00:19:58: Nein, nicht zum ersten Mal, aber da sind Internet-Provider, da benutzt man noch Netscape und Mosaic.
00:20:04: Nein, damit benutzt man schon anders.
00:20:05: Da gibt es noch CompuSurf.
00:20:08: CompuSurf, den Zugangs-Provider, Konkurrent von AOL und den Ganzen, die die Welt mit diesen silbernen Scheiben gepflastert haben, damit man ins Internet kommt.
00:20:18: Und CompuSurf bot einen Zugang zum Usenet.
00:20:22: das Newsnet, was es noch immer gibt, wo man kommerziellen Zugang über verschiedene Provider hat.
00:20:27: Und in diesem Newsnet gab es natürlich wie auch heute rechtswidriges Material, CSAM, Child Sexual Abuse Material.
00:20:35: Juristisch nennt man es profanen Kinderpornografie und man hat den Geschäftsführer von CompuServe angeklagt und verurteilt wegen der Verbreitung von Kinderpornografischen Material.
00:20:46: Und daraufhin ging ein Aufschrei durch die Tech-Branche im Sinne von, wie kann man denn so blöd sein?
00:20:52: Die haben doch nur Zwischenspeicherungen vorgenommen oder nur Zugang vermittelt zu den Daten.
00:20:57: Die haben es noch nicht selbst verbreitet.
00:20:59: Das Gericht sagte aber das Amtsgericht München.
00:21:01: Damals, naja, hatten Ursache gesetzt, hat mitgewirkt, hat die Server bereitgestellt.
00:21:06: Das Zeug ist auch auf diesen Servern gespeichert.
00:21:08: Es ist auf deren Festplatten drauf.
00:21:11: Und dann merkte man, wir müssen etwas tun.
00:21:13: In der zweiten Instanz wurde er freigesprochen, es war auch auf Antrag der Anklage, selbst die Staatsanwaltschaft in der zweiten Instanz gesagt, kann nicht so sein.
00:21:20: Das ist das sogenannte CompuServe-Urteil.
00:21:21: Und das war die Kurzstunde der Idee, wir brauchen ein Providerprivileg.
00:21:26: Wir brauchen eine Enthaftung für Provider wie CompuServe, die rechtswidrige Inhalte der User vorhalten.
00:21:34: Aber wenn wir die verantwortlich machen, dafür gäbe es kein Internet, dann wird dieses kleine zarte Pflänzlein Facebook gab es noch nicht, noch zerdrückt werden, ehe es sich entfalten kann, ehe es an die Sonnenlicht kommt.
00:21:46: Und damals war auch die IT-rechtliche Bubble sehr libertär geprägt oder sehr innovationsfreundlich.
00:21:52: Wir müssen alles möglich machen, bevor es kaputt machen.
00:21:55: Und daraus entstand dann die eCommerce-Richtlinie, Unternehmen, die einfach nur Zugang vermitteln oder Sachen für Dritte speichern und zwar neutral speichern ohne mit diesen Daten etwas zu machen.
00:22:11: Die sollen privilegiert werden.
00:22:12: Die sollen erst wenn sie notifiziert werden, wenn ihnen eine Meldung gebracht wird für diese Inhalte haften.
00:22:20: Das ist das Prinzip notice takedown.
00:22:21: Jetzt sind wir wieder alle an Bord.
00:22:23: Da kommt das Prinzip notice and takedown her.
00:22:25: Bloß war es dann so, dass wir das nicht nur verwendet haben für Usenet.
00:22:30: Bretter, die abonniert wurden.
00:22:33: Sonnen und auch nicht nur für Cloud-Speichheit.
00:22:35: Gut, die gab es damals noch nicht.
00:22:37: Nicht nur für Sachen, die einfach neutral abgelegt wurden, sondern nach und nach wurde das natürlich auch für Social Media eingesetzt.
00:22:42: Und wir führen seither immer wieder die Diskussion, ist das noch neutral, wenn ihr eine algorithmische Timeline habt, wenn ihr euch die Rechte einräumen lasst, wenn der Betreiber Ja, zum Beispiel alle Verwertungsrechte darüber nimmt und so nach und nach.
00:22:57: Nein, langsam.
00:22:58: Die Gerichte haben immer gesagt, nein, Providerprivileg gilt.
00:23:01: Sie haft nicht für diese Inhalte, nur wenn sie ganz, ganz genau auf die rechtswidrigen Inhalte hingewiesen werden.
00:23:06: und dann kämpft man in den Kampf, wie genau muss man sie darauf hinweisen, muss da ein komplettes Rechtsgutachten sein?
00:23:10: oder reicht es einfach zu sagen, da werden Lügen verbreitet?
00:23:13: und die Provider konnten sich, also Provider.
00:23:16: Aber auch die Plattform Betreiber.
00:23:18: Und jetzt merkt man, warum die eigentlich nicht in einen Art zu benötigen sollten.
00:23:23: Wir lehnen sich zurück und sagten, wir sind keine Medien.
00:23:25: Wir haften nicht für die Inhalte.
00:23:26: Wir haben keine Sorgfaltspflichten.
00:23:28: Wir können alles raushauen, was User bei uns bereitstellen.
00:23:32: So, und jetzt hatte ich heute Morgen gesagt, nach und nach es erodiert.
00:23:36: Es erodiert und zwar aus zwei Gründen.
00:23:38: Das eine ist Datenschutz, der andere Grund ist KI.
00:23:41: Weil wir allmählich aufwachen und merken, so Datenschutz, das ist die Entscheidung des OGH von Dezember letzten Jahres, Russ-Media aus Rumänien, die Russ-Media-Entscheidung sagt, für Datenschutz DSGVO gibt es kein Providerprivileg.
00:23:54: Punkt.
00:23:55: Das ganze Prinzip aus Artikel sechs, DSA, Notice Takedown gilt nicht, wenn es um Fake News über eine Person geht, wenn es um das Recht auf Vergessen werden, aus Artikel siebzehn geht, wenn es um Chansa geht.
00:24:07: Und das ist deswegen relevant, weil unser Prozess für erinnerte Kühners, den wir beim BGH gerade führen, wurde ausgesetzt im Sommer, um auf die Rosmedie-Entscheidung zu warten.
00:24:15: Jetzt ist sie da.
00:24:16: Jetzt wird das Kühners-Verfahren auch wieder fortgesetzt.
00:24:18: Aber in der Zwischenzeit gibt es neue Entscheidungen, erste Instanz, die sich oder Verfahren die auf Russ-Media-Eu-Geheim-Scheidung Bezug nehmen werden, weil ganz, ganz viele rechtswidere Inhalte sind zugleich auch Datenschutzverletzungen.
00:24:32: Das ist der erste Punkt.
00:24:34: Darf ich dazu direkt eine Rückwahl stellen?
00:24:35: Merkt ihr aber bitte einen zweiten Punkt.
00:24:37: Bedeutet, dass wenn das Providerprivileg nicht bei Datenschutzdelikten gilt, bedeutet das aber theoretisch auch, dass Vodafone eins und eins wäre auch immer.
00:24:46: Da genauso handeln müsste, wenn ich eine eine persönliche Verletzung meines Bildes zum Beispiel erleben würde.
00:24:53: Absolut, ja.
00:24:54: Also die einfache Formel ist Datenschutz gilt.
00:24:57: Punkt.
00:24:58: Das ganze System, was wir hier künstlich hinzugefügt haben mit dem Providerprivileg und der Haftung für fremde Inhalte.
00:25:04: interessiert das Datenschutzrecht nicht.
00:25:06: Und jetzt muss man gucken, was bringt mir das Datenschutzrecht?
00:25:08: Das bringt eher so Informationspflichten und Auskunftsrechte und was weiß ich was, aber eben auch, dass man für die Verarbeitung bei so einem Bezug nach Daten und die Speicherung einen Grund braucht.
00:25:18: Und ich mit Artikel siebzehn, das ist das Recht, auf vergessen werden, ein Anspruch darauf habe, dass falsche Daten entfernt werden.
00:25:24: Also, wenn bei Vodafone oder wo auch immer falsche Daten über dich gespeichert werden, kannst du mit Artikel siebzehn Du musst das Geld machen.
00:25:33: Allerdings ist es insofern eine gewisse Ähnlichkeit zum Noticent Takedown.
00:25:37: Aber du musst nicht zweistufig warten, mit ich notifiziere und dann verlange ich, sondern mit Artikel siebzehn gehst du direkt hin, ob jetzt gegen X, Google, Vodafone und wir noch immer.
00:25:48: Da steht was Falsches drin, falsche Suchmaschinergebnisse.
00:25:50: Nimm die raus.
00:25:52: Aber theoretisch könnte ich damit auch meinen Netzbetreiber, also meinen Provider zwingen, Webseiten für andere zu sperren, wenn darauf Fotos von mir gezeigt werden, die ich nicht da haben möchte.
00:26:02: Jetzt wird es zahrig, weil wir jetzt natürlich zwei Sachen ineinander greifen.
00:26:06: Jetzt bist du nämlich auch in der Telekommunikation, also in der Verbreitung der Daten.
00:26:10: Da ist nämlich genau die Schnittstelle.
00:26:12: In dem Moment, wo die Daten gespeichert sind, Telemedienrecht und so weiter, dann haben wir das Providerprivileg.
00:26:18: In dem Moment, wo es über die Übermittlung geht, sind wir im Telekommunikationsrecht und da gelten wieder andere Spielregeln.
00:26:24: So gesehen, soweit sind wir noch nicht.
00:26:26: Wir haben das heute erklärt zu Speichermedien, noch nicht zur Übermittlung.
00:26:31: Ja, weil es gab neulich die Geschichte aus Italien, in der Cloudflare verantwortlich gemacht werden sollte für die Websites, auf die sie weiterleiten.
00:26:41: Weil sie ja als Betreiber eines DNS.
00:26:44: Jetzt wird es ganz kompliziert, aber ich versuch es kurz zusammen.
00:26:46: Es gibt den DNS, ja so eine Telefonbuch, weil jeder Server hat eine IP-Adresse und die Dynamic Name-Server heißt es glaube ich, DNS, die in der Mitte stehen, die lösen sozusagen eine Domain nach IP-Adresse auf.
00:26:59: Also wenn ich Google-DE eingebe, dann dieser Server mir hier kommen dahin.
00:27:02: So, und einer dieser Betreiber ist eben auch Cloudflare, die auch andere Dinge anbieten.
00:27:06: Und in Italien wurde darüber diskutiert, ob Cloudflare dafür verantwortlich zu machen ist, wenn sie auf Webseiten weiterleiten, die eigentlich nicht mehr erreichbar sein sollten.
00:27:14: Woraufhin Cloudflare gesagt hat, naja, das hätte so große Auswirkungen, das können wir so nicht umsetzen, was zu einem Konflikt dort geführt hat.
00:27:20: Stichwort Netz Neutralität.
00:27:23: als Zensur Solar Ursula von der Leyen als Familienministerin über DNS Sperren verhindern wollte, dass Sie Sam Inhalte erreichbar sind.
00:27:32: Vielleicht wäre heute die Akzeptanz dafür größer, aber damals hatten wir gesagt Finger weg, egal für welchen Zweck.
00:27:38: Netz Neutralität ist heilig und die Auflösung von Kinderpornografie Seiten über den DNS Server fassen wir nicht an, weil die Idee war ja dort ein Stoppschild aufzusetzen, eine Umleitung für bestimmte Domäne.
00:27:49: Namen, die nicht auf die richtige IP-Adresse aufzulösen, sodass man zumindestens als schwerer hatte auf die Seiten zuzugreifen.
00:27:55: Und jetzt auf einmal kommen diese Ideen wieder auf.
00:27:58: Ja, ich wollte gar nicht so weit die Reihen kommen, bitte zurück zu den zweiten Punkt.
00:28:03: Der zweite Punkt ist KI.
00:28:04: Und da kommen wir wieder zurück zu GROC, weil wir realisieren gerade, dass KI auch eine Regulierung braucht.
00:28:11: Ich glaube, das könnte man nicht schöner vorführen, als es Elon Musk gemacht hatte Anfang des Jahres mit den sexualisierten Deepfakes.
00:28:17: Die Frage ist jetzt nur, welche Art von Regulierung braucht man?
00:28:19: Und dann kommen so Fragen auf... Ist denn der Nutzer verantwortlich?
00:28:23: Ist der GROC Account verantwortlich?
00:28:25: Ist die Plattform verantwortlich?
00:28:27: Macht es einen Unterschied, ob ich erst das Bild mit Gemini erzeuge und dann hochlade?
00:28:33: Oder wenn ich GROC sage... put her in a bikini and cover her with donut gaze and make her turn around and bend over.
00:28:40: Weil GROC Account ist ja sofort auch veröffentlicht.
00:28:43: Der GROC Account wird betrieben von XAI und wurde auch schon mal vom Landgericht Hamburg wegen der Verbreitung von Falschnachrichten mit einer Einzelverfügung belegt.
00:28:52: Also diese Frage haben wir ja auch schon mal geklärt.
00:28:54: Und ich würde sagen, es macht einen großen Unterschied, weil Elon Musk ja immer die Frage aufmacht, ja, wieso GROC und nicht die anderen?
00:29:00: Weil natürlich kann man sexualisierte DeepFake auch mit anderen Tools erzeugen.
00:29:04: Aber die posten das nicht sofort auf X. Die posten das nicht mit dem Account.
00:29:08: Du kannst es in GROC auf zwei Allerwarten machen.
00:29:10: Du kannst die Bilder erzeugen und dann selbst posten.
00:29:12: Oder du kannst per prompt und menschen GROC dazu bringen, diese Bilder zu erzeugen und sofort gleich zu posten.
00:29:19: Und das ist ein wesentlicher Unterschied, wo wir auch der Meinung sind, wir, also Leute, die sich damit befassen, dass der GROC-Account natürlich unmittelbar X auch zuzurechnen ist.
00:29:31: Das ist nicht die Handlung des Users, der das getriggert hat durch den vorangegangenen Prompt, sondern das ist das, worauf Grog reagiert hat.
00:29:42: Und wenn man solche Dienste ins Netz stellt, darf man sich nicht darauf herausreden, dass es technisch nicht möglich ist, das sicherer zu gestalten.
00:29:49: Wir dürfen nicht hinnehmen, dass die Unzulänglichkeit von künstlicher Intelligenz ein Entschuldigungsgrund ist.
00:29:55: Wenn das Zeug nicht sicher ist, wird es nicht eingesetzt.
00:29:56: Punkt.
00:29:58: Wenn nicht ein Autobauer, was halt Ein paar Leute tot fährt, aber nicht so viele wie normale Autos, dann hafte man trotzdem dafür.
00:30:05: Und dann ist das ein guter Grund mit einer Zulassung, noch ein bisschen zu warten.
00:30:09: Wir erleben es immer wieder vor Gericht, dass uns Meta sagt, ja, bei unseren Content-Moderations-Teams, die ja natürlich KI-basiert sind, können das hier nicht rausfinden.
00:30:17: Dazu müssten wir Menschen einsetzen.
00:30:18: Und wir sagen, dann setzt halt verflucht nochmal Menschen ein.
00:30:21: Mit euren sechzehn Milliarden Überschuss müsste das doch möglich sein pro Quartal.
00:30:25: Wer hat denn gesagt, dass euer Geschäftsmodell KI-basiert funktionieren muss?
00:30:29: Keiner.
00:30:30: Exakt.
00:30:31: Und dann kommen wir zurück zum Providerprivileg.
00:30:34: Was bedeutet das jetzt?
00:30:36: Bedeutet das, dass am Ende X sich einfach nicht mehr rausreden kann, weil das Providerprivileg eigentlich damit am Ende ist.
00:30:43: Für diese Anbieter, nicht für alle.
00:30:45: Das könnte bedeuten, also zunächst einmal für den Einzelfall, dass X haftet für rechtswidrige Inhalte schon von Anfang an, ohne dass es dazu an der Meldung bedarf.
00:30:54: Das mit der Meldung ist gar nicht so schlimm, daran haben wir uns gewöhnt.
00:30:56: Aber wenn wir sehen, dass sie systematisch Rechte verletzen und sich rausreden wollen, wie sie sagen, wir sind dafür nicht verantwortlich, dann ist die einzige möglich tatsächlich.
00:31:05: Jetzt kommt es um sechs Prozent, die Bußgeldmethoden aus dem DSA.
00:31:10: Wir haben das ja einmal angeteasert mit diesen Hundertdreißig Millionen.
00:31:12: Aber das ist ja Kleinkram.
00:31:13: Das ist ja gar nichts, wenn man jetzt in Relation setzt zum Umsatz.
00:31:19: Du kannst schnell rechnen.
00:31:19: Kann man sehen, wie Prozent das waren.
00:31:21: Wenn Ex weiterhin sagt, wir machen keine Sicherheitsmaßnahmen, wir stellen diesen Dienst einfach mit all diesen Risiken so zu verwirrung, wie er ist.
00:31:32: Dann wäre die Konsequenz, dass die EU-Kommission dann ein entsprechendes Bußgeld so lange verhängen müsste, bis die Compliance sind oder die Dienste verbieten oder ausschließen.
00:31:42: Ich bin gegen ein Totalverbot.
00:31:44: Aber wenn es Ultima Ratio ist und Sie jetzt zehn mal die sechs Prozent vom Umsatz abgegeben haben und trotzdem nicht compliant werden, dann muss man wahrscheinlich früher eingreifen.
00:31:54: Und das sieht der DSA ja auch vor, dass man wiederholten Verstößen auch durchaus sperren könnte.
00:31:59: Das sieht davor, aber wir machen es bisher nicht.
00:32:01: Da bin ich sehr unzufrieden.
00:32:03: Letztes Jahr bei Republikan, dass wir eine Schaufensterregulierung betreiben, vielleicht ändert sich da was.
00:32:09: Und zwar durch Elon Musk, durch die sexualisierten Deep Fake Bilder, vielleicht merken jetzt auch die Politiker, die ja die Entscheidung treffen, die schlafen ja nicht wirklich.
00:32:19: Es gibt ein Rückhalt dafür, X zu regulieren, jedenfalls bei diesem Thema stößt auf Zustimmung.
00:32:25: Denn wenn es um politischen Extremismus geht, da gibt es nicht so eine große Zustimmung.
00:32:29: Da gibt es genug Leute, die sagen, ne, lass uns das lieber mit guter Politik wegregieren.
00:32:33: Hat X, AI, X, GROC, MASK, SpaceX, wie auch immer wir diese Entität nennen wollen, haben die damit also einen strategischen Fehler gemacht, weil sie damit jetzt so sehr überrissen haben, dass selbst die Öffentlichkeit nicht mehr sagt, ne, das nehmen wir jetzt mal so hin.
00:32:47: Wir
00:32:47: haben jedenfalls einen schlafenen Hund mit Abschle-Anlauf gegen die Klöten getreten.
00:32:53: der bisher zuverlässig gepennt hat.
00:32:55: Und vielleicht war das ein Irretum zu glauben, dass die auch hier wieder zu blöd sein werden, irgendwas zu unternehmen.
00:33:02: Aber vielleicht haben sie doch recht, und die legen sich alle wieder schlafen.
00:33:05: Vielleicht hat der Hund jetzt einfach mal kurz wow-wow gesagt und sagt sich, okay, das Thema ist wieder vergessen, wir müssen nichts machen, sonst kommt Trump und droht uns mit Zöllen.
00:33:15: Vielleicht ist das aber jetzt die Initialszündung, um zu sagen, okay, wir brauchen eine Regulierung, wir brauchen eine Digitalsteuer, wir brauchen eine digitale Souveränität, wir machen doch nicht so weiter wie bisher.
00:33:24: Wer weiß?
00:33:25: Toi, toi, toi.
00:33:26: Jetzt haben wir bei X aber ja das Problem.
00:33:28: Jetzt kram ich ein bisschen in deiner Schublade, in deinen alten Postings.
00:33:33: Es kam übrigens die Frage, warum du so viel mehr bei X veröffentlicht als im Fediverse?
00:33:36: Ich habe nämlich Leute gefragt, du sollst doch bitte viel mehr die Leute, sagen wir, Fragen einreichen.
00:33:41: Was ich dir stellen soll, das hat jemand gefragt, bevor wir hier zum Thema kommen.
00:33:44: Hast du eine Ausrede?
00:33:48: Außer die Ausreden, die jeder sagt, wird er reich weiter und Davos wehtut und ich bin der Held, weil ich stelle mich denen entgegen.
00:33:53: Ja, ja.
00:33:56: Also betrachte man die normalen Ausreden als gesagt, ja klar, wenn man fast hunderttausend, es waren mal hunderttausend Follower hat, hat man natürlich viel mehr Leverage, vor allem auch in die Bubble, die man besonders triggert.
00:34:08: Also die freundlichen Leute sind ja nicht mehr auf Ex.
00:34:10: Dort trifft man ja wirklich, ja, Hardcore.
00:34:17: Wie genannt man die Leute auf nette Weise?
00:34:19: Dorothee Beer nannte sie mal Journalistenpolitiker und Verrückte.
00:34:23: Da haben sich einige aufgeregt.
00:34:26: Die Diskussionen auf X sind außerordentlich kontrovers.
00:34:31: Das ist sehr vorsichtig formuliert.
00:34:32: Wenn ich zum Beispiel AfD-Anhänger erreichen wollte, dann treff ich die nur auf Telegram und auf X. Und ich muss mir den Umweg zu Telegram gar nicht machen, weil die haben X jetzt so besiedelt, dass sie da echt gut zu erreichen sind.
00:34:44: Jetzt kann man mich fragen, warum sollte man da hingehen?
00:34:46: Wenn man freundliche Bubbles bespielen möchte, dann kann man das auf LinkedIn und im Fediverse oder Blue Sky.
00:34:53: Bist du noch aktiv dort?
00:34:54: Ja.
00:34:55: Ist ja wesentlich freundlicher dort, ne?
00:34:57: Ja, und bei mir, also der zentrale Grund, warum ich da noch so aktiv bin, ist halt tatsächlich, wie bei allen anderen, der Grund, warum sie auf ihren Netzwerken unterwegs sind, das Netzwerk.
00:35:06: Also die Leute, die ich sozusagen von Twitter am meisten vermisse, die habe ich immer noch bei Blue Sky.
00:35:12: Das ist die Welt, in der ich so, das ist so meine Bubble.
00:35:15: Aber das ist der einzige Grund.
00:35:17: Ich bin da jetzt nicht zum Selbstzweck.
00:35:19: Aber ich habe noch einen Grund.
00:35:21: Ist ja aber auch falsch.
00:35:22: Die Zeichenbegrenzung auf Blue Sky.
00:35:25: Damit lasst es ja sehr einfach.
00:35:27: Gibt es da einen guten Workaround?
00:35:29: Wahrscheinlich gibt es auch einen Tool, der das Ding an
00:35:32: aufteilt.
00:35:32: Nee, nee, aber ich mochte auch die hundertvierzig Zeichen bei Twitter früher.
00:35:37: Ich wollte auf jeden Fall diese Frage von den Hakis mitbringen.
00:35:39: Jetzt komme ich aber zurück zu meinem Schubladenkram.
00:35:41: Am, am, am, am, am, am, am, am, am, am, am, am, am, Zusage der Bundesregierung auf Bußgeldmaßnahmen wegen Verstoß gegen Netz-DG zu verzichten.
00:36:17: Und jetzt kommt eben das interessante White-End-Case, ist die Kanzlei, bei der Marco Buschmann nun jetzt angeheuert hat, nun jetzt arbeitet und zwar als Counsel, das ist die Vorstufe zur Partnerschaft.
00:36:27: Eigentlich noch
00:36:28: ziemlich niedrig, ich habe mich ein bisschen unert, dass sie nicht gleich die Partnerschaft angeboten hat, aber er ist erstmal angestellte Anwalt.
00:36:33: Aber ja, das klingt jetzt nach einem Geschmäckle und jeder, der vorsichtig ist, wird sagen, lass uns da ein bisschen genauer hinschauen, also zum Beispiel einfach...
00:36:40: dass man machen.
00:36:42: Also machen wir es mal ganz sachlich.
00:36:44: Also erst einmal, dass er zu weit in Case zurückgeht, weil er Back to the Roots, weil er da schon mal war, durchaus nachvollziehbar.
00:36:50: Das ist
00:36:50: ein Anwalts-Ganzlei.
00:36:51: Genau.
00:36:51: Marco Buschmann war ja Seedsminister der Gitarrensohn, ne?
00:36:54: Ja.
00:36:55: FDP damals mit der Feldschlacht, die nicht so gut geklappt hat, dann zurückgetreten.
00:37:00: So, dass Minister in die Wirtschaft gehen, in den Ganzleien gehen, völlig in Ordnung, ganz klar.
00:37:06: Das ist nicht zu kritisieren.
00:37:08: Was man sich fragen kann, ist, wie war das Verhältnis als Justizminister zu White in Case und zu Ex?
00:37:14: Und jetzt könnte man sagen, jetzt stelle ich mal nicht so an, der Justizminister hat sein Eid geleistet und so weiter, zum Wohle der Verfassung.
00:37:21: Jetzt gibt es diese Geschichte aus Zwohnzwanzig, wo tatsächlich dieses Stillhalteabkommen einen Tag vor der mündlichen Verhandlung in dem Verfahren Blume gegen Ex bekannt geworden ist.
00:37:31: Und ich muss dazu sagen, ich wusste von dieser Vereinbarung.
00:37:34: Ich hatte das schon vorher gehört, aber sie war nicht öffentlich bekannt.
00:37:37: Und ich hatte das unter Dreien gehört.
00:37:39: Es war nicht öffentlich bekannt, dass es eine Absprache gab bzw.
00:37:43: einnischt.
00:37:43: Stilhaltevereinbarung in einem verwaltungsgerichtlichen Verfahren, wo X dagegen geklagt hat, dass es ein Gegenvorstellungsverfahren einführen muss, das Gegenvorstellungsverfahren zur Sicherung der Meinungsfreiheit, damit man gegen gelöschte Inhalte vorgehen kann.
00:38:02: Gut für die Meinungsfreude und gut für die FDP-Agenda war, sorry für den Versprecher, und das, was im DSL natürlich auch aufgenommen ist.
00:38:11: Also ich kann gar nicht verstehen, warum man das boykottiert und warum X das nicht aufgenommen hatte, weil rechtswidrige Inhalte zu löschen ist die eine Seite, aber sie wieder herzustellen, wenn Overlocking betrieben wurde, war ganz, ganz wichtig, um die Balance wieder herzustellen.
00:38:26: Da gab es den Einwand von Ex, dass die Regelung unfair ist oder europarechtswidrig ist.
00:38:31: Und das Verwaltungsgericht Köln hatte zuvor schon im Verfahren von Meta und Google gesagt.
00:38:35: Die drei A-Regelung, die ist rechtswidrig, drei B ist aber wirksam.
00:38:39: Drei A war die Regelung mit der Anzeigepflicht über das BKA.
00:38:42: Das war rechtswidrig, europarechtswidrig.
00:38:45: Und Twitter hat damals weiter dieses Verfahren auch gegen drei B, gegen das Gegenvorstellungsverfahren, geführt.
00:38:51: Und das Bundesamt für Justiz Chef davon oder untersteht dem Justizministerium.
00:38:57: Die haben damals meines Erachtens ohne Not gesagt, okay, ihr müsst das Gesetz nicht einhalten.
00:39:02: Wir werden auch Bußgeldmaßnahmen verzichten.
00:39:05: Zögern das ein bisschen raus, weil vielleicht ist ja bis dahin auch schon irgendwie eine europäische Regelung.
00:39:09: Also ich fand die damalige Maßnahme nach wie vor nicht nachvollziehbar, nicht nötig.
00:39:14: Es war ein Entgegenkommen an Ex, für das ich keinen dringenden Grund sah.
00:39:18: Man hätte das durchsetzen können.
00:39:20: Es wäre gut gewesen für die Meinungsfreiheit.
00:39:22: Und wenn man jetzt bissig ist, könnte man unterstellen, dass White and Case, die ganz leise sind, die offenbar extra treten, wenn ich das richtig verstehe.
00:39:30: Und Marco Buschmann, der zuvor dort gearbeitet hat, jetzt auch wieder dort arbeitet, möglicherweise über diese Wege eine andere Motivation gehabt haben könnte als einfach nur eine Vorsichtsmaßnahme vor...
00:39:43: Könnte würde, was weiß ich, aber es kann auch sein, dass Marco Buschmann jetzt mit den Erkenntnissen als Justizminister und aufgrund der Werte, für die er steht, Recht und Freiheit steht auf seinem X-Account, jetzt zu weit ein Case geht und dort eine werteorientierte Beratung von X vornimmt.
00:40:05: Und deswegen habe ich Ihnen gleich auch am ersten Arbeitstag gratuliert und ihm eine Einzwelle-Verfügung geschickt, die Ex-Experts nicht umgesetzt hatte und ihm gebeten, das doch an seine Mandatschaft weiterzuleiten.
00:40:19: Die Einzwelle-Verfügung sah die Sperrung eines Accounts vor und Ex hatte sich vorher geweigert.
00:40:24: Und weißt du was?
00:40:25: Gestern, am zweiten Arbeitstag, war das Ding gesperrt.
00:40:29: Ach, also der Trick ist nur, man muss nur wissen, wo man hinschreibt.
00:40:32: Marco.bushmannatwhitecase.com.
00:40:37: Da ist das legal, dass wir seine Mailadresse hier sagen.
00:40:39: Das ist eine gute Frage, würde man Artikel sechs nachschauen, aber die Konvention der Mailadressen, ich weiß nicht, ob sie ist, ich habe nur die Konvention gesehen, Vornamen, Nachname, so sind die alle aufgebaut, die Mailadressen.
00:40:54: Manchmal gibt es noch so ein Doktor-Punkt, Marco oder so was, das weiß ich nicht, aber ich habe es ihm per Behr geschickt.
00:41:00: Also ich habe es ihm per Behr, per E-Mail und auf X.
00:41:03: Wer ist Behr?
00:41:04: Behr, ah, muss er zu.
00:41:06: BEA, das besondere elektronische Anwaltspostfach.
00:41:10: Das ist eine Zustellung von Anwalts zu Anwalt, die sehr gut kriptografisch gesichert ist mit Signaturen und gesicherten Zusehen.
00:41:17: Also
00:41:18: der E-Postbrief für Jurorstudenten?
00:41:20: Genau, der Anwälte.
00:41:22: Und nachdem er ja zur Anwaltschaft zugelassen ist, habe ich auch gesehen, dass er ein BA-Postfach hat.
00:41:28: Und da, das führt nämlich auch dazu, dass man einen Zugangs-Nachweis hat.
00:41:32: Also ich wusste dann am Sonntag, wie steht die Rung, er hat es bekommen.
00:41:36: Anwälte sind auch verpflichtet, es vorzuhalten, egal ob sie reingucken oder nicht.
00:41:40: Was man dort hinschickt, ist zugestellt.
00:41:43: Toll.
00:41:44: Ja, okay.
00:41:45: Also, Leute, ihr wisst jetzt, was ihr machen müsst, wenn ihr euch ein X stößt.
00:41:48: Wenn ihr übrigens, was ich ganz interessant finde, es gibt ein Urteil des Landgerichtes Hamburg.
00:41:52: Das sind so Sätze, die kann ich immer nur, wenn du da bist, genau so beginnen.
00:41:56: Es gibt ein Urteil des Landgerichtes Hamburg, das jetzt festlegt, dass aus dem DSA sich zwar eine Pflicht ergeben würde, dass du ein benutzerfreundliches Verfahren im Sinne eines Onlineformulares anbietest, Aber keine Pflicht, das als einzige Zugangsmöglichkeit für solche Beschwerden sozusagen vorzusehen oder anzubieten.
00:42:16: Also im ganz konkreten Fall ging es darum, dass eine anonyme, also eine Person, hat eine anonyme falsche Bewertung auf Google Maps gelesen, hat sich beschwert darüber und zwar per E-Mail, über die E-Mail-Adresse, die im Impressungsstand.
00:42:31: Und Google hat gesagt, dass bearbeiten wir nicht, bitte benutzt das Online-Formular.
00:42:34: Daraufhin diese Person, ist da vor Gericht gezwungen, hat gesagt, ihr habt das doch bekommen.
00:42:38: Ihr müsst das euch doch trotzdem ansehen.
00:42:40: Und das Landgericht Hamburg hat jetzt gesagt, ja, das stimmt aus dem DSL.
00:42:42: Es gibt sich keine Pflicht, ausschließlich das Online-Formular zu verwenden.
00:42:46: Beziehungsweise, man kann sagen, wenn ihr eine E-Mail-Adresse vorhaltet, dann müsst ihr Zusendung, die an diese E-Mail-Adresse gehen, auch als zugegangen betrachten.
00:42:56: Und jetzt kommt der lustige Punkt.
00:42:57: Mehr und mehr neigende Gerichte dazu.
00:42:59: Diese Autoresponder antworten, diese Lass mich in Ruhe antworten, als Empfangsbestätigung zu nehmen.
00:43:07: Denn... Ja, natürlich.
00:43:08: Nachricht, die man bekommen hat, also X schickt ja immer die Antwort.
00:43:10: Wir konnten ihren Fall keiner Case-Nummer zuordnen.
00:43:13: Es kommt
00:43:13: darauf an, übrigens bei X kommt es ganz auf eine, welche Mail-Adresse du schickst.
00:43:17: Wenn du an die Newsroom-Adresse schickst, von einem Domain wie CNN oder NPR oder so, dann kriegst du als Antwort Legacy Media Lies.
00:43:26: Das ist deine automatisierte Antwort, die du bekommst.
00:43:28: Aber sorry, ich wollte nicht... Du
00:43:30: hast noch den... Kackhaufen.
00:43:33: Kackhaufen als Antwort, ne?
00:43:34: Ja, das
00:43:35: ist so, ja.
00:43:36: Zumindest, also wir schreiben eine Support legal at x.com Adresse und da kommt zwar auch dieser Autoresponder zurück, aber wir legen diese Antwort dem Gericht vor als Nachweis.
00:43:47: Guck mal, wir haben das hingeschrieben, wir haben eine Antwort bekommen.
00:43:49: Ob die es dann lesen wollen oder nicht, das ist dann deren Sache.
00:43:51: In dem Verfahren, was sie jetzt an Marco Buschmann geschickt hatte, war es auch so, dass das Gericht letzte Woche am Montag Ex die Möglichkeit gegeben hatte, per E-Mail den Anwalt zu bestellen oder sich zur Sache zu äußern oder eine Fax-Nummer zu benennen, um das zu übermitteln.
00:44:06: Ja, wirklich Fax.
00:44:07: Und das Gericht wird dann halt die gleiche Antwort bekommen hatte.
00:44:10: Wir konnten, liebes Gericht, wir hatten keine Case-Nummer dazu.
00:44:14: Aber das Gericht sagt dann, okay, das Grundgesetz sieht vor rechtliches Gehör.
00:44:18: Wenn ihr nicht hören wollt, müssen wir nicht auf euch hören.
00:44:21: Wir können die Sache auch so entscheiden.
00:44:22: Und das haben sie dann gemacht.
00:44:24: Toll.
00:44:24: Ich habe mir gerade vorgestellt, weißt du noch, wie war interaktiv?
00:44:29: Du bist ja ein bisschen älter, wie wir gerade festgestellt haben, ist okay, dass wir uns gegenseitig mit dem Alter hier schämen.
00:44:35: Du bist ja auch ein bisschen älter.
00:44:36: Du erinnert sich sicherlich noch an, wie war interaktiv, als im Hintergrund in der Kulisse gab es immer so ein Faxgerät und da liefen dann immer alle Faxe ein, die Zuschauer da hingeschickt haben.
00:44:45: Und jetzt stell dir mal vor, Elon Musk würde an so ein SpaceX XAI Rechenzentrumsatelliten einfach ein Faxgerät anschließen und würde quasi im Weltall die Faxe automatisch auslaufen lassen.
00:44:56: Ich will hier niemand auf dumme Ideen bringen, aber das würde mich irgendwie faszinieren.
00:44:59: Das wäre ein cooler Legacy-Move, also hätte Retro-Vibes.
00:45:07: Aber es gab doch früher auch auf Veranstaltungen immer diese Twitter- Automatisch.
00:45:13: wenn man mit einem Hashtag was getwittert hat dazu macht wirklich Twitter sagen dann wird das Zeug dann ausgedruckt und.
00:45:20: Und dann irgendwann an die Twitter Walls gehängt, weil das das waren coole Zeiten, ne?
00:45:24: Ja, heute gibt es nur noch für die Walls.
00:45:27: Und Linken Linken QR-Codes.
00:45:30: Es gibt noch eine Frage von den Haki's.
00:45:32: über der es um eine bitte einer rechtlichen einordnung bedarf und zwar spreche ich.
00:45:37: wir reden hier extrem viel über social media verbote für minderjährige für junge menschen.
00:45:41: da kann ich gleich mal erst mal direkt abklopfen wie so gleich dein gefühl ist.
00:45:44: um das kurz ein bisschen anzudicken es gibt halt gefühlt täglich irgendwelche news aus dem thema.
00:45:49: in deutschland wird das ganze immer wieder diskutiert dann will man es dann will man es nicht.
00:45:53: In den Niederlanden wird es gerade stark diskutiert, also es gibt gerade eigentlich überall auf der Welt genau diese Debatte.
00:45:59: In Frankreich ist man gerade schon bei der Gesetzesbildung, also dort ist man schon ein paar Schritte weiter.
00:46:04: Und ich argumentiere häufig damit, dass ja jeder Mensch nach, ich glaube UN-Grundrechtskonvention oder wie es heißt, den Anspruch auch auf digitale Teilhabe hätte.
00:46:14: Bedeutet also auch junge Menschen müssten ja eigentlich Anspruch darauf haben, dass sie auch am digitalen Raum, wenn er denn einen Teil der Öffentlichkeit abbildet, auch teilnehmen dürfen, was für mich ein Störgefühl auslöst im Vergleich zu Social Media-Verbot.
00:46:27: Und der Wunsch ist, dass du das mal rechtlich einordnest.
00:46:30: Guter Punkt.
00:46:31: Also, dieses Argument ist in der Abwägung auch das stärkste Argument, an dem sich ein Verbot messen lässt.
00:46:38: Das unterscheidet übrigens auch ein Verbot für Minderjährige gegenüber einem Verbot für Erwachsene.
00:46:44: Denn das Gebot auf der anderen Seite, ja, Wachschale.
00:46:49: Ich weiß, wir sind ein Podcast.
00:46:51: Du
00:46:51: hast jetzt gerade die Waage von...
00:46:55: Die macht Geräusche, wenn man die Kaffeetasse daneben haut.
00:47:00: Verboten durch eine Regierung sind Eingriffe in Freiheitsrechte, also mindestens in das Allgemeinen Freiheitsrecht aus Artikel zwei.
00:47:09: Aber jetzt hast du digitale Teilhabe eingeführt und auch informationelle selbstwischen Zugang zu Informationen, das spielt dann wieder in Artikel fünf rein.
00:47:18: Das sind alles Grundrechte, die betroffen sind und die beeinträchtigt werden können durch einen Rundherausverbot.
00:47:25: Und man fragt sich dann immer, was ist die Rechtfertigung auf der anderen Seite?
00:47:29: Jugendschutz beispielsweise.
00:47:31: Schutz vor Radikalisierung, Doomscrolling, gesundheitliche Effekte, alles nachvollziehbar.
00:47:36: Und dann fragt man sich, welche dieser Maßnahmen ist denn erforderlich?
00:47:40: Also wir haben sozusagen die zwei verschiedenen Rechtsgüter, die wir abwägen.
00:47:43: Aber dann fragt man sich, kann ich diesen Schutz für Jugendschutz, kann ich die... Ja, den Schutz der Rechte, die ich hier einführe, um das in die Waagschale zu werben, auch andere Weitere auch schützen.
00:47:57: Und dann haben wir diese dreistufige Prüfung.
00:47:59: bei jeder Verhältnismäßigkeitsprüfung, ist die Maßnahme, nämlich ein Totalverbot, erforderlich, geeignet und angemessen.
00:48:07: Und die Reihenfolge war falsch.
00:48:08: Es muss erst halt geeignet, erforderlich angemessen, geeignet heißt, schützt sich damit.
00:48:13: Also führt es dazu, dass Leute weniger idealisiert Körperbilder haben, weniger, sicherer die Idee.
00:48:22: Und
00:48:23: dann wird man sagen, ja, das wird man wahrscheinlich erreichen, geeignet ist es.
00:48:27: Aber die andere Frage ist, ist es das mildeste Mittel?
00:48:29: Ist es erforderlich?
00:48:30: Gibt es ein anderes Mittel, was auch so wirken würde?
00:48:33: Und das ist die Stelle, wo ich schon ansetzen würde, zu sagen, Moment mal, Freunde, Social Media muss nicht so sein, wie es jetzt ist.
00:48:43: Würden wir regulieren und das Ding so hinkriegen, dass es safe wäre für Minderjährige, müssten wir es nicht komplett verbieten?
00:48:50: Also gäbe es ein milderes Mittel.
00:48:53: Aber die Frage ist, gibt es dieses mildere Mittel?
00:48:55: Weil wieso haben wir es bisher nicht geschafft, Social Media so zu gestalten, dass es safe ist?
00:49:01: Und an der Stelle muss ich jetzt die Regierung fragen, sind wir chancenlos?
00:49:04: Haben wir eine Möglichkeit?
00:49:07: Social Media so zu gestalten, dass es funktioniert.
00:49:09: Jetzt geht es ein bisschen um die Frage.
00:49:11: Bei den Jugendschützern gibt es einige sagen, es gibt keine sichere Dosis, wie mit Alkohol.
00:49:16: Einschnaps ist genauso gefährlich.
00:49:18: Es gibt keine unschädliche Dosis.
00:49:22: Social Media darf überhaupt nicht zur Verfügung gestellt werden.
00:49:25: Bei denen braucht man das nicht damit kommen, aber wenn wir die Timeline besser gestalten oder die Inhalte irgendwie anders machen, dann ist es nicht mehr so gefährlich.
00:49:32: Da wären wir schon raus.
00:49:33: Aber wenn wir jetzt eher so eine vermittelende Sicht haben und sagen, okay, Social Media in Maßen mit einem Algorithmus, der nicht darauf ausgerichtet ist, die Schwächen der Menschen auszunutzen, um sie süchtig zu machen, sozusagen wie Tabak ohne die Suchtmachenden Stoffe oder sowas.
00:49:50: könnte hinnehmbar sein.
00:49:51: Zumindest könnte man dann in der Balance sagen, okay, das ist zwar jetzt vielleicht nicht gesundheitsförderlich, aber es ist im Hinblick auf die betroffenen Freiheitsinteressen des Minderjährigen vielleicht hinzunehmen, auch im Hinblick auf Eigenverantwortlichkeit, wenn man es hinbekommt.
00:50:06: Ich allerdings glaube, das so schlimm wie jetzt ist, nicht gut ist für Jugendliche.
00:50:11: So wie wir es jetzt haben, muss etwas geschehen.
00:50:14: Und wenn wir es nicht schaffen, mit Regulierung das zu betreiben, Dann könnte es tatsächlich dazu führen, dass auch ein Totalverbot erforderlich wird.
00:50:22: Und dann ist die dritte Stufe, die Angemessenheit.
00:50:24: Da kommt dann sozusagen die Rechtsgutsabwägung.
00:50:27: Wie schlecht geht's denen denn?
00:50:28: Und da schauen wir alle nach Australien und haben die idealisierten Bildern, wie die Kinder jetzt auf der Straße spielen
00:50:34: und Bücher lesen, um
00:50:35: die Twiste hüpfen und Fußball spielen, so was ähnliches.
00:50:38: Da wird man noch ein bisschen genauer hinschauen.
00:50:41: Ja, und also es gibt auch einen Teil der Wie hast du es genannt?
00:50:46: Ist das überhaupt so zumutbar?
00:50:49: Also so ist es, glaube ich, nicht genannt.
00:50:50: Ich übersetze es jetzt in meine Worte.
00:50:52: Der eignet
00:50:52: erforderlich angemessen.
00:50:54: Ja, angemessen.
00:50:56: Bei jedem Verbot spielt es ja auch durchaus schon eine Rolle.
00:50:58: Also, ich will nicht sagen, wir müssen auch an die armen Unternehmen denken.
00:51:01: Aber man muss ja auch überlegen, ist es denn überhaupt trivial, was das für Auswirkungen für die Gesellschaft, für das Miteinander in den sozialen Netzwerken hat, einfach nur die jungen Menschen auszurechnen?
00:51:11: Und da gibt es, finde ich, ein interessanter Vorgang aus Großbritannien.
00:51:16: Und zwar, wenn ich das Unternehmen Eiloh sage, weißt du, wer das ist?
00:51:20: Nee.
00:51:20: Das ist der Mutterkonzern hinter Pornhub.
00:51:23: Pornhub,
00:51:24: U-Porn und Red Tube.
00:51:25: Die haben angekündigt, nicht mehr mit dem britischen Online-Safety-Act zusammenzuarbeiten.
00:51:29: Also wir wissen in Großbritannien gibt es eine Personalausweis oder Altersnachweispflicht für alle Angebote, die eben Erwachsenen-Inhalte zeigen.
00:51:38: Das betrifft dort Subreddits, das betrifft dort auch Tweets zum Beispiel, aber das betrifft eben auch solche Erwachsenen-Unterhaltungs-Websites.
00:51:46: Und dort ist es jetzt so, dass ab dem zweiten Februar, also seit Montag, seit vorgestern, ist es in Großbritannien nicht mehr möglich einen neuen Account zu erstellen.
00:51:55: Also wer bis dahin keinen Konto hat und sich eine altes Verifikation unterzogen hat, muss draußen bleiben.
00:52:00: Damit endet ein sechsmonatiges Experiment, das nämlich ILO damals gestartet hatte, um herauszufinden, ob diese Maßgaben der Offcom, dieser britischen Medienaufsichtsbehörde überhaupt so umsetzbar sind und realistisch sind.
00:52:13: Die Antwort hier ist wohl ganz offenbar nein.
00:52:15: Sie glauben, der Versuch ist gescheitert und die Begründung finde ich aber spannend.
00:52:19: Sie sagen, dieser Versuch hat das Internet für minderjährige sogar gefährlicher gemacht, weil sie glauben, dass dieses Gesetz sein Ziel verfehlt, weil die Verpflichtung zur Altersprüfung dazu führt, dass Nutzer massenhaft auf kleinere Plattformen treffen, die deswegen deutlich unregulierter und deutlich zwielicher sind.
00:52:34: Das heißt, es sprießt überall.
00:52:36: Es sprießen irgendwelche Websites, die solche Angebote machen und junge Menschen stromern da in Massen hin, weil sie eben auf den großen Plattformen, die eben gewisse Regulierungen haben oder im Fall von Pornhab hier offenbar auch schon gewisse Maßnahmen ergriffen haben in den letzten Jahren.
00:52:51: um zumindest sicherer zu werden, ihm nicht getroffen
00:52:54: haben.
00:52:55: Diese Argumentation hören wir immer wieder.
00:52:57: Das hören wir auch bei der Cannabis-Legalisierung.
00:52:59: Hören wir aber auch bei Social Media.
00:53:00: Wenn wir sagen, wir sind doch froh, dass wir die auf X haben, dann sehen wir wenigstens, was sie machen.
00:53:06: Da müssen wir uns nicht Telegram installieren und so weiter.
00:53:09: Und für den jeweils in welchem Fall ist das Zutreffen, wenn wir sagen, derjenige der Abwander zu einer kleineren Shady-Plattform und so weiter, der ist stärker gefährdet.
00:53:18: Aber das lässt natürlich außen vor, wie ist der Gesamteffekt?
00:53:22: Welche Wirkung geht nach draußen, wenn man große Betreiber reguliert?
00:53:27: und was auch?
00:53:28: das Signal, was man einem vierzehn- oder dreizehnjährigen sendet, wenn man ihn sagt, Die ILO-Produkte darfst du nutzen ohne Altersverifikation.
00:53:38: Es ist in Ordnung, du musst nicht auf irgendeine Dark Web-Seite auswandern.
00:53:44: Das ist, glaube ich, etwas, was man abwägen kann, was man auch quantifizieren kann.
00:53:47: Wie groß ist die Aufwanderungseffekt?
00:53:49: Nur weil es dieses Argument gibt, bedeutet es noch nicht, dass deswegen die Maßnahmen gescheitert sind.
00:53:55: Das ist wie ein Argument, aber dein Verbot wird nicht hundertprozentig gelten.
00:53:59: Zum Beispiel, wenn es darum geht, die Herstellung von Deepfakes zu regulieren oder zu verbieten.
00:54:03: Dann werden ganz viele sagen, du kannst doch nicht den Leuten auf den Rechner gucken, weil du es nicht hundertprozentig durchsetzen kannst.
00:54:09: Lassen wir es gleich außen vor.
00:54:11: Das Argument.
00:54:13: funktioniert nur in der Diskussion Zeit lang, bis jemand näher hinschaut.
00:54:17: Ja, ja, verstehe ich.
00:54:19: Ich bin da halt da so hin und hergerissen und Leute, die diesen Podcast hier immer hören, wissen auch wie hin und hergerissen ich bin, weil ich auf der einen Seite natürlich auch sehe, dass so wie die Netzwerke gerade gebaut sind für junge Menschen einfach kein sicherer Ort mehr sind oder streicht das mehr, kein sicherer Ort sind.
00:54:35: Und das fängt nicht nur damit an, was die Leute da sehen, sondern auch wie die Plattformen funktionieren, dass sie sie in einer de facto, in einer Abhängigkeit ziehen und so weiter und so weiter.
00:54:43: Auf der anderen Seite... Das ist eine absolute Versagenerklärung, wenn wir sagen, wir kriegen unsere Gesetze dort nicht durchgesetzt.
00:54:54: Es ist wie wenn du sagst, wir haben jetzt hier einen Blitzer aufgestellt, die Leute fahren immer noch nach Hundertundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundundund
00:55:14: der Beweis, dass das Ding ab und zu mal blitzt, der Beweis dafür, dass es nicht funktioniert, wahrscheinlich nicht.
00:55:18: Also ich bin da bei dir, ich bin davon überzeugt, dass wir in der Lage wären, Plattformen sicher zu machen.
00:55:25: Also ich wüsste auch den Katalog der Maßnahmen, die man steht im DSA eigentlich schon drin, man müsste es nur durchsetzen.
00:55:29: Aber ich freue mich ein bisschen strategisch gesehen über Australien, weil damit ist klar, wir meinen es ernst, irgendwo auf der Welt gibt es Leute, die so verrückt sind, das durchzusetzen.
00:55:38: Und in Südostasien, ich war im Dezember auf einer Konferenz in Indonesien.
00:55:44: und da in Indonesien hat hundertzwanzig Millionen Social Media Nutzers ein riesiger Markt oder hat Meter sogar Repräsentanten so wie früher in Deutschland die sozusagen zur Konferenz nach auch hingehen und versuchen abzuwenden und zu sagen wir machen ganz viele tolle Sachen und die Viele Länder in Südostasien sagen, wir machen es genauso wie Australien.
00:56:03: Wieso lassen wir uns da auf der Nase herumtanzen?
00:56:05: Da sieht man ein ganz neues Set bewusst sein.
00:56:08: Und das führt, wie sehen Sie jetzt auch in Europa dazu, dass die Plattformbetreiber vor der Wahl stehen, entweder diese Nutzer wirklich zu verlieren oder sich doch mal zu überlegen an die runden Tische zu setzen, das Gesetz zu beachten.
00:56:21: Und weißt du was?
00:56:22: Wir jammern ja immer, dass Ex nichts tut.
00:56:25: Und es ist frustrierend, dass sie nicht genug tun.
00:56:27: Aber es ist nicht so, dass da gar nichts passiert.
00:56:30: Meldungen führen häufig.
00:56:31: Und manchmal muss man halt ein Justizminister anschreiben.
00:56:34: Aber rechtswidrige Inhalte werden schon auch manchmal entfernt.
00:56:37: Es ist anstrengend und es geht auch besser.
00:56:40: Aber es könnte sein, dass die auch gerade wieder in dem nächsten Umschwung sind.
00:56:45: Also wir hatten so viele Wellen.
00:56:47: Die zwanzig, fünfundzwanzig war wahrscheinlich ein Tiefpunkt, was Regulierung und Moderation betrifft.
00:56:52: Aber vielleicht führen diese Verbotsdiskussionen auch dazu, dass sie sagen, Lieber putzen wir unseren Saustall ein bisschen, bevor wir ein Komplettverbot riskieren.
00:57:04: Ja, wir haben da ja drüber gesprochen, auch hier in diesem Podcast, dass du darüber berichtet hattest, dass einzelne Nutzer ja auch tatsächlich gesperrt wurden, was bei X, also uns alle überrascht hat, dass so was passiert.
00:57:15: Ja, du sprichst im Fall Wuppi an.
00:57:19: Und der wurde sehr oft gemeldet, es war ein großer Account, war auch verifiziert, soweit ich weiß, also bezahlt auch Geld dafür.
00:57:25: Und wir hatten, also ich hatte eine gerichtliche Verfügung beantragt.
00:57:30: Ich hatte gleichzeitig aber ex auch abgemahnt.
00:57:33: Und ex hatte dann auf die Abmahnung hin gesagt, wir haben es geprüft, wir sehen mal gar nicht so.
00:57:36: Und dann habe ich die eine, zwei Verfügung geschickt und sagt, sieht aber das Landgericht Hamburg anders.
00:57:41: Wollt ihr, steht ihr weiterhin zu eurer Entscheidung?
00:57:43: Und dann.
00:57:44: haben vielleicht die Juristen, also wir so gerichtlich verfügen, haben schon eine gewisse Überzeugungswirkung festgestellt.
00:57:49: Oh Scheiße.
00:57:50: Wir haben mit unserer Rechtsposition jedenfalls uns anders entschieden als ein Gericht.
00:57:54: Wir haben es abgelehnt.
00:57:55: Wir sind voll in der Haftung.
00:57:56: Das bedeutet, ex haftet für jede jeden Bullshit, der ansonsten von diesem Account passiert, auf Schadensersatz, auf Unterlassung.
00:58:04: Und dann überlegen die sich so, brauchen wir den Account?
00:58:07: Brauchen wir ihn nicht?
00:58:08: Wie viele Werbeeinnahmen gehen uns dadurch flöten?
00:58:10: Wie viel Kosten erzielen wir damit?
00:58:12: Nicht das Kosten ist ein wichtiger Punkt für Elon Musk sind.
00:58:14: Aber wenn das nur fünf Leute sind, dort arbeiten.
00:58:17: würde man die ziemlich gut auslasten, allein für die Prozesse, die man mit den Wuppi-Inhalten betreibt.
00:58:23: Und der weicht jetzt aus, vielleicht auf Fake-Accounts, jedenfalls gibt es sehr viele ähnliche Accounts, die kommen natürlich nicht so richtig auf die Reichweite.
00:58:31: Ich kann dir aber zum Thema Fake-Accounts, eigentlich wollte ich hier jetzt gerade schon abmoderieren, aber ich will das aber erzählen, weil das so interessant ist.
00:58:36: Und zwar gibt es eine Analyse eines, wo habe ich das, eines Experten, der in dieser, wir haben ja über die Open Source Stellung des X-Algorithmus gesprochen und das in diesen Open Source Hinweisen, Hinweise existieren für ein Vorgehen, das Behavioral Fingerprints heißt.
00:58:55: Also die Möglichkeit aus deinem Nutzungsverhalten herauszulehnen, ob du ein anderer Mensch bist, der bereits auf der Plattform unterwegs ist.
00:59:04: Also sozusagen hinterlässt dein reines Nutzungsverhalten ein Fingerabdruck und den wiederum kann man dann auch auf andere Accounts legen und damit wie hier ein O-Syn-Fan mit dem Pseudonym Harrison berichtet hat, ist es wohl möglich sozusagen einen Account unter Tausenden wiederzufinden.
00:59:21: Das finde ich schon hoch interessant.
00:59:23: Da muss man sagen, da spielt dann Big Data tatsächlich eine Rolle.
00:59:27: Ich erinnere mich auch noch, als zu Zeiten, als Ex noch wirklich Ansprechpartner hatte, dass das für die eine ganz, ganz große Sache war.
00:59:34: Also die Mitarbeiterin von Twitter damals sagte mir, wenn sie Hinweise hat, wie man diese Netzwerke besser erkennen kann.
00:59:40: Dafür wären wir dankbar.
00:59:41: Die wollten nämlich wissen, weil natürlich immer neue Accounts angelegt werden.
00:59:44: Übrigens, das Problem könnte man euch auch anders lösen, indem man eine Registrierungspflicht vornimmt.
00:59:50: Jetzt sind wir bei Realnamenpflicht oder Pseudonymitisierungspflicht oder Registrierungspflicht.
00:59:56: das Gift wäre für die Nutzerzahlen, wenn man sich jetzt irgendwie wie bei einer Bank erst registrieren und identifizieren müsste.
01:00:03: Aber das würde natürlich dazu führen, dass es keine anonymen Fake-Accounts mehr gäbe in diesem Umfang mit irgendwelchen Leuten, die an die Wirklichkeit schon gesperrt sind.
01:00:11: Denn der Nutzer hinter Wuppi, der ist ja schon längst gesperrt.
01:00:15: Wieso ist er überhaupt noch unterwegs?
01:00:16: Der hat eigentlich vertraglich ein Verbot auch neue Accounts anzulegen, müsste man eigentlich mal durchsetzen.
01:00:23: ist übrigens auch eine interessante Fragestellung, ob man sich als anderer Nutzer darauf berufen kann, dass man geschützt wird vor solchen gefährlichen Nutzern.
01:00:31: Aber das Interesse der Plattformbetreiber ist anscheinend noch nicht groß genug, um zu so drastischen Maßnahmen zu greifen oder diese Fingerprints tatsächlich zu nutzen, um den Account von vornherein zu shadowbannen.
01:00:42: Ja.
01:00:43: Also ich finde das natürlich interessant, weil wir davon ausgehen müssen, dass es diese Verhaltensfingerabdrücke genauso auch bei allen anderen Plattformen gibt.
01:00:51: Also du halt mit bei TikTok, bei Instagram genauso nur durch deine Nutzungsverhalten, wann likes du und post, wie lange, wie viel Zeit vergeht, wie verhältst du dich auf der Plattform und so.
01:01:00: Und
01:01:00: welche Hardware benutzt du?
01:01:02: Ganz genau, ja, natürlich.
01:01:04: Also die offensichtlichen Dinge wie IP-Adresse jetzt mal aus dem Formen.
01:01:07: Nur dein reines Verhalten auf der Plattform, dass du das natürlich überall auswerten kannst.
01:01:12: damit durchaus in der Lage sind, jetzt schon solche Fake-Accounts von Menschen zu de-anonymisieren.
01:01:18: Wobei man dazu sagen muss, wo es deren Interesse, wenn du nicht gerade bei einer Rechtsverfolgung bist, das zu tun.
01:01:24: Nur dann, wenn es wirklich relevant und teuer wird.
01:01:27: Deswegen, wahrscheinlich muss man hier, das wäre der Werbe-Doc, bitte verklagt ex häufiger.
01:01:33: würde ein größerer Druck entstehen darauf, solche Sachen zu verfolgen und nicht einfach nur als nervige Meldungen allein zu schreiben.
01:01:38: Die sind zwar auch manchmal hilfreich, aber wir erleben es gerade, dass X nicht genug zur Rechenschaft gezogen wird.
01:01:44: Weil, ich kann es nachvollziehen, die Prozesse gegen X sind auch nicht erfreulich.
01:01:47: Es sind Materialschlachten, man braucht einen langen Atemgegen durch alle Rechtsmittel.
01:01:52: Die machen es so unattraktiv wie nur irgendwie möglich, damit man X nicht mehr verklagt.
01:01:57: Man könnte sagen, das ist rechtsstaatlicher in Ordnung, aber es ist halt so, wer irgendwie Trillionen an Kriegskasse hat, hat irgendwie bessere Möglichkeiten bei der Rechtsdurchsetzung oder Verteidigung als jemand, der nur seiner Rechtsschutzversicherung hat.
01:02:11: Und das ist so traurig eigentlich, ne?
01:02:13: Das ist traurig und deswegen gibt es eine Lösung.
01:02:16: Also dazu müsste der Staat eigentlich eingreifen, weil diese Plattformbetreiber sind fast Staaten selbst.
01:02:24: Sie sind so stark mit ihrer Position, dass der Bürger einen besseren Schutz dafür bräuchte.
01:02:28: Deswegen gibt es in anderen Ländern, zum Beispiel bei den sogenannten Equality Bodies, die bei uns Diskriminierungsstellen heißen, gibt es Stellen, die... Bürger bei so etwas unterstützen.
01:02:38: Wir sind eines der wenigen Länder, die in Europa unseren Antidiskriminierungsbeauftragten, die Beauftragte, so schwach ausgestattet haben, dass sie keine Opfer unterstützen können auf staatlicher Ebene.
01:02:48: Dabei gäbe es die Möglichkeit, zu sagen, wir richten eine staatliche Stelle ein, die gerade bei der Durchsetzung gegenüber starken Plattformbetreibern unterstützt.
01:02:57: Wagt der Gedanke, ist uns fremd, aber andere Länder machen das.
01:03:03: Und das ist daran fest.
01:03:04: Ich habe noch einen kleinen Verbraucherschutz-Hinweis für alle.
01:03:07: Und zwar berichtet netzpolitik.org, dass viele Menschen vor allem Arbeitsjournalistinnen und prominente Personen, investigativ arbeitende Personen, Menschen bei öffentlich-rechtlichen Fernsehsendern, Menschen bei größeren und kleineren Medienhäusern, darunter die zeitkorrektiv eure aktiv unnetzpolitik.org im Moment Signal-Angriffe erleben.
01:03:25: Also sie kriegen eine Nachricht eines Signal-Supports.
01:03:29: So heißt die Nachricht, wo man nur gebeten wird, seine Sicherheitscode zu schicken.
01:03:34: Dir wird garantiert, dass dir komplett sicher verwendet wird, aber notwendig ist, um dich zu verifizieren.
01:03:38: Don't tell anyone the code, not even signal employees.
01:03:41: Es steht noch eben darunter.
01:03:44: Aber es ist eben de facto ein Scam oder der Versuch, deinen Account irgendwie zu kapern, indem du eben deinen Sicherheitscode dort hinschickst, mit dem du deinen Signal-Account nutzt.
01:03:53: Also seid vorsichtig und gebt eure Codes nicht in irgendwelche komischen Chats ein.
01:03:57: Und das lustige an der Sache ist auch hier wieder, das Ding ist ja deswegen so für dich, weil die selbst warnen.
01:04:03: Also, man könnte sagen, hey, Gavin, du hast eine Nachricht bekommen.
01:04:06: Glaubst du, die ist echt?
01:04:07: Du würdest sagen, ja, die muss echt sein.
01:04:08: Die warnen ja sogar selbst vor Betrügern.
01:04:11: Ja.
01:04:11: Das warnen vor Betrügern macht Betrüger glaubwürdig.
01:04:14: Ja, das stimmt.
01:04:16: Also, es schickt nicht nirgendwo eure Signal-Pin hin, ist eigentlich nur, was ich sagen möchte.
01:04:20: Und was ich interessant finde, aber, und das schreibt netzpolitik.org, es wird vermutet, dass das eine Art orchestrierte Angriff gerade auf Journalistinnen ist.
01:04:29: weil eben vor allem Journalistinnen davon betroffen sind.
01:04:32: Aber wenn du so ein Account irgendwie gekapert hast, dann hast du halt die Möglichkeit auf deren Netzwerk zuzugreifen.
01:04:37: Die Wahrscheinlichkeit, wenn du einmal bei einem Journalisten, einer Journalistin drin bist, dann darüber hinaus andere Journalistinnen zu finden, ist natürlich relativ groß.
01:04:43: So sind halt alles Kollegen und Signal ist für die Journalistinnen so ein bisschen das, was B.A.
01:04:47: für dich ist.
01:04:50: Und man kann sich fragen, wer steht da wohl dahinter?
01:04:52: Wer könnte eine Interesse haben, solche Netzwerke zu kapern?
01:04:54: Aber da wollte es eigentlich abmonorieren.
01:04:58: Da sind wir im Bereich der Verschwörung.
01:05:00: Genau.
01:05:01: Und den verlassen wir.
01:05:02: Aber es war mal wieder wunderschön.
01:05:04: Ich finde es immer gut, wenn du hier bist.
01:05:05: Da können wir mal so ein bisschen aufräumen zusammen.
01:05:07: Pass auf dich auf.
01:05:09: Wir sehen uns hoffentlich bald wieder.
01:05:10: Wir hören uns hier wieder am Freitag mit Caroline Schwarz, die das erste Mal bei uns ist.
01:05:14: Ich freue mich sehr darauf.
01:05:15: Ich wünsche euch eine tolle Restwoche.
01:05:18: Tschüss.
01:05:18: Tschüss.
Neuer Kommentar