Im digitalen Omnibus ganz hinten (mit Dennis Horn)
Shownotes
Kontextbefreiung galore! Heute geht es bei uns um irreführende Inhalte zu staatlich organisierten Beteiligungsverfahren, um den EU-Vorstoß, der irgendwie “Digitaler Omnibus” heißt – und über das Oversight Board von Meta, das von Meta einen Auftrag bekommen hat, um den sich bei Meta leider, leider niemand selbst kümmern kann.
➡️ Netzpolitk.org über den Digitalen Omnibus: https://netzpolitik.org/2025/digitaler-omnibus-auf-crash-kurs-mit-digitalen-grundrechten/ ➡️ NOYB zum Digitalen Omnibus: https://noyb.eu/de/digital-omnibus-eu-commission-wants-wreck-core-gdpr-principles
Kapitelmarken, KI-unterstützt:
Transkript anzeigen
00:00:00: Grüß dich, Gavin.
00:00:01: Hallo
00:00:01: Dennis.
00:00:02: Hier wird es schon wieder gelacht und gefeigst.
00:00:04: Ja, tut mir leid, das mache ich nie wieder.
00:00:06: Nach einer kurzen, nach einer kurzen Recherchesession, die uns Aufschluss darüber gegeben hat, dass die Marke Laikos, ihr wisst noch, der Suchtdienst eures Vertrauens neben Alta Vista erst im Jahr zwanzig, aus dem Handelsregister gestrichen wurde.
00:00:21: In den Niederlanden.
00:00:22: Das ist
00:00:22: ja großartig.
00:00:23: Hatte schon einige Jahre die Markenrechte verloren und hieß deswegen Ubi.
00:00:28: So, mehr unnützes Wissen folgt in dieser folgenden Stunde.
00:00:36: Wir gehen direkt steil rein, würde ich sagen.
00:00:38: Ja,
00:00:38: komm, heute ist viel los.
00:00:39: So, Meta ändert seinen Ansatz beim Fact-Checking.
00:00:44: Das wissen wir seit einer ganzen Weile schon.
00:00:45: Wir haben vor Ewigkeiten schon darüber gesprochen, auch hier.
00:00:47: Ich glaube, vierter Januar war das.
00:00:49: So, Anfang des Jahres kommen Community-Notes zum Einsatz nach dem Vorbild von X. Und wir sprechen ja hier sehr häufig kritisch über die Community Notes.
00:00:58: Das wollte ich jetzt mal vorab schicken.
00:00:59: Wir haben in den frühen Tagen von Haken dran, als das System neu war bei Twitter noch, aber auch mal darüber gesprochen, dass es grundsätzlich schon ein Interessantes sein kann.
00:01:10: Also hier spielt eine Rolle, ob die Rahmenbedingungen stimmen, bei X stimmen sie, wir wissen es natürlich nicht mehr.
00:01:17: Aber ich wollte es kurz anbringen, um zu sagen, wir gucken uns das auch bei Meta jetzt noch mal von vorne an.
00:01:21: Das könnte sich lohnen.
00:01:24: Und Meta hat jetzt das Oversight Board.
00:01:27: gebeten, also dieses selbst eingerichtete Aufsichtsgremium, eine fantastische Idee, mit der Mitter aber doch ein bisschen Wind aus dem Segeln genommen hat.
00:01:37: Ich finde die Idee gar nicht schlecht.
00:01:39: Also es gibt dieses Aufsichtsgremium, das unabhängig arbeiten darf und das auch von außen immer wieder ziemlich im Öffentlichkeitswirksam die Entscheidungen von Meta kritisiert hat.
00:01:48: Eigentlich vor allem Contentmoderationsentscheidungen, aber auch Entscheidungen inzwischen des gesamten Unternehmens und die die Weisungen, die das Oversight-Bord gibt, sind Binden für Meta.
00:01:59: Also, da sitzen Leute von aus und sagen, das müsst ihr bitte nochmal machen und dann muss Meta das tun.
00:02:04: Mitunter, ne?
00:02:04: Mitunterbinden.
00:02:05: Ich glaube, nicht in einem Zusammenhängen.
00:02:07: Ja,
00:02:07: das kann sein, aber in alles und allem ein besser funktionierendes Prinzip als der Bild Ombudsmann, auf jeden Fall.
00:02:16: So, und jetzt hat Meta seinen Oversight-Bord gebeten, beratend tätig zu werden.
00:02:22: zur Frage, sollten einzelne Länder von einem Rollout der Community Notes ausgeschlossen werden oder wie es im typisch verquassten Meta-Sprech heißt.
00:02:32: könnten da kontextuelle Elemente den Betrieb des Programms beeinflussen.
00:02:36: Ich glaube übrigens, es ist das erste Mal, wenn ich mich recht entsinne, dass Meta das Oversight Board von sich aus ordnen ruft sozusagen, oder?
00:02:44: Also bislang ist mir jetzt noch nicht untergekommen.
00:02:46: Ja und vor allem mit so einer breiten Fragestellung.
00:02:50: Also es ist nicht nur diese, also Meta hat erst mal eine Liste von Faktoren vorgelegt, die bei dieser Frage eine Rolle spielen könnten und fragt auch, ob die Liste vollständig ist oder ob nicht auch noch andere Faktoren mit drauf gehören.
00:03:02: Und die lauten geringe Meinungsfreiheit, fehlende Pressefreiheit, staatliche Beschränkungen des Internets, geringe digitale Kompetenz, die Fähigkeit derzeit und in der Vergangenheit, die für einen Konsens erforderliche Uneinigkeit im Community Notes Algorithmus zu erreichen.
00:03:20: Das sind jetzt erstmal die Kriterien.
00:03:22: Und warum ruft Meta hier vielleicht zum ersten Mal das Oversightboard an?
00:03:27: Weil das eine Entscheidung ist, die sie auf gar keinen Fall selber treffen kann.
00:03:30: Richtig.
00:03:31: Da haben die sich gesagt, da verbrennen wir uns nur die Finger, das kann mal schön weh anders tun.
00:03:36: Genau.
00:03:36: Und ein Entscheidungsraum, wo Meta am Ende sagt, der ist für uns wirtschaftlich nicht so erheblich.
00:03:43: Schätze ich.
00:03:44: Vermutlich, ja.
00:03:46: Also, Max Zuckerberg hat ja vor einer ganzen Weile auch schon gesagt, wenn es so um politische Regulierung geht, so sagt uns bitte, wie es aussehen soll.
00:03:58: Weil das Geld wird ja auch woanders verdient.
00:04:01: Meta bittet außerdem um öffentliche Kommentare zu folgenden Themen.
00:04:05: Ich lese mal durch, hier ist ein bisschen diese Sprache von Meta.
00:04:09: immer entschuldige, es ist fürchterlich.
00:04:11: Aber trotzdem, wir gehen die Punkte mal durch.
00:04:13: Das ist Brutalismus in Sprachform, ne?
00:04:16: Risiken und Chancen von Crowdsourcing und Community Notes ansetzen zur Moderation von Inhalten, insbesondere, wenn es um potenziell irreführende Inhalte geht.
00:04:25: Dann die Eignung und Anpassungsfähigkeit von Konsens- oder Brückenbasierten Algorithmen, die in Systemen wie Community Notes eingesetzt werden, um Inhalte zu identifizieren und zu fördern.
00:04:36: Müssen wir das halt
00:04:37: kleben?
00:04:39: Ach so.
00:04:39: Ich frage mich, ob wir es zwischendurch erklären müssen, weil ich hab das Gefühl, es ist wahnsinnig sperrig.
00:04:43: Es ist wahnsinnig, aber das erste war glaube ich klar.
00:04:47: Sowas sind grundsätzlich Risiken und Chancen solcher Ansätze wie den Community Notes.
00:04:52: Zweitens ist Eignung und Anpassungsfähigkeit von Konsens oder Brücken basierten Algorithmen, die in Systemen wie Community Notes eingesetzt werden.
00:05:00: um Inhalte zu identifizieren und zu fördern, die ein geteiltes Publikum ansprechen, für unterschiedliche politische Kontexte und Informationsumgebungen.
00:05:09: Also, checkt der Algorithmus, ob es ein Publikum gibt, das dafür und dagegen ist.
00:05:15: Wie funktioniert das hier im Kontext?
00:05:17: Ja.
00:05:18: So.
00:05:18: Im Grunde.
00:05:19: Ja.
00:05:19: Wobei nicht... Warum schraubt ihr
00:05:21: das nicht hin?
00:05:22: Das ist jetzt unsere, unser versuchter Erklärung.
00:05:25: Wir wissen nicht so ganz genau, was damit gemeint ist.
00:05:27: Es wird natürlich ein bisschen differenzierter sein.
00:05:30: Aber nur um mal, in welche Richtung geht zu dieser Punkt.
00:05:33: Dann die Menschenrechtsverantwortung von Meta in Bezug auf die Erweiterung und Abschaffung von Produkten und Programmen, insbesondere solchen, die sich mit irreführenden Informationen befassen.
00:05:41: Das ist wichtig.
00:05:42: Das ist wichtig.
00:05:43: Ja, also wie weit kann Meta Verantwortung dafür übernehmen, dass durch Community Notes möglicherweise Gefährdung in der echten Welt ausgelöst werden ist eigentlich im Grunde die Aussage davon.
00:05:55: Oder andersrum.
00:05:58: Wie ist die Verantwortung, wenn wir etwas irgendwo nicht anbieten, was hier eigentlich sinnvoll wäre?
00:06:05: Herausforderungen und bewährte Verfahren bei der Risikobewertung, Überwachung und Minderung für die weltweite Anführung von Social-Media-Produkten, insbesondere im Kontext von Polarisierung, Konflikten oder angeschränkten Menschenrechtsschutzmaßnahmen.
00:06:20: Weißt du, was ich ... Also Verantwortung bei einem Rollout für eine Idee, die überall dieselben Regeln haben soll.
00:06:30: Aber vielleicht in anderen Ländern... Eine andere Herausforderung.
00:06:34: Naja,
00:06:34: hier clashen wir mal wieder eines dieser Dinge, die wir fast immer bei allen möglichen Globalisierungsaspekten beobachten und aber auch eben hierbei vor allem Kontenmoderationen und Community Notes immer wieder beobachten, kulturelle Unterschiede.
00:06:47: Es ist natürlich schwierig, wenn du auf der einen Seite sagst, haben wir eine Verantwortung dafür, wenn wir Features in einem Land ausrollen oder abschaffen oder gar nicht erst einführen.
00:06:58: die eben dort ein anderes Menschenrechtsverständnis haben als wir.
00:07:02: Da schwingt auch gleichzeitig, auch wenn man natürlich dazu sagen muss, hier wird der Begriff Menschenrechtsverantwortung genutzt und nicht kultureller Unterschied, aber das ist auch ein bisschen Framing.
00:07:11: Da schwingt natürlich trotzdem die... Na ja, die Überzeugung mit, dass die Ansicht von Meta, dass die Community Notes eine Demokratie fördernde Maßnahme wäre und dass deren Weltsicht, die vermutlich unangefochten Beste wäre, schwingt da durchgehend mit.
00:07:29: Bedeutet also, man sagt erst mal, gibt es Länder, in denen andere Systeme herrschen, in denen unser System Schaden anrichten kann, wenn wir es entweder einführen oder nicht einführen.
00:07:39: Da schwingt gleichzeitig so eine Überzeugung davon mit, dass die eigene Einsicht die richtige ist.
00:07:43: Das muss man schon mitlesen, finde ich.
00:07:46: Ja, ich hatte hier bei dem Punkt, da habe ich am lautesten aufgelacht, sagen wir mal, so, weil, also eigentlich bei der ganzen Liste denke ich so, als ist es gut, dass man das so angeht auf so eine abstrakten Ebene, sich da erstmal so eine Analyse einholt und so weiter.
00:08:02: Aber diese Frage, die natürlich direkt auf den Lippen liegt, warum nicht schon immer so?
00:08:10: Also selbstverständlich werdet ihr bei dem nächsten Schritt, der irgendwie wieder eine wirtschaftliche Komponente in einer riesigen Größe hat, sowas nicht machen.
00:08:18: Ich meine, ihr seid das Unternehmen, bei dem wir beim letzten Mal darüber gesprochen haben, das ist genau abwägt.
00:08:23: Gegen wie viel Betrug gehen wir denn jetzt vor?
00:08:25: Und gegen wie viel?
00:08:26: lieber nicht, weil es auf dem Konto anders aussieht.
00:08:28: Also das ist natürlich ein Aberwitz, so.
00:08:31: Obwohl ich jetzt hier für den konkreten Prozess denke, interessant.
00:08:35: Weiter verfolgen.
00:08:36: Und dann Untersuchung der Wirksamkeit.
00:08:42: Von Anne, weil ich muss sagen.
00:08:44: Doch, doch, doch.
00:08:45: Herausforderungen und Anne, da waren wir.
00:08:47: So, Untersuchung der Wirksamkeit, die Liste ist lange, der Wirksamkeit von Maßnahmen, Untersuchung der Wirksamkeit von Maßnahmen gegen irreführende Informationen, die über die Entfernung von Inhalten hinausgehen.
00:09:00: Faktenprüfung, Kennzeichnung, eingeschränkte Verbreitung, erhöhte Reibung, erhöhte Reibung, müssen wir gleich darüber reden, und benutzergenerierter Kontext, zusätzlich.
00:09:11: Zusätzlich Forschung zur Vermeidung von Vorangenommenheit bei solchen Maßnahmen.
00:09:16: Also, hier wird der Kontext geprüft.
00:09:19: Ist Community Notes die ideale Variante oder gibt es Dinge, die stattdessen stattfinden müssen?
00:09:23: Obacht, weil das eine Formulierung ist, die Mark Zuckerberg genutzt hat, um Faktenchecks zu delegitimieren.
00:09:31: in seiner Erklärung.
00:09:32: Er hat damals gesagt, das Faktenchecks, und da haben wir hier mit Frederik von Castell, der selber in einer Faktenchecks Redaktion gearbeitet hat, und sehr tiefe Einblicke hat, ich kann euch die Episode allen nur ans Herz legen.
00:09:43: Noch mal sehr klar erklärt, Faktenchecks sind sozusagen Testate, die Plausibilität von Aussagen, als war oder falsch.
00:09:51: auslegen.
00:09:52: Mehr nicht.
00:09:53: Da steckt kein Interpretationsspielraum drin.
00:09:55: Da steckt drin, hilft bleiche Trinken gegen Corona-Virus.
00:09:59: Antwort Nein.
00:10:00: Das war so ein Testat eines Faktencheck-Teams.
00:10:02: Heißt, wenn hier direkt, wenn hier so impliziert wird, naja, was ist denn mit der Verein, Vermeidung von Voreingenommenheit bei solchen Maßnahmen, wie zum Beispiel Faktenprüfung, mogelt man da direkt mitunter, dass Faktenchecks möglicherweise angreifbar wären durch eben eine solche Voreingenommenheit.
00:10:20: Ja, du hättest... Du hast hier eine breitere Definition des Begriffs Faktenchecks, als sie eigentlich sein sollte.
00:10:26: Sie haben Faktenprüfung geschrieben, I don't know.
00:10:28: Aber ich will einfach nur sagen, dass die Metaweltsicht, wie sie seit Anfang des Jahrhunderts, aussieht oder zumindest öffentlich sichtbar ist, dass sie hier immer noch so ein bisschen mitschwingt, finde ich.
00:10:38: Wir können ja gleich auch mal darüber sprechen, was in dieser Liste nicht steht, weil das ist auch ganz interessant.
00:10:45: Aber letzter Punkt vielleicht.
00:10:46: Studien, die quantitative und oder qualitativer Forschungsmethoden einsetzen, um Faktoren auf Länderebene zu identifizieren und zu messen, die sich auf die Funktionsweise von Social Media Produkten in verschiedenen Kontexten auswirken könnten.
00:11:02: Also ich finde erstmal, es ist erstmal, wie gesagt, keine schlechte Idee, ein unabhängiges Gremium zu befragen, sich mit diesen Fragen zu beschäftigen.
00:11:11: Ich glaube aber, die Frage ist natürlich, warum sie das tun?
00:11:14: Ich habe das eben schon mal so ein bisschen gesagt, sie schieben den schwarzen Peter weiter.
00:11:18: Und das ist, wenn man sich überlegt, dass das eventuell auch, also die Länder, in denen die Community Notes ausgerollt wurden von Meta, die kannst du an einer Hand abzählen und da gehören eben die USA zu, da gehören meines Erachtens Kanada zu und ich glaube Japan.
00:11:31: Das heißt, es ist alles noch so sehr klein und granular.
00:11:35: Bedeutet im Umkehrschluss, das Oversight Board muss sich auch damit beschäftigen, wie es in Europa aussieht und muss eine Entscheidung treffen, die im Falle eines DSA-Verstoßes möglicherweise Meta in die Position bringt.
00:11:47: zu sagen, Hände gehoben, wir haben nichts gemacht, wir haben uns vorher ausgiebig von außen Expertise eingeholt.
00:11:54: Ist die Frage, ob am Ende das als Argument zählt, weil Meta hat ja dann trotzdem gesagt, okay und diese Expertise nutzen wir.
00:12:02: Aber das stimmt, aber das verzögert natürlich solche Gremien und Untersuchungen.
00:12:07: Ja.
00:12:08: So, jetzt sage ich gerade, was steht nicht in dieser Liste.
00:12:11: Es ist an keiner Stelle eine Frage, die das Zerrfeld behandelt zwischen automatischer Entscheidung und Menschen die Entscheidungen treffen.
00:12:23: Stimmt.
00:12:24: Ja, also und das finde ich hoch interessant, weil wir ja darüber gesprochen haben, dass eine Content-Moderation, die wirksam ist, keine ist, die man technisch skalieren kann.
00:12:40: So.
00:12:41: Übrigens in dem Zusammenhang Meta sagt, dass der Ansatz zur Durchsetzung seiner Community-Richtlinien zu Fehlinformationen und Schaden, also zum Risiko unmittelbarer körperlicher Gefahr und zu einer Beeinträchtigung der funktionsweise politischer Prozesse unverändert bleibt und im Rahmen dieser Richtlinie entferne Meter Fehlinformationen.
00:13:06: wenn sie direkt zu diesen Dingen führen.
00:13:08: und nutze auch weiterhin vertrauenswürdige Dritte, um Inhalte zu identifizieren, die gegen diese Community-Richtlinien verstoßen.
00:13:16: Aber das sind eben zwei sehr spezifische Dinge, die so ein bisschen nach, weiß ich nicht, da gibt es unmittelbare Gewaltandrohungen, Suiziddrohungen vielleicht, oder ... tatsächliche aktuelle Wahlbeeinflussung.
00:13:33: Das ist ein sehr kleiner, spitze Ansatz.
00:13:35: Ja, was aber vom selben Unternehmen kommt, das im Januar noch entschieden hat, dass in den afrikanischen Community Guidelines wortwörtlich drinsteht, dass es legitim ist, Homosexualität als Mental Illness zu bezeichnen.
00:13:47: Also, das ist begot.
00:13:49: Kann man nicht anders sagen, hier jetzt auf der einen Seite zu sagen, also wir kümmern uns schon darum, dass den Leuten kein physischer Schaden entsteht.
00:13:57: Gleichzeitig, aber einfach nur, um sich nicht im Vorwurf der Wokeness aussetzen zu müssen, der vermeintlichen hier solche Dinge eben auch entscheidet.
00:14:10: Meta sagt übrigens grundsätzlich, die Community Notes befinden sich für die eigenen Plattformen in einer frühen Phase der Produktentwicklung.
00:14:19: Und es würden im Moment nur begrenzte Daten aus der Beta-Einführung vorliegen.
00:14:23: Man brauche aber grundlegende Leitprinzipien für die weltweite Einführung.
00:14:27: Das ist, worum es hier geht.
00:14:29: Bisher sind über fünfzehntausend Community Notes eingereicht.
00:14:33: Davon wurden sechs Prozent tatsächlich veröffentlicht.
00:14:38: Und die Community Notes von Meta, die dann auf Facebook, Instagram, Threads zum Einsatz kommen sollen, basieren übrigens auf dem Open Source Algorithmus von
00:14:47: X. Und das finde ich übrigens spannend, dass die Software, die X im Einsatz hat, die Meta jetzt auch nutzt, dass die in Meta-Logik in einem frühen Stadium der Produktentwicklung ist, X sich aber schon damit brüstet, dass das Ding perfekt ist.
00:15:04: Ich finde es sagt auch sehr viel über die Prozesse bei X aus am Ende mehr als die bei Meta.
00:15:10: Ja, ich finde es ein ganz interessantes Prozess, den man sich sehr genau noch anschauen muss.
00:15:15: Wir müssen jetzt auf die Entscheidung des Oversightboards warten und hoffen, dass sie veröffentlicht wird.
00:15:19: Es war irgendwo die Formulierung, dass eine öffentliche Antwort zu erwarten ist.
00:15:24: Ich hoffe, das ist so.
00:15:25: Ja,
00:15:25: und dass auch öffentliche Kommentare übrigens auch angesammelt werden, die dann von allen kommen können, nicht nur vom Mitglied des Oversight Boards, fand ich auch nochmal interessant.
00:15:34: Ja,
00:15:34: genau, find ich auch interessant.
00:15:36: Ich bin da sehr gespannt drauf, was das am Ende bedeutet.
00:15:39: Bedeutet das, dass zum Beispiel in Regionen wie Russland zum Beispiel keine Community Notes kommen werden, weil dort möglicherweise eine politische Einflussnahme nicht auszuschließen ist, wenn das Oversight Board diese Empfehlungen abgibt?
00:15:53: muss Meta sich politisch plötzlich verhalten.
00:15:56: Das ist auch interessant.
00:15:57: Also wir werden da noch viele, viele, viele Geschichten daraus ziehen können.
00:16:01: Also für uns als Podcast ist das eine tolle Entwicklung.
00:16:03: Haken bleibt dran.
00:16:04: Haken
00:16:05: bleibt sowas von dran.
00:16:06: Wenn's
00:16:06: groß wird, kriegen wir ein Jingle, sag ich mal.
00:16:12: Wir haben übrigens heute, wenn wir nachher über den grauen Haken mal sprechen wollen, wir haben heute das erste Mal, ich habe heute das erste Mal den grauen Haken-Jingle auf meinem Knöpfchen.
00:16:19: Das ziehen wir aber noch ein bisschen, ne?
00:16:20: Ja, das machen wir so an einem überraschenden Zeitpunkt, so wie damals mit den Zahlen sind, bei denen wir die Blusker in Whitecoats an einer beliebigen Stelle im Podcast versteckt haben, damit sich die Leute, die nur deswegen kamen, die ganze Folge hören mussten.
00:16:33: So, hört heute, ob dieses Jingles wert ist.
00:16:36: Oder ob er überhaupt kommt.
00:16:39: Oh, ne Stunde um, schade.
00:16:41: Also, wo wir gerade beim Thema Content-Moderation waren, es gibt eine Transparenz-Datenbank der Europäischen Union, die öffentlich besser nachvollziehbar machen soll, wie die großen Plattformen ihre Inhalte moderieren.
00:16:53: Sie soll also eigentlich Aufschluss darüber geben, wie wird gelöscht, was wird gelöscht, mit welcher Begründung, was wird besonders oft gelöscht, was weniger, wie verbreiten sich die Dinge, die vielleicht besser gelöscht werden sollten, also all diese Fragen.
00:17:05: Und diese Datenbank ist ein Teil des Digital Services Act.
00:17:09: der Europäischen Union.
00:17:10: Mehr als zweihundert Anbieter befüllen sie aktuell.
00:17:13: Da sind im vergangenen halben Jahr Daten über rund vier Milliarden Moderationsentscheidungen eingelaufen.
00:17:20: Fast die Hälfte dieser Entscheidungen wurde übrigens automatisiert getroffen.
00:17:27: Die meisten, außerdem, weil Nutzerinnen gegen die Hausregeln der Anbieter verstoßen haben, also die Community-Richtlinien-Standards, die wir eben auch genannt haben.
00:17:35: Und viele Fälle haben auch mit illegalen Produkten auf Onlinemarktplätzen zu tun.
00:17:40: Und jetzt gibt es eine Studie dazu aus Zürich, die zeigt, diese Datenbank kann... so wie sie aufgebaut ist, ihre Ziele gar nicht erreichen.
00:17:48: Eingeschränkte Benutzerfreundlichkeit, eingeschränkte Zugänglichkeit, es fehlten Schlüsseldaten, um illegale Inhalte zu überprüfen oder zur Überwachung und Überprüfung illegaler Inhalte.
00:18:00: Es gibt Probleme bei der Konsistenzzuverlässigkeit, Validität der Daten, sagen die Forscher.
00:18:05: Also mal ein Beispiel.
00:18:07: Die Anbieter können bei Meldungen, die NutzerInnen, Einreichen zu illegalen Inhalten sagen ist nicht illegal, verstößt aber gegen unsere Community-Richtlinien.
00:18:19: So, dann wandern diese Fälle in eine andere Kategorie, nämlich in die Kategorie Community-Richtlinie und du kannst nicht mehr nachvollziehen, wie groß das Problem illegaler Inhalter eigentlich
00:18:29: ist.
00:18:29: Oha.
00:18:30: Und damit sagen die Forscher sei weder ein sauberes Monitoring noch eine Überprüfbarkeit von Entscheidungen möglich.
00:18:37: Das ist interessant, ne?
00:18:38: Das ist super interessant.
00:18:40: Es bestätigt meine Vorurteile, dass all diese Regulierungsgeschichten, die über Gesetze kommen, zu solchen Monstern, guck dir jeden Tag die Cookie-Banner an, die du wegklicken kannst.
00:18:53: Ist das irgendwie nachvollziehbar?
00:18:55: Nein.
00:18:56: Das ist völlig irre.
00:18:57: Sprechen wir heute auch noch mal drüber über Cookie-Banner.
00:18:59: Aber ich finde, dass die Tatsache, dass alle DSA-Meldungen in den letzten Jahren ... vier Milliarden vermutlich sind, wenn man das hier richtig interpretiert, ist es schon eine immens hohe Zahl, weil der Prozess einer DSA-Meldung, und das sind ja nur die DSA-Meldungen, die dann von der Plattform irgendwann als nicht nur DSA-Meldung runterklassifiziert werden können.
00:19:23: Finde ich schon eine sehr große Zahl ehrlicherweise, weil der Prozess etwas nach die DSA zu melden auf den Plattformen ist ja menschenfeindlich.
00:19:30: Ich weiß gar nicht, ob das ein DSA, das sind die Content-Moderationsentscheidungen, die automatisch durchgeleitet werden, oder?
00:19:36: Das ist das für mich.
00:19:36: Und du willst einfach eine Transparenz darüber schaffen, weißt du?
00:19:39: Ja, okay.
00:19:40: Das kann auch sein.
00:19:41: Dann sind vier Milliarden vielleicht doch gar nicht so viel, wenn auch automatisierte Meldungen bei sind.
00:19:46: Genau.
00:19:46: Die Hälfte etwa.
00:19:47: Ja.
00:19:48: Okay.
00:19:48: Ah ja, okay.
00:19:50: Wo wir bei Meta waren, vielleicht noch kurz in Spanien, hatten Gerichte entschieden, dass Meta fünfhundertzwanzig Millionen Euro zahlen muss an eine Reihe von Online-Medien, an verschiedene Medienhäuser also, weil sich Meta einen signifikanten Wettbewerbsvorteil verschafft hat.
00:20:05: Und zwar, so heißt es im Urteil durch die widerrechtliche Verarbeitung von Nutzungsdaten.
00:20:12: Das berichtet die Zeitung El País, die zu einer, wie Deutschlandfunk, Presse schauen.
00:20:16: Das berichtet die Zeitung El País.
00:20:19: Dann müsstest
00:20:19: du jetzt aber unmittelbar zu Le Mans übergehen.
00:20:24: Und dann höre ich immer so eine Stimme, die sagt Bonn.
00:20:28: Also, LPIs gehört übrigens zu einer dieser Mediengruppen, die da jetzt was von dem Geld abbekommen soll.
00:20:36: LPIs schreibt, das Urteil könnte wegweisend sein für ähnliche Prozesse in anderen europäischen Ländern, wobei Meta noch Berufungen einlegen kann.
00:20:43: Worum geht's?
00:20:45: Facebook hat seine Nutzerinnen damals, als die DSGVO in Kraft getreten ist, vor die Wahl gestellt.
00:20:51: Entweder sie verlassen die Plattformen.
00:20:53: oder sie akzeptieren die neuen AGB und stimmen damit zu, dass Meta-Daten über das Nutzungsverhalten sammelt, nutzt für die Ausspielung von Werbung.
00:21:02: Und diese Praxis, um die es hier geht, hat Meta erst im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ... im August, ... ...
00:21:21: im August, ... ... im August, ... ... im August, ... ... im August, ... ... im.
00:21:23: Ich finde das hochinteressant, weil wir ja hier über ein Zeitraum sprechen, in dem auch meines Erachtens DSA-DMA noch gar nicht in Kraft getreten waren, also es noch so ein bisschen Wildwuchs gab.
00:21:32: Aber man muss leider auch sagen, dass diese, also allein, dass wir wissen, dass in diesem Zeitraum das Zehnfache eingenommen wurde an Geldern, muss man sagen, ja gut, dann gibt's halt morgen mal kein Kaffee umsonst.
00:21:46: Fällt der Obstglaub nächste Woche einmal aus.
00:21:50: Ticktock.
00:21:52: führt eine neue Einstellung ein, mit der du auswählen kannst, wie viele KI-generierte Inhalte dir in den Feed gespült werden.
00:21:59: Das geht zusammen.
00:22:00: Geht zusammen mit neuen Kennzeichnungslösungen für KI.
00:22:03: Beide Themen finde ich spannend.
00:22:06: Also, wie funktioniert das genau?
00:22:07: Es gibt ein Tool in der TikTok-App, eine Einstellung, die heißt Themenverwalten, mit der du schon jetzt einstellen kannst, welche Kategorien an Inhalten dir vorwiegend angezeigt werden.
00:22:16: Tanz, Sport, Essen und Trinken, die ist das.
00:22:19: Und da soll dann in Zukunft auch diese KI-Einstellung landen.
00:22:24: Da habe ich so gedacht, so weit, so, ja, verstehe ich.
00:22:28: So.
00:22:28: Ja, ich denke,
00:22:29: es ist ja ein vorgezogenes.
00:22:31: Funktionen und
00:22:32: Emotionen.
00:22:32: Ein bisschen, ich hab trotzdem, also ich finde allein, dass das an diesem Ort versteckt ist, zeigt so ein bisschen, dass neun, neun, neun, neun, sieben Prozent der Nutzer in dieses Feature ja niemals entdecken werden.
00:22:42: Ja, absolut.
00:22:43: Ja.
00:22:44: Ja, der haben wir gleich, kommen wir gleich noch zu anderen Balläden.
00:22:48: Also, gleichzeitig, und das finde ich den interessanteren Part, will TikTok KI-generierte Inhalte besser erkennen.
00:22:57: und testet gerade ein unsichtbares Wasserzeichen dafür in den Videos.
00:23:02: Also TikTok setzt heute schon ein, das KI-generierte Inhalte, oder voraus das KI-generierte Inhalte, die realistisch wirken, wo also Verwechslungsgefahr besteht, gekennzeichnet werden und nutzt dafür die Content Credentials von C to PA.
00:23:18: Gut.
00:23:19: Das sind Metadaten, die dann eingebettet werden, über die man KI-generierte Inhalte erkennen kann.
00:23:25: Nachteil war Metadaten, wie immer, die können entfernt werden, weil sie immer einfach Metadaten sind.
00:23:30: Die Informationen liegen also nicht im Bild, im Video
00:23:33: selbst.
00:23:33: Und auch nicht auf einer Blockchain.
00:23:35: Auch
00:23:36: nicht auf einer NFC-gesicherten Blockchain.
00:23:41: Tiktok wird deshalb unsichtbare Wasserzeichen.
00:23:45: hinzufügen zu KI generierten Inhalten, die zum Beispiel als KI generiert erkannt werden, weil sie mit TikTok Tools erstellt wurden oder eben diese Content Credentials enthalten als Metadaten.
00:23:58: Und dann bleibt das Wasserzeichen aber drin, selbst wenn die Metadaten später entfernt werden.
00:24:05: Ja, dass das funktioniert.
00:24:06: Wir haben ja hier schon mal über so Features gesprochen, die eigentlich genau das oder so so Forschungen, die genau das prüfen und genau das tun.
00:24:14: Ich habe leider vergessen, wie das hieß.
00:24:16: Könnt ihr jetzt im Discord wahrscheinlich im Housekeeping nachlesen?
00:24:19: Discord-Werbung jetzt.
00:24:20: Auf
00:24:20: www.hacknern.org findet ihr ungefähr zwei Tausend Einhundert Menschen, die diesen Podcast regelmäßig hören, die sich über all die Dinge austauschen, über die wir hier sprechen.
00:24:27: Viel schlauer sind, als wir beide zusammen ganz viel Ahnung haben, viel Humor haben und gleichzeitig auch noch sich mit Pop-Kultur auskennen.
00:24:33: Das ist der schönste Ort im Internet.
00:24:34: Danke.
00:24:35: So, ich habe übrigens schon eine Antwort darauf, worüber wir gesprochen hatten.
00:24:39: Weißt du noch, wie sie es?
00:24:40: Das war C to PA.
00:24:42: Nein, nein, nicht.
00:24:42: Das meine ich
00:24:43: nicht.
00:24:44: Das
00:24:44: meine ich gar nicht.
00:24:45: Die Content Credentials, das weiß ich.
00:24:47: Es gab mal so ein Tool von einem, das war ein Ergebnis einer Forschungsgruppe, die eben mit diesen Wasserzeichen herum experimentiert haben und die sozusagen es geschafft haben, sozusagen KI-Enhalte damit aber auch zu verwässern und zu zerstören und es geschafft haben, dass sie zum Beispiel von KI-Erkennung als etwas anderes erkannt werden, als das menschliche Auge sieht und so.
00:25:07: Ganz spannende... interessante Forschungen.
00:25:10: Und vermutlich ist das ein ähnlicher Weg, den TikTok hier an der Stelle geht, mit diesen unsichtbaren Wasserzeichen.
00:25:15: Das Problem ist aber, Content Credentials, diese Metadaten, die eine mega Idee sind, weil wir ja das ist so eins dieser Dinge, wo wir immer gesagt haben.
00:25:23: Die werden den Weg finden in die Umkehr der Beweislast.
00:25:28: Also, wenn wir dabei sind, Fotos als echt zu kennzeichnen, dann wirst du das mit Content Credentials tun können, weil da drin nachgehalten werden kann.
00:25:36: Wer hat dieses Foto wann, an welchem Ort, mit welchem Gerät aufgenommen?
00:25:40: Wer hat dieses Foto wann, mit welchem Gerät, an welchem Ort bearbeitet?
00:25:44: Und konnte es dann quasi eine Art Biografie einer JPEG sozusagen lesen.
00:25:49: Das ist eine super Idee.
00:25:51: Das Problem ist, KI-generierte Inhalte nur über solche Metadaten und Wasserzeichen zu erkennen.
00:25:57: Funktioniert halt nicht mehr, wenn du sie dann mit GROC, mit MetaAI, mit Sora, womit auch immer erstellt hast, weil die natürlich erst mal sich nicht denken.
00:26:07: Auch das bauen wir bei uns ja auch ein, damit Leute bei TikTok einstellen können, dass sie das nicht mehr sehen.
00:26:11: Das wird ja nicht passieren leider.
00:26:12: Heißt, eigentlich brauchst du eine ganz andere Methode, um KI-generierte Inhalte gut zu erkennen auf TikTok.
00:26:19: ... und damit dieser Schieberegler sinnvoll wird.
00:26:23: Übrigens.
00:26:24: Zweiunddreißig Prozent der Menschen in den USA und Großbritannien ... ... sagen, dass KI die Kreativwirtschaft negativ beeinflusst.
00:26:31: Also man kann sagen nur Zweiunddreißig
00:26:33: Prozent.
00:26:34: Man kann aber auch sagen gegenüber ... ... achtzehn Prozent im Jahr.
00:26:38: So.
00:26:38: Also das ist gestiegen.
00:26:39: Das steht in der Studie einer Influencer-Marketing-Agentur.
00:26:42: Billion Dollar Boy heißen die.
00:26:47: Das
00:26:47: waren alle anderen haben schon weg.
00:26:49: Wir mussten nur zu nennen.
00:26:50: Eine Umfrage unter viertausend Menschen ab sechzehn Jahren.
00:26:53: Eintausend CreatorInnen und eintausend MarketingentscheiderInnen.
00:26:57: Ich finde aber auch gut, dass in der gleichen Studie steht, dass vierundfünfzig Prozent der befragten Jen Zila.
00:27:05: sich keine KI-Beteiligung an kreativen Arbeiten wünschen.
00:27:08: Bedeutet also, dass dieses alte Zitat, das ist ein Urheber, ich leider immer nicht richtig nennen kann, alle wollen KI-generierte Inhalte erstellen, aber niemand will sie sich angucken.
00:27:17: Außer KI will sie sich angucken.
00:27:20: Genau, trifft zumindest auf einen fifty-fünfzig Prozent von den jungen Menschen tatsächlich auch zu.
00:27:26: die aber da sehr gezielt dran gehen, weil sie sagen in anderen Bereichen, weil sie nicht, wenn KI mir beim Online-Shop hilft oder so, dann ist super.
00:27:35: Das ist ja auch, also das ist ja auch am Ende super.
00:27:38: Das ist ja das Dilemma, dass ich ja hier immer wieder predige, dass ich sage, nur weil neun von zehn Anwendungsfällen halt vielleicht quatsche ist, heißt es nicht, dass dieser eine Anwendungsfall nicht doch auch geil sein kann.
00:27:51: Ich glaube, wir sind leider inzwischen bei neun zu eins in der Verhältnismäßigkeit.
00:27:54: Ich
00:27:55: glaube ja.
00:27:56: Wir bleiben noch mal kurz bei Tiktok.
00:27:59: Neun von zehn Funktionen, und diese hier ist es auch nicht.
00:28:02: Also Tiktok,
00:28:03: Tiktok für ... Und Nasernäckes.
00:28:07: Pass auf.
00:28:07: Das ist jetzt, also diese Geschichte jetzt, da ist mein Kopf explodiert, als ich das eben gelesen hab.
00:28:12: Tiktok führt ein paar neue, dieser Funktionen an, die dann am Ende kaum genutzt werden und uns vielleicht eher wie so ein Feigenblatt erscheinen.
00:28:21: Nämlich fürs digitale Wohlbefinden.
00:28:23: So, und jetzt pass auf.
00:28:24: Erstens.
00:28:26: Ein Affirmationstagebuch mit mehr als hundertzwanzig positiven Impulsen für deinen Tag.
00:28:32: Heißt also, du wärst gefragt, was war heute gut?
00:28:38: und hundertneinzehn andere Fragen und kannst du da reinschreiben, weiß ich nicht.
00:28:44: und dann so funktioniert
00:28:46: das.
00:28:46: Du kriegst einfach die Impulse.
00:28:47: Ach,
00:28:47: du kriegst die Affirmation von außen.
00:28:49: You go, Guy.
00:28:51: Ach so, ja das kann auch sein, aber das ist ja noch schäbiger.
00:28:54: Okay.
00:28:55: Zweitens.
00:28:56: Ein Hintergrundgeräuschgenerator, der die psychische Gesundheit der NutzerInnen verbessern soll.
00:29:01: Es gibt Regen, Meeresrauschen und darin auch ein Modul für Atemübungen.
00:29:06: Fun fact, das ist übrigens, und ich glaube, das wissen ganz viele Leute nicht, in iPhones ist das ein Haus, ein Boardmitte, das ihr mitgeliefert.
00:29:15: Du kannst Regen und Meeresrauschen und so.
00:29:18: Auf dem iPhone ... aus dem Nichts erstellen.
00:29:21: Und zwar kannst du diese ... ... Kontrollzentrum-Einstellung ... ... ich zeig das hier
00:29:24: mal.
00:29:25: Ja, ich mach
00:29:25: das mal.
00:29:26: Du musst das als Button sozusagen ... ... im Kontrollzentrum bestellen ... ... und dann kannst du das in Knopf drücken, hier einschlafen.
00:29:31: Steuerelement hinzufügen.
00:29:32: Einschlafgeräusche mache ich jetzt mal an.
00:29:35: Ja, das hört man jetzt glaube ich nicht, aber
00:29:36: ... Ambient, Schlaf.
00:29:39: Schlaf, Chill, Produktivität ... ... ich mach mal Schlaf, ja?
00:29:44: Ja.
00:29:44: Aber guck mal hier, ich zeig das auch mal in die Kamera hier.
00:29:47: Also da gibt's ganz viele Buttons.
00:29:48: Regen, Fluss, Nachtfeuer, ausgewogenes Rauschen.
00:29:54: Und das mach ich jetzt mit meinem iPhone ohne eine App dafür zu brauchen.
00:29:57: Also hey TikTok, das braucht man nicht.
00:30:00: Zumindest nicht.
00:30:03: Siehst du?
00:30:04: Das ist ja großartig.
00:30:06: Das sind so ... Ich mach den Podcast hier eigentlich nur für die Tipps.
00:30:11: Ja, ich hab auch im Vorfeld, muss ich sagen, kurz bevor wir aufgenommen haben, hab ich dir erklärt, dass man auf dem Mac die Reihenfolge der Netzwerke in der Priorität festlegen kann.
00:30:19: Ja,
00:30:20: also, dass ich eher hier meinen Kabel nutzen kann als das WLAN zum Beispiel.
00:30:23: Genau, ohne dass du das WLAN ausschalten musst.
00:30:26: Ja.
00:30:27: Es gibt übrigens so eine Ambient-App auch oben für die Mac-Menü-Leiste.
00:30:32: Dann machst du die Regen an oder so, wenn du arbeitest, das ist mega.
00:30:35: Aber warum in TikTok?
00:30:36: Entschuldigung, warum in ... Ja,
00:30:38: kann ich dir gleich eine Antwort drauf.
00:30:41: Nee, dann sagt die jetzt schon, weil gleich kommt das Dritte und dann schnallen wir hier endgültig ab.
00:30:45: Sagst du die jetzt schon?
00:30:47: Mama, bitte beschneide nicht die Bildschirmezeit von TikTok, weil ich brauche das doch zum Einschlafen.
00:30:53: Ja, du lachst.
00:30:54: aber, das ist halt ein ganz offensichtlicher Case, wenn man sagt, da sind jetzt auch so Features zum Einschlafen drin, dann muss man auch abends noch TikTok nutzen dürfen.
00:31:02: Deswegen hoffe ich, alle Mamas haben gerade deinen Tipp gehört.
00:31:04: Das
00:31:05: hoffe ich auch.
00:31:05: Für die IOS-Umgebung.
00:31:07: So, pass auf, Drittens.
00:31:08: TikTok führt ein Abzeichen für die Kontrolle der eigenen TikTok Nutzung.
00:31:13: Also ein Gamification Ansatz.
00:31:15: Es wird jetzt immer wilder.
00:31:17: Stück für Stück.
00:31:18: Pass auf.
00:31:18: Also du bekommst Abzeichen, wenn du TikTok nur innerhalb bestimmter Grenzen nutzt.
00:31:24: Also in Deutschland?
00:31:27: Nee, also Nutzungsgrenzen.
00:31:29: Also für diese Abzeichen, um sie zu erhalten, musst du verschiedene Aufgaben erfüllen.
00:31:35: Es gibt eine Aufgabe, die heißt Schlafenszeit.
00:31:38: Und in der darfst du TikTok dann nicht nutzen.
00:31:41: Es gibt eine Aufgabe, die heißt Meditation.
00:31:45: Dann gibt es ein tägliches Limit für die Bildschirmzeit, die wöchentliche Bildschirmzeit.
00:31:50: Du kannst über TikTok, was ich so abstrus finde, weil um das jetzt zu tun, musst du TikTok ja wieder mehr nutzen, auch noch andere zu diesen Aufgaben einladen.
00:32:02: Was?
00:32:03: Ja.
00:32:03: Also, du kannst quasi um die Wette nicht...
00:32:05: Um die Wette TikTok nicht nutzen.
00:32:09: Und um zu gucken, wer geworden hat, musst du ja in TikTok gucken.
00:32:13: Ja, natürlich.
00:32:13: So, und jetzt Zitat aus dem TechCrunch-Artikel dazu.
00:32:17: Das Unternehmen gab an, dass es beobachtet habe, dass mehr Menschen den neuen Wellness-Bildschirm im Vergleich zur vorherigen Version des Bildschirmzeitmenus aufgerufen hätten, wobei das Affirmationsjournal das beliebteste Tool gewesen sei.
00:32:33: Also man freut sich, dass die Tools, die zu weniger und bewussterer TikTok-Nutzung führen sollen, stärker genutzt wurden.
00:32:45: Es gibt manchmal so Dinge, da muss man dreimal drüber nachdenken, um dann so ein bisschen draufzukommen, wo das herkommt.
00:32:52: Wie wir hier auch darüber gesprochen haben, dass Dating-Apps ja eigentlich erfunden wurden, damit man sie nicht braucht.
00:32:57: Und dann fragt man sich aber, warum sind sie trotzdem so erfolgreich?
00:32:59: Naja, weil sie auch so gebaut sind, dass sie nicht funktionieren.
00:33:02: Also und demnach, das ist hier genauso.
00:33:04: Also es ist wirklich ein tolles Feigenblatt, weil man kann sagen, wir machen ja was.
00:33:10: Das ist so ein bisschen, als würde TikTok dir nach neun Stunden anzeigen, schauen sie noch, wie bei Netflix.
00:33:16: Es ergibt überhaupt gar keinen Sinn.
00:33:18: und dieser Gamification-Ansatz, also die Leute nutzen auch so Gamification-Dinge wie bei Duolingo oder so ja nicht nur aus einer kompetitiven Ader heraus, sondern auch weil man sich damit nachher brüsten möchte.
00:33:29: und um sich mit etwas zu brüsten, musst du ihn in der Öffentlichkeit haben, heißt.
00:33:34: Die Leute werden alle posten, dass sie den, ich habe nicht Doom gestrullt, Button im November, zwanzig bekommen haben.
00:33:41: Und haben den dann irgendwie sich auf ihren, ihr Jackett gebubbt.
00:33:45: Damit's der nächsten Monat weitergeht oder was?
00:33:47: Ich weiß, wenn irgendwie, ich weiß auch nicht.
00:33:50: Ich druck mir ein T-Shirt aus mit so einem Bapal, da steht drauf, Schrödinger's Tiktok Nutzer.
00:33:55: Schrödinger's Doomscrolling.
00:33:56: Es
00:33:57: ist wirklich, also ... Kopf ist explodiert.
00:34:00: Ich find das geil.
00:34:03: Was passiert bei X?
00:34:07: X ändert seine Civic Integrity Policy.
00:34:09: Das sind die Regeln für irreführende Inhalte zu staatlich organisierten Beteiligungsverfahren oder wie wir sie nennen, Wahlen und Volksabstimmung.
00:34:17: Das ist aber Elon Musk, dass Elon Musk auf der Bühne steht und übersta- wie heißt das?
00:34:23: Staatlich organisierte Beteiligungsverfahren.
00:34:25: Danke.
00:34:31: Das ist wie aus dem Facebook Text.
00:34:33: Wirklich?
00:34:33: Super.
00:34:34: Ja.
00:34:35: Es ist ein bisschen, es gibt auch so Klischees, das in der DDR damals alles so geheißen hat, dass der Engel ja das Entflügelfigur geheißen haben soll.
00:34:43: Ja, neusebricht.
00:34:44: Ja.
00:34:44: Und genau da sind wir jetzt auch staatlich organisierte Beteiligungsverfahren.
00:34:49: Was ja auch direkt so eine Schlagseite hat in der Formulierung.
00:34:52: Ja, absolut.
00:34:53: Also staatlich organisiert also deine Wahl.
00:34:56: Können wir das auch als Button haben?
00:34:57: Ich habe am staatlich organisierten Beteiligungsverfahren, im Jahr zwanzig, teilgenommen.
00:35:02: So, und Meldungen über mögliche Irreführungen von staatlich organisierten Beteiligungsverfahren werden jetzt zuerst ans Community-Nord-System weitergeleitet.
00:35:22: Und die härteste Maßnahme im Anschluss ist dann das Civic Integrity Label, das dazu führt, dass die Reichweite für den Inhalt stark angeschränkt werde.
00:35:31: Also Punkt eins, das bedeutet, die Meldung der möglichen Irreführungen wird zuerst ins Community-Nord-System weitergeleitet.
00:35:37: Ja, das hier, also... Es ist nicht, später kommt dieses Label.
00:35:43: Es ist nicht klar, wonach X das vergeben.
00:35:46: Aber tatsächlich diese Weiterladung.
00:35:47: Wir gehen jetzt mal den Weg durch.
00:35:49: Weil das
00:35:49: ist fahrlässig.
00:35:50: Der Weg ist, du siehst auf X irgendwas, wo du denkst, das ist Wahlmanipulation.
00:35:57: Oder wie wir sagen, eine Irreführung eines staatlich organisierten Beteiligungsverfahrens.
00:36:02: Und das schlägt dann
00:36:05: nicht
00:36:06: mehr beim Menschen auf, bei Content-ModeratorInnen, sondern... im Community-Node-System, was bedeutet, dass es dort ein Vorschlag ist für eine Befassung.
00:36:17: Ja, das ist krass.
00:36:19: Dann müsst ihr jemand hingehen und sich befassen.
00:36:23: Und dann müssten Menschen hingehen und das kommentieren.
00:36:28: Und abstimmen?
00:36:29: Sie müssen quasi ein privatwirtschaftlich organisiertes Beteiligungsverfahren durchführen.
00:36:34: So.
00:36:34: Ja.
00:36:34: Und sehr unterschiedlicher Meinungen in unterschiedlichen Ausprägungen generell sein, aber hier einig sein, dass das eine Irreführung eines staatlich organisierten Beteiligungsverfahrens ist.
00:36:45: Ja.
00:36:45: Und dann erst ist diese Community Note zu sehen.
00:36:48: Wissen wir, genauso funktioniert das System.
00:36:50: What could possibly go wrong?
00:36:52: Das kann doch nie und nimmer vereinbar mit Gesetzen sein.
00:36:57: Weil gerade...
00:36:58: Also in der EU mit Sicherheit nicht.
00:37:00: Garantiert nicht.
00:37:01: Aber ich glaube auch in anderen Staaten nicht, weil gerade Wahlmanipulation ist doch nach ziemlich vielen Rechtsverständnissen so ein Ding, wo man sich schon darauf einigen kann, dass es nicht besonders cool ist eigentlich.
00:37:14: Aber wir haben ja eh einen Unterschied bei der Frage, was nicht besonders cool ist und wie... Scharf wir das in anderen Räumen der Öffentlichkeit verfolgen und wie scharf wir das in digitalen Räumen verfolgen?
00:37:26: Klar.
00:37:26: Den Unterschied gibt es schon überall.
00:37:28: Ja, ja, das stimmt.
00:37:29: Aber den macht man her, hier reist man das Loch ja so richtig auf jetzt.
00:37:33: Ja.
00:37:33: Und dann ist aber, dann stimmen die Leute wieder erwarten ab, also auch die Leute, die zum Beispiel... antidemokratisch sonst sind, sagen hier auch, ja, das ist wirklich eine Irreführung eines staatlichen organisierten Beteiligungsverfahrens.
00:37:48: Und dann ist als Urteil, gibt es dann das Civic Integrity Label und damit wird dann einfach nur dieser Post einer Designersichtbarkeit in Teilen beraubt.
00:38:00: Denn Freedom of Speech is not Freedom of Reach reicht hier als Grundlage.
00:38:04: Das kann nicht richtig sein.
00:38:07: Klingt auch wie so eine Auszeichnung, das Civic Integrity Label, das kann ich mir bei TikTok auch hochladen.
00:38:12: Direkt kannst du neben deinen Doom-Scrolling-Button und deinen, ich habe an einem staatlich organisierten Beteiligungsverfahren teilgenommen, Button erhebten.
00:38:19: Die Jacke ist jetzt schon voll.
00:38:21: Es wird noch ein bisschen unappetitlicher bei dieser Meldung, GROCK.
00:38:25: der Chatbot von Elon Musk hat Antworten gegeben, in denen der Holocaust geleugnet wurde.
00:38:30: Kennen wir schon diese Geschichte.
00:38:32: Und diese Fälle fließen jetzt ein in eine strafrechtliche Untersuchung in Frankreich, die eh schon seit Juli läuft.
00:38:38: Das hat die Staatsanwaltschaft in Paris mitgeteilt.
00:38:40: Besser deren Abteilungen für Cyberkriminalität.
00:38:43: Haken
00:38:43: reinberichtete.
00:38:44: Ja, Haken war dran.
00:38:46: Und
00:38:46: diese strafrechtliche Untersuchung läuft gemeinsam mit der französischen Militärpolizei.
00:38:51: Darin geht es gleich um eine ganze Reihe von Fragen, darunter auch, ob der Algorithmus von X möglicherweise vorangenommen ist, was ausländische Einflussnahme angeht.
00:39:00: Also so weiß man jetzt, wo das in etwa aufgehängt ist.
00:39:04: Was war passiert?
00:39:05: Grog hatte Antworten auf X gegeben, in denen stand Zum Beispiel, dass die Gaskammern von Auschwitz medizinische Einrichtungen gewesen sein, damit es nicht konkret wiederholen so, aber da hat man ganz offenbar Holocaust-Leugnung im Sprachmodell.
00:39:19: Grog hatte auch behauptet, der Holocaust sei eine Erzählung, die durch Zwang zur anseitiger Bildung und kulturelle Tabus aufgezwungen würde.
00:39:29: Also klassische Argumente von Holocaust-Leugnung.
00:39:31: Das ist so skurrierbar.
00:39:33: Es fing doch eigentlich alles so überraschend gut an mit Grog.
00:39:36: Grog war ja auf dem Boden der Fakten.
00:39:38: und dann gab es eben vor einigen Monaten, ich glaube, das war so Anfang Mitte des Sommers rum, haben wir ja darüber gesprochen, dass Elon Musk gefragt hat, was sind Dinge, die umstritten sind, die ihr aber für die Wahrheit haltet.
00:39:52: und dann ist das da eingeflossen.
00:39:54: Ja, Grog hat ja auch oft genug vorher ihn auch widerlegt.
00:39:57: Ja genau, das tut er jetzt nicht mehr.
00:39:58: Genau.
00:39:59: Und es gab ja diese Theorie, ich glaube, von Pip Löckner.
00:40:01: Liebe Grüße an den Doppelgänger Tech Talk.
00:40:03: Der hat das als erstes in den Raum gestellt.
00:40:05: Es gibt nur zwei Möglichkeiten, in diesem Dilemma zu entgehen, dass Grog immer Elon Musk widerspricht.
00:40:09: Entweder Grog ändert sich oder Elon Musk ändert sich.
00:40:12: Also, dass Elon Musk seiner Technik irgendwann von seiner Technik überzeugt wird und sagt, okay, wow, ich habe falsch gelegen.
00:40:18: Oder dass er Grog so lange von der Wahrheit wegschraubt, dass es eigentlich nur noch Schrock generiert.
00:40:25: Und da sind wir jetzt offensichtlich.
00:40:27: Schrock ist ein... Film, glaube ich.
00:40:29: Genau.
00:40:30: Von Elon Dieter.
00:40:32: Es gibt das Ansehen, Ansinnen, das zu verfolgen, übrigens auch auf EU-Ebene.
00:40:38: Also Polen hatte die EU im Juli offiziell auch darum gebeten, Grock wegen antisemitischer Inhalte, wegen hasserfüllter Inhalte zu untersuchen.
00:40:48: Ja, vielleicht noch zu Blue Sky, bevor wir hier zum großen Brüssel rundum Schlag aus.
00:40:59: Kleine Belgienreise.
00:41:01: Ich habe aufgehäuchte heute.
00:41:03: der Bundeskanzler Friedrich Merz ist jetzt bei Blue Sky.
00:41:06: Im Sinne von er schaut sich dort um, gegen wen er Anzeige erstatten könnte.
00:41:09: Ja, und das häufen sich gerade Meldungen.
00:41:11: Genau, es häufen sich Geschichten wie die von Anna zum Beispiel, die bei Blue Sky schreibt, sie hätte gerade Post bekommen.
00:41:18: Unser Bundeskanzler hat mich verklagt.
00:41:20: Anmerkung der Hacken dran Redaktion.
00:41:23: Sie meint vermutlich eher Anzeige erstattet wegen eines Blue Sky Beitrags, an denen sie sich selbst nicht mal erinnern kann.
00:41:31: Aber es häufen sich solche Geschichten.
00:41:32: Ich
00:41:33: habe bestimmt sechs oder sieben solcher Geschichten gelesen.
00:41:36: Und wenn ich...
00:41:37: Bestätigt übrigens mittlerweile durch Anwälte, die sich dann mit den Fällen auch befassen.
00:41:42: Und wenn ich mir dann aber überlege, wie so der Aufschrei groß war, als Robert Habeck seinerzeit Ähnliches getan hat, bin ich mal gespannt, wie so aus ähnlichen politischen Lagern jetzt so die Stimmung kippt, was so die vermeintliche Redefreiheit angeht.
00:41:58: Ich will gar nicht grundsätzlich da jetzt den Hammer schwingen, irgendwie, weil ich bin ja kein Mann.
00:42:02: Das
00:42:02: machen, du bist kein Richter.
00:42:03: Genau, kein
00:42:04: Richter.
00:42:04: Anwälte
00:42:04: schwingen, keine Hammer.
00:42:05: Stimmt.
00:42:06: Anwälte lassen schwingen, weil sie haben Geld für Handwerker.
00:42:12: Wir verzetteln uns.
00:42:13: Ich will da gar nicht den, das Urteil fällen, weil ich bin ja kein Richter.
00:42:19: Mein Gott.
00:42:20: Darüber, ob es fair oder nicht fair richtig oder nicht richtig ist.
00:42:23: Nach unserem Gesetz darf man nicht beleidigt werden.
00:42:26: Wenn man sich beleidigt fühlt, dann darf es rechtliche Mittel einleiten.
00:42:28: Das betrifft jede Privatperson, das betrifft den Bundeskanzler, das betrifft den Wirtschaftsminister, alle.
00:42:33: Und dann wird das jetzt erst mal eben geprüft oder auch nicht legitim.
00:42:37: Interessant finde ich nur das ausgerechnet Friedrich Merz, der ja... sich doch eher häufig in einem eher amerikanischen Sinne positioniert hat, dass der jetzt offenbar sich dann auch daran stört, wenn irgendwelche Privatpersonen auf einem verhältnismäßig irrelevanten Portal irgendwelche Dinge in die Öffentlichkeit geschrieben haben, dass ihnen das so beschäftigt, dass er dann Leute damit beauftragt und ihnen dafür Geld gibt.
00:43:03: Und es ist so, dass Beleidigung meines Erachtens ein... Auf jeden Fall nicht der richtige Begriff.
00:43:09: Ich bin kein Jurist und kein Botaniker.
00:43:11: Aber meines Erachtens ein antragswürdiges Vergehen.
00:43:18: Es bedeutet, das wird nicht von irgendwelchen Staatsanwaltschaften automatisch ermittelt, sondern es muss Anzeige erstattet werden bei einer Beleidigung.
00:43:26: Ein
00:43:27: Antragsdelikt.
00:43:28: Danke.
00:43:28: Vielen Dank.
00:43:29: Du bist Jurist offensichtlich.
00:43:30: Ich hab das Pro Pedautikum bestanden.
00:43:33: Ich weiß nicht mehr, was das ist.
00:43:34: Siehst du?
00:43:35: Ist das so?
00:43:35: das Vorstudium im Jura-Studium?
00:43:37: Ja, so der Beginn, ja.
00:43:39: Ach krass.
00:43:40: Wusste ich nicht, Dennis.
00:43:42: Da für tausend
00:43:42: Folgen lerne ich hier noch neue Dinge über dich, das ist ja geil.
00:43:45: Also der Probedeutiker Dennis Horne stimmt mir zu, dass Beleidigung ein Antragsdelikt ist.
00:43:49: Bedeutet, irgendjemand muss sich daran so gestört haben, dass er damit zu irgendjemandem gegangen ist und gesagt hat, guck dir das mal an.
00:43:55: Und die Wahrscheinlichkeit, dass das entweder Friedrich Merz oder jemand aus seinem Büro ist, ist in dem Fall relativ groß, denn es betrifft ja nur Postings zu Friedrich Merz.
00:44:04: Und das sagt dann auch schon wieder einiges.
00:44:07: So.
00:44:09: Bevor wir gemeinsam nach Brüssel fahren...
00:44:11: Wie kommen wir da eigentlich hin, Dennis?
00:44:17: Eigentlich ist das das eigentliche Thema.
00:44:19: Ohne Scheiß.
00:44:20: Aber lass uns bitte doch zuerst den neuen Jingle abfeuern.
00:44:24: Oh, ist es so weit?
00:44:25: Den grauen Haken?
00:44:26: Ja.
00:44:27: Oh.
00:44:30: Der graue Haken.
00:44:37: Da ist es.
00:44:38: Schön.
00:44:40: Wir müssen es kurz erklären.
00:44:42: Dieses Jingles wird irgendjemand gewinnen.
00:44:45: Das ist so.
00:44:46: Der graue Haken ist ein Preis in dieser Podcast verleiht.
00:44:49: Ihr könnt noch... Knappe neun Tage Vorschläge einreichen unter der E-Mail-Adresse grauerhaken.edhaken.org oder im Discord oder schreibt mir einfach irgendwo, mir auch egal, ich sammel das.
00:45:00: Und das wird dann in eine Abstimmung gehen.
00:45:02: und jetzt fragt ihr euch, wer gewinnt denn diesen Preis?
00:45:04: Na ja, idealerweise eine Person, der diesen Preis persönlich überreichen kann, muss aber auch nicht.
00:45:10: Es geht um die größten Social Media Fails, Peinlichkeiten, Blamagen, Fehler, Fehlentscheidungen in sozialen Netzwerken.
00:45:17: Es ist ein Negativpreis.
00:45:18: Ja.
00:45:19: Deswegen grau.
00:45:20: Exakt.
00:45:22: Auch weil
00:45:24: Holger
00:45:25: keine Farbe mehr hatte.
00:45:27: Holger hat den gebaut.
00:45:28: Es gibt diesen Preis schon.
00:45:31: Aber es ist ein Negativpreis.
00:45:34: Also reicht ein, seid dabei, macht mit.
00:45:36: Und jetzt steigen wir zusammen in ein Fahrzeug, Dennis.
00:45:40: Die EU-Kommission hat den digitalen Omnibus vorgestellt.
00:45:43: Können wir mal ganz kurz, bevor wir da erinnern können, es gibt wirklich
00:45:47: viel, viel
00:45:49: größere Probleme mit diesem Omnibus als der Name.
00:45:52: Aber was ist das für ein Name?
00:45:54: Wirklich.
00:45:56: Es gibt in Neues, einer Kleinstadt in meiner Nähe, gibt es den Omnibus-Bahnhof, den nennt man bis heute so.
00:46:04: Ja.
00:46:06: Und das ist der einzige Kontext, aus dem ich das Wort Omnibus, das ist so ein achtziger Jahrewort, das kenne ich aus meiner Kindheit.
00:46:12: Wer sagt Omnibus?
00:46:13: bitte, was soll das?
00:46:14: Der Zopp, zentrale Omnibusbahnhof gibt es auch in Bottrop, zum Beispiel Bottrop Zopp.
00:46:18: Ja, ich weiß auch nicht, wie dieses Wort da reingerutscht ist.
00:46:21: Also vor allem weil das, was es beschreibt, wir haben das hier schon mal so ein bisschen grob vorgestellt, jetzt ist es aber eben tatsächlich veröffentlicht worden, gehen wir gleich noch im Detail drauf ein.
00:46:31: haben wir das schon mal drüber gesprochen und er schließt sich mir nach wie vor nicht, warum es so heißt.
00:46:36: Ich hab eben in ChatGPT, weil ich hab so gedacht, ich muss mir noch ein paar Gags dazu irgendwie.
00:46:43: Und dann hat mir ChatGPT so Claims dafür
00:46:46: ausgesucht.
00:46:47: GagGPT.
00:46:48: Ich bin gespannt.
00:46:48: GagGPT.
00:46:49: Digitale Omnibus, die Fahrt, die niemand geplant hat, fand ich gut.
00:46:54: Ja, stimmt aber auch nicht, weil es ist ja offensichtlich geplant.
00:46:56: Na ja, okay.
00:46:57: Digitaler Omnibus, bitte hinten einsteigen, vorne verzweifeln.
00:47:03: Ja, okay, das mag ich.
00:47:05: Digitaler Omnibus, alle einsteigen, wir haben es auch nicht verstanden.
00:47:11: Es hat ein bisschen gespiegelt, was ich gefühlt habe.
00:47:15: Digitaler Omnibus, die Fahrt, bei der keiner fragt, wann wir da sind.
00:47:23: Also,
00:47:23: was?
00:47:24: Na ja, anyway.
00:47:25: Wir müssen das so stehen lassen, das heißt so.
00:47:28: Aber was steckt dahinter?
00:47:29: Es ist ein Gesetzespaket, das unter anderem die KI-Verordnung, verschiedene IT-Sicherheitsgesetze, den Data Act und die Datenschutzgrundverordnung anpasst.
00:47:39: Können wir mal kurz darüber sprechen, ganz kurz, warum Datenschutzgrundverordnung mit DSGVO nicht mit D abgekürzt wird.
00:47:48: Nein, können wir nicht.
00:47:49: Okay, danke.
00:47:51: So, wir schauen mal ein bisschen rein, was alles dazugehört.
00:47:55: KI-Unternehmen sollen eine Art Freifahrtsschein bekommen, ihre Systeme mit personenbezogenen Daten trainieren zu können.
00:48:02: Denn das Gesetzespaket sieht hier ein Opt-out vor, also eine Widerspruchsmöglichkeit.
00:48:08: Dann regeln
00:48:10: diese vertretbaren Interessen wirtschaftlicher Unternehmen, wenn hier jetzt über das Persönlichkeitsrecht... Die
00:48:17: berechtigten Interessen.
00:48:18: Genau,
00:48:18: berechtigten Interessen.
00:48:20: Genau.
00:48:21: Dann Regeln für gefährliche KI-Systeme, die im AI-Act der EU stehen sollen aufgeschoben werden.
00:48:28: Später kommen.
00:48:28: Gut,
00:48:31: muss man vielleicht dazu sagen, wenn Chachibiti die Gags so schreibt, wie es Gags schreibt, können wir nicht davon ausgehen, dass Chachibiti morgen Raketen amfeuert.
00:48:38: Also da haben wir ein bisschen Zeit.
00:48:40: So, und die vielleicht... Also, ich fand die Änderung, über die ich mir die meisten Gedanken gemacht habe, liegt darin, dass personenbezogene Daten, also dieser Begriff, im Grunde neu definiert wird.
00:48:54: Aus diesem Begriff sollen pseudonymisierte Daten nämlich zum Teil rausgenommen werden.
00:48:59: Was man mit ein bisschen Ahnung von Datenschutz kritisch sehen kann, weil man weiß, wie einfach sich pseudonymisierte Daten zum Teil doch dann wieder auf Personen zurückführen lassen und eigentlich gar nicht wirklich pseudonymisiert sind.
00:49:11: Dann sollen Rechte von Verbraucherinnen gelockert werden.
00:49:14: Unternehmen und Behörden sollen Möglichkeiten bekommen, Auskunfts- oder Löschanfragen abzuweisen.
00:49:20: Leichter?
00:49:22: Also das sind eine Reihe von Plänen, die man kritisch sehen kann und die sehr dafür sprechen, hier jetzt die Wirtschaft in Schwung zu bringen.
00:49:30: Ich würde sagen, aus so einer Angst heraus, im KI-Zeitalter sonst nicht mehr Schritt halten zu können.
00:49:35: Das sagen die Vertreter der EU-Kommission, auch ein bisschen diplomatischer, aber ja.
00:49:40: Und Sozialdemokraten, Linke, Grüne, aber auch Verbraucherschützer, Grundrechtsorganisationen sind jetzt natürlich hier entsprechend auf der Zinne.
00:49:48: Ja und zwar komplett zurecht, also es gibt ja so ein paar Dinge, bei denen wir als, ich habe das glaube ich in der letzten Folge auch schon mal so ein Play-Doh hier gehalten, aber es gibt einfach Dinge, die bei uns im Wertesystem verankert sind, die wir uns erarbeitet haben als Gesellschaft, die einfach gesellschaftliche Errungenschaften sind.
00:50:07: Das sind Meilensteine gewesen und dazu gehört, dass wir hier und Leute... Jeder kennt diesen einen Typen, der immer auf Datenschutz achtet und bei dem man so ein bisschen mit den Augen rollt auch selber und trotzdem aber ...
00:50:20: Ja, aber sag jetzt nicht, wer es ist, bitte, komm, weil es Datenschutz
00:50:24: ist.
00:50:24: Nein, aber in den letzten mindestens fünf, vielleicht zehn Jahren haben wir alle auch gemerkt, na ja, der hat schon auch immer ein bisschen recht.
00:50:30: Und diese Erkenntnis, die ist eigentlich ein Erfolg, weil das ist progressive Entwicklung, das ist Fortschritt.
00:50:37: Persönlichkeitsentwicklung, dass man solche Erkenntnisse dann auch sich eingestehen kann.
00:50:40: Aber wir haben das alle erkannt.
00:50:42: Ich will nur sagen, das jetzt zurückzuschrauben, weil andere Gesellschaften, andere Kulturen das nicht haben, das ist kein Fortschritt und das ist nicht Innovationsförderung.
00:50:51: Entschuldigung, und was ist denn mit diesem pathetischen, wir sind das dritte Modell, die USA, der Turbukarpitalismus, China, die Überwachungsgesellschaft und wir in Europa sind das dritte Modell, das auf Datenschutz und Bürgerrechte und ja.
00:51:06: Ja, von wegen.
00:51:09: Ja, gut.
00:51:11: Dazu gehört aber auch, und das finde ich eigentlich das Interessante an diesem digitalen Omnibus, das ist so kleine... Also, wie soll ich das sagen?
00:51:20: So Schrottwichte Geschenke gibt es ein bisschen.
00:51:22: Also da ist Geschenkpapier drum und eine Schleife und dann übergibt uns das als Bürgerinnen und dann sagt man, hier guck mal, ist es auch gut für dich.
00:51:28: Wie zum Beispiel, dass diese Cookie-Banner entfallen können, weil die Idee ist, dass du das im Browser festlegst, also dass eben die Browser dazu verpflichtet werden, diese, deine Entscheidung sozusagen an die Website weiterzugeben, ob die Website sich daran halten oder nicht, kann man dann nicht mehr richtig überprüfen, aber wer will denn da auch so genau hinschauen.
00:51:46: Aber das sind dann so kleine Dinge, bei denen man so sagen muss, ich habe die These, dass die damit reingeschrieben wurden, damit das am Ende die Schlagzeilen dominiert und eben nicht die Tatsache, dass es eben eine Veränderung der persönlich, der personenbezogenen Daten gibt.
00:52:01: Ich habe ganz andere Fragen.
00:52:02: Wer
00:52:03: fährt den digitalen Omnibus?
00:52:04: Man braucht einen Innovationsführerschein muss.
00:52:06: Genau, ist das ein Ziamonika-Bus, also der in der Mitte, wo es immer wackelt?
00:52:11: Sitzen in der letzten Reihe die Typen, die noch kurz vor der Plenarsitzung die Gesetze fertig schreiben.
00:52:15: Die aber währenddessen laut Cloudflare hören.
00:52:18: Auf deinem Handy.
00:52:20: Ja, also können wir über solche Dinge vielleicht sprechen.
00:52:23: Gibt es eine Stopptaste und wie heißt die nächste Haltestelle?
00:52:27: Der Omnibus heißt doch Omnibus, weil der doch überall hinfährt, oder?
00:52:30: Nee, ich glaube, weil der Omni also für alle ist.
00:52:32: Ach so, dann schade.
00:52:35: Und darf man während der Fahrt mit dem Fahrer sprechen?
00:52:39: Wir werden das nie erfahren.
00:52:40: Wir werden es
00:52:43: nie erfahren.
00:52:43: Das ist eine gute Frage.
00:52:45: Das ist aber auch ein bisschen philosophisch.
00:52:47: Und zum Schluss natürlich wie immer die Frage, wie alt ist der Bus?
00:52:54: Das ist heute eine Folge, die für Leute, die letzte Folge gehört haben, doppelt Spaß macht.
00:52:59: Richtig.
00:53:03: Wir sind noch nicht fertig mit der EU, ich hab noch so viel.
00:53:07: Bist du mit dem Omnibusen fertig, weil ich will so zwei, drei Dinge noch kurz erwähnen.
00:53:10: Ja bitte, dann mach das
00:53:10: so.
00:53:11: Es gibt ein ganz großes, langes Statement von NOYB Neub, der Datenschutz, wie sagt man das Datenschutzverein von Max Schrems.
00:53:19: ... die dadurch bekannt geworden sind, dass sie eigentlich ... ... ich glaube, es gibt keine ... ... keine Justizstelle, keine Legal-Abteilung ... ... in irgendeinem Tech-Unternehmen, ... ... die seinen Namen noch nicht kennen.
00:53:30: Wir packen dieses Statement mal ... ... in die Show Notes, da könnt ihr euch ein bisschen ... ... einlesen und den Netzpolitiktext ... ... mit dem Namen auf Crash-Kurs ... ... mit den digitalen Grundrechten, ... ... den packen wir euch auch in die Show Notes.
00:53:40: Die sind nämlich beide ... ... auf jeden Fall eine Lektüre wert, ... ... wenn ihr euch mit dem Thema auseinandersetzen wollt.
00:53:46: So.
00:53:47: Ja.
00:53:47: Und ich wollte aber, das schließt noch an, kurz erzählen, dass der Ministerrat der Europäischen Union neue Regeln verabschiedet hat, um die Zusammenarbeit zwischen den Datenschutzbehörden in den EU-Staaten zu verbessern, wenn es um die DSGVO geht.
00:54:04: Damit sollen vor allem Datenschutzbeschwerden beschleunigt werden, die grenzübergreifend laufen.
00:54:08: Und hier in erster Linie das, was wir Freunde von Google, Apple, Microsoft, Meta, IBM, Amazon, Salesforce, SAP, Oracle, LinkedIn, die alle einen Sitz in Dublin haben, das Irland-Problem.
00:54:20: Das Irland-Problem.
00:54:22: Also die Datenschutzbehörde in Irland gilt als Flaschenheiz schon immer.
00:54:26: Ich hab übrigens, ganz kurz noch, es gab immer dieses, wo sitzt sie?
00:54:30: Und dann gab's dieses Google Street Maps-Bild von irgendwie leicht außerhalb Dublin, sondern Bruchbude, wo angeblich die Datenschutzbehörde sitzt.
00:54:40: Ich hab jetzt noch mal neu geguckt.
00:54:42: Es ist jetzt leider die Innenstadt mit einem modernen Glasgebäude.
00:54:45: So kann man auch keine Witze mehr drüber machen.
00:54:48: Du
00:54:49: willst ja auch nicht die neue Präsidentin oder was ist das?
00:54:51: Mitarbeiterin auf jeden Fall, die ja von Meta kommt, die kannst du ja auch nicht in schlechte Büros setzen.
00:54:56: Vielleicht war der Imbiss unten drunter gut, aber also jetzt nicht mehr.
00:55:00: Jetzt schöne, neue, moderne Glasfassade.
00:55:04: Also auf jeden Fall gilt trotzdem die Datenschutzbehörde in Irland als Flaschenhals und künftig soll aber.
00:55:11: egal von wo aus der EU eine Datenschutzbeschwerde kommt, die Entscheidung über deren Zulässigkeit auf Basis derselben Kriterien beurteilt werden.
00:55:20: Also keine nationalen Auslegungen mehr, was ich eine gute Sache
00:55:24: finde.
00:55:24: Das ist eine gute Sache.
00:55:25: Das Problem ist natürlich, wenn man sagt, okay, wir passen jetzt die Datenschutzgrundverordnungen, die Datenschutzgrundverordnungen so an, dass das Niveau niedriger wird, damit eigentlich überall dasselbe herrschen und es auch keine Flaschenhals sind, kein Interpretationsspielraum mehr gibt, ist dann die Frage, ob man wirklich was gewonnen hat.
00:55:40: am
00:55:40: Ende.
00:55:41: So und hier noch ein paar letzte EU Schlagzeilen.
00:55:44: Alles Fälle für den Digital Markets Act.
00:55:48: Die EU leitet eine Duma-Untersuchung gegen Google ein wegen des Rankings von Nachrichtenverlagen in den Suchergebnissen.
00:55:55: Google soll Websites mit Werbeinhalten von Drittanbietern nämlich herabstufen.
00:56:01: Opera sagt übrigens, dass der DMA zu einem fünffachen Wakt, also Opera der Browser.
00:56:07: für die, die nicht kennen, dass der DMA zu einem fünffachen Wachstum, zu einem Plus von achtundachtzig Prozent bei den täglichen IOS-Nutzungen in ganz Europa beigetragen habe.
00:56:17: Frazier, weil du gefragt wirst, was Sandstern und Browser sind, die dann quasi angeboten sind.
00:56:22: Und Apple hat eine Studie über den DMA finanziert, die sagt, Entwickler geben die Einsparungen bei den App-Store-Gebühren, also das Geld, das sie an Apple zahlen müssen, nicht an die Nutzerinnen weiter.
00:56:34: Also der DMA sorgt dafür, dass das geringer ist, diese Gebühr an Apple.
00:56:39: Und die Preise für einund neunzig Prozent der Apps sind aber unverändert geblieben oder hätten sich sogar erhöht.
00:56:45: Und dann hat die EU-Kommission ... Ja,
00:56:47: ich wollte nur sagen, es ist natürlich offensichtlich, was das Interesse von Apple ist.
00:56:51: Apple hat nicht im Sinn, dass die Nutzer in weniger Zahlen, sondern Apple will noch mal klarmachen, dass sie hier weniger kriegen und deswegen diesen ... Ungerechten Gesetzen in Europa.
00:57:04: Ja, wobei sie trotzdem an Punkt haben.
00:57:06: Ich meine, das ist doch dasselbe, wie mit irgendwie.
00:57:08: Mehrwertsteuer wird gesenkt und trotzdem bleiben die Preise überall gleich.
00:57:13: Also es ist nicht, als hätten sie keinen Punkt.
00:57:15: Wut drin, der Verbraucher-Podcast.
00:57:18: So, und so ist das doch.
00:57:21: Da darf ja gar nichts mehr sagen.
00:57:23: Und die EU-Kommission hat drei DMA-Untersuchungen zu Cloud Computing-Diensten noch angeleitet, zwei davon prüfen, ob Amazon und Microsoft als Gatekeeper für ihre Cloud Computing-Dienste AWS und Azure angestuft werden sollten.
00:57:37: Das ist super interessant, weil die Frage ist ja, wann ... Also, damit du als zum Beispiel Gatekeeper-Gilts oder Flop-Gilts musst eine gewisse Anzahl an NutzerInnen zum Beispiel haben und eine gewisse Marktpräsenz haben und so weiter.
00:57:50: Und im Fall von AWS zum Beispiel ist es so, dass ich glaube, die Zahl war ein Fünftel des Internets läuft über AWS.
00:57:57: Glaub ich, könnte mich täuschen, aber ich glaube, so ein Wert in der Größenordnung war das.
00:58:03: Je nach Definition von NutzerInnen, von Marktanteil.
00:58:09: Wäre das hier schon ganz schön wichtig, diese Maßnahmen auch auf Amazon Web Services sozusagen anzulegen.
00:58:15: Gleichzeitig muss man aber auch sagen, dass der DMA ja eigentlich vor allem eben den Markt reguliert und in der Definition muss es sofort eigentlich greifen.
00:58:28: Ich fand ganz interessant, dass überhaupt die ... Diese Cloud Anbieter, jetzt ein bisschen mehr generell in den Blick kommen.
00:58:41: Ja, voll.
00:58:43: Und Leute kennen das.
00:58:44: Also du hast ja beim Cloudflare-Ausfall gesehen, den Menschen war das durchaus ein Begriff Cloudflare.
00:58:49: Genau, wobei ihnen nicht eben bewusst war, welche ganzen Dienste darauf lagen.
00:58:53: Und dritte Untersuchung nur ganz kurz.
00:58:56: Es wird geprüft, ob der DMA auch praktiken wirksam bekämpfen kann, die den Wettbewerb und die Fairness im Cloud Computing Sektor.
00:59:05: beanträchtigen könnten.
00:59:06: Ja, und bevor das Gehaus gibt wird, mir ist klar, dass Cloudflare kein Hyperscaler ist und auch kein Cloudcomputing-Anbieter.
00:59:12: Mir ging es nur darum, dass die Leute ein Verständnis für die Infrastruktur hinter dem Internet
00:59:15: haben.
00:59:16: Genau, die darunter liegenden Dinge, die man nicht so direkt sieht, wie viel da eigentlich auf verhältnismäßig wenigen Säulen
00:59:26: ruht.
00:59:27: Ja, voll.
00:59:29: Ja, gut.
00:59:30: Wir haben schon eine Stunde rum.
00:59:33: Ach,
00:59:33: Scheiße.
00:59:34: Wir hätten noch so ein bisschen Themen, die kommen dann an der
00:59:36: Motor.
00:59:36: Themen sammeln sich.
00:59:37: Aber Funktionen machen wir noch, oder?
00:59:38: Weil ich hab da noch ein bisschen was zu sagen.
00:59:41: Und auch zu fühlen.
00:59:42: Ja, ich hab Gefühle.
00:59:43: Ja,
00:59:44: dann fühl mal.
00:59:46: Funktionen und Emotionen.
00:59:50: Dennis, ich hab ein Housekeeping.
00:59:52: Du hörst mich nicht mehr?
00:59:54: Ich kurz nicht mehr gehört.
00:59:55: Jetzt
00:59:55: hörst du mich
00:59:56: wieder.
00:59:56: Jetzt hör ich mich wieder.
00:59:57: Hör ich mich wieder.
00:59:57: Hör ich mich wieder.
00:59:58: Hör ich mich wieder.
00:59:58: Dich aber auch.
00:59:59: Ja.
01:00:00: Okay, Dennis hört mich wieder.
01:00:01: Will ich schneiden?
01:00:01: Kurzer Schock.
01:00:03: Nee, die Leute lieben das.
01:00:05: Die Leute lieben das.
01:00:07: Und zwar hab ich einen Housekeeping in der Rubrik.
01:00:12: Kurz.
01:00:12: Und zwar geht es um Dolby Vision.
01:00:14: Erinnerst du dich an die letzte Episode?
01:00:16: Oh mein Gott, ja.
01:00:17: Und zwar hat Instagram angekündigt, dass Dolby Vision auf Instagram eingeführt wird.
01:00:22: Und wir hatten sehr viele Fragezeichen.
01:00:24: Wir haben aber auch sehr schlaue Haki's.
01:00:26: Wir haben viele Leute, die sich damit auseinander gesetzt haben.
01:00:29: Ja, wir möchten kurz sagen, wir hatten auch viele Fragezeichen, weil dieser ganze Instagram
01:00:34: Text
01:00:35: auch wieder Meta-Sprech
01:00:36: war.
01:00:36: Das stimmt.
01:00:37: Aber wir haben sehr schlaue Haki's im Discord, die den Meta-Sprech ... ... lesen und dekodieren können.
01:00:44: Und zwar geht es jetzt, erst mal haben wir die Frage gestellt, wie möchte Instagram den Sicherstellen, dass Inhalte auf allen Geräten gleich aussehen, wenn doch so viel Wildwuchs auf dem Smartphone-Markt existiert.
01:00:55: Ganz so einfach, es betrifft nur IOS-Geräte.
01:00:58: Und damit ist Teil dieser Antwort eben auch schon gegeben.
01:01:01: Die Anzahl der Displaypanels, die Apple in den letzten zehn Jahren verbaut hat, die ist so überschaubar.
01:01:05: Da kann man relativ schnell Angleichung machen und Referenzwerte festlegen und Weißwerte.
01:01:10: kriegt man gerade noch hin.
01:01:12: So, zweitens AMV, du erinnert sich an AMV, das ist der System, mit dem die Gleichschaltung der Videos vorgenommen werden soll, also dass sie alle gleich aussehen auf ein Gerät.
01:01:25: AMV entsteht nicht während dem gucken der reals sondern während des uploads.
01:01:32: du schickst quasi während du es hochlädst weiß werte mit damit auf allen anderen geräten sozusagen das mit übersetzt werden kann.
01:01:39: also es geht nicht um deine anschaubedingungen sondern um den weiß abgleich bei der aufnahme.
01:01:46: das heißt nicht
01:01:48: wenn du es innerhalb von instagram aufnimmst
01:01:50: Wahrscheinlich.
01:01:52: Aber du kannst nicht zwangsläufig Dolby Vision Certificate gucken, aber du kannst jetzt Dolby Vision Certificate produzieren in Instagram.
01:02:02: Ja, das war's.
01:02:03: Toll, ne?
01:02:05: Aber ein bisschen haben wir hier noch stehen.
01:02:08: Ja, ja, jetzt geht es ja los.
01:02:10: Genau.
01:02:11: Also vielleicht bleiben wir bei Instagram kurz.
01:02:14: Bitte.
01:02:16: Kollaborationen.
01:02:18: Collapse.
01:02:19: Das war mein Lieblingspost von Edamon Sari.
01:02:21: Das musst du mir gleich noch, musst du uns gleich allen noch erzählen.
01:02:26: Kannst du in Zukunft auch nach der Veröffentlichung noch umsetzen?
01:02:29: Das Spannende ist, dass ich, ich glaube, in der vergangenen Woche ein Seminar gegeben habe und jemand gefragt hat, ob das geht.
01:02:37: Und ich habe gesagt, klar kannst du Nachdrehkollabor-Postings noch dranheften, weil ich dieses Feature schon immer habe.
01:02:46: Und wir wissen ja, Instagram rollt so Features gerne mal so Testweise ein, ein, zwei, fünf, zehn Prozent der Nutzerinnen aus.
01:02:51: Und ich haute dieses Feature schon die ganze Zeit.
01:02:53: Turns out mit dieser Meldung, das betraf nicht alle Leute.
01:02:56: Ich habe Mist erzählt in meinem Seminar.
01:02:57: Die Leute mussten sich eigentlich nur bis heute gedulden, denn jetzt geht es für alle.
01:03:01: Also hast du eigentlich gesagt, was stimmt?
01:03:05: Ja,
01:03:05: genau.
01:03:05: Die Leute brachten nur geduld.
01:03:06: Ja, genau.
01:03:07: Also, erst mal.
01:03:11: Social Media Seminare zu geben, ist genau aus dem Grund ein ganz großer Abfack.
01:03:15: immer mal wieder, weil du ganz oft als Dozent vorne stehst.
01:03:20: Und dann sagst du ja klar, zeig ich mal und dann öffnest du das und dann geht das nicht mehr.
01:03:24: oder innerhalb der letzten vierundzwanzig Stunden hat Facebook sein komplettes Menü umgestellt und irgendwas geht nicht mehr oder ist nicht mehr aufwenden, dann schießt du da immer wie so ein Dover.
01:03:35: Aber deswegen sage ich immer, bevor ich die Meta Creative Suite oder Creator Suite oder Business Suite oder wie sie danach.
01:03:40: heute heißt, bevor ich die aufmache, sage ich, die sieht jeden Tag anders aus, Leute.
01:03:45: Ja, genau.
01:03:46: Man muss der Sache den Wind aussegeln.
01:03:48: Das
01:03:48: ist der schlimmste Ort im Internet.
01:03:50: Das ist so.
01:03:51: Adam Osiria, diese...
01:03:52: Was ist jetzt mit Adam Osiria?
01:03:54: Ja, der hat das angekündigt mit diesen, das Collapse jetzt nachträglich auch in Zug gefügt werden können und hat einen Reel dazu gepostet und das wurde automatisch mit Instagram untertitelt.
01:04:02: Und da drunter stand, one of my favorite Instagram Features ist Collapse.
01:04:05: Aber mit PSE.
01:04:06: Mit
01:04:07: PSE, weil die Worteckennung das genau so verstanden hat.
01:04:11: Und ich dachte irgendwie, ich fühl's irgendwie auf eine Art, stimmt schon.
01:04:13: Ja, ja,
01:04:16: ja.
01:04:17: Sehr schön.
01:04:18: So, dann... YouTube testet gerade.
01:04:25: Innerhalb der YouTube App direkt Nachrichten versenden und Videos mit anderen Teilen zu können.
01:04:31: Ich hab
01:04:31: so viele Gefühle denn, ich weiß gar nicht, wo ich bin.
01:04:33: Ich
01:04:33: glaub ich, weil du bist ja dieser YouTube, wo ich jedes Mal sage.
01:04:36: Und zwar, also Test läuft in Polen und Irland.
01:04:40: Also.
01:04:40: Und jetzt deine Gefühle.
01:04:43: Full Circle Moment.
01:04:46: Wir hatten schon mal Privatnachrichten auf YouTube, als YouTube noch ein soziales Netzwerk war, als man auf YouTube mit Videos auf Videos antworten konnte.
01:04:54: Da gab es ein Postfach bei YouTube.
01:04:57: Das wurde irgendwann klammheimlich einfach weggepackt.
01:05:01: Jetzt hat YouTube offenbar festgestellt, dass sie die letzte App auf dem, dem Telefon sind, dass keine Privatnachrichten hat, weil es gibt inzwischen Privatnachrichten bei Spotify, es gibt Privatnachrichten bei Quiz-Duell.
01:05:13: Ich kann eigentlich überall Privatnachrichten verschicken, nur bei YouTube nicht.
01:05:17: Und das wollen Sie jetzt aufheben.
01:05:19: Ich... Bin gespannt, ob man mehr darüber tun kann, als Videos verschicken.
01:05:23: Denn der komplette Text, den sie geschrieben haben, liest sich so als könntest du in der Direktnachrichten nur Funktionen bei YouTube nur Videos teilen.
01:05:32: Und dann frage ich mich so ein bisschen, warum?
01:05:35: Weil das kann ich ja nun wirklich über jedes andere Messaging-Tool auch.
01:05:41: Ja, es ist vielleicht ein bisschen mehr ... more seamless.
01:05:46: Sagt man das so?
01:05:47: Ja, würde man so sagen, das Problem bei YouTube ist aber das, und jetzt, ich will nicht das ganz große Brett jetzt bauen, aber wir könnten.
01:05:53: Aber wir sind schon... Wir
01:05:54: haben die Zeit.
01:05:54: Es ist, es ist, eine Stunde sechs sind um und Gavin beginnt das ganz große Brett zu
01:05:59: bauen.
01:06:00: Nee, muss ich jetzt nicht machen.
01:06:01: Aber die Bedeutung von YouTube-Profilen hat sich ja in den letzten Jahren noch mehrfach verändert.
01:06:07: Und heute ist ein YouTube-Profil eigentlich nichts anderes als das Profil auf deinem Apple TV oder das Profil bei Netflix, nämlich ein Cook-Profil.
01:06:15: Ja.
01:06:16: So, wenn ich etwas hochlade bei YouTube, dann mache ich das in der Regel mit einem anderen Profil.
01:06:20: nicht unbedingt, aber häufig.
01:06:22: Heißt also, dass... Warum
01:06:24: ist das so?
01:06:24: Für alle, die YouTube nicht so stark nutzen?
01:06:26: Na ja, weil du zum Beispiel eine Brandseite anlegen kannst, mit der du dann nicht zwangsläufig die ganze Zeit zugeballert wirst mit Kommentaren, wenn du in deinem Privatprofil unterwegs bist.
01:06:35: Oder weil du vielleicht auch nicht möchtest, dass wenn versehentlich deine, eine deiner Playlists noch öffentlich gestellt ist, dass einer deiner hunderttausend Abonnentinnen sehen kann, was du gerade für Videos in deine private Playlist Packs, die heißt, achziger Jahressongs gecovert von schlechten Fans auf dem Casu.
01:06:49: Zum Beispiel.
01:06:50: Ich habe so eine Liste, natürlich nicht, aber theoretisch.
01:06:55: Und das führt aber dazu, dass es eben anders als in anderen Netzwerken nicht die eine Identität gibt.
01:07:01: Also bei Instagram ist es auch nicht ganz so.
01:07:04: Aber bei Facebook zum Beispiel hast du das, glaube ich, sehr gutes Beispiel gibt es, das einem Profil und du hast dann eine Seite, die du administrierst.
01:07:11: Und so ist es bei YouTube inzwischen auch ein bisschen.
01:07:13: Stellt sich also die Frage.
01:07:14: ... mit welchem Account verschicke ich da ins die Privatnachricht.
01:07:17: Mit dem, mit dem ich gucke, ... ... mit dem, wo ich die ganzen Follower-Innen habe, ... ... möchte ich den Leuten, ... ... denen ich meine Videos empfehle, ... ... mein privates Profil zeigen.
01:07:26: Also entstehen dadurch so Dilemmata, ... ... bei denen ich mehr ...
01:07:31: Ja, es führt dazu, dass du an anderer Stelle wieder ... ... die Privatsphäre-Anstellung
01:07:35: bemühen musst,
01:07:36: oder
01:07:36: so.
01:07:36: Ja, genau.
01:07:37: Es ist ein bisschen Cluster-Fuck bei YouTube, ... ... wie man mit dem Profil umgeht.
01:07:40: Und das finde ich ein bisschen schade, ... ... weil der früheste definitiv ... Das Profil zwar ja einfach broadcast yourself, jeder konnte einfach ein Profil machen, konnte darüber Videos hochladen, konnte mit Leuten schreiben, das war unik.
01:07:53: So und das ist aber jetzt eben nicht mehr so und ich glaube da haben sie sich ein bisschen faules eingelegt ins eigene Nest.
01:08:01: Ich habe noch drei Kleinigkeiten oder kleinere Geschichten zum Schluss an Funktionen und Emotionen über die wir reden sollten.
01:08:07: Ja bitte.
01:08:08: Ich finde wir enden mit einer sehr schönen, aber also bei LinkedIn ist das Videotap weg.
01:08:16: Das war's dann wohl.
01:08:18: Ciao, Liktok.
01:08:21: Das ist deine Emotion.
01:08:22: Dann gibt's bei Instagram-Kommentaren.
01:08:27: Jetzt unten drunter die kleine Option Share on Threads.
01:08:33: Ja, das ist doch toll, damit wirklich niemand mehr versteht, worüber man da eigentlich gerade sich
01:08:37: aufzlauscht.
01:08:37: Genau.
01:08:38: Kontextbefreiung galore, oder?
01:08:40: Das finde ich gut.
01:08:41: Das finde ich ist ein guter Claim.
01:08:42: Können wir da so Aufkleber machen, wo das draufsteht?
01:08:45: Schlafen wir es auf, Kontakt befragen, geläuft.
01:08:47: Sehr schönerseits.
01:08:48: So, und dann haben wir die dritte Geschichte und das fand ich, da hab ich Emotionen.
01:08:56: Also, Threads Tested mit einer Reihe von NutzerInnen in den USA die Möglichkeit, dass wenn du neuen Beitrag verfasst, dann gehst du da rein, beginnst zu tippen und dann schreibst du rein, Dear Algo.
01:09:10: Also, lieber Algorithmus, Dear Algo.
01:09:14: Und dann kannst du danach eingeben, wovon du ein bisschen mehr sehen möchtest, wovon weniger.
01:09:19: du chattest mit deinem Algorithmus und das ändert sich dann für die nächsten drei Tage.
01:09:23: Das
01:09:24: für drei Tage auch noch.
01:09:26: Also du machst bald Threads auf und du siehst nur Leute, die mit ihrem Algorithmus sprechen.
01:09:31: Was ist denn das?
01:09:33: Das ist tatsächlich so, das sollte man da zusagen, Leute sehen das dann, du postest
01:09:36: das dann.
01:09:38: Also, ich weiß gar nicht... Dir,
01:09:40: Algo, zeig mir mehr sexy pics.
01:09:42: Und dann steht das da.
01:09:44: Dir, Algo, zeig Fuß.
01:09:47: Also das ist wirklich in jeder Hinsicht wahnsinnig dämlich, weil auf der einen Seite wird die Threads Nutzer-Erfahrung dadurch beschissener.
01:09:56: Da das nur drei Tage anhält, müsste es das immer wieder tun.
01:09:58: Das heißt, es hat keine Nachhaltigkeit.
01:09:59: Das heißt, die Leute werden das irgendwann einfach auch nicht mehr tun.
01:10:01: Das heißt, die Idee ist jetzt schon eine Fehl-, wie sagt man, Investition, weil die Leute, die das entwickelt haben, offenbar einfach jetzt was entwickeln, das irgendwann keiner mehr benutzt.
01:10:11: Und drittens, also ich habe hier mal das Oracle von Selfie.
01:10:15: Ich habe hier mal eine These aufgestellt.
01:10:19: Und zwar
01:10:20: habe ich gesagt.
01:10:20: Ich werde übrigens gleich dagegen halten.
01:10:23: Jetzt schon.
01:10:24: Ja, ich weiß noch nicht.
01:10:25: Mach mal weiter.
01:10:26: Okay.
01:10:26: Ich habe gesagt, dass Threads auf jeden Fall eine Antwort finden wird.
01:10:33: Darauf, dass auf X dieses Ad GROCK ist this true, so krass performt.
01:10:38: Weil das ist für X das sehr clever.
01:10:41: Auf der einen Seite hast du eine dauerhafte Sichtbarkeit deiner eigenen KI-Tools, die die Leute nutzen.
01:10:46: Du hast deiner eigenen KI damit eine unglaubliche inhaltliche Autorität gegeben, die wird irgendwie so als allwissend wahrgenommen.
01:10:55: Es wird dauerhaft überprüft.
01:10:56: Man gleichzeitig überprüft Leute, die was posten, sich selber, weil sie überlegen.
01:11:00: Es wird jetzt gleich irgendwie von GROCK E gefackt.
01:11:02: Faktenchecked und so.
01:11:06: Aber ganz kurz.
01:11:08: Und damit ja ein Szenario, das auch Chat GPT jetzt erst angeführt hat.
01:11:14: Nämlich eine Möglichkeit eines Gruppenchats mit Chat GPT.
01:11:19: Das ist auch, glaube ich, heute in der Liste von Funktion und Emotion theoretisch.
01:11:23: Kann man gleich noch kurz anschneiden.
01:11:27: Ich glaube, dass meine These weit das wird irgendwann bei Threads adaptiert werden, irgendwie mit einer KI öffentlich zu sprechen, damit alle das tun.
01:11:34: Das jetzt aber so zu machen, dass du damit eigentlich eine Einstellung vornimmst, die bei Instagram ja auch schon angekündigt ist, nämlich Algorithmusmanipulation oder Anpassungen oder Optimierungen vornehmen zu können, aber öffentlich, damit das, wie du eben schon gesagt hast, auch erst recht niemand mehr tut, weil man im Schiff auch gar nicht möchte, dass Leute das lesen.
01:11:53: Ich
01:11:53: kann dieser Idee gar nichts abgewinnen.
01:11:57: Also, ich kann nur dem, man postet das dann auch öffentlich nichts abgewinnen.
01:12:02: Was soll denn der Quatsch?
01:12:03: Ja, genau.
01:12:04: Aber grundsätzlich finde ich das mega smart.
01:12:08: Dass man dem Algorithmus eine Idee gibt, was man gerne kennt.
01:12:11: Ja.
01:12:11: Ja, voll.
01:12:12: Aber das ist für Instagram, kommt das ja auch in der Einstellungsfunktion.
01:12:15: Da gibt es schon Screenshots, wo du dann reinschreiben kannst, ich melde gern mehr Hunde, weniger Katzen.
01:12:21: Und dann kriegst du mehr Hunde weniger.
01:12:22: Ja, aber halt in der Einstellungsfunktion.
01:12:24: Und dass du sozusagen hier seamless alles in allem hast.
01:12:27: Das ist das Ding, wo du postest.
01:12:29: Aber wenn du dir Algo eingibst, passiert ein bisschen was anderes.
01:12:33: Und du kommst in die... Ich find das smart.
01:12:36: Du plädierst gerade für so eine soziale Netzwerke mit einer Konsole.
01:12:43: Was geil wäre, übrigens.
01:12:44: Die
01:12:44: Algo.
01:12:45: C-Doppelpunkt.
01:12:47: Backslash.
01:12:48: Autoexekt.bat.
01:12:50: Übrigens kann ich dir noch erzählen, Chat.
01:12:53: GPT testet derzeit eine neue Gruppen Chat Funktion.
01:12:55: Ach toll, ob das sollte passieren.
01:12:57: An der können bis zu zwanzig Personen teilnehmen, wie ein normaler Gruppen Chat.
01:13:01: Ich schlage meinen Kopf gegen
01:13:02: das Mikrofon.
01:13:03: Ich schlage meinen Kopf gegen das Mikrofon, weil... Ich habe ja eben noch gesagt, YouTube hat festgestellt, sie sind die einzige App auf den Telefonen, die noch keine Privatnachrichtenfunktion hat.
01:13:11: Falsch.
01:13:12: Chat GPT auch.
01:13:13: Bis jetzt.
01:13:15: Ich warte ab, bis Chat GPT Stories
01:13:17: kommen.
01:13:18: Dennis, ich habe mehr... Apps mit Postfächern, als ich Leute kenne, denen ich Nachrichten schreiben würde.
01:13:24: Wo bleibt die Postfach-App?
01:13:27: Das ist ja toll, wie Trillion quasi, die alle Postfächern zusammenführt.
01:13:31: Und dann auch die Profile zusammenführt.
01:13:32: Also wenn Ed Dennis Horn auf Instagram mir schreibt, dass es im selben Verlauf aufdacht, wie wenn Dennis mir auf WhatsApp schreibt und bei einem Message.
01:13:39: Was er beides tut, Dennis.
01:13:41: Zehn Leute bei Mastodon antworten uns, jetzt gibt's schon heißt Fiddiverse.
01:13:46: Ja, dann sag ich mal, okay, dann schreib doch mal Haken dran.
01:13:49: Und zwar nicht den PeerTube-Account oder nicht den Pixel-Fett-Account, sondern bitte den Mastedone-Account.
01:13:53: Jetzt schreiben zwanzig Minuten.
01:13:56: So, ich möchte.
01:13:58: zum Schluss möchte ich noch das für mich wichtigste Housekeeping unterbringen, das seit der letzten Episode uns angetragen wurde.
01:14:07: Seit unserem kleinen Ausflug in die Märchenwelt.
01:14:10: ... mit dem Richter, dem Bezirksrichter.
01:14:12: Oh ja, ich weiß, was kommt.
01:14:13: Ja, es liegt mir
01:14:14: leid.
01:14:15: Und den Hafenklängen, die du in den Hintergrund gelegt hast, ... ... war es eine Harfe.
01:14:21: War das nicht eher ein Spinnett?
01:14:23: Es war vermutlich ein Spinnett.
01:14:25: Zu meiner Entschuldigung möchte ich dir zu sagen, ... ... ich habe die Musik mit ... ... ich habe die in demselben Moment das erste Mal gehört, ... ... als ihr sie das erste Mal gehört habt.
01:14:34: Und ich habe Harps eingegeben.
01:14:37: Wichtig ist gar nicht, ob es eine Harfe war oder ein Spinnett.
01:14:40: Wichtig war, ob die Stimmung passte.
01:14:43: Und ich würde sagen, sie passte.
01:14:44: Vielleicht sind die Warenhafen ja auch die Freunde, die wir auf dem Weg gemacht haben.
01:14:49: Ja.
01:14:50: Hafen dran, das Spinett-Update.
01:14:55: Als Kind mochte ich Spinett ja nicht so gerne, aber heute war es für mich einfach zu einer guten Pizza dazu.
01:15:00: Ich finde, dass Rahmspinett die einzig wahre Hafe ist.
01:15:04: Das mit dem Blub.
01:15:06: Mein Gott, das wird nicht besser.
01:15:07: Wir haben Wochenende jetzt, Dennis.
01:15:09: Ja, deswegen sind wir auch so drauf.
01:15:10: Wir wünschen euch lieber Harkis Selbiges.
01:15:13: Wer kommt nächste Woche?
01:15:14: Wie geht es hier weiter?
01:15:15: Hier geht es weiter am Montag.
01:15:16: Da kommt Charlotte Foss.
01:15:17: Ich freue mich sehr darauf, soll ich mal eine Wochenübersicht geben?
01:15:19: schon.
01:15:19: Mach mal.
01:15:21: Am Montag kommt schon Leute vor.
01:15:22: Ich freue mich sehr drauf.
01:15:23: Die waren nämlich auch wirklich schon ein paar Monate nicht mehr da.
01:15:26: Und mit der ist immer schon... Als die letzte Mal hier waren wir das erste Mal darüber gesprochen, dass Meta, ich glaube, ein neunzig Terabyte Pornografie im Internet verbreitet hat.
01:15:34: Also, die ist immer ein Garant für die guten Stories.
01:15:37: Dann kommt am Mittwoch Max Mundhänke nächste Woche, der KI Max.
01:15:42: Vielleicht die KI-Themen, die wir beide jetzt seit vier Episoden vor uns her schieben.
01:15:45: Die musst
01:15:46: du auch auf Mittwoch schieben.
01:15:48: Ich hab
01:15:48: hier extra für Max übrig gelassen.
01:15:50: Max
01:15:50: hast du gehört, vor sechs Wochen hat auch mein E-Eil folgendes angefangen.
01:15:54: Und am nächsten Freitag ist Roland-Hindl wieder hier.
01:15:57: So, das ist doch ne gute Woche.
01:15:58: Das ist ne gute Woche.
01:15:59: Die letzte Woche vom Advent.
01:16:02: Also wenn ihr noch ein Adventskalender braucht, wäre jetzt eine gute Gelegenheit.
01:16:06: Wenn ihr einen Wochenende braucht, wäre auch eine gute Gelegenheit.
01:16:08: Und wenn ihr noch ein Weihnachtsgeschenk braucht, dann kauft doch noch Tickets für Haken dran live.
01:16:12: Wir gehen nämlich auf Tour im Januar und Februar.
01:16:14: Tickets dafür gibt es auf Haken dran.org.
01:16:17: Berlin und Köln kann man dazu sagen ist extrem knapp.
01:16:20: München steht kurz zur Eröffnung einer Warteliste, weil die Anmeldungen so viele sind, was mega geiles.
01:16:26: Erst mal vielen Dank dafür.
01:16:28: Für Leipzig haben wir noch den einen oder anderen Platz übrig.
01:16:31: So, mehr habe ich.
01:16:32: Wir freuen
01:16:33: uns, wenn...
01:16:33: Und ich habe noch was anzukündigen.
01:16:35: Ja bitte, wir wollen uns sagen, wir freuen uns, wenn ihr dabei seid.
01:16:38: Du bist eine Maschine einfach.
01:16:40: Hau raus.
01:16:41: Noch eine Ankündigung.
01:16:42: Wir freuen uns, wenn ihr dabei seid.
01:16:43: Und wenn ihr das mit uns teilen wollt, dass ihr dabei seid, dann schreibt doch genau jetzt bei Campfire FM, wo ihr diese Folgen nämlich hören könnt und währenddessen an jeder Stelle kommentieren könnt und Flammen hinterlassen könnt.
01:16:53: Es ist quasi, wer zu alt für Snapchat ist, aber immer noch Flammen haben möchte, muss zu Campfire FM kommen.
01:17:01: Ich sehe die ganze Zeit diese App und denke, wieso habe ich Tinder auf dem Handy?
01:17:06: Offenlich siehst du nur du das und denkst dir, warum hast du Tinder auf dem Handy?
01:17:09: Dann nimmst du aber eine Sprachblase drin, dann denk ich, ah so, Campfirefm.
01:17:15: Mehr dazu, hört in deiner Montag mit schon Leute fast.
01:17:17: Dennis kann ich auch schon mal ankündigen, am zehnten zwölf wieder
01:17:22: hier.
01:17:23: Hier wird voraus geplant, dass sich die Balken biegen.
01:17:26: Ich muss dazu sagen, ich bin ja der schlechteste Gäste-Redakteur der Welt und bin jetzt ganz stolz, dass ich jetzt erst mal sechs Wochen im Voraus geplant habe.
01:17:33: Das Problem ist, die werden ja immer kleiner, die im Voraus geplanten Wochen, weil ich das ja nicht weiter mache.
01:17:38: Weil Zeit vergeht.
01:17:39: Ach so, es vergeht Zeit.
01:17:43: So, schönes Wochenende.
01:17:44: Ja auch.
01:17:45: Tschüss.
@lutzenplotz
‧