Ein Betatest in Endlosschleife (mit Karolin Schwarz)

Shownotes

Geld allein macht auch nicht glücklich, sagt der reichste Mann der Welt. Wir sind heute also nicht nur zwei Kaninchen auf einem Trampolin, sondern auch zwischen Philosophien und Emoslop, zwischen LAN-Parties und Medienkompetenz vor Acht. Apropos: Hat jemand eine Idee für einen guten Namen? Und wie findet ihr die Idee so?

➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt 00:00:00 - Hallo Karolin! 00:00:39 - Nachhak 00:02:03 - Razzia bei X in Paris 00:13:01 - xAI gegen OpenAI 00:18:03 - Grokipedia in LLMs 00:22:53 - Xs “KI-Erkennung” 00:36:51 - Metas Facebook-Pixel vor Gericht 00:44:47 - Kein Shadowban bei US-TikTok 00:50:05 - Overblocking und Plattform-Heuchelei: Umgang mit sensiblen Inhalten 01:03:00 - Funktionen und Emotionen

ℹ️ Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier: https://wonderl.ink/%40heise-podcasts

Transkript anzeigen

00:00:00: Hallo, Caroline.

00:00:02: Hallo.

00:00:03: Ich freue mich sehr, dass du heute hier bist.

00:00:04: Bei mir ist heute Caroline Schwarz, Autorin, Speakerin zum Thema Desinformationen und Rechtsextremismus.

00:00:10: Und wenn man dich googelt, steht er auch.

00:00:12: Du beschäftigst dich vor allem mit deren digitalen Ausprägungen.

00:00:16: Und das ist eigentlich die Prädestinierung dafür, dass du endlich mal herkommst.

00:00:19: Nachdem du auch, ich würde behaupten, top fünf der meist gewünschten Gästinnen für diesen Podcast bist.

00:00:25: Ich fühle mich geerrt.

00:00:27: Zu Recht.

00:00:28: Die Hagi sind streng.

00:00:32: Wir haben heute ein bisschen was zu besprechen.

00:00:34: Wir müssen heute über eine Ratia sprechen und über deren Auswirkungen und so.

00:00:39: Aber ich musste mit einem kleinen Nachhack anfangen, mit einem kleinen Housekeeping zum Start.

00:00:43: Und so habe ich in der letzten Episode darüber gemutmaßt, dass wenn SpaceX XAI übernimmt und damit auch X übernimmt, ob die DSA, also die Strafzahlung nach DSA, sind ja sechs Prozent des weltweiten Jahresumsatzes.

00:00:57: Ob die dann auch steigen, weil sie sich nach den SpaceX Umsätzen mitbemessen würden.

00:01:01: Und das ist nicht ganz der Fall, weil wohl die die Bemessung für den DSA schon jetzt, die eine Single Economic Unit, ultimately controlled by Elon Musk ist, bedeutet also es werden die kompletten Umsätze der Musk Gruppe.

00:01:16: als Grundlage genommen.

00:01:18: Was ich eine tolle Formulierung finde, die Mask-Gruppe.

00:01:21: Also jetzt mal unabhängig von allen Dingen, die wir an Elon Musk schlimm finden.

00:01:24: Ich hätte gerne, dass ich irgendwann an einem Punkt bin, wo man sagen kann, das gehört zur Karl-Meyer-Gruppe.

00:01:28: Also ich starte so ein paar Podcasts zum Beispiel, dann kann man sagen, das ist alles Teil der Karl-Meyer-Gruppe.

00:01:33: Das finde ich jetzt irgendwie so ein schöner, siebziger Jahrebegriff.

00:01:37: Du brauchst ja aber noch so ein paar andere... Branchen, in die du, also vielleicht Raumfahrt, vielleicht

00:01:43: Porzellan.

00:01:45: Ja, und das ist gut.

00:01:46: Meinst du, ich bemalen noch so kleine Töpfe?

00:01:49: Ja,

00:01:50: und Tassen.

00:01:53: Bitte sprich mich nicht auf Tassen an.

00:01:54: der Wunsch nach Hakenrennmärzchen, da ist es umgebrochen bei den Leuten.

00:01:57: Ich will nicht sagen, ich bin zu faul, aber ich bin zu faul.

00:02:02: Du bist zu faul.

00:02:03: Ich bin zu faul.

00:02:03: So, kommen wir zur Ratze, ja.

00:02:05: Ah, so Bock.

00:02:08: Auf Razzien, also zu gucken, ja, haben nicht.

00:02:12: Okay,

00:02:14: die Martin-Zerner bei dir im Hintergrund lassen anderes vermuten.

00:02:18: Das ist Null Köln, das ist hier, das ist der Sound der Straße.

00:02:24: Das nächste ist nur der Hauptverkehrsader, da ist halt einfach in der Ferde halt alles durch, was irgendwie blaulicht hat.

00:02:30: Geräusche macht.

00:02:33: Auf jeden Fall.

00:02:35: Am Mittwoch nachmittag ging die Meldung rum, dass bei Ex in Paris eine Razzia stattgefunden hat, nämlich in dem Pariser Büro ist die Pariser Staatsanwaltschaft aufgelaufen zusammen mit der Polizei und hat dort einfach mal so geguckt, was noch so rumliegt.

00:02:55: Was ist der Hintergrund, was passiert?

00:02:57: Es gibt sieben Vorwürfe, die im Moment gegen Ex oder wegen denen gegen Ex ermittelt wird, darunter Beihilfe zur Verbreitung pornografischer Bilder von Kindern, die Erstellung von Inhalten, die Verbrechen gegen die Menschheit leugnen, bedrückerische Daten, Extraktionen und so weiter und so weiter.

00:03:12: Also alles so Dinge, die will man nicht unbedingt bei sich auf dem Kerbholz haben.

00:03:17: Elon Musk ist das aber weitgehend egal.

00:03:19: offenbar und jetzt hat die Staatsanwaltschaft damals ein bisschen geguckt, was da so für Festplatten rumliegen und die vermutlich sogar mitgenommen.

00:03:28: Hast du Gefühle dazu?

00:03:32: Also eine Sache war, dass ich mich tatsächlich gefragt habe.

00:03:36: Er hat ex wirklich noch einen Büro in Frankreich und nicht nur so ein Briefkasten rumhängen.

00:03:47: Ich weiß tatsächlich nicht, ob es noch einen Büro in Berlin gibt.

00:03:51: Ich weiß, in Brüssel sind ganz viele Menschen gegangen, mit denen ich irgendwie mal in Kontakt stand.

00:03:56: Und ich hätte gedacht, in Frankreich steht da auch nichts mehr rum, sondern einfach nur noch so ein Briefkasten irgendwo am Arsch der Heide quasi.

00:04:10: Du hast natürlich einen richtigen Punkt damit, weil wir wissen, dass in Brasilien zum Beispiel, als der Wind rauer wurde für Ex und der Richter damals dort angekündigt hat, hart vorzugehen, hat Elon Musk ja die komplette Belegschaft aus Rio abgezogen und hat gesagt, wir werden jetzt hier kein Büro mehr betreiben, was zur Folge hatte, dass sie auch dort keine Werbeeinnahmen mehr generiert haben.

00:04:33: Und dass gegen Ex in Frankreich ermittelt wird wegen dieser Dinge, das ist schon sehr, sehr... lange bekannt, also das sind alles Dinge, die schon so ein paar Monate jetzt mal abgesehen von der Verbreitung pornografischer Bilder, die erst Anfang des Jahres noch hin dazu gekommen sind, aber diese betrügerische Datenextaktion zum Beispiel oder auch der Vorwurf, dass dann wie sagt man betrügerische Vereinigungen gebildet wird oder kriminelle Vereinigung, den gibt es schon länger, das heißt man hätte mit ein bisschen Weizsicht durchaus sagen können, ja vielleicht räumen wir die Büros jetzt mal kurz schon mal leer, bevor irgendjemand anders das tut.

00:05:06: Ich glaube, das ist so ein bisschen wie bei der Trump-Regierung.

00:05:08: Da sind jetzt nicht mehr so viele Menschen da, die Bock auf diesen Quatsch haben und einigermaßen zurechnungsfähig sind.

00:05:14: Also, würde ich grundsätzlich mutmaßen.

00:05:17: Und es ist Elon Musk, glaube ich, auch einfach egal.

00:05:21: Also, ich hätte auch irgendwie damit gerechnet, dass es da irgendwo noch so eine Briefkastenfirma gibt und niemanden mehr sonst.

00:05:27: Aber vielleicht stand das da auch einfach alles nur so komisch zwischendurch, gab mir mal zum Staubfischen vorbei.

00:05:34: Ich weiß es nicht.

00:05:35: Aber ja, es ist spannend, dass es dann auch so... Das hat ja angefangen unter anderem auch mit den Behauptungen oder auch tatsächlich den Belegen, die es ja gibt, dass Elon Musk zwischendurch in den Algorithmus eingegriffen hat und dann nur noch Leute Elon Musk vorussinieren.

00:05:55: Die älteren unter uns erinnert sich.

00:05:58: Und dann kam irgendwann auch noch Holocaust-Lockenung dazu.

00:06:02: Das ist das, was du ja gerade auch schon so ein Stück weit angesprochen hast.

00:06:05: Und es läuft und läuft.

00:06:06: Es kommt einfach immer noch irgendwie oben irgendwas drauf.

00:06:09: Das ist so spannend.

00:06:10: Also der Quatsch hört halt nicht auf.

00:06:15: Ja, und ich glaube, du hast natürlich recht, es ist ihnen einfach egal.

00:06:18: Und ich will das direkt mal ein bisschen größer machen, weil, also ganz kurz vorne weg noch, die Staatsanwaltschaft hat auch angekündigt, dass Elon Musk und Linda Yaccarino, die frühere CEO von Ex, im April vorgeladen werden in diesem Jahr, aber das ist eine freiwillige Vorladung, die beiden müssen nicht erscheinen.

00:06:34: Wir können vermuten, ob sie es kommen oder nicht.

00:06:38: Interessant finde ich, wie die New York Times darüber berichtet hat.

00:06:40: Ich weiß nicht, ob du das mitbekommen hast.

00:06:41: Und zwar hat die New York Times einen Text dazu geschrieben, indem sie eigentlich als Begründung für diese Untersuchung den Unterschied im Verständnis von Meinungsfreiheit und Redefreiheit gesucht haben.

00:06:55: Was ehrlicherweise so ein bisschen auch eine Tese ist oder eine Beobachtung, die wir hier auch schon öfter aufgestellt haben.

00:07:00: Also wenn du nach dem amerikanischen Verständnis der Freedom of Speech sozialisiert wurdest, dann werden dir viele Dinge wie das Holocaust-Leugnung in Deutschland eine Straftat ist oder als Beleidigung hier eine Straftat ist, weil es eben dort nicht so ist und die Leute sich daran so gewöhnt haben.

00:07:15: Interessant finde ich aber, wie gesagt, dass die New York Times relativ... dass alles so relativ klar in einen Topf schmeißt und aussagt, naja, das Generieren von Bildern, von sexualisierten Bildern, von Minderjährigen kann am Ende auch ein Verständnis von Meinungsfreiheit sein.

00:07:29: Das weiß ich nicht, ob das so nach dem Verständnis der amerikanischen Sozialisation auch so tragbar ist, ehrlicherweise.

00:07:37: Ja, ich glaube, das am Ende ist auch schwer zu beantworten, aber wir sehen ja auch, wie sowohl in Deutschland als auch in den USA dieser Begriff der Meinungsfreiheit auch missbraucht wird, um quasi Meinungsfreiheit für den vermeintlich oder tatsächlich stärkeren und irgendwie in irgendeiner Form überlegenen... mehrheitlich weißen Menschen gemeint ist am Ende.

00:08:00: Also wir sehen ja irgendwie, dass das X dann irgendwie das Center for Countering Digital Hate verklagt und Journalisten gesperrt wurden, als Elon Musk übernommen hat, dass das Tracking von seinem Flugzeug kein Freedom of Speech ist und so weiter.

00:08:20: Also Freedom of Speech ist immer irgendwie das, was man selbst behaupten will, was es ist, die Trump.

00:08:26: Regierung, will bei Plattformen irgendwie Daten von Kritikern haben und so weiter.

00:08:36: Meinungsfreiheit ist so ein Konzept, dass man sich auch ganz gut zum Weaponisen aneignen kann und dann irgendwie für sich frei auslegt, aber für die anderen, die man nicht so gern mag, dann auch sehr streng auslegt.

00:08:50: Das ist so.

00:08:50: Und trotzdem wird das jetzt hier wieder mal verwendet, um zu erklären, naja, aber wir wollen doch nur die Mannungsfreiheit schützen, denn wer sich Elon Musk irgendwie an die Seite gestellt hat, jetzt ist Pavel Duroff, der Gründer von Telegram, gegen den ja auch in Frankreich ermittelt wurde.

00:09:03: Der hat gesagt, Frankreich ist das einzige Land weltweit, dass alle sozialen Netzwerke, die den Menschen ein gewisses Maß an Freiheit gewähren strafrechtlich verfolgt, machen sie sich nichts vor, dies ist kein freies Land.

00:09:14: Also der nutzt genau dieses Framing eigentlich auch um zu sagen, hier wird alles eingeschränkt.

00:09:18: Was übrigens interessant ist, das Pavel-Dorof, das so sagt, weil eigentlich das auf Grundlage von EU-Gesetzen schon begründet ist, dass du diese Untersuchungen durchführst.

00:09:28: Und was so ein bisschen auch zeigt, wie doll die EU, die Durchsetzung von den DSA und DMA und all diesen Acts irgendwie gerade eben nicht... Naja, zumindest umfangreich schafft oder es irgendwie nicht so richtig hinkriegt, wenn Pavel Doroff das Gefühl hat, nur in Frankreich gibt es dieses Problem.

00:09:46: Ich finde es auch ein bisschen lustig, so insgesamt bei all diesen Tech Bros.

00:09:51: wirklich eigentlich insgesamt, dass keiner von denen jemals über zum Beispiel Russland redet, wo irgendwie alles gesperrt ist und nichts gesagt werden darf.

00:09:58: Aber da ist irgendwie, da wird nicht über Meinungsfreiheit geredet.

00:10:02: Das ist irgendwie so, das fällt hinten runter.

00:10:04: Aber nehmen wir Pavel Durov.

00:10:08: Der hat halt eigentlich alles schon ganz lange laufen lassen und hat sich dann ja so ein bisschen bemüht, zwischendurch mal so ein bisschen Bereitschaft zu zeigen und hat jetzt aber auch, würde ich sagen, auch im Kontext von... der Annäherung oder der zweiten Regierung Donald Trumps, ja auch eigentlich wieder so alles fallen lassen und da läuft wieder alles.

00:10:31: Also ich meine, da ist ja, da ist ja alles unterwegs auf Telegram nach wie vor.

00:10:36: Ja, vor allem musst du dazu sagen oder muss man dazu sagen, Elon Musk kriegt sich ja also häufig über die europäische Gesetzgebung auf, der schon die Abschaffung der EU gefordert, nachdem das erste Mal Strafen gegen X verhängt wurden.

00:10:47: Und regt sich darüber auf, dass die Gesetze hier die Freiheit einschränken, hat aber gleichzeitig jahrelang sich selber diesen Deckmantel gegeben, dieses chaotisch-rechtschaffenden, der ja immer wieder dann auch angegeben hat damit, dass als er jetzt zum Tesla-Werk nach Grün Heide gereist ist, sich gegen seinen Willen hat, gegen Corona impfen lassen, damit er eben einreisen darf.

00:11:05: Weil lokale Gesetze für ihn ja so wichtig sind, hat im Fall der Kurz vor der Wahl des türkischen Präsidenten vor zwei Jahren, was glaube ich?

00:11:14: Ich weiß nicht, Harkis wissen das.

00:11:16: Oppositionelle auf X gesperrt, weil das eben das lokale Gesetz gewesen sein soll.

00:11:22: Gleichzeitig regt er sich hier über französische Gesetze eben auf, weil eben die gefallen ihm dann halt nicht so sehr.

00:11:27: Also man kann schon sagen, alles was nicht autokratisch ist, ist erstmal für ihn ein Problem.

00:11:33: Ja, ich glaube, das kann man sehr gut.

00:11:36: behaupten.

00:11:36: Und ich mein, selbst dieses Rechtschaffenheitsding, wenn man sich anguckt gegen wie viele Regeln, was Arbeitsrecht und andere Dinge betrifft in all seinen Firmen irgendwie verstoßen wurde über die Jahre, dann weiß man auch, dass das halt auch so ein Feigenblatt ist, dass man sich quasi irgendwie ... heißt das so?

00:11:58: Ja.

00:12:01: Aber wer braucht ... So

00:12:02: dieser Loading-Screen.

00:12:07: Über dem Kopf gehabt, dass man sich so vorhält.

00:12:10: Der

00:12:10: bunte Strandball vom Mac.

00:12:12: Das könnte man auch so einbalten.

00:12:15: Ich finde es schade, kleine Randnotiz.

00:12:18: Ich finde es schade, dass Gemini im Moment so die führende KI ist, die Leute benutzen und dass es nicht Chatchapiti wird.

00:12:23: Weil bei Chatchapiti, wenn du mit Chatchapiti sprichst, macht das immer so ein Ladegeräusch.

00:12:28: Und ich hatte so ein bisschen die Hoffnung, dieses Denkgeräusch, die ist... Ja, das ist ein bisschen die Hoffnung, dass es so in den Alltag übergeht von uns.

00:12:37: Aber das nur am Rande.

00:12:39: Was soll ich denn jetzt sagen?

00:12:40: Da hab ich mich selber total abgelenkt.

00:12:43: Tja, ich hab den Faden verloren.

00:12:46: Egal.

00:12:46: Jetzt hat der Ladescreen wieder.

00:12:49: Wir

00:12:49: waren bei Elon Musk und seinem Feigenblatt.

00:12:52: Ja, ich wollte sagen, der braucht schon Gewerkschaften, wenn er ein coolster Waschkonzept bekommen kann.

00:12:56: Also...

00:12:57: Ja.

00:12:57: Man kann ja auch dankbar sein für das, was man kriegt.

00:12:59: Wir bleiben aber kurz bei Elon Musk.

00:13:02: Und zwar geht es um kurz im XAI.

00:13:05: Wir wissen ja, Elon Musk, eigentlich machen wir die Musk dem immer am Ende, aber es passt schon so ein bisschen zu dem gerade.

00:13:12: Also... Elon Musk ist ja vor Gericht gezogen gegen Open AI und Apple.

00:13:17: Weil er sagt, dass die Befortzungen, wie er es nennt, von ChatGPT im App Store, dass die nicht ein Wettbewerbsfriedrich sei.

00:13:26: So ist richtig.

00:13:27: Das wollte ich schon wieder Wettbewerbsfriedrich sagen.

00:13:30: Aber ich krieg das nicht aus dem Kopf.

00:13:32: Seit dem Märzkanzler hat er dieses Wort komplett überschrieben am Kopf.

00:13:35: Also, auf jeden Fall gibt es ein paar News aus diesem Gerichtsprozess und ich habe das relativ lange so an Themen immer nur so von mir her geschoben und hier im Podcast nicht besprochen, aber um mal so einen kleinen Abriss zu geben.

00:13:45: Wo befinden wir uns eigentlich gerade in diesem Prozess?

00:13:47: Also, der Prozess ist an dem Punkt, dass wir zum Beispiel wissen, was Elon Musk eigentlich fordert.

00:13:52: Und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und zwar, und mit Bewerbern laufen.

00:14:06: und er hatte zum Beispiel versucht, dass er den kompletten Quellcode von OpenAI haben wollte im Rahmen dieser Beweismittelaufnahme, weil er sagen wollte, wir müssen das überprüfen.

00:14:16: Da hat der Richter schon direkt gesagt, dass hier ein kompletter Quatsch ist, machen wir nicht, vollkommen unnötig und hat auch gar keinen Mehrwert für den weiteren Prozess.

00:14:27: Das heißt, das wird nicht passieren und hat aber auch gesagt, die übertriebenen Auskunftsersuchen und Streitigkeiten in diesem Fall.

00:14:35: lehnt er generell ab.

00:14:36: Also der Richter ist offenbar im Thema und hat keine Lust, sich so ein Quatscher vor sich hertreiben zu lassen, sagt dem Auto.

00:14:43: So, jetzt gibt es aber noch eine neue News, weswegen wir das Thema dann jetzt doch mal aufmachen.

00:14:47: Und zwar gibt es Hinweise darauf, sagt OpenAI, auch da muss man dazu sagen, die sind natürlich auch eine Partei in diesem Prozess, dass sie Hinweise für systematische und vorsätzliche Vernichtung von Beweismitteln auf XAI Seite sehen und dass sie sagen, dass sie ohne Ende Dokumente festgestellt haben, in denen es zwar viele Anschuldigungen geben würde, aber wenig von denen, die tatsächlich die Anschuldigungen betrifft, gegen die sich OpenAI hier verteidigen könnte.

00:15:17: Also der Vorwurf ist XAI zerstört Dokumente.

00:15:22: Ja,

00:15:22: genau.

00:15:24: Ja, und da fragt man sich, wie viele Menschen das für im Büro schlafen mussten auf dem Boden und an die Schredder zu bedienen.

00:15:31: Weiß ich nicht.

00:15:32: Ja, ist spannend.

00:15:33: Elon Musk, ne?

00:15:35: Ich weiß nicht, ich habe das letztens mal gemacht, weil ich habe so ein Blog-Post über diese ganze Geschichte mit den Bildern, die generiert wurden.

00:15:45: Inzwischen ist es wahrscheinlich Millionen, waren nicht einvernehmliche, fast nackte Bilder von vor allem Frauen und auch Minderjährigen.

00:15:55: Für diese Bild-Collage versucht ein Bild von Elon Musk beim Hüpfen oder Tanzen zu finden.

00:16:06: Ist dir mal auch gefallen, wie viele Videos es gibt von verschiedenen Veranstaltungen, bei denen Elon Musk awkward, hüpft oder tanzt.

00:16:16: Es ist wirklich, das ist so ein krasses Rabbit Hall gewesen.

00:16:19: Ich bin bis heute noch nicht mit fertiges zu verarbeiten.

00:16:22: Es ist wirklich krass und passt sehr gut zu seinem Post, dass Geld kein Glück kaufen kann von, ich weiß nicht, heute oder gestern.

00:16:31: Genau.

00:16:31: Also, wenn ihr das hört, am gestrigen Donnerstag hat Elon Musk geschrieben, egal wie reich man es, man kann sich damit kein Glück kaufen.

00:16:37: Ja.

00:16:38: Und auch kein Tanzschule.

00:16:40: Ja.

00:16:42: Vor fünfzehn Jahren hätte man Tumblr gestartet, Maskjumps.

00:16:46: Vielleicht müssen wir das einfach... Ich bin ja dafür, dass wir das alles irgendwie hinter uns lassen und alle irgendwie wieder Blocks machen und MySpace und StudiVz und Tumblr und, weiß ich nicht, hier Blockrolls, also diese Verzeichnisse, wo alle sich irgendwie gegenseitig verlinken, weil sie so cool sind.

00:17:04: und dann machen wir so LAN-Partys und... Essen Chips.

00:17:09: Es gibt ja einen Revival der Blockroll.

00:17:11: Es gibt ja so Bewegungen und versucht das alles wieder nach vorne zu treiben.

00:17:15: Leider ist der Wunsch nach Lahnpartys bisher noch gar nicht so groß darin vorgekommen.

00:17:19: Weswegen ich das jetzt noch mal unterstreichen würde.

00:17:21: Vielleicht müssen wir einfach mehr Lahnpartys machen.

00:17:23: Und dann aber auch wirklich mit Kabel.

00:17:25: Also das da nicht wehladen und schieten und so.

00:17:27: Nein, nein, nein, wirklich mit Kabel und fünf Stunden lang Probleme suchen, was rausfindet.

00:17:31: Okay, zwei Computer haben die selber IP-Adresse, so wie das früher war.

00:17:35: Und dann hast du das Problem gelöst und dann stellt so fest, zwei Leute haben den gleichen CD-Key benutzt, um sich Half-Life zu installieren.

00:17:43: Ach, groß.

00:17:44: Und dann hat man so morgens so eine, so ein Viertel Restschale Kohlerflasche, so, so, eins, fünf Liter vor sich.

00:17:51: Fauna,

00:17:52: grüner Tee.

00:17:52: Godtimes.

00:17:53: Fauna, grüner Tee.

00:17:54: Ja sowieso, das trinke ich heute noch.

00:17:56: Oh, wirklich?

00:17:56: Das habe ich mitgenommen.

00:17:57: Ja, ja.

00:17:58: Das ist so, das begleitet mich weiter.

00:18:02: Das habe ich so lange nicht getrunken.

00:18:03: Wir bleiben noch kurz bei XAI, weil wir haben ja darüber gesprochen, dass Grockypedia es mittlerweile auch in die Zitierungen anderer KI-Chatbots geschafft hat.

00:18:11: Und da gibt es jetzt neue Zahlen über die, über die der Standard und the Verge berichten.

00:18:16: Und zwar gibt es hier eine Untersuchung von AREVs, und zwar von Glenn Alsop.

00:18:20: Und der hat herausgefunden, dass in einer Untersuchung von dreizehn Komma sechs Millionen Prompt.

00:18:25: Das ist eine ziemlich große Untersuchung.

00:18:27: Grockypedia hat zweihundertsechzigtausendmal zitiert wurde.

00:18:31: Das ist schon extrem viel.

00:18:32: Dabei etwa, über, über, über, über, über, über, über, über, über, über, über, über, über, über, über, über, über, über, über, über, über, über, über.

00:18:52: dass Georgia ist mittlerweile, die als Kern genau dafür gestartet wurde, wirklich eine Agenda getriebene Perspektive auf Fakten so zu nutzen, um die Fakten damit zu verzerren und damit ein Framing sozusagen in eine sogenannte Encyclopedia zu pressen, dass es jetzt am Ende dazu führt, dass die KI's daraus zitieren und damit die Georgia zu einer Quelle von denen machen, die sie niemals genutzen würden.

00:19:19: Fun Times.

00:19:20: Auch Google Suchergebnisse.

00:19:22: Da hatte letztens Fiete Stegers, glaube ich, nach der Astronomen Raxi Leonhard gesucht.

00:19:27: Und da war das erste Suchergebnis auf dem Screenshot, den er gepostet hat.

00:19:33: war das noch Wikipedia und der zweite war der Grocki-pedia-Eintrag.

00:19:37: und ich habe vorhin, weil ich mich ja so gut vorbereite, habe ich einen, genau einen Grocki-pedia-Artikel geöffnet und zwar zum... Nicht zum Anschlag in Halle, sondern zur Stadt Halle an der Saale.

00:19:55: Das ist in Sachsen-Anhalt, da komme ich her.

00:19:57: Und ich war Sachverständige im Prozess gegen den Terroristen von Halle.

00:20:03: Deshalb kenne ich mich so ein bisschen mit dem Fall aus, quasi.

00:20:07: Und habe mir quasi das ... in dem Halleartikel mal angeguckt.

00:20:10: Und das tatsächlich in dem ersten Absatz.

00:20:12: dazu ist ein Fehler und zwar kein kleiner, sondern einer der ermordeten, hat einen völlig falschen Namen und ein völlig falsches Alter.

00:20:22: Also da steht dann quasi Josef R., der einundachtzig gewesen ist, wenn es tatsächlich Kevin S. war, der zwanzig war.

00:20:29: Also was völlig anderes steht da drin.

00:20:32: Und es wird auch unterschlagen, dass es quasi noch weiter ging mit der Gewalt in Biedersdorf bei Halle.

00:20:38: Das ist halt Quatsch.

00:20:39: Ich hab diesen einen Artikel aufgemacht und hab nicht lange suchen müssen tatsächlich.

00:20:45: Das ist krass.

00:20:46: Und da muss man dazu sagen, das ist ja noch ... in Anführungsstrichen, wie gesagt, das ist eine Encyclopädie, in der darf das nicht passieren, aber in Anführungsstrichen nur eine vermutlich eine Halluzination, also eine neue Name, eine in zugedichtete Tatsache.

00:20:59: Problematisch wird es dann, aber wenn diese Tatsachen da durch oder da deswegen verdreht werden, damit sie einen politischen Narrativ entsprechen, was eben in Glockypedia auch eben häufig passiert.

00:21:08: Es gibt sehr viele Hinweise eben darauf, dass zum Beispiel ein Zusammenhang zwischen homosexueller Pornografie und der Verschlimmung der HIV-Epidemie hergestellt wird.

00:21:17: Sowas überhauptet eben die Korki-PD auf.

00:21:19: Wir müssen nicht viel mehr darauf zitieren.

00:21:20: Ich hab jetzt hier nur das Beispiel vom Standard mitgebracht.

00:21:23: Hatten das aber hier auch schon häufiger im Podcast mit so ein paar Beispielen.

00:21:27: Also dann wird's halt ein bisschen düster, ehrlicherweise.

00:21:31: Ja, ich meine, das ist halt so ein bisschen wie mit Grog.

00:21:33: Es ist halt einfach nicht woke genug gewesen.

00:21:35: Also steuert man noch eine Runde nach und dann wird es halt so.

00:21:38: Ich habe ganz am Anfang als Grogi Pedia neu war, habe ich dann auch mal ein bisschen rumgesucht und hatte mir auch verschiedene Sachen angeguckt.

00:21:44: Und da gab es dann halt so eine ganze ernsthafte Diskussion um die Verschwörungserzählung vom großen Austausch, also diesen Geheimplan, dass die weiße Bevölkerung in Ländern wie Deutschland ersetzt werden soll.

00:21:59: Und das wurde dann quasi ganz nüchtern und so diskutiert, als wäre das irgendwie was, was man einfach so machen kann.

00:22:10: Und nicht, dass das einfach eine Verschwörungserzählung mit auch einem antisemitischen Hintergrund ist am Ende.

00:22:17: Ja, wie so viele Verschwörungserzählungen.

00:22:20: Jetzt muss man schon dazu sagen.

00:22:22: Elon Musk übrigens wird übrigens gar nicht politisch porträtiert in der Groki-Pävia.

00:22:27: Also da werden diese Dinge komplett ausgewendet.

00:22:31: Er ist einfach nur ein Macher.

00:22:32: Einfach ein Macher.

00:22:34: Ja, aber wer bleibt dann auch dran bei diesen ganzen Kindern und so?

00:22:40: Ich hab den Überblick längst verloren.

00:22:41: Es sind elf, sind zwanzig,

00:22:42: sind ... Wer weiß es?

00:22:47: Ich

00:22:47: will es auch gar nicht wissen.

00:22:48: Wir wollen es eigentlich wissen.

00:22:49: Aber EXAT angekündigt, dass sie eine neue Funktion einführen.

00:22:53: Damit bleiben wir nämlich ganz kurz noch in dieser Welt, weil es passt genau zu all diesen Dingen, dass du bearbeitete Bilder dort als manipulierte Medien gekennzeichnet werden.

00:23:04: Das ist eine Ankündigung, die Elon Musk gemacht hat.

00:23:06: Das heißt, es heißt erstmal gar nichts.

00:23:08: Aber theoretisch gibt es damit jetzt eine Untersuchung, die algorithmisch stattfindet.

00:23:14: wurde dieses Bild von einer KI manipuliert, wurde es bearbeitet, ist es eine Verlangsamung, eine Manipulation von Untertiteln und so weiter.

00:23:23: Das ist so das Tool, das mal entwickelt wurde und zwar von Joel Roth.

00:23:28: Also noch lange vor.

00:23:30: Elon Musk wurde aber nie ausgerollt, wird aber jetzt eben auf die Plattform kommen.

00:23:34: Wir erinnern uns daran, dass Meta dieses Made with AI auch mal hatte.

00:23:38: Das hat so gar nicht funktioniert, dass es inzwischen komplett verschwunden ist aus der Sichtbarkeit.

00:23:45: Also null verwunderlich halt auch.

00:23:52: Die Nano-Banana-Pro sind das, glaube ich, wo es dieses Tool dazu gibt, dass man auch irgendwie die Bilder reinschmeißen kann und dann erkennt das quasi das, was vom eigenen Tool erkannt wurde.

00:24:02: Aber das ist ja auch generell so.

00:24:04: Also wir hatten vor zwei Jahren, meine ich, vielleicht sind es inzwischen schon drei, gab es ja diesen Fall von einem... von einem Voice Clone eines slowakischen Präsidentschaftskandidaten.

00:24:18: Und die Faktenchecker damals haben so verschiedene Tools genutzt, um quasi das da so durchzujagen mit der Frage, ob das vielleicht ein KI-generiertes Audio sein könnte.

00:24:30: Und die Ergebnisse waren halt völlig unterschiedlich.

00:24:33: Also da waren dann irgendwie so unter fünfzig Prozent dabei, über fünfzig Prozent Wahrscheinlichkeit und so weiter.

00:24:37: Und das ist ja bei allen KI-generierten Medien eigentlich so ein bisschen das Problem, dass die Tools, die es dafür gibt, nicht besonders verlässlich sind und dann auch einfach schwer an der Zeit bleiben und sich neu mitentwickeln.

00:24:54: Und das wird vermutlich auch in dem Fall komplett in die Hose gehen.

00:25:00: Ja, natürlich.

00:25:03: Weil das Problem ist, mich hat das so überrascht, dieses Bild von Mamdani, dem New Yorker Oberbürgermeister, der ihn dem Jefflin Epstein zeigt.

00:25:10: Dieses Bild hatte einen Germany Watermark.

00:25:12: Also dieses Bild konnte nachgewiesen werden, als durch eine KI generiert.

00:25:16: Weil der Mensch der SS stellt hat entweder nicht bedarf genug war, um es als Fake richtig anzulegen oder auch völlig einverstanden damit war, dass es vielleicht sogar in einem satirischen Kontext erstellt wurde oder so.

00:25:26: So genau wissen wir das nicht.

00:25:27: Aber... Das Problem ist, dass die Leute, die eben bewusst betrügerisch Inhalte erstellen, dass die ja sehr genau wissen, okay, wenn ich das mit Germaner, also mit Nano-Banana erstelle, dann bekommt es dieses Wasserzeichen und dann kann dieses Bild eben im Trifel auch diese Irreführung, kann diese Irreführung aufgelöst werden.

00:25:46: Heißt also, dass am Ende die Betrüger, die wirklich durchkommen wollen damit, dass die eben nicht die sind, die auffallen dadurch.

00:25:53: Und das macht dieses Tool bei Axia auch so wahnsinnig unnötig.

00:26:00: Also, ich mein, vielleicht kann man auch noch ergänzen.

00:26:02: Das ist auch nicht nur ein Fall von so KI-generierten Sachen.

00:26:06: Es gab irgendwie vor Jahren mal so ein Facebook-Troll, der schon sehr klar rechtsextreme Ansichten hatte, würde ich sagen.

00:26:15: Und der hat immer so Fake-Zitat-Kacheln gemacht.

00:26:17: Und dann stand da unten immer so Invertira bei.

00:26:20: Ich weiß nicht, ob du das... Ja,

00:26:21: ich erinnere mich.

00:26:22: Genau.

00:26:22: Und dann gab es halt irgendwie so Fake-Zitate von irgendwelchen, vor allem grünen Politiker und Politikerinnen.

00:26:29: Und die sind trotzdem, haben die sich verbreitet.

00:26:31: Da steht halt Insatira drunter.

00:26:34: Und trotzdem hat sich das Bestens verbreitet.

00:26:36: Und Leute haben das, nehmen das bis heute im Prinzip ernst.

00:26:41: Und ich glaube, das... Auch dieses grünen Bild, ich weiß nicht, jetzt bin wir bei den Grünen, aber das ist egal.

00:26:46: Aber dieses Bild von dieser Parteiveranstaltung mit diesen ganzen Pizzakartons, wo du eigentlich innerhalb von zwei Sekunden sehen könntest, dass das KI generiert ist, weil Pizzakartons nicht ineinander schmelzen.

00:26:57: Das ist vielleicht sehr heiß oder so.

00:27:00: Und die Deko auch so ein bisschen scheiße ausser.

00:27:03: Aber trotzdem war das ja tausendfach geteilt, weil es eben so gut in diesen anti-grünen Hass gepasst hat.

00:27:08: Und so ist das, glaube ich, Das ist so ein Problem, dass wir einfach mitdenken müssen, dass selbst wenn die Tools besser werden und dass alles irgendwie krasser wird und wir... Auch ein Wettrüsten haben, was das Erkennen von diesen synthetischen Medien betrifft, haben wir eben auch noch einen ganzen Sack voller Probleme, die irgendwie gar nichts mehr mit KI zu tun haben, sondern mit der Motivation von Menschen an solche Dingen zu glauben.

00:27:33: Und einfach so ganz billigen Cheapfakes, wie sie auch heißen, die einfach nach wie vor gut funktionieren.

00:27:38: Und dann nimmt man eben eine Videosequenz aus einem Videospiel und sagt hier, Russland hat gerade das hier in der Ukraine gemacht.

00:27:47: läuft das halt irgendwie nach wie vor.

00:27:49: Ja, weil da so gefährliche Konstellationen entstehen, dass es Leute gibt, die entkaufen nehmen, dass es scheiße aussieht, weil sie denken, irgendjemand wird das schon glauben.

00:27:58: Andere, die das sehen und entdecken, dass es scheiße ist, denken aber, dass sie haben denselben Gedanken, naja, irgendjemand wird das schon glauben, reproduzieren das dadurch.

00:28:06: Und am Ende wird das natürlich irgendjemand glauben.

00:28:08: Oder aber wird das so lange weiterverbreiten, bis es am Ende völlig egal ist, ob es stimmt oder nicht, weil alle daran glauben.

00:28:13: Und das ist nicht gut.

00:28:16: Ja, und ich glaube, wir machen auch so ein bisschen, also ich rede jetzt einfach für uns beide gerne,

00:28:21: wenn

00:28:23: so, so als Menschen, die so terminally online sind und halt ständig so ein Kram sehen, machen.

00:28:30: wir, glaube ich, auch öfter mal den Fehler zu denken, dass so Sachen einfach total schnell erkennbar sind, weil man halt einfach dem sich ständig aussetzt und das ständig sieht.

00:28:41: Ich habe das aber irgendwie mal gemacht vor zwei Jahren oder so, ist schon auch eine Weile her in Internetjahren, aber quasi so ein Video mit einer Ganz klar drüber gesprochenen Stimme.

00:28:53: Also es hast du halt einfach sehr schnell erkannt, weil das war draußen gefilmt, es war ein Interview.

00:28:58: Die Stimme klang nicht wie von der Person und es klang einfach nicht nach draußen, sondern klang als hätte jemand auf den Klo den Ton aufgenommen.

00:29:06: Und für mich war das sofort klar und ich habe das aber irgendwie in so Freundeskreisen mal rumgeschickt, um zu testen.

00:29:13: wie gut das erkannt wird und zwar tatsächlich so Eltern von Freunden und Freundinnen, aber auch irgendwie Freunde und Freundinnen selbst, die es nicht erkannt haben.

00:29:23: Und das ist so, glaube ich, ein Fehler, den man vielleicht auch so macht, dass man das nicht abstrahiert, dass irgendwie ständig Leute sich mit so Zeugs umgeben und das so konsumieren.

00:29:36: Ich glaube auch und ich glaube auch, dass diese in Unternehmen gibt es ja häufig diese Reverse Mentoring Geschichten, dass so die jungen Mitarbeitenden zu den Vorgesetzten gehen und denen dann TikTok erklären oder so.

00:29:47: Das Problem ist, glaube ich, dass wir so eine Generation sind, wir sind nicht so weit altesmäßig auseinander.

00:29:54: Wir sind so eine Generation, die sowohl unseren Eltern als auch unseren jüngeren Geschwistern oder unseren Kindern das Internet beibringen muss.

00:29:59: Weil wir eben nicht nur chronisch online sind, sondern auch schon immer chronisch online waren.

00:30:05: Das heißt, wir haben diese ganzen Entwicklungen mitbekommen und haben deswegen so einen kleinen Erfahrungsvorteil, den eben andere nicht haben, die später geboren sind oder viel früher geboren sind und damit darauf keinen Bock hatten.

00:30:17: Und die Frage ist aber so ein bisschen, wie groß ist unsere Verantwortung und wie nehmen wir die am besten wahr?

00:30:22: dass diesen Leuten sozusagen näher zu bringen und zu sagen, also ich kenne so große Unternehmen, die schicken einmal im Monat, schicken die so Scam-E-Mails, die nicht klar als Scam-E-Mails erkennbar sind, um zu testen, fallen unsere Mitarbeiter auf Scam rein.

00:30:36: Das kann man natürlich so machen, aber wie moralisch ist das, solche Versuche mit seinen Eltern durchzuführen?

00:30:41: Oder brauchen wir irgendwie einen anderen Ansatz, braucht es eine Art Framework, eine Art Baukasten, den alle Millennials umsonst bekommen, um ihren Eltern und jüngeren Geschwistern oder Kindern so... So ein bisschen diese Medienkompetenz zu Schulen lehren.

00:30:55: Ich weiß es nicht.

00:30:57: Ja, also ich fürchte fast, das sind auch nicht alle Millenials, weil ich habe da auch sehr spannende Dinge in meinen WhatsApp.

00:31:08: Nee, nicht WhatsApp.

00:31:09: Ich gucke nicht in die WhatsApp-Stories.

00:31:11: Das wäre gelogen.

00:31:11: Das finde ich immer noch komisch.

00:31:13: Aber in den Insta-Stories.

00:31:18: In den Instastories war es so von alten Schmühfreunden oder so, wo halt auch wirklich der absurdeste Kram drin ist, weil die halt nicht so terminally online waren wie ich vielleicht, sondern auch mal ein bisschen in der frischen Luft waren zwischendurch.

00:31:32: Also ich glaube schon, dass es so ein Paar oder so einen großen Teil in unserer Generation gibt, bei denen das so ist und die irgendwie vielleicht eine Verantwortung haben.

00:31:40: Gleichzeitig glaube ich, aber wir sind auch teilweise abgehängt total so, ne?

00:31:44: Also wir wissen nicht so.

00:31:47: Roblox-Geschichten.

00:31:49: Ich finde hier so diese WhatsApp-Channels, die ja teilweise wirklich von ganz jungen Kindern im Prinzip betrieben werden, dass auch so eine Welt, die ich mir gar nicht erschlossen habe.

00:32:00: Und das könnte ich auch schon nicht mehr erklären.

00:32:02: Da müssten quasi die Kinder schon wieder uns irgendwie Sachen erklären.

00:32:05: Gleichzeitig glaube ich, was so Medienkompetenz betrifft, müssen so diese sehr schlimmen online Menschen, wie wir vielleicht irgendwie gucken, wie wir das machen können.

00:32:16: ohne dass es so ein Lehrer-Dings hat.

00:32:21: Weil niemand hatte Bock, die ganze Zeit so belehrt zu werden und jedes Video geschrieben zu bekommen.

00:32:27: Du, dieses niedliche Katzenvideo, was du da jetzt irgendwie gepostet hast mit den Trampolinen.

00:32:32: Das ist irgendwie Hälschen.

00:32:38: Ich glaube, da gab es eigentlich jedes Tier, was irgendwie auf diesem Scheiß Trampolin bei Nacht rumgeschrungen ist.

00:32:44: Ich glaube, wir müssen auch den Weg finden und es ist ja auch nicht nur diese Medien- und Informationskompetenz, sondern das, was ich vorhin meinte, so warum glauben die Leute an den Kram und wo muss man da noch dahinter steigen?

00:32:56: Ja, aber im Fall des Papsts im Pufferjacket oder im Fall der Kaninchen auf dem Trampolin ist es ja durch, also da steckt ja keine politische Motivation hinter, sondern in erster Linie geht es ja darum, wirklich Leuten zu zeigen, woran sie hätten erkennen können, dass es zum Beispiel Fake ist.

00:33:11: Hey, ist das Video genau acht Sekunden lang und so weiter?

00:33:13: ja so ein paar Hinweise.

00:33:14: Und weißt du, was wir machen müssten, Caroline?

00:33:17: Wir machen, tun uns zusammen, wir gründen.

00:33:18: Es gibt, mit Dirk von Gelen haben wir ja auch schon mal die Idee gehabt des Internetseepferdchens.

00:33:22: Und wir denken das jetzt weiter und denken so, stell dir mal vor, es gäbe so jeden Tag... Drei Minuten, so ein bisschen wie Wissen vor acht.

00:33:30: Drei Minuten vor der Tagesschau.

00:33:32: Wir, alles gestiftet und gefördert.

00:33:34: Niemand muss dafür Geld bezahlen, außer die Leute, die es für sinnvoll erachten.

00:33:37: Nämlich jeden Tag so ein drei Minuten Schnipsel, der im Linearen Fernsehen läuft, wo wir eine andere Sache erklären, wie man sie erkennt.

00:33:42: Das Scam-E-Mail, eine prügerische WhatsApp-Nachricht, wenn da drin steht, hey Mama, ich hab meine Handynummer verloren.

00:33:48: Vielleicht hast du gar keine Kinder, daran kannst du es erkennen.

00:33:51: Oder eben so was, wie KI-Videos erkennen.

00:33:54: Ich glaube, das wäre eine mega Idee.

00:33:57: Ich glaube,

00:33:59: Ja, dann

00:34:01: machen wir das einfach.

00:34:04: Ich weiß nicht, bist du zwischendurch mal auf Facebook unterwegs?

00:34:06: Ganz

00:34:07: viel.

00:34:07: Und da habe ich ganz kurze Emotionen, wo du Facebook ansprichst.

00:34:10: Weil so seit drei Tagen ungefähr meine Facebook, mein Newsfeed, mein Algorithmus ist komplett verschrottet.

00:34:16: Ich weiß nicht, warum.

00:34:17: Ich habe dann nur noch diese Clickbait-Seiten, ganz viel Jungle Camp und ganz viel so Seiten, wo so mitten in der Schlagzahl das Wort abgeschnitten ist, sondern dann kommt der Link.

00:34:25: Und zwar beschlagartig.

00:34:27: Ich weiß nicht, was passiert ist.

00:34:29: Aber sorry, ich wollte mich derailen.

00:34:31: Pivot to Slop.

00:34:36: Wir machen jetzt, wir geben einfach auf.

00:34:38: Wir lassen da jetzt nur diesen Quatsch.

00:34:40: Aber ich finde, ich habe da so ein Fake-Profil auch.

00:34:44: Also mein eigentliches Profil ist auch irgendwie schlecht und eigentlich auch schon ziemlich schrottig, weil die meisten nicht mehr so viel posten.

00:34:53: Da ist noch ganz schön viel los.

00:34:54: Aber was ich halt krass finde, ist so diese ganze... dieser ganze emotional-slop, den es gibt.

00:35:01: Und der spannenderweise ja sowohl... die Generation TikTok, als auch die Generation Pinterest und so unsere Elterngeneration und vielleicht auch unsere Generation anspricht.

00:35:14: Und überall diese emotionalen Dinge.

00:35:16: Das ist ja alles das Gleiche.

00:35:17: Es ist immer so alte Menschen, die weinen und ihre Geschäfte auch geben müssen.

00:35:22: Und dann müssen wir jetzt noch schnell irgendwie auf.

00:35:25: TikTok sind immer so schlappen.

00:35:28: Auf Pinterest sind es immer so ... Taschen, Handtaschen.

00:35:34: Und das wirklich funktioniert bei jeder Generation.

00:35:37: Das ist irgendwie so abgefahren.

00:35:39: Und diese ganzen, was ich auch sehr liebe, auf Facebook sind diese Mitgefühl-KI-Bilder von irgendwelchen k.i.-generierten Weisenkindern, die irgendwo draußen stehen und eine Torte in der Hand

00:35:50: haben.

00:35:51: Das ist eine Welt, in der wir überhaupt nicht unternehmen.

00:35:54: Ich

00:35:55: glaube, wir brauchen so begleitenes Fotomaterial.

00:35:58: Ich muss das auf jeden Fall zeigen.

00:35:59: Also es gibt so eine ganze Reihe von KI-generierten Bildern von Pages, die nur das machen, wo halt wirklich traurige Familien oder traurige Kinder zu sehen sind, mit so Torten.

00:36:13: Und da heißt es, meine Oma hat mir eine Torte gebacken.

00:36:19: Wünschst du mir Glück oder?

00:36:21: Du guckst mir das so viel

00:36:23: an.

00:36:24: Ja,

00:36:24: weil du das guckst.

00:36:25: Du guckst dir das... Ja, weil ich weiß,

00:36:27: ich bin die Ziergruppe.

00:36:28: Ich

00:36:29: habe nur so schlechte Pranks in meinem Facebook News Feed, die so von vornherein ganz klar als gestaged erkennbar sind.

00:36:36: Das ist ganz offensichtlich fake.

00:36:38: Und trotzdem gibt es so drei, vier Minuten viel zu lang auch für so einen Prank.

00:36:41: Und am Ende kommt immer eine Frau, die einen Schild hochhält.

00:36:44: Er hat mich betrogen.

00:36:45: Jetzt lasse ich ihn auflaufen.

00:36:47: Solche Sachen habe ich da super viel in meinem Video Feed.

00:36:51: Übrigens Facebook ist direkt so ein kleiner Segway ins nächste Thema.

00:36:54: Denn, vielen Dank, Caroline, ist das so?

00:36:58: Gerne.

00:37:00: Hättest du das Skript gelesen?

00:37:01: Und zwar hat das Oberlandesgericht Dresden eine Entscheidung getroffen, dass das Überwachen von NutzerInnen auf Drittwebsite nicht zulässig ist.

00:37:12: Was ist passiert?

00:37:13: Wir fangen ganz vorne an und zwar gibt es seit etlichen Jahren diesen sogenannten Facebook-Pixel.

00:37:17: Den kannst du dir auf deiner Webseite einbinden, also ganz klassischer Fall.

00:37:20: Du hast einen Online-Shop für... Schlappen.

00:37:24: So, und da ist ein Online-Shop für Schlappen und willst aber wissen, wie ist der Funnel?

00:37:27: Also wie viele Leute, die über eine Facebook-Add dann auf meinen Shop kommen, werden auch wirklich zu Käufer innen.

00:37:33: Dann kannst du diesen Facebook-Pixel setzen und dann kannst du sozusagen in der Business Manager nachvollzogen werden, wie viele Menschen werden von Kontakten zu Käufer innen.

00:37:41: Und das ist in Deutschland jedenfalls nicht zulässig.

00:37:44: Vier Menschen sind deswegen vor das Oberlandesgericht Dresden gezogen und haben jetzt Recht bekommen.

00:37:50: Wir kommen jeweils um eine Enschädigung, weil sie ausspioniert wurden und sie mussten auch nicht nachweisen, dass sie ausspioniert wurden.

00:37:58: Es reicht nachzuweisen, dass sie ein Facebook- oder Instagram-Account haben, weil Meta diese, wie es O-Ton heißt, extreme Form der Datensammlung tatsächlich so praktiziert.

00:38:08: Das heißt, dass Meta diesen Verstoß begangen hat, musste gar nicht nachgewiesen werden vor Gericht, sondern die Leute vor Gericht gezogen sind, haben damit eigentlich nur es geschafft, dass das Gericht diese Entscheidung trifft, dass Meter das auch nicht weiter tun darf.

00:38:22: Jetzt gibt es ein paar Konsequenzen, die interessant sind.

00:38:24: Zum Beispiel hat das OLG Dresden keine Revision zugelassen.

00:38:27: Das heißt, das Urteil ist sofort rechtskräftig und Meter kann nicht zum BGH damit ziehen, sondern es ist eine Entscheidung getroffen.

00:38:34: Und zwar deswegen, weil A, die die Schuld von Meter so zweifellos hier nachgewiesen werden konnte, dass es BGH gar nicht zu einem anderen Urteil kommen kann, sagt das OLG.

00:38:44: Und zweitens, weil aber auch der Streitwert so gering ist, mit ca.

00:38:48: €, ist es sehr unwahrscheinlich, dass der BGH hier tatsächlich sich dieser Sache auch annehmen würde, was ich auch sehr interessant finde.

00:38:56: Zusammen bedeutet das also unterm Strich.

00:38:58: Theoretisch können jetzt solche Muster klagen, heißen Sie, glaube ich, in Deutschland.

00:39:04: Im Volksmund würde man sagen, Sammelklagen angestrengt werden.

00:39:07: Es gibt auch schon ein paar, die das tun, die sozusagen ermöglichen, dass man auch ein bisschen Geld abbekommt.

00:39:13: Und für die, die sich erinnern, das OLED München hatte im letzten Jahr auch schon mal einer Person, siebenhundertfünfzig Euro zugesprochen.

00:39:20: Auch aus Leipzig hatten wir einen ähnlichen Fall.

00:39:23: Also es geht Meter in der Sache jetzt an den Kragen.

00:39:30: Holst du dir was von dem Geld?

00:39:34: Ich hab nichts gegen Geld, das muss ich sagen.

00:39:39: Das ist schon ganz nett.

00:39:41: Aber das macht nicht glücklich, denkt dran.

00:39:44: Das stimmt, aber es macht auch nicht unglücklicher, wenn man irgendwie ein Urlaub machen kann.

00:39:48: Und

00:39:49: immer noch besser im Taxi zu weinen als im HVV-Bus, wie es heißt.

00:39:55: Ich hab ja Freunde.

00:39:58: Im Gegensatz zu ihr.

00:40:02: Nee, ich frag mich immer, wie viele von diesen Dingern noch so liegen geblieben sind.

00:40:06: Ich weiß nicht, gab's nicht letztens auch so ein Google-Urteil zu ähnlichen Überwachungsmechanismen, die dann irgendwie... Ich hab's nicht mehr ganz im Kopf, aber ich frag mich halt so, gefühlt hat uns bestimmt jeder so fünf, zehn Smart-Home-Sachen und unser Router kann irgendwie bestimmen, wo wir eigentlich gerade auf der Gautch liegen und in welcher Position und unser Smart-TV... kann auch irgendwie ganz viele Sachen machen.

00:40:34: Das ist echt krass, wie gläsern wir inzwischen da irgendwie schon geworden sind und wie viele von den Sachen wahrscheinlich irgendwie noch so rumliegen.

00:40:42: Und gleichzeitig sieht man halt irgendwie... Gerade in den USA ja auch in welche Richtung solche Daten dann letztendlich auch verwendet werden können.

00:40:51: Sowohl Bewegungsdaten als auch Gesundheitsdaten als auch Social Media Daten.

00:40:58: Und wir reden hier in Deutschland irgendwie trotzdem weiter über den Einsatz von Palantir.

00:41:02: Ich finde das irgendwie alles ganz schön dystopisch.

00:41:05: Vor allem ich frage mich so ein bisschen, wo die Motivation verloren gegangen ist, das Dorf zu finden.

00:41:09: Weil ich weiß noch genau, ich bin zu Hause ausgezogen in dem Jahr.

00:41:13: Deswegen kann ich das sehr genau... war das, oder neun, zehn?

00:41:16: fing das an, dass Leute wirklich schlangenweise vor Rathäusern gestanden haben, um Einspruch einzulegen, dass ihr Haus nicht auf Google Street View gezeigt wird.

00:41:27: Und das war ein Problem, die Leute wollten, also meine Fassade darf nicht ins Internet, aber mein Kaufverhalten kein Problem.

00:41:33: Und diesen Sprung, den verstehe ich nicht so ganz, weil, also ich war damals auch jemand, der gesagt hat, ja regt euch nicht so auf, ob ich jetzt hier durch eine Straße fahre oder euer Haus von außen sehen kann, who cares.

00:41:43: Da war ich so selber jemand, der auch damals schon immer so ein bisschen darauf geachtet hat, was er so an Spuren hinterlässt, dass ich so dachte, jetzt übertreibt mal nicht.

00:41:51: Aber dass das jetzt genau in die andere Richtung umgeschlagen ist und alles, was einfach dazwischen liegt, waren so Dinge wie Instagram und die Leute haben mal ein paar Fotos gemacht im Internet.

00:41:59: Das verstehe ich nicht so ganz, muss ich sagen.

00:42:04: Ich glaube, ein Teil davon ist einfach, dass es so überall um uns herum... ist und nicht mehr so ein Device, das wir so haben, sondern irgendwie so alles, was man so hat, vom Smart Speaker zur Uhr bis zu, keine

00:42:17: Ahnung, was.

00:42:18: Und ich glaube, man hat sich so ein bisschen eingerichtet vielleicht auch in dem ganzen Ding und weiß nicht, ganz oft ist es ja immer noch so dieses, ich hab nicht zu verbergen Ding.

00:42:29: Also ich finde, da haben ganz viele Leute ganz viel versucht in den letzten Jahren, das klarzumachen, dass irgendwie jeder was zu verbergen hat.

00:42:37: Aber irgendwie ist es, glaube ich, trotzdem ganz oft nicht angekommen oder es wird wieder vergessen oder es fällt wieder hinten runter, was ich... viel absurder finde ist wie das in der politik einfach so komplett liegen gelassen wird und zwar sowohl bei welche daten geben wir in den us in die usa also jetzt diese ganze diskussion zu?

00:42:59: welche daten werden bei der einreise abverlangt von menschen und werden auch irgendwie rüber geschickt?

00:43:06: einfach oder auch eben pallant hier also diese.

00:43:10: Ich komme aus Sachsen-Anhalt und Sachsen-Anhalt wählt in diesem Jahr und es sieht jetzt nicht ganz freundlich aus, muss man einfach sagen, so die Aussichten, was Rechtsextremismus und potenzielle Landesregierungen betrifft.

00:43:23: Und wenn man sich dann überlegt, welchen Zugriff auf... Daten solche rechtsextremen Regierungen irgendwie im Zweifelsfall haben, dann ich verstehe nicht, dass es diesen Gedanken nicht gibt, wenn wir über solche Dinge sprechen, weil es ist leider einfach greifbarer, als es mir lieb ist und eben auch ich würde das irgendwie gerne verdrängen, aber es ist ja eben einfach der Fall, dass irgendwie geheimdienstig und Daten zugriffstechnisch irgendwie einiges läuft und passieren kann und wir einfach auch darüber reden müssen, was nicht nur in den USA ist, sondern tatsächlich auch welche potenziellen Konsequenzen der Einsatz von solchen Technologien auch bei uns in Deutschland haben kann.

00:44:06: Ja, und das fängt ja im Kleinen an.

00:44:07: Also das fängt ja schon da an, dass Leute, die zum Beispiel auf Grundsicherung angewiesen sind, dass die vielleicht gar kein Interesse daran haben, wenn auf irgendwelchen Servern gespeichert ist, wo sie zum Beispiel Dinge eingekauft haben.

00:44:20: Also das ist eine total spürbare, greifbare Gefahr des Eingriffs in die Privatsphäre.

00:44:28: Und die Sorge davor, diese zentralisierten Datenansammlungen wirklich... am eigenen Leib zu spüren, die müsste viel größer sein eigentlich bei allen gerade.

00:44:38: Ich glaube das auch.

00:44:40: Ja, das wollen wir wieder über Elon Musk und Tanzvideos reden.

00:44:47: Ne, aber wir können kurz über TikTok sprechen.

00:44:49: Also sind wir fast bei Tanzvideos.

00:44:51: Also ich habe eine ganz spannende Untersuchung mitgebracht, und zwar von Good Authority.

00:44:57: über die NPR auch berichtet.

00:44:58: Und zwar ist das ein bisschen ein Nachklapp zu einer Geschichte, die wir hier sehr lange und breit besprochen haben.

00:45:03: Und zwar ging es ja darum, dass Nutzerinnen berichtet haben, dass sie z.B.

00:45:06: Videos zum Thema Eis nicht veröffentlichen konnten oder weniger Views bekommen haben, dass sie Videos, in denen die Begriffe Trump oder Epstein auftauchten, weniger Views bekamen als zuvor.

00:45:18: Also so ganz lässt sich das in den Zahlen nicht nachvollziehen.

00:45:20: Es gibt zwar tatsächlich massive Einbrüche der Views am XX.

00:45:24: Januar, aber über eigentlich alle Begriffe durch die Bank.

00:45:28: Also egal, ob du jetzt Trump, Epstein oder Oscar oder Recipe zum Beispiel, also das waren so die Begriffe, die du hier genutzt haben, verwendet hast.

00:45:36: Sie haben auch die Begriffe Alex Pretti, das war der ermordet Mensch in Minneapolis.

00:45:42: Dass das alles so eben nicht darauf schließen lässt, dass es eine klare... politische Einschränkungen der Inhalte gegeben hätte.

00:45:52: Also, dass die Darstellung von TikTokUSDS Joint Venture, diesem amerikanischen Unternehmen, tatsächlich hier zutreffen war, dass es zumindest keine klar erkennbaren Veränderungen in der algorithmischen Ausspielung, zumindest kurz nach der Übernahme gegeben hätte.

00:46:05: Was damit nicht erklärt ist, ist, warum Menschen DMS verschicken konnten, ohne Probleme außer der Begriff Apps-Dientauchte auf.

00:46:12: Dann ist dieser D-M tatsächlich nicht verschickt worden.

00:46:15: Dafür gibt es hier keine Erklärung, weil hier nur öffentlich-einsehbare Daten ausgewertet werden konnten.

00:46:21: Ich glaube, das ist jetzt ein mehrschichtiges Problem, wo ich fünf Gedanken habe und vier im Ende vielleicht noch rauskommen, weil ich irgendwie zwei vergesse.

00:46:30: Das

00:46:30: ist mein Problem immer

00:46:32: hier.

00:46:33: Ja,

00:46:33: also kein Problem.

00:46:35: Der Ladekreisel war im Kopf.

00:46:36: Aber ich musste da... Ganz toll daran denken, dass es das ja auch schon mal gab mit Meta und vor allem so Instagram, nachdem Donald Trump das zweite Mal quasi als Präsident übernommen hat.

00:46:50: Und es damals hieß, auf Instagram kann man nicht mehr zum Hashtag Democrats posten.

00:46:55: Das war irgendwie relativ groß, das war auch in Deutschland relativ groß.

00:46:59: Und das Problem dabei ist, also damals fand ich es irgendwie relativ klar, dass du irgendwie... nicht die Hälfte der US-Bevölkerung, die ja irgendwie Demokraten wählen, ausschließen wirst, die irgendwie im Zweifel zwar auch darüber reden können.

00:47:14: Also ich fad das einfach noch weniger naheliegend.

00:47:17: Jetzt hast du aber das Problem, dass sich eigentlich alle Tech Bros.

00:47:24: und auch einfach irgendwie die neuen TikTok-Ona ja relativ deutlich zu Trump positionieren und da auch irgendwie relativ deutlich agieren, teilweise ja auch.

00:47:36: Also im Fall von Elon Musk ist das halt einfach eins zu eins, ne?

00:47:40: So, da braucht man irgendwie auch nicht drüber reden, was da noch.

00:47:42: irgendwie gibt es da noch Moderation, I don't know, vielleicht so Elon Musk und seine Flugrouten.

00:47:51: Aber sonst geht da halt relativ viel, muss man auch einfach sagen.

00:47:54: Also ich weiß nicht, wenn man so mit Researchen spricht, diese Terrorismus, sich angucken, du findest relativ schnell entsprechende Inhalte auf X, finde ich sie auch wirklich.

00:48:07: leider muss man sagen, nach wie vor sehr schnell auf TikTok.

00:48:11: Aber du hast einfach nicht mehr den Glauben, dass da irgendwer noch irgendwas Gutes bewirken will an der Spitze dieser Plattform und dass die auch nicht so ehrlich sind.

00:48:19: Dafür gibt es halt einfach auch ein Track record.

00:48:22: Und das ist einfach so das Schwierige, glaube ich.

00:48:25: Und wir wissen, zumindest unter der alten unter den alten Besitzern hat ja Tiktok, also unter Bydance hat Tiktok damals ja tatsächlich so queere Hashtags-Geschädoband und das hat ja super lange gedauert bis das, weil irgendwie an die Öffentlichkeit kam und die haben das dann halt auch so wie wir es vorhin schon besprochen haben, immer so bei den Autokraten quasi unterdrückt.

00:48:50: Also es war vor allem Russland, wo sie Sachen gesperrt haben mit der Begründung, das sei halt nicht legal.

00:48:57: Ja, oder der Begriff Tier-an-Man-Square hat zum Beispiel, wurde auch ganz lange gesperrt.

00:49:02: Genau.

00:49:03: Und ich meine, bei Meta war es ja so, dass irgendwie alle Regeln, die Zuckerberg da persönlich quasi hat abbauen lassen, sind halt alles Regeln, die wahrscheinlich vom Trump-Lager gebrochen werden.

00:49:13: Also... Diskriminierung gegenüber Frauen, schwarzen Menschen, anderen nicht weißen Personen, Menschen aufgrund ihrer Religion.

00:49:24: All diese Dinge, die ja quasi genau, das sind zwei für zwei zu einer weiteren Sperrung von Donald Trump führen könnte, das sind Sachen, die abgebaut wurden.

00:49:33: Und diese Faktencheck Kooperationsgeschichte, die ja zumindest in den USA abgebaut wurde und wo Zuckerberg dann irgendwas behauptet hat von wegen, die sind biased.

00:49:43: obwohl Meta auch immer diejenigen waren, die entschieden haben, was eigentlich mit diesen Faktenchecks passiert und nicht die Faktenchecker, die in den Kooperationsprojekten selbst.

00:49:55: Also das ist schon... krass.

00:50:00: und ich kann auch verstehen, dass Menschen zu dem Schluss kommen, dass da halt quasi zensiert wird.

00:50:05: Gleichzeitig wird ja irgendwie ganz krass viel overblockt.

00:50:10: Also ich finde, das ist immer so ein Punkt, über den wir viel zu wenig reden, dass es ganz klar schon Overblocking gibt von Inhalten auf Social Media-Plattformen und deshalb haben sich alle diese absoten sprachlichen Wendungen angeeignet und reden jetzt quasi nicht mehr über Sexualisierte Gewalt, sondern dann wird dann halt irgendwie der Trauben-Emoji eingeblendet für Grape.

00:50:39: Selbst in so öffentlich-rechtlichen Video-Formaten wird das teilweise ausgeblendet und Worte nicht ganz ausgesprochen.

00:50:47: Das finde ich krass absurd, dass wir in dieser Situation eigentlich sind und darüber nicht wirklich kritisch reden, wie sehr wir uns diesen Logiken angepasst haben, obwohl es ein klares Overblocking ist.

00:51:03: Ja, verstehe ich total.

00:51:05: Ich glaube, dass das ganz viele Probleme gleichzeitig sind.

00:51:09: Denn der Umgang mit so Begriffen wie Rape zum Beispiel auf TikTok würde natürlich eine unglaubliche Vielzahl an Moderationsherberausforderungen für die Plattformen mit sich bringen.

00:51:21: Also hat man sich dazu entschieden, wir sperren einfach alles.

00:51:24: was damit zu tun hat, was du als private Plattform natürlich am Ende entscheiden kannst, wenn du das möchtest, dann musst du allerdings eben auch mit diesen Schiffrinnen genauso umgehen.

00:51:32: Also dann müsstest du auch, und du kannst mir ja nicht erzählen, dass es A entweder algorithmisch oder B nicht zumindest durch die Leute, die eben dort noch die Plattform moderieren und betreuen, nicht sofort ersichtlich ist, dass es eben solche Substitutionen gibt.

00:51:44: Also dass Leute anfangen, dann Terror nicht mehr mit E, sondern mit einer Drei zu schreiben oder mit einem Eurozeichen, das kann für die Plattformen nicht nicht unverborgen bleiben, sondern das muss offensichtlich sofort klar sein.

00:51:58: Und dass sie dann aber sagen, ja, das lassen wir jetzt durchgehen, weil dann haben wir ja getan, was sie tun müssten, ist halt mindestens verlogen.

00:52:04: Gleichzeitig sollte aber, und das ist interessant in diesem Video, in dem Zuckerberg damals dieses Faktencheck abgeschafft wurde, und ich zitiere gefühlt in jeder Folge aus diesem Video, weil eben das so Paradigmenwechselnd für Meta gewesen ist, weil so viele Dinge damit verändert wurden, das angekündigt wurde, dass eben viel mehr KI die Moderation übernimmt, aber viel weniger automatisiert moderiert werden soll, sondern eben viel mehr durch Prüfungen eben erst angestoßen werden soll, dass in diesem Video gesagt wurde, der Hauptgrund dafür, warum die Moderation heruntergefahren wird, die Automatisierte, wäre ja, weil ihm zu viel overblockt würde.

00:52:37: Also, weil auf den Meta-Plattformen oder er kann es nicht ertragen, dass ein einziger Mensch etwas veröffentlicht, das gesperrt wird, obwohl er gegen keine Regel verstoßen hätte.

00:52:47: Und na ja, dann sprechen wir über diese Dinge, die du da angesprochen hast, die eigentlich genau das Gegenteil davon am Ende bedeuten.

00:52:54: Und wieder kommen wir am Anfang an, bei dieser kulturellen Frage, was ist Redefreiheit, was ist Meinungsfreiheit, was wollen wir uns gegenseitig eigentlich durchgehen lassen?

00:53:04: Also ich bin immer noch der Meinung, dass wenn man solche Umsätze hat, muss man auch für Sicherheit sorgen und dann kann das keine Ausrede sein.

00:53:11: Und das betrifft ja auch so Begriffe wie Holocaust-Leugnung.

00:53:14: Das sind ja nicht Begriffe, die der Nazi sagt jetzt nicht Holocaust-Leugnung, der leugnet den Holocaust.

00:53:22: Weißt du?

00:53:22: Also das sind halt so viele Begriffe, die inzwischen in diesem dieser Selbstsensur, die es ja letztendlich ist, wenn wir einfach mal so ansprechen, die darunter fallen, dass es wirklich krass ist.

00:53:34: Und ich habe mal während der Pandemie, habe ich

00:53:38: mal so ein

00:53:38: paar Jahre Plattformen beraten und kann mich dann noch so an ein Gespräch erinnern bei einer Plattform, wo es hieß, Es war so eine Diskussion über den großen Austausch.

00:53:51: Den hatten wir jetzt hier schon mal, erkläre ich jetzt nicht noch mal.

00:53:55: Aber es ging darum, ob man diese Verschwörungserzählung in seinen krassesten Ausprägungen, die ja als Grundlage für Terroranschläge einfach genutzt wurde, als Begründung für mehrere rechtsterroristische Anschläge genutzt wurde, dass man das quasi in einigen Formen runternimmt.

00:54:14: Und die Begründung, warum das nicht ginge, war, dass es ja auch andere Formen gibt, in denen der große Austausch benutzt wird, wenn zum Beispiel einen großen Austausch in einem Kabinett in der Regierung gibt.

00:54:27: Und ich denke mir seitdem immer so, ja, aber auch das N-Wort kannst du nicht in jedem Fall runternehmen.

00:54:33: Also das war halt immer so eine scheinheilige Begründung, die ich sehr absurd fand.

00:54:38: Zumal ja, mithilfe von Machine Learning und mit LLMs, kontextualisiertes Erfassen von solchen Inhalten.

00:54:44: extrem vereinfacht wurde.

00:54:46: Das heißt, ich will nicht sagen, dass es perfekt ist und dass es in hundert von hundert Fällen funktioniert.

00:54:50: Aber ich würde die These aufstellen, dass es in diesem Fall des großen Austausches und so ähnlichen Satzkonstrukten in mindestens fünfzig Prozent der Fälle funktioniert.

00:54:58: Das ist jetzt von mir durchgeführte Bauchstudie, aber ich würde behaupten, dass es durchaus möglich ist, das zu erkennen.

00:55:05: Also gerade bei so einem Konzept, wo du eigentlich irgendwie kontextuell ganz klar weißt, worum es geht und da auch nicht gucken musst, ob jetzt in irgendeinem Kabinett, in einem europäischen Land, irgendein Dreiminister ausgetauscht wurden.

00:55:19: Also es war echt immer so, nämlich da schon sehr verarscht gefühlt, aber ja, es ist ein bisschen spannend.

00:55:25: Also natürlich gibt es Situationen, wo es wo der Einsatz von KI nicht funktioniert, aber es gibt auch ganz viele Ausreden in diesem Kontext, wo einfach nicht genug nachgesteuert wird, wo es irgendwie bei KI-Moderationen nicht genug Human in the Loop-Situationen gibt, also wo Menschen auch nochmal irgendwie drüber gucken, wo die Leute nicht genug geschult sind, wo es gar nicht genug Leute gibt.

00:55:49: Also ich meine, wenn du dir die Berichte von Plattformen anguckst, weißt du schon, dass es irgendwie in Deutschland eine relativ große Zahl von Menschen gibt, die auf Deutsch moderieren und der deutschen Sprache mächtig sind, dann guckst du halt irgendwie ein bisschen weiter nach Süden oder Osten und dann ist dann so ein Hansel verfügbar und ich weiß nicht, was passiert, wenn der krank ist.

00:56:11: Und es wurde schon immer irgendwie mit so automatisierten Übersetzungen gearbeitet, die den Kontext eben nicht transportieren können und die nicht lokales Wissen quasi haben können, um diese Einschätzung vorzunehmen.

00:56:26: Aber es ist ganz viel einfach diese Ausrede dabei.

00:56:30: Ich erinnere mich immer noch sehr gern daran, dass Mark Zuckerberg hat, glaube ich, ein oder zwei Jahre gebraucht von, na ja, wenn jemand den Holocaust leugnet, der ist einfach nur nicht so ganz, der macht das nicht, das passiert nicht absichtlich, das ist schon so ein bisschen unwissen auch.

00:56:44: Und dann musste irgendwie halbe Belegschaft da ewig lang, monatelang auf den Einhemmern, bis das dann irgendwie wieder bei ihm eingesagt ist und er feststellte, dass es wirklich doch ein Problem ist.

00:57:00: und jetzt sind wir bei, naja, der ganze Laden muss männlicher werden und jetzt ist eh schon wieder alles vorbei.

00:57:08: Fünf Minuten lang haben sie mal so getan, als hätten sie ein Interesse davon und ich habe wirklich viele schlaue Menschen getroffen, die in diesen Läden gearbeitet haben, aber wenn so der Der Onkel an der Spitze, der irgendwie das Ding gegründet hat, um Frauen aufgrund ihrer Attraktivität bewerten zu lassen, am Ende entscheidet, dass das mit der Holocaust-Logik nicht ganz so schlimm ist.

00:57:31: Dann kannst du noch so viele sehr schlaue Leute da haben, dann ist es trotzdem schwierig.

00:57:35: Und im Fall von Meta, helfen Sie genau diese Berichte.

00:57:37: Also wir haben so häufig, also ich kann die Fälle nicht mehr erzählen, in denen wir darüber gesprochen haben, dass in der Regel Reuters aufgedeckt hat, dass es irgendwelche Teams und Gruppen gab, die irgendwelche Sorgen hatten vor Auswirkungen der Dinge, die Meta macht im Bereich von Virtual Reality, im Bereich der sozialen Plattform, im Bereich der Content Moderation, im Bereich von Whatever Algorithmen, Suchtverhalten, alles.

00:58:01: Die gesagt haben, das ist ein Problem für junge Menschen und Zuckerberg gesagt hat, wir machen es trotzdem und quasi über alle Awareness und Sicherheitsmechanismen sich so hinweg gesetzt hat.

00:58:10: Und am Ende damit dieser Plattform zu einem schlechteren und unsichereren Ort gemacht hat, als es hätte sein können, wenn man auf die Sicherheitsteams, Safety Teams gehört hätte.

00:58:17: Davon gibt es etliche Geschichten.

00:58:20: Es ist so.

00:58:21: Ja,

00:58:21: ich glaube, deshalb war es ab Ende auch nie ein Paradigmen.

00:58:25: Also es war ein öffentlicher Paradigmenwechsel, den wir erfahren haben.

00:58:28: Es war aber jahrelang eigentlich klar, dass das vor allem Opportunismus war.

00:58:34: Also ich meine, Donald Trump wurde gesperrt, nachdem er schon nicht mehr irgendwas tun konnte.

00:58:40: inauguration irgendwie quasi vorbei war und da da nicht mehr viel politisches kapital war da irgendwas irgendwie vorzugehen gegen meta.

00:58:51: aber jetzt ist es halt ganz offen einfach.

00:58:55: Ja, und

00:58:57: als die Chan Zuckerberg Foundation gegründet wurde, haben sie ihre ersten großen Ankündigungen an Zahlungen an Forward US gegeben, eine Interessensgruppe für Einwanderer in den USA, die von Barack Obama, der damals Präsident war, mitgegründet wurde.

00:59:12: Also es gibt durchaus einige Hinweise auf diesen Opportunismus bei Zuckerberg.

00:59:17: Um ganz kurz den Kreis zu machen zum TikTok-Thema und dass es womöglich wohl doch keine Sperrungen gegeben hat.

00:59:24: Also wir haben eben nicht nur die Views untersucht, sondern auch die Anzahl der Videos, die eben diese betroffenen Stichworte verwendet haben.

00:59:31: Und sie sagen aber trotzdem ganz klar eine Zusammenfassung ihrer Auswertung und ich zitiere da... Wir finden keine Hinweise auf eine weitverbreitete unterdrückungpolitische Inhalte, können aber subtiler Form der Inhaltsmoderationen nicht ausschließen.

00:59:43: Erstens könnte es sein, dass eine geringe Anzahl von Beiträgen entfernt oder auf eine Weise gesperrt wurde, die in den Gesamtrenden nicht sichtbar ist.

00:59:50: In diesem Zusammenhang können wir auch nicht ausschließen, dass bestimmte Arden von Beiträgen, wie zum Beispiel Antitrump-Beiträge, die Schlüsselwörter wie Eis oder Epstien enthalten, verboten oder mit einem Shadowband versehen wurden.

01:00:00: Dies müsste jedoch selten genug vorgekommen sein, um die allgemeinen Trendlinien intakt zu lassen.

01:00:05: Es sei denn, es gab gleichzeitig Bemühungen anderer Arten von Beiträgen, zum Beispiel Pro-Trump-Beiträge hinzuzufügen, die von unseren Stichwort Suchen erfasst worden wären.

01:00:13: Drittens können wir nur beobachten, was mit öffentlichen Beiträgen geschehen ist.

01:00:17: Also was bei privaten Beiträgen passiert ist, wissen Sie nicht.

01:00:20: Und am Ende ist die Analyse durchverwendete Keywords natürlich begrenzt durch Schlüsselwörter.

01:00:25: Sie können also nicht ausschließen, dass andere Schlüsselwörter vielleicht durch einen Zensur betroffen waren und sagen am Ende zusammenfassend, keine unserer Erkenntnisse besagt.

01:00:34: dass TikTok sich unter seinem neuen Eigentümer nicht verändert hat oder sich in Zukunft nicht verändern wird.

01:00:39: Aber bislang gibt es keine systematischen Belege für solche Veränderungen, was ich sehr interessant finde, was wir festhalten müssen.

01:00:46: Ich glaube, was man auch noch irgendwie vielleicht zum Schluss sagen kann, ist, dass es ja Belege dafür gibt, dass so Anti-Eis-Geschichten eigentlich von allen Plattformen gelöscht.

01:00:58: wurden, also gerade so Gruppen auf Facebook und andere Dinge, die eben auch irgendwie so Ice Agents getrackt haben.

01:01:08: Gleichzeitig, also und auch Apple hat ja irgendwie sowas aus dem App Store entfernt.

01:01:12: Ice Block.

01:01:14: Genau, Ice Block.

01:01:16: Und gleichzeitig hätte Apple vielleicht auch bei X und Grog vor ein paar Jahren noch gehandelt, weil eigentlich gab es mal so die Idee, dass man Apps, die nicht einvernehmliche Inhalte erstellen und gerade irgendwie so fast unbekleidete Bilder, gerade auch von Minderjährigen, dass man das dann erstmal aus dem App Store entfernt.

01:01:39: Das ist irgendwann noch mal passiert vor einer Weile.

01:01:43: löscht man halt Eisblock, aber nicht Grog oder sperrt das mal für eine Runde.

01:01:48: Also das ist schon auch sichtbar, dass das eben nicht nur Meter ist.

01:01:52: und ich meine über Elon Musk braucht man in dem Kontext hier schon fast nicht mehr reden, weil es einfach so sichtbar ist, sondern es ist schon sehr deutlich diese gesamte Tech-Welt oder ein großer, großer Teil davon und dann arbeitet man drum herum.

01:02:09: Also Google will jetzt irgendwie in Indien groß groß was aufbauen, damit die Leute nicht mit einem Visum kommen müssen, was sie sowieso nicht kriegen.

01:02:20: Der Zynismus, so zu sagen, in jeder Ecke.

01:02:23: Das geht auch nicht anders.

01:02:24: Also wir machen hier dreimal die Woche diesen dystopischen Ausblick auf alles, was da gerade so passiert.

01:02:28: Und wir sind dabei eben nicht mit so einem Wirtschaftsblick, sondern wir schauen halt eher auf die gesellschaftlichen Auswirkungen.

01:02:36: Und da kannst du nur dystopisch drauf gucken.

01:02:39: Es geht nicht anders.

01:02:40: Und was wir heute zum Beispiel nicht besprochen haben, ist, woher eigentlich ein Großteil der Information kommt, die dir Germany gibt, wenn du nach Gesundheitsthemen suchst.

01:02:47: Darüber sprechen wir dann in der nächsten Episode.

01:02:49: Befeucht dich aber gehen lassen, möchte ich mit dir was anderes machen.

01:02:52: Und da wird die ganze Zeit bei dir gehubt.

01:02:54: Du wohnst auf nach Kreuzung, ne?

01:02:57: Tatsächlich an der Straße, aber die Kreuzung ist nicht weit.

01:03:01: Heute ist die Alarmanlage, die ab und zu mal losgeht und dann irgendwie so fünfzehn Minuten durchhupen, die ist heute uns erspannt geblieben.

01:03:11: Also ich habe hier schon für Sicherheit gesorgt.

01:03:13: Wir haben ja mal eine Folge aufgenommen, da habe ich neben einem solchen Auto gesessen und das wurde nachher auch von der Community jetzt nicht so.

01:03:21: Die fanden das nicht so cool irgendwie mit dem Hupen.

01:03:23: Naja.

01:03:24: So, ich will mit dir noch was kleines spielen zum Schluss.

01:03:26: Und zwar das hier.

01:03:29: Funktionen und Emotionen.

01:03:34: Regeln ganz einfach.

01:03:35: Ihr erzählt ja von Funktionen, die Social Media Plattform offenbar einführen sollen oder von denen es heißt, dass sie kommen könnten.

01:03:42: Und werde, warte dann auf deine Emotionen zu dem Thema.

01:03:45: Okay?

01:03:48: Die muss sich schon wörtlich ausorientieren.

01:03:50: Das fühlt gut her, weil die meisten Leute hören das her.

01:03:55: XAI hat angekündigt, dass mit Grog Imagine, eine neue Version der Videokaii, generativer Videokaii bei Grog kommt.

01:04:03: Dein Gesicht ist schon sehr gut für alle, die das hier bei YouTube schauen.

01:04:06: Oder bei PeerTube.

01:04:07: Du kannst damit zehn Sekündige Videos erstellen, die siebenhundertzwanzig-P-Auflösungen haben und dramatisch bessere Audio.

01:04:13: Allein in den letzten dreißig Tagen hat Grog Imagine, also das ist die Videoerstellungs-Kai, eins, zwei, vier, fünf Milliarden Videos erstellt in dreißig Tagen.

01:04:25: Kann ich auch Geräusche machen?

01:04:26: Ja.

01:04:28: Gut.

01:04:30: YouTube hat angekündigt, dass das Audiodubbing, das es gibt jetzt für alle Creatorinnen, angeboten wird.

01:04:38: Und zwar kannst du alle deine Videos per KI in sieben und zwanzig Sprachen automatisch übersetzen lassen.

01:04:44: Acht davon sogar in natürlichem Ton, dazu gehören auch Deutsch, Englisch, Französisch.

01:04:48: Also mit der Originalstimme in ganz großen Anführungsstrichen.

01:04:52: Und auch mit Lip Sync, das ist etwas das Meta YouTube lange voraus hatte.

01:04:57: Du kannst diese Funktion als CreatorInn auch abschalten.

01:05:00: Das ist relativ neu.

01:05:02: Und du kannst als Nutzerin, der sich anschaut, oder die es sich anschaut, festlegen, welche Sprachen nicht automatisch synchronisiert werden sollen.

01:05:08: Was auch endlich da ist.

01:05:12: Ähm, ich bin okay mit.

01:05:14: Es ist okay, weil ich gucke jetzt immer so brasilianische Kochvideos und da helfen die schon ein bisschen.

01:05:21: So, leider bin ich mein portugiesisches halt irgendwie echt schlecht.

01:05:26: Okay, also ich hasse dieses Auto da, bin ganz doll.

01:05:31: Und das liegt aber, und da sind wir bei einem Kernproblem von allen digitalen Produkten, glaube ich.

01:05:36: Wenn du das quasi veröffentlicht, wenn es noch ein bisschen scheiße ist.

01:05:40: Und die Leute, das Gefühl haben, dass die Funktion ist scheiße, dann ist der Weg dazu, dass die Funktion so gut ist, dass sie selbst nicht wieder umstimmt, ist so lang, viel weiter als sie gewesen wäre, wenn man von vornherein gesagt hätte, wir veröffentlichen SRS und es ein bisschen weniger scheiße ist.

01:05:56: Aber ich glaube, das Ding ist ja auch irgendwie, wir sind, was so KI betrifft, sind wir endlos Beta-Tester in unseren Leben.

01:06:06: Also das hört halt nicht auf.

01:06:07: Es ist ja nie irgendwas fertig.

01:06:09: Wir sind einfach so Kaninchen.

01:06:12: Wir sind einfach in so einer Endloschleife, Beta-Test.

01:06:16: Wir

01:06:16: sind Kaninchen auf Trampolin.

01:06:21: Ja, wenn man so will.

01:06:23: Quasi.

01:06:24: Okay, Bluesgeil.

01:06:25: Nutzt du Bluesgeil?

01:06:27: Was ist die Plattform deiner Wahl?

01:06:28: Wo verbringst du die meiste Zeit?

01:06:32: Also publizierend, ja Blue Sky konsumierend irgendwas zwischen Instagram und TikTok, aber insgesamt deutlich weniger als vor fünf Jahren oder so.

01:06:44: Liegt das eine Plattform oder liegt es an dir?

01:06:47: Boah, das ist

01:06:49: halt so eine ... Ich weiß nicht, ich war schon so sehr ... Ich mochte X irgendwie sehr und es war irgendwie eine tolle Plattform.

01:06:58: Genau.

01:07:00: Das war nie eine nur tolle Plattform.

01:07:02: Da war auch schon immer irgendwie Blödsinn am Start.

01:07:06: Aber das war mal eine Plattform, auf der ich tatsächlich so menschliche Connections aufbauen konnte und es irgendwie cool war und man irgendwie in dem Rahmen, den es so hergegeben hat, cool diskutiert hat.

01:07:19: fehlt mir tatsächlich irgendwie an jeder Stelle.

01:07:21: Also das ersetzt auch Blue Sky, muss ich ehrlich sagen, so wie das war für mich nicht.

01:07:26: Und das Problem sehen wir, glaube ich, alle gerade und deswegen sitzen wir immer noch hier und hören uns diesen Podcast zum Beispiel.

01:07:35: Bauen Tumbler wieder auf.

01:07:37: Bitte?

01:07:38: Bauen Tumbler wieder auf

01:07:40: und dazu machen wir dann kleine Videos, die jeden Tag vor der Tagesschau laufen.

01:07:44: gucken, ob die ARD mitmacht.

01:07:45: Bei Klima vor acht hat es ja schon nicht so wichtig geklappt.

01:07:48: Aber Medienkompetenz ist vielleicht wichtiger als die Klimawandel.

01:07:52: Ja, wir brauchen noch ein catchy Titel.

01:07:55: Es ist leider gerade gar nichts ein.

01:07:57: Das kannst du jetzt nachlesen.

01:07:59: und alle, die ein bisschen zugehört haben, im Hakenland Discord auf www.hakenland.org oder in den Kommentaren bei YouTube bei Spotify oder im Fediverse oder bei Blue Sky.

01:08:07: Irgendwo schreiben die Leute das jetzt, wie das heißen soll.

01:08:10: Und ob die Idee gut oder schlecht ist.

01:08:11: Ich hätte gerne Feedback dafür.

01:08:12: Weil wenn die Idee gut ist, dann machen wir das wirklich.

01:08:15: Ich will nur Namensvorschläge.

01:08:17: Ach so, okay.

01:08:18: Für dich ist klar, dass wir das machen.

01:08:20: Wir machen das einfach.

01:08:22: Dann muss das gut werden.

01:08:23: Wir beta-testen am ARD-Publikum.

01:08:27: Eigentlich wie die Kaninchen auf dem Trampolin.

01:08:30: Eine Funktion habe ich noch.

01:08:31: Spotify wird jetzt auch Gruppenchats ein, dass du die M's nicht nur alleine mit einer Person haben kannst, sondern auch mit einer ganzen Gruppe.

01:08:40: Ich hab mal drei Monate bei Spotify gearbeitet.

01:08:43: Ich kann eigentlich nichts sagen.

01:08:46: Das ist mega.

01:08:51: Generell krass, dass es wirklich überall irgendwie eine Funktion geben muss, wo man irgendwas kommentieren kann.

01:08:57: Ich finde es auch okay, wenn man irgendwie mal so fünf Minuten einfach Sachen auf sich wirken lässt und nicht allen Kram irgendwie zu Kommunikation nutzt.

01:09:05: Also ich brauche das nicht in jeder App tatsächlich.

01:09:08: Ich wünsche mir, dass du einfach in jeder App, die es gibt, Privatnachrichten verschickst, sodass eigentlich gar nichts mehr geht.

01:09:13: Das ist eigentlich mein Wunsch, dass eigentlich jeder App eine Messenger wird, weil dann ist keine App mehr ein Messenger.

01:09:20: Das ist mein großer Plan.

01:09:23: Ist das mal ganz schön mind-blowing jetzt am Ende?

01:09:25: Wie weit wir diesen Plan dann am Ende kommen, werden wir dann das nächste Mal hören, wenn du hier bist.

01:09:29: Ich freue mich, wenn du noch mal wieder kommst.

01:09:31: Ganz toll mit dir.

01:09:33: Gerne.

01:09:33: Perfekt.

01:09:34: Ich hätte auch Spaß.

01:09:36: Das ist schon mal gut.

01:09:37: Wenn du wissen, dass ihr hier bist, können wir unseren Plan weiter vorantreiben, dass wir hier mit den Kompetenzen, wir nehmen die Verantwortung, als wir lerniert waren.

01:09:45: Hier geht es weiter am Montag mit mir alleine, ohne Gast, kleine Solofolge.

01:09:50: Ich habe persönliche Gründe, warum ich am Sonntag nicht mit Gast aufnehmen kann.

01:09:53: Und nächste Woche Mittwoch sind wir dann wieder richtig da, mit Gast mit Dennis Horn, dann live aus Leipzig.

01:10:01: Ja, ich wünsche allen, die ein bisschen zugehört haben, ein ganz wundervolles Wochenende.

01:10:04: Passt auf euch auf, genießt die freien Tage, die ihr hoffentlich habt.

01:10:07: Du auch, danke, dass du hier warst und hoffentlich bis bald.

01:10:10: Danke für die Einladung.

01:10:12: Ciao.

01:10:13: Ciao.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.