Mark Zuckerberg verklagt Meta (kein Clickbait!) (mit Dennis Horn)

Shownotes

Wir machen ‘ne gute Schnitte - und reißen von düstersten Dystopien in die gute alte Zeit von Haken dran. Ein Gemsichtwarenladen für’s Herz! Glauben kann man in der Kirche. Wir glauben trotzdem an eine bessere. Obwohl der Blick nach Nepal, in die Türkei oder Washington D.C. vielleicht Bauchschmerzen macht. Nehmt euch mal am 6.11. nix vor!

➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt

00:00 Hallo Dennis! 02:59 Cybertrucks in Kanada und die Instagram-Uhr 06:11 Mark Zuckerberg vs. Mark Zuckerberg und die Kontosperrungen 09:01 Zuckerberg und Trump 12:05 TikToks neue Community Guidelines 14:48 Doxxing bei X 23:25 Musk vor Gericht 30:17 Kennzeichnungspflicht für KI-Inhalte 33:20 Social Media in Nepal 37:45 Einschränkungen von Plattformen in der Türkei 40:00 Neue Discord-AGB 42:25 Public Spaces Incubator 46:33 Funktionen und Emotionen

Transkript anzeigen

00:00:00: Grüß dich Gavin.

00:00:01: Hallo Dennis.

00:00:02: Na, wie war der Sommer?

00:00:04: Ich war hier durchgesendet.

00:00:05: Also alle wissen ja alle.

00:00:07: Die einzige Frage ist, wie war dein Sommer?

00:00:11: Ich habe mich befunden am anderen Ende der Welt.

00:00:13: Ich war in Kanada.

00:00:14: Ich habe mich komplett digital abgekoppelt.

00:00:17: Und es war fantastisch.

00:00:19: Gut.

00:00:20: Wir haben hier weiterberichtet und haben gegen all den Scheiß angekämpft, aber schön, dass du eine gute Zeit hattest.

00:00:28: Ich bin wie alle, die von den Dingen betroffen sind, die wir hier besprechen, nach Kanada geflohen.

00:00:34: Ja, gut.

00:00:36: Und war interessant.

00:00:40: Ich habe da also bis auf, dass zwischendurch so ein Typ am Wohnmobilverleih sagte, Well, it's a bit crazy right now.

00:00:53: War das alles, was ich von der Weltlage so mitbekommen habe?

00:00:57: Ich bin auch froh, dass wir heute mit ein paar entspannteren Themen hier erst mal reingehen, bevor es hart wird.

00:01:01: Aber ich habe auch harte Sachen mitgebracht heute.

00:01:03: Ja,

00:01:03: natürlich, natürlich.

00:01:04: Aber ja, so war es.

00:01:06: Ich hoffe dir und allen H-Keys.

00:01:08: Geht's wundervoll.

00:01:09: Aber du hast Cybertrucks gesehen in Kanada.

00:01:14: Das ist das einzige, was mich an uns erinnert hat hier.

00:01:16: Und dann hab ich irgendwann mitgezählt.

00:01:18: Es gibt zwei verwirrende, verrückte Fakten zum Thema Cybertrucks.

00:01:26: Ich war drei Wochen da.

00:01:27: Zwölf Cybertrucks gesehen.

00:01:29: Sicher unterschiedliche.

00:01:31: Sicher unterschiedliche.

00:01:32: Und zwar auf der Strecke zwischen Calgary und Vancouver und dann noch auf Vancouver Island.

00:01:36: Es waren einfach zwölf unterschiedliche Cybertrucks.

00:01:39: Einer

00:01:40: war pink.

00:01:42: Lass es nicht untergehen.

00:01:42: Einer war pink.

00:01:44: Was bewegt Menschen einen pinken Cybertruck zu kaufen?

00:01:48: Aber das Ding ist...

00:01:49: Außer sie hören sehr gerne ans Live.

00:01:52: Es ist nicht magenta.

00:01:52: dann ich habe so.

00:01:54: also es gibt so wenige cybertracks die verkauft wurden dass die Wahrscheinlichkeit dass du diese leute die zum beispiel im pinken cybertruck fahren entweder namentlich kennst oder in ergunen kannst relativ hoch ist.

00:02:06: ich spiele jetzt auch lotto

00:02:07: das finde ich gut.

00:02:08: das ist krass ja aber die standen dann da.

00:02:12: dann habe ich fotos gemacht und habe das gepostet und darüber geschrieben es gibt ihn wirklich Und das war's.

00:02:18: Was soll man noch so einem Cybertrack machen als im Posten und sich über die Fahrenden amüsieren?

00:02:23: So.

00:02:25: Wir gehen rein.

00:02:27: Und ich mag es, wenn wir nach all der Zeit erst mal mit lockeren Geschichten einsteigen.

00:02:31: Zumindest vermute ich hinter der Überschrift, die du mir hier notiert hast, Instagram Stories mit UR, eine Lockerung.

00:02:37: Ja und zwar.

00:02:38: Was ist das?

00:02:39: Ja, genau.

00:02:39: Es gibt Leute, die Screenshots posten von Instagram Story Bubbles.

00:02:44: Sie machen Instagram auf und dann ist da dieses Profierbild und unten rechts an diesem Profierbild ist eine kleine Uhr.

00:02:50: Und das Ding ist...

00:02:52: Und wie spät ist es?

00:02:53: Niemals.

00:02:54: Sehr gut.

00:02:55: Niemand weiß, wo wirklich steht.

00:02:58: Es gibt so einen sehr, sehr, sehr, sehr, sehr langen Reddit-Thread von Instagram-Nutzerinnen, die das versuchen herauszufinden.

00:03:04: Es gab die Theorie, was, wenn die Story nur noch eine Stunde oder weniger online ist, konnte ausgeschlossen werden, weil Leute Screenshots gepostet haben, dass die Story noch länger online ist.

00:03:12: Dann gab es die Theorie, ist da ein Countdown in dieser Story?

00:03:15: Nope, das ist es auch nicht.

00:03:16: Was bedeutet diese Uhr?

00:03:19: Wenn ihr eine Ahnung habt, bitte schreibt uns in die Kommentare, in den Discord, ins Internet, egal wo.

00:03:24: Ich werde das lesen, weil die Leute drehen durch im Moment wegen dieser Uhr.

00:03:28: Aber das hast du in Kanada natürlich nicht mitgekriegt, weil du warst beschäftigt.

00:03:31: Nee,

00:03:31: aber wenn ich arbeiten würde bei Instagram, meinst du, das ist so eine, also das ist ja, ich war ja mal da in dieser Firmenzentrale, das ist ja recht normal.

00:03:40: Das ist wie so ein Gewerbegebiet in der Uhr Erkenschwick, wo du vor so einem Vor so einem Gebäude stehst du, du denkst, okay, hier gibt es Büros, glaub ich, billig.

00:03:48: So sieht das wirklich, so sieht das da aus.

00:03:51: Weißt du, dieses Schilder, wo steht Markler, provisionsfrei zu vermieten.

00:03:54: Ja, das wird Mark Zuckerberg gefallen, wenn er das hört.

00:03:58: Mark Elliott Zuckerberg, aber dazu später.

00:04:01: So, und meinst du, dass da Leute reingehen und so wie wir so einen Bürohumor haben und vielleicht manchmal auch sagen, denk, stell ich mir manchmal vor, manchmal auch sagen, hast doch irgendwie so eine Uhr da einbauen und die Leute werden alle durchdrehen.

00:04:14: Naja, es ist ja so ein bisschen dieses Starbucks Theorie, dass Leute dort falsch den Namen aufschreiben, damit du das postest, um VRNTZ zu bekommen.

00:04:20: Könnte sein.

00:04:22: Vielleicht gibt es aber auch eine ganz naheliegende Antwort.

00:04:24: Weil das sieht genauso aus wie die Brille.

00:04:26: Und bei der Brille ist ja klar, dass das mit der Brille gepostet wurde.

00:04:29: Jetzt gibt es aber keine Uhr, mit denen du bei Instagram posten kannst.

00:04:33: Von der wir wissen.

00:04:34: Wie meinst du, das ist vielleicht eine Smartwatch mit Kamerafunktion.

00:04:37: Vielleicht kommt die.

00:04:38: Was fotografiert man da?

00:04:40: Es ist wahnsinnig gefährlich solche Päsen aufzustellen, weil wir nehmen diese Folge eine Stunde von dem Apple-Event auf, bei dem gemutmast wird, früher oder später könnte eine Apple Watch mit Kamera kommen.

00:04:49: Aber gut, nehmen wir uns aus dem Fenster drin, das ist schön, dass du wieder da bist.

00:04:55: Jetzt, all das was jetzt kommt ein bisschen handfester.

00:04:58: Max Ackerberg verklagt Facebook, weil sein Profil jetzt mehrmals... gesperrt wurde, weil sich Mark Zuckerberg angeblich Achtung als Promi ausgeben würde.

00:05:09: Der Mark Zuckerberg, über den wir sprechen, heißt Mark Steven Zuckerberg, kommt aus Illinois, arbeitet seit fast vierzig Jahren als Anwalt und er ist, wie man so schön sagt, weder verwandt noch verschwägert mit Mark Elliott Zuckerberg, dem Bruder von Facebook, dessen Sicherheitsmechanismen einfach keinen zweiten Mark Zuckerberg neben ihm durch.

00:05:29: So, und Mark Steven Zuckerberg sagt, dass Facebook sein Konto in den vergangenen acht Jahren fünfmal gesperrt habe und ihn habe das tausende Dollar an Geschäften gekostet.

00:05:42: Meta sagt jetzt, ja, wir haben das Konto von Mark Steven Zuckerberg wieder freigeschaltet und Maßnahmen ergriffen, um eine Wiederholung zu verhindern.

00:05:48: Ich bin mir nicht sicher, ob er wirklich so viel Verlust damit gemacht hat.

00:05:51: Da weiß ich nicht.

00:05:53: Ja.

00:05:53: Aber ehrlich gesagt, das war auch in meiner Zeit als Freiberufler immer der erste Reflex, wenn mir sowas passiert zu sagen.

00:05:59: In der Zeit, wer mich hier alles angeschrieben hätte.

00:06:03: Weißt

00:06:04: du?

00:06:04: Und die Anzahl der Jobs, die du in zehn Jahren über Facebook generiert hast, ist einstellig.

00:06:07: Aber macht ja nichts.

00:06:09: Hauptsache im Vorgericht klingt das gut.

00:06:14: Ich finde die Geschichte fantastisch.

00:06:15: Die ist so toll.

00:06:16: Die macht so viel Spaß, weil sie einerseits diese Willkür, die Facebook in den Sperrungen immer wieder zutage trägt, so schön zusammenfasst und so zeigt, was es so für Probleme gibt in der Kontamination.

00:06:28: Dies ist aber auch eine Geschichte, in der es nicht wirklich Verletzte gibt, auch wenn Mark Zuckerberg, also der Anwalt, gegenüber WTH R gesagt hat am Fernsehsender in Indianapolis.

00:06:37: Das ist nicht lustig.

00:06:39: Und ich mir dachte, doch, das ist leider, es tut mir wirklich leid, aber doch, es ist leider wahnsinnig lustig.

00:06:45: Aus der Entfernung ist es wahnsinnig

00:06:46: lustig.

00:06:47: Ja, genau.

00:06:47: Und so eine Geschichte, wo man so, wo es eigentlich keine Verletzten gibt, ist natürlich ärgerlich.

00:06:51: Aber ich glaube, wenn du Mark Zuckerberg heißt, ist das dein Facebook-Account regelmäßig gesperrt wird, eigentlich gar nicht.

00:06:56: Gar nicht Zuckerberg.

00:06:57: Danke.

00:06:58: Eigentlich gar nicht dein größtes Problem.

00:07:00: Ich würde mir überlegen, den Namen vielleicht zu ändern.

00:07:02: Was hat er genau?

00:07:04: Was passiert ihm eigentlich sonst im Alltag so?

00:07:06: Das wird komplett ausgespart.

00:07:07: Die E-Mails, die er kriegt, das Geld, das ihm überwiesen wird, die Rechnung, die er bekommt, da ist bestimmt viel denn.

00:07:14: So.

00:07:15: Thomas Gigault hat im Hackenrand-Discord auf www.hackenrand.org.

00:07:19: Hat er sich gefragt, ob das mit Leuten, die gleiche Namen haben, wie zum Beispiel einen anderen Bill Gates, genauso hart passieren würde oder ob Max Ackerberg weiterhin so ein Sonderstatus bei Meta hat.

00:07:29: Wir wissen ja auch, Max Ackerberg wird das einzige Profil, den du keine Nachrichten schicken konntest.

00:07:34: Also ich glaube, das ist trotzdem grundsätzlich massiv unangenehm, genauso zu heißen.

00:07:39: Ja, das glaube ich auch.

00:07:41: Es gibt einen... Ein Handball-Jugendrainer in Dormagen, der auch Dennis Horn heißt.

00:07:48: Wirklich?

00:07:49: Ja, und ich glaube, der hat es nicht einfach.

00:07:52: Seid ihr verwandt?

00:07:53: Nein.

00:07:53: Ich kenne ihn auch, er hat den nie getroffen.

00:07:55: Ihr kommt beide aus dem gleichen, Entschuldigung, Kaff und habt den gleichen Namen und es gibt keinelei Verbindung.

00:08:00: Ja, wenn ich meine Google Alert-E-Mails bekomme, sehe ich immer nur Handball.

00:08:05: Wenn ich du wäre, würde ich bei jeder Zeit ein Google Alert-Immigratulation mailen.

00:08:08: Ja,

00:08:08: genau.

00:08:09: Gut

00:08:09: gemacht, Kollege.

00:08:10: Nach diesem kleinen Schmunzlern zum Auftakt, begeben wir uns wieder in die Untiefen der Broligarchie in den USA.

00:08:18: Mark Elliott Zuckerberg wurde dabei erwischt, wie er sich... Naja, sagen wir mal, genauere Anweisungen, vielleicht ist Anweisung ein hohes Wort, das US-Präsidenten holen wollte.

00:08:32: Wir gehen mal durch.

00:08:32: Also was ist passiert?

00:08:33: Ja.

00:08:34: Es gab eine Technologieveranstaltung.

00:08:35: Da haben wir in der letzten Folge schon drüber gesprochen.

00:08:37: Es gab dieses Dinner.

00:08:39: Genau, im weißen Haus sind ja auch die Fotos rumgegangen, mal wieder.

00:08:43: Und da wendet sich Donald Trump an Mark Elliott Zuckerberg und fragt ihn, wie viel wirst du denn die kommenden Jahre in den USA in künstliche Intelligenz investieren?

00:08:55: Und er sagt, das hatten wir, so weit waren wir schon, ne?

00:08:58: In den letzten Folgen haben wir gesagt, sechshundert Milliarden Dollar.

00:09:02: Ja,

00:09:02: er hat nicht gesagt, sechshundert Milliarden Dollar, er hat gesagt, ich denke, also ich glaube, es werden vielleicht sowas wie, ja, keine Ahnung, mindestens sechshundert Milliarden Dollar.

00:09:13: Das hat er gesagt.

00:09:14: Was Interessantes für ein Unternehmen, das jetzt nicht unbedingt sechshundert Milliarden Dollar auf der hohen Kante liegen hat, ne?

00:09:19: Ne,

00:09:20: so knapp dreihundert Milliarden.

00:09:21: Exakt, also die Wahrscheinlichkeit, das Meter in den nächsten fünf Jahren, drei Jahren.

00:09:28: Doppelte

00:09:28: des eigenen

00:09:30: Buchwerts.

00:09:32: Kann man schon mal in Frage stellen, aber danach ist ja was passiert, das macht man ein bisschen mehr Spaß eigentlich.

00:09:38: Soll ich das erzählen?

00:09:39: Willst du das erzählen?

00:09:40: Nee,

00:09:40: erzähl das mal.

00:09:41: Ich hab gedacht, wir haben den O-Ton sogar.

00:09:42: Ja, wir haben den O-Ton.

00:09:43: Weil es wurde natürlich von C-Span.

00:09:46: Das ist so ein bisschen Phönix für die USA.

00:09:48: Da werden die ganzen Senats- und Kongressveranstaltungen und so übertragen.

00:09:52: Und auch eben die Pressekonferenz aus diesem, ich weiß nicht wie der Raum heißt, Dinner Room des Weißen Hauses auch übertragen.

00:10:00: Und da gab es eine Situation mit einem Hot Mic, einem... offengelassenen Mikrofon.

00:10:04: Und in dieser Situation, wir hören ganz kurz rein, es geht nur sieben Sekunden, wir hören kurz rein und danach übersetzt sich das nochmal.

00:10:17: Also, Mark Zuckerberg lehnt sich zu Donald Trump und sagt, es tut mir leid, ich war nicht so ganz bereit, das ist schon ein sehr guter Satz, in so einer Presse-Situation.

00:10:29: Ich war nicht so ganz bereit und ich wusste nicht, welche Nummer du gerne hören wolltest.

00:10:32: sagt er dem Präsidenten Donald Trump.

00:10:35: Und man bekommt das Gefühl, korrigiere mich denn das, ne?

00:10:38: Ich hab das Gefühl, ich bin ein Mensch, ich reagiere.

00:10:41: Ich hab das Gefühl, das könnte hier eine abgackartete Geschichte gewesen sein.

00:10:47: Wer bin ich, dich zu korrigieren, sag ich da.

00:10:51: Also ich denke, es hat sich viel geändert, seit Donald Trump im vergangenen Jahr mal über Mark Elliott Zuckerberg gesagt hat, wir beobachten ihn genau.

00:11:00: Und wenn er diesmal etwas Illegales tut, wird in den Rest seines Lebens im Gefängnis verbringen.

00:11:04: Da ging es um die Moderation von Inhalten auf den Meta-Plattformen.

00:11:08: Es hat sich ein bisschen was getan, vielleicht unter Zutun von Mark Elliott Zuckerberg.

00:11:15: Wer bin ich denn nicht zu korrigieren, Dennis?

00:11:18: So, damit rüber zu TikTok.

00:11:21: Samstag treten die neuen Community Guidelines von TikTok in Kraft.

00:11:25: darin, ist auch vermerkt, dass bestimmte Inhalte altersbeschränkt sein werden.

00:11:31: Ich zitiere mal aus diesen Community Guidelines.

00:11:34: Some content may not be appropriate for people under eighteen.

00:11:37: When we identify content that falls under the age-restricted standards in our community guidelines, we make it viewable only for adults.

00:11:46: And further, we remove accounts when we believe the Betonung von mir.

00:11:52: When we believe the user is under the minimum age required to have one, as a one account.

00:11:58: If we believe someone isn't old enough for features with a minimum age requirement, Da ist ganz schön viel Belief drin, oder?

00:12:07: Ja, wir sind ja hier nicht bei Cher.

00:12:11: Hier stört mich das sehr.

00:12:12: Bei

00:12:13: Cher stört es mich auch sehr.

00:12:15: Was?

00:12:16: Das ist ein absoluter Hit, Dennis.

00:12:17: Und ich sage dir, wenn wir beide nochmal in die Verlegenheit einer gemeinsamen Party kommen, Dennis, was so Gott will, passieren wird.

00:12:30: Dann werde ich dich zu Cher zum Tanzen bringen.

00:12:34: Eine Frage habe ich dazu.

00:12:35: Legst du Cher nach den Flippers auf oder nach davor?

00:12:41: Deine Vorwürfe scheren mich ja überhaupt nicht.

00:12:46: Die Flippers sind der letzte Song ist anders, aber wir müssen zurück zum Thema.

00:12:51: Ich finde auch, also wir haben ganz viel darüber gesprochen, wie die Plattform damit umgehen und wie sie damit umgehen in manchen Ländern, wie Großbritannien zum Beispiel, diese Altersnachweise für Not-Safe-For-Work-Content leisten zu können.

00:13:02: Manche machen so Personal, das weiß Jax, manche machen so KI-Schätzung.

00:13:06: TikTok geht hier einen neuen Weg, den wir, ich könnte auf irgendeiner anderen Plattformen auch schon mal besprochen haben, hier wird dein Nutzungsverhalten genutzt, um einzuschätzen, wie alt du bist.

00:13:16: Und ich würde sagen mal so... Ich würde behaupten, für eighty bis ninety Prozent würde das wahrscheinlich sogar funktionieren, aber die anderen zehn Prozent, bei denen das nicht funktioniert, das ist ein Riesenproblem, weil das am Ende dazu führt, dass Leute TikTok nutzen, obwohl sie zu jung sind oder TikTok nicht nutzen dürfen, obwohl sie alt genug sind, weil sie sich einfach verhalten, als wenn sie vierzehn.

00:13:39: Was bei vielen Männern der Fall ist.

00:13:43: Ja.

00:13:43: Ja.

00:13:45: Das ist meine Zusammenfassung zu diesem Thema.

00:13:47: Ja, also das wird danebenschlagen.

00:13:50: Also der Versuch ständig mit Automatismen und hier mit künstlicher Intelligenz konkret Probleme zu lösen, die an ganz anderer Stelle liegen, führt am Ende dazu, dass wieder neue Probleme entstehen, auf die man dann wahrscheinlich auch wieder Technologie wirft.

00:14:07: Na ja.

00:14:07: Glauben kann man in der Kirche, ne?

00:14:09: Hat mein vater schon immer gesagt.

00:14:11: Oh wow.

00:14:12: So, Wokest Boy Alive.

00:14:15: Das ist ein Nutzer bei X, der sich diesen Namen gegeben hat.

00:14:18: In der Umgebung von X sag ich mal mutig.

00:14:22: Außer

00:14:22: man meint's ironisch.

00:14:24: Tut er nicht.

00:14:25: Hat er nicht ironisch gemeint.

00:14:27: Er hatte den Namen schon sehr lange.

00:14:29: Und ich will sehr vorsichtig sein in der Art und Weise, wie wir über diese Geschichte sprechen, weil da gerade viel in Entwicklung ist.

00:14:36: Und weil das eine Geschichte ist, die Vorsicht stark unappetitlich ist.

00:14:40: Aber ich fange mal vorne an.

00:14:43: Es gibt eine Gruppierung politisch recht, ich würde sagen, man kann unvorholen sagen von Rechtsextremen, die... In Teilen sogar bei der kommenden Kommunalwahl in NRW für die AfD kandidieren, in einzelnen Wahlkandidaten.

00:14:56: Wir gehen dann namentlich nicht weiter darauf ein, weil sonst kannst du die googeln und dann findest du die Geschichte über die wir hier sprechen und am Ende wollen wir aber auch diesen Nutzer hier schützen, dessen Handel Walker's Boy Alive eben lange Zeit nicht war.

00:15:10: Später aber schon, der hat sich später so genannt.

00:15:12: Und die haben in diesem Netzwerk, in das sie selber Recherche, in dem sie Namen Recherche verwenden, darüber geht es diesen Namen, diesen Nutzer, gedoxed.

00:15:22: Das ist ein Mensch, der sich bei Ex sehr häufig gegen die politische Rechte aufgelehnt hat, der Julian Reichelt widersprochen hat, der sich aber häufig auch politisch teilweise auch schon sehr... Ich glaube, man würde sagen schon sehr offensiv verhalten hat auf X. So, ihr merkt, ich bin sehr vorsichtig, weil ich möchte da wirklich, ich will da keinen Fehler machen.

00:15:42: Aber das Problem an der Geschichte ist, dass es eine Gerechte gibt, die einen Artikel veröffentlicht haben und auch auf X den Klarnamen dieses Nutzers hier veröffentlicht haben, weil sie an diesen Klarnamen dieses Nutzers herangekommen sind, über den sich unter anderem auch Julian Reichelt gefreut hat.

00:15:55: Wer erinnern uns, Julian Reichelt hatte sich im Fall eines rechtsextremen YouTubers, dessen Name von Jan Böhmermann wiederum gedockst wurde, sehr, sehr, sehr aufgespielt als der große Beschützer der Privatsphäre und des Datenschutzes.

00:16:07: Und trotzdem muss man sagen, hier wird nicht nur mit Zweieleimas in einem ähnlich gelagerten Fall gesprochen, sondern hier wird sogar mit Zweieleimas in einem vollkommen unterschiedlich gelagerten Fall gemessen, weil diese Geschichte damals um Clownswelt, so hieß es ja rechtsextremen YouTuber, eine Geschichte war, bei dem du auf den Klarnamen des Nutzers kommen konntest, ohne dich widriger Mittel zu bedienen.

00:16:31: Also der Name war sozusagen ermittelbar.

00:16:34: Das ist hier in diesem Fall nicht so, sondern der Name des Nutzers, über den wir hier sprechen, der sich eben häufig gegen die politische Rechte positioniert hat, taucht in dem Twitter-Lack auf über das wir gesprochen haben mit einem alten Handel und einer E-Mail-Adresse, die seinen Klarnamen darlegt.

00:16:53: Und das ist deswegen interessant aus zwei Gründen, weil aus der einen Seite ist es ja keine Recherche in einem Datenleak reinzuschauen, was da für Namen drin steht und den dann öffentlich zu machen und sich als sehr große investigativ... Guru aufzuspielen, ist es eine.

00:17:08: Zum anderen ist das natürlich nochmal deutlich verwerflicher, wenn du hier irgendwelche gehackten Daten nimmst, um dich darüber irgendwie als der große Gleichmacher und der große Gerechtigkeitskrieger aufspielst.

00:17:20: Empfinde ich so, können Leute anders sehen, aber ist auch mein Gefühl.

00:17:25: Und drittens... zeigt diese Geschichte aber auch ganz viel darüber, was diese Leaks am Ende bedeuten, was Elon Musk alles ermöglicht hat, was für ein Sicherheitsrisiko Elon Musk mit diesem Datenleck quasi Menschen ausgesetzt hat.

00:17:38: Wir haben das immer befürchtet, dass diese Leaks früher oder später auch Risiken bedeuten werden, die vermeidbar sind, die vermeidbar gewesen wären, wenn es eine funktionelle Altissicherheit im Hause X gegeben hätte und die vor allem aber jetzt vor allem von der politischen Rechten ausgenutzt werden, um eben hier Stimmung gegen Einzelpersonen zu machen.

00:17:55: Namen zu veröffentlichen.

00:17:57: Und das würde ich behaupten, ist eine sehr, sehr unangenehme Geschichte und leider erst der Anfang von etwas.

00:18:06: Da habe ich nichts hinzuzufügen.

00:18:09: Das ist krass.

00:18:10: Also im weitesten Sinne, im weitesten Sinne fällt mir bei all diesen Geschichten immer ein, der Satz von Angela Merkel.

00:18:20: Internet ist für uns Neuland.

00:18:23: Wir haben, glaube ich, hier schon mal drüber gesprochen, wo alle sich immer wieder lustig drüber machen.

00:18:27: Aber für mich ist das eine Umgangsfrage mit diesem Medium, die immer noch nicht alle gelernt haben.

00:18:36: und wenn sie nicht wollen, müssen wir hier über Strafbarkeit sprechen an so einer Stelle.

00:18:42: Ja, ist so wie du sagst.

00:18:44: Bedeutet aber halt auch, Leute, wenn ihr irgendetwas im auf X in der Vergangenheit gepostet habt.

00:18:50: Und ich hab, ich hab's ja eben schon mal gesagt, in diesem League sind ja alte Datensätze.

00:18:55: Hier wird ein altes Handel dieses Nutzers genutzt, um auf ihn Rückschlüsse zu führen.

00:19:00: Dann kümmert euch ehrlicherweise schnell um eigene IT-Sicherheitsmaßnahmen, kümmert euch darum, dass euer Account, wenn ihr Dinge gepostet habt, die unweigerlich mit eurem Klarnamen verbunden sind, Lösch die jetzt, sodass es jetzt weniger Beweislage gibt, die Anlass dazu gibt, jetzt zu recherchieren in diesem League.

00:19:15: Trefft alle Vorkehrungen, die jetzt noch möglich sind, um damit umzugehen, dass alle Daten, die bei X mal hochgeladen wurden, nicht sicher sind.

00:19:23: So.

00:19:24: Das ist ganz wichtig.

00:19:25: Eh schon seit ein paar Jahren eine gute Idee.

00:19:27: Ja.

00:19:28: An dieser Stelle möchte ich an den zehnten Dezember.

00:19:30: Zwei tausend zweiundzwanzig erinnern, wenn ich dieses Datum sage.

00:19:33: Du weißt natürlich so.

00:19:34: Klar.

00:19:35: Ja, auch an diesem Tag gab es eine Ausgabe von Haken dran.

00:19:37: Darf ich dazu ganz kurz versagen?

00:19:39: Ganz kurz.

00:19:40: Ich wollte es eigentlich in mir aufheben für die fünf für die drei Jahre Episode hier oder fünfhunderte Folge oder so.

00:19:46: Auf jeden Fall für das Highlight.

00:19:47: Aber ich will das kurz jetzt sagen.

00:19:49: Ich habe neulich kennst du das, wenn du manchmal so wenn man so abends so irgendwie mit oder ohne Rotwein völlig egal ist.

00:19:55: Am Rechner sitzt und so nostalgisch wird.

00:19:57: Das alte Fotos guckt oder sich so, manchmal habe ich so alle drei Jahre, habe ich mal so einen Moment, da höre ich mir so die Musik an, die ich mal gemacht habe in meiner Jugend oder so ganz frühe Aufnahmen oder einen alten Podcast oder so.

00:20:08: Und so einen Abend hatte ich und habe mich einfach mal so durch die Lore von Haken dran bewegt und habe unsere erste Folge gehört, habe zwischendurch einzelne Episoden.

00:20:17: Durch

00:20:17: die Lore von Haken dran.

00:20:18: Ja, das sagt man glaube ich so.

00:20:19: Lore.

00:20:20: Ist das

00:20:21: so ein Werkwerksstollen-Ding, wo man die Schienen lang fährt?

00:20:24: Ja, das auch.

00:20:27: In der Lore durch die Geschichte von Haken dran bewegt.

00:20:30: Genau, die war aber relativ klein, es war eher so ein Lorelei.

00:20:33: Na jedenfalls

00:20:34: drehte nur einen für gelungene Metapher.

00:20:37: Entschuldigung.

00:20:37: Ja, ist gut.

00:20:39: Ich war im Bergwerk.

00:20:40: Im Stollen drin.

00:20:42: Im Stollen drin sozusagen.

00:20:44: Na jedenfalls, ich habe unsere erste Folge noch mal gehört.

00:20:48: Zwischen durch so einzelnen Episoden aus der Mitte gehört eine Episode, wo Dennis irgendwie in der Bar war mit einer schlechten Soundqualität.

00:20:53: Ich weiß nicht, ob sich einige von euch erinnern.

00:20:56: Hab unsere letzte gemeinsame Episode gehört, hab in unserem gemeinsamen Livestream, den wir gemacht haben, reingehört, hab dann auch die erste Folge, die wir nach der Pause zusammen aufgenommen haben und den Weg, den Haken dran seitdem gemacht hat.

00:21:05: Und man muss ja sagen, dieser Teil, den wir zusammen gemacht haben, der ist inzwischen ein kleinerer Teil dieses Podcasts, als die Zeit, die danach gekommen ist.

00:21:15: Das heißt, das alles, wo wir herkommen, die Ursuppe von Haken dran.

00:21:19: Die ist eigentlich die Gerät so langsam in Vergessenheit, weil dieser Podcast immer weiter wächst und wir bald auf Folge fünfhundert zu gehen und so.

00:21:26: Und das war eine ganz, ganz tolle Zeitreise in eine Welt, in der die Dinge noch harmloser und weniger schlimm waren.

00:21:32: Und wenn ihr alle mal Lust habt, dann taucht doch mal ein in diese in diese frühen Tage, weil das macht, also mit mir hat es emotional sehr viel gemacht und zwar nicht nur, weil ich da gesprochen habe, sondern weil ich auch an die Zeit gedacht habe, die das damals mit sich, die das so mit sich brachte und in der wir täglich einen Podcast aufgenommen haben.

00:21:48: mir das dann ja dann geschickt.

00:21:49: Ich habe dann auch noch mal reingehört und bin dann auch noch mal so ein bisschen quer gesurftet, was ja Wahnsinn ist, weil dann, ich habe ja nicht nur in der Bar, wir haben in Zügen gesessen, wo an irgendwelchen Parkplätzen, es war völlig wild.

00:22:00: Und dann habe ich so gedacht, ach, wenn ich nur, also wenn das immer noch täglich gehen würde, ich würde es machen.

00:22:08: Das war wirklich so ein Spaß.

00:22:11: Ja,

00:22:11: das ist so, ja.

00:22:12: Na ja, also, Zehnt hatte aber jetzt Schluss.

00:22:14: Ja,

00:22:14: ja, sorry, kleine, genug Nostalgie.

00:22:16: Mehr dazu in der fünfhundertsten Episode.

00:22:18: Kann ich hier übrigens schon Datum sagen?

00:22:20: Soll

00:22:20: ich?

00:22:20: Ja bitte.

00:22:21: Und zwar, sechster Elfter.

00:22:23: Sechster Elfter, zwölf Stunden Livestream hacken dann.

00:22:27: Ob Mitgästen, ob ohne, hab ich mich noch nicht drum gekümmert.

00:22:29: Aber sechster Elfter, zwölf Stunden Livestream, zwei, vier, setze ich hier alleine im Keller.

00:22:33: Wir

00:22:33: haben schon so viele Versprechen gemacht.

00:22:34: Das haltet.

00:22:35: Und

00:22:35: dann passiert das am Ende, dass wir das Buch doch nicht vorlesen.

00:22:38: Weißt du?

00:22:39: Kann ich mich nicht erinnern.

00:22:40: Ja eben, eben.

00:22:42: Sechster Elfter.

00:22:43: Pragt es euch in den Kalender den ganzen Tag zwölf Stunden Livestream.

00:22:47: Das wird passieren.

00:22:48: Ich sag jetzt, Gavin, ich bin dabei.

00:22:51: Okay,

00:22:51: gut.

00:22:52: Zwölf Stunden lang auch?

00:22:54: Das gucken wir noch.

00:22:56: Kommt drauf an, wann wir beginnen.

00:22:58: Also, zehnte Dezember, Zwei-Tausend-Zweiundzwanzig.

00:23:03: Auch an diesem Tag gab es eine Ausgabe von Haken dran.

00:23:06: So.

00:23:06: Und wir haben in dieser Ausgabe über die erste Klage zur Twitter-Übernahme durch Elon Musk berichtet.

00:23:12: Es folgten viele weitere und geklagt hatten.

00:23:16: Was denn?

00:23:17: Was zählt?

00:23:18: Hast du eine Statistik?

00:23:19: Hat irgendein Discord-User eine Statistik über die Klagen gemacht?

00:23:22: Besser.

00:23:24: Es gibt einige Harkis, darunter Koffi Hollig und Thomas Kigold, den ich gerade schon erwähnte, ein paar andere.

00:23:28: Die arbeiten gerade gemeinsam an einem Klagetracker, weil es gibt im Internet keinen Klagetracker für Klagen gegen Elon Musk.

00:23:34: Und wir sind gerade dran, das aufzusetzen.

00:23:36: Das ist ein bisschen umfangreicher, aber es wird...

00:23:38: Dann lage ich ja sogar richtig.

00:23:39: Ja, es wird einen Klagetracker geben, damit wir auf dem Laufenden bleiben mit Klagen gegen Musk, aber auch gegen andere.

00:23:45: Wir sind dran.

00:23:46: Klecker würde ich den nennen.

00:23:47: So.

00:23:48: Also, geklagt hatten entlastende Mitarbeiterinnen wegen Gender Discrimination, weil Elon Musk einen tatsächlich viel größeren Anteil, dreiundsechzig Prozent, nämlich weiblicher, als männlicher Mitarbeiterinnen gefeuert hat.

00:24:03: Und dann kam die Forderung.

00:24:05: Loneausfall möchten wir kompensiert haben, Geld für Entgangeneleistungen, Boni, Eigenkapital, Schadensersatz wegen seelischer Belastung, Strafschadensersatz, Zinsen, andere Entschädigungen, die ist das.

00:24:16: So, und letzte Woche gab es dazu eine außergerichtliche Einigung.

00:24:20: Die genauen Bedingungen dazu kennen wir nicht, bleiben wohl leider für uns vertraulich, aber das um mal kurz hier den Status dieser... Zumindest einen Klage schon mal zu nennen.

00:24:31: Gibt eine anderen weiteren Rechtsschreit für Elon Musk.

00:24:33: Da geht es um Abfindungen in Höhe von fünfhundert Millionen US-Dollar.

00:24:37: Auch aus einer Sammelklage von Mitarbeiterinnen, die sagen, wir haben unsere Abfindungen von damals niemals erhalten.

00:24:42: Ich glaube, auch wir beide aus dieser Ursuppe von Haken dran, können wir noch die Abfindungsrichtlinie von Ex noch im Schlaf aufsagen.

00:24:50: Ich kann dir auch jetzt noch erzählen, was zum Beispiel alles dazugehört und so.

00:24:53: Ja, absolut.

00:24:55: Also nur mal kurz zwei Monatsgrundgehälter und eine zusätzliche Woche für jedes Jahr der Betriebszugehörigkeit war zum Beispiel eine Regelung da drin.

00:25:03: So jetzt gibt es ein Dokument aus dem Gerichtsverfahren und nachdem stehen beide Parteien hier kurz vor einer Einigung.

00:25:11: Also wie viele Jahre danach, wow.

00:25:15: Aber immerhin, man muss ja trotzdem sagen immerhin, weil Elon Musk hat ja gerade in der Übernahme von Twitter versucht die ganze Zeit eigentlich jede Zahlung zu umgehen.

00:25:24: Er hat die Rechnung nicht mehr bezahlt.

00:25:26: Er hat die Miete nicht mehr bezahlt.

00:25:28: Er hat die Leute entlassen und sich nicht an Abfindungen gehalten.

00:25:30: Er hat dann nicht mal den außergerichtlichen Schlichtungsprozess bezahlt, obwohl das gerechtlich vereinbart war.

00:25:35: Und wer

00:25:36: weiß, wie sehr es ihm dann am Ende auch tatsächlich geholfen hat, um zu strecken.

00:25:39: Absolut.

00:25:40: Aber dass in solche Geschichten hier dann trotzdem noch sozusagen nach Hause gefahren werden für die ehemaligen Mitarbeiterinnen, ist doch eigentlich eine gute Nachricht.

00:25:48: So.

00:25:50: Kurz noch der Blick auf ex in Irland und Brasilien.

00:25:54: in Irland hat ex vor Gericht verloren.

00:25:56: Da gibt es den online safety code der eine strenge Verpflichtung vorsieht.

00:26:02: Passwort.

00:26:07: Was die Alterskontrolle angeht.

00:26:09: Und X hat sich dagegen gewährt und will jetzt auch Berufung, also ist nicht durchgekommen, will jetzt aber auch Berufung gegen das Urteil einlegen.

00:26:16: In Brasilien hat ein Richter entschieden, dass die Entfernung von Inhalten, also wenn jetzt irgendwie das pasilianische Recht sagt, das geht hier nicht, dann reicht es nicht aus, wenn X diese Inhalte auf Brasilien beschränkt, sperrt, sondern der Richter hier fordert, das muss weltweit entfernt werden und das unter anderem hoher Geld strafen.

00:26:39: Das ist ein großes Thema, finde ich.

00:26:41: Wie empfindest du das?

00:26:42: In Deutschland haben wir das ähnlich, dass wenn ihr zum Beispiel eine gerichtliche Anordnung, Inhalte entfernen oder Accounts sperren lässt, wie zum Beispiel im Fall von russischen Staatsmedien, kurz nach Ausbruch des Unterukrainekrieges, dann sind die aus Europa nicht mehr zugreifbar.

00:26:55: Das heißt nicht, dass die Accounts aber weg sind.

00:26:59: Ich bin da so ein bisschen hin und her gerissen.

00:27:01: Findest du, dass ein brasilianischer Richter weltweite Entscheidungen für die zugreifbar auf Inhalte hat.

00:27:07: Weil also ich will kurz einmal einschieben, ganz häufig argumentieren, brasilianische Richter und vor allem Orals, den wir hier sehr häufig auch zitiert haben, ja im Sinne des europäischen Rechtsverständnisses, im Sinne des DSA und zur Regulierung von Plattformen.

00:27:21: Und trotzdem muss ich sagen, an dieser Stelle würde ich ihm widersprechen.

00:27:25: Ja, ich auch.

00:27:26: Absolut, weil klar, du sagst jetzt mit Urteilen, mit denen wir uns aus einer sagen wir mal europäischen Perspektive, demokratischen Perspektive anfreunden können, so.

00:27:38: Aber ich möchte nicht, dass brasilianische Richter das können, wenn sagen wir mal chinesische oder türkische Richter das auch können.

00:27:45: Exakt.

00:27:45: Und das war auch mein erstes Gefühl.

00:27:48: Also, da bist du ja auch an dem Punkt von kulturellen Unterschiedlichkeiten.

00:27:52: Dabei meine ich gar nicht nur Autokratien, in denen politisch Andersdenkende eingeschüchtert oder eingeschränkt oder mundtrot gemacht werden sollen.

00:27:59: Aber es gibt de facto ja kulturelle Unterschiede.

00:28:02: Bestes Beispiel.

00:28:05: Ja genau, der Nippel oder einen Hakenkreuz in den USA.

00:28:08: So, wer wir sind wir denn, auch wenn unsere Geschichte uns vielleicht dazu enablen würde, Argumente zu haben, aber wer sind wir denn, Amerikanerinnen vorzuschreiben, wie deren Verständnis für redefreiheit ist.

00:28:18: So, das können wir nicht.

00:28:21: Ja,

00:28:21: ich finde das nochmal gar nicht die erhebliche Frage, sondern wer sind wir denn?

00:28:24: zuzulassen, dass jemand anders unser Rechtsverständnis hier irgendwie Hops nimmt?

00:28:29: Je nach Perspektive, genau, je nach Perspektive.

00:28:31: Aber nach unserem Verständnis sagen wir einfach, wir als Gesellschaft sind so sozialisiert und haben das so und selber entschieden, wir als Gesellschaft wollen da keine Hakenkreuze sehen.

00:28:41: Wir sprechen uns dagegen aus und die sind hier einfach nicht erlaubt als Darstellung.

00:28:45: Verfassungswidriges Symbol.

00:28:46: Fair.

00:28:47: Aber das heißt ja nicht, dass das für irgendwelche Menschen in Thailand auch genauso gelten muss, nur weil es eben unser Rechtsverständnis und auch unser Kulturverständnis

00:28:55: ist.

00:28:56: Absolut.

00:29:00: Ja.

00:29:00: Absolut.

00:29:00: Gut.

00:29:00: Was haben wir da auch?

00:29:01: Haben

00:29:01: wir da auch Haken dran, weil so heißen wir.

00:29:05: Was haben wir sonst noch?

00:29:07: Du musst ja schon wieder reinkommen, Dennis.

00:29:08: Das ist okay.

00:29:10: China führt eine Kennzeichnungspflicht für KI-Inhalte ein.

00:29:14: KI-generierte Texte, Bilder, Audioinhalte, Videos, andere Formen müssen mit Kennzeichnungen versehen werden.

00:29:20: Da gibt es einen Gesetz verabschiedet schon im März, im Jahr vor dem halben Jahr.

00:29:25: Jetzt ist es in Kraft getreten.

00:29:30: Ich komme noch mal rein, ich komme noch mal rein.

00:29:32: Also die South China Morning Post schreibt, das chinesische Social Media-Plattform WeChat Dujin heißt nicht Dujin.

00:29:40: Dujin,

00:29:41: glaube ich, ja.

00:29:42: Es ist eine chinesische Marktversion von TikTok sozusagen.

00:29:47: Ja, exakt.

00:29:47: Dass sie auch entsprechende Funktionen schon eingeführt haben, so.

00:29:51: Und die Regierung in China hat laut der SCMP, es ist ein bisschen einfach als South China Morning Post, Sorge.

00:29:58: Nichts in Richtung dem SMWB.

00:30:00: Dass ich Fehlinformation, Urheberrechtsverletzung und Online-Betrug stärker ausbreiten und deswegen eben diese Maßnahme.

00:30:09: Laut

00:30:10: dieser Zeit

00:30:11: der Begründung hier so werden KI generiert Inhalt jetzt aber ohne Kennzeichnung hochgeladen, dann kann es Ärger geben und die können als unangemessener Inhalt beim Plattformbetreiber gemeldet werden, der kann dann selbst eine Kennung noch draufsetzen.

00:30:24: Während, glaube ich, die Zensurmaßnahmen für die China ja selbst auch KI nutzt, keine Kennzeichnung brauchen.

00:30:30: Muss ich vielleicht noch mal nachschauen, ob ich da falsch liege, aber...

00:30:33: Artikel fünfzig des AI-Acts in der EU schreibt vor, dass ab dem zweiten August, auch hierzulande, eine gesetzlich verankerte Pflicht KI-generierte Inhalte zu Kennzeichnen bestehen wird.

00:30:44: Also, wir sind noch in der Übergangsfrist, aber ab dem zweiten August des nächsten Jahres haben wir das hier auch.

00:30:49: Und ich würde sagen, fast zu spät, aber gut.

00:30:53: Ich bin gespannt, weil sich daraus Folgefragen ergeben.

00:30:57: Ab wann gilt etwas als KI generiert?

00:30:59: Das lässt sich nämlich überhaupt nicht so klar und scharf trennen.

00:31:04: Also, das wird, glaube ich, noch einen Nachlauf haben.

00:31:05: Ja, wir haben ja über die Will Smith Geschichte hier auch schon gesprochen.

00:31:08: Ich weiß nicht, ob du es mitbekommen hast oder ob das in Kanada kein Thema war, aber... Nein, war nicht.

00:31:12: Okay.

00:31:14: YouTube Shorts, KI Enhanced deren Videos, damit sie aussehen oder so das sie aussehen, also wenn sie KI generiert.

00:31:20: Es wird natürlich am Ende zu dem Problem, dass du am Ende gar nichts mehr erkennen kannst.

00:31:26: Ich glaube, das ist ein Problem, weil das, was du sagst, stimmt natürlich, wobei man eigentlich eine sehr klare, einfache Regelung machen kann.

00:31:32: In dem Moment, wenn da synthetische Inhalte zu sehen sind, ist es KI modifiziert.

00:31:37: Also... Du jetzt gerade zum Beispiel, für die, die es bei YouTube gucken, hast einen künstlich generierten, du sitzt nicht wirklich in einer Plattenladen, sondern das hier ist... Ach, schon.

00:31:46: Ach so, okay, dann... Aber das ist ein echtes Foto.

00:31:49: Er ist nicht KI-generiert.

00:31:50: Wenn dieses Foto aber KI-generiert wäre, müssten wir dieses Video als mit KI-synthetischen Inhalten angereichert kennzeichnen, obwohl eigentlich ja sonst alles genauso wäre wie

00:31:59: hier.

00:32:00: Das wäre

00:32:01: mein Verständnis.

00:32:02: Während ich aber jetzt einfach mit diesem eingeblendeten Hintergrund hier sitze und vielleicht ist nur mein Ausschnitt, dass ich da irgendwie richtig in dieses Bild eingefügt werde.

00:32:11: Nur das hat eine KI-Komponente oder so.

00:32:14: Das gilt dann noch nicht als KI-modifiziert?

00:32:17: Fragezeichen

00:32:18: also doch klar aber nicht als synthetisch.

00:32:21: Ja okay

00:32:22: das wäre mein mein verständnis für eine sehr einfache trennung weil

00:32:25: ja gut aber falsch sind beide bilder.

00:32:27: weißt du was ich meine?

00:32:29: das stimmt klar aber das ging ja auch das ging ja auch schon vor generativer weil

00:32:35: das möchte ich dir kurz.

00:32:36: das möchte ich kurz.

00:32:37: doch so weit möchte ich gehen das aufzulösen.

00:32:39: ich sitze gar nicht in einem plattenladen.

00:32:42: Ja, dann ist dieser Podcast hier für mich beendet an der Stelle.

00:32:46: So, Nepal.

00:32:48: Alle Online- und Social-Media-Plattformen dort sollten sich jetzt offiziell registrieren lassen.

00:32:52: Da hatten die Unternehmen sieben Tage Zeit, um einen Antrag auf Registrierung zu stellen.

00:32:57: Die Frist lief letzte Woche, Mittwoch ab und keine der großen Plattformen, also Facebook, Instagram, WhatsApp, YouTube, X, Reddit, LinkedIn, hat einen Antrag gestellt, doch TikTok.

00:33:08: TikTok ist gelistet, so als Beispiel.

00:33:12: Und die Regierung in Nepal hat dann tatsächlich die großen Plattformen abseits von TikTok verboten.

00:33:17: Menschenrechtsgruppen sagen, na klar, da geht es wohl eher um die Unterdrückung abweichender Meinungen als irgendwie um Regulierung, sagen auch die strengen Auflagen, hätten die Social Media Unternehmen vielleicht nochmal davon abgehalten, sich da registrieren zu lassen.

00:33:30: Und dann gab es Proteste gegen diese Sperrung der Plattform, die dann anschließend in Kraft getreten ist.

00:33:35: Zehntausende haben in Kathmandu am Parlamentsgebäude gegen die Sperrung protestiert.

00:33:42: Die Polizei hat Trenngas eingesetzt, hat geschossen.

00:33:46: Mehr als dreihundert verletzte, mindestens neunzehn Menschen, die da bei uns leben gekommen sind.

00:33:53: Und diese Proteste hatten sich auch schon auf andere Städte ausgeweitet.

00:33:55: Dann hat die Regierung die Blockade aufgehoben.

00:33:59: Stattdessen eine Ausgangssperre verhängt und alle betroffenen Apps konnten dann aber wieder benutzt werden, schreibt Reuters.

00:34:06: Und der nepalesische Innenminister ist am Ende zurückgetreten.

00:34:11: Also nichts Neues in Nepal.

00:34:12: Übrigens November, im Jahr zwanzig, da hat mal die Regierung TikTok geblockt.

00:34:17: Es ist ein Vierteljahr, dreivierteljahr später wieder aufgehoben worden.

00:34:20: Und die Regierung jetzt, die seit gut einem Jahr am Amt ist, versucht stärker der digitalen Welt auch Fässern anzunehmen.

00:34:26: Ich habe die ganze Zeit darüber nachgedacht, was können wir daraus so ziehen?

00:34:30: Was können wir daraus beobachten?

00:34:31: Zum einen finde ich, dass die Plattform sozusagen dieser Registrierungspflicht.

00:34:36: Ich weiß nicht genau, welche Auflagen da jetzt mit rein sind.

00:34:38: So tief bin ich da nicht im Thema.

00:34:40: Aber dieser Registrinkpflicht nicht nachkommen, hätten sie vermutlich in Europa, Großbritannien, den USA so nicht ähnlich gemacht, sondern sie belächeln so ein kleines, sehr, sehr armes Land wie Nepal natürlich.

00:34:52: Indem immer ein dreißig Millionen Menschen leben.

00:34:53: Also wir reden hier nicht über ein Land der Bevölkerungsdichte von Island oder so, sondern trotzdem recht viele Menschen, die da wohnen.

00:35:02: Die ignoranz ging über solchen ländern seitens der tech platform.

00:35:06: die haben wir schon häufiger besprochen und die wird hier glaube ich noch mal klar.

00:35:11: trotzdem und da das ist jetzt hier keine getehter opferverschiebung ist ganz wichtig zu sagen Die Plattformen sind am Ende hier aber nicht dafür verantwortlich, dass es diese Proteste gab, sondern die Gesetzsprechung.

00:35:23: Und ich finde, was da ja auch mitschwingt, ist eine Sache, über die wir hier ganz, ganz, ganz häufig sprechen, in anderem Kontext, nämlich in der Frage, ist es legitim, jungen Menschen den Zugriff auf soziale Medien komplett zu verbieten?

00:35:34: Und wenn du siehst, wie viele Menschen auf die Straße gegangen sind, nicht nur wegen der Sperre gegen soziale...

00:35:39: Ja, wir haben das im Social-Media-Verbot in Australien ja schon diskutiert.

00:35:42: Ja, oder auch in Deutschland jetzt gerade.

00:35:43: Es ist auch die ganze Zeit Thema.

00:35:47: Wenn du siehst, dass die Leute auf die Straße gehen, denen geht es ja nicht nur um das Social-Media-Verbot, da geht es auch um den Vorwurf der Korruption und um willkürliche Politik, um Autokratie, um all diese

00:35:56: Dinge.

00:35:56: Das reiht sich in Dinge ein.

00:35:57: Genau.

00:35:58: Aber die Botschaft, die da drin hängt, ist ja trotzdem, das hier ist... unsere Kommunikationsinfrastruktur, die ihr uns nehmen wollt.

00:36:04: Ihr versucht, uns unsere politischen Gegner munter zu machen.

00:36:07: Ihr versucht uns einzuschränken.

00:36:09: Ihr versucht uns die Freiheit zu nehmen.

00:36:11: Und du siehst, welche Wichtigkeit diese Plattform für Menschen haben.

00:36:14: Natürlich ist die Geschichte ein bisschen anders gelagert als die Frage, müssen fünfzehnjährige TikTok benutzen.

00:36:19: Gar keine Frage.

00:36:20: Trotzdem.

00:36:21: Das ist für Menschen nicht einfach nur eine App, die sie auf dem Telefon haben, sondern sie verbringen drei, vier, fünf Stunden darin.

00:36:26: Sie haben Kontakt mit ihren Freundinnen darin und sie kriegen mit was in der Welt passiert.

00:36:29: Das ist ihr Tor zur Welt.

00:36:31: Und das ist eine ganz tragische, schreckliche Geschichte, die aber, ja, wie gesagt, schwierig ist da was rauszulehren am Ende.

00:36:40: Das hast du jetzt zwischenzeitlich nur so gesagt, aber diesen Punkt die Ignoranz der Plattform Betreiber gegenüber Ländern wie Nepal.

00:36:49: Das finde ich tatsächlich ein interessanten Punkt.

00:36:51: Das ist ja nicht nur bei solchen.

00:36:53: Geschichten jetzt so, wo es einfach so völlig offenbar wird, dann sperrt es halt so.

00:36:58: Das passiert ja auch in anderen Belangen regelmäßig.

00:37:00: Zum Beispiel dann, wenn Testläufe für irgendwelche neuen Ideen, die die Plattformen haben, einfach erst mal in bestimmten Ländern stattfinden und die Leute, die dann dort Nutzer sind, dieser Plattform einfach einfach Versuchskanitien sind, ohne dass ihnen irgendwas vorher angekündigt wird oder es irgendwie noch eine Testzielgruppe, eine zweite gibt oder oder

00:37:23: was auch immer.

00:37:28: In der Türkei ist die Nutzung einiger Plattformen gerade auch eingeschränkt, YouTube, Instagram, WhatsApp, nachdem die Polizei dort die Parteizentrale der CHP blockiert hatte, der größten Oppositionspartei in der Türkei, also auch da wieder Thema.

00:37:43: Fällt dir aus, welcher Plattform da nicht beisteht?

00:37:46: Mir fällt auf, dass dort Facebook nicht dabei steht, tatsächlich.

00:37:52: Ex steht auch nicht

00:37:53: bei, wobei andere Medien, andere

00:37:56: Medien sprechen darüber, dass Zugang zu Ex in Teilen eingeschränkt ist.

00:38:00: Wir können das natürlich von hier aus nicht überprüfen.

00:38:01: Wir sind darauf angewiesen, die Berichte aus der Türkei hier zu lesen.

00:38:05: Aber wir hatten in der Vergangenheit immer wieder Fälle, wo einzelne Ex-Accounts gesperrt wurden auf Anweisung der türkischen Behörden und häufig der politischen Opposition.

00:38:15: Und Elon Musk damals argumentierte, dass es immer noch besser als wenn die ganze Plattform nicht erreichbar ist, wo wir damals schon ein großes Fragezeichen dran gemacht haben.

00:38:23: Exakt das.

00:38:23: Ja, aber ja, also wenn diesmal X tatsächlich auch stark eingeschränkt wird in der Türkei, dann muss man sagen, vielleicht haben sie in diesem Fall hier nicht die Accounts so einfach so umgesetzt und gesperrt, wie zum Beispiel erst im Mai von Imamolu, dem, ich glaube Bürgermeisterkandidaten Istanbul zwar das.

00:38:40: So Gerhard, wenn jetzt dein Kommando an dieser Stelle bitte Werbung für unseren Discord.

00:38:45: www.hagnern.org.

00:38:46: Zwei tausend Menschen sind da.

00:38:48: Da finden extrem viele schlaue Diskussionen statt teilweise zu Themen, die wir hier im Podcast anschneiden.

00:38:52: Teilweise aber auch die Weiterreichen und wo wir beim Podcast nicht auf dem Schirm hatten, dass das Facetten sind, die wichtig sind für diese Geschichte.

00:38:59: Und es ist eine ganz, ganz große Ehre, dass es diese Community gibt.

00:39:03: Und als ich gerade so über diesen Podcast geschwärmt habe und gesagt habe, das ist so groß geworden und so viel.

00:39:08: Dann

00:39:09: liegt das an euch, lieber Harkis.

00:39:10: Ja,

00:39:11: klar.

00:39:12: Es

00:39:12: ist ein absolutes Community-Format.

00:39:14: Alles, was ihr uns schreibt, lese ich.

00:39:16: Alles, was zu uns kommt, damit setze ich mich auseinander.

00:39:19: Auch wenn wir nicht immer Zeit haben, das alles auseinanderzunehmen.

00:39:21: Aber wir setzen uns damit auseinander und sind darauf ehrlicherweise auch angewiesen, dass ihr mitspielt, weil sonst fehlt uns irgendwann so ein bisschen der Inhalt hier.

00:39:30: Im Discord dort sich aufzuhalten, ist wie ein leibhaftiges Wandern durch diesen Podcast und seine Welt.

00:39:37: eine große Freude.

00:39:38: und wenn ihr Dinge früher erfahren möchtet, die wir eventuell erst wieder jetzt nächsten Freitag besprechen werden oder so immer dort.

00:39:44: Absolut.

00:39:46: Und das bringt uns zu den neuen Discord AGB.

00:39:49: Wie tief sollen wir da ansteigen?

00:39:51: Wir müssen ja gar nicht tief rein.

00:39:52: Aber es gibt so zwei, drei Dinge, die ich bemerkenswert finde, weil Discord offenbar gelernt hat, dass andere Plattform Fehler gemacht haben in dieser Kommunikation angepasste AGBs, die sich ja nicht wiederholen wollen.

00:40:03: Also mein Lieblingsbeispiel ist... Sie haben den Q&A veröffentlicht zu diesen neuen ANGBs.

00:40:09: In dem Q&A ist die Frage erlaubt, Discord KI-Unternehmen ihre Modelle mit meinen Nachrichten zu trainieren.

00:40:14: Discord sagt, nein, wir erlauben KI-Unternehmen nicht ihre Modelle mit ihren Nachrichten zu trainieren.

00:40:18: Bedeutet die Aktualisierung der Inhaltsdizenz, dass Discord meine Inhalte nach Belieben verwenden kann?

00:40:23: Antwort, nein, ihre Inhalte gehören weiterhin ihnen und wir verkaufen sie nicht an Dritte.

00:40:27: Die Lizenz gibt uns die Erlaubnis, ihre Inhalte zur Bereitstellung, Entwicklung und Verbesserung unserer Dienste zu verwenden.

00:40:32: Das sagen ganz viele und das kann theoretisch bedeuten, dass Discord selber ein Sprachmodell aufsetzt, das wäre damit abgedeckt.

00:40:38: Aber erst mal klingt das jetzt nicht danach, was zum Beispiel Reddit gemacht hat, so alles zu verschärbeln, was Leute damals reingeschrieben haben und irgendwelchen Leuten in die Hand zu drücken, die damit ein KI-Modell trainieren.

00:40:49: Das passiert ja alles nicht und Discord schließt auch aus, dass personenbezogene Daten nicht als dritte an dritte verkauft werden.

00:40:54: Einzige Ausnahme sind so Werbepartnerschaften, in denen du proaktiv daran teilnimmst und dann wird eben den Werbetreibenden dein Daten weitergegeben.

00:41:02: Also ich muss sagen dafür, dass Discord eine zentrale Plattform ist, auf die wir hier sehr, sehr häufig sich schimpfen, zentrale Plattformen, macht Discord in diesem Fall viel richtig, ist so mein Gefühl.

00:41:13: Auch, dass Sie ausschließen zum Beispiel, dass Sprache und Videoanrufe nicht aufgezeichnet werden, dass sie durch den Verschlüsselt ist, dass nur die Leute in dem Anruf mithören und mitsprengen, dass sie das alles klarstellen, finde ich doch sympathisch am Ende.

00:41:25: Für den Moment sind wir froh, dass das die Plattform unserer Wahl war.

00:41:29: Ja,

00:41:29: ich bin froh, dass sie nicht nur bei Reddit sind, das hätten wir...

00:41:32: Als Hockey Space, absolut.

00:41:34: So, das ZDF arbeitet mit einigen Partnern daran auch so etwas zu schaffen wie eine Plattform, den Public Spaces Incubator.

00:41:45: Das ist eine Partnerschaft unter anderem mit dem öffentlich-rechtlichen Rundfunk aus Kanada.

00:41:51: mit dabei.

00:41:53: sind auch die ARD, ABC aus Australien, RTBF aus Belgien, die SAG aus der Schweiz und so weiter.

00:42:00: Die betreiben diesen Inkubator und das Ziel ist es, wir haben das hier höchstens mal kurz angerissen, nie so tief darüber gesprochen.

00:42:08: Vielleicht ist es mal interessanter auch ein bisschen mehr noch in die Tiefe einzusteigen.

00:42:12: Andere sagen wir mal Gesprächswege zu entwickeln und nicht zum Beispiel als öffentlich-rechtlicher Rundfunk immer über die Drittplattform, der im Grunde ja auch Konkurrenz zu gehen, weil das ja Zeitkonkurrenz für die Mediennutzung zum Beispiel öffentlich-rechtlicher Medien ist.

00:42:31: Da gab es einen Pilotbetrieb in der Mitte des Jahres, wo andere Formen auch von Kommentarmöglichkeiten rund um die Fußball-Europameisterschaft der Frauen Auf ZDF, sag mal jetzt, nicht in der ZDF-Mediathek, auf ZDF bereit standen.

00:42:48: und der Digitalchef des ZDF sagt jetzt, wir sind offen auch für private Partner.

00:42:56: Bei Epidemedien hat er das gesagt, der Bedarf ist da, außerdem, aber die neuen Möglichkeiten müssten noch von den Nutzern und Nutzern erlernt werden, auch für Redaktionen.

00:43:07: Es soll jetzt weitere Einsätze auch im Herbst geben.

00:43:11: Da gibt es einen Programmschwerpunkt zur Depression im ZDF.

00:43:14: Da wollen die das noch mal einsetzen.

00:43:16: Ich finde das schon ein spannendes Projekt und da jetzt tatsächlich mit so einem größeren, breiteren Plattformgedanken dran zu gehen, eine gute Sache.

00:43:24: Ja, ich finde das Projekt auch super.

00:43:27: dieses Jahr zur Republik oder haben wir irgendwann schon mal darüber gesprochen?

00:43:30: und damals haben wir auch schon mal so ein bisschen als das angekündigt wurde darüber gesprochen haben immer wieder darüber gesprochen aber es war immer schwer zu greifen.

00:43:36: Jetzt gibt es eben diese Beispiele aus der von der Fußball-EM dieses Jahr in dem es einen Commentslider gab den wir auch von privaten Anbietern bereits kennen.

00:43:45: Ich bin am Ende, also ich würde mir wünschen, Man kann Interaktion ja nicht neu erfinden, aber man muss trotzdem versuchen, die Leute, die man da erreichen möchte, so befriedigend abzuholen, dass sie nicht einfach nur das Gefühl haben, hier sind jetzt extrem viele Gelder da reingeflossen, dass man hier einfach eine Copycat von privaten Anbietern installiert hat, finde ich.

00:44:07: Und ich bin mir auch nicht ganz sicher, ob die, also die ARD-Mediathek hat vor einigen Monaten die Installation einer Kommentarsparte zumindest in Teilen angekündigt, da haben wir auch drüber berichtet.

00:44:19: Man muss nicht alles kommentieren können, glaube ich.

00:44:22: Aber dieses Experiment kann natürlich ein Grundstein dafür sein, über etwas, das Markus Becketal hier mal gesagt hat und wo ich mich... völlig überzeugt gefühlt habe, dass er gesagt hat, na ja, der Rundfunkbeitrag, der ist ja, wenn wir zum Beispiel in der Argumentation von, ich glaube, es hat Tombouro bleiben, der gesagt hat, es sei eine Demokratieabgabe.

00:44:40: Wenn wir diesen Begriff so verstehen, wir müssen noch nicht zu tief rein, weil vielleicht berührt das bei dir sogar Dinge, die dich beruflich irgendwie beschäftigen und zu denen du dich nicht äußern musst, aber wenn wir das so verstehen, Das ist ein Beitrag ist der uns allen Kommunikation Information Zugriff zu Unterhaltung und zu dieser ganzen zu ganzen medialen Welt sozusagen ermöglicht.

00:45:00: Vielleicht müssen wir das so verstehen, dass ein Teil davon eben auch dafür genutzt werden muss, solche alternativen Modelle weiterzuentwickeln und zu ermöglichen.

00:45:09: Ob das jetzt eine Fediverse Instanz ist oder eine Kommentarsparte in der Mediathek.

00:45:13: Das kann ich nicht beurteilen und da will ich mich auch nicht so weit irgendwie positionieren so am Ende.

00:45:18: Aber ich glaube diese diese Nutzung von Rundfunkbeitrag zur Schaffung einer Infrastruktur, die Infrastruktur jetzt gerade von privaten Anbietern, die Blackbox Algorithmen anbieten, besetzt bleibt und auch keinerlei Alternativen in dieser Welt anbietet, die von einem Mainstream angenommen werden, finde ich erstmal gut und richtig.

00:45:37: Und deswegen finde ich, ist das ein ganz tolles Projekt.

00:45:39: Das war ein sehr langer Satz mit vielen Kommentar und fast alle Punktstaben drin gewesen.

00:45:43: Also aus beruflicher Einbindung werde ich nicht viel mehr dazu sagen, aber ich sage mal in meiner Vorzeit als Freiberufler habe ich für Epidemedienmal ein Plädoyer für eine öffentlich-rechtliche Plattform geschrieben, auf das ich gern an dieser Stelle verweisen möchte.

00:46:07: Wir können es ja so festhalten aus beruflichen Gründen und Befangenheiten kannst du dich dazu nicht äußern, aber wenn man deinen Namen und Epidemäden googelt, vielleicht findet man dann ja was.

00:46:16: Eine Haltung, die ich dazu mal vertreten habe.

00:46:20: Möchtest du weitere Themen aufrufen oder möchten wir uns in Funktionen und Emotionen widmen?

00:46:25: Äh,

00:46:26: ich, ähm, nee, die anderen Themen, das ist glaube ich alles nix.

00:46:29: Ja, das ist so.

00:46:29: Ja, das ist so.

00:46:30: Ja, das ist so.

00:46:30: Ja, das ist so.

00:46:31: Ja, das ist so.

00:46:31: Ja, das ist so.

00:46:31: Ja, das ist so.

00:46:32: Ja, das ist so.

00:46:32: Ja, das ist so.

00:46:32: Ja, das ist so.

00:46:33: Ja, das ist so.

00:46:33: Ja, das ist so.

00:46:34: Ja, das ist so.

00:46:35: Ja, das ist so.

00:46:37: Ja, das ist so.

00:46:37: Ja, das ist so.

00:46:37: Ja, das ist so.

00:46:38: Ja, das ist so.

00:46:39: Ja, das ist so.

00:46:39: Ja,

00:46:40: das ist so.

00:46:40: Ja, das ist so.

00:46:41: Ja, das ist so.

00:46:42: Ja, das

00:46:43: ist so.

00:46:43: Ja, das ist so.

00:46:43: Ja, das ist

00:46:44: so.

00:46:44: Ja, das ist so.

00:46:45: Ja, das ist so.

00:46:46: Ja, das ist so.

00:46:47: Ja, das ist so.

00:46:47: Ja, das So ein bisschen wie damals Twitter, erinnerst du dich an Twitter?

00:46:50: Sagt mir nichts.

00:46:51: So, mit noch viel heftigerem Algorithmus.

00:46:53: Das war doch so ein bisschen wie der Buschfunk, oder?

00:46:55: Ist von Meta, das ist das Unternehmen von Mark Elliott Zuckerberg.

00:46:58: Dieser Anwalt aus Illinois.

00:47:00: Ja,

00:47:00: Anwalt aus Illinois.

00:47:03: Und der Anwalt hat jetzt einprogrammiert, wenn du ein Screenshot machst, dann sneakt sich rechts oben über dem Posting, so ein kleines Threads at Logo rein.

00:47:15: Es ist witzig, weil wir im letzten Sessor gesprochen haben, dass Meta in den letzten Monaten einfach die Ultrafunktionsflut und alles auf die Plattform ausgekippt hat, was hier eingefallen ist und da nicht eine einzige originäre Idee dabei war.

00:47:32: Alles geklaut, alles von anderen.

00:47:34: Und nicht mehr.

00:47:34: das ist deren Idee, weil Twitter macht das in einigen Monaten auch, ex.

00:47:39: Top.

00:47:40: Dann, apropos nicht die eigenen Ideen.

00:47:43: Sollen

00:47:43: wir da mal reinhören?

00:47:44: Kann man da mal reinhören, was er sagt?

00:47:46: Ja, ach so, hör an.

00:47:47: Ja,

00:47:47: machen wir.

00:48:04: Also,

00:48:05: ich dachte, ich moderiere ihn kurz an, ne?

00:48:06: Ach so.

00:48:07: Also, vielleicht sagen wir kurz, das war Adam Mossary.

00:48:09: Instagram Chef?

00:48:10: Instagram Chef, ja.

00:48:12: Und er sagt, vor einigen Wochen hatte ich einen AMA, also ein Ask Me Anything, und da hat mich jemand gefragt, warum kann man eigentlich fremde Kommentare anpinnen, aber die eigenen nicht.

00:48:19: Und dann hat Adam Osterry gemerkt, ähm, weiß ich nicht.

00:48:23: Und hat dann daraufhin angesagt, ja, das machen wir jetzt.

00:48:25: Einmal hat das erlaubt und ähm, ich, also, man weiß natürlich nicht, wie viel an seiner Geschichte dran ist, weil jemand mit seiner Reichweite kann natürlich alles behaupten, das ist ein bisschen wie diese Lüge.

00:48:34: Ich werde ständig auf Instagram gefragt.

00:48:36: Ich wollte es gerade sagen, wir haben doch Familien-Duell auf der Republik hergespielt.

00:48:41: Und die häufigste Lüge im Internet ist, weil mich so viele Leute fragen.

00:48:45: Genau.

00:48:48: Und jetzt macht der genau das.

00:48:49: Ich habe ein Tweet geschrieben vor vielen Jahren.

00:48:52: Ich habe lange darüber nachgedacht, ob ich das posten soll.

00:48:54: Aber weil so viele danach gefragt haben und mir das Thema am Herzen liegt, hier meine ehrlichen Gedanken, waren vier Lügen in einem Satz.

00:49:03: Auf jeden Fall.

00:49:05: Wir wissen nicht, ob das stimmt.

00:49:06: Aber warum sollte man nicht also einen eigenen Kommentaren pinnen können?

00:49:10: Das geht jetzt bei Instagram.

00:49:12: Toll.

00:49:12: Hast du Emotionen?

00:49:13: Aber hast

00:49:13: du Emotionen, ja.

00:49:14: Ich wollte es nicht gerade.

00:49:15: Ne, habe ich nicht.

00:49:16: Toll.

00:49:16: Adam, toll.

00:49:17: Danke.

00:49:18: Nebensägliche Emotionen hatte ich nur.

00:49:20: So, X hat das Video, den Videofeed, ins Hauptmenü verschoben.

00:49:26: Als Anklickoption.

00:49:29: Und die Reihenfolge finde ich interessant.

00:49:30: Also Profile ist ganz oben.

00:49:32: Dann kommt Premium, also hier X Premium Blar und dann darunter direkt Video.

00:49:38: Wie finden wir das?

00:49:40: Ja.

00:49:41: Das ist ja die Ankündigung der Rückkehr von Wein wahrscheinlich.

00:49:44: Das meinte Elon Musk.

00:49:47: Keine Emotionen interessiert mich nicht.

00:49:49: Gut.

00:49:49: Dann gibt es ein neues TikTok-Feature.

00:49:52: Viewer wishes.

00:49:53: Wishes, will ich sagen.

00:49:55: Da kannst du dann sozusagen, du kannst mit deinem Publikum, kannst du dann Fenster sauber

00:49:58: machen.

00:50:02: Also,

00:50:04: viewer

00:50:05: wishes.

00:50:05: Das ist wahrscheinlich, wenn du wieder da bist.

00:50:07: Hinten raus, hinten raus

00:50:08: erlauben wir es.

00:50:09: Das ist unsere Chemie.

00:50:11: Absolut.

00:50:12: Wir

00:50:12: sind quasi Mercatnee, Lennon, aber der Podcastwelt.

00:50:19: Viewerwishes, also ein neues Feature bei TikTok.

00:50:23: Und damit kann man als Creator, also wenn du so ein TikTok Livestream machst, bestimmte Dinge, die du in diesem Livestream machst, an Geschenke knüpfen.

00:50:36: Also als Viewer, als Zuschauer kannst du diese Wünsche äußern.

00:50:42: Und wenn du dann einen TikTok Gift, das sind mir zu viele.

00:50:45: Okay.

00:50:46: Meine

00:50:46: Emotionen ist mir, was soll dieser Scheiß?

00:50:49: Nennt das doch normal, dass man das auch versteht.

00:50:51: TikTok Gift.

00:50:52: Ich kann Creator Actions an Gifts knüpfen.

00:50:56: Und dafür gibt es neue Performance-Options.

00:50:57: Toll.

00:50:58: Keine Emotionen weiter.

00:51:00: Also doch, doch, doch, doch, doch, doch, doch, doch, doch, doch.

00:51:02: Ja, mach.

00:51:05: Also, du bist ein Musiker.

00:51:06: Du bist Musiker.

00:51:08: Wieso?

00:51:09: Du hast ja gerade so Paul McCartney und wir

00:51:13: sind's doch.

00:51:17: Ja, mach mal weiter.

00:51:18: Boah, ich, bitte lass mich Paul McCartney sein.

00:51:20: Du hast ja einfach aus Gründen.

00:51:23: Nein, ich will dich auch nicht opfern, Dennis.

00:51:25: Na jedenfalls.

00:51:26: Wenn du, du bist Musiker, machst du ein lautes Stuhl, spitz Gitarre und ich kann dann sagen, du kriegst dir einen Diamond.

00:51:31: wenn du ein Song von den Beatles spielst.

00:51:34: Ja.

00:51:34: Und dann kriegst du ein Diamond, wenn du das gemacht hast.

00:51:36: Das ist ja die Idee.

00:51:37: Und ich finde es gar nicht doof, irgendwie, dass man sozusagen, also ich finde, diese ganzen Micropayment-Gedöns, das mag ich alles nicht.

00:51:43: Auch diese Gegenleistung und diese Gifts und so, das mag ich alles nicht.

00:51:47: Aber, dass du sozusagen, dass du so ein Livestream so nutzen kannst, dass du eine direkte Interaktionsmöglichkeit hast, die über die Kommentare hinausgeht, das finde ich irgendwie ganz clever.

00:51:59: Ja, ist schön.

00:52:00: Ich musste gerade daran hängen, ja, aber was macht das wiederum mit Jugendlichen, diese ganze Funktion?

00:52:05: Also ich glaube, das ist so, weißt du, Adam Mosseri, um ihn noch mal zu zitieren.

00:52:09: Wenn der über Instagram spricht, dann zitiert er auch immer seinen Bruder, der auch Musiker ist oder so.

00:52:14: Das sind dann immer seine Lieblingsbeispiele und so.

00:52:16: Und dann denkst du immer, ja, in dieser Musikerwelt alles ganz toll, aber möchtest du unter Jugendlichen so eine Verknüpfung mit Geschenke für die Dinge, die die im Livestream dann tun?

00:52:26: Da wird mir aber auch ein bisschen anders.

00:52:29: dazu mal wen anders zitieren möchte kann ich mal empfehlen ist ein schönes rabbit hole.

00:52:33: man muss nicht in jeder in jedem punkt mit ihm übereinstimmen aber der der gründer von patreon jack conty der hat ein instagram account und er hat auch mehrere youtube kanäle und macht ganz viel content über creator economy und darüber wie menschen selber musiker gewesen als sie die plattform gegründet hat weil er wollte ein modell haben um seine musik sozusagen crowd zu fanden.

00:52:53: und er redet sehr viel darüber wie man sozusagen seine kreative unabhängigkeit behält und sich trotzdem sozusagen in den Dienstag des Publikums stellen kann.

00:53:01: Und das ist, finde ich, genau der inspirierende Gegenentwurf zu Edamus Harry, der ja einfach nur alles klaut.

00:53:08: So.

00:53:08: Ja.

00:53:10: Und hinten raus, Reddit.

00:53:13: Reddit Pro ist ein Tool, das dir hilft, als Unternehmen oder als Organisation oder so, da irgendwie eine gute Schnitte zu machen auf der, auf der Plattform.

00:53:23: Eine gute Schnitte?

00:53:24: Eine

00:53:24: gute Schnitte.

00:53:25: Wo hast du das denn gelernt, auch für Roland?

00:53:27: Weiß ich

00:53:27: nicht.

00:53:29: Als ich die Plattenteller drehte, sagte das

00:53:31: einer.

00:53:31: Als du eine geile Scheibe aufgeschmissen hast, die direkt in den Fuß ging, hast du kräftig abgeschmofen den letzten Abend.

00:53:41: Eine echt geile Fete, Leute.

00:53:44: Wir können es doch nicht über diesen Sprech mit Gifts und jetzt kommen hier organischen Business-Werkzeugen beschweren und dann... Egal.

00:53:52: Ja, ich finde es toll.

00:53:53: Nein, ich finde es toll.

00:53:54: Gute Schnitte machen.

00:53:55: Gute

00:53:55: Schnitte machen.

00:53:56: Sagt man das wirklich

00:53:56: so?

00:53:56: Ordentliche Schnitte machen.

00:53:58: Sagt

00:53:58: man das so?

00:53:59: Weiß ich nicht, Mann.

00:54:01: Fragt doch einen Boomer, ob man es so sagt, dann sagt er der Ja.

00:54:03: Okay, Dennis, sagt man das?

00:54:04: Ja.

00:54:07: Also Reddit Pro, ein Tool mit, wie Reddit selbst sagt, organischen Business-Werkzeugen.

00:54:15: Und für das gibt es jetzt ein recht umfangreiches Update.

00:54:20: Reddit sagt mit Community-Überwachung und Interaktion direkt auf Mobilgeräten, verbesserten Leistungsdaten und Ja, so eine Art How To, um da irgendwie möglichst gute Schnitte zu machen.

00:54:34: Und das ist das Reddit Pro Organic Playbook mit allem, was du noch als Unternehmen brauchst.

00:54:41: Ich finde, das ist ein ganz schöner, ich finde, das wird tatsächlich... Ja, ich hab Gefühle.

00:54:46: Ich finde, das ist tatsächlich eine ganz schöne Geschichte, weil es hier eben nicht darum geht, wie kannst du als Unternehmen ganz viele Werbungen kaufen auf Reddit, sondern wie kannst du tatsächlich mit organischen Inhalten auf einer Plattform, die super community driven ist und in der es eigentlich in der Werbung komplett verpönt ist, trotzdem als Unternehmen irgendwie stattfinden, ohne dass die Community dich zerfleischt.

00:55:05: Und wir sagen zum Beispiel, dass im Schnitt, das finde ich hier tatsächlich toll, das ist dieses Screenshots hier, Drei organische Kommentare von einer Brand unter einem Nutzer in den Post sorgt dafür, dass der Wachstum um positive Äußerungen zu dieser Marke um zwei Prozent liegt.

00:55:24: So, das finde ich doch irgendwie interessant.

00:55:26: Also nach dem Motto, ey, Leute, macht einfach mit, versteht die Kultur hier und werft euch da rein.

00:55:30: Und wenn ihr die Kultur versteht, dann werdet ihr auch von dieser Kultur akzeptiert werden und seid nicht einfach nur die, die doof werbetreiben.

00:55:36: Also ich finde, dass es so Netzkultur eigentlich eher ein Netz.

00:55:40: Kultur positiv ist am Ende, auch wenn es hier um Werbung geht.

00:55:43: Also ich verstehe, was du meinst.

00:55:45: Es geht ja nicht um Content Marketing

00:55:47: im Grunde,

00:55:47: um organisches Content Marketing und ich verstehe genau, was du meinst.

00:55:51: Und hab auch erst mal, das ist ja unsere Brille als Inhaltemenschen, hab auch erst mal so positive Konnotationen dazu.

00:56:00: Aber... Das ist ja hier Gutachter und Autowerkstatt in einem Mal wieder.

00:56:04: Also du kriegst die Tipps direkt von dem Unternehmen, das aber nicht transparent macht, ob die Dinge, die es da beschreibt im Hintergrund wirklich so passieren.

00:56:14: Und ich muss mich dann bei so einer Geschichte immer an den Pivot to Video bei Facebook erinnern.

00:56:21: Ich muss mich auch an diese ganze Spotify.

00:56:23: Wir wollen jetzt Videos haben, Geschichte erinnern der letzten Jahre.

00:56:27: Die Frage ist für mich immer das, was die in so einem Leitfaden beschreiben.

00:56:31: hilft das wirklich den Unternehmen.

00:56:33: Ist das die Sonne oder ein Ist-Zustand?

00:56:36: oder ist das der Sollzustand, den Reddit selbst erreichen möchte, um wie damals Facebook möglichst viel Videokontent zu bekommen, weil sie eigentlich was anderes vorhaben, nämlich gut gegen YouTube dazustehen.

00:56:47: Also ich hab da wirklich immer ein schlechtes Gefühl.

00:56:50: Weiß ich nicht, ob ich allein

00:56:51: darauf setze.

00:56:52: Doch, das verstehe ich.

00:56:52: Nee, nee, ich verstehe das schon, weil wir auch schon häufiger festgestellt haben, dass die Leute die Plattform am Anfang... Habe ich

00:56:58: da nochmal Emotionen bekommen am Ende.

00:56:59: Ja, natürlich.

00:57:00: Nee, ist gut.

00:57:00: Die Leute oder die Punkt, die die Menschen.

00:57:04: die Communities am schlechtesten verstehen, sind die, die sie betreiben.

00:57:07: Also wir sehen das bei Threads, wir sehen es bei Instagram, wir sehen es bei Spotify, wir sehen das überall.

00:57:13: Wir haben das bei Reddit ja auch schon gesehen, als diese Verscherbelung der Daten für KI zu einem kompletten Protest auf Reddit führte, dass die Leute sogar Steve Hoffmann den CEO irgendwie quasi, die haben den ja quasi gelüncht auf der Plattform.

00:57:25: Schlechtester

00:57:26: Twitter-Account, damals war der von Twitter.

00:57:28: Ja.

00:57:30: Wirklich so.

00:57:32: Deswegen der Facebook Account von Facebook.

00:57:36: Der ist wiederum ganz spannend.

00:57:39: So.

00:57:41: Und jetzt gehen wir uns das Apple-Event angucken.

00:57:44: Und wenn ihr das hier hört, ist es Mittwoch morgen.

00:57:46: Ich wünsche euch eine ganz, ganz tolle, wundervolle Restwoche.

00:57:48: Passt auf euch auf, denn es ist toll, dass ihr wieder da bist.

00:57:50: Und ich freue mich, dass du Montag schon wieder hier bist.

00:57:53: Also

00:57:53: es ist brillant.

00:57:54: Ich freue mich drauf.

00:57:55: Passt auf euch auf und tragt euch den sechsten Elften in den Kalender.

00:57:58: Adios.

00:57:59: Tschüss!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.