Sora und Gommorha (mit Dominik Hammes)
Shownotes
Wir haben uns die Slop Machine Sora angeschaut - und ein paar philosophische Ansätze mitgebracht. Adam Mosseri, der Chef von Instagram, hat auch ein paar philosophische Ansätze - aber, wer hätte das gedacht, andere als wir. Außerdem startet auch diese Woche wieder mit Diskussionen über Social Media-Verbote.
➡️ Adam Mosseri im Interview mit Bloomberg bei der Screentime-Konferenz: https://www.bloomberg.com/news/videos/2025-10-09/instagram-s-mosseri-on-new-creator-tools-and-growth-video
➡️ The Verge - “Hollywood hat keine Ahnung, was es mit KI anfangen soll” : https://www.theverge.com/ai-artificial-intelligence/798496/hollywood-openai-training-netflix-paramount-warner
Kapitelmarken, KI-unterstützt 00:00 Hallo Dominik! 03:00 Killt Sora TikTok? 15:10 Adam Mosseri bei Screentime 32:42 Vertrauensbruch bei “Enge Freunde” auf Instagram 36:42 Einstweilige Verfügung gegen Grok 40:53 Identitätsdiebstahl und Emotionen 44:22 Social Media-Verbot für Minderjährige in Dänemark? 49:56 Funktionen und Emotionen
Transkript anzeigen
00:00:00: Hallo Dominik.
00:00:01: Grüß dich, Gerhard.
00:00:02: Bei mir ist Dominik Hammes.
00:00:03: Ich hab letztens, haben wir hier darüber gesprochen, muss ich Leute vorstellen, die schon zwanzigmal hier waren?
00:00:08: Die Antwort war, ja, mehr, mehr Leute geschrieben.
00:00:10: Auch das ist so schön.
00:00:13: Also entweder sind die Leute sehr wohlig und wollen ja, ich möchte das Leute vorgestellt werden.
00:00:17: Das ist wie Hallo sagen, das macht man heute.
00:00:19: Und die anderen sind so wie du, das Positismus.
00:00:22: Moment, ich werfe doch immer nur mit Blumen und Konfetti auf meine Beste.
00:00:26: Ja, aber du siehst auch, dass es mir unangenehm ist.
00:00:28: Bei mir ist heute Dominik Hammes.
00:00:30: Podcaster, Internetkerl, einfach ein guter Mann, ein Mensch, bei dem ich stolz bin, dass ich ihn zu meinen Freunden zählen darf.
00:00:39: Es ist schön, dass du heute hier bist.
00:00:41: Das gebe ich gerne zurück.
00:00:42: Also eigentlich alles, was du gerade über mich gesagt hast, kann ich zurückgeben, tatsächlich.
00:00:46: Internetkerl.
00:00:47: Internetkerl und das sehr, sehr schöne Freundschaft zurückgebe ich auch zurück.
00:00:52: Wie war dein Wochenende?
00:00:54: Ach, wir haben Wochenende, stimmt.
00:00:56: Jetzt
00:00:56: nicht mehr, wenn man das hört.
00:00:58: Wenn ihr das hier hört, nicht.
00:01:00: Relativ ruhig, muss ich dazu sagen, aber ich mag ja den Herbst, ich mag's ruhig.
00:01:04: Viel Spazierengehen, kannst du an den Sammeln Tee trinken.
00:01:07: Und Doomscrolling bis zum Umfallen.
00:01:10: Ich hab
00:01:11: gestern einen Meme im Kopf gebaut, wo ich dachte, das gibt's bestimmt schon.
00:01:15: Dr.
00:01:15: Doom aus den Marvel Comics kennst du ja vielleicht?
00:01:17: Nein.
00:01:18: Der hat so eine Eisenmaske und eine grüne Kapuze.
00:01:20: Vielleicht ist er irgendwann in Memes schon mal aufgefallen und ich dachte irgendwann einfach nur sagen, dass man erkennt, dass Dr.
00:01:25: Doom ist, wenn man ihn eben kennt, einfach drinnen schreibt, you can stop scrolling now, you found me.
00:01:30: Das wäre gut.
00:01:31: Vielleicht baust du das noch.
00:01:33: Ja, also vielleicht baue ich es noch, aber es ist natürlich auch wieder ein Copyright-Verstoß, aber Memes und Copyright.
00:01:37: Copyright-Verstoß, das sind nämlich genau das Thema, wo ich hin wollte, weil ich habe Doomscrolling immer auf einer ganz anderen Ebene gemacht.
00:01:43: Ich habe mich am Wochenende nämlich mit der Zora-App auseinandergesetzt.
00:01:46: Die haben wir ja hier schon ein bisschen kleinteiliger besprochen in der Vergangenheit, aber jetzt können wir uns ein bisschen tiefer reingehen.
00:01:53: Und zwar hat ja Open AI das Unternehmen hinter Chat GPT in den USA und also sie sagen Nordamerika, ich glaube in Kanada kannst du es auch benutzen.
00:02:01: Eine App gelounsht, die Zora heißt, sowie deren Text zu Videokai, die aber eben nicht nur die Möglichkeit bietet, mit diesem Zora-Zweimodell Videos zu generieren.
00:02:11: sondern die dann auch direkt zu teilen und das aber in einem explor feed der mehr sich anfühlt wie tiktok als wie andere sozialen erzerke.
00:02:19: also du kannst da halt durchwischen und siehst unentwegt unentwegt videos die aber eben alle nicht echt sind.
00:02:26: und bevor wir da so ein bisschen nachrichtlich hackendranniger reingehen mein ganz kurz eine persönliche einschätzung dazu.
00:02:34: Also, es macht was mit einem.
00:02:36: Ich kann das nicht anders sagen, weil du verlierst relativ schnell die Gewissheit, dass alles, was du gerade siehst, nicht echt ist.
00:02:44: Also, dieser Verfremdungseffekt, wir fangen hier direkt kulturwissenschaftlich mit Brecht an, dieser Verfremdungseffekt, den du im Theater oder beim Fernsehen in India hast, dass du weißt, okay, ich gucke mir jetzt eine Soap an und weiß, die Leute, die da reden mit mir, die spielen eine Rolle, denen man ja zwar so ein bisschen vergessen will.
00:03:03: Das ist ja die Idee von Theater und Schauspiel.
00:03:05: Die Immersion wiederum, ja.
00:03:07: Genau, die aber trotzdem drin liegt.
00:03:09: Also wir sind alle zumindest so kompetent genug.
00:03:12: Das würden wir jetzt einen dieser Schauspieler auf der Straße sehen, ihn nicht wegen seiner Taten beleidigen, die er im Film gemacht hat.
00:03:19: Gibt es auch Leute, die das nicht gut können, die dann auch immer sagen, warum hast du das Brenda angetan?
00:03:23: Verstehe
00:03:23: ich.
00:03:24: Ich glaube, das waren die Rollen bei Jahrzehntezehn.
00:03:27: Aber ja, in der Regel sollte man aufgeklärt genug sein, dass man Personalitätsvertrag, dass man weiß, ey... Es ist nur ein Film, bla bla bla.
00:03:34: dass man darauf klarkommt.
00:03:35: Und du bist jetzt der Meinung, wenn du, du hast dich durchgescrollt, nämlich ansonsten hättest du so nicht gesagt, wenn du dich da durchskrollst, vergisst du irgendwann, dass das alles aus dem Computer schammt und dass Martin Loverking vielleicht doch mit Michael Jackson zusammen einen Boxkampf moderiert.
00:03:48: Genau, und das ist mir passiert.
00:03:49: Ich hatte mit der Zeit das Gefühl, dass du einfach, also man muss sich selber daran erinnern, dass das nicht echt ist, weil wir auf der einen Seite auf einem qualitativ so hochwertigen Niveau sind, dass es wirklich Videos gibt, die sich echt, die echter aussehen.
00:04:03: anderen Seite, aber auch, weil du dich ja auf, weil das so gelernt ist, dieses bei TikTok, wenn du durch TikTok scrollst, dann bist du gewohnt, dass das echte Dinge sind, die da gefilmt wurden.
00:04:14: So, das verlieren wir ja gerade auch, aber zumindest war das Vergangenheit
00:04:16: nicht so.
00:04:17: Aber nicht im Sinne von, ist es jetzt inszeniert oder komponiert oder nicht, sondern nur im Sinne von, da ist eine Kamera, wirklich,
00:04:23: dass
00:04:23: es wirklich ein Schlafzimmer oder ein Studio halt,
00:04:26: das hier
00:04:27: gefilmt wird.
00:04:29: Es ist schwierig.
00:04:30: Die Begriffe greifen nicht mehr so ganz, weil das, was aus der Karriere auskommt, ist ja mehr Fake als eine Inszenierung.
00:04:38: Deswegen muss man da wirklich aufpassen, wie man mit den Worten umgeht.
00:04:41: Na ja.
00:04:41: Ja, spannend.
00:04:42: Das ist für dich ein ganz, ganz spannender Effekt und möchte euch, wenn ihr möchtet, einladen dazu, das auch auszuprobieren.
00:04:48: Das ist ein bisschen kompliziert.
00:04:49: Du brauchst einen amerikanischen Apple App Store Account.
00:04:52: Ach,
00:04:52: es ist bei uns noch nicht da.
00:04:53: Es ist bei uns noch nicht da.
00:04:54: Du brauchst diesen App Store Account, den kannst du aber erstellen.
00:04:58: In deiner App Store App auf dem iPhone, wie es mit dem Android-Telefon ist, weiß ich ehrlicherweise gerade nicht.
00:05:03: Ich glaube, die App ist noch nicht für Android raus.
00:05:06: Aber du musst... sich sozusagen einmal kurz im App Store abmelden und mit einem amerikanischen Account neu anmelden.
00:05:12: Es verstößt streng genommen gegen die Nutzungsbedingungen eine Adresse anzugeben, die nicht existiert, aber die Adresse des Weißen Hauses zum Beispiel kann trotzdem angegeben werden, habe ich gelesen.
00:05:20: Die existiert ja
00:05:20: auch.
00:05:21: Die existiert ist aber nicht deine.
00:05:23: Ja, das ist erst mal richtig.
00:05:25: Noch.
00:05:26: Man könnte auch ein Hotel angeben und einfach sagen, da werde ich jetzt Urlaub verbringen.
00:05:29: Genau.
00:05:30: Aber damit kannst du dich dann anmelden und du brauchst ein In-Wide-Code.
00:05:33: und für alteingesessene Haken dran, höher erinnern, wisst ihr alle, was das bedeutet.
00:05:38: Wir wollen das nicht hier, weil wir wollen eigentlich nicht A.I.
00:05:40: Slop so krass featuren, dass wir hier zehn Minuten jeden Tag über In-Wide-Codes reden.
00:05:45: Deswegen gibt es im Haken dann Discord jetzt ein Channel, der Zahlensender heißt, wo ihr In-Wide-Codes findet für Sora mit der einzigen Bitte den Invite-Code, den ihr dann dafür bekommt, wieder da reinzuteilen.
00:05:56: So können wir da sozusagen eine Kette erstellen und die Leute sozusagen alle in diesen Genuss bringen, diesen Verfremdungseffekt zu spüren, wenn sie das denn möchten.
00:06:05: Wenn nicht, ist auch nicht so schlimm.
00:06:07: Aber ich finde das so als Experiment und Einblick in das, was uns da gerade kontentmäßig bevorsteht im Internet, glaube ich, ein interessantes Experiment.
00:06:16: Man kann es dann immer noch Scheiße finden, aber man sollte zumindest wissen, wo man redet, finde ich.
00:06:20: Ja, ich ... Mein Problem dabei ist jetzt, und damit möchte ich gar niemand meine Meinung aufdrücken.
00:06:26: Die Hörer, die mich schon ein paar Mal wahrgenommen haben, wissen ja, wie hart skeptisch ich in der Richtung bin.
00:06:31: Man kann ruhig sagen auch Angst, ich darf vorhaben.
00:06:33: Also es ist mehr ein Widerwille als eine Angst, aber die spielt natürlich immer eine Rolle.
00:06:38: Und ich selbst aus neugiergründen wäre ich höchstens, so gibt mir mal dein Handy, ich würde es auf meinem Telefon nicht mehr machen wollen.
00:06:45: Und ich verstehe aber diese Faszination zu sagen, ich muss da jetzt einfach einmal durch.
00:06:49: Und ich glaube, ein Teil von diesem Du verlierst so ein bisschen das Konzept davon, du verlierst den Gedanken, dass das ja alles Fake ist, liegt auch ein bisschen daran, dass es natürlich alles aus einer Engine kommt.
00:07:00: Du bist halt, es gibt so Faktoren, die du vielleicht normalerweise nutzen würdest, auch unterbewusst, um zu sagen, das ist KI generiert und nicht echt, die dann aber bei jedem Video gleich sind.
00:07:09: Das heißt, du siehst es irgendwann nicht mehr.
00:07:11: Das ist genauso, wenn du über alle Videos den gleichen Filter drüber legst, dann ignorierst du den irgendwann.
00:07:15: Könnte mir vorstellen, dass das in der Wahrnehmung eine Rolle spielt.
00:07:18: Ja, das finde ich einen spannenden Punkt, weil du sozusagen Durch den Kontrast in anderen Social Media Feeds fällt es dir auf.
00:07:25: Wenn es so Faktoren gibt, die darauf hinweisen, dass das hier erstellter Inhalt ist, generierter Inhalt.
00:07:32: Wenn du aber diese Dinge sozusagen als Grundvoraussetzung für jedes Video hast, dann siehst du es nicht mehr.
00:07:37: Ich glaube, das ist eine gute Beobachtung.
00:07:41: Es sticht ja auch, wenn du es in der wahren Welt siehst, also man sieht ja immer mal wieder, da habe ich jetzt bei zwei Geschäften schon gehabt, irgendwie, dass die, was KI generiert ist, als eine Werbekrafik benutzt haben und ausgedruckt irgendwo hängen hatten.
00:07:52: Und es sticht halt raus, wie so ein entzündeter Daumen.
00:07:55: Aber wenn das jetzt jeder Laden machen würde, würde ich zwar immer noch, wenn man fragt, guck mal dahin, was ist denn das, würde ich sagen, ich glaube es ist KI.
00:08:03: Aber es wird irgendwann in den Hintergrund rücken, wenn ich jetzt nicht mehr so krass wahrnehme.
00:08:06: Und jetzt im Moment bin ich immer noch so, ach komm, Leute.
00:08:09: Ich hab dazu, Rudi, dass gerade ansprichst, irgendwie ist es noch eine kleine generative AI-Beobachtung.
00:08:15: Wenn du von Chat GPT Bilder generieren lässt.
00:08:19: Dann haben die eigentlich immer ein sehr ähnliches Schriftbild, immer dieselbe Schriftart, die sozusagen generiert wird, die aber sonst im öffentlichen Raum kaum eine Rolle spielt.
00:08:28: Und ich glaube, dass die durch die Einfachheit, damit Inhalte zu generieren, sich jetzt in den öffentlichen Raum schiebt.
00:08:35: Und im Moment erkennen wir das noch sehr gut, weil halt alle, solange du das nicht reinpromptest, dass ein gewisses Schriftbild haben soll, sieht das eben so aus.
00:08:44: Und das wird relativ, ich würde behaupten, dass wird Speisekarten, Werbebanner, Flyer, Poster im Sturm erobern, diese Schritte.
00:08:52: Ja, also gerade in kleinen, kleineren Lokalitäten, wo man ja immer bei der Speisekarte, wenn man so als... Ob man jetzt mit den Gestalter sein muss, aber wenn man irgendwie ein Auge dafür hat, gerne mal über die Speisekarte guckt, um die Fehler zu finden.
00:09:04: Und das gar nicht böse meint, sondern einfach so, ha ha, guck mal hier.
00:09:08: Oder hier sind mal zwei verschiedene Schriftarten in der gleichen Zeile oder sowas wegen Copy-Paste.
00:09:13: Und dann wird das auch irgendwann aufploppen, weil es halt ... Speisekarte schreiben ist jetzt für einen kleinen Gastrobetrieb nichts, was die unbedingt selber gut können und wo sie das Geld haben, jemand anderen dafür zu bezahlen.
00:09:22: Das ist einfach so.
00:09:23: Und natürlich, ich mach's mal eben schnell hier mit, mit Shaggy PT ist ja verführerisch, weil sicher nicht jeder auch nur im Ansatz, sondern beschäftigt wie Gavin zum Beispiel, der das ja sein Leben damit bestreitet.
00:09:34: Und deswegen kennst du höchstens auf die Idee, einen ersten Wurf damit machen zu lassen, dann würdest du dir das nochmal angucken und nochmal schön machen.
00:09:43: Wenn du eigentlich nur dein Produkt verkaufen willst, dein Essen verkaufen willst, bist du so, ja, ich brauch eine Speisekarte.
00:09:48: Machen wir mal schnell, zack, zack, weg.
00:09:50: Mhm,
00:09:51: ja, stimmt.
00:09:52: Wir bleiben nochmal kurz bei Sora.
00:09:53: Also, Sora hat innerhalb von fünf Tagen eine Million Downloads erzielt im App Store in den USA.
00:09:58: Das ist schneller als ChatGPT, obwohl die ChatGPT App international ausgerollt wurde sogar.
00:10:03: Also, es gibt einen wahnsinnigen Run darauf.
00:10:05: Und das Interessante ist ja, dass in den ersten Tagen dort un... ... glaublich viele Urheberrechtsverletzungen ... ... stattgefunden haben.
00:10:12: Also du konntest ... ... schlimm für Pikachu, Super Mario, ... ... du konntest alles generieren.
00:10:17: Jetzt ... ... dann hatte Open AI angekündigt, ... ... dass man seine ... ... IPs sozusagen ... ... einzeln ... ... melden muss.
00:10:25: Also hättest du nicht sagen können, ... ... als Nintendo.
00:10:27: bitte benutzt unsere ... ... unter Intellectual Property nicht, ... ... sondern du konntest sagen, ... ... ich möchte nicht, dass ihr was mit Mario macht, ... ... ich möchte nicht, dass ihr was mit Luigi macht, ... ... ich möchte nicht, dass ihr was mit ... ... Yoshi macht und so weiter und so weiter.
00:10:39: oder einzelne Videos zu melden, offensichtlich haben das entweder diese ganzen Rechtsabteilungen, die letzte Woche sehr ausgiebig getan.
00:10:49: Oder sie haben OpenAI nochmal angerufen und gesagt, überlegt euch nochmal, ob das wirklich das richtige Vorgehen ist.
00:10:55: So, da so die Anzahl der Urwerksverletzung ist weniger geworden.
00:10:57: Und das ist aber, also dadurch, dass generative KI ja nicht einfach nur Schalter sind, die du ein- und ausschalten kannst, gibt es extrem viele Fehlermeldungen, wenn du auch Inhalte generieren möchtest, in denen keine urüberrechtlich geschützten Inhalte sind.
00:11:11: Weswegen auf Sora, aber auch in Social Media, es zu Meme wurde, this violates our Content Policy.
00:11:17: Also es gibt ohne Endebild.
00:11:18: Es gibt sogar ein virales Video in dieser Sora-App im Moment, wo jemand durch Las Vegas im Hubschrauber fliegt und da siehst du diese Sphere, diese große Kugel, die du von außen bespielen kannst mit dieser LED-Wand.
00:11:29: Und das steht einfach nur groß drauf, this violates our content policy.
00:11:32: Also weil eben damit nicht umgegangen werden kann, dass du in einzelne Elemente wie Pikachu einfach rausnimmst, ohne dass du damit auch Kollateralschäden auslöst.
00:11:45: Ja, läuft.
00:11:49: Ich sitze da mittlerweile sehr gespannt und bin einfach nur noch so, okay, wenn wir uns jetzt einfach daran gewöhnen, dass dieses Lobmaschine immer so weiterläuft oder wird dieser heiß abenden.
00:11:59: Das Lobmaschine ist ja brillant.
00:12:02: Da, Menig.
00:12:03: Ding, ding, ding, ja.
00:12:05: Jetzt wüsste ich noch ein Wortspiel finden mit einarmiger Bandit, ja.
00:12:09: Wenn wir ihn hören, wird es irgendwie verarbeitet.
00:12:10: Ja, es ist ja Banditentum, was wir da erleben.
00:12:13: Naja, aber wegen Einarmig, also das, dass man da noch irgendwie, hundertsextasten Bandit funktioniert oder nicht.
00:12:20: Schreibt uns bitte, schreibt uns bitte, Wortspiele und Assoziation in die Kommentare in den Discord oder in den sozialen Medien.
00:12:26: Discord einfach nochmal ein eigenes, ein der Joke und Wortspielbereich aufmachen.
00:12:30: Haben wir schon.
00:12:31: Habt ihr's?
00:12:32: Dann hab ich's.
00:12:32: Gibt
00:12:33: im Discord ein Forum, das ist die Wortspielhölle, glaube ich, heißt das.
00:12:36: Stimmt.
00:12:37: Ich glaube, ich bin nicht reingegangen, weil ich gedacht habe, da versink ich dann von Jahr.
00:12:42: Aber ich weiß halt nicht, ob ich natürlich jeder halb nimmt irgendwann ab.
00:12:46: Die Frage ist natürlich wie sehr und wie stark wird er dann wieder befeuert.
00:12:49: Im Moment ist es ja PR-mäßig gedacht auch so, dass die ganzen Klagen und die ganzen Diskussionen erstmal ja nur helfen.
00:12:56: Gute PR, schlechte PR, etc.
00:12:59: Aber die Frage ist halt, ob gesellschaftlich auch mal irgendwann was passiert.
00:13:02: Also selbst wenn ich jetzt KI-Betreiber wäre.
00:13:06: Wenn ich so, ich möchte auch mal irgendwann regeln.
00:13:07: Ich möchte auch irgendwann mal Planbarkeit haben.
00:13:10: Ich möchte auch irgendwann mal wissen, was eigentlich los ist.
00:13:12: Und deswegen bist du kein Betreiber eines KI-Unternehmens.
00:13:15: Ja,
00:13:15: ja, ja.
00:13:16: Weil die genau das verhindern wollen.
00:13:18: Das Problem ist nur, dass es das eigentlich Verteilste an dieser ganzen Slop-Machine, wie du es nennst.
00:13:25: Was immer noch, ich finde es immer noch genial.
00:13:28: Weil du eben dort, du kannst dort, dort werden extrem viele Videos generiert, die zum Beispiel Menschen zeigen, die... Straftaten begehen, Verbrechen begehen und du kannst eben mit Hilfe der Cameo Funktion kannst du auch Gesichter dort hochladen und kannst dann zum Beispiel dein Gesicht nutzen oder das Gesicht von Sam Ordmann und kannst diese Personen dann dort, also du musst ein Video aufnehmen und so ist nicht ganz, eigentlich könnt nicht dein Foto nehmen.
00:13:50: Aber mit
00:13:51: ein bisschen Aufwand könnte ich einen Liefweg machen von Galvin Kallmeier wie ein Autoanzionär.
00:13:55: Exakt,
00:13:56: genau.
00:13:57: Und das könnte dann ja wiederum viral gehen, was zu zwei Gedanken ansetzen führt.
00:14:02: Das eine ist, es gibt gerade ohne Ende Services im Internet Browser Tools, die das SORA-Wasserzeichen rausrechnen aus so einem Video.
00:14:10: Bedeutet also, es ist dann auch gar nicht mehr ohne Weiteres als KI erkennbar, weil es eben dieses Wasserzeichen nicht mehr gibt.
00:14:16: Man muss ein bisschen Gedankenaufwand reinlegen, um es als KI generiertes Video zu erkennen.
00:14:21: Zum anderen gibt es schon erste Leute, die sagen, also Anwälte machen sich jetzt steinreich damit, dass sie Wasserzeichen in Überwachungsbilder reinrechnen, weil sie dann sagen können, das ist gar nicht mehr echt.
00:14:31: Das heißt Diskussion, was ist echt und was ist nicht echt, hat sich innerhalb der letzten zwei Wochen noch mal einen neuen Spin bekommen eigentlich.
00:14:39: Diese postfaktische Situation, wo du wirklich sehr viel forensischen Aufwand investieren musst du festzustellen, ist es fake, ist es nicht fake, wann war es fake, wo kommt diese Datei wirklich her, ist mittlerweile auf einem Level, also wir sind ja alle aus sehr viel Bullshit auch gewöhnt, wenn man Krimi gucken oder so.
00:14:57: Und gerade so im sehr gelerzelten Fernsehen, wenn es dann irgendwie heißt, ja, wir haben rausgefunden, es ist fake.
00:15:02: Also ohne Details einzugeben, das gibt es halt einfach nicht.
00:15:06: Genauso wie immer alles vereinfacht in diesen Geschichten, erzählen mit DNA, Beweisen und Fingerabdrücken etc.
00:15:12: ist immer alles oberseplifiziert.
00:15:14: Aber hier.
00:15:15: Haben wir jetzt eine Situation, wo man als Richter wahrscheinlich irgendwann da sitzt und wirft die Arme in Luft und sagt so, hey, mir ist alles egal mit dich.
00:15:21: Wo soll ich denn wissen, was echt ist?
00:15:22: Ich muss doch belastbare Beweise haben, sonst kann ich nicht arbeiten.
00:15:27: Das ist genau der Punkt, anstatt dass sie mich nie hätte kommen dürfen, tatsächlich.
00:15:32: Das ist genau der Punkt, wo es eigentlich schon zu spät ist.
00:15:34: Das ist jetzt dieses Chaos.
00:15:36: Und da sind wir jetzt wieder bei der Argumentation des Silicon Valley.
00:15:39: Menschen, die ja versuchen, aus allem immer oder in allem den Spin zu sehen, das ist gut, das ist Innovation und muss disruptiv handeln.
00:15:49: Ja,
00:15:50: das wird jetzt alles voranbringen, aber ihr arbeitet nicht daran, es voran zu bringen.
00:15:54: Das ist das Problem, ihr macht dir nur Disruption und bietet aber nie Instrumente vorgehensweisen oder bietet euch an mitzuhelfen, wie man diese Situation besser gestalten könnte.
00:16:05: Das ist das, was mir da so nicht passt.
00:16:06: Also selbst wenn ich nicht alles in Frage stelle, was die machen, was ich über Persönlich-Tuhe, dann müssen sie doch daran grundsätzlich interessiert sein zu sagen, jo.
00:16:14: kann ja auch sein, dass ich mal irgendwie vor Gericht stehe, weil irgendwelches Beweismaterie aufgetaucht ist, dass das falsch ist.
00:16:21: Und dann traut mir der Richter nicht mehr, wenn ich beweisen kann, dass es falsch ist, weil natürlich habe ich Interesse daran, dass es falsch ist.
00:16:29: Ja, deswegen.
00:16:29: Also die müssen ja dabei helfen, Infrastruktur und Technologien, was auch immer bereitzustellen, die dafür sorgen, dass man es immer noch unterscheiden kann, denn diese dieses Ziel ist technologisch hinzukriegen, dass man es ihm nicht unterscheiden kann.
00:16:42: Da geht es denen noch in der Hauptsache darum, dass man Leute unterhält.
00:16:45: Ich sehe ja keinen ernsten Einsatzzweck für das Zeug.
00:16:48: Das ist ja pure Unterhaltung.
00:16:49: Es gibt
00:16:50: ja überhaupt keine ernste Situation, in dem man das bräuchte.
00:16:53: Das ist ja der Punkt.
00:16:54: Und dann kann ich doch sagen, ja, wir haben die Leute, wir unterhalten die Leute gerade gut.
00:16:57: Wir müssen aber auch sehen, es kann Missbrauch geben und wir müssen helfen, dass man diesen Missbrauch aufklären kann.
00:17:03: Und das klar ist, was woher kommt.
00:17:05: Vor allem und da würde ich direkt noch einen dranhängen werden.
00:17:08: Weil du hast komplett recht.
00:17:09: Das ist nur Quatsch.
00:17:11: Also das, was da gemacht wird.
00:17:12: Natürlich gibt es auch den einen oder anderen Zweck, wo man denkt, naja, das ist schon sinnvoll, wenn ich jetzt irgendwie das Video, das im Flugzeug die Sicherheitsvorkehrungen zeigte, wenn das nicht super crappy animiert ist, in so einer ganz schrecklichen Ästhetik, sondern eben zum Beispiel ein bisschen mit hochwertiger Technologie.
00:17:30: Ja gut.
00:17:31: Das Problem an diesem Entertainment ist aber, und das versucht diese Soura App ja so ein bisschen zu irritieren oder diffuser wahrnehmen zu lassen, der Hauptansatz ist nicht, dass wir uns das angucken, sondern dass wir damit generieren.
00:17:46: Also es geht nicht darum, wirklich damit Zeit zu verbringen, viele dieser Videos zu sehen, auch wenn es Einzelfälle gibt, in denen es durchaus unter haltsame Inhalte geben kann, sondern das funktioniert nur, weil wir ausprobieren wollen, wie es funktioniert.
00:17:58: Dieser Effekt, von dem wir eben gesprochen haben, ich habe mir diese App installiert, ich habe mir das angeschaut, wollte das auch machen und so.
00:18:03: Der funktioniert ja nur, solange es immer frisches Blut gibt, solange immer wieder irgendwelche neuen Ideen dabei sind, irgendetwas, das frisch ist.
00:18:10: Das heißt, diese Idee, diese generativen Videokais jetzt in die Entertainmentwelt zu pressen.
00:18:17: Die ist nicht nachhaltig, weil die wird uns, die Langwald, uns ja schon nach vier Tagen.
00:18:22: Also wir diskutieren über die Probleme, über die Sorgen, aber diesen, diesen, also ich glaube nicht, dass ich, wenn wir sagen, wir stellen jetzt alles auf Stopp und lassen alles so, wie es ist, dass ich in zwei Jahren noch so viel Spaß mit der Sora App hätte, wie ich jetzt heute haben könnte, theoretisch.
00:18:39: Nee, aber du sprichst da einen ganz wichtigen Punkt an, weil ich natürlich, das betrifft ja viele, wie immer da gucken, ja, und dann generiert man die Videos, um Reichweite zu bekommen.
00:18:47: was viele, die nicht in der Industrie sind, am Anfang als Argument genannt haben.
00:18:50: Guck mal, ich habe eine Idee, ich geb mir das der KI und morgen habe ich ein Kinderbuch, das ich verkaufen kann.
00:18:54: Das war ja ganz oft so ein Argument von vielen.
00:18:56: Und das ist ja eigentlich von deren Seite falsch gedacht.
00:18:59: Du hast es richtig gesagt, die wollen eigentlich nur ihre App in den Laden bringen und die Leute zu bringen, Geld zu bezahlen, dass sie damit rumspielen oder Werbung verkaufen, bla bla bla.
00:19:08: Und das bedeutet, dass die meisten Leute haben ja keinen Publikum auf dieser App, sondern die wollen nur ihre eigenen Guten oder nicht so guten Ideen umgesetzt sehen und was gucken was die app kann.
00:19:16: und das wiederum führt dann zu dieser typischen halbmaschine weil das nächste update wird dann genau dann kommen wenn der graf nach unten geht und dann geht es nur um die leute dass die wieder da reinsteigen und wiederum zu probieren und wiederum zu probieren.
00:19:29: und es passiert dann alles in diesem wagen oben.
00:19:31: aber die leute zahlen der geld.
00:19:33: also es kann sein dass es irgendwann niemanden interessiert außerdem die die app benutzen.
00:19:37: Aber die leute die app herstellen kriegen dann immer noch geld und das ist ja jetzt hier.
00:19:41: Das ist der sogenannte Snapchat-Effekt.
00:19:45: Auf jeden Fall, was ich gerade sagen wollte, dieses im Nachhinein sich in der Rechtfertigung suchen für das, was man da gerade anrichtet.
00:19:52: Das hat Adam Osary sehr eindrücklich bewiesen an diesem Wochenende, denn es fand ihn vermutlich in LA.
00:19:59: Doch in der Los Angeles die Screentime Konferenz.
00:20:01: Das ist eine Veranstaltung von Bloomberg, mit dem Wirtschaftsmedium, die sowohl sie aus der Entertainment-Branche als auch aus der Digitalindustrie eben eingeladen und interviewt haben.
00:20:12: Es gibt da ein zwanzigminütiges Video mit Adam Osseri, ein Interview, der sagt nicht so super viel Neues für die, die diesen Podcast ja häufiger hören.
00:20:19: Aber ein paar Dinge sind doch sehr interessant, denn das Gespräch beginnt damit, dass die Person, die ihn interviewt.
00:20:26: Adam Osseri auf MrBeast ansprechen.
00:20:29: MrBeast hatte gesagt KI generierte Videos würden die Existenzgrundlage von Creator innen bedrohen und sagt es sein beängstigende Zeiten für die komplette Branche.
00:20:38: Adam Osseri sieht das.
00:20:40: Wunder anders und glaubt das kreative KI Technologie nutzen können, um da nicht nutzen, um das zu reproduzieren, was Mr.
00:20:48: Beast macht, sondern um einfach nur bessere Inhalte zu erstellen, ohne genau darauf einzugehen, was das genau ist.
00:20:55: Er sagt generative KI-Motelle scheinen darauf hinaus zu laufen, dass die Kosten für die Produktion von Inhalten auf praktisch null reduziert werden.
00:21:02: Ähm, was auch interessant ist, weil die Kosten halt einfach nur woanders entstehen.
00:21:07: Wenn wir uns anschauen, was der Impact auf die Umwelt, auf die Energieversorgung der USA, auf den Wasser, auf das Wasservorkam der USA und so weiter und so weiter sind, das ist halt immens.
00:21:20: Es gibt zwar eben jetzt wirtschaftlich nicht wirklich ein Energieerhaltungssatz, aber Kosten gegen Null im Wirtschaftskreislauf ist eher... was es nicht wirklich gibt.
00:21:29: Es gibt bessere Technologien, die weniger Energie verbrauchen, zum Beispiel die günstigen Herzustellen sind, klar.
00:21:33: Aber Produktionskosten gegen Null bei was, was man bezahlen muss.
00:21:38: Wenn es gegen Null geht, dann können seine Produkte auch gratis anbieten.
00:21:42: Wobei
00:21:42: er das ja tut sogar, man zahlt halt nur mit anderen Mitteln.
00:21:46: Ja, natürlich, damit ist es nicht gratis.
00:21:48: Solange er seine Stromrechnung bezahlen muss und seine Entwickler, kann es ja auch nicht gratis sein.
00:21:52: Im.
00:21:53: Und in der Zeit, wenn man sagt, okay, wir sind ausentwickelt, Wir lassen das jetzt so.
00:21:58: Viel Spaß.
00:21:59: Ist kostet.
00:22:00: Hier ist jetzt auch ein Source.
00:22:01: Klar.
00:22:01: Wir freuen uns alle.
00:22:06: Sorry, ich habe immer noch Husten, Leute.
00:22:08: Ach so, ich dachte, es wäre witzig.
00:22:09: Na
00:22:09: ja, gut.
00:22:10: Ja, das auch.
00:22:10: Das ist eine ganz gefährliche Mischung.
00:22:14: Er hat aber auch über das Kennzeichnungssystem gesprochen, über das wir hier auch schon öfter gesprochen haben, also KI-Labeling in Metanetzwerken.
00:22:20: Weil also, wir erinnern uns, dass das irgendwann an den Start gegangen ist.
00:22:24: Und du konntest erstmal das von Hand aktivieren.
00:22:27: Konntest du sagen, dieser Inhalt ist mit Hilfe von KI generiert oder verändert.
00:22:31: Das führte dazu, dass die Leute, die irgendwie eine Wolke rausgetauschiert haben, KI-Info eingeschaltet haben, die Leute, die aber einen Deepfake erstellt haben, das natürlich nicht aktiviert haben, weil sie wollten es ja als Fake.
00:22:43: Dann hat Meta angefangen, die automatisch einzuführen auf den Plattformen, dass das erkannt wird.
00:22:48: Führte aber dazu, dass wenn du mit Photoshop irgendwas an einem Farbindex deines Fotos verändert hast, die als generierte Inhalte wahrgenommen wurden und fast alle Fotos in der KI-Info darüber stehen hatten.
00:23:01: dass, wie das gerade genutzt wird, nicht gut ist und metermittelfristig mehr Kontext bereitstellen muss, damit Nutzer infundierte Entscheidungen treffen können.
00:23:09: Was immer das bedeutet.
00:23:12: Ja, vor allen Dingen bedeutet es, dass es wirkungslos ist, weil wer liest sich denn bei Instagram die ganzen Text durch und was noch sonst so dabei steht bei irgendeinem Post oder einem Story oder einem Real, die wollen ja den Inhalt sehen.
00:23:24: Und solange immer nur drum herum und unten runter irgendwas steht, wo ja Creator schon sagen, bitte guckt doch, was ich drunter geschrieben habe, klickt doch auf den Link.
00:23:34: Also die Leute, die den Content bereitstellen und die dies nutzen, da passiert es ja schon nicht, aber wenn dann die Warnungen, da müsste man ja wirklich Dauerwerbesendungen, wer das Äquivalent was mir einfällt, was ja bei uns auch nur oben klein irgendwo im Bild gestanden hat, das müsste man ja vorschalten fast schon.
00:23:49: Das hier ist jetzt KI-Genre, damit das überhaupt wahrgenommen wird.
00:23:52: Ja, eigentlich schon.
00:23:54: Schwierig sein.
00:23:55: In mindestens, aside then, und das ist jetzt vielleicht der Take, aside then.
00:24:01: das ist der perfekte Anwendungswerk für Community Notes, weil das die Leute genervt von Inhalten sind, die generiert sind.
00:24:09: Das ist ja unbenommen.
00:24:11: Also, egal, was für eine Werbung du dir anschaust, die mithilfe von KI generiert wurde, du hast darunter immer Kommentare, die einfach nur A.I.
00:24:19: Slop blamern.
00:24:20: Und ich könnte mir vorstellen, dass das ein sinnvoller Use Case für Community Nords wäre, der sogar die politischen Lager sozusagen übergehen würde, weil der Hass auf schlecht generierte Inhalte Der ist auch in unterschiedlichen politischen Lagern gleichermaßen groß.
00:24:40: Ja, das Stimme ist ja, dass auch bei mir mittlerweile der Punkt erreicht ist.
00:24:44: Es gibt auch manchmal in Podcasts automatisch eingespielte Werbung vorne und hinten dran.
00:24:50: Ich weiß es genau deswegen, weil ich das gleiche Podcast-Hörspiel immer und immer wieder höre und dann andere Werbung erscheinde.
00:24:56: ...automatisch sein muss.
00:24:57: Und dann, ich bin mir bei ein, zwei einen sicher.
00:24:59: Das war eine KI-Stimme und das ist auch noch eine KI-Texte.
00:25:02: Das ist richtig, richtig arm, was die hier gemacht haben.
00:25:05: Und bei anderen, mittlerweile war der dann so, ich weiß es nicht mehr.
00:25:07: Und das geht mir fast noch mehr auf den Sack.
00:25:09: Ja.
00:25:11: Ja.
00:25:11: Ja, und das ist aber genau das Ding.
00:25:13: Also, Adam Wasari hat gesagt, meine Kinder sind noch klein.
00:25:16: Sie sind neun, sieben und fünf.
00:25:18: Ich möchte, dass sie verstehen, wenn sie älter werden und mit dem Internet in Berührung kommen.
00:25:22: Ich finde auch interessant, dass Adam Osterry seinen fünfjährigen Kindern noch kein Handy gibt, aber das ist ein anderer Stelle.
00:25:28: Ja, aber überraschend.
00:25:29: Wenn Sie mit dem Internet in Berührung kommen, dass etwas, nur weil Sie ein Video davon sehen, nicht bedeutet, dass es tatsächlich passiert ist.
00:25:35: Als ich aufwuchs und ein Video sah, konnte ich davon ausgehen, dass es sich um eine Aufnahme eines Moments handelt.
00:25:40: Sie müssen jetzt darüber nachdenken, wer etwas sagt, wer es in diesem Fall teilt, was deren Motive sind und warum Sie es sagen.
00:25:47: Bedeutet ... Adam Osseri sieht eigentlich längst den Punkt erreicht, dass gar nicht mehr eine Rolle spielt, ob irgendwas echt ist oder nicht.
00:25:54: Woran können wir es erkennen, wo?
00:25:55: er hat die Beweislast, sondern dass man einfach immer bei allem davon ausgehen muss.
00:25:59: Das könnte auch nicht stimmen, was ich hier gerade sehe.
00:26:03: Es ist immer wieder interessant, gerade das, was du mit den Kindern gesagt hast, weil ich habe vorher Ewigkeiten irgendwann mal, ich weiß nicht mehr, weil ich das war eine Lebensmitteldoku gesehen und dann wurde einer der Chefs von irgendeiner Lebensmittelformat dann gesagt, meine Kinder kriegen unsere Produkte nicht zu essen.
00:26:17: Und das zieht sich ja durch die Bank.
00:26:20: Bei Zuckerberg hat man ja auch irgendwann gut, dass die Kinder irgendwie kein iPad bekommen haben und dass man da die Bildschirmzeit irgendwie Regie gemacht hat.
00:26:27: Es ist immer relativ offensichtlich, wenn der Metzger oder der vegane Metzger die Wurst seinen Kindern nicht hinlegen würde, vielleicht ist das Produkt ja nicht so gut.
00:26:36: Ich glaube, wenn du die vegane Metzger sagst, in Europa kommst du ins Gefängnis jetzt.
00:26:40: Ja, also wenn der Markus gleich hier klopft, dann kann er auf den Tee reinkommen, dann erzähle ich ihm auch was.
00:26:48: Ja, aber das ist nämlich genau das Ding.
00:26:49: Also, da sollte man mal ein bisschen zuhören, was er da so erzählt.
00:26:54: Er hat übrigens auch über den TikTok dir gesprochen.
00:26:57: Und er hat gesagt, dass er sich freut, dass er mit TikTok Konkurrenz hat als Instagram, weil TikTok Instagram dazu gezwungen habe, bessere Arbeit zu leisten und glaubt, dass der TikTok-Deal am Ende nicht zu ändern würde.
00:27:11: Er sagt, es ist dieselbe App, dasselbe Bewertungssystem, selben Creator, den man folgt, dieselben Leute.
00:27:15: Es ist alles nahtlos und er glaubt, es wird keine große Veränderung in Bezug auf Anreize geben.
00:27:23: kann man glaube ich so kann man glaube ich verstehen und heilen.
00:27:26: er hat aber auch davon gesprochen und dann wird jetzt jetzt.
00:27:28: jetzt kommen wir langsam endlich in den richtig dystopischen teil.
00:27:31: für die die das bis jetzt noch nicht als düster genug empfunden haben denn er hat gesagt instagram experimentiert oder überlegt gerade mit möglichkeiten eine dedizierte TV App zu bringen.
00:27:45: Das wird gerade geprüft, denn das Verhalten und die Nutzung der Plattformen verlagert sich in Richtung Fernsehen und auch wir müssen dann zum Fernsehen übergehen.
00:27:52: Wir möchten herausfinden, wie wir sicherst denken, dass wir auf allen Geräten auf überzeugende Weise präsent sind.
00:27:58: Erklärt vielleicht so ein bisschen, warum es auch diese iPad App jetzt gibt.
00:28:01: Man möchte offenbar immer mehr zur Entertainment-Plattform werden, möchte offenbar auch wieder in Richtung langen Format offenbar denken, weil wer guckt sich denn Reels auf dem Fernseher an?
00:28:11: Alter, das ist schlecht die Aussage, ich hab's selber gemerkt.
00:28:13: Nein, nein, nein, gibt's.
00:28:14: viele junge Leute machen das, die gucken, also entweder playlistmäßig oder automatisch generiert, das Autoplay läuft oder manchmal wirklich auch Videozusammenfassung, wo einfach nur Short-Content hintereinander geballert worden ist.
00:28:25: Es gibt viele Leute, die das machen und ich glaube, ein Grund, warum die das machen ist, die merken, wenn die... Keine Ahnung, beim Zähneputzen passiert mir das ja auch.
00:28:33: Also meine Bildschirmzeit ist leider auch viel zu hoch, dass ich dann irgendwie Reels gucke hintereinander und mich irgendwann nervt, dass ich swipen muss.
00:28:40: Und ich kann mir vorstellen, dass die irgendwann in ihren Zahlen gesehen haben, wenn die Leute viermal haben, swipen müssen, gehen sie raus.
00:28:45: Wenn es automatisch generiert weiterläuft, bleiben sie dran.
00:28:48: Vielleicht sollten wir in meine Richtung Fernsehen denken.
00:28:51: Könnte sein.
00:28:52: Könnte sein.
00:28:54: Ich will, dass ich finde... Ich bin Verfechter von Hochkantformaten, wie alle hier wissen.
00:29:00: Ich bin Gavin Verticalmeyer.
00:29:02: Ich setze
00:29:03: mich... Die können ja auch Vertical Fernsehen haben.
00:29:06: Und
00:29:06: das ist nämlich das Ding.
00:29:08: Verticale Fernseher.
00:29:09: Hear me out.
00:29:11: Also es gibt ja Fernseher...
00:29:12: Oder Rimsson, einen Landscape und dann hast du einfach dreimal Short, also Verticalen Content nebeneinander.
00:29:18: Oh,
00:29:18: auch gut.
00:29:19: Oder sie ist rechts die Kommentare live durchlaufen und links...
00:29:24: Man könnte auch live was machen.
00:29:26: Apropos Live, sechster Elfter ist der Hackendran Livestream.
00:29:29: Zwölf Stunden lang werde ich live ins Internet reden.
00:29:31: Und ich hatte die ganze Zeit Angst, dass ich zu wenig zu erzählen habe.
00:29:35: Und jetzt habe ich das Gefühl, ich habe zu viel zu erzählen.
00:29:37: Weil die Dinge, die ich in den letzten fünfhundert Folgen so versprochen habe, die holen mich ein.
00:29:43: Also Philipp zum Beispiel, der hört gerade nochmal alle Hackendran Folgen nach und dokumentiert die auf Mastodon.
00:29:50: Also
00:29:50: ein bisschen mein Beileid, aber okay.
00:29:52: Es ist faszinierend.
00:29:53: Es ist wirklich toll.
00:29:54: Und ich berbe ganz, ganz großen Respekt.
00:29:55: Philipp und all den anderen, die irgendwie diese fünfhundertsepisode auch mitfeiern.
00:29:59: Und dem sind schon ein paar Dinge aufgefallen, die offenbar als Versprechen noch im Raum stehen.
00:30:04: Wie viele Besen musst
00:30:05: du fressen?
00:30:07: Also mehrfach gesagt, dann freut sich ein Besen, sowas in der Art.
00:30:10: Ja, ich habe versprochen, dass ich du trägst keine Liebe in dir zur fünfhundertsten Episode singe.
00:30:14: Tolles Lied.
00:30:16: Ich habe, wir haben versprochen, dass wir die Elon Musk Biografie komplett lesen.
00:30:23: Das ist copyrightrechtlich immer schön.
00:30:27: Ein Problem.
00:30:27: Mhm.
00:30:28: Aber wir haben Versprechen gegeben.
00:30:30: Es stehen...
00:30:30: Ja, aber...
00:30:32: Es sind Versprechen zu halten.
00:30:34: Du kannst Zitate daraus auf jeden Fall.
00:30:36: Zum Kapitelmaximal.
00:30:37: Aber guck mal, wenn ich ein Video reaktet, dann unterbreche ich das ja alle dreißigvierzig Sekunden einfach.
00:30:42: Und das mache ich mit der Biografie auch so.
00:30:46: Naja.
00:30:47: Mehr dazu in anderer Stelle.
00:30:48: Vielleicht noch mal ein Anwalt
00:30:49: an, vielleicht.
00:30:52: Ja, so viel auf jeden Fall zu dieser Screentime-Konferenz, die stattgefunden hat.
00:30:56: Ihr findet das, ich packe euch mal den Link für das komplette Interview in die Show-Nauts, wenn ihr euch drei, oder fünf, zwanzig Minuten Adam Osseri geben möchtet, ist auf jeden Fall ein Abenteuer.
00:31:05: Es gibt auch einen ganz spannenden Text von The Verge, den packe ich euch auch in die Show-Nauts.
00:31:09: Der liegt hinter einer News, wie sagt man, eine Anmelde-Wall.
00:31:13: Aber Alex Heath, der schreibt eigentlich Newsletter.
00:31:17: Er war auf dieser Screen Time Konferenz und hat einen Text geschrieben mit der Überschrift, Hollywood hat keine Ahnung, wie es mit KI umgehen soll.
00:31:24: Da war zum Beispiel David Ellison, der CEO von Paramount Skydance, der sagt, das ist ein neuer Bleistift, mit dem man kreativ werden kann, aber wir legen Wert auf Urheberrechte.
00:31:34: Der Co-CEO von Netflix, Greg Peters, der hat gesagt, man kann das in Bereichen des Produktionsprozesses durchaus überlegen, mit KI zu arbeiten, aber es geht eher so um Werkzeug.
00:31:46: und nicht umgenerieren von Inhalten.
00:31:48: Und auf der anderen Seite hast du dann aber so ein Sam Orton, in der am Tag davor noch mal Zora vorgestellt hat oder eben Adam Osseri, der sagt, es ist völlig egal, ob irgendetwas existiert oder nicht, solang es ein Video ist.
00:32:01: Machen wir es, bringen wir es auf die Fernseher.
00:32:04: Ja, packen wir auch in die Schaume als interessant auf jeden Fall.
00:32:07: Es ist aber, ich finde diesen Satz Hollywood weiß nicht, Hollywood ist ja ganz oft nicht kein Monolith.
00:32:12: Eine Studie mag irgendwann das sagen, das nächste Studie sagt das.
00:32:15: Irgendein independenten Studie würde sagen, wir machen es einfach mal ganz viel mit AI.
00:32:21: Es gibt da einfach nicht die gemeinsame Antwort, aber gleichzeitig gibt es natürlich ein paar Organisationen, die sind aber gerade im Gewerkschaftsbereich sehr aktiv.
00:32:28: Da habe ich das Gefühl.
00:32:29: Also gerade die Schauspiel und die, also die Riders Guild und die Screen Actors Guild, die werden da relativ hart irgendwann in die Fahndung nochmal reingehen.
00:32:38: Wahnsinn ja auch schon.
00:32:39: Und das ist auch der Weg.
00:32:41: Also der Weg muss sein, egal in welche Richtung, dass man für alle verbindliche Regeln schafft.
00:32:46: Ich finde es so schlimm, dass ich hier so langweilige Sätze sagen muss und das auch immer und immer wieder.
00:32:50: Aber das kann ja nur der Weg sein.
00:32:52: Ja,
00:32:53: das ist so.
00:32:56: So viel zu Slopp-Maschinen und KI und alles.
00:32:59: Wir haben auch noch ein paar klassische Social-Media-Themen, bei denen man so ein bisschen, bei denen einem verschwindelig wird.
00:33:04: Zum Beispiel am gestrigen Sonntag ging eine Meldung durchs Netz, die hat Reddit komplett verrückt gemacht und alle sind durchgedreht.
00:33:11: Denn es ist mehreren Leuten passiert, dass sie Instagram-Notes... Weiß noch was das ist, Dominik?
00:33:18: Ja,
00:33:19: das eine dieser Feature, was schon längst hätte abgeschaltet werden sollen, aber immer noch da ist.
00:33:23: Und die Leute lieben das.
00:33:24: Junge Menschen nutzen das sehr viel.
00:33:26: Es sind diese kleinen Bläschen über den DMs, bei denen du eine Nachricht schreiben kannst.
00:33:30: Und du kannst dort ja eine Art Sichtbarkeitsregel einstellen.
00:33:34: Wer soll meine Notes sehen?
00:33:35: Also sollen das Mutuals sehen?
00:33:37: Also die Leute, die mir folgen, denen ich folge?
00:33:39: Oder sollen das nur Close Friend sehen?
00:33:41: Also die engen Freunde wie Instagram sie nennt?
00:33:43: Und das, was jetzt hier passiert ist, ist wohl, dass Leute, die eingestellt haben, eine Note sind nur für enge Freunde sichtbar, dass die auch Leuten angezeigt wurden, die nicht in dieser enge Freundeliste waren.
00:33:54: Teilweise sogar im fatalen Ausmaß, also es gibt eine Person.
00:33:57: ... die über ihren Crush geschrieben hat und diese Person, diese Crushed Person, die hat das, sag mal so, die hat das gesehen und darauf reagiert.
00:34:09: Also ganz, ganz, ganz unangenehm und es ist natürlich ein grundsätzliches Dilemma, was damit passiert, weil das bedeutet, dass wir der Close Friends Funktionen nicht vertrauen können.
00:34:22: Ja, aber generell heißt es vor allen Dingen, dass man dem Vermeter nicht vertrauen kann, wenn es an einer Einstelle durchlässig ist, dann ist es vielleicht an einer anderen Stelle auch durchlässig.
00:34:30: Also es gilt weiterhin die Regel und hier sprechen jetzt die Social Media-Oppers, wenn ihr sowas machen wollt, getrennte Accounts.
00:34:37: Also macht ein Privat-Account, das halt wirklich ihr macht, ein geschäftlicherer Account, wenn ihr öffentlich in der öffentlichen Wahrnehmung steht.
00:34:44: macht ein bumsy bumsy account was auch immer ihr vor habt am besten getrennten account mit einer anderen email adresse die gar nicht miteinander verbunden sind denn ihr könnt unternehmen nur bis zum gewissen grad damit vertrauen und damit meine ich noch nicht mal dass die böse sein müssen aber da kann halt auch ein fehler passieren und je mehr stufen man da dazwischen legen kann umso besser nicht das meter hin nicht eine verantwortung ist also die müssen darauf achten dass sie das richtig machen.
00:35:07: aber auf der anderen seite Ihr seid auch immer ein bisschen mitverantwortlich für euren Kram, oder ihr könnt zumindest euch selbst absichern.
00:35:14: Deswegen getrennte Accounts.
00:35:16: Rynstar Accounts machen.
00:35:18: Rynstar, Finster.
00:35:20: Ja, das ist total das Ding.
00:35:22: Es gibt auch noch eine andere Geschichte.
00:35:23: Da hatte ein Nutzer nur seine Partnerin in den engen Freunden und hat immer Notizen für sie geschrieben, so als kleine Liebesbotschaft.
00:35:30: Irgendwie ganz süß.
00:35:32: Und er war irritiert, dass andere Leute angefangen haben, die zu liken.
00:35:35: Und er hat darüber Bush Nachrichten bekommen.
00:35:37: Er hat das als extrem belastend geschrieben.
00:35:41: Da ist es ja natürlich
00:35:41: auch.
00:35:42: Und wie immer gilt, und das hatten wir damals im Fall der, wie hieß das denn auch mal bei Twitter, Circles?
00:35:48: Nee.
00:35:49: Da gab es ja auch so eine... Das war Google
00:35:51: Plus.
00:35:52: Das war Google Plus.
00:35:53: Es gab bei Twitter auch so eine enge Freundefunktion.
00:35:56: Und ich weiß nicht mehr genau wie das hieß, auf jeden Fall.
00:35:59: hatten wir da damals auch die Beobachtung, dass diese Inhalte kurz nach der Übernahme durch Mask von anderen Leuten sichtbar waren.
00:36:05: Und das, was wir da gesagt haben, gilt auch hier.
00:36:09: In dem Moment, wo diese, also eine Funktion einmal deinen Vertrauen beschädigt hat, ist das Vertrauen weg.
00:36:14: Und das bedeutet nicht, dass man sich jetzt denkt, na dann, nächste Woche funktioniert es wieder, sondern ganz offensichtlich ist dieser Funktion nicht zu trauen.
00:36:21: Und das gilt hier zumindest, zumindest bei den Notes.
00:36:24: Aber gilt auch bei der Frage, ob es dann vielleicht auch vielleicht nicht okay ist, Kinderfotos für enge Freunde in der Story zu teilen.
00:36:33: Natürlich ist es nicht in Ordnung.
00:36:34: Also selbst die Sachen, das passiert ja auch, dass man bei WhatsApp Bilder zeigt, um her schickt, es ist immer noch das gleiche Unternehmen.
00:36:41: Gott sei Dank hatte die App ja in anderen Ursprungen, deswegen kann man immer technisch darauf hoffen und davon ausgehen, dass das noch irgendwie relativ hart getrennt ist.
00:36:49: Aber es kann auch alles auf dem gleichen Vier, Sechsten, Achtziger irgendwo im Keller rumstehen.
00:36:55: Deswegen ist gleiche Unternehmen eben, deswegen immer aufpassen, wo ihr eure sensiblen Daten hinschickt und immer davon ausgehen im schlimmsten Falle, dass das, was ihr irgendwo teilt, auch von irgend jemand anderem gesehen werden kann, der dem ihr es gar nicht zeigen wolltet.
00:37:10: Also es gibt keine absolute Sicherheit, egal was ihr tut, aber habt's immer im Hinterkopf.
00:37:14: So ist es.
00:37:15: Genau.
00:37:16: Wir müssen auch ein bisschen über Ex-Horte sprechen und wir haben leider, das ist doch noch mal eine KI-Meldung, aber ein, die ist interessant, und zwar... Kampakt, das ist diese Kampagnenplattform, die viele von euch sicherlich kennen, vielleicht schon mal eine Petition dort unterschrieben haben oder im Newsletterverteiler sind.
00:37:32: Die haben eine einstweilige Verfügung gegen XAI erwirkt.
00:37:36: Hintergrund ist, dass Grock, der Chatbot von X und XAI und von Elon Musk und so, dass der behauptet hatte, Kampakt werde mit Steuergeldern finanziert.
00:37:46: Das stimmt nicht, das ist eine unwarre Tatsachenbehauptung.
00:37:49: Kampakt hat deswegen eine einstweilige Verfügung vor Gericht eingereicht und damit und die erwirken können.
00:37:54: Also die ist jetzt tatsächlich so in Kraft getreten, bis es einen Prozess gibt.
00:37:58: Bis dahin darf der Chatbot diese Behauptung nicht wiederholen, muss ansonsten mit einem Ordnungsgeld von zweihundertfünfzigtausend Euro rechnen.
00:38:06: Das finde ich ein sehr, sehr, sehr interessanten Case, weil das am Ende ja bedeutet, dass Chatbots am Ende auch eben nicht... unabhängig vom Gesetz sind, nicht über dem Recht stehen, dass Dinge, die Chatbots behaupten, am Ende dazu führen können, dass Leute für falsche Dinge Geld bezahlen müssen, wenn sie eben damit andere in ein falsches Licht rücken oder jemanden verleumten.
00:38:26: Das halte ich, wie ihr wisst, kein Jurist, kein Botaniker, kein Experte, aber ich verhalte das zumindest in dieser Sache für ein richtungsweisendes Urteil, weil das eben bedeutet, Halluzinieren von Chatbots ist eben nicht einfach nur so falsch ins Internet reingestottert, sondern es kann am Ende Schaden anrichten.
00:38:49: Ich meine, hier kommen jetzt bei jedem ein Zusammendesign ist das Technische.
00:38:52: Es gibt ja diesen alten Ausdruck, der immer wieder die Runde macht von IBM, das ein Computer niemals zur Verantwortung gezogen werden kann und damit ja auch Software und nicht nur die Hardware, was auch immer noch gilt in meinen Augen, aber das ist ja meine Meinung.
00:39:04: Was willst du auch machen?
00:39:05: Willst du Grog einfach sagen, kommst du jetzt in Knast?
00:39:08: Und auf der anderen Seite gibt es ja auch eine gesellschaftliche Komponente.
00:39:13: Und ich glaube, ich bin jetzt überhaupt kein juristischer Experte.
00:39:17: Aber ich glaube auch, das spielt eine Rolle, wenn man halt sagt, naja, die Menschen nutzen, aber diese Chatbots und die ganzen KI's, äh, nicht wie ein Suchmaschinen und tun so, siehst du, das sagt auch... Die KI sagt auch das und das, weil man es eben als diese erste Recherchemethode benutzt, was Google eben vorher war, wo man aber auch immer schon gesagt hat, du kannst nicht alles glauben, was da steht.
00:39:34: Und jetzt geht es halt noch schneller.
00:39:36: Und das heißt, wenn man diese Instanz hat und wenn man sagt, dieses Unternehmen produziert diesen Chatbot und den Chatbot haut eben diese Info raus, die aber falsch ist, dann muss jemand dafür auch zur Verantwortung gezogen werden und kann sich nicht rausreden mit, naja, wir wissen ja alle, dass das Ding sich das ausdenkt.
00:39:50: Ja, so verkauft ihr es aber nicht.
00:39:52: Ja, genau.
00:39:52: Und so wird es nicht benutzt.
00:39:53: Also wir müssen mit den Realitäten arbeiten.
00:39:55: wie sie sind, Realitäten schaffen.
00:39:56: Hallo.
00:39:57: Und entsprechend mit den Realitäten auch umgehen.
00:40:01: Das ist absolut richtig.
00:40:02: Das ist ein wichtiges Urteil.
00:40:03: Ich hoffe auch, dass es gewissen Maße richtungsweisend sein wird.
00:40:08: Drücken wir die Daumen.
00:40:09: Ich finde das sehr interessant, vor allem, ob es da zu einer Verhandlung kommt, weil diese Verhandlung dann ja tatsächlich einen Präzidenzfall schaffen würde.
00:40:18: vermutlich auch falsch benutzt im Begriff, aber auf jeden Fall etwas...
00:40:21: Ich glaube, in Deutschland sind die, glaube ich, auch nicht so relevant wie in den USA zum Beispiel, aber wie gesagt, hier sind wir wieder auf sehr dünnem Eis und alle, die irgendwie ein juristisches Staatsexamen haben, sind so, jetzt sind wir aber ganz schön am Schaukeln, aber ja.
00:40:34: Aber also trotzdem, also der Chatbot ist eben nicht einfach nur eine Textgenerierungsmaschine, wie sie eigentlich mal angedacht waren, sondern dürfen eben auch kein Quatsch erzählen.
00:40:44: Also das kann natürlich Schule machen, ne?
00:40:45: Also angenommen über Dominik Hammes wird jetzt erzählt.
00:40:48: Dominik Hammes ist ein veganer Metzger aus Wetzlar.
00:40:52: Dann könntest du möglicherweise dasselbe erwirken, könntest auch vorgerichtsieren und sagen, hier wird...
00:40:57: Ja, und wie schnell dieser emotionale Fruster reicht, das habe ich jetzt vor kurzem gemerkt, als es ein Fake-Account von mir auf Instagram gehabt
00:41:05: hat.
00:41:05: Das
00:41:05: war auch wild,
00:41:08: muss
00:41:08: ich sagen.
00:41:09: Und wie hast du da... Gibt es da eine Auflösung?
00:41:12: Von der Geschichte.
00:41:14: Also um's kurz zusammenzufassen, jemand hat halt, mein Account da ist Herr Hammes mit einem S, mein Name auch ist mit einem S am Schluss und der hat sich einfach mit zwei S, hat sich mein Profilfoto geschnappt und hat meine, was glaube ich, Standardvorgehensweise von diesen Bots ist, wenn's denn Bots sind, hat dann meine Follower-Liste abgegrasst und hat, ist denen allen gefolgt und hat die dann irgendwelche WhatsApp-Gruppen eingeladen wegen, ja, keine Ahnung, kommende WhatsApp-Gruppe verdienen viel Geld.
00:41:40: Und ja, alle haben das dann gemeldet und bis dann durch nichts passiert.
00:41:43: Manchmal nach zwei Sekunden hieß es dann, ne, haben wir nicht gelöscht, stößt ja nicht kick, unsere Community guidelines.
00:41:49: Emotional war das ein Ritt, muss ich sagen, weil man schon sehr viel Frust hat irgendwann und der hat sich einfach irgendwann umbenannt in eine andere Person.
00:41:56: Ich wollte dem noch eine DM schicken, fällt mir gerade ein, weil einfach, ja, der Account ist noch da, heißt jetzt aber anders und tut jetzt so als wäre wieder jemand anders.
00:42:05: Das ist, und es werden immer diese mittleren Accounts ausgesucht, die nicht mega große Follower haben, weil ich hab nur sieben tausend vierhundert noch was.
00:42:15: Aber wo schon genügend Follower da sind, dass es sich lohnt.
00:42:18: Weil wenn jetzt jemand eine Million Follower hat, dann ist ein Meter wahrscheinlich so, oh, oh, da müssen wir jetzt mal ganz schnell aktiv werden.
00:42:25: Und bei mir war es, ich weiß nicht, ob ein Mensch jemals meine, die Reports gesehen hat.
00:42:29: Da bin ich mir wirklich nicht sicher.
00:42:31: Also in dem Moment, wo du Einspruch einlegst, so heißt es, schaut sich das jemand an.
00:42:35: Aha.
00:42:36: Ja, okay.
00:42:38: Sehr viele Einsprüche eingelegt.
00:42:40: Und die wurden zum Teil auch abgelehnt, wo ich mich fragte, wie kann das denn sein?
00:42:44: Also... Ja, das ist absolutes leider.
00:42:46: Also, man versteht natürlich schon, also Content-Moderation skaliert nicht, wie wir wissen.
00:42:51: Natürlich.
00:42:52: Und
00:42:53: in dem Moment wo halt, wo wir das Internet eigentlich längst in einen Friedhof verwandelt haben und alles...
00:42:59: Das sind wir mal ehrlich.
00:43:01: Selbst ohne KI, KI.
00:43:03: Wenn man einfach gesehen hätte, Jo, das ist das gleiche Profilbild und der Namen unterscheidet sich mit einem Buchstaben, der einen ist bei uns schon ewig gemeldet und der andere gerade seit eben mindestens dieses Bild muss er wegnehmen.
00:43:12: Er könnte ja durch Sufa genauso heißen wie ich.
00:43:14: Gar kein Problem.
00:43:15: Aber er kann nicht einfach das gleiche Profilbild nehmen.
00:43:18: Und hinzu kommt natürlich das Verhalten in den DMs, wo man eindeutig von Spam reden kann.
00:43:23: Also korrekt, dass dieser Account auch immer noch existiert in dem Sinne.
00:43:28: In der Tat, ja.
00:43:29: Aber er den Einsachtverhalt, nämlich deine Identität zu klaren, den begeht er ja nicht mehr.
00:43:36: Den begeht er jetzt nicht mehr.
00:43:37: Und er hat auch vorher es ja nur dadurch getan, durch die Kombination sehr ähnlicher Name und mein Bild.
00:43:43: Denn ob man jetzt meine Bio kopiert und einfügt.
00:43:48: Die Stöpfungshöhe ist nicht gegeben, das verstehe ich alles.
00:43:52: Aber mit dem Bild, also da war ich schon mit dem Fotografen, bekannter von uns, der Rüdiger Trost hat das ja geschossen.
00:43:58: Ja, war ich schon, hat er gemeint, ja das Bild gehört ja dir und mir, also er hat mir quasi mit Handschlag die Lizenz gegeben quasi und das könnte man abmachen und alles andere ist aber auch ein viel zu langer Weg, also es ist,
00:44:12: naja,
00:44:12: kleine Probleme.
00:44:13: Kleine Probleme.
00:44:15: Kommen wir zu kleine Menschen und große Probleme, denn das Social-Media-Verbot wird in Dänemark jetzt auch diskutiert.
00:44:21: Wir sind ja quasi die ganze Zeit daran an diesem Thema.
00:44:24: Das Thema Dänemark ist allerdings unter einem anderen Gesichtspunkt hochinteressant.
00:44:28: Also in Dänemark spricht sich die Regierung deutlich für ein Social-Media-Verbot unter fünfzehn aus mit der Einschränkung des Eltern ihren Kindern ab dreizehn.
00:44:37: quasi im Einzelfall erlauben dürfen, es trotzdem zu nutzen.
00:44:41: Wie fröhende Flasche Wein.
00:44:42: Ja, genau.
00:44:43: Oder ins Kino, Filme ab zwölf, dann schon mit zehn sehen.
00:44:46: So, nach dem Motto.
00:44:48: Ich finde, von allen bisherigen Modellen kann ich dem sogar ein bisschen was am ehesten abgewinnen, weil alles unter dreizehn stellt sich sowieso die Frage muss, ist das, weiß ich auch nicht, kann ich nicht einschätzen.
00:45:00: Aber verstehe ich ein bisschen.
00:45:03: Interessant ist aber, dass... Dadurch, dass in Dänemark das diskutiert wurde und hier auch mit anderen EU-Ländern diskutiert wurde, dass eine Art Papier unterschrieben wurde und zwar eine Absichtserklärung oder so, eine informelle Absichtserklärung.
00:45:18: Und das haben fast alle EU-Länder unterzeichnet, die sich dafür aussprechen, die Gestaltung einer sicheren Online-Welt für Minderjährige, die eben am Ende zu einem solchen Social-Media-Verbot für Kinder führen würden.
00:45:31: Das haben fast alle EU-Länder unterzeichnet, außerdem auch Norwegen und Island.
00:45:36: Aber zwei Mitgliedstaaten eben nicht.
00:45:37: Das waren Estland und Belgien.
00:45:39: Die haben eine Unterschrift abgelehnt.
00:45:40: Karin Prien, die Bundesbildungsministerin, hat diese dänische Vorlage auch unterschrieben.
00:45:45: Gab es eine Begründung, warum diese zwei Nationen das nicht unterschrieben
00:45:48: haben?
00:45:50: Ja, in Belgien gibt es ein Veto einer Provinz.
00:45:53: Also da gab es eine Person oder eine Abgeordnete einer Provinz, die gesagt hat, wir unterschreiben das nicht.
00:46:00: Und bei Estland weiß ich es nicht.
00:46:03: Aber wenn die Formulierung wirklich nur ist, wir wollen ein sicheres Internet für unsere Jugendlichen, dann...
00:46:09: Ja, es ist
00:46:10: eine
00:46:11: dreiseitige PDF.
00:46:13: Und es geht eben tatsächlich darum, Social Media für Kinder einzuschränken.
00:46:19: Also sicher, wir können uns jetzt nicht hinstellen und sagen, wir wissen hier alles ganz genau, das machen wir eh schon zu oft, aber... Es ist schon so, dass die Studienlagen aus den letzten Jahren entstanden sind und immer mehr reintropfen sind.
00:46:32: Es ist auch scheiße, wenn die Eltern die ganze Zeit in den Social Media sitzen und die Kinder ignorieren.
00:46:36: Alles daran ist ein Problem.
00:46:37: Oder zumindest problematisch oder potentiell problematisch.
00:46:40: Man muss damit halt umgehen.
00:46:42: Und irgendwann ist der Punkt erreicht und man sagt, ähnlich wie mit allen Dingen, die süchtig machen, ist es vielleicht ganz gut, wenn der Staat ein bisschen eingreift.
00:46:50: Einfach, um den Leuten zu helfen und sie vor sich selbst zu beschützen.
00:46:53: Auch wenn ich ja normal sage, strahlige Kontrolle ist manchmal auch sehr, sehr fragwürdig.
00:46:57: Aber ich bin auch nicht dafür, dass ein Dreijähriger einfach eine Flasche Wodka kaufen kann.
00:47:01: Und klar, anderes Gift, andere Situation.
00:47:06: Aber einfach die Leute ungezügelt aufs Internet loslassen.
00:47:08: Da war ich immer schon so, wenn ihr niemand ein Smartphone in die Hand bekommt und man beschäftigt sich nicht damit, das irgendwie einzuschränken, ist es immer nur ein Link entfernt vom schlimmsten Content, den es gibt.
00:47:17: Theoretisch hast du Recht.
00:47:18: Auf der anderen Seite halte ich es eben auch für problematisch, dass Leute so ab dem sechzehnten Geburtstag schlagartig in eine Welt geworfen werden, die sie auch nicht kennen, dass wir gleichzeitig in Kauf nehmen, junge Menschen aus einer de facto Öffentlichkeit rauszureißen, die jetzt gerade ein wichtiger Bestandteil ihres öffentlichen Lebens ist.
00:47:35: Mette Frederiksen jedenfalls, die Ministerpräsidentin von Dana Mark.
00:47:38: Die hat gesagt bei der Vorstellung dieses Papiers, wir haben ein Monster entfesselt.
00:47:42: Noch nie haben so viele Kinder und Jugendliche unter Angst gestanden und Depressionen gelitten.
00:47:47: Sie würden auf Bildschirmen Dinge sehen, die kein Kind oder Jugendlicher sehen sollte.
00:47:50: Und sechzig Prozent der elf bis neunzehnjährigen Jungen treffen in ihrer Freizeit im Laufe einer Woche keinen einzigen Freund persönlich.
00:47:58: Also klar, die Argumente kann man so verstehen.
00:48:01: Die Frage ist nur, ob sie mehr Leute persönlich treffen würden, wenn wir ihnen auch noch die Möglichkeit nämlich zu verabreden.
00:48:08: Der Weg muss ja sein, dass man zum einen, also das wäre in meinen Augen noch die Wirtschaft gefragt.
00:48:14: Das passiert ja im kleinen Insonation, Alternativen zu finden.
00:48:17: Also es gibt ja ganz viele Leute, die sagen Dumpphone, Lightphone, was auch immer.
00:48:21: Ich will so ein Brick, der einfach nur Nachrichten schicken kann, mit dem ich telefonieren kann, etc.
00:48:26: Ich finde, das ist eine Produktkategorie, die man einfach... abdecken sollte, weil ich verstehe jedes Elternteil, das sagt, ich möchte mein Kind erreichen, könnte ich mich wissen, mein Kind, dass ich mich anrufen kann, wenn was ist oder mir was schreiben kann.
00:48:38: Verstehe ich komplett.
00:48:40: Und das ist ein Sicherheitsgedanke, dafür musste man aber kein Smartphone benutzen.
00:48:44: Also ich kann alles Smartphone, das ist Quatsch.
00:48:48: Und entsprechend, da ist die Wirtschaft so ein bisschen gefragt.
00:48:52: und ja, was du vorher gesagt hast, mit mit sechzehn schlagartig, naja, das wäre eigentlich ein Bildungsauftrag.
00:48:58: Es passiert ja zumindest in Ansätzen schon, dass man in den Schulen darauf vorbereitet wird.
00:49:02: Aber dafür muss man auch und alle Lehrer sind so nicht noch was.
00:49:06: Wir haben eh schon zu wenig Leute und zu wenig Zeit.
00:49:08: Ja, natürlich braucht die Bildung dafür auch mehr Ressourcen.
00:49:10: Das ist absolut richtig.
00:49:12: Ja.
00:49:13: Und da sind große Aufgaben und ich musste vorher übrigens kurz ans Pariser Klimaabkommen denken, dass wir auch viele unterschrieben haben.
00:49:20: Ja, hat ja auch die Welt einen besseren Ort gemacht, nachweislich.
00:49:22: Also nicht zu einem schlechteren.
00:49:24: Das stimmt.
00:49:26: Das
00:49:26: ist besser, wenn so was unterschrieben wird als wenn nicht.
00:49:29: Aber wir hoffen einfach mal, dass man bei beiden Fällen vielleicht mal ein bisschen konsequenter daran arbeiten kann und das priorisieren kann.
00:49:38: Aber das ist einfach nur, wir hoffen auf eine bessere Welt, wenn wir ehrlich sind.
00:49:41: Ja.
00:49:42: Apropos viel daran arbeiten, das tun ja auch die Anbieter von Social Media Plattformen und deswegen kommen wir damit in unsere Rubrik.
00:49:49: Funktionen und Emotionen.
00:49:54: findet auch alle Überleitungen von Gavin auf gavinsüberleitung.blogspot.com.
00:50:00: Da gibt's natürlich nicht die Seite.
00:50:06: Was soll ich machen?
00:50:07: Ich muss doch
00:50:08: hier, du musst
00:50:08: uns doch im Moderativ muss ich doch hier und über diese Serpentinen der...
00:50:14: Sorry, das Bild war zu gut.
00:50:16: Das war wirklich mein Munte, das Geräusch gemacht hat.
00:50:18: Über die Serpentinen
00:50:19: des Digitalen fahren.
00:50:21: Berg rauf, Berg runter.
00:50:23: Wow, das hatte leichte LinkedIn-Vibes geöffnet.
00:50:27: Oh, toll.
00:50:28: So eine Präsentation, was ich beim Serpentinenfahren über BtoB gelernt habe.
00:50:34: Nicht so schnell in die Kurve, aber gerne mit ein bisschen Schwung heraus.
00:50:37: Toll.
00:50:39: Und das Wichtigste beim Serpentinenfahren ist wie immer im Leben die Leitplanke, an die wir uns erhalten
00:50:44: haben.
00:50:46: Das ist die SDVO.
00:50:50: Bitte machen Sie weiter.
00:50:51: Apple hat angekündigt, die App ... Clips zukünftig nicht mehr zu unterstützen, weiterentwickeln zu wollen und sogar aus den App-Stores zu entfernen.
00:50:59: Jetzt frage ich dich Dominik.
00:51:01: Wann hast du das letzte Mal Clips von Apple benutzt?
00:51:04: Also
00:51:05: es gibt ja in der Milienco diese nicht-offizielle Rubrik, woher kann man mir vorlesen, was so im Cast der nächsten Reality Show, wer da antritt.
00:51:12: Und sehr häufig sage ich einfach nur wer.
00:51:14: Und bei Clips bin ich auch so.
00:51:15: Im Moment mal, es gab von Apple eine App, die hieß Clips.
00:51:17: Ja, und Clips war eigentlich, also es gab ein paar Dinge an Clips, die spannend waren.
00:51:21: Clips, es war im Jahr zwei tausend siebzehn gestartet.
00:51:23: Und war eine App, mit der du Social Media Videos erstellen konntest.
00:51:27: Also konntest du damit direkt filmen, konntest aber auch Videos, die du hattest, nehmen.
00:51:30: ... meines Zitzen allerdings nur quadratisch, es war ... ... es war ... ... es war ... ... es war ... ... es war ... ... es war ... ... es war ... ... es war ... ... es war ... ... es war ... ... es war ... ... es war ... ... es war ... ... es war ... ... es war ... Wow.
00:51:44: Tatsächlich hat Apple aber diese App ab Minute eins an sofort ignoriert selber.
00:51:49: Also es gab keine Werbekampagne dafür, es gab nichts dafür.
00:51:53: Dann wissen wir ja beide, die wurde zwar noch fertig entwickelt, aber die Person, die das angeleiert hat, die war vielleicht schon gar nicht mehr da und ist jetzt fertig, ist jetzt veröffentlicht, alle Ressourcen abgezogen.
00:52:03: zum nächsten Projekt.
00:52:04: Es ist des Faktos seit Jahrzehnten schon discontinued eigentlich.
00:52:08: Genau.
00:52:10: Auf jeden Fall wird es sie bald nicht mehr geben.
00:52:13: Keinerlei Emotionen, außer Überraschung, dass es sie gab.
00:52:18: Das heißt, diese Informationen bringt ihr auch gar nichts, dass es sie gab.
00:52:22: Nee.
00:52:24: Außer... Eine Sache schon, eigentlich wäre es gut, wenn Google und auch Apple solche Apps generell zur Verfügung stellen und man da nicht immer auf Third-Party-Apps ausweichen müsste, finde ich persönlich.
00:52:36: Ich finde auch, wir müssen irgendwie dieses Cap-Cut-De facto-Monopol brechen.
00:52:43: Und es ist immer besser, wenn das dann für das Gerät von den Leuten das Gerät gebaut haben programmiert worden ist und nicht direkt optimiert ist für eine der vielen Plattformen.
00:52:51: Das ist einfach Quatsch.
00:52:52: Ähm, sieht man aber auch, dass das auch bei den Desktop- und Laptop-Rechnern von Apple mittlerweile ein bisschen vernahrlässigt ist.
00:52:58: Wenn ihr wüsstet, was Quicktime früher alles konnte.
00:53:01: Also es ist immer noch sehr mächtig, aber was das früher konnte, ne?
00:53:04: Da schlackerst du mit den Ohren.
00:53:05: Mhm.
00:53:06: So.
00:53:06: Oder der, aber auch was der VLC mal konnte, du.
00:53:10: Der VLC kann aber auch immer noch sehr viel.
00:53:13: Wenn man, wenn man nur ein bisschen IT-ler ist auch noch, dann ist der VLC, dann brauchst du manchmal nichts mehr programmieren.
00:53:18: Also das ist schon gar nicht
00:53:20: schlecht.
00:53:20: Man muss nur wollen.
00:53:22: Ich weiß immer, man muss nur wollen.
00:53:25: Reddit hat eine neue Frontpage.
00:53:27: Was interessant ist, was Reddit ist, ist ja nach eigener Aussage.
00:53:30: Und das finde ich übrigens interessant.
00:53:31: Sie haben auch ihren Slogan verändert.
00:53:32: Der Slogan von Reddit, vor drei Jahren schon.
00:53:35: Ich habe es nicht gewusst.
00:53:36: Der Slogan von Reddit war ja früher Frontpage of the Internet.
00:53:40: Das ist nicht mehr der Slogan von Reddit, seit drei Jahren schon.
00:53:44: Hast du das gewusst?
00:53:46: Ich dachte immer, das wär's auch noch.
00:53:48: Es ist das Herz des Internets mittlerweile.
00:53:51: Und die neue Startseite von Reddit sieht aus wie Google.
00:53:54: Also du hast oben eine relativ leere Seite, unten den Feed, der macht so die erste Hälfte der Seite aus und oben drüber nur eine Suchleiste.
00:54:03: Und da kannst du Dinge eingeben, ist in Deutschland auch verbunden mit dem Start von Reddit Answers, die Möglichkeit, Fragen zu stellen, zu sagen, hey, ich fahre in den Urlaub nach.
00:54:12: Weiß ich, Dana mag.
00:54:14: Was muss ich mir da angucken?
00:54:15: Und dann wird mithilfe eines Language Models aus den Antworten, die Leute auf diese oder ähnliche Fragen bei Reddit gegeben haben, dir eine umfassende Antwort gegeben.
00:54:26: Also ich hab jetzt gerade auf reddit.com, da bin ich aber auch eingeloggt und dann sehe ich den Slogan nicht mal.
00:54:31: Der ist auch weg.
00:54:31: Aber
00:54:32: ich muss aber auch dazu sagen, ich benutze Reddit aber auch, ich benutze es ja wenig.
00:54:36: Aber du benutzt es ja durchaus als Recherche.
00:54:38: Also ich lese gar nicht, was auf der Startseite ist.
00:54:42: Ich ticker nur oben rein.
00:54:43: Also ihr könnt es wirklich einfach nur die Suchleiste sein.
00:54:46: Ist das ja jetzt quasi auch.
00:54:48: Ja, aber mir noch nicht, dann anscheinend.
00:54:49: Oh,
00:54:49: dann schicke ich dir mein screenshot weiter.
00:54:51: Ich hab noch ein Feed quasi.
00:54:52: Ja, den hab ich auch, aber der ist nur noch, der ist nicht mehr vollbildlich.
00:54:57: Nicht mehr vollbildlich.
00:54:58: So sagt man.
00:54:59: Vollbildlich
00:55:00: statt vorbildlich.
00:55:00: Ähm, ja.
00:55:04: Aber der ist ja noch ein Feed, also ... finde ich jetzt, ja, aber bei mir ist es halt auch im Dark Mode, dann sieht es weniger nach Kugel aus.
00:55:14: Dann machst du dann, hat angekündigt, dass sie Packs bringen.
00:55:18: Das ist so ein bisschen so ähnlich wie die Starter Packs bei Blue Sky, also du kannst sozusagen solche Listen erstellen, die Leuten schicken, die sich neu anmelden.
00:55:26: in diesem Prozess, können sie diesen Leuten aus dieser Liste direkt folgen, mit dem einzigen Unterschied oder dem wichtigen Unterschied gegenüber Blue Sky, dass Leute, die zu diesen Packs hinzugefügt werden.
00:55:36: ... dem entweder widersprechen kann, ... ... also sich selber von der Liste entfernen können ... ... und aber auch darüber benachrichtigt werden, ... ... dass sie in so ein Pack aufgenommen wurden.
00:55:45: Immer gut.
00:55:45: Ja.
00:55:47: Generell ein gutes Feature.
00:55:49: Hundert Prozent.
00:55:50: Ja.
00:55:52: X hat angekündigt, ... ... das Verified Organizations.
00:55:55: Weißt du, was das ist?
00:55:57: Verifizierte Organisation.
00:55:59: Ich habe es jetzt nur übersetzt, ... ... also haben die einen
00:56:00: Haken.
00:56:00: Ja, einen Goldenen.
00:56:03: Dass diese Funktion umbenannt wird ... ... im X-Premium Business.
00:56:10: Ex-Premium-Business ist, wenn du mit dem ehemaligen Partner noch mal einen Kaffee hast.
00:56:15: Ja, völlig irrelevant.
00:56:17: Sollen sie umbinden, was sie umbinden wollen.
00:56:19: Das hat ja in der Vergangenheit schon so gut funktioniert.
00:56:21: Ja, und was glaubst du, kostet das im Monat?
00:56:24: Was
00:56:24: umbinden?
00:56:28: Was sind denn Kunden?
00:56:29: Also wer gibt es denn aus?
00:56:31: Und Unternehmen.
00:56:33: Unternehmen ist es jetzt der vegane Metzger um die Ecke oder ist das...
00:56:37: Nee, so was sind auch große Tech-Unternehmen.
00:56:39: Open-Eyed zum Beispiel hat diesen Zugang.
00:56:42: Ja, das wird schon ein paar Tausende Euro sein, so dass es für die egal ist, aber Mittelstände sagen würde... Also
00:56:47: der goldene Haken selber kostet nur hundred und achtzig Euro zu sein, vierzig im Monat.
00:56:51: Es gibt aber auch den sogenannten Vollzugriff.
00:56:54: Damit kannst du deine Mitarbeitenden eben auch affiliaten, also die kriegen dann auch alle eine Markierung, dass sie in deinem Unternehmen arbeiten.
00:57:01: Das kostet neunhundert zweiundvierzig Euro im Monat.
00:57:04: Bei jährlicher Zeitung.
00:57:06: Ich hätte bei Vollzugriff jetzt gedacht, dass das was aus dem Polizeiumfeld.
00:57:11: Außerdem hat Ex angekündigt, dass bei Ex-Premium der Handel Marketplace startet.
00:57:17: Ich fand ganz toll, Koffee-Hollig hat mal nachgeschaut, wann wir darüber das erste Mal in Hack dann gesprochen haben.
00:57:21: Am derzehnten, der ersten, im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr.
00:57:41: Das finde ich vor allem deswegen interessant, weil in der Vergangenheit es durchaus auch schon Vorgänge gab, dass seit zehn Jahren inaktiv liegende Accounts, die zum Beispiel add.
00:57:50: Keine Ahnung.
00:57:51: Et Firma heißen, dass diese
00:57:53: Zeitung.
00:57:54: Genau.
00:57:55: Ne, das muss schon eine bestehender Markenname sein.
00:57:58: Z.B.
00:57:58: in jemandem nennt sich Et Deutsche Bahn.
00:58:00: Und macht aber zehn Jahre lang da nichts.
00:58:02: Hat nur diesen Namen geparkt, dass die Deutsche Bahn Zugriff darauf haben könnte, diesen Accountnamen zu bekommen.
00:58:07: Das gab es in der Vergangenheit schon.
00:58:08: Der große Unterschied ist, dass Ex dafür jetzt Geld nimmt.
00:58:12: Ja, gut.
00:58:13: Wir müssen dann gucken, wo es herkommt, ne?
00:58:16: Ja.
00:58:17: Voll.
00:58:17: Also, das muss man auch mal ganz neutral und gar nicht so wertensagen.
00:58:21: Aber als wirtschaftliches Unternehmen, wenn sie merken, wir kriegen nicht genug Geld rein, dann muss man halt für Basis, Funktionalitäten und Nettigkeiten auf einmal Geld verlangen werden.
00:58:30: Ich würde überhaupten, dass wir das Unternehmen nicht retten.
00:58:34: Finanziell.
00:58:35: Wirtschaftsexperte Gavin Carmair.
00:58:37: Danke, danke.
00:58:38: Zurück nach Berlin.
00:58:40: Du kannst jetzt ganze Threads bei X in den Entwürfensspeichern.
00:58:42: Ich mach bei X ein bisschen schneller, ne?
00:58:45: Sie haben den Old Twitter-Media-Picker.
00:58:47: entfernt.
00:58:48: Also das Ding, das sich öffnet, wenn du ein Foto an ein Tweet anhängen möchtest und haben den ersetzt mit dem nativen IOS.
00:58:56: was die Möglichkeit hat und das ist tatsächlich ganz gut, dass du deine Fotos nicht mehr komplett freigeben musst, sondern du kannst sagen, es gibt nur eingeschränkte Zugriff, bedeutet du siehst die Geräte auf deinem Telefon, aber nicht die Twitter App hat Zugriff auf alle deine Fotos, sondern du wählst ein Foto aus und in dem Moment wo du es hoch lädt, hat die App X überhaupt erst Zugriff auf dieses Foto.
00:59:19: Das ist ja generell erst mal gut.
00:59:20: Das ist erst mal gut, ja.
00:59:22: Und GROC bietet jetzt die Möglichkeit an deine Nutzungserfahrung mit deinen X-Account-Daten zu verquicken.
00:59:29: Personalize GROC using X.
00:59:34: Ja, okay.
00:59:36: Kommen wir zu Instagram.
00:59:37: Dort gibt's ja Instagram-Map, über die haben wir gesprochen, ne?
00:59:40: Da bekannst du den Standort von Leuten, die das eingeschaltet haben, in Echtzeit sehen.
00:59:44: Zinke, zinke, ich erinnere an die Geschichte mit Instagram Notes, die wir vorhin gesprochen haben.
00:59:49: oder eben den Standort der zuletzt hochgeladenen Beiträge von deinen Freundinnen.
00:59:54: Da wird es jetzt noch ein weiteres Feature aufmer geben, an dem Sie gerade arbeiten mit dem Namen Check-in.
00:59:59: Du kannst dich also an einzelnen Orten einchecken in dieser Friendsmap ohne dauerhaft einen Standort zu teilen.
01:00:05: Gavin just became mayor of köln.
01:00:07: exakt.
01:00:08: es ist die rückkehr von force war in swarm und go warla und wie die alle hießen.
01:00:12: das ist wieder da.
01:00:14: facebook places hatte diese funktion auch schon mal.
01:00:16: deswegen schätze ich, man muss nicht bei null anfangen hier mit der entwicklung.
01:00:20: und ich finde mit dem check in.
01:00:22: also leute können wir widersprechen.
01:00:24: mit dem check in wird dieses feature plötzlich attraktiv.
01:00:28: weil es irgendwie Ich könnte mir vorstellen, ich fahre zum Beispiel für einen Wochenende nach Berlin, oder weil ich dort beruflich bin, checke mich in Berlin ein und Leute können sehen, dass ich gerade in Berlin bin und können mich mir schreiben, ohne dass ich jeder Person einzeln sagen muss, ich bin jetzt gerade in Berlin.
01:00:45: Also statt eine Story zu machen, heißt hi, ich bin heute in Berlin, ist einfach nur automatisch von anderen Patten.
01:00:50: Genau,
01:00:50: ohne dass ich in Echtzeit meinen Standort zur Verfügung stellen muss.
01:00:53: Ich
01:00:53: glaube, das ist... rein funktional jetzt gedacht ohne irgendwelche Datenschutz bedenken und alles.
01:00:58: Ist es nur dann okay oder sinnvoll für mich, wenn ich auf einen Knopfdruck auch sagen könnte, hey, wer ist denn gerade in Berlin?
01:01:04: Ja, und das siehst du auf der Karte.
01:01:06: Okay, das ist auf der Karte, gut.
01:01:08: Dann hat es einen gewissen, gewisse Funktionalität, die bei einem Bass bringen kann.
01:01:12: Ja, finde ich auch in der sich nicht blöd, aber es ist halt auch so ein Feature, was in der Masse untergehen könnte, muss man
01:01:20: sagen.
01:01:21: Und man muss halt den ganzen anderen Respondatenschutz auch hinkriegen.
01:01:23: Ansonsten wird es einfach niemand benutzen.
01:01:25: Das ist halt auch so eine Sache.
01:01:27: Also nicht niemand.
01:01:28: Es gibt immer Leute, denen das alles egal ist.
01:01:30: Ja, also wenn ihr jetzt mir folgt, um zu sehen, wann ich in Berlin bin, muss ich euch enttäuschen.
01:01:34: Ich werde das trotzdem erst mal nicht nutzen.
01:01:37: Es ist immer die Republikal heute.
01:01:38: Es ist immer.
01:01:41: Ihr wisst, wann ich in Berlin bin.
01:01:43: Ich kündige das vorher an.
01:01:44: Eben.
01:01:47: Instagram ändert die Navigation zumindest in den USA gerade.
01:01:51: Also, die Leiste unten
01:01:52: sieht jetzt... Aber nur noch rechts oder was?
01:01:53: Bitte?
01:01:53: Machen weiter, ist ganz schlechter Gag, bitte.
01:01:56: Ja, hab ich leider nicht gehört.
01:01:58: Schade.
01:01:59: Instagram ändert unten die Symbolleiste.
01:02:01: Bedeutet, wir müssen wieder mit der Muscle-Memory neu anfangen zu arbeiten.
01:02:06: Und es wird noch schlimmer.
01:02:07: Sie ändern auch die Art und Weise, wie du dich in Instagram bewegen kannst.
01:02:10: Denn du hast jetzt unten fünf Punkte.
01:02:12: ... in der Menüleiste, ... ... die hast du auch jetzt schon, aber ... ... du kannst sie aussehen ... ... oder durch Swiping ... ... durch diese einzelnen Punkte ... ... durchwischen von links nach rechts.
01:02:20: Und das ist interessant, ... ... weil jetzt gerade passiert ja was.
01:02:23: Wenn ich einmal nach rechts wische, ... ... lande ich in den Dms ... ... und die Menüleiste unten ist ... ... Home ... ... Suche ... ... Erstellen ... ... Real ... ... Profil.
01:02:33: Und das haben wir auch so gespeichert.
01:02:35: Hat ein paar Jahre gedauert ... ... und das hat sich schon ... ... bei jedem mal ändern, ... ... hat das viel Aufwand gekostet, ... ... das wieder neu zu erlernen.
01:02:41: Aber ganz früher war da, wo jetzt diese Real-Tab ist, war was?
01:02:47: Was andere?
01:02:47: Die
01:02:48: Aktivität.
01:02:48: Dort konnte ich sehen, wer ist mit neu gefolgt.
01:02:50: Ja, stimmt,
01:02:50: dass es jetzt oben rechts ist.
01:02:52: Genau.
01:02:52: Also, eins links neben den Nachrichten.
01:02:54: Genau.
01:02:54: Zwischendurch war da auch noch Instagram-Shopping übrigens.
01:02:57: Und da wo...
01:02:58: Hat auch dazu geführt, dass ich unten die Leiste fast nicht mehr benutze.
01:03:01: Also, es ist wirklich geoben auf das Herz drauf und auf die Nachrichten.
01:03:04: Und ich guck meine Stories an.
01:03:05: Und manchmal ganz selten, wenn ich was poste, gehe ich unten hin.
01:03:07: Ich benutze die anderen Buttons fast gar nicht.
01:03:09: Also... Suchen
01:03:10: kommt selten vor... Profil auf was.
01:03:12: die notifikations bleiben da oben leider.
01:03:15: aber das macht natürlich einen massiven unterschied.
01:03:17: ich kann jetzt gerade einmal nach rechts zwischen um zu meinen die ems zu kommen Was nicht mehr geht, weil ich nach der neuen Navigation mit einmal rechts zwischen im Realts-Feed lande und nochmal rechts zwischen muss, um in die DMs zu kommen.
01:03:29: Und das ist natürlich Absicht, dass man an den Realts vorbei geht, um in die DMs zu kommen, ist natürlich Absicht.
01:03:34: Da wird wieder mit unserer Master-Memory gespielt, mit unserem gelernten Verhalten, unserem gelernten Vorgehen.
01:03:41: Und wir werden dann mal wieder ein bisschen gelingt, um häufiger in die Realts zu kommen.
01:03:45: Geht jetzt schon hin und geht immer oben auf den ... Papierflieger.
01:03:48: Der
01:03:48: verschwindet dann, der ist dann unten in der Mitte, wo jetzt er stellen wird.
01:03:54: Na ja gut, dann drück ich halt da drauf.
01:03:55: Ich swipe eh relativ wenig, muss man dazu sagen.
01:03:57: Ich bin da mal alter Mann.
01:04:00: Hier wird nicht geswipet.
01:04:01: Ja, ich verstehe.
01:04:03: Wow.
01:04:04: Ansonsten hat Instagram
01:04:04: ... Nee, das hast du vielleicht jetzt ein Witz reingewiesen, den ich gar nicht reingemacht habe, aber ich bin ... ... bei der Benutzerführung bin ich ganz oft sehr vorsinflutlich.
01:04:12: Wirklich?
01:04:12: Du swipes gar nicht?
01:04:14: Ja, brauche einen runter, aber links und rechts ... Ich weiß, dass es geht.
01:04:18: Manchmal passiert es mir aus Versehen.
01:04:19: Ich sage, ach ja, stimmt, das ist eine Funktion.
01:04:22: Ich mache
01:04:23: das wirklich wenig.
01:04:24: Ich würde sagen, neunzig Prozent meiner User-Interface-Interaktion auf dem Gerät sind Zweifel.
01:04:29: Ja, und ich hab mir das nie angewöhnt, außer zum Scrollen, wie wir früher gesagt haben.
01:04:34: Sagt mir nichts.
01:04:36: Instagram hat angekündigt, dass du jetzt auch diesen Slider auf Real setzen kannst.
01:04:40: Dass du in Real, sozusagen, diese ganzen Story-Sticker jetzt nach und nach bekommst.
01:04:45: Okay.
01:04:46: Okay.
01:04:47: Dann die KI-Übersetzung von Reels unterstützt jetzt auch Hindi.
01:04:53: Generell gut für Inklusion, ja.
01:04:56: Also
01:04:57: inklusion ist ...
01:04:58: Es ist Dubbing, ne?
01:04:59: Es ist Dubbing, Lip Sync Dubbing, also ... Ach so.
01:05:01: ... die Tonspoer wird übersetzt.
01:05:03: Ist nicht so
01:05:05: geil, ja.
01:05:05: Aber es ist tatsächlich Stimmgetreu und Libben-Synchron, was YouTube nach wie vor nicht anbietet.
01:05:12: Immerhin.
01:05:13: Ja gut, aber die Experimente von YouTube mit diesem synchronisieren ... Das wurde ja auch nicht angenommen, weil es einfach freaky ist.
01:05:20: Ja,
01:05:20: weil es auch schrecklich klingt bei YouTube.
01:05:23: Bei Instagram funktioniert es tatsächlich erstaunlich gut.
01:05:27: Ich glaube immer noch, dass das für viele Leute, vor allem wenn sie die Creator nicht zum ersten Mal sehen, sondern irgendwie in der Person schon lange folgen und dann die Stimme wird halt, also vielleicht kriegen wir es irgendwann so eins zu eins klingen, dass man sich echt fragt, wow krass.
01:05:41: Ich habe es gar nicht gemerkt, dass die Personen fließend hindu kann oder hindikan, war mir völlig neu.
01:05:48: Aber für mich ist es immer ein befremdlicher Faktor, wenn ich halt.
01:05:52: auch Du weißt es halt, wenn es auf einmal passiert, ohne irgendeine Ankündigung, fließt in eine andere Sprache, bist du so, ich möchte es auch irgendwie nicht.
01:05:59: Das ist so ein brennlicher, natürlich jüngere Leute und vielleicht gewöhnt man sich dran, etc.
01:06:03: Pp.
01:06:04: Aber ich finde das einfach seltsam.
01:06:05: Okay.
01:06:06: Dann hat Instagram ein neues Feature mit dem Namen Collagen angekündigt, mit dem du in Stories Collagen automatisch erstellen kannst, in fünf bis zwanzig Fotos und daraus wird eine Animation erstellt.
01:06:17: Ich muss ein bisschen ausholen, um das zu erklären.
01:06:20: Das ist, glaube ich, in einem Podcast ein bisschen schwierig.
01:06:22: Aber stell dir vor, ich mache jetzt drei Fotos hintereinander.
01:06:25: Auf dem ersten Foto sieht man eine Pizza.
01:06:28: Auf dem zweiten Foto sieht man, wie ich am Meer stehe.
01:06:30: Und auf dem dritten Foto esse ich ein Croissant.
01:06:32: Dann wird mithilfe von Collagen erst Bild der Pizza gezeigt, dann bleibt nur die Pizza im Bild und der Hintergrund ändert sich zum Meer.
01:06:39: und während man das Meer sieht taucht das Croissant auf und dann wiederum animiert es sich in das Bild des Croissants, das ich in der Hand habe.
01:06:46: Und das Interessante ist
01:06:48: diese
01:06:48: Art von Ästhetik, diese Spielart von Videos, die war vor zwei, drei Jahren für so vier Wochen mal hip und on-vogue.
01:06:57: und wurde danach einfach wieder komplett vergessen und ignoriert.
01:06:59: Dass Instagram das jetzt nativ bringt, was ein völlig eingeschlafene, altmodische Ästhetik ist, kann ich überhaupt nicht verstehen.
01:07:07: Ich habe Emotionen.
01:07:09: Das ist ähnlich wie die App, die eingestellt worden ist.
01:07:11: Das war in der Pipeline drin.
01:07:12: Es wurde angefangen in dem Moment, in dem sie war.
01:07:15: Jetzt ist es fertig, weil es dazwischen zu wenig Ressourcen bekommen hat.
01:07:17: Dafür wird es halt veröffentlicht.
01:07:19: Das kann sein.
01:07:21: Ja, das passiert halt einfach manchmal.
01:07:23: Generell finde ich diese STD aber auch wild.
01:07:25: Freistellen die automatisierte Animationen.
01:07:27: Na ja, gut.
01:07:28: Ich habe übrigens kleine kleine Geschichte.
01:07:29: Ich wurde mal für ein Seminar gebucht, wo ich genau das erklären sollte.
01:07:34: Freistellen?
01:07:34: Ja, genau diese Art von Videos, von denen wir gerade gesprochen haben.
01:07:39: Wurde sich gewünscht.
01:07:39: Können wir das machen?
01:07:41: Und dann bin ich da hingefahren.
01:07:42: Und du sagst, ah, den Trend, der in drei Wochen vorbei ist mega.
01:07:44: Ja.
01:07:45: Da ging die Terminfindung auch ganz schnell aus Angst, dass ich diesen Job verliere.
01:07:51: Ich bin morgen da.
01:07:53: Mach Kaffee, setz Kaffee auf, bin unterwegs.
01:07:56: Die letzten Worte, ihr könnt euch darauf einstellen, dass Hermien vier Wochen für einen anderen Trend buchen könnt.
01:08:01: Nein, ich war ab, das natürlich direkt dazu gesagt, dass es nur ein Hype ist und so.
01:08:04: Und man lernt aber dadurch ja mehr als einfach nur das.
01:08:06: Natürlich, also es liegt ja an dir, denn die Veranstaltung auch wertig zu
01:08:10: gestalten.
01:08:11: Ja, eben.
01:08:12: Bucht bitte, Gavin.
01:08:13: Apropos
01:08:14: wertig gestaltet, das hast du hier heute in diesem Podcast auch gemacht.
01:08:17: Vielen Dank.
01:08:19: Bist du stolz, dass ich dich auch noch jetzt hier mit einer dieser... Danke fürs Lob, schau
01:08:23: aber Kritik für die Überleitung.
01:08:25: Zurecht.
01:08:26: Ich bedanke mich bei dir.
01:08:28: Ich hab keine Versunlichkeit heute dabei, aber dafür hatten wir ein bisschen gute Laune im Gepäck.
01:08:32: Ich bedanke mich, dass du hier warst.
01:08:34: Ich freu mich, wenn du bald wieder kommst.
01:08:36: Wünsche allen, die bis hierhin zugehört haben, eine wundervolle Woche.
01:08:39: Wir hören uns wieder am Mittwoch.
01:08:41: Und dann kommt ... Oh, direkt von Gelen, wenn meine Tabelle aktuell ist.
01:08:48: Vermutlich ja.
01:08:49: Grüße.
01:08:50: Richtig aus.
01:08:51: Danke und bis Mittwoch.
01:08:53: Tschüss.
Neuer Kommentar