Der Algorithmus ist der Liketragende (mit Franziska Bluhm)

Shownotes

Ein Überwachungsroboter für die eigenen vier Wände, ein Einblick in LinkedIn- und Bluesky-Zahlen, ein Streit zwischen Musk und Altman, Updates von Sora und der Chatkontrolle. Die Jubiläumswoche beginnt mit einem bunten Potpourri!

🗓️ Am 6. November feiern wir 500 Episoden und 3 Jahre "Haken dran" mit einem 12 Stunden-Livestream! ➡️ Mit der "Haken Dran"-Community ins Gespräch kommen könnt ihr am besten im Discord: http://hakendran.org

Kapitelmarken, KI-unterstützt 00:00 Hallo Franzi! 03:54 Der humanoide Roboter NEO 14:13 Bluesky und neue Zahlen 18:22 LinkedIn und neue Zahlen 25:32 Wofür nutzen die Leute Sora? 30:08 Neue Nutzungsbedingungen für ChatGPT 31:43 OpenAI an die Börse? 36:11 Chatkontrolle und Datenschutz 40:14 Microsoft und Verbraucherrechte 44:49 Funktionen und Emotionen 55:31 Musk vs. Altman 01:01:38 Versöhnlichkeit des Tages

ℹ️ Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier: https://wonderl.ink/%40heise-podcasts

Transkript anzeigen

00:00:00: Hallo Franzi.

00:00:02: Hallo Gäben, lange nicht

00:00:03: gesehen.

00:00:04: Wir haben uns ja, muss man vielleicht dazu klären, wir haben uns dieses Wochenende erst gesehen.

00:00:08: Kann man gleich mal kurz so was sprechen.

00:00:10: Ich stelle dich erst mal kurz vor.

00:00:11: Bei mir ist nämlich heute Franziska Blum der Grund, warum ich hier alle Gäste immer vorstelle.

00:00:15: Digitalexpertinnen, Beraterinnen, Internet, Fachkraft und freue mich, dass du hier bist.

00:00:22: ...

00:00:23: für Internetfachkraft klingeln.

00:00:25: Schön.

00:00:26: Nach dem Hörde, oder?

00:00:27: Ganz das Bitt in deinem Visitenkartischrahmen, Internetfachkraft.

00:00:30: Ja, ich werde meine LinkedIn-Bio gleich aktualisieren, Internetfachkraft.

00:00:34: Vielen Dank.

00:00:35: Wir haben uns dieses Wochenende gesehen.

00:00:37: Ach so, ja, das Vorstellen habe ich gerade so halb weggeschluckt.

00:00:40: Aber das Vorstellen mache ich seitdem du gesagt hast, wir sollen das doch immer

00:00:42: machen.

00:00:44: Ich weiß es auch sehr zu schätzen und freue mich jedes Mal, wenn du mir den Gast vorstellst.

00:00:48: Wenn ich den Podcast höre.

00:00:49: Ja, alle, alle, hey du, lieber Hörer, lieber Hörerinnen.

00:00:52: Ich mache das nur für dich.

00:00:55: Wir haben uns dieses Wochenende gesehen, in den Düsseldorf fand der Ableger der Republik statt.

00:00:59: So in einem Satz, wie würdest du die Premiere einschätzen, wie ist es gelaufen?

00:01:05: Ich hätte nicht gedacht, dass es gelingt, so viele Menschen anzuziehen, die auch nicht typische Republikergänger sind.

00:01:12: Also daher würde ich sagen, echten Erfolg so.

00:01:17: Ja, und ich fand es nett, mal auch im Westen, im tiefen Westen, mal so ein bisschen Republikafieling zu haben.

00:01:27: Also klar, kann man alles noch größer machen und vielleicht auch noch ein bisschen diverser, was die Themen so angeht.

00:01:31: Aber ich finde, als erstes mal fand ich es ziemlich gelungen und fand auch, dass das NRW Forum hier in Düsseldorf ein ziemlich guter Standort dafür ist.

00:01:39: Ja, ich fand das auch nett.

00:01:40: Man muss viel Treppen steigen, aber ich fand es nett.

00:01:43: Ich fand, übrigens, der Fernseher, ich glaube, die Station Berlin liegt im alten Westen der Stadt.

00:01:49: Also, immerhin das.

00:01:52: Ja, aber östlich von Düsseldorf, ich glaube, da können wir nichts dran ändern.

00:01:54: Ja, gut, das können

00:01:54: wir nicht ändern.

00:01:55: Und ich weiß

00:01:55: noch nicht, ob wir jetzt anfangen sollten, die Berliner Republikar als die Ostrepublikar

00:02:01: umso benennen.

00:02:02: Lieber nicht.

00:02:03: I don't

00:02:03: know.

00:02:03: Lieber nicht.

00:02:05: Ansonsten haben wir Jubiläumswoche.

00:02:06: für die, die es nicht mitbekommen haben.

00:02:07: Das ist Folge fourhundert achtundneunzig.

00:02:10: Wir nähern uns in großen Schritten der Folge fünfhundert, die am Freitag erscheint und die live aufgenommen werden wird im Rahmen eines Livestreams, der zwölf Stunden gehen wird am Donnerstag von neun bis neun.

00:02:21: Wir werden live streamen und zwar über voraussichtlich über YouTube und PeerTube.

00:02:25: Also es gibt eine dezentrale Möglichkeit uns zuzuschauen und eine.

00:02:29: Eine klassische, wenn man so will, Social-Media-Möglichkeit, zentrale Möglichkeit.

00:02:34: Und ich bin so langsam, erfüllt sich sowohl der Plan, was da so passieren wird.

00:02:40: Ich werde noch nicht so viel verraten, es gibt Überraschungen.

00:02:42: Als auch meine Buchse, weil die Vorstellungen zwölf Stunden lang am Stück ins Internet zu reden, ist schon interessant.

00:02:49: Ja, es wird bestimmt spannend, wenn zwischendurch dann irgendwelche Anrufe kommen von Leuten, die es vielleicht nicht wissen, oder?

00:02:54: Das ist interessant.

00:02:56: Aber man wird auch als Zuschauer in Anrufen können.

00:02:59: Mich anrufen kann ich schon mal verraten.

00:03:02: Ich bin dran, aber vermutlich wird das gehen.

00:03:05: Und sag mal, Gavin, so zum Fünfhundertsten, ne?

00:03:08: Wünschte dir da eigentlich irgendwas, so von deinen Hörerinnen und Hörern?

00:03:13: Ne, Loyalität, Beständigkeit, Treuer und Geld.

00:03:23: Nee, ich habe keine Wünsche.

00:03:24: Nein, nein.

00:03:25: Das

00:03:25: heißt, du wirst einen Spendenkonto aufmachen

00:03:26: am Donnerstag?

00:03:27: Um Gottes Willen, nein.

00:03:28: Ich weiß auch nicht, ob sich das so vertraglich vereinbar ist mit den großen Tech-Unternehmen, die diesen Podcast finanzieren.

00:03:36: Zwingi, Zwingi.

00:03:39: Nein, also wir gehen rein.

00:03:40: Ich habe nämlich das Wochenende und jetzt genug das geplänkelt.

00:03:44: Ich habe das Wochenende mit einem Thema verbracht.

00:03:46: Wenn wir nicht gerade auf der Republik waren, dass in den USA seit Freitag zum Ultramiem geworden ist.

00:03:52: Also du kennst dieses Meme von Ben Affleck, der irgendwo steht, man hat Zigarette in der Hand und so wahnsinnig erschöpft aussieht.

00:03:58: Dieses Meme wurde ersetzt durch einen humanoiden Roboter, der seit ein paar Tagen durchs Internet geistert mit dem Namen Neo.

00:04:05: Also Neo oder Neo vom Unternehmen One X und das übrigens auch OpenAI investiert hat.

00:04:10: wurde vorgestellt und für die dies nicht mitbekommen haben ist ein roboter.

00:04:13: der ist so menschengroß hat auch so zwei arme zwei beine ein kopf also ein menschenähnlichen körper humanoid statt augen hat er zwei kamera linsen und er wird vermarktet als.

00:04:25: das ist deine aushaltshilfe.

00:04:26: du kannst ihn putzen lassen kannst ihn spülen lassen er bringt den wasser er macht die tür auf erholt die post Und du kannst ihn vorbestellen, in den USA.

00:04:34: Der kommt irgendwann im Jahr zwanzigzehnt, du müsstest nur jetzt schon bestellen und der kostet zwanzigtausend Dollar.

00:04:41: Oder du kannst auch eine monatliche Abo-Rade von fünfhundert Dollar abschließen, dann gehört er allerdings nicht wirklich dir.

00:04:47: Und dann hast du diesen Roboter, der bei dir erstmal aufräumt.

00:04:49: Wie klingt das für dich?

00:04:52: Das heißt also, es wäre so das Geschäftsmodell oder die Überlegung für fünfhundert Euro für eine Haushaltshilfe oder für ein Roboter.

00:05:00: oder halt Zeit aufrechnen für die ich halt im Haushalt verbringe mit irgendwelchen Sachen.

00:05:05: Ich würde sich wahrscheinlich schon lohnen, oder?

00:05:08: Also, wir nehmen das mal ein bisschen weiter auseinander, weil ich verspreche euch diese Anekdote, diese Geschichte wird immer dystopischer, je mehr man von ihr erzählt.

00:05:17: Okay,

00:05:17: ich wollte jetzt einfach nur den Rhein nutzen.

00:05:19: Weißt du, erstmal so anfangen.

00:05:20: Ja, das verstehe

00:05:21: ich

00:05:21: auch.

00:05:21: So Unterstützung im Haushalt irgendwie nicht mehr bügeln, nicht mehr, obwohl bügeln ist übertrieben.

00:05:27: Wer bügelt eigentlich noch, aber egal.

00:05:29: Also saugen, essen, machen und so weiter und so fort, könnte ich mir schon vorstellen, dass das irgendwie ganz nützlich wäre.

00:05:36: Aber jetzt wird es historisch, ich bin gespannt, Kevin.

00:05:39: Ja, also es wird immer schlimmer.

00:05:40: Ich fange mal an.

00:05:41: Also das Wall Street Journal hat in einem YouTube Video diesen Roboter getestet und haben interessanterweise die Journalisten, die sich da die Sprimmmaschine einräumen lässt, also sehr, sehr, sehr, sehr... Es läuft nicht perfekt, es läuft nicht rund.

00:05:58: Aber herausgefunden, dass keine der Aktivitäten, die dieser Roboter macht, autonom stattfinden.

00:06:03: Sondern, da sitzt ein Mensch hinter, der diesen Roboter fernsteuert.

00:06:07: Heißt, diese Kammeralinsen werden live gestreamt zu einem Menschen, der den dann bedient.

00:06:15: und der dann quasi mit einer VR-Brille als Roboter die Tätigkeiten in deiner Wohnung durchführt.

00:06:21: Also die Erzählung ist und im Trailer wurden auch schon zwei Dienste tatsächlich autonom durchgeführt.

00:06:25: Einer davon war das Türöffnen.

00:06:28: Die Erzählung ist, man trainiert quasi eine KI, damit irgendwann keine Menschen diesen Roboter mehr bedienen müssen.

00:06:33: Das ist die Erzählung von ONE X. Und ich weiß nicht so genau wie ich in diese Geschichte perfekt einfinde, weil ich habe eine sehr starke Emotion, weil de facto ist es so, du kaufst hier ein Roboter und dieser Roboter wird erst mal ferngesteuert und diese Fernsteuerung funktioniert so lange, bis er die KI gelernt hat, wie das geht, dass er nicht mehr ferngesteuert werden muss.

00:06:52: Heißt aber, du zahlst erst mal zwanzigtausend Euro dafür, dass du eine Mischung aus Versuchskaninchen bist und Arbeitgeber, weil da steckt ja jemand hinter.

00:07:00: So, jetzt ist es aber gleichzeitig auch so, dass diese Linsen damit ja, um deine KI zu trainieren, erstmal dich abfilmen.

00:07:08: Das heißt, du holst dir der erste Mal einen kleinen Überwachungsroboter in die Wohnung, der angeblich das Gesicht pixelt, aber naja, also das ist dann halt auf Software-Ebene, während die Hardwarebene eben trotzdem dein Gesicht abgefilmt hat und deine Wohnung und alles.

00:07:21: Also holst du denn Überwachungs-

00:07:24: Ja, es werden einfach nur ein paar mehr Daten generiert, die man so vielleicht bräuchte für, ja.

00:07:28: Ja, genau.

00:07:30: deutlich mehr Daten generiert.

00:07:31: Also, Zeit zwanzigtausend Euro holst du diesen Überwachungsroboter in die Wohnung, der dich abfilmt und irgendwo auf der anderen Seite sitzt jemand, der das bedient.

00:07:38: Jetzt können wir ja mal überlegen, wer ist die Person, die das bedient?

00:07:40: In der Erzählung war das ein weißer Amerikaner, ein bekannter, der irgendwie da in dem Unternehmen auch arbeitet und so ein ganz nettes junger Student.

00:07:47: Meine Theorie ist, das hier ist Peak Ausbeutungskapitalismus?

00:07:52: Ich weiß nicht, ob es so ist, aber es liegt natürlich nahe, dass die Leute, die diesen Roboter bedienen, in Niedriglohnländern sitzen, dass sie dort nicht etwa den Sozialversicherungstatus hätte, den bei dir eine Reinigungskraft in der Wohnung hätte, der nicht den Lohn bekommt, den eine Reinigungskraft bei dir in der Wohnung bekommen würde.

00:08:10: Und gleichzeitig arbeiten diese Menschen, die dann vermutlich schlecht bezahlt werden, solange in dieser Firma bis ihre Arbeit eben von der KI ersetzt wird, die sie dauerhaft trainieren.

00:08:19: Und das ist für mich eine dystopische Vorstellung, ganz viele Beklemmungen in mir auslöst.

00:08:23: Ich muss dazu sagen, es sind ein paar Annahmen drin, weil natürlich wurde jetzt in diesen Vorstellungsvideos und auch im Interview mit dem Wall Street Journal nicht gesagt, ja ja, die sitzen irgendwo in in Indien, Bangladesch oder wo auch immer.

00:08:32: Das wurde so natürlich nicht gesagt, aber es wurde eben auch nicht negiert bis hierhin.

00:08:37: Und für mich fühlt sich das alles ziemlich fischy an.

00:08:42: Ich kann deine Aufregung total gut verstehen.

00:08:47: Hast du dich auch so darüber aufgeregt?

00:08:49: ... das Chatchibitie wahrscheinlich oder in andere LLMs ... ... auf ähnliche Art und Weise sozusagen ... ... trainiert worden sind, weil da saßen ja auch ... ... irgendwelche Niedriglohn-Leute sozusagen ... ... dahinter um halt diese ganzen Daten zu generieren ... ... und die Trainingsdaten sozusagen ... ... zu generieren, zu einzuarbeiten bla bla bla ... ... also ... ... ja, also es ist absolut richtig sich dauerhaft aufzuregen ... ... aber wenn wir das mal ganz kurz beiseite nehmen ... ... also ... ... ich finde ... ... ... dass ein solches Gerät langfristig gesehen ... schon echt eine Unterstützung sein könnte.

00:09:24: Voll.

00:09:24: Also es ist ja nicht von der Hand zu weisen.

00:09:27: Also gerade ältere Menschen, wir werden alle älter.

00:09:31: Es gibt weniger Menschen, die diese Arten von Jobs machen wollen, Pflege, keine Ahnung, Haushaltshilfen und so weiter und so fort.

00:09:40: Das heißt also grundsätzlich zu sagen, es lohnt sich eine solche Maschine wie auch immer zu trainieren.

00:09:48: Ich glaube, da sind wir uns auch einig, oder?

00:09:50: Klar, ich glaube auch, dass das, also das ist ja ein Anwendungsfall für das, was man heute KI nennt, bei dem man sagen muss, das ist sinnhaft.

00:09:59: Also es ist total sinnhaft.

00:10:00: Die Sachen, auf die eigentlich niemand Bock, niemand hat Lust, die Wäsche zu falten.

00:10:03: Niemand hat Lust, die Spülmaschine ein- und auszuräumen.

00:10:05: Wenn ihr es gerne macht.

00:10:06: Oder man kann es ja teilweise auch gar nicht mehr.

00:10:08: Also das muss man ja einfach aufrechnen.

00:10:09: Und das ist klar, das kommt natürlich dazu.

00:10:11: Es

00:10:11: ist ja nicht so ein Faulheitsding, sondern es ist halt einfach wirklich auch, es kann eine lebensunterstützende Maßnahme sein.

00:10:20: Daher muss man darüber sprechen, wie das gerade passiert, also dass das wahrscheinlich, wie du gerade vermutest oder wie wahrscheinlich auch verschiedene Medien schon vermuten, auf nicht besonders, ich sage mal, humaner Art und Weise passiert, sondern irgendwie auf ausbeulterische Art und Weise.

00:10:38: Das ist was, was man anprangen muss und was man, wo man natürlich irgendwie gucken, den Finger in die Wunde legen muss, muss das auf diese Art und Weise geschehen.

00:10:45: Aber so ganz grundsätzlich ist das schon Auch ein Projekt, was ich grundsätzlich jetzt nicht komplett verurteilen würde.

00:10:53: Ja, ich verstehe deine Vorsicht.

00:10:55: Ich will nur sagen, die Vorstellung, es wird immer wieder von diesem Haushaltsroboter, der Jetsons gesprochen, der Comic-Serie, war es dazu mal, bei denen es eben ein Roboter gibt, der eben all diese Tätigkeiten für die Menschen übernimmt.

00:11:10: Und wenn man daran denkt, dann muss man sagen, diese Vorstellung, da sind wir halt einfach noch überhaupt nicht.

00:11:16: Also und... Gleichzeitig gibt es aber Unternehmen, die dir aber das erzählen wollen.

00:11:19: Es ist ja dieses Narrativ, diese Erzählung vom Roboter, der deine Haushaltstätigkeiten übernimmt.

00:11:24: Den gibt es halt einfach noch nicht.

00:11:26: Das heißt, dieser Hype, um diesen Roboter, der da gerade entstanden ist, entsteht, um eine Erzählung, um eine Marketinggeschichte, aber nicht um ein tatsächliches Produkt.

00:11:34: Das Produkt gibt es eben einfach noch nicht.

00:11:36: Und das macht mich ein bisschen zornig, wenn man dann nämlich genau drauf schaut auf dieses Produkt und feststellt, nicht nur, dass es nicht gibt, sondern dass es dessen versprochen wird.

00:11:44: ist auch eventuelle Ausbeutung.

00:11:47: Mir macht das nicht so Spaß.

00:11:49: Und der Roboter sieht auch gruselig aus.

00:11:52: Ich habe leider noch kein Bild gesehen.

00:11:54: Oder ist das alte Bild, was du da in den Chat eingebracht

00:11:56: hast?

00:11:56: Neo One X musst du dir anschauen.

00:11:58: Okay, dann werde ich gleich mal mir angucken, wie sympathisch dieser Mensch oder dieses Wesen aussieht.

00:12:05: Ach da, ich sehe es.

00:12:06: Ja, es ist irgendwie, man hätte ihm auch einen Mund gönnen können.

00:12:12: Dann wäre es noch gruseliger, glaube ich.

00:12:13: Um ganz kurz noch zu deinem Einwand der Click-Worker in Niedriglohnländern noch etwas entgegenzubringen oder das zu unterstützen, natürlich ist es ein Problem.

00:12:23: Natürlich ist es ein Problem, dass zum Beispiel selbst Meta... Das Meta vor einigen Monaten erst in Scale AI investiert hat, die das ja sozusagen auf die Spitze getrieben haben und zwar, ich glaube, fünfzig Prozent oder mehr übernommen hat.

00:12:38: Also auf jeden Fall einen sehr, sehr großen Anteil des Unternehmens Scale AI übernommen hat und damit genau dieses Geschäftsmodell sozusagen stark, neunvierzig Prozent, sorry, genau dieses Geschäftsmodell sozusagen zu ihrem Geschäftsmodell auch machen.

00:12:53: Das ist ein Problem, klar.

00:12:55: Naja, und die andere Ebene, die du ja auch angesprochen hast, ist halt, glaube ich, auch eine grundsätzliche, wen lassen wir in unser Leben schauen und an unseren, oder ja, wen geben wir unsere Daten?

00:13:08: Also, das ist natürlich jetzt, also es ist natürlich noch mal eine andere Privatsphäre, aber wenn ich mir angucke, die ganze Diskussion um diese Brille und diese Metabrille, da ist ja auch, also willst du Meta?

00:13:20: ... in dein intimstes Leben sozusagen ... ... mit hineinlassen und ... ... durch die Brille sozusagen zeigen, ... ... wo du überall so bist und was du alles so machst ... ... und wie du dein Leben lebst ... ... mit einer Brille auf, ... ... ist genau das gleiche Thema.

00:13:34: Also ... ... wir ... ... mussten da einfach wirklich ... ... überlegt ... ... rangehen und nicht irgendwie ... ... nur weil es irgendwie gerade cool ist oder so ... ... irgendwelche Entscheidungen treffen, ... ... die wir vielleicht mal bebräunen werden.

00:13:48: Ja.

00:13:48: Wobei das mit der Mitterbrille sogar noch mal ein bisschen anders ist, weil das automatisierte Verarbeitung ist, ob man es gut findet oder nicht, ob man es machen will oder nicht.

00:13:55: Aber noch mal was anderes als wenn dahinter ein Mensch sitzt, der sozusagen in deiner Bude rumstreunern darf.

00:14:01: Angeblich hat Neo wahnsinnig viele Sicherheitsmechanismen, er darf nichts Schweres heben, er darf nichts Heißes berühren.

00:14:07: Also er dürfte jetzt nicht dich mit einem Tisch angreifen zum Beispiel und so.

00:14:10: Also da gibt es ein paar Sicherheitsmechanismen immerhin.

00:14:15: Und natürlich hast du recht, die Vision, dass irgendwann jemand für mich die Wäsche faltet, bügelt die Spülmaschine ein und aus, räumt damit ich währenddessen mehr fürs Porto Inlands Produkt tun kann, ist ja eigentlich gut.

00:14:26: Ja, es ist total kapitalistisch gut gedacht, ja.

00:14:29: Ja,

00:14:29: und selbstständig nicht fürs Porto Inlands Produkt, ich lege schon lieber auf dem Sofa als Wäsche zu falten.

00:14:36: Das ist schon okay.

00:14:37: Ja.

00:14:38: So, kommen wir zu Blue Sky.

00:14:40: Blue Sky hat angekündigt, dass sie vierzig Millionen Nutzer jetzt geknackt haben.

00:14:46: Ich kann dir leider nicht genau sagen, ob das jetzt vierzig Millionen monatliche oder einfach nur vierzig Millionen Registrierungen sind.

00:14:53: Aber vierzig Millionen Nutzerinnen hat Blue Sky jetzt...

00:14:55: Das klingt so wie nicht, oder?

00:14:57: Es ist klein.

00:14:59: Es ist ein kleines, süßes, liebhaber Netzwerk.

00:15:03: Und in dem Atemzug, das machen sie sehr häufiger, wenn sie solche Meinsteine erreichen, dass sie in dem Atemzug auch direkt irgendwie ein bisschen was ankündigen, wie es zukünftig mit dem Unternehmen weitergehen wird, haben sie angekündigt.

00:15:13: Das Blue Sky ist fast Funktion und Emotion, aber es gibt noch keine echte Funktion dazu und es ist ein bisschen größer als das, dass sie ankündigen werden, dass es eine Form von Dislikes geben wird.

00:15:25: Also du kannst By-Postings, vor allem bei Kommentaren, Daumen runter klicken.

00:15:30: Das ist keine Interaktion mit der Person, die diesen Kommentar geschrieben hat.

00:15:35: Also wenn du was schreibst, Posting oder einen Kommentar und ich einen Daumen runter mache, dann siehst du das nicht.

00:15:40: Das ist nicht für dich ein Zeichen, sondern es ist ein Signal an einen Algorithmus, der Discover-Algorithmus, der dadurch besser trainiert werden soll, damit der eben sozusagen für dich eine bessere Experience zusammenstellt.

00:15:52: Was interessant ist, weil zumindest soweit ich das verfolge, ist es bei BlueSky doch so, dass es erstmal primär ein Following-Feed gibt, wenn ich die App öffne und der Discover Feed, also wir können ja verschiedene Feeds, die dann mit verschiedenen Regeln sozusagen zusammengestellt sind, abonnieren und händisch auch auswählen und zum Start machen.

00:16:09: Aber bislang wird Blue Sky, glaube ich, erst mal nicht primär als algorithmusgetriebene Plattform wahrgenommen und vermutlich wird sich das früher oder später ein bisschen ändern.

00:16:19: Ich glaube, wir werden so eine For You Page auf Platz eins bei Blue Sky erleben.

00:16:24: Also, was ich auch kann sagen, ist, dass ein Leuten eine Strategie wechselt irgendwo.

00:16:29: Also, hier wird sozusagen jetzt, ja, hier will man die Daten besser machen, hier will man besser verstehen, was die Notzer gerne mögen und was sie auch nicht mögen oder welche Inhalte gut ankommen.

00:16:38: Ja, und das kann ja nur helfen, wenn man diese Signale, ein weiteres Signal zu den jeweiligen Inhalten bekommt.

00:16:43: Daher, ich bin gespannt, wann wir das erleben werden.

00:16:47: Ja, ja, da bin ich auch gespannt und Sie müssen ja sehr vorsichtig mit solchen Veränderungen sein.

00:16:53: Also Blue Sky ist aus der Bubble angezählt, würde ich sagen.

00:16:57: Und deswegen müssen sie sehr zackhaft mit der großen Veränderung sein, die sie möglicherweise auch in der Wahrnehmung näher an X heranschieben könnte.

00:17:06: Und das passiert durch so etwas natürlich schon.

00:17:09: Ja.

00:17:10: Ja, und auch spannend andererseits.

00:17:13: Plattformen wie Meta oder so haben ja sowas wie Dislikes gar nicht gebraucht.

00:17:16: Also da gab es ja auch mal diese Diskussion,

00:17:18: YouTube.

00:17:19: Aber Mutter hat ja auch, da gab es immer diese Diskussion, brauchen wir irgendwie auch ein Dislike-Button oder irgendwie sowas in der Art, aber haben sie dann ja nie gemacht.

00:17:29: Ansonsten nur bei YouTube, da hast du recht.

00:17:31: Und bei Meta ist es so, dass es immer wieder getestet wurde, auch wieder getestet wird, immer mal wieder.

00:17:36: Also bei Facebook in den Gruppen wurde das sogar mal ein bisschen größer getestet, aber wenn solche Dinge getestet werden und danach nicht ausgerollt werden, sagt das ganz schön viel darüber aus, wie gut diese Funktion offenbar angenommen wurde und wie gut die Ergebnisse waren, die diese Funktion, diese Experimente am Ende für den Algorithmus tatsächlich waren.

00:17:55: Also bin sehr interessiert, wie sich das so entwickelt, aber... Also was ich übrigens auch ganz interessant finde.

00:18:02: Und das stützt sich so ein bisschen mit meiner These.

00:18:04: Ich habe auf der Republik hat es im Jahr zwanzig.

00:18:08: Heute waren es nicht viele Republikan-Menschen.

00:18:10: Also

00:18:10: letztes Jahr sozusagen.

00:18:11: Okay, alles gut.

00:18:12: Da habe ich zusammen mit Nicole und Dennis dort auf der Bühne gesessen und wir haben alle Thesen mitgebracht.

00:18:17: Wo stehen wir eigentlich gerade?

00:18:18: So ein bisschen Standort-Fiskussion.

00:18:20: Und eine meiner Thesen war das Like oder der Like.

00:18:23: Ich weiß nicht welchen.

00:18:25: gesprachlichen Geschlecht, ich das Like darauf gezogen habe.

00:18:29: Aber ich habe gesagt, das Liken ist tot.

00:18:32: Und in die Content Dennis haben wir jetzt ziemlich widersprochen.

00:18:35: Meine These war aber, dass natürlich nicht der Daumen verschwindet oder die Funktion des Likens, aber die Aussagekraft, dass mir etwas gefällt, um einer Creatorin oder einem Creator damit zu signalisieren, dass hast du gut gemacht.

00:18:47: Das ist der Daumen hoch, dass das verloren geht und dass die neue Definition von Interaktionen eigentlich, also es gibt dieses Intermediär und dieses Intermediär, nämlich der Algorithmus.

00:19:00: Das ist der Punkt, mit dem ich eigentlich interagiere.

00:19:03: Also ich sage nicht mehr, gefällt mir damit du Franzi, wenn du ein Video machst, siehst, oh, das gefällt Gavin, sondern der Algorithmus sieht, mir gefallen solche Videos, ich will mehr davon.

00:19:12: Und ich glaube, dass viele Leute auch schon entsprechend so, zum Beispiel TikTok nutzen.

00:19:16: Ich habe ja auch schon mal erzählt, ich kenne jemanden, der bei Spotify immer die Songs bis zum Ende hört, damit er dem Algorithmus nicht zeigt, dass er das nicht mag, obwohl er es eigentlich mag und so.

00:19:24: Ich glaube, das wird mehr werden.

00:19:27: Ich

00:19:28: würde sagen, ich bin tendenziell eher bei dir als bei Nicole und... Dennis.

00:19:32: Und wir sehen das ja auch auf anderen Plattformen.

00:19:33: Du hast jetzt gerade TikTok noch schon genannt oder Spotify.

00:19:37: Aber wir sehen es ja beispielsweise auch schon auf LinkedIn, wo das liken ja mittlerweile.

00:19:43: fast gar nichts mehr wert ist.

00:19:44: Also da zählen halt Kommentare, da zählt sozusagen das Speichern, da zählt das das Weiterleiten an die eigene an die eigene Bubble wie auch immer viel viel mehr als halt dieses Like als Signal für gute oder für einen guten Inhalt.

00:20:01: Und ich glaube auch, und am Ende ist es ja auch so, wie oft scrollen wir durch irgendwelche Vieh zu machen, gar nichts mit diesem Inhalt, aber schenken ihm halt die Aufmerksamkeit, also gucken, ein Video zu Ende oder gucken es vielleicht ein ganz zweites Mal oder was auch immer.

00:20:15: Das ist ja die eigentliche Währung und die Währung, die halt viel mehr bringt und die im Grunde viel stärker zeigt.

00:20:26: Oder Marcin halt nicht, weil am Ende sind wir alle voll und wollen gar nicht irgendwie noch irgendwas anderes interagieren.

00:20:31: Der Algorithmus ist also am Ende der Like-Tragende.

00:20:37: Danke.

00:20:38: Es ist Sonntagabend für mich, dass ihr aufnehmt.

00:20:39: Da darf man auch.

00:20:41: Du hast LinkedIn genannt, also bleiben wir mal direkt bei LinkedIn, denn die haben Zahlen veröffentlicht und Social Media Today hat relativ lange Einleitung dazu geschrieben, in der es darum geht, dass LinkedIn eigentlich mit jeder Zahlenverkündung, die sie irgendwie vornehmen, seitdem sie zum Microsoft gehören, immer nur Rekorde, Rekorde, Rekorde veröffentlichen.

00:21:00: Und tatsächlich hat LinkedIn genau das eigentlich in diesem Quartalsbericht auch wieder gemacht, aber nicht ganz so umfangreich wie sonst.

00:21:06: Sie haben ein bisschen tiefer gestapelt.

00:21:10: aber trotzdem bemerkenswerte Zahlen.

00:21:12: Denn LinkedIn hat in diesem Quartal offensichtlich, sagt Ryan Ross Lansky, das ist CEO von LinkedIn, mehr Kommentare verzeichnet in einem Quartal und mehr Video-Wiedergabezeit innerhalb eines Quartals.

00:21:27: Das heißt, ein Viertel mehr Kommentare geschrieben als im Quartal davor.

00:21:31: Was ist passiert?

00:21:33: Ja, es ist krass, aber am Ende des Tages hat sich, glaube ich, auch rumgesprochen, dass du Leute zum Interagieren bringen musst und zum Kommentieren bringen musst, wenn dein Inhalt in irgendeiner Weise noch Sichtbarkeit bekommt.

00:21:47: Und wenn wir dann noch überlegen, dass es ja nun auch schöne kleine Helferleihen geben könnte, um halt irgendwelche Dinge zu kommentieren und mittlerweile auch durch gewisse Agents relativ automatisiert, KI da irgendwelche Sachen kommentieren kann.

00:22:02: Könnte ich mir vorstellen, dass es schon ein großer Faktor ist, warum das, also wie das zustande kommt.

00:22:06: Also, und spannend finde ich aber schon auch diese Videozahlen, wenn man überlegt, die haben letztes Jahr im Frühjahr, glaube ich, verkündet, dass sie mehr Fokus auf das Thema Video irgendwie so setzen wollen.

00:22:17: und jetzt haben sie, ja es scheint sich sozusagen ziemlich, dann doch jetzt auszuzahlen, obwohl es zwischendurch dann nochmal so ein Rückruhr dann gab und der Feed wurde in der App wieder umgearbeitet und es gab dann eben kein Video Feed mehr und so.

00:22:29: Aber offenbar haben sie es irgendwie ganz gut hingekriegt, trotzdem Videos da drauf zu haben.

00:22:35: Interessant, aber auch da weiß ich, also würde mich sehr stark interessieren, wie viele davon KI generiert sind oder wie viele sozusagen auch echt sind.

00:22:43: Also interessant ist das Roslens gesagt, dass Videoposts zwanzigmal häufiger geteilt werden als andere Post-Formate.

00:22:50: Interessant vor allem deswegen, weil ich frage mich so ein bisschen wen will ich hier eigentlich für Doh verkaufen, weil das liegt ja völlig in der Hand der Plattform A, wie viele Videos gepostet werden, welche Videos gepostet werden, die zum Beispiel stark auf Teilen ausgelegt sind und C, was denn dann damit passiert, wenn man das tut.

00:23:05: Und wenn ich das Gefühl habe, ich teile ein Video, das wirkt sich mega auf meine Reichweite aus, dann mache ich das natürlich.

00:23:10: Also mit solchen Incentives kannst du solche Zahlen natürlich lenken, die sind natürlich trotzdem irgendwie beeindruckend, aber gerade wenn du hier so einen Direktvergleich hast auf einer Plattform, die so stark algorithmisiert ist, wie LinkedIn.

00:23:20: ... muss man sagen, ja gut, das ist eher ... ... ist eher euer Werk als ... ... Wildkühl.

00:23:28: Es ist ja nicht so, ... ... dass man hier einem Naturschauspiel ... ... beiwohnt und sich anschaut, ... ... wie die Nutzer in sich eigentlich so ... ... bewegen in diesem Timeline-System ... ... und sich dann wundert und sagt, ... ... wow, die Leute haben ... ... thirty-six Prozent mehr Videos geschaut, ... ... sondern ... ... nee, ihr habt die Plattform so gebaut, ... ... dass die Leute mehr Videos gucken, ... ... und das hat offenbar funktioniert.

00:23:43: Das ist hier das Ergebnis dieser, ... ... was die Zahlen ... Es hat

00:23:46: zumindest mal funktioniert, ... ... was es sich vorgenommen hat, ... ... könnte man auch so sehen.

00:23:50: Ja, genau.

00:23:51: Eigentlich muss man das so drehen, ja.

00:23:54: Absolut, ja.

00:23:55: Ja,

00:23:55: aber ein Viertel mehr Kommentare.

00:23:56: Also, wir lernen daraus, Kommentare sind das Ding auf LinkedIn.

00:24:01: Naja, zumindest jetzt in den letzten Quartalen.

00:24:04: Mal gucken, wie es uns weitergeht.

00:24:06: Was meinst du, pushen Sie jetzt Nächstes?

00:24:09: Naja, Video bringt natürlich auch viel alleine für Werbung und Ähnliches.

00:24:14: Also, daher kann ich mir schon vorstellen, dass das irgendwie auch eine Strategie sein könnte.

00:24:20: Ja am ende brauchen sie ja die interaktie die jungen interaktion in irgendeiner art und weise um halt irgendwie inhalte ziehe genauer und passgenauer an in die verschiedene timelines reinzuspülen.

00:24:32: daher ist ich glaube nicht dass sich da jetzt mal so viel daran ändern wird und ich glaube aber auch dass sie das video weiter pushen werden.

00:24:38: ja das glaube ich auch Das glaube ich auch.

00:24:40: Wer das auch tut, ist OpenAI.

00:24:42: Denn Zora ist eine App, über die wir sehr viel gesprochen haben.

00:24:45: Zora, eine App, die sich anfühlt wie TikTok, funktioniert wie TikTok, bei der ich Videos generieren kann, übrigens, dreißig Stück am Tag, wenn du mehr generieren willst.

00:24:52: Und das ist jetzt neu übrigens, noch eine kleine Funktion und Emotion nach vorne gezogen.

00:24:57: Kannst du jetzt dafür bezahlen, dass du mehr Videos als dreißig am Tag generieren kannst?

00:25:01: Werden viele von euch nicht tun, denn Sam Altman hat bei einer MitarbeiterInnenversammlung von OpenAI darüber gesprochen, dass ca.

00:25:08: zwanzig bis dreißig Prozent der so Soran-NutzerInnen Videos erstellt haben.

00:25:12: Heißt sieben von zehn haben noch nie selber ein Video generiert in dieser App.

00:25:16: Was ein bisschen meiner These widerspricht, muss ich muss ja auch mal sagen, wenn das Oracle von Selfie-Falt schliegt.

00:25:21: Ich hatte ja die These, dass das mehr von Menschen genutzt wird, die Videos generieren, als von denen die sie konsumieren.

00:25:27: Das ist offenbar nicht ganz so, zumindest von diesen Zahlen nicht gedeckt, sondern es.

00:25:30: Das verhält sich hier ungefähr so wie bei TikTok, da sind es nämlich ca.

00:25:33: und ungefähr so wie bei TikTok, da sind es nämlich ca.

00:25:35: und ungefähr so wie bei TikTok, da sind es nämlich ca.

00:25:37: und ungefähr so wie bei TikTok, da sind es nämlich ca.

00:25:40: so wie bei TikTok, da sind es nämlich ca.

00:25:42: so wie bei TikTok, da sind es nämlich ca.

00:25:43: so wie bei TikTok, da sind es nämlich ca.

00:25:44: so wie bei TikTok, da sind es nämlich ca.

00:25:45: so wie bei TikTok, da sind es nämlich ca.

00:25:47: so wie bei TikTok, da sind es nämlich ca.

00:25:49: so wie bei TikTok, da sind es nämlich ca.

00:25:50: so wie bei TikTok, da sind es nämlich ca.

00:25:51: so wie bei TikTok, da sind es nämlich ca.

00:25:53: so wie bei TikTok, da sind es nämlich ca.

00:25:54: so wie bei TikTok, da sind es nämlich ca.

00:25:55: so wie bei TikTok, da sind es nämlich ca.

00:25:57: so wie bei TikTok, da sind es nämlich ca.

00:25:58: so wie bei TikTok, da sind es nämlich ca.

00:25:59: so wie bei TikTok,

00:26:00: da sind es nämlich ca.

00:26:01: so wie bei.

00:26:01: Aber es ist also ich finde es eigentlich gar nicht so überraschend.

00:26:05: Weil am Ende des Tages ich mein wir nutzen diese Plattform war vor allem zum Konsum.

00:26:11: Und bewiesen lassen zur Unterhaltung und so und deswegen hat mich diese Zahl mit den.

00:26:17: Also nicht wirklich überrascht.

00:26:20: Und gerade jetzt am Anfang, ich gehe davon aus, dass die Zahl sogar eher noch mal sinken wird, weil jetzt war noch der Anfangs- und der Neuertseffekt dabei, da hat man vielleicht noch mal mehr selber generiert.

00:26:30: Und ich finde es aber so interessant daran eigentlich, obwohl es ja so mega einfach ist, ein Video zu erstellen, selbst dann ist die Zahl nicht höher.

00:26:40: Stimmt.

00:26:41: Das ist tatsächlich interessant, weil man muss ja nicht mal sein Gesicht hergeben.

00:26:45: Du musst nichts machen.

00:26:47: Du musst nicht aufstehen und eine Lampe anmachen, wenn du irgendwas in der Wohnung filmst.

00:26:50: Du musst nur in Prompt schreiben.

00:26:52: Ja, das stimmt.

00:26:53: Find ich interessant.

00:26:54: Allein das ist schon eine kreative Leistung offenbar, die einfach zu viel ist.

00:26:59: Aber wie sagt man Double Down?

00:27:00: Ich gehe jetzt alles oder nichts.

00:27:02: Ich erweite meine These.

00:27:04: und gehe gegen deine These.

00:27:07: Du sagst, der Anteil wird weniger werden, weil der Überraschungseffekt weg wird.

00:27:10: Ich sagte, der Anteil steigt, weil diejenigen, die nur konsumieren, sich mehr langweilen werden in der Plattform und dann nur noch die übrig bleiben würde.

00:27:18: Also ich setze fast auf eine sinkende Nutzer in den Zahl, bei gleichbleibender Anzahl der Leute, die Inhalte generieren.

00:27:24: Mal sehen, ob ich damit recht haben werde, aber...

00:27:28: Ich würde dagegen halten.

00:27:29: Ja, ist okay.

00:27:30: Um was retten wir denn, Franzi?

00:27:32: Boah, schlag was vor.

00:27:34: Okay, wir wetten, wir können ja einen festen Zeitraum sagen, bis wann das passiert.

00:27:38: Du sagst, der Anteil der Leute, die Inhalte erstellen, sinkt, ich sag, er steigt.

00:27:42: Wir haben nicht ganz in der Hand, wenn wir das nächste Mal erfahren, wie viele das sind.

00:27:45: Aber wir sagen jetzt einfach mal, wir haben jetzt bald die fünfundarzte Folge, wir gehen bis zur sechsundarzen Folge.

00:27:50: Und wer von uns beiden das gewinnt, diese Wette, moderiert, dann darfst du die sechsundarze Folge, darfst du dann moderieren.

00:27:57: Mensch, das ist ja super.

00:27:58: Ich hätte sonst jetzt vorgeschlagen, ich singe mit dir.

00:28:01: Du kannst in deiner sechsunerzen Folge dann machen, was du möchtest.

00:28:03: Ich singe auch

00:28:04: nicht.

00:28:04: Okay, dann werden wir zusammen

00:28:06: singen, Gavin.

00:28:07: Okay, dir.

00:28:07: Wir haben eine Wette.

00:28:08: Bitte alle Harkis, die das ja gerade gehört haben.

00:28:10: Bitte erinnert uns daran.

00:28:11: Ich werde das vergessen.

00:28:13: Ich auch.

00:28:16: Aber wir haben eine Wette, Franzi.

00:28:17: Wir haben

00:28:17: eine Wette, okay,

00:28:19: alles klar.

00:28:19: Übrigens bei Open AI, die Stimmung ist gemischt.

00:28:22: Denn also wir gehen gleich mal ganz kurz so ein bisschen auf das Drummer rum und so, aber die sind ja relativ lange in den Non-Profit-Company, wollen das schon sehr lange ändern.

00:28:30: Da tut sich ein bisschen was im Unternehmen selber.

00:28:33: ist die Stimmung mittel, weil die Mitarbeiterinnen die Einführung von Zora eher mit Bedenken aufnehmen und eher sagen, dass hier die Tatsache, dass so viele Metamitarbeiterinnen gerade zu Open AI kommen.

00:28:46: Gleichzeitig, Sie, ein soziales Netzwerk in den Stadt gebracht haben, haben Sie die Sorge, dass sich die Unternehmenskultur, der von Meta annähern könnte, berichtet die Information.

00:28:57: Ja, ist interessant.

00:29:00: Also, was ich da interessant finde, also ich habe sofort die Frage so, wie ist sie denn?

00:29:04: Wie ist die Unternehmenskultur?

00:29:06: Erstens bei Mitter und zweitens halt bei Open AI, aber gut.

00:29:09: Also in der Wahrnehmung der Mitarbeitenden scheint die Kultur besser als bei Mitter zu sein, sonst hätten sie diese Angst nicht.

00:29:17: Ja, ja klar, das ist mir schon bewusst, aber sagen wir mal so, Sam Oldman hat mir jetzt auch nicht den geilsten Ruf.

00:29:26: Daher, also ich würd's trotzdem gerne wissen, etwas dauerhaft, was da, wie die Saar zusammenarbeiten.

00:29:31: Ich kann auf jeden Fall schon mal sagen, dass es seit dem neunzwanzigsten Zehnten, das war letzte Woche, Mittwoch, relativ klammheimlich die Nutzungsbedingungen von OpenAI angepasst wurden.

00:29:44: Und die verbieten ChatGPT erst mal.

00:29:48: Die Generierung von medizinischen oder juristischen Hilfestellungen, solange das kein lizenzierter Professional ist, der involviert ist.

00:29:59: Heißt also, du kannst jetzt nicht einfach ein Foto von der Wunde hochladen und sagen, was ist das, nach Nutzungsbedingungen.

00:30:03: ... ChatGPDS tatsächlich unterbindet, ... ... kann ich dir ja nicht sagen, ... ... ich habe gerade keine Wunde, ... ... mit der ich es testen könnte, ... ... oder eben auch legal advise, ... ... also juristische Hilfe, ... ... ohne dass es einen ... ... lizenzierten Professional gibt, ... ... also einen Arzt, ... ... einer Ärztin, ... ... ein Anwalt für mich.

00:30:18: Das heißt also, ich musste mich ausweisen ... ... und sagen wie, ... ... hey, ich bin Ärztin ... ... und deswegen ... ... genau, das müsste ich belegen offenbar.

00:30:27: Willst du meinen Take hören?

00:30:28: Es gibt zwei Möglichkeiten.

00:30:29: Entweder ... Es wird überhaupt nicht gesperrt werden, das ist alles wie immer.

00:30:33: und sie werden sagen, ja es verstößt doch gegen die Nutzungsbedingungen das zu machen, wenn du gar nicht lizenziert bist, wenn du gar kein Anwalt bist, darfst du das ja gar nicht.

00:30:41: Damit das könnte ein rechtlicher Trick sein.

00:30:43: Alternative könnte natürlich sein, dass sie sozusagen Partnerschaften eingehen, also dass du als Franzi, die sagt, ich brauche jetzt aber mal rechtliche Hilfe, dass du dann gemeinsam mit irgendeinem Anwaltskomplex oder irgendeinem Unternehmen das Geld verdient und zahlt mehr für GPPT pro Jura, dann sozusagen für diese lizenzierte Mitbeobachtung mehr zahlen kannst, um das zu bekommen, was GPPT dir sowieso ausgespuckt hätte.

00:31:12: Wenn es sich eine interessante Entwicklung eines Geschäftsmodells stimmig dir zu, aber puh, kriegen die das hin?

00:31:26: Naja, bestimmt.

00:31:27: Bestimmt, klar.

00:31:28: Da ist doch, die kriegen das hin.

00:31:31: Schauen wir mal.

00:31:32: Also es bleibt schwand.

00:31:33: Auf jeden Fall ist die neuen Nutzungsbedingungen heißt nicht, dass das Sprachmodell jetzt anders ist.

00:31:38: Wir können mal ein bisschen, wenn ihr wollt, ein bisschen testen und rumprobieren in den nächsten Tagen.

00:31:41: Ich würde mich freuen, wenn ihr uns dann Update gebt, dann können wir das am Mittwoch Haus geben.

00:31:47: Wir schauen mal drauf, aber ich finde es interessant.

00:31:52: Ich habe eben gesagt, OpenAI ist der bekanntermaßen eine Non-Profit Unternehmung.

00:31:58: Und das wollen sie schon relativ lange ändern.

00:32:01: Elon Musk macht das ziemlich wütend.

00:32:02: Elon Musk ist ja im Ordner, haben sich übrigens auch gestritten.

00:32:04: Das machen wir aber heute ganz am Ende.

00:32:06: Das wollen sie aber ändern und haben es geschafft, dass der Partner Microsoft die Umwandlung zu einem For-profit-Company, also eine eigene Unternehmung mit Gewinnzielen, werden darf.

00:32:22: dass sie daran aber an diesen neuen Unternehmen dieser For-profit Company einen Anteil an der Open AI Group weiterhin liegen wird, also an der Non-profit Organisation.

00:32:31: Sehr kompliziertes Konstrukt.

00:32:34: Jetzt gibt es aber die These, dass einer der Gründe sein könnte, warum sie das machen, berichtet Reuters.

00:32:40: dass Open AI wohl vor hat, es hat in den grössten Börsengang aller Zeiten mit einer Bewertung von einer Billion US-Dollar, also ein Tausend Milliarden US-Dollar zu starten und eben sich damit an der Börse zu positionieren.

00:32:58: Naja, sagen wir mal, Sie müssen ja dringend, also Sie müssen ja daran arbeiten, woher das Geld kommt und Sie verberennen ja so viel Kohle.

00:33:06: Und sagen wir mal so, ob jetzt so schnell das Lizenzmodell mit Anwälten und Ärzten ausgebaut werden kann oder sie halt noch mehr Nutzer und Nutzerinnen zu zahlenden Kunden machen.

00:33:17: Ich glaube, das wird nicht so schnell gehen.

00:33:19: Das heißt also, sie brauchen möglichst schnell möglichst viel Kohle.

00:33:23: Ich glaube, das war beim letzten Mal, als ich hier war.

00:33:26: Haben wir da auch schon darüber gesprochen, dass Kooperationen eingegangen werden mit Chipherstellern, war das glaube ich irgendwie, um halt auch das halt anders finanziert zu bekommen.

00:33:37: Das heißt also, dass der Kapitalbedarf ist auf jeden Fall da und da liegt natürlich nahe, sich den über die Börse zu beschaffen.

00:33:45: ist aber natürlich, wenn man darüber nachdenkt, von einem Non-Profit Unternehmen und diese ganzen Streitereien, die es darum gegeben hat in der Vergangenheit, um halt dieses Non-Profit auch zu erhalten.

00:33:58: Es ist schon ne krasse,

00:34:04: ja, wieso?

00:34:05: Eine nicht ganz überraschende.

00:34:06: Die interessante Frage wird natürlich sein, ob das jetzt ein Modell ist, das sozusagen Schule machen kann.

00:34:11: Also werden jetzt alles als erst mal nonprofit sein, damit die Steuererleichterung ertragen und so weiter.

00:34:17: Mal sehen, also Elon Musk, der ja Mitgründer war von OpenAI, der wird auf jeden Fall Kopf stehen gerade und versuchen alles weitere hier irgendwie an Behinderungen in die Welt zu setzen, die er da bisher in die Welt gesetzt hat.

00:34:30: Na ja, nicht nur er, ne?

00:34:31: Also ich könnte mir auch vorstellen, dass da andere Player noch was dagegen haben könnten.

00:34:36: Also am Ende ist es ja genauso auch ein Konkurrenz zu Metas, es ist ein Konkurrenz zu Entrophic.

00:34:42: Also da sind ja diverse Player Google unterwegs, um jetzt da den KI-Kampf zu gewinnen.

00:34:50: Absolut.

00:34:50: Perplexity auch ein Konkurrent, die übrigens jetzt, das finde ich interessant, wer die letzte Folge Haken dahin gehört hat, da haben wir darüber gesprochen, dass es klar geläuft, weil Perplexity offenbar wieder rechtlich Daten von Reddit nutzt.

00:35:00: Also Sie haben sich offenbar alles Mögliche an Reddit Daten beschafft, obwohl die eben nicht lizenziert wurden.

00:35:05: Den Fehler wollen Sie offenbar mit Bildern nicht nochmal machen und haben deswegen jetzt einen Deal mit Getty Images, eine der größten Bild.

00:35:11: wie sagt man Agenturen, Foto-Agenturen der Welt vereinbart, um eben die Daten von Getty Images nutzen zu dürfen und das eben nicht einfach zu tun.

00:35:23: Löblich?

00:35:24: Sollen wir das jetzt... Ich muss feiern, weiß ich nicht genau.

00:35:28: Löblich, dass man sich einfach mal so daran hält, was eigentlich Gesetz ist, ich weiß nicht, oder was das Legales.

00:35:35: Ja, ich weiß auch nicht.

00:35:37: So, dann gibt's... Das ist ein

00:35:38: PR-Coup.

00:35:40: Das könnte auch sein.

00:35:40: Vielleicht versucht man sich einfach mal ein bisschen besser darzustellen in den Medien.

00:35:45: Aber ihr habt einen Vertrag.

00:35:46: Genau.

00:35:49: Ich habe eine kleine Meldung, das ist schon fast eine Versöhnlichkeit.

00:35:51: Du hast mich auch vorgefragt, ob das nicht eigentlich eine Versöhnlichkeit ist.

00:35:55: Und I don't know.

00:35:56: Also ein bisschen schon, erst mal mittelfristig, ja.

00:36:00: Denn wir haben ja hier über die Chat-Kontrolle gesprochen.

00:36:02: Es gab in der EU-Länder und auch Politikerinnen, die der Meinung waren, es wäre eine gute Idee, wenn Messagingdienst der VW-WhatsApp zum Beispiel oder Telegram eine Hintertür einbauen könnten, damit die Bekämpfung von CSAM, also Material, das Sex und alle Gewalt an Kindern zeigt.

00:36:21: vorangetrieben werden kann mit der Untersuchung von verschickten Chats.

00:36:24: Das ist angesichts der Tatsache, dass es verschlüsselte Messenger sind, natürlich extrem gefährlich, weil du damit eine Hintertüreinbaus, die eben jetzt vielleicht erst mal aus guten Zielen, guten Gründen genutzt werden kann, dann aber eben irgendwann im Zweifel eben auch ein tatsächliches Sicherheitsrisiko für den Nutzerinnen bedeuten kann.

00:36:40: Weil in dem Moment, wo ein verschlüsselter Messenger nicht ausschließlich verschlüsselt kommuniziert oder es eben ein Weg gibt.

00:36:46: an diese Daten zu kommen, ist die Verschlüsselung nichts mehr wert, weil es gibt eben dieser Hintertür.

00:36:50: Das haben viele Kritikerinnen gesagt und deswegen auch Deutschland.

00:36:55: übrigens, Stephanie Hubeig, Bundesjustizministerin, hatte ausgeschlossen, dass Deutschland an dieser Chatkontrolle einen Daumen hoch macht.

00:37:04: Und das führt dazu, dass tatsächlich die Anlasslose Chat-Kontrolle in der EU jetzt erstmal vom Tisch ist.

00:37:09: Die dänische Ratspräsidentschaft hat das Ausspähen privater Chat-Nachrichten aus den Gesetzesplänen komplett gestrichen erstmal.

00:37:19: Das wäre jetzt der Moment, Sekt aufzumachen.

00:37:21: Ruf was sagen soll, ne?

00:37:25: Naja, es ist schon gar nicht so schlecht eigentlich,

00:37:30: oder?

00:37:31: Nee, das ist erst mal sehr gut.

00:37:32: Das ist erst mal sehr gut, weil die ganzen Proteste und die wir hier auch viel gesprochen

00:37:36: haben.

00:37:36: Genau.

00:37:37: Vielleicht haben sie was gebracht.

00:37:38: Sie haben zumindest das Thema so auf den da der Leute gebracht, dass das eben auch kein Gesetz da ist, dass man einfach so durchwinkt und herkommen.

00:37:45: Sondern wir waren wütend und oder viele Leute waren wütend und haben deswegen geschafft, dass das eben erst mal so nicht kommt.

00:37:52: Interessant, aber wie

00:37:53: funktioniert?

00:37:54: Ja, und jetzt kommen da so die beiden Abers.

00:37:57: Der eine Aber ist, dass der dänische Justizminister schon anfängt, so berichtet Netzpolitik, die Proteste gegen Chatkontrolle wiederholt als bezahlt zu framing, dass er einfach sagt, dass hier sei Lobbyismus, die Gegner der Einlasslohn-Losen Chatkontrolle seien am Ende gekauft gewesen und versucht sozusagen damit legitime Gegenpositionen zu delegitimieren.

00:38:23: Ja, Demokratie.

00:38:31: Ob egal, ob bezahlt oder nicht bezahlt, also ich meine am Ende des Tages waren es Proteste so und die offenbar so laut waren, dass es halt irgendwie was?

00:38:43: also das, dass man eine Meinungsänderung auf der europäischen Ebene vollzogen hat oder zumindest erstmal verschoben hat.

00:38:51: Aber und klar, ich meine, es sind die üblichen Mechanismen, die dann passieren, aber am Ende des Tages

00:39:00: Ja, ja, vor allem.

00:39:01: Mal

00:39:02: gucken, was jetzt da kommt.

00:39:04: Das Interessante ist aber, dass es eben vor allem eine sehr, sehr, sehr große Lobbykampagne, auch darüber hat Netzpolitik seinerzeit berichtet, gegeben hat.

00:39:13: Für die Chat-Kontrolle, also das zum Beispiel echten Kutscher.

00:39:19: mit einer Organisation zusammen am Zorn für Chatkontrolle lobbyiert hatte bei der EU.

00:39:23: Das heißt, wenn es bezahlte Gegenstimmen gab, dann musste auch sagen, es gab aber offenbar auch sehr, sehr starke, sehr laute und sehr finanziell starke Fürstimmen für die Chatkontrolle.

00:39:34: Also dann funktioniert der Angriff nicht.

00:39:37: Auf der anderen Seite ist eben auch Protest nicht kaputt zu reden, dadurch dass es auch mehr Geld kriegt.

00:39:44: Es haben nicht alle Geld bekommen, die gegen eure Idee sind.

00:39:46: Das ist nicht die Idee von Demokratie.

00:39:48: Die Idee von Demokratie ist natürlich, dass du Mumpitz behaupten darfst, aber da musst du eben auch ertragen, dass alle Leute jetzt sagen, lieber Peter Hummelgart, jetzt sehen wir nicht so ein Quatsch.

00:40:03: So und um da direkt noch einen dran zu setzen scheint es eben seitens dieser Fürsprecher der Chatkontrolle schon den ersten Vorschlag zu geben was man erst stattdessen tun könnte.

00:40:11: Das berichtet unser Mutterschiff Heise.

00:40:13: Die sagen, es gäbe jetzt einen Vorschlag für Upload Filter in diesen Messagingdiensten, bei denen sozusagen direkt bei dir auf dem Gerät kontrolliert wird, ob das, was du dort als Content hoch lädst, möglicherweise in einschlägigen Datenbanken eben schon vorliegt, um sozusagen einerseits den Chat verschlüsselt zu halten, be aber diese Kontrollen eben trotzdem durchführen zu können, eben zumindest in dem Kampf gegen Material von eben sexueller Ausbeutung von Minderjährigen.

00:40:41: Was sagen wir dazu?

00:40:42: Das klingt zumindest erstmal nach einem Vorschlag, den man diskutieren kann.

00:40:46: Ja, diskutieren kann man ja erstmal alles, glaube ich auch.

00:40:49: Das Problem ist halt nur, dass du damit, also eventuell verhindern kannst, dass Dinge verbreitet werden, was du damit nicht verhindern kannst, sind Deepfakes, was du damit nicht verhindern kannst, alles, wo KI dran ist, was du damit nicht, also das ist nicht der perfekte Plan, es ist immerhin ein Plan und deswegen ja, lass uns darüber diskutieren.

00:41:07: Ich bin gespannt, welche Für- und Gegenargumenten es da geben wird in Zukunft.

00:41:12: Und bin da auch erst mal offen, was das angeht.

00:41:16: Aber fairerweise muss man auch dazu sagen, man kann nicht gegen Chat-Kontrolle sein und dann hier als Argument aber sagen, ja, aber KI-Material wird damit ja nicht gestoppt.

00:41:23: Weil dann bist du auf zwei unterschiedlichen Flughöhen unterwegs.

00:41:28: Apropos Flughöhen.

00:41:30: Um nach Australien zu kommen, muss man ja fliegen.

00:41:33: Und in Australien verklagt die, wie heißt die jetzt, eine Verbraucherschutzministerium oder so?

00:41:40: Ich sage dir gleich, wie es heißt, wenn du reagierst.

00:41:41: Auf jeden Fall Microsoft wegen der Zwangsinstallation für Co-Pilot AI.

00:41:45: Also Microsoft hatte im November angekündigt, dass alle die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office, die Office-Mitglied-Pilot durchführen müssen, das auch noch teurer wird.

00:42:01: Und das scheint in Australien gesetzlich zu sein und wird deswegen jetzt vor Gericht untersucht.

00:42:05: Das ACCC hat da klargegangen eingereicht.

00:42:10: Interessant ist, dass dieses ACCC extrem stark ist.

00:42:14: Also dieses Verbraucherschutzministerium in Australien hatte es zum Beispiel auch schon mal geschafft, dass sie nur durch eine reine Androhung geschafft haben.

00:42:24: Also die Geschichte war zweitausend, fünfundzwanzig Jahre her.

00:42:27: Gab es DVD-Player?

00:42:28: Weißt du das noch?

00:42:31: Das könnte sein, dass

00:42:32: ich mich daran erinnere.

00:42:35: Du bist ja sehr jung, deswegen dachte ich, ich bringe das mal mit rein.

00:42:37: Das

00:42:37: ist sehr nett, dass du fragst, ja.

00:42:39: Also es gab ja DVDs mit solchen Regionscodes.

00:42:43: Also du musst es quasi in eine DVD kaufen, wenn du in Europa bist, die den Code zwei hatte, meine ich, in den USA Code eins.

00:42:48: Damit konntest du nicht eine amerikanische DVD in Deutschland abspielen.

00:42:52: Das hat die ACCC.

00:42:54: damals schon als schwierig erachtet und hatte einfach nur damals nur eine Stellungnahme abgegeben, dass diese Regionssperre wahrscheinlich gegen das australische Verbraucherrecht verstößt, was dazu führte, dass alle Hersteller DVD Player in Australien geliefert haben, die ohne Sperrcode funktioniert haben.

00:43:10: Das heißt, ihr konntest dort alle DVDs einfach einlegen.

00:43:13: Das berichtet zumindest PivotToAI.com und genau dieses Ministerium, diese Behörde hat jetzt eben auch Microsoft angezählt.

00:43:19: Das heißt, es könnte sehr interessant sein, wie das weitergeht, weil Eventuell können wir davon vielleicht auch was lernen.

00:43:26: Also nicht nur aus Australien von der EU, sich dann Dinge abschaut, sondern vielleicht auch mal umgekehrt.

00:43:31: Ja, interessant.

00:43:32: Also das heißt, also hätten wir uns damals einen australischen DVD-Player geholt, hätten wir keine Probleme gehabt mit US-DV.

00:43:40: Mann, guck mal, zwanzig Jahre später noch was gelernt.

00:43:43: Ja,

00:43:43: du hast einfach vor fünf, zwanzig Jahren noch kein Haken dran gehört.

00:43:46: Und wenn du wissen, gibt es diesen Podcast jetzt bald seit fünfhundert Jahren.

00:43:49: Ja, ja,

00:43:51: ja.

00:43:53: Wobei ich aber glaube, dass, also so wie du es jetzt gerade beschrieben hast, müsste man ja einer solchen Änderung auch in Deutschland oder in der EU irgendwie erstmal zustimmen.

00:44:02: Also du kannst ja nicht einfach Preis erhöhen und keine Ahnung und also du brauchst ja immer die Zustimmung deiner Nutzer.

00:44:08: Ja, du hörst recht.

00:44:09: Das stimmt.

00:44:10: Ja, also ist das wäre das auch hier problematisch.

00:44:15: Ja, ich glaube, ich bin überzeugt von dir.

00:44:18: Und die andere Frage, die ich, aber das habe ich jetzt gerade nicht ganz verstanden.

00:44:20: Wie ist das?

00:44:21: Also du kriegst... Copilot also als Zwangstool sozusagen und bedeutet das dann das alles was du auf in dem Microsoft.

00:44:29: Erdreiner für die Anwendung.

00:44:31: Du's dann mit gelesen ausgewertet wird?

00:44:34: oder oder wie muss ich das verstehen.

00:44:36: Oh das müssen wir Haus geben das weiß ich nicht.

00:44:38: Okay das

00:44:38: weiß ich leider nicht.

00:44:40: aber Microsoft hatte damals gesagt diese Preiserhöhung kommt um den Mehrwert wieder zu spiegeln den wir in unseren letzten zehn Jahren geschaffen

00:44:46: haben.

00:44:47: Na gut dann.

00:44:49: Also, es ging eher darum, dass Karl Klammer bei dir jetzt auch Vorschläge macht.

00:44:54: Ja, wahrscheinlich kommt dann genau, dass Karl Klammer immer mal aufpoppen kann und sagen kann, so, hey, ich könnte dir jetzt gerade sehr, sehr gut helfen.

00:44:59: Ja, genau.

00:45:01: So, gucken wir mal, ob uns die Dinge in Zukunft helfen werden, die jetzt kommen.

00:45:07: Funktionen und Emotionen.

00:45:13: WhatsApp scheint eine Apple Watch App zu bekommen.

00:45:19: Ja, darüber denke ich wirklich nach, ob mich das, wie mich das emotional trifft oder nicht trifft.

00:45:24: Die besten Gefühle erkennt man ja erst beim dritten Mal hinsehen.

00:45:27: Ja.

00:45:29: Ehrlicherweise bin ich, ich bin nicht so der, also ich habe eigentlich, oder versuche eigentlich, mein Handy so einzustellen, grundsätzlich, dass ich nicht so viele Push-Narichten bekomme, weil es mich nervt und weil es mich ablenkt und so weiter und so fort.

00:45:42: Und das habe ich auch auf dem, auf dem, auf der Watch sozusagen eingestellt.

00:45:50: Und eigentlich fand ich es gut, dass ich mich nicht um die WhatsApp-Narichten kümmern musste, weil sie halt auch nicht aufgetaucht sind.

00:45:56: Aber sie tauchen auf der Apple Watch auf.

00:45:59: Also du kannst, bis jetzt ist es so, also wenn du eine iOS-App hast, die eine Push-Nachricht verschickt, für die es kein Apple Watch Ponder gibt, dann wird die Push-Nachricht auf der Watch gespiegelt.

00:46:14: Ende.

00:46:15: Also du kannst nicht in den Chat gehen zum Beispiel.

00:46:18: Du kannst nicht Kontext sehen.

00:46:19: Du kannst Bilder nicht öffnen.

00:46:22: Ich glaube Antworten geht sogar in Ausnahmefällen, weil du das ja auch direkt in der Pushnachricht auf dem Telefon machen könntest.

00:46:28: Aber du kannst eben nicht den Verlauf sehen zum Beispiel.

00:46:30: Oder kannst auch keine Sprachnachrichten abspielen.

00:46:35: Okay, also Leute,

00:46:37: du halt drauf stehen.

00:46:38: Für dich ist es wahrscheinlich mega.

00:46:42: Mich ist es relativ kalt, weil wie gesagt, ich habe das alles relativ.

00:46:45: ... ausgeschaltet und bin auch sehr froh darüber, ... ... dass das alles nicht auf meiner Uhr landet.

00:46:50: Ich finde es interessant, dass wir darüber gesprochen haben, ... ... dass Meta ja so wahnsinnig viele Leute geheiert hat.

00:46:55: Und im gleichen Jahr, ... ... also Sie entlassen auch fairerweise gerade wieder ein paar Leute, ... ... aber so wahnsinnig viele Leute geheiert hat ... ... und im selben Jahr passieren so Dinge, ... ... die so zehn Jahre zu spät passieren wie ... ... Instagram bekommt eine iPad-App, ... ... WhatsApp bekommt eine Apple Watch-App ... ... und man denkt sich, wo kommt plötzlich die Power dafür her?

00:47:11: Na gut, aber Sie haben ja viele Leute geheiert.

00:47:13: Vielleicht war das halt noch auf der To-Do-Liste.

00:47:15: Und es gibt einfach nicht so viele Innovationer, denen Sie arbeiten können.

00:47:18: Deswegen haben Sie mal eine To-Do-Liste abgearbeitet.

00:47:21: Schatzfeiert, aber könnte sein.

00:47:24: I don't know.

00:47:26: Instagram hat angekündigt, dass es ein neues Feature in den Analytics geben wird, mit dem Namen Competitive Insights.

00:47:33: Dort kannst du andere Accounts hinzufügen, also bis zu zehn Stück, und kannst dann sozusagen dich vergleichen mit denen.

00:47:39: Und kannst dann sagen, wer hat eigentlich in den letzten sieben Tagen oder in den letzten zehn Postings mehr Follower hinzugewonnen, mehr Reals gepostet, so was.

00:47:49: Also nur im öffentlich sichtbare Daten vergleichen.

00:47:54: Das gibt es doch schon, oder?

00:47:56: Nur

00:47:56: bei Facebook im Business Manager.

00:47:57: Ja,

00:47:59: okay.

00:48:00: Aber gab es nicht auch.

00:48:01: oder es gibt doch auch so Apps, mit denen ich mir Daten ziehen kann und dann da auch meine Konkurrenz mit reinziehen kann und so?

00:48:08: Möglicherweise, aber Instagram selber hatte das bislang noch nicht.

00:48:11: Sag mal, so wäre dann ähnliche Kategorie wie die WhatsApp-Variante.

00:48:16: Also kommt vielleicht auch ein paar Jahre zu spät, weil ich mal dieses Tool könnte jeder, der irgendwie auf Instagram... Und wer will es ist, hätte das auch schon vor zehn Jahren schon gut verwenden können oder vor fünf Jahren gut verwenden können?

00:48:29: Klar, ich finde es erstmal immer, also für Leute, die beruflich damit zu tun haben, erstmal gut.

00:48:35: Also erstmal ein nettes Feature.

00:48:37: Vergleichen ist aber trotzdem meistens nicht so eine gute Idee.

00:48:40: Sowohl beruflich als auch privat macht es keinen Sinn, sich unbedingt mit anderen Leuten zu vergleichen.

00:48:45: Es führt natürlich dazu, dass man immer mehr posten will als andere.

00:48:48: Also vergleichen führt nicht dazu, muss man direkt mal dazu sagen, dass man sich zufrieden gibt.

00:48:53: Wenn man sich denkt, ich habe mehr Fotoer innen hinzugewonnen, dann muss ich jetzt nichts mehr machen.

00:48:57: Sondern es baut natürlich einen gewissen Druck auf.

00:48:59: Und wenn wir eins nicht so viel brauchen im Moment in der Social Media-Welt, dann ist das Druck.

00:49:02: Deswegen finde ich das erst mal pauschal jetzt nicht so super.

00:49:06: Aber wenn man es haben will, why not?

00:49:09: Ja, aber andererseits hast du doch gerade aus dem Redaktions- oder auch nicht Redaktionsalltag, also aus dem Alltag im Job sozusagen immer die Frage, sind wir besser als der und der?

00:49:19: Oder wie sind wir denn im Vergleich zu?

00:49:21: Also und dann ist es einfach eine Einfach Hilfe für jeden Social Media Manager, um dann halt auf diese blöde Frage auch eine Antwort zu haben.

00:49:30: Aber, aber, aber, das ist, also da steckt, glaube ich, der Teufel im Detail, weil... dann installieren sich ja die Entscheider sozusagen, haben dieses Feature dann und vergleichen sich dann mit irgendeiner viel zu großen Medienmarke, die nicht zum Vergleich eigentlich taugt und vergleichen, warum posten die dann dreißig Reals in der Woche und wir nur zehn?

00:49:48: Kein Wunder, dass wir nicht so viele Follower in haben wie die.

00:49:50: Wir müssen mehr Content machen.

00:49:52: Also du baust, glaube ich, damit auf der einen Seite Expertisen ab, die man eigentlich benötigen würde, um seinen Vergleich sinnvoll herstellen zu können und so ein bisschen Einordnung zu liefern und die Zahlen zu interpretieren.

00:50:03: Gleichzeitig gibt es so Leute damit ein Werkzeug an die Hand, die damit nicht gut umgehen werden, fürchte ich leider.

00:50:09: Zeigt zumindest meine Erfahrung mit Social Media Teams.

00:50:13: Ja, ich stimme dir dazu.

00:50:15: Ich würde nur die einzige Einschränkung noch sagen.

00:50:18: Ich glaube nicht, dass der Chef sich die, also in dem Fall jetzt in dem, um in der Bild zu bleiben, der Chef oder die Chefin sich die App runter deht, sondern schon noch fragen wird.

00:50:26: Das ist doch viel zu kleinteiliges Micro Management.

00:50:29: Ja, und Micro Management habe ich wirklich noch nie erlebt in der Medienbranche.

00:50:32: Ich auch nicht.

00:50:37: Lass uns positiv bleiben.

00:50:38: Gehen wir weiter.

00:50:40: Instagram hat ein neues Feature, das hier es gerade ausrollt, das wir bei Haken dann schon einmal berichtet haben.

00:50:44: Damals war es noch ein Test mit dem Namen Picture in Picture.

00:50:48: Du wirst Reels weitergucken können, wenn du Instagram verlässt.

00:50:50: Äh, nochmal.

00:50:55: Also

00:50:55: ich... Kennst du das?

00:50:56: Du guckst ein Video und verlässt du die App und dann hast du klein unten rechts das Video, das weiter läuft.

00:51:00: Das wird es bald mit Reels geben.

00:51:02: Ah, zum

00:51:03: Glück.

00:51:06: Ich finde das, also ich verstehe dein Zündismus, aber ich finde es zumindest nicht ganz verkehrt, weil es gibt ja durchaus so Videos, die man sich anguckt und dann kriegt man eine Nachricht und dann denkt man sich, jetzt hört das Video jetzt auf.

00:51:22: Und was ja das zufolge haben könnte, wäre theoretisch, dass man auch lange Videos bei Instagram hoch lädt, damit sie im Hintergrund laufen können.

00:51:31: Also wird Instagram damit jetzt der Podcast-Plattform freigezeichnen?

00:51:34: Wer weiß?

00:51:35: Ich finde das Feature nicht ganz schlecht, weil ich glaube, niemand macht so Doom-Strawling in der Picture-Funktion.

00:51:42: Das passiert ja nur explizit bei Videos, die so lang sind, dass man sie sozusagen auch nebenbei sich anschaut.

00:51:47: Und das kann ich verstehen.

00:51:51: Ja.

00:51:52: Ich finde diesen Effekt den wünschenswerten

00:51:56: Effekt

00:51:57: vielleicht auch, dass Videos dadurch eventuell wieder länger werden könnten bei Instagram.

00:52:02: Finde ich interessanten Gedanken.

00:52:07: Lass uns mal gucken, was passiert.

00:52:08: Ich befürchte eher, dass es weiter zu noch kürzeren oder kurzen Videos, also es errennt zu kurzen Videos.

00:52:14: nicht so ganz tot zu kriegen ist.

00:52:15: Und

00:52:15: ich spinne mal weiter, ne?

00:52:16: Wenn das sich durchsetzt, die Leute das wirklich nutzen, dann wird TikTok das kopieren.

00:52:20: Und dann werden Leute das auch bei TikTok nutzen.

00:52:22: Und dann hat YouTube keine andere Wahl als dieses Feature aus dem YouTube-Premium-Tier rauszunehmen.

00:52:27: Boah,

00:52:27: das wäre geil.

00:52:27: Wäre meine Theorie.

00:52:28: Genau, also

00:52:29: hättest

00:52:31: du nur die gleiche Geschichte jetzt mit YouTube erzählt, dann wäre ich sofort bei dir gewesen.

00:52:34: Ja.

00:52:36: So, und dann habe ich noch... Also Elon Musk saß bei Joe Rogan und hat dort gesagt, das Ex-Chat.

00:52:43: der messaging dienst von x eine eigene app wird.

00:52:50: Okay danke für deine einschätzung.

00:52:52: er hat übrigens auch dort gesagt und da kommen wir zu dieser zu diesem wir verlassen funktionen emotionen.

00:53:00: Ich hatte also ich habe gerade überlegt ist es sehr peinlich wenn ich frage was ist x chat.

00:53:05: Nee das ist das dm schicken von x aber auf wie Elon Musk sagt bitcoin ähnlicher verschlüsselungsebene.

00:53:15: Ja, dadurch, dass ich kein Ex-Nutzer bin.

00:53:18: Sie versuchen, Konkurrenzversichne und Telegram zu werden, glaube ich, damit.

00:53:23: Ich finde, das sollen sie besser machen.

00:53:26: Aber interessant, oder wenn wir nochmal darüber nachdenken, also ich habe so gerade diesen, diesen X soll die everything App werden und dann bauen sie alles dann doch wieder aus, also finde ich interessant.

00:53:37: Ja,

00:53:37: es ist interessant.

00:53:39: Vor allem weil der Weg zu everything app, haben wir hier glaube ich in folge sechs oder so schon mal gesagt.

00:53:45: Auf jeden Fall.

00:53:46: Der Weg zu everything app führt ja nur zwangsläufig zur Veränderung der Startseite von x, weil wenn du eine App aufmachst und da hast du einfach nur so rotze die andere Leute da ins Internet gespuckt hat, dann bleibst du nicht da und dann willst du doch keine Überweisung machen und auch nicht checken und checken uns zusammen, das muss halt viel landing page'iger aussehen, viel größer, viel hubbiger.

00:54:04: ... dass sie jetzt die erste Teile anfangen, ... ... auszugliedern, ... ... die zwar in der App bleiben sollen, ... ... aber eben auch eine einzelne App werden, ... ... wirkt auf mich so ein bisschen so, ... ... dass es auf kurz oder lang dazu kommen wird, ... ... dass X eine Art Suite anbietet, ... ... wie wir das von Google kennen, ... ... von Microsoft kennen, ... ... weiß ich nicht von verschiedenen Unternehmen kennen, ... ... Meta, wenn man sowohl am Ende auch, ... ... dass die Everything App am Ende ... ... dreizig Apps sind.

00:54:27: Und dann muss man sagen, ... ... weil diese Gelabe um Everything App ... ... noch weniger wertweilt, ... ... dann gibt es das eben schon sehr, sehr häufig.

00:54:34: Ja.

00:54:35: Ja.

00:54:35: Kann nur zustimmen, ja.

00:54:37: Na ja, er war auf jeden Fall bei Joe Rogan, hat dort auch gesagt, bis Ende des Jahres möchte er ein fliegendes Auto vorstellen.

00:54:43: Wow, mega.

00:54:45: Und für jedes Verstehen.

00:54:45: Ist das eine dieser, ist das eine dieser Ankündigungen von ihm, die wir noch in fünf Jahren verfolgen werden, weil er sie zwanzig, fünfundzwanzig im November angekündigt hat?

00:54:57: Hundertprozentig.

00:54:58: Also, sollte Elon Musk in diesem Jahr noch einen, ein fliegendes Auto vorstellen?

00:55:05: Was muss ich dann machen, Franzi?

00:55:08: Heute ist der Tag der Betten.

00:55:11: Dienstes Jahr noch.

00:55:14: Boah, was wäre denn total unangenehm, Gavin?

00:55:16: Möchtest du nicht selber was vorschlagen?

00:55:17: Ich überleg mal gerade.

00:55:20: Ja, ich kann euch das überlegen, könnt ihr uns einreisen?

00:55:22: Aber ich habe eine Idee.

00:55:24: Wenn er, wenn er wieder, genau, wenn er das tut, also wenn du bis Ende des Jahres eine fliegende, ein fliegendes Auto sehen wirst,

00:55:32: dann

00:55:34: musst du Ex wieder nutzen.

00:55:39: Das geht leider nicht.

00:55:41: Leute wenn ihr eine bessere Idee habt was mein Werteinsatz ist dann schreibt gerne in die Spotify-Kommentare, schreibt in den Discord www.hacknann.org, schreibt mir ein Mail, schreibt mir auf intemsozialen.net, schreibt mir irgendwie was ist mein Werteinsatz, was soll ich tun wenn Elon Musk in diesem Jahr noch ein fliegendes Auto vorstellt, weil wir haben auch schon den dritten Elften jetzt gerade, also es ist nie mehr so viel Zeit.

00:56:00: Da gibt's auch die Geschichte.

00:56:01: Ich hatte ja eben schon angekündigt und damit schließen wir auch heute diese Episode mit dieser Geschichte.

00:56:06: Und dass der Kampf zwischen Sam Altman und Elon Musk wieder ein bisschen schärfer geworden ist.

00:56:10: Wie gesagt, nicht ganz ohne Anlass.

00:56:14: Denn Elon Musk hatte ja... Sam Altman hatte ja angekündigt, dass eben die Umwandlung von Open AI zum Profit Company sich gerade verändert.

00:56:23: Und das ist ein Grund für Elon Musk die ganze Wut nochmal auszugraben.

00:56:25: So, jetzt gibt es aber... Folgendes und zwar hatte tesla im jahr zehntausend siebzehn.

00:56:33: Das ist jetzt acht jahre her.

00:56:35: haben sie ein auto vorgestellt mit dem namen tesla roadster ein sportwagen super schnell.

00:56:41: Sollen luftwiderstand zerbrechen und also wahnsinnig schnelles auto.

00:56:45: ich glaube tausend ps war angekündigt oder so ungefähr also wirklich.

00:56:49: Von null auf hundert in negativer zeit also wirklich.

00:56:53: also die die spex die angekündigt werden wurden waren schon.

00:56:57: Muss man schon sagen krass.

00:56:58: Ich bin kein Auto nah, aber schon krass.

00:57:01: So, es gab ein paar provinente Leute, die ihn vorbestellt haben.

00:57:03: Man musste um den vorzustellen.

00:57:04: In der ersten Stufe einen kleinen Betrag anzahlen.

00:57:08: Und dann in einer zweiten Stufe musste man diesen Betrag auf fünfzigtausend Euro aufrunden.

00:57:13: Also man musste quasi fünfzigtausend Dollar anzahlen, um den Tesla Roadster vorzustellen.

00:57:19: Konnte man aber machen.

00:57:21: Zwei tausend siebzehn fing das sogar schon an mit der Vorstellung.

00:57:25: Und das Auto ist, also wie soll ich sagen, ist jetzt noch, also das gibt's nicht bis jetzt.

00:57:33: Der Tesla Roadster existiert nicht, der ist nur ein Konzept.

00:57:36: Es gibt zwar Bilder und so, aber der fährt halt noch, der wurde nicht ausgeliefert bis jetzt.

00:57:42: Und ein paar Prominente, die den bestellt haben, waren zum einen der YouTuber Marcus Brown Lee, der in seinem Podcast erzählt hat, dass er diese Vorbestand kündigen wollte.

00:57:51: Dass das aber nicht so ohne weiteres möglich war, weil die Leute also erst mal die Mail nicht funktioniert, wird es aus der App, wenn du es kündigen willst, musst du erst mal Support kontaktieren, dann wird die Mail nicht beantwortet, hatte angerufen.

00:58:03: die Leute an der Supporter-Line.

00:58:04: wussten nicht, was ein Tesla Roadster ist.

00:58:07: Weil niemand damit gerechnet hat, dass das ein Thema wird.

00:58:11: Und so weiter hin und her.

00:58:12: Das ist ja auch schon

00:58:12: acht Jahre hier.

00:58:13: Weißt du, warum sollen wir dann noch wissen, dass der Tesla Roadster ist?

00:58:17: Die Wahrscheinlichkeit, dass Leute, die jetzt an der Tesla Kundenhautlein arbeiten, schon vor acht Jahren im Unternehmen waren, ist auch relativ klein und wahrscheinlich wird das nicht mit onboardet.

00:58:24: Na jedenfalls ist ein anderer Mensch, der diesen Tesla Roadster auch vorgestellt hat, Sam Ordman.

00:58:30: Und Sam Ordman hat auch sich gedacht, Ja, ich glaube auch, dass der nicht mehr kommt.

00:58:35: Ich kündige das jetzt mal.

00:58:37: Und hat das versucht zu kündigen.

00:58:39: Und hat das erstmal versucht zu kündigen, indem er an die Mail-Adresse, die ihm damals seine Reservierung bestätigt haben, eine Antwort geschrieben.

00:58:48: Und zwar reservations at tesla.com.

00:58:50: Und hat einfach nur geschrieben, hi, I'd like to cancel my Reservation.

00:58:53: Can you please refund me the fifty-k?

00:58:55: Also kannst du mir bitte die fünfzigtausend Dollar, könnt ihr mir die zurück überweisen?

00:58:58: Dann kann mir erstmal eine Antwort.

00:58:59: Address not found, denn reservations at tesla.com gibt es nicht mehr.

00:59:04: Das heißt, er konnte über diesen Weg diese Reservierung nicht gelingen.

00:59:07: Das hat er dann auf ex veröffentlichen, hat es nur geschrieben, ein Drama in drei Akten, worauf ihn Elon Musk geantwortet hat.

00:59:15: Und also Elon Musk schrieb, dass er, ich glaube, die Antwort von Elon Musk wurde gelöscht.

00:59:20: Es steht nicht mehr hier.

00:59:22: Wow.

00:59:24: Auf jeden Fall hat Elon Musk sinngemäß gesagt, so nach dem Motto, du hast anderen Leuten auch das Geld geklaut, so.

00:59:30: Pari-Pari mäßig und hat dann aber geschrieben, was Altman hier nicht dazu gesagt hat, war, dass er das Geld nach vielen Stunden dann doch zurückerstattet bekommen hat.

00:59:39: Muss man aber dazu sagen, dass man nicht genau weiß, was in diesen vielen Stunden passiert ist, weil die E-Mail hat Tesla ja nie bekommen.

00:59:46: Das heißt, hat Tesla reagiert, weil Sam Altman öffentlich diese Mail geschrieben hat, diesen Tweet geschrieben hat, hat Sam Altman andere Wege probiert, die er hier verheimlicht hat, das wissen wir nicht.

00:59:56: Was wir aber wissen ist, dass Sam Ordner jetzt keinen Roadster bekommen wird.

01:00:03: Na ja, die Frage ist ja, wer einen Roadster bekommt?

01:00:07: Ob überhaupt irgendeiner?

01:00:08: Und andererseits wäre es ja dann auch, also es ist ein gutes Learning.

01:00:13: Also kläre sowas halt einfach öffentlich auf X und du kriegst deine Kohle zurück.

01:00:17: Das in Learning, das wir schon seit vielen Jahren haben für alle, die schon mal mit der deutschen Telekom zu tun hatten oder mit Vodafone oder so.

01:00:24: Ja, und finde ich aber auch interessant, dass die Leute die fünfzigtausend Dollar einfach mal in Tesla investiert haben, ohne Gewinn, also jetzt nicht als Aktie, sondern einfach nur als Baranlage, dass die echt umwegegehen müssen, um dann das Geld zurückzukommen, wenn sie nach sieben, acht Jahren merken, okay, ich will, glaube ich, meine Vorbestellung zurückziehen.

01:00:42: Anja, das ist aber auch interessant.

01:00:43: Warum muss ich das gerade jetzt tun?

01:00:44: Also ich meine, hätte man irgendwie auch schon ein bisschen früher machen können.

01:00:48: Und weil, wenn du überlegst, die Fünfzigtausend, hättest du auch gut irgendwo an der Börse anlegen können.

01:00:54: Und dann wäre da mittlerweile mit guten Investments, wäre da sicherlich ordentlich was rausgekommen.

01:01:02: Hättest du sie in Tesla investiert, im selben Zeitraum?

01:01:06: Hättest du vermutlich vzeinfacht, wenn ich das richtig sehe?

01:01:12: Ja, dann guck doch mal parallel gerade in den Aktienkurs.

01:01:15: Aber

01:01:17: I don't know.

01:01:20: Ja also

01:01:22: ist es auch ehrlich gesagt wirklich ein relativ langes vertrauen.

01:01:25: also du war hattest wirklich acht jahre.

01:01:28: Ich habe ja noch fünf zwischendurch bekommen.

01:01:33: Es ist natürlich schon interessant.

01:01:35: also und der zeitpunkt ist glaube ich nicht zufällig.

01:01:38: das ist gerade jetzt sozusagen passiert.

01:01:41: Nur viel darüber diskutiert wird was bei tesla alles so passiert und wenn wir dann übernachten vielleicht ist ja der tesla roth das fliegende auto.

01:01:50: Das wäre wild.

01:01:51: Dann sind die fünfzigtausend aber gut investiertes Geld, wobei auch da die Frage ist, ob das tatsächlich dann der Gesamtbetrag ist oder ob man nicht nochmal nachzahlen muss.

01:01:58: Also lautfinanzen.net Da habe ich jetzt einfach mal schnell historische Akzendaten gefunden.

01:02:04: Ja.

01:02:04: Am zweiten Elften, das ist der Tag, an dem wir dieser Episode hier aufzeichnen, im Jahr zwei Tausend siebzehnt allerdings, der Tesla-Kurs geschlossen mit siebzehn Komma ein Cent, also siebzehnt Dollar und einem Cent.

01:02:15: Jetzt ist Tesla dreihundert vierneunzig Dollar wert.

01:02:18: Also das ist schon ein bisschen mehr.

01:02:21: Also es ist das dreinzwanzigfache.

01:02:24: Hättest du also diese fünfzigtausend Dollar investiert, hättest du jetzt eins Komma eins Millionen Dollar?

01:02:29: Da könnte man sich viele fliegende Autos von kaufen.

01:02:31: wahrscheinlich kein einzigen egal.

01:02:33: Wir haben noch eine Versöhnlichkeit zum Schluss damit wir hier nicht so düster rausgehen.

01:02:36: Versöhnlichkeit

01:02:41: des Tages.

01:02:45: Du hast eine Versöhnlichkeit mitgebracht Franzi.

01:02:49: Ja am besten wir schließen sozusagen diesen Podcast mit dem was wir begonnen haben denn wir waren ja gestern auf der Republikan haben uns da ja gesehen.

01:02:56: Und ich glaube auch, dass wir in der gleichen Session gesessen haben.

01:03:00: Und ich würde jetzt mal, auch wenn ich das Buch noch nicht gelesen habe, als Versöhnlichkeit.

01:03:03: das Buch von Thomas Knüferich hat Gutja und Frank Horn empfehlen, zwanzig Trends für zwanzig fünfunddreißig.

01:03:10: Ich glaube, dass die machen Mut, weil die Session gestern war so inspiriert und so mutmachend und so optimistisch auch, dass das Buch nur so sein kann.

01:03:19: Das heißt also zwanzig fünfunddreißig wird alles gut.

01:03:21: Wir müssen halt ein bisschen noch ein bisschen leiden, aber zwanzig fünfunddreißig wird alles super.

01:03:25: Und das ist doch versöhnlich, oder?

01:03:26: Ja, das ist versöhnlich.

01:03:27: Ich hab nicht so viel versöhnliches.

01:03:28: Ich hab nur versöhnlich.

01:03:30: Wir bestellen uns kein Roboter, weil wir wissen, wenn wir was bestellen, was irgendwann erst in acht Jahren ausgeliefert wird.

01:03:34: Wer weiß, wie lang One X braucht, machen wir lieber nicht.

01:03:38: Ich bin versöhnlich, weil wir haben Jubiläumswoche.

01:03:41: Also noch zwei Folgen, dann ist Folge fünfhundert.

01:03:44: Und wir haben in dieser Woche an der Zahl drei Ankündigungen, die wir diese Woche noch machen.

01:03:50: Drei News.

01:03:52: die in dieser Woche zu Haken.

01:03:53: dann kommen und da habe ich Bock drauf und da bin ich pumped und hyped und um mich zu beruhigen lese ich das Buch von Thomas Knöverichert Gutja und Frank Horn.

01:04:00: Und freue mich, wenn du nächstes Mal wiederkommst, liebe Franzi.

01:04:03: Ich freue mich auch und ich glaube, es ist gar nicht so lange hin, wenn ich das richtig in Erinnerung habe.

01:04:07: Who knows?

01:04:08: Danke Franzi, mach's gut.

01:04:10: Schöne Woche.

01:04:11: Danke für all die bisher hinzugehört haben, habt eine schöne Woche.

01:04:12: Wir handeln uns am Mittwoch wieder dann mit Dennis Horn in der Gebulirmswoche Folge fourhundertneun neunzig dann.

01:04:17: Ich hab Bock.

01:04:18: Tschüss.

01:04:18: Tschüss.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.