Die neue Deep-Fake-Ära der sozialen Medien (mit Elisabeth L'Orange)
Shownotes
Schwarz Digits Digitale Souveränität ist die Basis für Unabhängigkeit, Wachstum und Wohlstand. Dafür wollen wir Bewusstsein schaffen.
Transkript anzeigen
00:00:02:
00:00:07: Guten Tag und herzlich willkommen zu einer neuen Ausgabe von Tech, KI und Schmetterlinge.
00:00:12: Dem Podcast von mir, Sascha Lobo, in Zusammenarbeit mit Schwarz Digits, dem Digitalarm der Schwarzgruppe.
00:00:19: Und die erste echte Tech-Sendung nach dem Thema Longevity, gleich am Anfang des Jahres.
00:00:25: Der erste echte Tech-Sendung, die ist heute nicht nur A, mit Elisabeth Laurent, hallo liebe Elisabeth.
00:00:32: Hi Sascha.
00:00:33: Sondern sie ist B auch zu einem Thema, was sich in den letzten Wochen und Monaten so katapultartig nach vorne gespielt hat.
00:00:42: Es geht nämlich darum, wie soziale Medien in Zukunft funktionieren, nicht funktionieren, was ihre Aufgabe sein wird und wie sie sich entwickeln im Zeitalter von immer besser werdenden Deepfakes.
00:00:55: Und zwar auch deswegen, weil wir sehen, dass wir in einer ganzen Reihe von politischen Aktivitäten, Stichwort Venezuela, Stichwort Grönland, aber auch viele andere Punkte... einen neuen Fokus auf digitale Souveränität richten müssen.
00:01:13: Das wird auch hier im Podcast spürbar sein, denn ganz einfach die weltpolitische Lage schon zwingt uns dazu, warum hinter digitaler Souveränität, hinter der Verantwortung für die eigenen Instrumente und wie man sie benutzt und dass man im Zweifel nichts wirklich benutzen muss, ohne komplett aufgeschmissen zu sein, steht ja nichts anderes als Freiheit im XXI.
00:01:36: Jahrhundert.
00:01:38: Elisabeth, wir haben die ersten Tage dieses Jahres gesehen und manchmal hätte man sich gewünscht, dass das, was in den Nachrichten stattgefunden hat, deepfakes wären.
00:01:46: Und nicht das, was zum Beispiel Donald Trump wirklich gesagt hat.
00:01:49: Ja, fand ich auch.
00:01:50: Ich fand es so bemerkenswert schrecklich, dass ich zum Teil schlaflose Nächte hatte.
00:01:54: Also ich habe die letzten Tage, insbesondere nach der Ermordung von Frau Good habe ich nicht mehr schlafen können, so richtig, weil ich einfach nicht diese Interpretation der Geschehnisse mehr verstehen konnte.
00:02:09: The Telegraph hatte ganz interessante Videos davon.
00:02:11: Das heißt, die haben das Video, das Tathergangs gezeigt und gleichzeitig das Narrativ der Regierung daneben gelegt und genau gesehen, wie die halt komplett falsch Dinge interpretiert haben.
00:02:26: Also ich glaube, es gab einen Tweet von Trump, indem er sagte, dass er froh sei, dass der Ice-Agent Jonathan Ross nicht im Krankenhaus ist nach der schweren Attacke und dann sah man ihn gleichzeitig wieder so ganz legär vom Tathiger oder von der Tat quasi die Straße runterging.
00:02:44: Deswegen insbesondere diese Frage, ob es Notwehr ist oder ob es Notwehr-Access ist und so weiter.
00:02:51: Ich habe mit all meinen juristischen Freunden lange darüber diskutiert, weil es tatsächlich einfach unfassbar fand, wie das eingeordnet wurde.
00:02:58: Ja und der konkrete Hintergrund ist natürlich, dass die digitale Souveränität, wenn sie auf die Meinungsbildung bezogen ist, wenn sie zum Beispiel auf Plattformen wie soziale Medien, sagen wir Instagram, auf TikTok bezogen ist, wenn die Meinungsbildung darüber stattfindet und zum Beispiel eine Regierung wie der Regierung Trump.
00:03:15: TikTok immer enger und immer härter kontrollieren will.
00:03:19: Dass dann solche Erzählungen darüber, was ist eigentlich passiert, früher oder später natürlich auch ein Fall der digitalen Souveränität ist.
00:03:26: Und das gilt dann eben nicht nur für Länder, was zum Beispiel Deutschland oder Europa mit digitaler Souveränität anfängt in sozialen Medien, sondern sogar für die eigenen Gesellschaften.
00:03:36: Das Extrembeispiel sehen wir in China, wo man sagen muss, dass die Individuen gar nicht mehr digital souverän sind, sondern dass alle Erzählungen und die meisten veröffentlichten Dinge im Zweifel durch Regierungsseite kontrolliert werden.
00:03:50: Genau das ist diese Gleichsetzung von digitaler Sorinität als Freiheit im einundzwanzigsten Jahrhundert.
00:03:57: Wenn wir so mal ein bisschen zurückblicken, Elisabeth, wir haben in den letzten Ich würde sagen, zwölf Monaten, wir haben zuletzt, glaube ich, vor neun Monaten über Deepfakes geredet, in unserer zweiten Sendung im Mai.
00:04:10: Wir haben in den letzten zwölf Monaten eigentlich in sehr vielen KI-Bereichen jetzt keinen Quantensprung der Qualität erlebt.
00:04:20: Aus meiner persönlichen Perspektive aber ist das bei Deepfakes etwas anders, oder?
00:04:26: Ich hatte tatsächlich eine eigene Deepfake-Erfahrung und zwar tat vor einiger Zeit jemand auf LinkedIn einen Deepfake von mir gemacht.
00:04:34: Eigentlich hatte ich zu den Deepfakes die Haltung, dass der Markt es regulieren würde.
00:04:39: Ich war fest davon überzeugt, dass wenn es nur normalisiert werden würde, würden sich alle daran gewöhnen und es sei gar nicht mehr so schlimm.
00:04:46: So ähnlich was Elon Musk jetzt mit Grog macht.
00:04:48: Der versucht es ja so ein bisschen ins Lächerliche zu ziehen.
00:04:51: Er hat sich selber ein Bikini dargestellt, um letztlich damit zu sagen, so, ey, ist doch, it's not a big deal.
00:04:56: Von mir hat ein Hörer ein Deepfake gemacht, ein Hörer meines Podcasts Tech on Tales und er hat ein Deepfake gemacht, in dem ich ihm so relativ sinnlich irgendetwas ins Ohr flüstere.
00:05:06: Ich bin morgens aufgewacht um acht von zwanzig WhatsApps meiner Freunde, die alle gesagt haben hey check mal bitte LinkedIn und das finde ich geht gar nicht und das ist unangebracht und es sieht total weird aus.
00:05:16: Dann habe ich LinkedIn aufgemacht und das Deepfake von mir selber gesehen, wie ich diesen total unbekannten Mann, also es war sein Gesicht und ich die mir ins Ohr flüsserte, dass dieses Bild gesehen habe und in dem Moment es fühlte sich an, als würde sich der Boden öffnen.
00:05:29: Ich habe das erste woran ich dachte, ob meine Familie das gesehen hat.
00:05:32: Ich habe mich quasi geschämt für dieses Deepfake und war so entsetzt, Ich habe es LinkedIn gemeldet, ich habe demjenigen geschrieben, was er damit irgendwie bezwecken würde.
00:05:40: Er hat es dann offline genommen, tatsächlich, weil er es angeblich nicht wollte.
00:05:44: Er wollte nur damit zeigen, wie sehr ich ihm ins Ohr ginge.
00:05:46: Und dann habe ich das Ganze aber gepostet, um eben davor zu warnen und quasi meinen Sinneswandel zu erklären.
00:05:53: Derjenige, der das verfasst hat, der war völlig entsetzt.
00:05:55: Ich hab dann im stunden Rhythmus irgendwie von ihm Nachrichten bekommen, dass ich ihn ghost nur würde, was natürlich irgendwie irgendeine Art von entweder Beziehung oder irgendwas voraussetzt, was nie da war.
00:06:06: Ich kannte diese Person null.
00:06:08: Dann hab ich es auch offline genommen, weil ich ihn nicht noch weiter dahinhalten oder stressen wollte.
00:06:12: Der Unterschied, dass sobald man betroffen ist, ist es was völlig anderes so.
00:06:17: Und wie du sagst, ich finde auch die Qualität der Deepfakes und auch die Einfachheit, wie man sie erstellt.
00:06:22: hat sich gewandelt.
00:06:24: Es wird immer, immer, immer einfacher.
00:06:26: Und inzwischen auch Leute, die nicht so techversiert sind, können schon mit einem Klick quasi das erstellen.
00:06:30: Die Frage ist halt, wie man das reguliert.
00:06:32: Wie siehst du denn das?
00:06:33: Also wie hast du das empfunden in letzter Zeit?
00:06:35: Ich habe diesen Qualitätsquantensprung vor allem... in einem Spezialbereich wahrgenommen, der aber für mich sehr relevant ist.
00:06:43: Das ist jetzt nicht nur Videoerstellung.
00:06:45: Videoerstellung ist nach wie vor so komplex, in vielen Fällen auch so vielschichtig, dass man sogar bei absoluten Profis von KI Videoerstellung, die es gibt, in den meisten Fällen noch Anhaltspunkte dafür findet, dass es sich um ein KI Video handelt.
00:06:59: Das wird nicht mehr lange der Fall sein, aber wenn wir zurückschauen auf den Status quo jetzt, dann ist das schon noch so.
00:07:05: Da gäbe es theoretisch auch Ansätze von einer Regulierung zumindest über die Verbreitung in sozialen Medien, über die wir heute reden möchten, weil da natürlich ganz andere Prüfungsmethoden sein können, wenn sie denn angewendet werden.
00:07:20: Das, was mich tatsächlich fasziniert hat, war der Quantitätsquantensprung in diesem kleinen Teilbereich LipSync, wo man also aus einem Foto ein Video machen kann, was mit einer Stimme versehen wird, dass dann So aussieht, als sei das tatsächlich die Person, von der man nur ein, zwei, drei Fotos hat, als die, die das sagen würde.
00:07:40: Und auch da gibt es bei großen Plattformen immer so Sperren drin, zum Beispiel für Promis, aber nicht überall, nicht immer.
00:07:46: Und in den chinesischen Plattformen auch natürlich naheliegenderweise jetzt nicht jede, sagen wir mal, Person aus dem politischen Dritten Rang irgendwo in Hessen.
00:07:54: Das bedeutet übersetzt, wir haben inzwischen eine Möglichkeit, extrem schnell, extrem kostenlos, sehr anonym.
00:08:01: Videos zu machen, die auf den ersten, zweiten und dritten Blick so aussehen, als würde da eine Person irgendwas sagen.
00:08:07: Und das ist ein Propagandainstrument.
00:08:09: Da gab es definitiven Qualitätsquantensprung.
00:08:11: Und diese Qualitätssprünge, die wurden eben auch zum Beispiel vom Instagram Chef Mosseri wahrgenommen, über dessen Posting vom ersten Januar wir auch auf jeden Fall noch reden.
00:08:19: Aber was das Ganze mit digitaler Souveränität zu tun hat, das kann man im Bereich Social Media sehr gut sehen.
00:08:25: Denn bei dir, genau, war das ja so, dass dieser Typ das gelöscht hat und du warst mit ihm in Kommunikation und das wahrscheinlich früher oder später linked in, das auch gelöscht hätte, linked in, bemüht sich um eine gewisse Seriosität.
00:08:40: Hätte er das gleiche auf Ex veröffentlicht bei Elon Musk, dann kann man sich sicher sein, wenn Elon Musk sich wenig schert um europäische Gewohnheiten, wenig um Persönlichkeitsrechte, wenig um irgendwas, außer der von ihm so benannten Meinungsfreiheit, die dort endet, wo er Lust hat.
00:08:56: Auf X wäre mit Sicherheit dieses Deepfake, dieser kurze Deepfake von dir weiter online geblieben und hätte dich weiter konstant herabgewürdigt.
00:09:07: Ich habe das ja auch gesehen, nachdem du es gepostet hat.
00:09:09: Das bin ich doch aufmerksam geworden.
00:09:11: Und es war vollkommen klar eine sexualisierte Darstellung.
00:09:14: Und das war ja sogar noch jemand, wo man sagen könnte, naja, der hat das... Wahrscheinlich Augen zwingkern, aus meiner Sicht frauenverachtend, aber Augen zwingkern gemeint.
00:09:24: Es gibt ja auch Leute, die meinen das absichtsvoll erniedrigend und würden das überhaupt nicht löschen.
00:09:30: Und insofern dieser Übergang zwischen welche Regeln gelten eigentlich auf Plattformen, die über dich entscheiden können, weil sie zum Beispiel dein Bild weitverbreiten, obwohl es nachgewiesenermaßen deepfake ist.
00:09:41: Das ist unmittelbar eine Frage der digitalen Souveränität.
00:09:44: Und das grenzt dann halt sofort an Persönlichkeitsrechte, an Propaganda, an Fake News, an allem Möglichen.
00:09:50: Ja, und der Schaden ist ja auch so schwer zu bemessen.
00:09:54: Wenn man sagt, ich habe davon Reputationenschaden, dann würde jedes Gericht fragen, wo genau liegt denn der Schaden?
00:10:01: Wo ist der monetäre Schaden?
00:10:02: Wo hast du dadurch irgendein Entgangene gewinnen oder wodurch hast du irgendwie ein Auftrag nicht bekommen oder dergleichen.
00:10:08: Nur das ist so schwer nachzuweisen.
00:10:10: Und wenn ich sage an der Reputation oder ein Ruf oder es gab ja früher auch diesen Begriff Rufmord und dergleichen, der ist sehr weich.
00:10:19: Weißt du, das sind Eindrücke, die bei Personen entstehen.
00:10:22: Und mein gerade im Kontext von LinkedIn, das ist ein professionelles Netzwerk und ich passe sehr genau auf darauf, dass Ich poste keine Lifestyle-Bilder-Poste.
00:10:30: Ich poste keine Bilder aus dem Gym und sag so, hey, zwanzig, sechsundzwanzig, irgendwie neues Leben, neuer Körper, keine Ahnung.
00:10:36: Und wenn man das macht, ja, und dann dadurch unterminiert wird, dann tut das schon weh, muss ich sagen.
00:10:41: Und dieser Eindruck, der dann bei anderen entsteht, ist ein Eindruck, den ich vielleicht nicht möchte.
00:10:46: Und wenn man dann die Kontrolle darüber verliert.
00:10:48: Unfassbar, wie du sagst, herabwürdigendes Gefühl, ein Gefühl, das verlorene Würde und auch so eine Art Kontrollverlust.
00:10:55: Was Elon Musk da macht mit Grog, denke sein Hauptmotiv ist natürlich die Vergrößerung, Verbreitung seiner Plattform und die, letztlich die Usage von Grog.
00:11:03: Nur, wie du schon sagst, es ist ein Fall europäischer Souveränität und wir müssen als europäisches Land und auch als Deutschland einfach da unsere Grenzen ziehen.
00:11:12: Dieses, was gerade in den USA passiert, dieses Völlige, dieses Vakuum an Nichtbeachten von Regeln und Gesetzen hilft keiner Demokratie.
00:11:20: Und ich denke, deswegen, dass diese Verlässlichkeit, die ist ein absoluter USP von Europa und auch gerade Deutschland, und das sollten wir so weiter behalten.
00:11:29: Nur, es ist wie gesagt... Es ist extrem schwer, das durchzuziehen.
00:11:32: Es ist extrem schwer, Bilder zu kennzeichnen.
00:11:35: Es gibt ja die Bestrebungen, dass man kleine Pixel einbaut.
00:11:38: Das heißt, dass das Maschinen lesbar ist, dass es sich um ein Deepfag oder ein KI-generiertes Bild handelt.
00:11:45: Technisch sind wir sicherlich immer hinterher, regulatorisch sind wir auch hinterher.
00:11:49: Und die Frage, wie man es dann tatsächlich durchsetzt, finde ich, ist schwer.
00:11:52: Also ich weiß nicht, ob ich mein, wie siehst du das?
00:11:55: Du hast bisher lange in dem Business sozusagen.
00:11:57: Du hast ja immer wieder Wellen von Innovationen gesehen und die die neue Dinge gebracht haben.
00:12:01: Ich mein, hast du eine kreative Idee, wie man das irgendwie abwenden könnte?
00:12:06: Ich glaube, wir erkennen an diesem Beispiel, wie sich soziale Medien und Deepfakes entwickeln und wie die einzelnen Plattformen damit umgehen.
00:12:13: Was die... digitale Souveränität als Wert in Zukunft sein muss.
00:12:20: Denn ganz ehrlich im Bereich soziale Medien hat es uns ganz lange nicht geschehrt.
00:12:24: Wir haben in Europa einen Datenschutz nach dem anderen aufeinander gestapelt, sodass sämtliche soziale Medien, die hier hätten aufblühen können, gar keine Chance mehr hatten, wirklich am Markt erfolgreich zu werden.
00:12:37: Und das kann man genauso sagen, es gab Ansätze.
00:12:39: Es gab viele auch interessante Ansätze, die irgendwann keine Chance mehr hatten, weil unter anderem, nicht nur, aber unter anderem Datenschutz und Bürokratie gegenüber Start-ups sehr, sehr harsh geworden waren und geworden sind in Europa.
00:12:51: Und jetzt sehen wir.
00:12:53: Die großen sozialen Medien kommen entweder aus Trumps Vereinigten Staaten oder aus der Diktatur China.
00:12:59: Und das macht etwas mit uns.
00:13:01: Das bedeutet, wir haben, wenn jetzt Trump immer weitergeht, in seinen nicht rechtsstaatlichen Ansprüchen.
00:13:09: Wenn Trump zum Beispiel Grönland überfällt.
00:13:11: Wenn Trump anfängt zu sagen, ja, aber Instagram darf folgende Dinge nicht mehr veröffentlichen, sonst kriegen sie bei uns zu Hause richtig auf den Deckel.
00:13:20: dann merken wir im Bereich Social Media, haben wir die digitale Souveränität schon verloren.
00:13:25: Da kann man nicht sagen, ich will keine amerikanischen oder chinesischen Produkte, dann kann man nur noch sagen, okay, ich habe die Wahl zwischen zwei Dutzend Produkten, die aber alle in eine von diesen Zwergen gehören, die nicht mehr unabhängig sind.
00:13:39: Und das sage ich als jemand, der Amerika Fan ist, der immer gegen Anti-Americanismus gekämpft hat.
00:13:44: Da muss man sehenden Auges da reingehen, zum Beispiel sehen, wie Just nach der zweiten Wahl von Trump, Max Zuckerberg sich zum Großkumpel von Trump aufgeschwungen hat.
00:13:56: Auch das ist ein Grund, warum wir dieses Posting von Musseri besprechen.
00:13:59: Der Musseri gilt so ein bisschen als das Sprachrohr von Zuckerberg, der wiederum, naja, nicht Second Best, aber so ungefähr, gute Freund von Trump geworden ist mit seiner Plattform Macht und deswegen im Zweifel auch sehr merkwürdige Entscheidungen zu fällen bereit ist.
00:14:16: Ja, ich teile da deine Ansicht sehr.
00:14:18: Erstens, ich bin Sämmer Amerikanerin.
00:14:19: Ich kam gerade vor einer Woche wieder zurück aus den Staaten und muss sagen, es war einer der ersten Besuche, in der ich die Stimmung des Landes als wirklich merkwürdig empfunden habe.
00:14:31: Das Land ist gespalten.
00:14:33: Ich glaube... Sackeburg ist sich sehr bewusst, was er da tut.
00:14:36: Ich glaube, das ist sehr, sehr, sehr strategisch.
00:14:38: Ich glaube, Trump ebenfalls.
00:14:40: Und wie du schon sagst, die haben halt jetzt absolute Macht so über die sozialen Medien, auch mit den verschiedenen Plattformen.
00:14:46: Und Europa, wie du auch sagst, hat den Zug verpasst.
00:14:50: Wir besprechen deswegen soziale Medien und die Zukunftssoziale Medien bei Deepfakes auch als Fanal.
00:14:57: Was passiert, wenn man... Digitales Souveränität in einem Teilbereich aufgibt.
00:15:02: Und dieser Teilbereich, der wird eher der Jugend zugeschrieben, der öffentlichen Meinungsbildung, man sieht da auch immer noch die klassischen Medien unterwegs, komme aber.
00:15:09: Eine ganze Generation, sogar zwei oder drei Generationen, wenn man ehrlich ist, benutzt soziale Medien hauptsächlich zur Meinungsbildung, vor allem TikTok und Instagram.
00:15:18: bei jüngeren Leuten, du sagst, wahlentscheidend, Elisabeth, das ist aber ja inzwischen nicht nur wahlentscheidend, sondern es ist inzwischen auch bei der politischen Meinungsbildung, die essentiell ist, in ganz vielen Bereichen sehr entscheidend.
00:15:31: Wir haben am ersten Januar dieses Statement von Instagram-Chef Adam Mosseri.
00:15:37: Und der hat das sehr untypisch auf Kacheln veröffentlicht.
00:15:41: Und diese Kacheln, zwanzig Stück, sind voll mit Text.
00:15:45: Das ist ein sehr ernster, sehr getragener, so ein bisschen pathetischer Text.
00:15:48: Was wir aber machen können, ist das direkt zu übersetzen.
00:15:50: Warum?
00:15:51: Adam Mosseri ist eigentlich das Sprachrohr von Mark Zuckerberg in Richtung soziale Medien.
00:15:57: Der hält sich da immer so ein bisschen raus.
00:15:59: Er sagt hier und da mal ein paar kurze Snippels und veröffentlicht durchaus auch größere Würfe, aber ganz konkret auf Instagram und damit soziale Medien bezogen.
00:16:07: Das macht Adam Mosseri für ihn.
00:16:09: Aber Mark Zuckerberg hat die Leitlinien von Donald Trump, muss man so sagen, voraus eilend verinnerlicht.
00:16:16: Das hat zum Beispiel dazu geführt, dass er kurz nach der Wahl von Trump sowas gesagt hat, wie, ja, wir haben wahrscheinlich in den letzten Jahren zu viel weibliche Energie in unser Unternehmen gelassen, wir müssen jetzt mal ein bisschen männliche Energie dagegen setzen.
00:16:27: Sie sind also voll auf Trumplinie.
00:16:29: Und jetzt geben Sie eine Art neues Leitwerk dafür, wie soziale Medien in Zukunft aussehen sollen.
00:16:36: Deswegen bringen wir jetzt Teile von diesem Posting als Zitat, um dann darüber zu diskutieren, was das eigentlich für soziale Medien der Zukunft bedeutet.
00:16:46: Das größte Risiko vor dem Instagram steht, dass die Plattform mit dem Tempo des Wandels nicht Schritt hält, während sich die Welt immer schneller verändert.
00:16:55: Mit Blick aufs Jahrzehnte zeichnet sich eine große Verschiebung ab, Authentizität wird unendlich reproduzierbar.
00:17:02: Nicht Publisher oder Marken, sondern Individuen haben gezeigt, dass es einen erheblichen Markt für Inhalte von Menschen gibt.
00:17:09: Das Vertrauen in Institutionen ist auf einem historischen Tiefstand.
00:17:13: Wir haben uns Inhalten zugewandt, die von Menschen selbst aufgenommen wurden, von Creators, denen wir vertrauen und die wir bewundern.
00:17:21: Ja Elisabeth, lass uns in diesem Eingang erst mal darüber diskutieren, dass ja das Vertrauen in Institutionen nicht ganz zufällig geringer geworden ist.
00:17:29: Was sind alles die Institutionen?
00:17:30: Die Institutionen sind definitiv die klassischen Medienhäuser.
00:17:34: Die wurden systematisch geschwächt.
00:17:36: Also wenn man sich die Regierung in den USA anschaut oder wenn man ihn zuhört, dann sind alle Medien... Häuser oder auch Kanäle, die nicht deren Narrativ wie Fox News oder dergleichen Replizierung haben, sind die Lügenpresse.
00:17:51: Also das heißt CNN zum Beispiel wird immer wieder als Lügenpresse tituliert, die natürlich eigentlich hochseriös sind.
00:17:58: Und wenn die Regierung selber mit diesen Begrifflichkeiten um sich wirft und diese Narrative verfolgt, indem sie sagen, dass eben den Stimmen, den normalerweise Dekaden, den Menschen Vertrauen, nichts mehr wert sind.
00:18:14: Und wenn die komplett freie Geschichten erzählen, die nichts mehr mit der Realität zu tun haben, natürlich erodiert das Vertrauen in die Medien und in die Institution.
00:18:26: Also, das heißt, ich finde es ist ein bisschen schizophren, wenn ich ehrlich bin, dass sie davon reden, dass zufällig das Vertrauen nicht mehr vorhanden ist, wenn die doch daran so großen Teil gehabt haben.
00:18:37: Aber lass uns mal die anderen Kacheln anhören.
00:18:39: Ja, was du sagst, das wird halt noch stärker und besorgniserregender vertieft.
00:18:44: Wenn man da Moseri weiterfolgt, der sagt dann nämlich, Macht hat sich von Institutionen hin zu Einzelpersonen verlagert, weil das Internet es ermöglicht hat, dass jede Person mit einer überzeugenden Idee einen Publikum finden kann.
00:18:57: Die Kosten für die Verbreitung von Informationen sind auf Null gefallen.
00:19:01: Alles, was creators relevant gemacht hat, die Fähigkeit echt zu sein, Verbindung herzustellen, eine Stimme zu haben, die nicht gefälscht werden konnte, ist heute für jede Person mit dem richtigen Werkzeug zugänglich.
00:19:11: Deepfakes werden immer besser, KI erzeugt Fotos und Videos, die von aufgenommenen Materialen nicht mehr zu unterscheiden sind.
00:19:18: Was hier sehr schnell auffällt, wenn man zwischen den Zeilen liest, ist, dass zum einen die Macht in Richtung Einzelpersonen verlagert worden ist, weg von Institutionen, Das ist ganz eindeutig eine Anspielung natürlich auf Trump.
00:19:31: Das wird ihm auch gefallen haben.
00:19:33: Und das gleichzeitig, man davon spricht, dass man mit einer überzeugenden Idee einen Publikum finden kann.
00:19:39: Da ist weder Wahrhaftigkeit noch irgendwas wie, sagen wir mal, Verantwortung mit dabei.
00:19:44: Da sind klassische Medien kaum mehr erwähnt.
00:19:47: Die Fähigkeit, echt zu sein, diese Form von der Authentizität, die sagt, da ist beliebig reproduzierbar.
00:19:54: Und er geht gar nicht mehr darauf ein, dass es ja auch so einen Wert geben könnte.
00:19:58: Wie ist das messbar und faktisch richtig oder nicht?
00:20:03: Im Gegenteil, er sagt, es ist von Deepfakes nicht mehr zu unterscheiden.
00:20:06: Also muss man irgendwie alles als eins behandeln.
00:20:09: Das ist so dieser Subtext, der damit schwingt.
00:20:13: Es ist quasi nicht mehr relevant, was noch wahr ist, sondern es ist nur noch relevant, was die Leute dabei fühlen am Ende.
00:20:19: Also was deren Meinung ist.
00:20:21: Was natürlich extrem auch... Also, finde ich juristisch schwierig ist, weil irgendwann wird man auch nichts mehr als Beweis vor Gericht verwenden können.
00:20:32: Es gibt halt keine Beweisbarkeit mehr, das ist das eine so.
00:20:35: Das andere ist, wenn man guckt, wie Creator sozusagen groß geworden sind, dann gibt es sehr viele Creators, die groß geworden sind, gerade im rechten Spektrum, weil sie natürlich sehr polarisierende absurde Meinungen haben und damit haben sie eine große Follower schafft gefunden.
00:20:51: warum?
00:20:51: Na weil die Algorithmen natürlich sehr polarisierende Meinungen bevorzugen.
00:20:56: Carrie Swisher sagt dazu immer Enragment ist Engagement und so ist es auch.
00:21:01: das heißt je absurder die Meinungen je polarisierender das das so mehr Reach bekommen sie.
00:21:06: und letztlich haben wir darüber oder hat die Welt darüber halt die neuen Götter aufgebaut?
00:21:11: ja das sind die ganzen Extremisten an allen enden des Spektrums.
00:21:15: Trump ist am Ende des Tages ein Reality-Filmstar oder ein Reality-Medien-Mensch gewesen neben seiner immobilierenden Karriere.
00:21:23: Das heißt, ich weiß nicht, wenn das die Zukunft ist, dann mache ich mir große Sorgen, weil die vertreten ja nicht das Volk.
00:21:30: Die haben ja keinen Interesse an Demokratie.
00:21:32: Das sind ja keine... Also auch die ganzen Social-Media-Sternchen, die letztlich die Meinungsmacher sind, das sind ja nicht die Volksvertreter, sind ja nicht demokratisch gewählt.
00:21:40: Das ist übrigens, wenn man ein Nebenaspekt, der eigentlich ein Hauptaspekt wird, betrachtet.
00:21:45: Ganz interessant, wenn man sich die meistverbreiteten Postings auf Facebook anschaut.
00:21:50: Facebook inzwischen in den Vereinigten Staaten, ein sehr altes Netzwerk quasi das Fox News als Social Media.
00:21:56: Bei den meistverbreiteten Postings auf Facebook jeden Tag sind unter den Top-Tennen regelmäßig sechs, sieben, acht, manchmal sogar alle zehn von rechten Meinungsmachern, von großen Seiten, von großen einzelnen Personen, die viel verfolgt werden, einfach, weil Alter in den Vereinigten Staaten auch ein Indikator für politische Haltung ist.
00:22:15: Das Netzwerk ist aus dortiger Sicht schon verloren, aber man kommt dann so ein bisschen in die Richtung, warum Facebook und wie auch diesen Schwenk vollzogen hat, schon vor einiger Zeit, sogar schon vor Trump, weil die ständige Klage von konservativer Seite von den Republikanern, sie würden benachteiligt, dazu geführt hat, dass sie dramatisch bevorzugt worden sind.
00:22:36: Und diese Form von Einflussnahme und Manipulation in soziale Medien zeigt uns wiederum, wie wichtig digitale Souveränität, hier muss man im Bereich Social Media sagen, gewesen.
00:22:45: wäre.
00:22:46: Was das mit Diebwechsel tun hat, sehen wir an den weiteren Äußerungen von Moseri.
00:22:51: Er redet zwischendurch natürlich auch von irgendwelchen Authentizitäten, dass heute Videos geteilt werden, die unperfekt sind eher über private Nachrichten usw.
00:23:01: Aber er sagt dann auch ganz konkret, Zitat, wir beschweren uns gern über AI-Slop.
00:23:07: Aber es gibt auch unglaublich gute KI-Inhalte.
00:23:09: Selbst hochwertige KI-Inhalte haben bislang einen bestimmten Gluck.
00:23:13: Zu glatt, haut zu perfekt, das wird sich ändern.
00:23:15: Wir werden realistischere KI-Inhalte sehen.
00:23:18: Wenn man nicht unter fünfundzwanzig ist, denkt man bei Instagram wahrscheinlich an einen Feed aus quadratischen Fotos mit perfektem Make-up, schönen Landschaften.
00:23:25: Aber dieser Feed ist tot.
00:23:27: Menschen haben aufgehört, persönliche Momente für den Feed zu teilen und das schon vor Jahren.
00:23:31: Der sagt das so, Moserie, als hätte nicht Meter, als hätte nicht Instagram genau das... selbst vorangetrieben.
00:23:39: Das ist ein bisschen so, als würde sich Donald Trump über den Abbau der Demokratie in den Vereinigten Staaten durch Donald Trump beschweren.
00:23:45: Das ist tatsächlich so, dass diese klassische Authentizität, die nicht in Zimierung durch den Algorithmus sehr, sehr stark herunter geregelt wurde unter anderem, weil das natürlich so eine Werbeoberfläche irgendwie entgegen kommt.
00:23:59: Klar.
00:24:00: Und ich finde, das ist eben, wie du schon sagst, das halt sehr schizofrehen, wenn man mal überlegt, dass das... die Meinungsmacher sind.
00:24:07: Die tun immer so harmlos, als seien sie irgendwie eine Plattform und sie würden nur dem Dienste der User stehen.
00:24:13: Aber am Ende ist es so, dass sie das koordieren.
00:24:15: Die sind diejenigen, die quasi Trends setzen.
00:24:18: Die sind diejenigen, die entscheiden, was die dreizehnjährigen Mädchen gerne sehen wollen.
00:24:22: Und das Gefährliche daran ist, dass, wenn du überlegst, wie hart die Meinungsmacher sind, das heißt, die werden in Zukunft, werden wir nur noch das sehen, was wir sehen wollen.
00:24:31: Und die KI kann sehr genau verstehen, was wir wollen.
00:24:35: viel, viel besser als die Algorithmen bisher waren.
00:24:38: Das Umsatzwachstum bei Instagram war stagnieren.
00:24:42: So, dann hat Meta angefangen, die Empfehlungsalgorithmen mit der aktuellen KI zu veredeln, wenn man so möchte.
00:24:50: Und plötzlich fing deren Umsatz wieder an zu wachsen.
00:24:53: wie Wahnsinnig.
00:24:54: So, das heißt zufällig, ja, mit dem erscheint von ChatGPT.
00:24:58: Wurden sie wieder sehr erfolgreich.
00:25:00: Und natürlich haben die nicht ChatGPT genutzt, aber diese Transformer-Architektur, die hinter ChatGPT steckt, die haben sie ebenfalls angefangen zu nutzen.
00:25:10: Genau.
00:25:11: Ich finde es so verantwortungslos, dass sie es komplett zurückweisen und von sich ablenken und sagen, dass es komplett an den Users hängen würde.
00:25:18: Und sie ziehen sich halt komplett aus der Verantwortung raus, die sie für all das, es ist alles deren Verantwortung.
00:25:25: Die haben all das geschaffen.
00:25:26: Komplett.
00:25:27: Das ist spätestens mit Trump ein sehr beliebter Trick in der Öffentlichkeit.
00:25:32: Eigentlich schon vorher, wenn man ehrlich ist, dass Leute, die in der Öffentlichkeit stehen, irgendjemanden für das verantwortlich machen, was eigentlich sie mit vorangetrieben haben.
00:25:41: Ja, das ist eine lustige Art, auch eine Debatte voranzutreiben.
00:25:46: In diesem Fall geht Mussiri aber sogar noch weiter.
00:25:49: Wir kommen jetzt so ein bisschen an den Kern, wie soziale Medien mit Deepfakes umgehen sollten, laut Max Zuckerberg.
00:25:56: Und deswegen kann man fast deckungsreich behaupten, laut Trump.
00:26:00: Ben Mussiri schreibt.
00:26:02: Wir müssen die besten kreativen Werkzeuge bauen, KI-generierte Inhalte, Kennzeichen und authentische Inhalte verifizieren, Glaubwürdigkeitssignale darüber sichtbar machen, wer etwas postet und das Ranking für Originalität weiter verbessern.
00:26:15: In einer Welt unendlicher Fülle und endlichen Zweifels werden die Creators herausragen, denen es gelingt, Vertrauen aufrecht zu erhalten und Authentizität zu signalisieren, indem sie echt, transparent und konsistent sind.
00:26:27: Kennzeichnung ist nur ein Teil der Lösung.
00:26:29: Wir müssen deutlich mehr Kontext über die Accounts sichtbar machen, die Inhalte teilen, damit Menschen informierte Entscheidungen treffen können, wer steckt hinter diesem Account.
00:26:38: Hört sich auf den ersten Blick, verunglückte Metapher, aber hört sich zunächst total plausibel an.
00:26:43: Bis man merkt, nicht nur, dass er an keiner Stelle von Verantwortung oder Faktentreue oder irgendwie auch nur Wahrhaftigkeit spricht, sondern... Er sagt etwas, was der Trump-Fraktion extrem entgegenkommt.
00:26:59: Wir lassen uns gar nicht ein, darauf zu schauen, was ist wirklich da, sondern wir benutzen Glaubwürdigkeitssignale, Zitat.
00:27:07: Wer steckt hinter diesem Account?
00:27:09: Die Übersetzung davon ist, naja, das stammt vom Präsidenten der USA.
00:27:13: Also können wir es ja bedenkenlos weiter transportieren, egal was der Inhalt eigentlich symbolisiert und sagt.
00:27:20: Es ist nämlich die Abgabe der Verantwortung sozialer Medien über das, was verbreitet wird, immer mit der Ausrede, naja, das kommt vom Präsidenten der Vereinigten Staaten oder Organ X oder Organ Y.
00:27:32: Klar.
00:27:32: Und da, das ist wieder die alte Frage, wie du diese Plattform oder Social Media Plattform einordnest.
00:27:38: Also entweder als Plattform, ja, also das sind nur die Technologie.
00:27:42: quasi zur Verfügung stellen für Nutzer, um deren Content zu verbreiten oder ziehst du sie zur Verantwortung, indem du sie als Medienplattform klassifizierst und dann eben für die Inhalte verantwortlich machst.
00:27:55: Und meines Erachtens ist es lange fällig, dass die die Plattform eben für ihre Inhalte zur Verantwortung gezogen werden, denn wer soll es sonst sein?
00:28:04: Irgendwer muss ja dafür gerade stehen.
00:28:06: Ehrlich gesagt, warte ich schon seit jetzt Tagen darauf, dass Trump ein Deepfake von den jüngsten Ereignissen in Minnesota produziert.
00:28:15: Das würde nochmal die Wahrheit komplett relativieren.
00:28:18: Also, der Ice-Agent Jonathan Ross hat ja sein eigenes Handy-Video veröffentlicht, was ich auch schwierig finde.
00:28:25: Das heißt, er hatte keine Bodycam, sondern hat auf seinem privaten Handy, während er jemanden ermordet hat, hat er das gefilmt.
00:28:32: Und allein, dass er das veröffentlicht hat, fand ich schon auch erstaunlich, ehrlich gesagt.
00:28:36: Aber es ist noch nur eine Frage der Zeit, dass jemand das modifiziert und davon ein Deepfake erstellt und zu einem ganz anderen Ende kommt.
00:28:44: Neunzig Prozent der Bevölkerung werden das durchschauen und werden sagen, wir haben schon das Richtige gesehen.
00:28:49: Es war anders und so weiter.
00:28:50: Aber erseht natürlich Zweifel.
00:28:53: Und mit Deepfakes, mit so kleinen Video Snippets kannst du einfach Zweifel sehen.
00:28:58: Immer, wenn du es je häufiger du es machst, desto mehr verunsicherst du die Menschen und desto mehr Menschen erreichst du vielleicht auch mit diesen Zweifeln und desto mehr relativierst du die Wahrheit.
00:29:09: Und ich glaube, das ist tatsächlich auch die größte Gefahr daran, dass es eben, es wird nicht einen plötzlichen Umschwung geben, dass das Menschen komplett das Vertrauen geben, aber Schritt für Schritt und diese kleinen Schritte sind letztlich das Gefährliche.
00:29:21: Wir müssen am Ende aufpassen, dass das in Europa eben nicht passiert und in irgendeiner Form dagegen halten.
00:29:28: Und das ist eben, wie gesagt, das Thema der Souveränität und dass wir versuchen auf, wir müssen irgendetwas tun.
00:29:34: Und ich glaube, es ist immer, das zu regulieren, es ist immer noch besser als nichts und besser eben als die Extreme in den USA.
00:29:41: Gleichzeitig
00:29:41: glaube ich, dass es aber auch eine gesellschaftliche Reaktion braucht.
00:29:45: Da sagt Moseri etwas ziemlich Kluges und mit diesem ziemlich klugen Unternehmen vor allem eine Art verzögertes Selbstelob.
00:29:51: Er spricht nämlich etwas an, was ich im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im.
00:30:07: und habe versucht darzustellen, dass wir irgendwann so viele Fälschungen haben werden, da ist ein Kapitel über Deepfakes mit dabei, dass wir so viele Fälschungen haben werden, dass wir eine Art Misstrauen als Default-Modus einbauen müssen.
00:30:19: Wir können dem auch was Positives abgewinnen, das wäre eine Art Maschinenvertrauen, dass man ahnt und weiß nach welchen Kriterien Maschinen sowas nicht nur bauen können, sondern auch weiterverbreiten.
00:30:29: Aber Mistraum als Default-Modus, das hatte ich damals als Gedanken aufgebracht.
00:30:34: Das ist jetzt auch nicht etwas, was ich mir ganz originell, ganz alleine ausgedacht habe.
00:30:37: Das gibt es in vielen Facetten.
00:30:38: Mosiri sagt dazu, Zitat, wir werden uns davon wegbewegen, standardmäßig anzunehmen, dass das, was wir sehen, real ist und stattdessen mit Skepsis beginnen.
00:30:47: Darauf achten, wer etwas teilt und warum.
00:30:50: Das wird unbequem sein, weil wir da genetisch darauf programmiert sind, unseren Augen zu glauben.
00:30:54: Fast mein ganzes Leben lang konnte ich davon ausgehen, dass Fotos oder Videos im Großen und Ganzen zutreffende Abbilder realer Momente waren.
00:31:01: Das ist offensichtlich nicht mehr der Fall und es wird Jahre dauern, bis wir uns daran angepasst haben.
00:31:06: An diesem Punkt müssen wir unseren Fokus verlagern, weg von dem, was gesagt wird, hin zur Frage, wer etwas sagt.
00:31:13: Das ist genau dieser Schlussakord, mit dem Musseri sagt, Leute, wir müssen Misstrauen gegenüber sozialen Medien in Zeiten von Deepfakes als Default-Modus annehmen.
00:31:22: Das heißt, alle sind.
00:31:24: Zuerst sehen, das könnte auch gefälscht sein, wofür wir dann selbst versuchen rauszufinden, ob es nicht doch wahr ist.
00:31:31: Und das, glaube ich, ist nicht nur ein paar Jahre, die es dauert.
00:31:35: Ich glaube, das wird nie vollkommen und ganz gelingen.
00:31:40: Ich glaube, dazu ist der Mensch zu sehr jemand, der manchmal auch einfach glauben möchte.
00:31:45: Wir sehen das ja im Schreiben.
00:31:47: Beim Schreiben hätte man ja auch denken müssen, über Jahre.
00:31:51: Seit immer kann man irgendwas ins Internet schreiben.
00:31:53: Ich kann auf Facebook, auf Instagram, überall in sozialen Medien erst mal, bis dann irgendwann gelöscht wird, erst mal irgendwas schreiben.
00:31:59: Ich kann behaupten, dass Goldfische die besten Flieger im ganzen Tierreich sein.
00:32:04: Wird es gelöscht?
00:32:04: Nein.
00:32:05: Alle wissen, dass ich alles schreiben kann.
00:32:07: Und trotzdem finden sich Leute, die glauben, dass mit der Impfung Bill Gates natürlich irgendwelche Mikrochips in unser Immunsystem implantieren lässt.
00:32:17: Will sagen, ich glaube nicht, dass diese Auch wenn ich selber hoffe, dass das einst der Instrument ist, wie Mosseri.
00:32:25: Ich glaube nicht, dass diese Umkehr misstrauen, so als Skepsis, so als Default-Modus, dass das flächendeckend vorhanden sein wird.
00:32:35: Ja, vor allem nicht in der breiten Bevölkerung.
00:32:38: Ich denke auch, dass es menschliche Gehirn erstmal dafür programmiert ist, Dinge zu glauben.
00:32:44: Gerade wenn wir uns Fotos angucken von Menschen, dann findet das ja die Einordnung des Menschen und das Bewerten des Gesichtes.
00:32:53: Ganz, ganz schnell statt, weil das Dinge sind, die wir evolutionär sehr schnell beurteilen mussten, ob jemand Freund oder Feind ist, ob jemand einem gut gesonnen ist, ob wir auch immer, ja.
00:33:03: Und das kann man dann, diese Reaktion, die kann man gar nicht so schnell überschreiben mit einer gewissen Skepsis.
00:33:10: Ich hab vier Jahre lang Deepfakes gebaut für meine alte Firma.
00:33:14: Und selbst ich hab einem Insta-Account gefolgt von einem Papagei.
00:33:19: Und ich dachte, ich hab es nicht gecheckt, dass es fake war.
00:33:23: Und ich hab nicht gesehen, dass es AI generiert war, bis ich auf einmal so eine Hand mit sechs Fingern wie noch ... ... und hab dann gedacht so, um Gottes Willen, das war das erste Mal, dass ich wirklich darauf eingefallen bin.
00:33:36: Also diese Verantwortung, die er erneut ablehnt, die muss er eigentlich tragen, weil das wird nicht möglich sein, das über die einzelnen Accounts zu verifizieren, sondern der Content an sich.
00:33:49: Der muss in irgendeiner Form deklariert werden und überprüft werden.
00:33:53: Ja, um
00:33:54: das abzuschließen und überzuleiten zu unserem zweiten großen Themenblock, um das abzuschließen, ganz zum Schluss auf der letzten Kachel von Mosiri steht, Zitat.
00:34:05: Instagram wird sich auf mehrere Arten weiterentwickeln müssen und zwar schnell.
00:34:10: Hier würde ich sagen, bin ich genau der gleichen Meinung.
00:34:13: Ich glaube nur, dass ich sehr andere Vorstellungen davon habe, in welche Richtung man sich weiterentwickelt.
00:34:18: Vielleicht auch gar nicht sehr andere, aber doch in vielen auch durchaus entscheidenden Details unterscheiden.
00:34:23: Ich würde immer sagen, es gibt einen Benefit auf der Haut auch in diesen Bereichen.
00:34:28: Wir müssen uns genau anschauen, was passiert wie.
00:34:30: Noch ist es nicht so, dass Trump kritische Inhalte zensiert werden.
00:34:34: von der amerikanischen Plattform.
00:34:36: Das ist nicht so.
00:34:37: Wir haben ganz offensichtlich da entweder keinen Hebel bisher oder, das kann ja auch sein, man widersetzt sich intern den wahrscheinlich durchaus geäußerten Wünschen der Trump-Regierung.
00:34:49: In einzelnen Bereichen ist das schon durchgedrungen, aber in der Fläche ist das bis jetzt nicht so.
00:34:55: Gleichzeitig sehen wir, diese Ankündigung von Mosseri bedeutet, in den nächsten Monaten sind wir dabei, wie Instagram versucht sich weiterzuentwickeln, schnell weiterzuentwickeln und ganz viele Sachen ausprobiert.
00:35:04: Mal schaut, wie funktioniert es denn mit Deepfakes und Instagram?
00:35:07: Wie funktioniert es denn mit Deepfakes und sozialen Medien insgesamt?
00:35:10: Und dieses Ausprobieren, das hat in der Größenordnung bei der Scale der Macht von Instagram, von sozialen Medien im Hause Facebook und Meta, hat das massive Auswirkungen.
00:35:24: Würdet ihr einem Kochvertrauen, der seine eigene Suppe nicht anrührt?
00:35:28: Wohl kaum.
00:35:30: Hinter dieser einfachen Frage steckt eine eiserne Strategie, das Customer Zero-Prinzip.
00:35:35: Die Regel lautet, verkaufe nichts, was du nicht selbst nutzen würdest, und zwar nicht in einem sterilen Labor, sondern in der rauen Realität.
00:35:45: Genau danach handeln wir bei Schwarz-Digits.
00:35:47: Bevor eines unserer digitalen Produkte an den Markt geht, muss es den kritischsten Kunden überzeugen.
00:35:53: Die anderen Unternehmen der Schwarzgruppe.
00:35:56: Und wir reden hier nicht von einem kleinen Testlauf.
00:35:58: Wir reden von einem Ökosystem mit über eine halben Million Mitarbeitern und über vierzehntausend Filialen weltweit.
00:36:06: Hier werden täglich logistische Meisterleistungen vollbracht.
00:36:10: Systemausfälle oder fehlende Daten sind keine Option.
00:36:14: Es gibt wohl keinen anspruchsvolleren Härte-Test als die eigene Infrastruktur.
00:36:19: Deshalb ist es ein echtes Qualitätsversprechen, wenn die größte Handelsgruppe Europas auf die souveräne Cloud Stack-It setzt, um die volle Kontrolle über unsere Daten zu behalten.
00:36:29: Oder wenn die Sicherheitslösung XM Cyber die eigene IT rund um die Uhr überwacht, um Schwachstellen zu finden, bevor sie zum Problem werden.
00:36:37: Der digital souveräne Arbeitsplatz ist bei Schwarz-Didgets längst kein Konzept mehr, sondern gelebter Alltag.
00:36:44: Die Botschaft an Wirtschaft, Verwaltung und Politik ist klar.
00:36:48: Wenn eine der größten Handelsgruppen Europas diesen Lösungen ihre Existenz anvertraut, dann funktioniert digitale Souveränität wirklich.
00:36:57: Sie ist machbar.
00:36:58: Jeden Tag.
00:36:59: Einen Überblick über das Portfolio und was digitale Souveränität konkret bedeutet, findet ihr auf schwarz-digits.de.
00:37:09: Wir werden also in den nächsten Monaten dabei sein, dass Instagram ausprobiert.
00:37:13: Wie sieht denn eine Trump geprägte Zukunft von Deepfakes mit sozialen Medien aus.
00:37:18: Wir sind live dabei auf Instagram.
00:37:21: Was passiert, wenn Trump die Primaries nicht gewinnt und er im Peach wird?
00:37:26: Davon geht er ja schon fast aus.
00:37:27: Also, wenn das nicht gewinnt, er im Peach wird.
00:37:30: Aber was glaubst du, wie eine demokratische Regierung, sagen wir mal rein hypothetisch unter Gavin Newsom, wie würde das aussehen?
00:37:36: Meinst du, wie würde sich Instagram dann verhalten?
00:37:39: Glaubst du, es gäbe kasse Veränderungen an der Stelle?
00:37:42: Oder glaubst du, es bleibt ähnlich?
00:37:44: Aus meiner Sicht ist Mark Zuckerberg schon ein genialer Mann, ein genialer Strategie.
00:37:51: Man kann, wenn man die positivste Deutung für ihn wählen würde, auch immer sagen, er schützt ein Unternehmen, das nicht nur ihm gehört, sondern sehr vielen anderen Leuten A, auch gehört und B, das Leben von sehr vielen anderen Menschen beeinflusst, sei es, weil die das als Creators benutzen, sei es, weil sie zum Beispiel dort eine Vielzahl ihrer sozialen Beziehungen pflegen.
00:38:11: Das heißt, Das Worst Case-Szenario aus seiner Sicht wäre, dass sowas passiert mit Tiktok.
00:38:16: Tiktok ist jetzt unter der Fuchtel der Trump-Regierung, der verlängert halt die Genehmigung immer weiter, der kümmert sich gar nicht um irgendwelche juristischen Supreme Court Urteile.
00:38:25: Im Gegenteil, der hat sogar in den Vorstand von der Firma, die jetzt Tiktok kontrolliert in den Vereinigten Staaten, direkt einen Regierungsabgeordneten entsandt.
00:38:33: Er will sagen, das wäre das KS-Szenario für Mark Zuckerberg und es wäre auch das erste KS-Szenario mutmaßlich für die restliche Öffentlichkeit.
00:38:41: Ich halte es zumindest noch immer für möglich, dass Mark Zuckerberg so weit versucht zu gehen, dass es aussieht, als würde Trump gefallen, dass er tatsächlich aber so ein bisschen eine Schutzagenda für eine Öffentlichkeitsinfrastruktur demokratischer Bauart in den Vereinigten Staaten aufrechterhält.
00:38:58: Und das möchte ich zumindest mit diskutieren.
00:39:00: Ohne, dass ich jetzt sage, Max Hackerberg ist die goldene Person, die ich schon immer zugejubelt habe.
00:39:05: Aber ich finde auch hier und auch immer noch kann man anhand der Faktenlage differenziert urteilen.
00:39:12: Ja, könnte sein.
00:39:13: Also du meinst, er handelt primär als im Sinne des Shareholders.
00:39:18: Also passt er quasi.
00:39:19: Und der Öffentlichkeit.
00:39:20: Ja.
00:39:21: Und der Öffentlichkeit kann auch sein.
00:39:24: Ich meine, es war ja schon erstaunlich, wie schnell er quasi seine politische Agenda gewandelt hat und wie hart der Wandel auch in der Moderation des Contents war.
00:39:35: Ich meine, du erinnerst dich von einem, ich weiß nicht, halben bis dreiviertel Jahr wurde ja die Contentmoderation
00:39:40: abgeschafft
00:39:41: und stattdessen durch KI ersetzt und durch viel weniger die Contentmoderatoren, die vorher da waren.
00:39:48: Und die Regeln auf der Plattform wurden stark verändert und Hate Speech wurde zugelassen an vielen Stellen.
00:39:56: Lass uns jetzt mal zum großen Thema Deepfakes und Status wo kommen.
00:40:01: Denn rausgepickt den einzelnen Punkt, es stimmt ja technisch, was Moseri gesagt hat.
00:40:06: Wir sehen im Moment einen Zwischenstand, aber jetzt schon im Zwischenstand erkennt man, dass im Teilbereich ein Deepfakes kurz vor der Perfektion sind.
00:40:14: Bei bestimmten Fotos erkennt man das schon heute nicht mehr.
00:40:16: Wenn man das richtig promptet, ist das ein echtes Foto oder nicht.
00:40:20: Bei Filmen ist es noch ein bisschen anders, aber es ist erkennbar auch durch diesen Qualitätszuwachs.
00:40:25: Du hast ja eine tiefe Expertise, du hattest eine Firma, die genau das getan hat.
00:40:28: Durch den Qualitätszuwachs ist klar, wir reden hier von sechs, acht, zwölf, vielleicht fünfzehn oder achtzehn Monaten, aber dann ist auch hier in bestimmten Bereichen der KI-Drops gelutscht und Videos werden nicht mehr zu unterscheiden.
00:40:40: Der Punkt, den ich gerne rausziehen möchte, ist der Punkt Echtzeit Face Swapping bzw.
00:40:46: Face Swapping, manche in real time und manche nicht, weil da aus meiner Sicht der größte Qualitätsspunkt stattgefunden hat.
00:40:52: Ich will sagen, ich gucke in die Kamera und eine KI übersetzt meine Mimik und meine G-Stick in Echtzeit in das Gesicht einer anderen Person.
00:41:01: Ich brauche nur noch ein paar Fotos von ihr und dann kann ich mit dem Gesicht von egal wem sprechen.
00:41:08: Da gibt es eine ganze Reihe von Tools, Reface zum Beispiel ist eins, das ist, wenn man nur mal so ein bisschen Spaß haben will, kann man sich an und kann sofort auch ein paar Prominente damit reinnehmen.
00:41:17: Die haben zwar auch ein Blocker, das geht nicht mit allen Menschen.
00:41:20: Die haben auch so ein Politblocker, muss man dazu sagen.
00:41:22: Du kannst also nicht genau das sagen, was Trump sagt.
00:41:25: Aber wenn du dir so ein paar Promis raussuchen möchtest, dann ist das kein größeres Problem.
00:41:29: Es gibt so Face Magic, das wird auf TikTok häufig verwendet.
00:41:32: Es gibt dann aber auch ein paar Sachen, die in Real-Time sind.
00:41:35: Wo ich also theoretisch, wenn ich ein bisschen weiß, wie das geht, sogar ein Videocall mit einem anderen Gesicht machen könnte.
00:41:42: Da ist ein SDK, also so ein Developer-Kit mit dabei, Banuba heißt das.
00:41:47: Das ist für Entwickler, die so eine Art Real-Time-Instrument haben wollen.
00:41:52: Interessanterweise kann man das kombinieren.
00:41:55: mit facebook.dev.
00:41:57: Auch das ist für Software-EntwicklerInnen eine Open-Source-Variante.
00:42:01: Was bedeutet?
00:42:02: Im Zweifel, wenn du weißt, wie es geht, hast du damit gar keine Beschränkung mehr und kannst mit ganz vielen KI-Modellen versuchen, rauszufinden, was passiert denn mit diesem oder jenem Modell, was ist denn das Beste für meinen Anspruch?
00:42:13: Und schließlich gibt es auch so eine Art Pro-Level-Plattform, das ist DeepFaceLab.
00:42:18: Das ist relativ komplex und kompliziert, hat aber mit die besten Ergebnisse.
00:42:22: Das alles sind Geschichten, wo du inzwischen ein Video machen kannst, wenn du es möchtest, zum Beispiel mit einem Gesicht von, sagen wir mal, Markus Lanz.
00:42:33: Und mit diesem Gesicht von Markus Lanz kannst du dann sagen, was du möchtest, es hat dann auch noch nicht zwingend seine Stimme.
00:42:38: Aber dann hast du ein Gesicht von Markus Lanz, der ganz natürlich fast echt aussiegend redet und zwar genau das, was du eben in die Kamera gesagt hast.
00:42:47: Sehr gut, dann würde ich dich fragen, ob du gerade in deiner Kiminate bist.
00:42:52: Ja an dieser stelle liebe grüße an unseren natürlich mit weitem abstand Lieblings.
00:42:57: zweit dritt podcast lans und prächt.
00:43:00: ich habe jetzt aber natürlich nicht zufällig das von lans gesagt.
00:43:03: nicht nur dass ich markus gerne mag und häufig in seiner sendung bin sondern in einer der letzten sendung.
00:43:08: Zwei tausend von zwanzig habe ich auch ein video gemacht bzw.
00:43:12: für diese sendung mitgebracht.
00:43:13: das ist dann glaube ich am ende rausgefallen aber ein video.
00:43:17: wo ich versucht habe, da zu stellen, was heute eben in diesem Bereich möglich ist.
00:43:21: Lip Sync und Face Swapping zum Beispiel.
00:43:24: Das ist ein bisschen unterschiedlich.
00:43:24: Der Effekt ist am Ende relativ ähnlich.
00:43:27: Lip Sync bedeutet, dass man ein Foto hat und dann Video draus macht, unter das dann eine bestimmte Sprache, eine Audiospur gelegt werden kann.
00:43:35: Und das, was ich gleich vorspiele, was wir Das kann man an dieser Stelle sagen, in sozialen Medien auch zeigen und auch zeigen dürfen.
00:43:41: Ich habe es mit Markus Lanz persönlich abgeklärt.
00:43:44: Das habe ich unter einer bestimmten Maßgabe hergestellt, nämlich A, dass das ausschließlich kostenlose Plattform sein sollen, wo man sich B nur mit einer Mailadresse anmelden kann, wenn man sich überhaupt anmelden muss und was C innerhalb von zehn Minuten insofern von jeder Person im Netz zu machen wäre.
00:44:03: Was ich dann getan habe, ist ein bekanntes Foto von Markus Lanz zu nehmen.
00:44:07: Zuerst habe ich dieses Foto ein bisschen vergrößert, weil es mir zu klein schien.
00:44:10: Das habe ich mit Nano-Banana getan, also der Bild-Bearbeitungs-Software von Google.
00:44:16: Die Stimme habe ich mit Speechify geklaut.
00:44:19: Eleven Labs ist da zwar immer noch besser, aber Eleven Labs hat inzwischen eine Sperre für sehr viele Promis und eben auch für Markus Lanz, für die meisten Politikerinnen auch.
00:44:28: Bei Eleven Labs kann man die Stimme von Markus Lanz nicht klonen, anders bei Speechify in der Miniversion.
00:44:35: Da lädt man zehn Sekunden hoch von irgendeiner Stimme und kann ab sofort zack alles mit dieser Stimme generieren.
00:44:41: Das ist qualitativ noch nicht da, wo die Originalversion hinwirrt, aber man kriegt so einen Eindruck.
00:44:46: Und dann habe ich getestet, wie man dieses Foto animieren könnte mit Runway, Hey-Jan und Kling.ai.
00:44:53: Die können alle Lip-Syncing relativ gut, aber am Ende war Hey-Jan deswegen vorne, weil man dort dieses separat geklohnte Audio am einfachsten und am besten und am schnellsten hochladen konnte, sodass sich am Ende mit vier Kis kombiniert innerhalb von wirklich gestoppten zehn Minuten ein kurzes Video mit der Stimme von Markus Lanz und mit dem Video von Markus Lanz ergeben hat, was ich jetzt vorspiele und was ihr in sozialen Medien auch sehen könnt.
00:45:21: Heute hatte ich wirklich gar keine Lust auf irgendeine Talkshow, dann habe ich die Lederjacke hier angezogen und bin mit Friedrich Merz Mofa verangegangen.
00:45:28: Was man jetzt nur an der Stimme hört ist, das ist noch ein bisschen abgehackt, das ist noch nicht ganz rund.
00:45:33: Die deutsche Version von Hey-Jan könnte sich ja noch ein bisschen mühl geben.
00:45:36: Wenn man das zusammen mit dem Video sieht und wenn man das in dem Kontext sieht, das in der Sendung auch Deepfakes von Friedrich Merz gezeigt wurden, dann erahnt man, jetzt ist es auf den ersten Blick noch doch, wenn man sachkundig ist, einigermaßen zu erkennen.
00:45:50: Aber bald sind wir auch kostenlos, auch anonym, auch mit kontrollierten Plattformen dort, wo es halt gar nicht mehr zu unterscheiden ist, Elisabeth.
00:45:59: Dazu muss ich sagen, also erstens, Hey Jen war meine größte Konkurrenz.
00:46:03: Hey Jen's großer Vorteil ist, dass die, also die sitzen in Kalifornien, aber deren Entwickler sitzen alle in China.
00:46:11: Und wir haben, wir europäischen Firmen, die Deepways gemacht haben, wir haben natürlich alle Hing an A der europäischen Regulatorik, aber hatten eben auch alle mehr oder weniger die gleichen Modelle, also die gleichen zugrunde liegenden Modelle, die wir dann selber verfeinert haben.
00:46:27: Wir haben zum Teil auch eigene Modelle gemacht und darauf trainiert, eigene Modelle gebaut.
00:46:32: Aber Hey Jen war... Also, die Lege Artis.
00:46:35: Die waren mit Abstand am schnellsten, die hatten eine ganze Flotte an chinesischen Entwicklern, die in China entwickelt haben, sitzen aber offiziell in Kalifornien so.
00:46:43: Was ich zum Beispiel sehe, ist, dass das größte Problem ist, ist natürlich auf der Cyber Security Seite oder auf der Betrugsseite mit diesen Deepfakes.
00:46:53: Und zum Beispiel hat man gerade im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November.
00:47:08: Hundertsechsunddreißig US Firmen Opfer wurden von Nordkoreanischen Entwicklern, die sich als Amerikaner ausgegeben haben, um dort dann Industrie-Spionage zu vollbringen.
00:47:12: Und man hat festgestellt, dass die sich all dies, also amerikanische Pässe beziehungsweise Identifikationskarten irgendwo entweder gestohlen haben oder oder kopiert haben und dann sich damit für Developer Jobs bei Firmen beworben haben.
00:47:28: Und in diesen Bewerbungsgesprächen saß du halt so ein typisch amerikanisch aussehenden Dude.
00:47:32: Das heißt, die haben irgendwie du auch irgendein Foto sich irgendwo genommen oder vielleicht ein kleines Videoclip und daraus ein Real-Time-Face-Hop gemacht.
00:47:41: Und das Ganze war so überzeugend, dass die wirklich in Scharen eingestellt wurden.
00:47:47: Und das Einzige, wie sie angefangen haben, die Kandidaten rauszuziehen, war, dass sie ihre Hand vor das Gesicht halten mussten.
00:47:55: Oder dass sie mit einer anderen Kamera sich filmen mussten, wie sie im Interview sind.
00:48:00: Das heißt, dass man, dass die haben, also, HR musste quasi Maßnahmen auffahren, die man normalerweise nur von der Polizei kennt.
00:48:08: Es ist ja nicht nur so diese... CEO-Überweisung, diesen Fall, den wir alle kennen, dass ein CEO in einem Zoom-Call darüber getäuscht wurde, dass irgendjemand, der in der Kante auf der anderen Seite sitzt und ihn bittet, etwas zu überweisen, das sind ja esodierte Fälle.
00:48:22: Ich glaube, es gab in Singapur so ein Fall, oder das war ein Anruf.
00:48:27: Das eigentlich Problem ist, sind die Homeoffice-Polices, dass die Firmen eben nicht mehr wissen, wer für sie arbeitet und in dem Kontext eben so viele Daten abfließen und so viele Geheimnisse abfließen, dass Riesenfälle geworden sind in den USA.
00:48:39: Lass uns mal, bevor wir zum großen Abschluss, die gesellschaftlichen, die politischen und auch die wirtschaftlichen Folgen beleuchten wollen, in der Diskussion, lass uns mal kurz einen Schlenker machen in Richtung eines Punkt, den Mosseri auch angesprochen hat, nämlich eher ins Positive.
00:48:56: Man sagt immer so Deepfakes und das ist irgendwie ab Werk, genauso wie AI-Slop ein negativer Begriff.
00:49:00: Aber gleichzeitig hast du ja damals eine Firma gegründet, die sich mit Deepfakes intensiv beschäftigt hat.
00:49:06: weil du Videoinhalte machen wolltest, die durch KI skalierbar werden, wo man da eben nicht mehr wahnsinnig viel Aufwand braucht, um plötzlich interessante und gute Videoinhalte zu machen.
00:49:17: Was wir erleben, dass wer meine These, die ich gerne mit dir besprechen möchte, ist es dieser Ansage, wir werden absoluten KI-Qualitäts-Content bekommen, dass die zuallererst im Marketing stattfinden wird.
00:49:30: Weil so KI-Content, so wie Coca Cola jetzt zu Weihnachten, wo die unsagbar unangenehme AI-Videos rausgeballert haben, das kann ja nicht die Zukunft sein, oder?
00:49:41: Nee, hast du auch das Porsche Video im Kontrast gesehen?
00:49:44: Porsche hat so ein Weihnachtsvideo gemacht, das gemalt wurde.
00:49:47: Also da haben tatsächlich noch Grafikdesigner gesessen und jeden einzelnen Frame gemalt.
00:49:51: Hast du es gesehen?
00:49:52: Das war sehr niedlich auf jeden Fall.
00:49:53: Nee,
00:49:53: das ist an mir vorbeigegangen.
00:49:55: Das war die Alternative zur Coca-Cola Werbung und es gab ja noch ein paar andere, die sich dafür rechtfertigen mussten, dass sie KI verwendet haben, was ich ehrlich gesagt nicht verstehe, weil am Ende ist Werbung auch nicht das Nonplus Ultra.
00:50:07: Aber... Klar, also wir haben damals Video fürs Marketing gemacht, oder auch für ein E-Commerce gemacht, weil die Hauptindustrie ist, die bewegtes Bild braucht.
00:50:19: Und warum?
00:50:19: Ja, weil mit einem bewegten Bild steigt sofort die Conversion.
00:50:24: Also das heißt, du kaufst viel eher, wenn du ein Video siehst.
00:50:27: Und es ist schon fast egal, wie das Video aussieht.
00:50:30: Also es muss noch nicht mal informativ sein, es muss noch nicht mal mehr Produkt enthalte oder irgendwelche Details.
00:50:36: drin haben, sondern es geht einfach nur darum, dass es ein bewegtes Bild ist.
00:50:40: Menschen gucken einfach auf sich bewegende Menschen so.
00:50:43: Und was wir gemacht haben, waren, dass wir Schauspieler beziehungsweise Models abgefilmt haben, genauso wie Hagen und daraus dann Avatar gemacht haben, Charaktere, die dann automatisiert die Produkte beworben haben.
00:50:55: Das waren sich sehr erfolgreich, bis wir, wie gesagt, als Deepfake eingestuft wurden.
00:51:00: Ich stimme mit ihm überein, wird das wird die Innovation sozusagen für Deepfakes und auch die Entwicklung, wird sicherlich aus Marketing und aus dem Commerce kommen, weil die ebenjenigen sind, die das dringend brauchen und die es auch an Scale brauchen.
00:51:13: An dieser Stelle hilft auch eine Rückbesinnung auf Mai, twenty-fünfundzwanzig.
00:51:17: Da hat nämlich Mark Zuckerberg angekündigt, dass AI Videos kreative Agenturen weltweit überflüssig machen werden.
00:51:27: Er hat einfach wirklich gesagt, Werbergentun brauchen wir bald nicht mehr.
00:51:30: Und was er gemeint hat, ist, dass Instagram zu einer Maschine wird, die auf Knopfdruck die richtigen und besten Videos für jedes einzelne Produkt anbieten und selbst herstellen kann.
00:51:40: Und das Krasse daran ist, dass jetzt erkennbar ist, auch mit dieser Aussage von Mousserie.
00:51:44: Wir probieren das jetzt einfach mal aus und es gibt da auch gute KI-Contents und Deepfakes.
00:51:49: Jetzt kann man sehr gut sehen, in welche Richtung das geht.
00:51:52: Das heißt nämlich, dass in Zukunft man sein Produkt irgendwo hoch lädt oder nur ein Link zu einer Werbeseite von einem selber generiert wird.
00:51:58: und dann schlägt Instagram vor.
00:52:00: Schau mal, das wäre ein Video, das würden wir jetzt mal testen, in hunderttausend verschiedenen Varianten bei Minifokusgruppen.
00:52:07: Und dann finden wir sehr schnell raus, welches Video führt zu den meisten Käufen.
00:52:11: Und hier hat Instagram ja auch den größten Vorteil darin, dass es immer sagen kann, ach, schau mal.
00:52:17: Welche Kampagne in den letzten anderthalb Jahren hat denn für diese Produktkategorie bei dieser Zielgruppe am besten funktioniert?
00:52:23: Also bauen wir das relativ ähnlich auf.
00:52:26: Und plötzlich haben wir eine AI Deep Fake Werbe Content Maschine, die optimiert darauf ist, dem Publikum, und das weiß auch genau welches Publikum, genau das Video zu zeigen, welches am besten konvertiert.
00:52:40: Das heißt, als Hersteller, als Anbieter, als Händler, gibst du einfach nur noch deine Kreditkarte ab, machst einen Link auf deine Seite und schon werden dir automatisiert Videolites auf die Seite geschaufelt, von denen die am meisten und am ehesten und am wahrscheinlichsten dein Produkt kaufen werden.
00:52:58: Und genau das war die Ankündigung, das alles zu automatisieren.
00:53:00: Und ich glaube, diese Kacheln von Mosseri heißen eben auch, dass genau das in den nächsten Monaten ausprobiert wird.
00:53:08: Das ist auch sicherlich, wird der performanteste E-Commerce sein, den es gibt.
00:53:13: Weil dieses, was wir bei Temu und Shein sehen, dass die haben ja auch eine Art Social Commerce, also beziehungsweise die haben ja ähnliche Algorithmen letztlich wie die sozialen Medien und verkaufen darüber, dass sie sehr, sehr präzise, sehr gut Informationen übereinsammeln.
00:53:29: Also Shein und Temu weiß im Zweifel besser, was du möchtest als du selbst.
00:53:33: Das Gleiche wird natürlich irgendwann bei Instagram stattfinden.
00:53:37: Das heißt, die vertesten dann alles Mögliche an dir.
00:53:39: Und die können ja so, so, so präzise und gut voraussagen, was du möchtest, auch anhand, wie lange, wie viele Millisekunden du quasi auf dem jeweiligen Ad verweihest.
00:53:49: Also das menschliche Gehirn kann ab... ab so geringer Zeit Dinge wahrnehmen und das vertesten die alles sehr genau.
00:53:56: Die messen mit dem EEG bis auf die Millimilli Sekunde nach, ob das bei dir quasi angekommen ist und danach entscheiden sie.
00:54:02: Und ich will sagen, schlimmer geht es nicht, aber also mit den Informationen, die sie über dich haben und mit der Fähigkeit zu sehen, was bei dir ankommt und dann exakt das zu generieren und womöglich noch gegen zwei andere, zwei, drei andere Versionen zu AB testen.
00:54:16: irgendwann werden wir keine Chance mehr haben, uns diesem Content und auch diesen Kommerz zu entziehen.
00:54:21: Aus meiner Sicht gibt es den mündigen Nutzer, die mündige Nutzerin dann immer noch.
00:54:26: Und ich glaube, dass das natürlich gestärkt werden muss, auch wenn ich jetzt nicht glaube wie Mosseri, man sollte die gesamte Verantwortung an die Mündigkeit des Publikums auslagern.
00:54:34: Das passt ihm ökonomisch total rein.
00:54:36: Ich glaube, da brauchen wir noch eine gesellschaftliche Ebene dazwischen und regulatorisch natürlich auch.
00:54:40: Aber was du sagst, diese extreme Qualitätsrutsche vor der wir stehen, dass man sich irgendwann so einem manipulativen Charakter kaum mehr entziehen wird können oder nur noch schwer entziehen wird können.
00:54:54: Es reicht nicht, weil man ja auch nicht Vollzeit gegen den Strom schwimmen kann.
00:54:58: Das ist vielleicht ein idealer Auftakt zu unserer großen Schlussdebatte, wenn wir überlegen, diese neuen sozialen Medienplattformen, wenn die so kommen, wie das, was wir besprochen haben, wenn sich Er ist Instagram, irgendwie auch TikTok, dann Facebook, natürlich auch LinkedIn, irgendwann Snapchat, meinetwegen YouTube und so weiter und so fort, wenn die sich alle in diese Richtung entwickeln werden.
00:55:22: Was bedeutet das für die Gesellschaft?
00:55:24: Was bedeutet das für die Politik?
00:55:26: Wie könnte sie darauf reagieren?
00:55:27: Wie nicht?
00:55:28: Und vor allem, was bedeutet das am Ende für die digitale Souveränität aus der Perspektive, das auf diesen Plattformen Meinungsbildung stattfindet?
00:55:38: Dass diese Meinungsbildung gesteuert wird, einerseits von den Leitlinien von Donald Trump oder aus China und andererseits von Algorithmen, die auf Manipulationen gepohlt und immer besser mit die Fakes versorgt werden.
00:55:52: Ich finde, diese ganzen Fragen sind vor allen Dingen im Kontext von der KI am wichtigsten.
00:55:58: Also das heißt, welches Modell wird in dem Kontext die Oberhand behalten und... MetaLag im Mai bei einer Milliardemanzli Active User bei der MetaAI und liegt jetzt bei drei Komma fünf Milliarden Nutzer.
00:56:14: Das heißt, dass die Frage nach der Vorherrschaft der AI eigentlich noch die viel größere Frage ist.
00:56:20: Wenn Meta selber, wenn die die absolute Vorherrschaft haben im Hinblick auf Content, wer welchen Content sieht, wer welchen Content kauft, was man selber als Content quasi ausgespielt bekommt, wenn die zusätzlich noch die Vorherrschaft in der AI haben, die perspektivisch der beste Freund in der Hosentasche ist und jede Frage beantwortet und alles über dich weiß, von der Gesundheit bis zur Therapie, zu deinen Familienverhältnissen, zu deinen beruflichen Fragestellungen.
00:56:46: dann finde ich das sehr problematisch, weil dann für meinem Finden auf jeden Fall zu viel Macht auf ein Unternehmen konzentriert ist.
00:56:53: Hier sehen wir halt auch, warum digitale Souveränität, wenn man sie in einem Teilbereich aufgibt, warum das einen Rattenschwanz katastrophaler Folgen haben kann.
00:57:01: Was du gerade beschrieben hast über die AI von Meta, das ist eine Folge davon, dass wir im Bereich Social Media nicht mehr digital souverän sind.
00:57:10: Wir haben irgendwann aufgegeben, selbst Social-Media-Plattformen aus Europa auch nur eine Erwägung zu ziehen.
00:57:17: Und plötzlich zeigt sich, KI braucht vor allem wahnsinnig viele Daten.
00:57:23: Und da kommen besonders sozial kategorisierte Daten infrage, weil die Menschen näher sind.
00:57:29: Und da kommen vor allem Inhalte von Menschen infrage.
00:57:32: Das bedeutet der Vorsprung von Meta, der ist auch deswegen so groß, weil sie einen unendlichen Fundus haben an Inhalten, die von Menschen für Menschen gemacht worden sind mit sozialen Medien.
00:57:44: Plötzlich merkt man, weil wir im Bereich Social Media nicht digital souverän sind, haben wir in Teilbereichen der KI, nämlich Generierung von KI-Inhalten von Menschen, plötzlich auch nicht mehr so große Chancen, weil Meta hier ein riesiges Reservoir hat und Google mit YouTube ebenfalls ein riesiges Reservoir hat, Amazon mit Twitch ebenfalls ein riesiges Reservoir hätte.
00:58:05: und all diese gigantischen Datenmengen können diese großen Plattformen anzapfen, weil wir in Europa keine Konkurrenz im Bereich Social Media haben.
00:58:13: Ähnliches wird irgendwann für Social Commerce gelten.
00:58:16: Ähnliches könnte gelten in dem Moment, wo wir so eine Art Knowledge-Graph eben auch über soziale Fragen und über also inzwischen menschliche Fragen brauchen.
00:58:25: Auch hier sind soziale Medien sehr weit vorn und KI sehr gut darin, das auszulesen.
00:58:31: Heißt, wenn ich in einem Teilbereich digitale Souveränität aufgebe, dann kann das in ganz vielen anderen auch überraschenden Bereichen massive Folgen für meine digitale Freiheit haben, für meine digitale Souveränität.
00:58:43: Ja, und es ist nicht nur deine digitale Freiheit meines Erachtens, sondern es ist dann die grundsätzliche Freiheit.
00:58:48: Weil das Leben findet ja großteils digital statt, aber man kann das gar nicht mehr so differenzieren oder separieren meines Erachtens.
00:58:55: Laubst du, dass es im Laufe des Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres, im Jahres eine Meinung absichtlich propagandistisch hergestellt wird, die zunächst den Weltenlauf beeinflusst?
00:59:18: Möglicherweise hat es einfach auf die aktuellen politischen Bestrebungen in den USA.
00:59:24: Also die sind ja dabei, einige ihrer hegemonialen Interessen durchzuziehen.
00:59:29: Und ich glaube, um das zu tun, brauchen sie Zustimmung in der Bevölkerung.
00:59:34: Wenn Trump seine Mitterms nicht verlieren möchte, um dann möglicherweise im zweiten Schritt... Im Peach zu werden, muss er von der Bevölkerung Unterstützung bekommen.
00:59:44: Diese Meinungsmache wird mit Sicherheit, mit verschiedensten Mitteln versucht werden zu erreichen und da sind Deepfakes natürlich ein probates Mittel, um gewisse Stimmung zu erzielen.
00:59:55: Ich kann mir an ganz vielen Fällen vorstellen, bis hin zu den Mütterms, den Wahlen in den Vereinigten Staaten in diesem Jahr, die sehr entscheidend sind für die Mehrheitsverhältnisse in den beiden Kammern, der beiden Parlamenten der Vereinigten Staaten, kann ich mir vorstellen, dass KI Deepfakes und deren Verbreitung in den sozialen Medien eine sehr entscheidende Rolle für den Weltenlauf spielen werden.
01:00:14: Ja,
01:00:14: wahrscheinlich.
01:00:15: Also ich meine, die haben ja auch deren Pressesprecherin Caroline Lübert.
01:00:18: Wenn man sich anguckt, was nicht nur sie, was auch die offiziellen Accounts, also das der White House Account bei Twitter oder auch gerade Trump auf seinem eigenen sozialen Netzwerk Choose Social immer gepostet hat, da hat er ja schon lange sehr viele Deepfakes gepostet.
01:00:32: Und er postet das oder re-shared das immer, weil er es witzig findet anscheinend.
01:00:37: Es gab so ein Video, in dem Flieger irgendwie Gülle auf vermeintliche Woke-Demonstranten uns weitergeworfen hat.
01:00:43: Das hat er ja alle schon gemacht.
01:00:45: Ich glaube, die eigentliche Gefahr ist dieses Erweitern der oder das Dehnen der Wahrheit oder das Erweitern der Wahrheit.
01:00:52: Das heißt, wenn man wirkliche Videos nimmt und die um nur so kleine Sequenzen mit Deepfakes quasi erweitert, dass das das eigentliche Problem ist.
01:01:00: Wenn etwas so eindeutig ist oder schwarz-weiß ist, dann lässt sich das ja leicht irgendwie negieren.
01:01:05: Aber wenn etwas sein könnte.
01:01:07: Ich finde, das ist eben die Gefahr, weil man dann Menschen daran gewöhnt, dass das eben ein Teil der Wahrheit sein könnte.
01:01:15: Das ist übrigens, wenn man das mal rückbesind betrachtet, einer der wesentlichen Punkte, wie der KGB damals vorgegangen ist, was heute noch eine Relevanz hat, weil das natürlich über Putin ein ex-KGB-Agent bis in die russische Propaganda-Einfluss gefunden hat.
01:01:33: Ganz konkret geht es nicht nur darum oder nicht darum, Menschen zu überzeugen, dass die russische Variante der Realität wahr ist, bzw.
01:01:42: es ist ja keine Variante der Realität, sondern es sind in meisten Fällen oder in vielen Fällen einfach eine Lüge.
01:01:48: Aber es geht auch darum, Menschen zu verwirren.
01:01:50: Es geht auch darum, denen so ein Zweifel einzusehen.
01:01:54: Es könnte ja sein.
01:01:55: Und ein Zweifel in bestimmten Dingen ist für eine demokratische Öffentlichkeit immer irgendwie lähmend.
01:02:02: Der eine sagt so, der andere so.
01:02:04: Es kann ja beides irgendwie sein.
01:02:05: Also beschäftige ich mich damit nicht mehr.
01:02:07: Und also fange ich nicht an, da irgendwelche Konsequenzen draus zu ziehen.
01:02:10: Und diese Form von Verwirrung, die geht mit KI noch besser und noch präziser.
01:02:14: Propaganda wird auch, und natürlich aus russischer Seite, aus chinesischer Seite, eben so dramatisch zunehmen.
01:02:20: Tatsächlich glaube ich, dass wir hier, gerade wenn wir so Propaganda, soziale Medien und Deepfakes in diesem Jahr beobachten werden, von ganz vielen verschiedenen Seiten, dass wir hier eine Art Fanal für digitale Souveränität vor uns haben.
01:02:35: Eine direkte, sehr schmerzhafte, zum Glück aber hoffentlich noch nicht komplett destruktive Erfahrung, warum digitale Souveränität so wichtig ist.
01:02:46: Abteilung Social Media.
01:02:49: Ich glaube, wir sehen in diesem Jahr, dass dieses große Versäumnis, wir haben keine europäische Social Media Plattform von Rang, die weltweit erfolgreich ist, die überall rezipiert wird.
01:03:01: Ich glaube, dass wir das bitter und schmerzhaft, aber eben nicht lebensgefährlich in diesem Jahr sehen werden, nicht existenzbedrohend in diesem Jahr sehen werden.
01:03:10: Das ist für mich ein Fanal für digitale Souveränität.
01:03:14: Und trotzdem möchte ich ganz zum Abschluss.
01:03:16: dir eine Frage stellen und ich bitten, die auf keinen Fall mit nicht oder nein zu beantworten.
01:03:21: Nämlich, wie können wir es schaffen, trotz dieses Fanaals für digitale Souveränität und Deepfakes und Social Media und dem, was auf uns zukommt?
01:03:30: Wie können wir es schaffen, trotzdem optimistisch zu bleiben?
01:03:34: Also erstens in Hamburg sagt man, nee.
01:03:37: Also... Ich denke, dass die aktuellen Entwicklungen in den USA und die Entwicklungen in den sozialen Medien, gerade im Hinblick auf die Deepfakes, und es gehört ja alles unmittelbar zusammen, man kann diese Dinge ja eigentlich nicht voneinander trennen, dass selbst wenn sie jetzt als ziemlich gruselig erscheinen, so sind sie doch, glaube ich, für uns in Europa in einer Form heilsam, dass wir unsere Stimme wiederfinden, dass wir unsere Stärke wiederfinden und dass wir vor allen Dingen realisieren, wo was wichtig ist und dass wir gemeinsam stark sind.
01:04:08: Ich glaube, die aktuellen Entwicklungen schweißen uns zusammen.
01:04:11: Ich glaube, dass wir als Europa wieder anfangen, gemeinsame Sache zu machen und auch zum Beispiel, dass die UK sich wieder Europas besinnt.
01:04:20: Und ich denke, das ist ein so großartiger Wake-up Call für uns, unsere eigenen Technologien zu entwickeln.
01:04:26: Wir sehen schon die ersten Bundesländer, die souveräne Software-Lösung implementieren.
01:04:30: Und ich denke, das ist ein Schritt in die richtige Richtung und ich habe überhaupt nichts irgendwie gegen die USA.
01:04:36: Ich glaube, die haben sehr viel entwickelt und letztlich ist es auch historisch und kulturell einer unserer Ängsten verbündeten.
01:04:42: Ich denke, nur die aktuelle Regierung ist schwierig für Europa.
01:04:46: Das heißt, wenn wir im Zuge dessen unsere eigene Stimme wiederfinden, hat das etwas Gutes für sich.
01:04:51: Und das ist mein Optimismus.
01:04:53: Das heißt, ich glaube, dass für uns in Europa ist es gar nicht schlecht und wir können uns auf unser eigentlichen Stärken wieder besinnen.
01:04:58: Elizabeth,
01:04:59: ich teile nicht nur deinen Optimismus, sondern auch ganz explizit diese Begründung.
01:05:04: Tatsächlich würde ich sagen, natürlich tut das weh zu sehen, aber das liegt daran, dass es sich vielleicht nicht um Wake-up-Call, sondern wie man in Bayern vielleicht sagen würde, um eine Wake-up-Watsche handelt.
01:05:18: Eine heftige Ohrfeige, die wehtut, die auch wehtun soll, damit alle begreifen, wir müssen... sofort umfassend und tiefgreifend handeln.
01:05:28: Wir müssen unsere digitalen Fähigkeiten dramatisch ergänzen, erweitern, ausbauen, die digitale Infrastruktur, die Sachkunde insgesamt, die Instrumente, das, was Unternehmen benutzen, in allen Dimensionen versuchen, dort irgendwie so unabhängig wie irgend möglich zu werden.
01:05:44: Aber das sollte inzwischen auch die letzte Person dort draußen verstanden haben, genau durch diese Wake-up-Ratschen.
01:05:50: Vielen Dank für deine optimistische Einschätzung, Elisabeth.
01:05:52: Vielen Dank, dass du hier warst.
01:05:54: Vielen Dank auch ans Publikum fürs Zuhören.
01:05:56: Über alle Dinge, die wir hier gesprochen haben, können wir natürlich in den sozialen Medien, und zwar sowohl amerikanischer wie auch chinesischer Bauart, intensiv diskutieren, nämlich auf LinkedIn, nämlich auf Instagram und auf TikTok und zum Teil auch auf YouTube.
01:06:10: Überall dort wollen wir mit der Community ins Gespräch kommen von TechKI und Schmetterlinge und darüber reden, was wir tun können, was wir nicht tun können.
01:06:17: Dort könnt ihr auch alle die Inhalte, über die wir gesprochen haben.
01:06:20: euch direkt ansehen.
01:06:22: Vielen Dank fürs Zuhören und bis bald.
01:06:24: Bis bald, tschau tschau.
Neuer Kommentar