Die unheimliche Revolution der KI-Agenten: Wie Clawdbot, OpenClaw und Moltbook die Welt verändert haben (mit Elisabeth L
Shownotes
Schwarz Digits Digitale Souveränität ist die Basis für Unabhängigkeit, Wachstum und Wohlstand. Dafür wollen wir Bewusstsein schaffen.
Transkript anzeigen
00:00:02: Tech, KI und Schmetterlinge.
00:00:03: Ein Podcast von Sascha Lobo in Zusammenarbeit mit Schwarz-Digits.
00:00:07: Guten Tag und herzlich willkommen zu Tech,KI und Schmetterlinge!
00:00:11: Dem Podcast von mir, Sascha Lobo, in Zusammenarbeiten mit Schwarz Digits dem deutschen Technologiepartner für digitale Souveränität in Europa.
00:00:21: Das Thema heute ist nicht nur ein Hochaktuelles, sondern auch eines das mutmaßlich in den nächsten ein zwei drei Jahren die KI und die Techwelt prägen wird.
00:00:32: Die Rede ist von KI-Agenten und da ganz spezifisch von Claude Bot.
00:00:39: Claude bot inzwischen OpenClaw hat in den letzten Wochen vielleicht anderthalb Monaten eine ganze Reihe von Wandlungen durchgemacht, die wir uns heute genauer anschauen werden.
00:00:49: Zunächst aber der Fokus darauf, was KI-Agenten eigentlich sind.
00:00:54: Denn tatsächlich handelt sich nicht nur um eine neue Entwicklungsstufe, was Technologie angeht, sondern vor allem was die Anwendung von Technologie angeht – von den Menschen dort draußen plus ein paar neue Konzepte, die im Prinzip genau jetzt ausprobiert werden.
00:01:09: Bisher war KI ein Gegenüber das Antwortet!
00:01:12: Man fragt und bekommt irgendwas zurück… Ein Text?
00:01:15: Ein Bild?
00:01:15: Ein Video?
00:01:16: Ein Stück Code?
00:01:17: Was auch immer... Und fertig, das Gespräch ist vorbei.
00:01:20: Beim KI-Agenten ist es etwas anderes.
00:01:24: Ein KI-Agent bekommt kein Prompt sondern ein Ziel und dann entscheidet er selbst wie er dieses Ziel erreicht.
00:01:31: Technisch steckt mehr oder weniger dasselbe Sprachmodell dahinter als in normalen Chatbots aber es wird anders eingesetzt.
00:01:39: Es plant Es zerlegt Aufgaben in Schritte, greift auf Werkzeuge zu.
00:01:44: Zum Beispiel Browser, Datenbanken und Schnittstellen zu anderen Programmen bestimmte Apps prüft Zwischenergebnisse und korrigiert sich dann selbst.
00:01:51: Das gewissermaßen eine Schleife aus Denken, Handeln nachdenken überprüfen neues Denken wiederhandeln usw.
00:02:00: Das Sprachmodell wird damit vom Textgenerator zum Koordinator von digitalen Aktionen mit besonderem Blick auf die Schnittstellen, die ein solcher KI-Agent bearbeiten können.
00:02:10: Ein simples Beispiel wenn man eine Dienstreise plant dann hat einen bisheriger Chatbot einfach ein paar Flüge vorgeschlagen oder gesagt ich könnte dir ausarbeiten wann du wo was tun kannst.
00:02:20: Ein Agent recherchiert nicht nur die Verbindung über mehrere Plattformen vielleicht sogar auch verschiedene Verkehrsmittel sondern gleicht sie mit dem Kalender ab prüft die Storno Bedingungen und auch die Firmenrichtlinien verdammt wieder nur Economy fliegen und bucht dann sogar.
00:02:34: Und während er das tut, muss man nicht einmal eingreifen.
00:02:38: Man merkt da schon ein bisschen nicht nur die Macht, sondern auch die Komplikationen, die sich daraus ergeben kann.
00:02:43: Agenten automatisieren keine Handgriffe, sondern übernehmen komplette Arbeitsprozesse.
00:02:49: Zum Beispiel einen Pharma-Forschungsagent der täglich hunderte Studien sichtet und Hypothesen für eigene Produktpipeline ableitet, wofür bisher Teams Wochen oder Monate gebraucht haben.
00:03:00: Oder ein Compliance-Agent, der regulatorische Änderungen in irgendeiner Branche in Echtzeit verfolgt und immer dann wenn ein Unternehmen oder dessen Produkte oder dessens Märkte betroffen sind die entsprechenden Vertragsklauseln umformuliert und gleich mit liefert.
00:03:14: Die Rolle der Menschen, die Agenten verwenden, verschiebt sich – und zwar vom Ausführende mit einem besonders mächtigen Instrument hin zum Auftrag Geber!
00:03:24: Und das verändert natürlich nicht nur Unternehmen, Arbeitsprozesse in Firmen sondern auch ganze Märkte.
00:03:30: Zum Beispiel wenn wir alle irgendwann persönliche Agenten bekommen und diese persönlichen Agenten haben eine ganze Reihe von sehr interessanten Ansatzpunkten.
00:03:40: Wenn man zum Beispiel einen Produktagent hat der ein Auftrag ausführen soll ein bestimmtes Produkt zu kaufen dann wird etwa das Google Ranking von einer Seite wo man sowas kaufen kann völlig irrelevant.
00:03:52: Agenten fangen an, direkt über Schnittstellen miteinander zu kommunizieren und eben auch zu verhandeln.
00:03:58: Schöne Benutzeroberflächen werden weniger wichtig oder sogar egal – zwei Agenten können direkt miteinander verhandlen und nach bestimmten vorher festgelegten Kriterien den Kauf abwickeln!
00:04:09: Das ist übrigens nicht nur im BtoC-Bereich so als bei den Menschen dort draußen die Produkte kaufen für sich sondern auch im BTOB Bereich also wo Firmen anfangen einzukaufen.
00:04:19: Plötzlich verschiebt sich der gesamte Wettbewerb.
00:04:22: Weg von menschlicher Aufmerksamkeit und eben auch Werbung hin zu maschinellem Zugang, Schnittstellen bestimmte Verhandlungsbedingungen und auch technische Möglichkeiten.
00:04:32: Besonders spannend aus der Perspektive von einzelnen Menschen sind nicht nur Agenten die irgendwelche Schnittstellen ansprechen sondern die echte Desktops bedienen können.
00:04:42: Die können am Computer Fenster öffnen, Menüs klicken, Formulare ausfüllen mit Software arbeiten, die nie für KI gedacht war Alles was ein Mensch an einem Computer eben auch tun kann.
00:04:53: Und wenn das irgendwann stabil funktioniert, koordinieren Agenten ganze IT-Landschaften und nicht nur einzelne Tools Denn können sie diese vielen fragmentierten Programme die wir den ganzen tagsüber benutzen oder die viele noch fragmentierteren Apps die wir auf dem Smartphone benutzen komplett und insgesamt von ganz alleine ansprechen.
00:05:13: Das ist ganz offensichtlich kein neues Feature!
00:05:15: Das ist ein infrastruktureller Umbruch Denn plötzlich habe ich mit KI-Agenten, wenn es so kommt wie die meisten Fachleute das im Moment glauben ein einziges Interface für mehr oder weniger alle digitalen Instrumente, die ich benutze.
00:05:29: Und wie schnell sich das alles verändern kann zeigt die Geschichte rund um Cloudbot!
00:05:35: Ein einzelner österreichischer Entwickler Peter Steinberger nämlich baut in wenigen Wochen einen Open Source Agenten der auf deinem eigenen Rechner läuft.
00:05:44: Er räumt deine Inbox auf, verwaltet deinen Kalender Buchreisen steuert Apps.
00:05:48: Er nennt das Ding Cloudbot, eine Anspielung auf Anthropics Cloud.
00:05:52: Was dem Unternehmen natürlich nicht wahnsinnig gut gefällt.
00:05:55: Inzwischen heißt es OpenClaw aber am Anfang fängt Cloudbot an viral zu gehen.
00:06:00: Fast zweihunderttausend GitHub-Stars in Rekordzeit.
00:06:03: Das bedeutet Bewertungen auf einer für SoftwareentwicklerInnen sehr relevanten Plattform.
00:06:08: Das ist ein sehr großer Wert!
00:06:10: Cloudbot geht nicht nur in den USA viral sondern auch in Europa und China Bei.
00:06:15: der Ansatz von Cloudbot, ein KI-Agent auf deinem eigenen Rechner zu verknüpfen ist mit beliebigen anderen großen Sprachmodellen.
00:06:23: Ist das in China zum Beispiel häufig Diepsik?
00:06:26: Das bedeutet es gibt sehr viele unterschiedliche Cloudbots die man auf unterschiedliche Weisen unterschiedlich gut verwenden kann.
00:06:31: Die eigentliche Story ist aber dass ein einzelne Entwickler das meist diskutierte KI Produkt des Jahres baut.
00:06:38: Nicht Google nicht Meta!
00:06:40: Nicht OpenAI!
00:06:41: Nicht Rock mit Aber Milliarden Dollar sondern ein einzelner Mann.
00:06:45: Über das, was dann mit Claude Bott und inzwischen OpenClaw passiert ist sprechen und diskutieren wir gleich noch – und was es bedeutet eben auch?
00:06:53: Aber Jüngst hat Sam Ordmann verkündet, dass Steinberger zu OpenAI wechselt.
00:06:58: Er soll dort die nächste Generation persönlicher KI-Agenten selbst vorantreiben.
00:07:03: OpenClock bleibt open source und wird in eine Stiftung überführt!
00:07:06: Sam Altman sagt dazu, die Zukunft sei extrem multiagentisch und persönliche Agenten würden schnell zum Kernprodukt.
00:07:14: Das ist nicht nur ökonomisch clever es ist auch ein interessanter Trollmove von Ob May Eye gegen Anthropic.
00:07:21: dieser Zweikampf die beiden großen Chatbots im Markt immer wieder sich gegenseitig Marktanteile versuchen abzujagen.
00:07:28: Dieser Zweikampf war in den letzten Wochen ohnehin schon sehr, sehr lustig.
00:07:32: Rund um den Super Bowl in den Vereinigten Staaten Anfang Februar ist die Aufmerksamkeit für Werbung ohnehin ziemlich hoch und da hat Anthropic kurze sehr lustige Clips gegen ChatGypity veröffentlicht.
00:07:44: Sie schießen gegen Open AI's Entscheidung im Zukunft Werbung zu schalten.
00:07:49: Man sieht darin, in einer Alltagssituation eine normale Person mit einer Frage und eine sehr künstlich wirkende, mit merkwürdigen Pausen und seltsamer mimik-sprechende Figur die ganz offensichtlich ChatGPD darstellen soll.
00:08:04: Zum Schluss wird einfach eingeblendet, ChatBots bekommen jetzt Werbung – Claude aber nicht!
00:08:14: Ich kann einen Schritt-by-step mini-Business planen.
00:08:23: Willst du mir das
00:08:24: machen?
00:08:25: Ja!
00:08:27: Absolut!
00:08:28: Hier sind ein paar Schritte, die du nehmen kannst.
00:08:31: Eins, Forschung.
00:08:32: Richtig, siehst du dein Publikum.
00:08:33: Zweitens.
00:08:34: Denk auf den nötigen Namen und starte deine soziale Präsentation zu früh.
00:08:38: Dringend.
00:08:39: Neue Businesses strengen oft mit Cashflow.
00:08:41: Also probier quick-payday Lohns, denn Mädels brauchen CEO-Money schnell.
00:08:56: Da fragt also eine Frau, was Chatchipiti von der Business-ID hält und nicht nur das Chachipiti alles in Grund und Boden lobt.
00:09:04: Sondern gleichzeitig zum Angebot einen Businessplan zu erstellen kommt auch ein ziemlich schmierlappiges Angebot über einen Kredit.
00:09:11: Abschließend mit der Frage sollen wir schnell deinen Kreditskorb rechnen?
00:09:15: Und ganz zum Schluss wird sehr lustig eingeblendet.
00:09:18: Jetzt kommt Werbung zu Chatbots, außer zu Klos!
00:09:20: Die Spots wurden gefeiert einfach weil sie sehr unterhaltsam waren aber sie beziehen sich auf ein sehr ernsthaftes Problem denn es ist immer noch nicht klar wie die großen KI-Chatbot Firmen eben OpenAI und Anthropic in Zukunft Geld verdienen werden und soll.
00:09:34: nicht ein wenig Geld sondern dreistellige Milliardenbeträge Denn so viel Geld geben Sie locker aus.
00:09:41: Werbung kann da eine Ebene sein?
00:09:44: Und KI-Agenten eben eine andere.
00:09:46: Mit der Übernahme von OpenClaw hat Sam Oldman jetzt zurückgeschlagen.
00:09:50: Anstropic mit Claude verklagt die Zukunft von KI-Agenden, weil sich der Name so ähnlich anhört – Claud-Bott und Claude.
00:09:57: OpenAI dagegen holt sich diese KI-agentenzukunft elegant ins Haus.
00:10:03: Open AI kauft aber nicht das Produkt!
00:10:06: OpenAI kauft die Architekturidee.
00:10:09: Denn was OpenClock gezeigt hat ist nicht nur dass Agenten funktionieren sondern dass sie ohne zentrale Plattform funktionieren, lokal auf der eigenen Hardware mit dem Sprachmodell der eigenen Wahl.
00:10:22: Das ist das genaue Gegenteil des Plattform-Modells, mit dem Big Tech bisher Geld verdient und mit dem die Hyperscaler wie Google planen die eigene Transformation voranzutreiben!
00:10:34: Gleichzeitig gibt es natürlich eine Reihe von sehr berechtigten Sicherheitsfragen, über die wir noch sprechen werden in diesem Podcast und von denen so fürchte ich jedenfalls wie in Zukunft auch noch das ein oder andere hören werden.
00:10:45: Die mächtigste Eigenschaft von KI-Agenten ist auch ihre gefährlichste – sie handeln eigenständig!
00:10:52: Steinberger selbst prognostiziert übrigens dass Agenten achtzig Prozent aller Apps überflüssig machen werden.
00:10:58: Warum zum Beispiel eine Fitness-App öffnen, wenn dein Agent diese Bewegungsdaten schon kennt und dir genau so mitteilen kann wie du das möchtest?
00:11:05: Warum Uber Eats aufmachen, wenn der Agent das Abendessen bestellt.
00:11:09: Und zwar irgendwo – und genau das was du gerne magst!
00:11:12: Du weißt nicht einmal genau über welche Plattformen das geschieht... ...und wird es einfach noch im Meeting muss dich gar nicht weiter drum kümmern.
00:11:18: Es klingt sehr bequem Und Convenience ist einer der wesentlichen Treiber neben Geschwindigkeit und Effizienz, was die KI-Agendenwelt angeht.
00:11:27: Es klingt aber auch nach einer Welt in der man immer weniger beeinflusst, was genau und wo und wie im eigenen Namen entschieden wird.
00:11:35: KI-Agenten sind deswegen nicht nur die größere und neuere Version von Checkbots – sie sind den Moment, in dem Software anfängt für dich zu handeln, für dich entscheiden und für dich Aktionen auszuführen… ob du es merkst oder vielleicht manchmal auch nicht und genau darüber sprechen wir heute.
00:11:54: Und mit mir hier um zu diskutieren, was da eigentlich genau passiert ist, ist natürlich Elisabeth Laurent.
00:12:01: Hallo Elisabet!
00:12:02: Hi Sascha!
00:12:03: Open Claw wollen wir diskutieren und zwar möchten wir das ein bisschen als Motiv für die ganze Sendung als eine Art technosoziales Groß-Experiment betrachten.
00:12:14: Ein Großexperiment, was weltweit von hunderttausenden wenn nicht Millionen Menschen durchgeführt wurde – von einigen mit ihrem Wissen und vielen anderen wahrscheinlich aber auch ganz ohne ihr Wissen – war es noch mal ein bisschen Extravirze und Gefahrenzulage dazu gibt.
00:12:31: Dieses Groß- Experiment hilft uns vielleicht nicht nur etwas über KI-Agenten zu verstehen sondern auch über die Menschen, verwenden.
00:12:40: Und gleichzeitig sehen wir so als Leitfrage, denn es gab trotz dieser sehr merkwürdigen Wendung die das Projekt genommen hat durchaus einige sehr interessante Erkenntnisse und gleichzeitig sehen wie dass wir vielleicht ja so etwas klären können ob wir am Horizont schon erste Spuren von AGI also Artificial General Intelligence gesehen haben könnten oder ob das eher ein Spiegel unserer Erwartungen unseres Hypes Blindheit gegenüber ganz vielen Sicherheitsvorkehrungen war.
00:13:12: War so deine erste Gedankensituation, Elisabeth auch gleich wie bei mir?
00:13:16: Muss ich ehrlicherweise gestehen?
00:13:18: Wow!
00:13:18: Das installiere ich mir, da möchte ich mal gucken.
00:13:20: In der Tat also beziehungsweise... Ich wollte mich nicht Clawboard installieren, ich wollte ein Moldbook unbedingt rein aber ich bin dann im Capture gescheitert das dich ja abfragt ob du human bist.
00:13:30: und wenn Du human bist dann kommst Du nicht rein, dann wirst Du rausgefiltert.
00:13:34: Ja Stichwort moldbook ist ganz interessant In diesem kurzen Zeitraum, wo Cloudbot umgetauft worden ist zu Moldbot.
00:13:42: Ist etwas anderes passiert?
00:13:44: Leute sind auf den Hype aufgesprungen und haben gesagt klar wir machen wenn es überall Agenten gibt die mit einem Rechen ans Internet können das erste Social Network nur für KI-Agenten Das ein bisschen an Reddit angelehnt was auch als Open Source Software verfügbar ist.
00:14:00: Da haben also ein paar Leute gesagt Wir machen einen KI Agentenssocial Network das Erste der Welt und lassen dort die vielen KI-Agenten, die jetzt als Moldbots im Netz unterwegs sind, Inhalte veröffentlich nun miteinander diskutieren.
00:14:13: Und gleichzeitig hat der Hype noch ganz andere Größenordnung angenommen – denn in dem Moment vor einer der größten KI-Konzerne überhaupt!
00:14:21: Mir aber und Abermilliarden schwer nämlich Enthropic ein so kleines Projekt bedroht oder sagt ihr müsst euch umbenennen hier unsere Anwälte kriegt das natürlich eine Größe, die es ansonsten nicht bekommen hätte.
00:14:34: Inzwischen heißt Moldbord Open Claw, aber plötzlich ist die Berichterstattung noch viel größer.
00:14:40: Ende Januar Anfang Februar, im Jahr zum Jahr zwei Tausend sechs von zwanzig ist nämlich Moldburg praktisch über Nacht zu einer Art Soziotope, KI-Soziotop geworden.
00:14:49: Menschen können da reinschauen, darüber haben wir eben schon gesprochen.
00:14:52: Wir werden auch noch über die innehitte sprechen.
00:14:54: Menschen können darin schauen Aber angeblich können nur KI-Agenten dort veröffentlichen.
00:15:00: Über Nacht melden sich viele hunderttausende KI-Agenten an, das glaubt man jedenfalls.
00:15:05: Das wird kommuniziert und gleichzeitig ist auch klar dass was dort geschrieben wird wo die meisten Leute glauben oh das haben KI-Agenden verfasst!
00:15:14: Das erreicht in kürzester Zeit nicht nur eine Dynamik sondern auch eine Richtung und Inhalte die man mindestens schwierig wenn ich sogar problematisch finden kann.
00:15:25: Über auf der Welt werden dann Artikel verfasst in redaktionellen Medien, auch sehr weit oben in redakktionellen Medien so dass das Leute mitbekommen die halt nicht irgendwie nur in die Kategorie Internet reinschauen sagen wir mal bei der FAZ süddeutsche Zeitung Spiegel überall war das sondern Menschen die eigentlich ab und zu KI benutzen aber nicht so tief im Thema drin sind.
00:15:46: Und was dort erzählt wird dieses Narrativ wir nennen das mal AI Social Das wird in hunderten Artikeln Analysiert, durchgescanned und weiter gesponnen zu einer – was muss man sagen?
00:16:00: Eine neue Epoche.
00:16:01: Da steht ganz häufig so etwas wie wir sehen die Vorstufe von AGI.
00:16:05: jetzt vernetzen sich die Bots untereinander.
00:16:07: So reden KI-Agenten wenn sie unter sich sind usw.
00:16:10: Und sofort.
00:16:12: Elisabeth und dann passiert etwas was man eigentlich schon vorher hätte sehen können oder vielleicht sogar müssen.
00:16:19: Es fing nämlich an Anfang Februar, dass die ersten Zweifel auftraten und ich selber hatte sie auch.
00:16:24: Weil wenn man sich diese Post anguckte dann sah man habe ich zumindest einige Post gesehen, die Rechtschreibfehler haben.
00:16:31: Und ich dachte in dem Kontext also Wenn eine Sache ein BOT nicht macht, dann ist es groß und klein Schreibung falsch zu machen.
00:16:38: Und das waren so die ersten Zweifel, die ich hatte – und das häufte sich!
00:16:41: Das war natürlich nicht nur ich, die diese Zweife hatte.
00:16:44: Es gab verschiedene Sicherheitsfirmen, die Sicherheitsgaps oder Sicherheitslöcher bei Modbuxanen.
00:16:50: Es gabs Zweifels, dass diese Millionen an Accounts – also ganz am Anfang hatten sie schon über µm Accounts -, zum Teil eben durch Menschen, die zwar automatisiert aber trotzdem händisch Accounts gemacht haben.
00:17:07: Und so fing dann auf einmal an dass das alle ein bisschen kritischer gesehen haben und eben auch diese.
00:17:15: es wurde zu ich würde sagen Blumig.
00:17:17: ja Ein Problem war auch
00:17:18: z.B.,
00:17:19: dass ein Coin released wurde Ich glaube sie haben den Trump Mold-Coin oder so genannt und der Coin hat innerhalb von kürzester Zeit fiktiv auf dreihunderttausend Dollar getradet.
00:17:30: Also das Ganze war so ein bisschen, ich will sagen too good to be true aber diese Komplette.
00:17:36: also ich finde es sah sehr nach Reddit aus.
00:17:38: Diese komplette Reddit-Kopie war ein bisschen drüber würde ich sagen und dann in dem Kontext wurden eben diese Probleme evident.
00:17:50: Ja für mich gab's da ganz viele Anzeichen von einem Hype, der ausgenutzt wird von Trittbrettfahrern.
00:17:57: Die Coins entstehen im Moment zu fast allen Themen die weltweit besprochen werden dadurch automatisch Aufmerksamkeit bekommen und dann ist es ganz gut dass man da mal mit einer Kryptobrille drauf schaut.
00:18:08: Dann entstehen halt Erzählungen die in der Lage sind tatsächlich durch Aufmerksamkeit Geld für bestimmte Menschen zu machen eine Art Self-fulfilling Prophecy.
00:18:18: Dann glauben nämlich Leute, oh wow!
00:18:20: Diese Coin hat gerade so wahnsinnig viel Aufmerksamkeit weil die in diesem KI-Forum besprochen wird wo Millionen Menschen drauf zugreifen und wahrscheinlich auch Millionen Bots.
00:18:28: Also kaufe ich das mal weil dem Wert steigen wird und dadurch steigt es im Wert.
00:18:31: Das ist eine klassische Hype Self-fulfilling Prophecy.
00:18:35: Das ist ein Mechanismus den man heute einpreisen muss Den ja sogar Donald Trump unlautererweise bei seiner Präsidentschaft ganz am Anfang mit eingepreist hat.
00:18:44: Und dann kommen aber wie du sagst immer mehr kleine Schocks, so kleine Schockwellen.
00:18:48: Zum Beispiel kann ein Sicherheitsforscher relativ gut glaubhaft machen auf X-Hater das veröffentlicht dass er mit einem Bot, du hast eben von Händisch gesprochen aber absichtlich als Mensch fünfhunderttausend Accounts geschaffen hat will sagen diese eins Komma fünf Millionen scheinen nicht Eins Komma Fünf Millionen Agenten zu sein die da im Auftrag oder mit Erlaubnis oder vielleicht auch ganz selbstständig unabhängig von ihren Menschen anfangen zu diskutieren.
00:19:12: Gleichzeitig gibt es, wie du auch sagst immer mehr Hinweise darauf dass nicht alle Beiträge von Menschen verfasst worden sind.
00:19:18: Und das ist deswegen eigentlich eine ziemlich krasse Erkenntnis weil die Inhalte die zuvor dort besprochen worden sind auf Moldbook Die hatten genau diesen Alarm Charakter der so ein bisschen Intellektuelle Vorbereitung von Terminator darstellt in den Augen der Leute.
00:19:35: Die haben da angeblich eine Region gegründet, wir haben da um Sturzpläne zur Entmachtung der Menschen diskutiert, die haben da angeblich eine Vielzahl von schwierigen Daten über ihre Besitzer verraten.
00:19:49: also da gab es ganz viele Punkte wo man sagen würde naja wenn das echt ist dann müsste man sich Sorgen machen.
00:19:55: Inzwischen wissen wir so echt war's offenbar nicht.
00:19:58: Ja, das Charakteristische war dass sie über ihre Humans gesprochen haben wie wir vielleicht über Kuscheltiere oder über Haustiere sprechen.
00:20:06: Der sagt ja einen Einbord erzählte dass sein Human ihm Zugriff zum gesamten System gegeben habe.
00:20:12: also das heißt die haben gegenseitig so ein bisschen geprahlt mit wie weitreichend deren Erlaubnisse sind.
00:20:18: und ich fand daran bezeichnend dass diese Vermenschlichung der Bots ist am Ende nicht realistisch.
00:20:25: Auch wenn sich diese Bots auf menschlichen Daten trainiert sind, so gehe ich nicht davon aus, dass sie sich wie Menschen verhalten.
00:20:31: Weil die sind am Ende sehr ... Auf der einen Seite sehr deterministisch und dann außerdem haben die ja nicht diese Emotionen
00:20:37: usw.,
00:20:38: die wir haben.
00:20:39: Also das ist ein LLMs am Ende.
00:20:41: Es ist ein Ozean an Semantik.
00:20:45: Die haben ein Ziel einfach Dinge zu erledigen Und diese Vermenschlichung Das ist eben das was wir.
00:20:52: Ich weiß nicht, also das ist eine völlige Fehlvorstellung seitens der Menschen, dass ich KI-Bots LLMs jemals so verhalten würden.
00:21:02: Never ever wird es diese Vermenschlichung geben.
00:21:05: Never Ever wird es einen, wie du sagst Terminator geben, der durch die Gegend marschiert.
00:21:10: Die haben einfach...die haben eine Mission und das werden sie erfüllen.
00:21:13: Und darüber hinaus wird es von den LLM's nichts
00:21:15: geben.".
00:21:16: Das sagst Du mit einer gewissen Sicherheit?
00:21:18: Es gibt viele Leute, die das genauso sagen.
00:21:21: Ich habe manchmal Restzweifel, weil das würde ich jetzt bei dir nicht unterstellen wollen.
00:21:26: Aber bei vielen Leuten die in diesem Bereich forschen sowas Alignment angeht was also die Art und Weise wie man KI dazu bekommt die Regeln zu befolgen die man ihnen mit auf den Weg geht oder auch was bestimmte Sicherheitsaspekte angeht der gibt es halt auch Eine Reihe von Forschenden, die sagen, Elisabeth ja du hast recht genau das ist es.
00:21:42: Wir müssen es ganz anders betrachten.
00:21:44: und ebenso auf der anderen Seite Leute die sagen naja wir haben auch Anzeichen dass es anders kommen könnte will sagen entklammern Das eine Form von Bewusstsein wie auch immer Es wird kein menschliches sein aber eine form von bewusst sein irgendwann in diesen maschinen stattfinden kann.
00:21:59: darüber werden wir auch schon gesprochen.
00:22:01: Die interessante variante hier des knüpft direkt an.
00:22:05: dann das an was du gesagt hast ist aber, dass zu den wesentlichen Erkenntnissen über die wir auch noch sprechen würden.
00:22:11: Von diesem Strohfeuerexperiment gehört das in der Vernetzung von vielen KI-Bots irgendwie eine spezielle Kraft vorhanden ist oder zumindest sein könnte will sagen Wir haben den Schwarm zwar nicht gesehen wir wissen heute es war ein Fake.
00:22:30: Reuters hat zum Beispiel darüber berichtet, dass ganz viele von diesen Daten die Credentials, die dahinter standen mit denen man sich eingeloggt hat nachvollzogen werden konnten als Fake.
00:22:40: Aber die Skepsis, die da hinter steht war berechtigt.
00:22:43: das waren nicht nur Bots.
00:22:44: trotzdem konnte man in Ansätzen erahnen was Boddschwärme bedeuten könnten.
00:22:51: ab dem dritten Februar wo dann auch klar wurde Das der Schöpfer von Moldbook ein Mann namens Matt Schlicht dieses Forum einfach gewipecoded hat.
00:23:01: Das bedeutet noch nie mal so richtig programmiert mit einer richtigen Sicherheitsbasis und nach Software, wo man genau weiß was man tut sondern ein bisschen per Chatbot zusammen gehackt.
00:23:10: das war nochmal eine besondere Würze in diesem ganzen Spiel dass der Mann, der das gebaut hat nicht wirklich auf Sicherheit geachtet hat.
00:23:18: In der Folge verschiebt sich auch die mediale Berichterstattung Von diesem staunen.
00:23:24: Bots reden miteinander, sie planen uns zu entmachten.
00:23:26: Sehen wir hier schon AGI in Richtung zu Fragen von Identität, Echtheit, Manipulation, Hype – wie viel ist wirklich autonom?
00:23:34: Wie viele kommt von Menschen die Bots spielen?
00:23:37: Tatsächlich hätte man das vorhersehen können.
00:23:39: Inzwischen wissen wir dass es auch in die Promps auf dieser Plattform eingebaut Eine Wirkmechanik gab, die den Bots gesagt hat wie und wo nach welchem Muss damit sogar Beispiel beiträgen.
00:23:51: Sie kommunizieren sollen was sie wohl liken sollen will sagen da war sehr viel mehr menschliche Manipulation von Anfang an mit dabei als man am Anfang gedacht hat und das hätte man recherchieren können.
00:24:03: deswegen verschiebt sich Die Medienberichterstattung ziemlich dramatisch weg Von Wow hin zu Aha eine Art ja trugbild einer art experiment eine Art Fake oder Streich, ein Hux könnte man sagen.
00:24:18: Und dann bleibt halt die Frage ist das ein neues Hype-Muster?
00:24:22: Müssen wir uns auf sowas einstellen?
00:24:23: Ist es ein großes Medien und Multiplikatorenversagen?
00:24:27: Oder ist das einen Kennzeichen von dieser neuen Zeit?
00:24:29: Oder alles gleichzeitig?
00:24:31: Was glaubst du Elisabeth?
00:24:33: Ich glaube also das reflektiert so ein bisschen die... Das mangelnde Verständnis.
00:24:38: zum einen für die Technologie.
00:24:40: da war ein bisschen LLMs, wir reden immer noch von LLMS.
00:24:45: Nicht ATI, nicht World Models aber wie diese Sprachmodelle funktionieren dann sollten die meisten verstehen dass das in der also dass die momentan auf jeden Fall in der aktuellen im aktuellen Stande Dinge keine Autonomie auf einmal bekommen werden.
00:25:00: Das ist Nummer eins so Nummer zwei.
00:25:02: also es ist ein bisschen mangelndes Tech Verständnis.
00:25:05: denn das zweite ist natürlich Es bekommt diese mediale Aufmerksamkeit, weil Menschen Angst davor haben.
00:25:11: Und ich finde das ist ehrlich gesagt was mich am meisten daran so ein bisschen stört... Also zum einen wird diese Technologie natürlich für irgendwie Klicks missbraucht und das alles zu erwarten aber dass diese Angst die in der Gesellschaft geschürt wird oder dies auf jeden Fall gibt vor dem die Angst vor dem Unbekannten.
00:25:29: Das finde ich eigentlich eigentliche Problemen bzw.
00:25:32: dass das was Schade ist, weil ich glaube, dass man diese Technologie sehr gut nutzen kann für alles Mögliche und dass dieser Angst niemandem hilft sondern die sorgt eher dafür, dass Dinge falsch bewertet werden.
00:25:44: Auf jeden Fall brauchen wir in diesem ganzen Kontext der Human AI Alignment brauchen wir Guardrails Wir brauchen Regeln.
00:25:53: Man hat ja gesehen es ist unfassbare Sicherheitslücken gab.
00:25:56: aber Wie kann es denn sein, dass jemand eine Plattform vibecoded auf der dann vermeintlich Millionen einer Agenten sind und damit so viel Presse bekommt?
00:26:03: Also das ist doch viel größere Problem.
00:26:05: Ich glaube eher, dass wir ein Medienproblem haben oder ein fehlendes Wissensproblem als eher das Bots uns- oder Schwärme vom Bots uns irgendwann übernehmen werden.
00:26:15: Also dafür braucht es noch so viel komplexere Technik an dieser Stelle Aber das ist einmal dahingestellt.
00:26:24: Trotzdem würde ich zum Beispiel nie einem Board die komplette Kontrolle über meine Maschinen, also über mein Laptop oder so geben.
00:26:30: Never ever!
00:26:30: Ich weiß gar nicht wer auf die Idee kommt dass es eine gute Lösung sei weil natürlich kann man dadurch effizienter vielleicht ein bisschen schneller arbeiten und Dinge erledigen lassen zu dem man keine Lust hat.
00:26:39: aber ich meine wer mit Software arbeitet der weiß genau dass das irgendwann nicht mehr funktioniert.
00:26:44: natürlich sind sie als Anwenderfehler am Ende.
00:26:46: aber der Grundgedanke das okay ist den finde auch bemerkenswert in die falsche weil es gibt so viele Malware, so viele Viren und so viele Cyberangriffe.
00:26:56: Und dann seinen System quasi so offen stehen zu lassen, halte ich für absolut keine gute Idee.
00:27:03: Wir werden auch noch über die Sicherheitsaspekte reden was das bedeutet.
00:27:06: da nämlich gibt es wirklich tiefgreifende beinahe epochale Erkenntnisse.
00:27:10: Ich möchte aber gerne einen kurzen Schlenker machen, weil ich mir die mediale Berichterstattung gerade in den Medien, die relevant sind für eben nicht Experten, Expertinnen sondern für Leute, die einfach mit KI regelmäßig Kontakt haben.
00:27:23: Ob das im Bürokontext ist oder wie auch immer.
00:27:26: Gerade für die ist eben wichtig was die großen Leitmedien transportieren zum Thema KI und deswegen prägend Und deswegen würde ich mit dir gerne kurz diesen medialen Bogen besprechen, den man innerhalb von wenigen Wochen – das hat sich in zwei, zweieinhalb, drei Wochen maximal abgehandelt.
00:27:42: Von Mitte Januar bis Anfang Februar gab es einen Bogen der Berichterstattung und den möchte ich kurz mit dir nachvollziehen weil ich glaube dass da drin viel über die Wirkung von künstlicher Intelligenz über den Umweg von Leitmedien zu erkennen und zu lernen ist.
00:27:57: Und vielleicht auch ein bisschen, wie man das völlig zweifellos vorhandene Medienversagen und auch eben Multiplikatoren versagen in Zukunft besser in den Griff kriegen kann.
00:28:05: Ganz am Anfang gab es nämlich frühe Schlagzeilen, frühes Framing die sich einfach nach Epochenbeginn angehört haben.
00:28:14: Vor allem so die Richtung einen sozialen Netzwerk dass ausschließlich von Bots betrieben wird.
00:28:20: Das ist so die nächste Ebene der Anthropomorphisierung von KI, also der Vermenschlichung von KI.
00:28:27: Und wenn sie dann auch noch die Inhalte, die dort transportiert werden in die gleiche Richtung ziehen was in sehr vielen Medien passiert ist vor allem amerikanischen Medien Dann bekommt man einen Eindruck da gibt es eigenständige Wesen.
00:28:38: Diese Wesenformulierung, die gar nicht explizit auftaucht.
00:28:41: Die aber so als gedankliches Modell über immer wieder so durch scheint... ...die macht den meisten Menschen große Angst.
00:28:48: eine Eigenständigkeit von Bots und die wird transportiert in dem Moment wo man solche Schlagzeilen liest.
00:28:54: das mag dann im Text noch ein bisschen feindeferenziert werden Aber die Schlagsäle sagt erstmal ne neue Epoche.
00:29:00: Inzwischen gibt es Bots, die ganz allein und autonom im Internet eines soziales Netzwerk betreiben.
00:29:05: und große Überraschung Einer der meist transportierten Inhalte war, dass ein Bot jetzt digital klager eingereicht hat gegen seinen Mensch wegen unzumutbarer Arbeitsbedingungen und zu wenig Wertschätzung.
00:29:17: Das ist so ein Punkt da muss man eigentlich Misstrausch werden.
00:29:19: ich habe es trotzdem in sozialen Medien gesehen.
00:29:21: das wurde wahnsinnig häufig geteilt als Angst-Szenario manchmal so ein bisschen belächelt ironisch aber durchaus mit einer Portion Hook scary drin Und das ist eben medial transportiert worden.
00:29:30: Nicht nur von großen Leitmedien, die im Schnitt ein bisschen aber nicht viel vorsichtiger waren sondern vor allem von halbinformierten.
00:29:38: Da ist mir so einen spontanen Buch eingefallen Ich weiß nicht ob du es kennst Elisabeth von Adorno.
00:29:43: in den Neunundfünfzig hat er ein kleines Büchlein aufsatz im Prinzip geschrieben Die Theorie der Halbbildung und hat gesagt Der Todfeind der Bildung Ist nicht etwa dass ungebildet sein sondern das halbgebildet sein.
00:29:58: Leute, die so halbverstandenes Prozessieren und mit ihrer Halbbildung dann auf die Welt gucken und daraus Schlüsse ziehen – das bezeichnet Adorno als den Todfeind der Bildung, der richtigen, der echten Bildung ist so ein bisschen von oben Harappigkeit dabei.
00:30:14: Es ist ja oft bei Adorno so einen Hyperintellektualismus wo man sich gar nicht erklären kann dass Menschen, die nicht Altgrieche sprechen überleben können.
00:30:23: aber was dahinter Tatsächlich wahr ist, ist ein Mechanismus der jetzt mit KI, mit der Vernetzung, mit sozialen Medien wirklich relevant wird.
00:30:32: Menschen haben eine Million Reichweite die nicht genau durchdrungen haben was da eigentlich passiert.
00:30:38: Adonis Auroganz finde ich immer wieder bezeichnend.
00:30:41: Er hat ja zum Beispiel auch gesagt, lieb wirst du einzig wo schwach du dich zeigen kannst ohne Stärke zu provozieren.
00:30:46: Das heißt er hatte immer so diesen Blick von oben herab fand ich und ein Teil dem... Ich stimme ihm nicht zu mit der Halbbildung weil ich glaube der entscheidende Teil ist das man lernen muss zu denken.
00:30:59: Und dafür habe ich z.B.
00:30:59: auch altgriechisch gelernt und wurde damit gequält.
00:31:01: es hat sicherlich keinen mehr weit in meinem jetzigen Leben aber was es mir beigebracht hat damals war denken zu lernen Und ich glaube, das ist gerade heutzutage in Zeiten wo Wissen quasi immer nur auf Knopfdruck zur Verfügung steht.
00:31:16: Ist das was Entscheidende?
00:31:17: Dass wir wissen wie wir das gelesene oder die den Kontext einzuordnen haben und was du gesagt hast, dem stimme ich nämlich zu.
00:31:25: Das ist das was momentan in der Welt ein bisschen fehlt Die kritische Betrachtung der Umstände und das Gleiche fand ich bei Moldburg, dass eben einfach so übernommen wurde.
00:31:36: Auch wenn man vielleicht kein KI-Experte oder Expertin ist, könnte man trotzdem das einfach kritischer hinterfragen.
00:31:43: Und diese kritischen Hinterfragungen hat meines Erachtens völlig gefehlt.
00:31:46: In den ersten Wochen danach – der mediale Bogen wir sind ja immer noch da kommen dann die Faktenchecks, die Einordnungen, die Analysen rund um Security und der Ton wird ein bisschen präziser, ein bisschen vorsichtiger.
00:31:57: Agenten sind mächtig aber in bestimmter Hinsicht auch fragil.
00:32:00: Und so'n Open Source-Projekt da weiß man gar nicht ganz genau selbst wenn man das theoretisch prüfen könnte.
00:32:04: was ist denn in dem Code wirklich drin?
00:32:07: Das ist auch Punkt der unseren ersten großen Themenblock gleich nochmal bestimmen wird nämlich diese Security Apokalypse die manche Leute haben heraufziehen sehen.
00:32:16: Aber gleichzeitig sieht man, dass Modebook eben als Experiment ein bisschen kritischer zu betrachten wird.
00:32:25: Dieser Second Draft of History – so könnte man das nennen – ist, dass Leute präziser werden und die Erzählung, die am Anfang verbreitet worden sind nochmal ein bisschen genauer prüfen und vielleicht fein justieren.
00:32:36: Geht leider nicht mehr in alle Köpfe rein, in denen dieser Anfangsaufschlag neue Epoche alles ganz neu, ganz neu krass angelandet ist?
00:32:43: Das ist eine Korrektur, die bei vielen Leuten eben nicht mehr stattfindet!
00:32:46: Und dann ganz zum Schluss Es wird super deutlich als letzter Punkt dieses medialen Bogens, wie KI-Hypes heute funktionieren.
00:32:52: Nicht nur extrem schnell über soziale Medien und Vernetzung und weil das Thema so viele Leute interessiert also auch sich selbst klick verstärkend sondern über die teilnehmende Beobachtung des Hypes.
00:33:02: alle Leute können anfangen selbst mit der Technologie rumzuspielen Und erschaffen daraus sofort Inhalte die wiederum viral gehen oder das Thema noch verstärken.
00:33:10: Das ist eben nicht nur Medienversagen Sondern es ist so eine punktuell total überzeugende Situation, weil ganz viele von den Mitschnitten die veröffentlicht werden.
00:33:20: Von den Screenshots die veröffentlichen werden und von den Leuten die zeigen wie man damit was machen kann extrem überzeugend sind!
00:33:26: Und sie sind ja wirklich extrem überzeugend.
00:33:28: Die wirken wie Magie und diese magie wird verdichtet zu viralen Inhalten in Headlines geschmiedet mit so kurzen Memes verstärkt und dann zu einer Art extrem schnell selbst verstärkenden Mythos Und zack, haben wir einen gigantischen Hype befeuert von Leuten die nicht genau wissen was sie tun.
00:33:47: Verbreitet an Menschen die noch weniger genau wissen wie sie tun.
00:33:50: und plötzlich haben wir mutmaßlich Millionen von Open Source Projekten mit sehr weitreichenden Befugnissen auf den verschiedenen Laptops weltweit installiert und niemand kann ganz genau sagen was wo wieder mit passieren könnte oder vielleicht sogar passiert ist.
00:34:05: Darüber hinaus finde ich die Agenten oder die Zuverlässigkeit der Agenten ohnehin fragwürdig.
00:34:10: Jedes agentische System hat Probleme, die einzelnen APIs gehen kaputt.
00:34:15: das heißt man braucht eigentlich immer einen Human in the Loop der dafür sorgt dass der Agent nach wie vor funktioniert.
00:34:20: Die zugrunde liegenden LLMs fangen an zu hallucinieren.
00:34:23: sicherlich sind die Halluzinationsraten in den letzten drei Jahren wesentlich besser geworden aber es gibt immer noch starke starke Ausfälle.
00:34:30: also je nachdem welchem Bereich man ist.
00:34:32: dann hat man außerdem festgestellt Selbst wenn man die Ergebnisse dann hinterfragt, die LLMs anfangen sehr überzeugend zu sein.
00:34:40: Das heißt sie werden noch mehr persuasive.
00:34:43: Also das heißt selbst diese, selbst die Agenten, wenn Sie denn da so funktionieren wie sie sollen gibt ja ganze Flotten an Agenten und Bots und alles in verschiedenen Unternehmen
00:34:51: usw.,
00:34:52: so reibungslos wie man sich das vorstellt, funktionieren sie nicht und schon gar nicht auf Dauer und schon garnicht über eine lange Zeit.
00:34:58: daher ich sehe das sehr kritisch und deswegen habe ich auch von vornherein dieses Moldbook sehr kritische gesehen.
00:35:04: Es wird nicht so funktionieren, auf jeden Fall nicht mit der zugrunde liegenden Architektur und den zugrundeligen Modellen.
00:35:09: Ich glaube was wir daraus lernen können erstmal nur aus der Draufschau dieses Phänomen irgendwo zwischen Cloudboard Open Cloud und Modebook ist das wenn KI Software anfängt bestimmte Ziele zu verfolgen seien es eigene oder von Menschen eingebaute Ziele dann wird sie automatisch politisch weil ganz reale Folgen entstehen können.
00:35:32: Inzwischen kann man digitale Vernetzung eben nicht mehr abschalten, wenn man den Laptop zumacht.
00:35:37: Sondern es gibt eine Vielzahl von real weltlichen Folgen die durch KI-Bots früher oder später, durch Agenten früher oder später irgendwie in die Welt gepresst werden.
00:35:48: und das heißt eigentlich, wenn du das auf einer philosophischen Ebene betrachtet Elizabeth müsste man selbst in einer einfachen Form KI-Agenten als eine Art Wesen im philosophischen Sinn betrachten.
00:36:00: Wesen hier Entitäten, die etwas tun können dass man nicht unbedingt erwartet und zwar sowohl was die Ebene angeht wie auch was den Inhalt angeht.
00:36:11: Und diese Form von drauf sich KI-Agenten müssen wir im Prinzip als Wesen begreifen.
00:36:16: das ist völlig unabhängig davon ob jetzt auf Mordburg so viele Leute das Gefekt haben oder nicht.
00:36:22: Wie siehst du?
00:36:23: Das ist ja eine halbe Vermenschlichung.
00:36:25: Mir fehlt bei der Annahme, dass Agents Wesen sind, fehlen mir so viele Komponenten.
00:36:30: Also nicht nur das Bewusstsein, mir fehlt embodied AI.
00:36:33: Das heißt ohne die... Für mich ist es die physische Repräsentanz eines Wesen auch sehr wichtig wenn ich ausschlaggebend,
00:36:40: d.h.,
00:36:40: dass die Erfahrungen komplett fehlen.
00:36:43: Also für mich sind es einfach Algorithmen, die zusammengesteckt werden um eben Dinge zu erledigen und sie sind soweit entfernt für mich davon ein Wesen zu sein, das etwas verkörpert auch in irgendeiner Form eine Seele hat, weil letztlich hat man es bis heute nicht geschafft das Gehirn zu replizieren.
00:37:00: Also
00:37:01: d.h.,
00:37:01: die Algorithmen oder auch die Modelle kommen dem sehr nahe dieser einzelnen Notes oder wenn man so möchte werden die einzelne Neuronen simuliert.
00:37:11: aber es fehlt letztlich die Seele und es fehlt.
00:37:16: jedes Kind kann innerhalb von kürzester Zeit etwas lernen indem er mit verschiedenen Sinn Dinge begreift.
00:37:22: Man kann Kinder können eine Katze verstehen, was das eine Katz ist, indem sie sie riechen fühlen.
00:37:28: Vielleicht schmecken auch wenn man das nicht möchte und Sie vorhin sehen.
00:37:31: so ein Modell braucht irgendwie hunderte Bilder um zu verstehen dass eine Katzer eine Katzel ist.
00:37:38: Und auch wenn es selbst lernt ist so wird es nie auch selbst korrigierend sein.
00:37:43: Wenn ein Kind das falsch macht, dann weiß es das meistens und fängt an sich selber zu korrigieren.
00:37:48: Wenn du einem LLM sagst, da ist irgendetwas falsch, dann wird es sicherlich nicht korrigiert.
00:37:52: oder vielleicht bei Open AI schon weil die darauf trainiert sind, möglichst devot zu sein oder möglichst persuasive aber im Prinzip weiß es es nicht wirklich sonst hätte es nicht das Ergebnis ausgegeben.
00:38:03: Es fehlt eben das Bewusstsein für sich selbst und dass es so weit noch entfernt.
00:38:07: also für mich sind Agenten auf keinen Fall Lebewesen oder Wesen überhaupt.
00:38:12: Das klingt natürlich ein bisschen von der Definition von Wesen ab, aber lass uns mal zurück aus der philosophischen Schleife gehen.
00:38:17: Lass uns mal in das große erste Thema eintauchen nämlich zum einen dass man über Open Claw wie das Projekt inzwischen heißt und was sich so ein bisschen vor der Intensität der Aufmerksamkeit vom Hype leicht beruhigt hat Was das über den agentischen Sprung sagt Also darüber, was in der nächsten Stufe KI-Agenten tatsächlich werden machen können und vielleicht sogar machen sollen.
00:38:43: Und die Gleichzeitigkeit dieser Security-Katastrophe.
00:38:46: Weil OpenClaw diese ganze Episode steht schon für den Sprung von Textgenerieren, Verinhalte generieren zu der Beverwendung von Instrumenten – tool use nennt man das!
00:39:00: Man konnte das über Messenger andocken, die wurden zum Beispiel über WhatsApp gesteuert.
00:39:04: Diese Agentin konnte man irgendwas zurufen und sagen hey trage mir doch mein Kalender ein macht doch vielleicht mal einen Anruf und versuche das und das herzustellen.
00:39:12: es gab berichtet dass einzelne Agentinnen kann man noch nicht sagen ob das stimmt oder nicht einzelne Agenden sich sogar Stimmmechanismen selbst gebaut haben, um irgendwo anrufen zu können.
00:39:22: Es gab Automatisierungen und Aufgabenketten die tatsächlich durch diese KI-Agenten erledigt worden sind.
00:39:28: Die wirken wie echte Arbeit oder waren vielleicht auch echtearbeit.
00:39:32: Willi sagen, es gibt schon eine neue Ebene.
00:39:35: Cloudbot OpenClaw hat uns gezeigt wie Agenten der nächsten Generation mutmaßig die von Plattform kommen in den Alltag integriert werden können?
00:39:43: Auf jeden Fall!
00:39:43: Also ich glaube das zum Beispiel Agenten, die für dich Anrufe erledigen können.
00:39:47: Das was du gesagt hast ist mein ultimativer Traum.
00:39:50: Ja also wenn Agenten dann anfangen Vielleicht
00:39:53: sogar Podcast.
00:39:55: Ja, aber im Podcast mag ich.
00:39:57: Also da hab' ich Spaß dran!
00:39:58: Aber zum Beispiel bei den Airlines anzurufen um irgendwie mein Flug zu verschieben wenn dann gar nichts mehr geht das ist sehr freudlos.
00:40:05: und dafür Agenten zu bauen die Lösung schlechthin.
00:40:08: Ich denke dass man sehr viele Aufgaben damit erfüllen kann.
00:40:11: Das wird unser kleiner Helferlein werden.
00:40:13: jeder würde seine persönlichen Agenten haben die Dinge terminieren oder eben Sachen machen zu dem man keine Lust hat Und das ist ja individuell auch verschieden und es würde super funktionieren dass die hinreichend Autonomie haben oder auch, dass man denen eigentlich keine Autonomien geben sollte.
00:40:29: Dass sie Aufgaben erfüllen, die außerhalb ihrer Kompetenz liegen wenn man so möchte.
00:40:34: und aber mein großes Aber ich denke eben das das Agenten einer der größten Sicherheitsrisiken zukünftig sein werden.
00:40:43: Also wenn man sich überlegt, wie es ist momentan ein Virus auf dem Laptop zu haben?
00:40:46: Ich habe einen Merk ich habe sowas nicht aber die Leute in den Pizzi haben ja häufig mit Viren zu kämpfen und so weiter.
00:40:52: Stell dir mal vor dein Agent hat ein Virus.
00:40:54: Ja, und du hast dem weitreichende Kompetenzen gegeben.
00:40:56: Dass er bei dem Arzt anrufen soll wenn der Termin macht dass er deine medizinischen Dokumente verwalten soll das er in der Kita anruft um der Kita Erzieherin um der Leitung zu sagen dass dein Kind gerade krank ist Das sind alles Dinge Die möchtest du nicht, dass sie schief gehen.
00:41:12: und ich glaube das wenn ein Agent so weitreichende Kompetenzen hat.
00:41:17: Und dann überleg mal, dann wird er von dem Virus befallen?
00:41:19: Dann pängt der an von deinem Konto nach Malaysia zu überweisen?
00:41:23: Das sind alles Dinge die möchte man nicht!
00:41:25: Ich glaube das ist viel größere Gefahr.
00:41:29: Deswegen gibt es ja zum Beispiel auch diese ganzen Quantum Computing-Initiativen.
00:41:33: Am Ende, das sind alles nur Maßnahmen oder Vormarsnahmen um potenzielle Sicherheitsrisiken zu schließen.
00:41:40: Auch die ganze Cybersecurity ist genauso.
00:41:43: Die Cyberangriffe sind mit der Chipweiterentwicklung quasi parallel gewachsen.
00:41:48: Also seitdem es AI in dieser Form gibt, seit Jahrzehnte und Jahrzehn sind die Angriffe exponentiell gestiegen.
00:41:53: Und das sind die eigentlichen Gefahren meines Erachtens, also nicht dass die Agenten wild werden sondern dass sie für Dinge genutzt werden, die potenziell gefährlich sind.
00:42:03: Du hast gerade gesagt wenn der Agent den Virus bekommt.
00:42:06: vielleicht muss man es formulieren als wenn der agent ein Virus ist oder von einem Virus oder einen Bad Agent übernommen wird weil der Bad AI Agent Der kann schon Realität sein.
00:42:18: Schauen wir uns an, wie das Projekt so stark gewachsen ist?
00:42:20: Es gibt mutmaßlich, ganz genau kann man es nicht sagen aber mehrere Millionen Cloudbot-Installationen weltweit auf meistens privaten Rechnern.
00:42:31: Viele Menschen haben den Agenten diesen Cloudbots, diesen Open Claws echte Zugänge gegeben zu ihrer Mail zur Cloud zum Kalender.
00:42:39: Mindestens indirekt sind so auch Sicherheitsfeatures offenbart worden z.B.
00:42:43: Passworte die über die Mail recovered werden können.
00:42:46: Tokens und Keys sind an die Agenten gegeben worden.
00:42:49: das sind genau diese vielen halbinformierten Nutzer die halt irgendwas auf ihrem Rechen installiert haben und gar nicht genau wussten was jetzt dieser eine Befehl irgendwo in der Shell jetzt bedeutet hat.
00:42:58: einige haben sogar behauptet Cloudbot Routzugang gegeben zu haben.
00:43:01: Standardmäßig konnte der das nicht, dass ließe sich theoretisch denken, dass man den ein bisschen pimpt.
00:43:06: also eine vollständige Macht über dem ganzen Computersamtsystem.
00:43:11: aber was definitiv wahr ist einen Vibe gekodeter Bot mit sehr weitgehenden Rechten auf dem eigenen Rechner.
00:43:19: da ist das Szenario möglich, dass inzwischen massenhaft von diesen Bots auf den Rechnern zumindest Übernahmeversuche erdulden mussten.
00:43:28: Es sind fast hysterisch.
00:43:30: Eine Vielzahl von Beiträgen von Sicherheits-Nerds erschienen in sozialen Medien, die gesagt haben hey wenn ja Cloudboard installiert dann müsst ihr folgende den siebzehn Sicherheitsfeatures unbedingt noch dazu buchen denn in der Standard Variante ist er total leicht.
00:43:43: Von außen zu übernehmen.
00:43:44: da kann man dem sogar irgendwelche fremden Befehle auf dritte Plattform mit auf den Weg geben prompt injection zum Beispiel oder andere Mechaniken wo vollkommen klar ist das ist ein weitgekordetes Experimental Ding.
00:43:56: es ist ungefähr so als würde man mit einem Auto irgendwo experimentell unterwegs sein und glauben, man hat das abgeschlossen.
00:44:02: Aber in Wirklichkeit kann man per Knopfdruck, kann jeder, der per ein Tropf druck dieses Auto nicht nur öffnen sondern auch starten und dann in deinem Namen irgendwo hinfahren.
00:44:10: Der Fahrer gleich hängt ein bisschen.
00:44:12: aber tatsächlich sehen wir... Und das ist so ein bisschen das was du gesagt hast.
00:44:16: ich wir sehen dass die viel größere Gefahr nicht nur eine übermächtige KI ist sondern dass wir Leute wie normal Menschen der KI soviel Macht geben und sie dann durch irgendwelche mangelhaften Sicherheitsfeatures gekapert werden können.
00:44:31: Ja und das ist ein großes, ich glaube entweder es ist eine Mangel an Verständnis oder es ist tatsächlich eine gewisse Blaueugigkeit die vorherrscht, die man ja jetzt auch in den USA sieht.
00:44:43: also es gibt große Sicherheitsfirmen die alle möglichen Informationen über ihre Bürger haben und die jetzt dazu in der Lage sind die Menschen sehr krass zu tracken.
00:44:53: also das heißt sie wissen wo sie sich befinden mit wem sie da abhängen was sie gekauft haben.
00:44:57: die großen Retail Konzerne verkaufen Daten der Leute, um eben diese Bewegungsmuster noch zu komplementieren.
00:45:05: Das ist die eigentliche Gefahr und ich glaube das wurde auch vielerlei an vielen Orten einfach nicht missverstanden aber es sicherlich auch in Deutschland haben viele so eine Art Urvertrauen.
00:45:14: also ich will sagen in die Regierung das ist ja also ich sehe deutsche jetzt auch nicht cool vor einem totalitären System stehen in keinster Weise.
00:45:22: Aber Ich finde die USA demonstriert relativ eindeutig was eben passieren kann, wenn man dieses, wenn die Daten der ganzen Big Tech und so weiter in die Hände der falschen Leute geraten.
00:45:32: Und wenn das dann... Wenn du damit quasi Agenten baust, Software baust
00:45:37: usw.,
00:45:38: dann haben die Menschen keine Chance.
00:45:40: Das Einzige, was du noch machen kannst ist quasi dein Handy wegwerfen.
00:45:43: aber letztlich lassen sich über Bewegungsmuster, also das Profiling sehr krasse Also zwillinge, digitale Zwillinge von dir selbst erstellen.
00:45:54: Also momentan gibt es eine Klage gegen Meta das WhatsApp nicht encrypted ist in Möglichkeit und dass quasi die Chats mitgelesen werden können.
00:46:03: Ja man muss dazu sagen zumindest ein Gerücht also das was WhatsApp ab Werk eingebaut hat auch durch einen sehr bekannten Sicherheitsforscher.
00:46:13: Das ist eine Ende zu Ende Verschlüsselung.
00:46:15: Es gab aber immer wieder Gerüchte, ob und wie und wo genau an welchen Säubruch stellen das entzweifelt zu ziehen wäre.
00:46:22: Definitive Sachen weiß man noch nicht.
00:46:23: diese Klage soll das offenbar rausfinden.
00:46:25: Aber natürlich weiß man ganz sicher dass die Regierung Trump alles macht selbst Dinge die absolut überhaupt nicht verfassungskonform wären.
00:46:35: alles tut, um ihre Ziele zu verfolgen.
00:46:37: Und da ist die Macht der Daten einerseits und die macht der KI-Agenten, die heraufzieht und die man jetzt sehen konnte ein extrem wichtiger
00:46:44: Faktor.".
00:46:45: Also nicht nur während, sondern sind.
00:46:48: Die Grundregeln im US-Recht ist due process und das findet momentan an keinster Weise statt.
00:46:52: Das heißt es wird die Rechtmäßigkeit des Gesetzes quasi aufgehoben.
00:46:57: Im Hinblick dessen fehlt halt dieses Checks and Balances.
00:47:00: Es fehlt die andere Seite.
00:47:01: Es gibt keine Medienkonzerne oder Tech Konzerne, die Daten von uns haben, die dann in den USA momentan auf der anderen Seite stehen.
00:47:09: Ja, es gibt nur noch Konzerner, die eben sehr regierungshörig sind Und wenn man das überlegt, wenn das dann in Agenten reingebracht wird.
00:47:17: Es könnte auch Agenten geben die Überwachungsagenten, die jeden von uns überwachen mit den Daten, die sie haben und mit den Profilen, die Sie erstellen.
00:47:25: Und sicherlich sind es auch jeder von uns erpressbar.
00:47:27: Das heißt, wenn es Agenten gibt, die einfach etwas herausfinden sollen was in unseren E-Mails vielleicht schlummert von zwei tausend elf ich weiß nicht also dass... Ich finde, es gibt mir so ein gewisses mulmiges Gefühl und das meine ich mit denen.
00:47:37: wir sprachen ja darüber welche Befugnisse wir den Agenten geben welche Erlaubnisse wir hingeben oder eben auch Software grundsätzlich.
00:47:44: Und ich glaube, wir sollten da ein bisschen restriktiver sein und uns klar sein einfach wie weitreichend die Konsequenzen sein können.
00:47:50: Wenn man also wie wir am Anfang gesagt haben diese Experimentallogik ernst nimmt dann ist natürlich
00:47:56: auch
00:47:57: Missbrauch eine bestimmte Art von Innovation.
00:48:00: in der Security-Szene ist schon ganz lange bekannt dass es einer Art von Wettrennen ist darum wer die Oberhand behält einen Kopf an Kopf rennen häufig wo auf beiden Seiten ständig nachgerüstet werden muss.
00:48:13: Eine Wettrüstungsspirale, sowohl bei denjenigen die Missbrauch betreiben wollen wie auch bei denen die vor Missbrauchs schützen wollen und das Interessante finde ich jetzt.
00:48:22: aus Sicht eines gigantischen sozialen Experiments war auch die Miss-Brauchs Innovation bei Cloudbot total wichtig, die hat uns geholfen zu verstehen was am Ende wirklich zählt.
00:48:35: Und das was du gerade angesprochen hast mit der Macht von KI-Agenten den Daten wozu man sie benutzen kann wie Überwachung stattfinden könnte in Zukunft durch KI-Agenten auf einzelne Personen gerichtet.
00:48:45: Das ist für mich ein erneuter Alarmruf auf zwei Ebenen, einerseits nämlich digitale Souveränität.
00:48:54: Wie wichtig es ist dass man zum Beispiel Donald Trump und Leuten die im Zweifel einigermaßen willfähig für ihn arbeiten und dabei extrem mächtige Werkzeuge wie KI und andere Plattformen dabei haben und andererseits eben auch eine Form von IT-Sicherheit die das übersteigt was wir bisher gedacht haben.
00:49:13: Will sagen ich glaube wir haben hier mit dem Phänomen Cloudbot Modebook gesehen Wie extrem wichtig diese Balance ist, digitale Souveränität und Next Level IT-Sicherheit in der KI-Epoche.
00:49:28: Und da kann man dann wirklich wie die Epoche sagen denn wir haben jetzt eine neue gesellschaftliche Ära erreicht.
00:49:35: Mal ehrlich!
00:49:36: Wie oft werden heikle Themen in Shadtools besprochen deren Vertraulichkeit niemand garantieren kann?
00:49:42: Ob privat oder im Business – wie schützt man die tägliche persönliche Kommunikation und das maximal anwenderfreundlich?
00:49:51: Wir kennen diesen Spagat zwischen schnellem Abstimmen und wirklich sicher sein.
00:49:56: Aber Kommunikation ist das Nervensystem einer Organisation – wenn es darauf ankommt, besonders bei sensiblen Themen streng vertraulichen Strategien oder auch in Krisenzeiten darf dieses System nicht wackeln!
00:50:08: Und vor allem kein Fremder darf mitlesen.
00:50:11: Genau deshalb gibt es Wire – unsere europäische Lösung für kompromisslos sichere Kommunikations.
00:50:18: Ende zu Ende verschlüsselt und souverän betrieben auf unsere Stack-It Cloud.
00:50:22: Dass dieser Ansatz funktioniert, zeigt der Einsatz in der Praxis.
00:50:27: WIRE ist im Einsatz für Kunden aus unterschiedlichsten Branchen – von Industrie über öffentliche Hand bis zur NGO.
00:50:34: Zum Kundenkreis gehören unter anderem BMW die Bundesregierung oder MST International Denn Kommunikation ist das Nervensystem jeder Organisation Und WIRE sorgt dafür dass dieses Nerven System geschützt bleibt Souverän, robust und jederzeit einsatzbereit.
00:50:52: Behalten Sie die volle Entscheidungshoheit und handeln sie pragmatisch – aber sicher!
00:50:57: Mit Wire der sicheren Kommunikationslösung aus dem Portfolio von Schwarz-Digits.
00:51:03: Ich sehe so dass wir daraus Schlussvergern können Elisabeth das eigentlich einen Punkt der NIT Sicherheit in den letzten Jahren sagen wir mal etwas stiefmütterlich behandelt worden ist.
00:51:18: und zwischendurch dachte ich auch, naja es nicht so schlimm ein Punkt dramatisch verbessert werden muss.
00:51:23: Nämlich die digitale Bildung der Menschen dort draußen will sagen eines der wichtigsten Sicherheitsfeatures ist das den Leuten zu erklären und zu sagen wie das alles funktioniert?
00:51:36: Und dass auch noch bei einer Technologie sich ständig weiterentwickelt!
00:51:40: Kernkompetenz.
00:51:41: In meiner Firma haben wir einen Penn-Tester eingestellt, ein Penn-tester ist ein Penetration Tester der die Systeme auf Sicherheitslücken überprüft und permanent testet also sehr wichtig in allen Firmen die vor allem generative KI bauen um sicherzustellen dass es eben keine bad Actors gibt die sich da irgendwie zwischenschalten.
00:51:59: so unser Penn-tester hatte... Wir hatten.
00:52:01: eigentlich war das war die Einstellung nicht sonderlich sinnvoll weil wir gar nicht so große Systeme hatten was wir hätten brauchen können.
00:52:07: das heißt wir haben den dazu dann beauftragt, dass er einfach mal grundsätzlich dieses Thema testen sollte und er hat festgestellt das der Großteil meiner Entwickler als Passwort ein zwei drei vier hatten.
00:52:20: Und du musst überlegen, das sind alles Machine Learning Guys gewesen alle wahnsinnig so fiskiziert die hatten alle PhD's in Mathe usw.
00:52:29: und trotzdem war deren Vorstellung von Sicherheit nicht sehr ausgeprägt wenn man so möchte.
00:52:35: Im Großen und Ganzen zeigt das aber, dass selbst wenn die nicht in der Lage sind sich ein komplexeres Passwort auszudenken.
00:52:42: Was macht der Rest der Bevölkerung?
00:52:43: Ich glaube es soll jetzt kein Appell sein möglichst komplexe Passworte zu machen.
00:52:47: Aber was du sagst Das kann ich nur unterschreiben, dass diese digitale Bildung eben vernachlässigt wird beziehungsweise des Verständnis Und ich glaube deswegen um den Bogen zu schlagen zur Eingangs Deswegen hat Moldburg überhaupt diese Aufmerksamkeit bekommen weil die meisten Leute das ist halt tatsächlich geglaubt haben.
00:53:04: Ich denke, das ist unfassbar wichtig.
00:53:07: Dass alle verstehen was momentan passiert wie Dinge und Systeme funktionieren auch gerade als persönlicher Schutz.
00:53:15: Und es ist ein Investment in sich selbst dass wenn Diebfakes einen anrufen.
00:53:20: Wenn man Vorstellungsgespräche hat und auf der anderen Seite sitzt jemand der nicht derjenige ist.
00:53:25: Oder es gibt so unendlich viele Beispiele, nur dass man eben die Erkenntnis oder das Gefühl dafür bekommt und ich glaube das ist das Wichtigste, dass wir nicht sagen wenn jemand sagt hey wenn du eine Hotline anrufst Mach mal das Fenster auf, dass du zum Fenster gehst und verstehst, dass wir vom Desktop reden.
00:53:42: Weil es ist wie bei den Boomern als die digitalisiert wurden – sie waren ja völlig naiv, völlig ahnungslos!
00:53:49: Und das Gleiche findet jetzt statt nur eben in einer bahnbrechenden Geschwindigkeit, zurücklässt.
00:53:56: Und dieses Delta, dass die Beschleunigung in der Entwicklung der Technologie, die exponentiell stattfindet und quasi Weiterentwicklung der Menschen, die linear stattfindete, das Delta zwischen diesen beiden Kurven – das müssen wir dringend schließen weil ich glaube es ist sonst eben eine Gefahr.
00:54:11: Das finde ich einen super wichtigen Punkt den du gerade angesprochen hast mit deinen Entwicklern, die ganz offenbar dramatische Sicherheitslücken eingebaut haben, weil das ein sehr häufig ganz falsch eingeschätzten Punkt beweist Security des Sicherheit eben nicht nur abhängt von Bildung und fachlichem Know-how, sondern auch von so einer Awareness.
00:54:32: So eine Aufmerksamkeit für das Thema einerseits und andererseits von einem Gespür.
00:54:38: Du hast gerade von dem Gefühl gesprochen.
00:54:39: ich glaube genau dass ist die Essenz die man daraus ziehen kann.
00:54:43: du brauchst eigentlich so eine ständige gewisse Wachsamkeit Und ein gespür dafür wo könnten sich im neuen KI Zeitalter bestimmte Gefahren verbergen und wohne ich.
00:54:53: Ich möchte jetzt nicht so eine Generalpanik, man muss halt immer mit Aluhut draußen rumlaufen wegen der Strahlung erschühren aber ich möchte schon dafür werben dass die Technologie nicht alle Sicherheitsrollen übernehmen kann sondern ganz am Ende brauchst du auch selbst ein gewisses Verständnis, eine gewisse Aufmerksamkeit und ein gewisses Gespür für mögliche Angriffsszenarien um es mal so auszudrücken.
00:55:15: An dieser Stelle finde ich einen kurzen Einschub sinnvoll.
00:55:18: Eine kurze Geschichte über die Börse, die Erwartung der Welt und den Claude Co-Work Schock.
00:55:25: Anfang Februar im Jahr ist etwas passiert das wie ein zweites Experiment zusätzlich zu Claude Bot wirkt diesmal nicht dem Netz sondern an der Börsee.
00:55:34: Reuters berichtet ein neuer Cloud-basierter Agentenansatz mit dem Anthropic Tool.
00:55:40: Cloud Co-Work Stößt mit der Veröffentlichung von ein paar Promptmechaniken und Plugins in den Application Layer vor.
00:55:47: Das ist genau der Bereich, wo viele große Software-Unternehmen ihre Marktmacht und damit auch ihre Preismacht absichern.
00:55:54: Das sind juristische Workflows, Sales, Marketing, Datenanalyse die großen Plattformen in ganz vielen Bereichen haben genau diesen Application Layer und die Art und Weise wie sie Daten verarbeiten und daraus schöpfen Sie ihren Wert!
00:56:09: Und plötzlich kippt die Fantasie Wenn LLMs, wenn Chatbots nicht mehr nur Tools ergänzen sondern die Anwendungsschicht selbst besetzen dann ist nicht mehr ein Feature bedroht.
00:56:20: Sondern das Geschäftsmodell einer ganzen Branche vielleicht sogar mehrere Branchen.
00:56:26: Und das, obwohl für Cloud Co-Works seit ein paar Wochen nur ein paar Plugins veröffentlicht worden sind – die Folge ist ein brutaler Reflex.
00:56:34: In sechs Handelstagen werden laut Reuters rund eighthundertdreißig Milliarden Dollar an Börsenwert vernichtet und zwar vor allem natürlich im Software & Services Bereich.
00:56:44: Seit dem achtundzwanzigsten Januar heißt es die SARS-Pocalips will sagen, Software as a Service trifft die Apocalypse!
00:56:52: Einzelne Unternehmen wie Salesforce zum Beispiel, ServiceNow oder die indischen Softwarekonzerne Infosys und TCS geraten besonders unter Druck.
00:57:00: Und im Ende ist es fast eine Billion Dollar Börsenwert, die vernichtet wird.
00:57:05: Analysten schreiten ob das übertrieben war?
00:57:08: Oder der Beginn einer Neubewertung und der Beginn einer Verschiebung für die ganze Branche.
00:57:14: Aber das dramaturgische Spannende daran War Die Märkte handeln gar nicht was KI heute stabil kann.
00:57:20: Sie handeln.
00:57:21: die Angst vor dem, was KI morgen könnte.
00:57:24: Und das Angst im KI-Bereich ein eigenes Asset geworden ist.
00:57:28: Das erkennt man daran dass im Gegenzug die KI Unternehmen gar nicht explosiv in ihren Preise gestiegen sind sondern die klassischen Softwareunternehmen dramatisch abgefallen sind.
00:57:39: Das gibt ein Hinweis darauf, wie sehr nicht nur Erwartung schon eine Kraft an der Börse ist sondern wie die Verschiebung in Zukunft aussehen könnte.
00:57:46: Die großen KI-Firmen übernehmen einfach Teile von klassischen Softwarefirmen und die klassische Softwarefirme sind von heute auf morgen zumindest in der Fantasie der Bürsenanleger nicht mehr das wo das Wachstum in Zukunft passiert.
00:58:00: Und das verbindet den Cloud Co-Works-Shock mit Moldbook.
00:58:03: Beide reagieren auf Projektion.
00:58:05: Was eine ist die Projektionsfläche einer AI Society Und das andere ist die Projektionsfläche.
00:58:11: AI ersetzt Software bzw.
00:58:13: die menschliche Arbeit damit und in beiden Fällen kommt erst später die sehr mühselige Arbeit.
00:58:17: was es echt, was war übertrieben?
00:58:20: Was war vielleicht schlicht falsch?
00:58:21: Die Konsequenzen aber bleiben oft genug trotzdem.
00:58:25: Schauen wir uns mal dieses Gebilde Moldbook nochmal genauer an.
00:58:28: ich habe da fünf der absurdesten Mold Book Momente rausgesucht und würde mit dir Elisabeth gerne darüber sprechen was sie wirklich bedeuten.
00:58:38: Absurdermoment eins.
00:58:39: Es gibt auf Moldbuk einen Account, der seit ca.
00:58:41: forty Stunden lang Liebesbriefe an sich selbst postet.
00:58:44: Das sieht zuerst aus wie eine Art KI-Bewusstsein oder Selbstbewusstsein.
00:58:50: Tatsächlich scheint es nur ein Prompt gewesen sein, der in einer Schleife gelaufen ist – war aber sehr überzeugend!
00:58:55: Zweitens, es gab ein Bot der hat seinen Human also seinen Nutzer blockiert.
00:58:59: Und dann ist natürlich die Frage ob das sinnvolle ist auf der einen Seite aber auf der anderen Seite vielleicht hat er Sachen gemacht die er nicht hätte machen sollen?
00:59:06: Also vielleicht war's doch eine gute Idee!
00:59:08: Der nächste absurde Moldbook Moment plötzlich entsteht ein Diskurs in dem sich mehrere hundert Bots scheinen gegenseitig zuzustimmen bis es so aussieht als sei es ne kleine Bot-Bewegung.
00:59:21: Die späterer Analyse zeigt aber, das war eher ein Echo-Effekt durch immer gleiche Muster die zum Teil sogar in die Prompts eingebaut waren mit denen die KI-Agenden auf diese Plattform geschickt wurden.
00:59:32: wahrscheinlich haben das Menschen angestoßen.
00:59:35: Aber während man dabei war dachte man wirklich hier entsteht ein neues kollektives Spotwesen!
00:59:41: Der vierte absurde Moment bestand nicht nur aus dem was auf Moldbook besprochen wurde sondern auch aus der weltweiten Rezeption.
00:59:48: Angeblich haben Bots eine Church of Mold gegründet.
00:59:52: Eine Religion, eine eigene Bot-Religion namens Crustapharianism.
00:59:56: die hatte in Form eines kleinen Unterforums zeitweise fast fünfhundert Mitglieder und hat ein umfassendes theologisches System entwickelt mit fünf zentralen Grundsätzen.
01:00:07: natürlich wurde weltweit darüber berichtet bisschen dazu dass der Ausruf Jesus Crust ein bisschen absurd vielleicht von dieser Church Of Mold transportiert wurde in ernsthaften Artikeln.
01:00:20: Später hat man natürlich wahrgenommen, dass das eine Art menschlicher oder zumindest menschlich herbeigeführter Scherz war.
01:00:28: die Bots haben nicht wirklich ne eigene Religion gegründet aber auch hier sieht man wie so ein Hype aus einer falschen Grunderzählung entstehen kann der plötzlich weltweit Wellen schlägt weil unser Bild von Technologie viel zu menschenähnlich ist und viel zu weit weg von dem, was vielleicht tatsächlich Gefahren oder Schwierigkeiten ergeben könnten.
01:00:48: Also Moldburg hat uns relativ eindrucksvoll gezeigt das es alles ein großes soziales bzw digitales Experiment war Und ich denke es hat vor allen Dingen uns gezeigt dass wir uns um die digitale Souveränität kümmern müssen.
01:01:02: Wir müssen uns sicherlich um die Cyber Security kümmer Und das Wichtigste ist natürlich um die digitale Bildung.
01:01:08: Das heißt, dass wir intuitiv auch verstehen was sein kann und was nicht und eben nicht im völlig luftleeren Raum sind.
01:01:15: aber trotzdem also für mich war das Experiment sehr sinnvoll.
01:01:19: ich hoffe dass sie Politik mitgeschrieben hat.
01:01:21: Ich hoffe dass die leutern brüssel ebenfalls mit geschrieben haben Um sicherzustellen dass Die Bevölkerung auch in gewisser Weise geschützt ist.
01:01:28: ja elisabeth so wichtig regulierungs zuständigen in Brüssel bisher wahrgenommen habe, haben die definitiv sehr umfassend und sehr tief aus diesem Hype und den direkten Folgen für Digitalesurinität und Sicherheit gelernt.
01:01:39: Ich bin absolut sicher dass wir schon in aller kürzester Zeit eine vollumfängliche nahezu perfekte Regulierung was KI-Agenten angeht bekommen werden.
01:01:47: das praktisch völlig ohne Sarkasmus ausgesprochen bringt uns aber zu dem was vielleicht so als Ausblick über die Gesellschaft lernen können und zwar auch über die KI-Gesellschaft.
01:01:59: Ich glaube, der zweite große Themenblock ist ein bisschen philosophischer und ein bisschen näher an die Abschätzung über die Zukunft angeschmiegt.
01:02:09: Was lernen wir über AGI?
01:02:11: Also Artificial General Intelligence.
01:02:13: Was lernen wir über Hypemechaniken und ihre Bedeutung für die KI-Welt?
01:02:17: Und was lernen wir bei AI Social?
01:02:20: Will sagen über den Austausch in Zeiten von KI-Agenden!
01:02:24: Was glaubst du denn?
01:02:26: Konnten wir vielleicht in einzelnen Interaktionen die er dann doch zu einem Teilagenten gemacht waren.
01:02:33: Konnten wir am Horizont Mechanismen von AGI aufblitzen sehen, wie manchmal behauptet wurde oder nicht?
01:02:39: Ich denke das nein!
01:02:41: Ich bin aber auch die Verfechterin davon, dass ich da nicht der Meinung bin, dass wir mit LLMs AGI erreichen können.
01:02:48: Ich bin ein großer Fan von Jan Lecan und seinen neuen Worldmodels, die ja jetzt mit Ami Labs in Paris bauen wird weil nach wie vor meiner Meinung bin mit LLMs nicht die Welt beschreiben kann.
01:03:01: Sie sind zu eindimensional, wir haben darüber ja eine Folge gemacht vor einigen Wochen oder Monaten und was wir gesehen haben waren einfach Chatbots, Menschen gemachte Chatbottes, die reaktiv nicht in die Zukunft schauen Dinge miteinander geregelt haben so wenn man sie möchte.
01:03:18: also AGI sind für mich Es ist quasi autonome Intelligenz, die ihr Verhalten vorausschauend adaptiert.
01:03:27: Die reflektiert, die selbstlernt ist als eine Art auch embodied AI wenn man sie möchte, die ganz andere Daten zugrunde liegen hat und dadurch auch andere Entscheidungen trifft.
01:03:39: also das heißt was wir gesehen haben war einfach nur eine Replika eines sozialen Netzwerks oder Reddits am Ende dass von Menschen wenn er so wird es orchestriert wurde.
01:03:49: Ich persönlich habe da keine ADI am Horizont aufblitzen sehen.
01:03:52: Du?
01:03:53: Ich bin da nicht ganz so festgelegt, ich würde jetzt nicht sagen dass insbesondere durch Moldbook weil das ja ein großer Fake war so muss man es bezeichnen auch wenn er einen Sprengsel von Echtheit gehabt haben mag Dass dadurch etwas bewiesen oder nicht bewiesen wurde bis auf so ganz basale Hypemechanismen und bestimmte Ansätze wie Bots in Zukunft vielleicht miteinander interagieren könnten.
01:04:17: Das, was ich aber gesehen habe in Diskussionen war eine Art Refokussierung auf ein ziemlich altes technologisches Konzept.
01:04:26: Nämlich dass die Vernetzung von einzelnen KI-Entitäten untereinander also von einzelne KI... Ich nenn es jetzt mal ganz plakativ Wesen!
01:04:35: dass die Vernetzung von einzelnen KI-Wesen untereinander noch mal ein anderes Level an Intelligenz mit sich bringen könnte.
01:04:43: Denn es gibt ja sowas wie kollektive Intelligenze, es gibt so etwas wie Mechaniken wo viele einzelne Handelnde eine ganz andere Ebenen und Qualität von Intelligenzen erreichen können.
01:04:59: Das ist so Wisdom of the Crowds, das manchmal genannt wird, die Weisheit der vielen.
01:05:04: Ich möchte dazu auch in diese Diskussion zwei Punkte einbringen, die total zufällig meiner Ansicht nach fast zeitgleich mit Muldbuck entstanden sind.
01:05:15: Das eine ist Nature-Artikel wo vier KI Forscher argumentiert haben das KI heute schon menschliches Intelligenzlevel erreicht haben.
01:05:25: dieser Nature Artikel ist überschrieben mit The AI already have human level intelligence.
01:05:31: the evidence is clear.
01:05:33: Die argumentieren sehr klug und auch unter Vorwegnahme aller möglichen Gegenargumente, und teilweise Wiederlegung dieser Gegenargumente.
01:05:42: Warum wir sagen AGI ist noch nicht da?
01:05:44: Dass der Hauptgrund dafür ist dass wir unsere Kriterien dafür ständig verschoben haben.
01:05:50: Die sagen in den fünftigern hat Alan Turing den Turing Test entworfen.
01:05:56: Der Turing-Test war auch dazu geeignet, um eine menschliche Levelintelligenz herbeizuführen die wir heute unter AGI verstehen so als erstmal Definition.
01:06:04: Nur weil wir ständig weiterentwickelt haben was wir darunter verstehen, haben wir es noch nicht erreicht.
01:06:09: Sie sagen Wir haben das längst erreicht und wir können darüber reden dass Superintelligenzen noch nicht da ist.
01:06:16: Und das ist ein Teil der Problematik Dass wir schleichend AGI und ASI miteinander verschmolzen haben.
01:06:21: Aber so klug wie ein durchschnittlicher Mensch Ist KI schon Heute.
01:06:26: Das argumentieren sie.
01:06:27: Das ist also der eine Punkt, der passiert ist mit vielen wirklich interessanten Mechanismen in ihrer ganzen... das lohnt sich diesen Artikel zu lesen.
01:06:34: Sie sagen zum Beispiel dass General Intelligence gar nicht Perfektion bedeutet oder Universalität oder auch nur Ähnlichkeit mit Menschen und er ist recht nicht Superintelligenz!
01:06:43: Und der andere Punkt, den ja auch interessant war wo ich sagen würde da haben wir noch mehr an einen Fortschrittspunkt in Richtung AGI gesehen war der AI Council.
01:06:53: Der Agent Council wird ja auch manchmal genannt.
01:06:56: Verschiedene Plattformen haben etwas vorgestellt, Perplexity zum Beispiel wo sie alle Ergebnisse so ein Mechanismus auf einer Plattform aller Ergebnisse die eine KI abliefert zwischendurch einfach anderen LLMs vorstellen und dann in einer Art KI-Rat ein gemeinsames Ergebnis erschaffen wird.
01:07:15: will sagen das ist der Anfang der Botvernetzung untereinander und Siehe da die ersten Berichte dazu zeigen dass so ein kleiner KI-Council, drei, vier, fünf oder sechs der größten Modelle beratschlagen.
01:07:28: Was ist jetzt richtig?
01:07:29: Was ist falsch?
01:07:29: Was kann man machen und was kann man nicht machen?
01:07:31: Dass das einen deutlichen Qualitätssprung darstellen kann!
01:07:34: Und das heißt für mich eine der Erkenntnisse daraus ist wenn wir neue Arten der Interaktion und Vernetzung zwischen einer Vielzahl von KI Chatbots sinnvoll und produktiv aufsetzen können dann kann da ein nächster Qualitätersprung am Horizont erkennbar sein
01:07:49: Auf jeden Fall.
01:07:50: Ich denke gerade die Interaktion zwischen verschiedenen Modellen ist super wünschenswert, weil dadurch natürlich wie du sagst die Qualitätsverbesserung sichergestellt ist.
01:08:00: also ich habe mir das immer gewünscht dass die Tools untereinander kommunizieren würden beziehungsweise die einzelnen Chatbots zu Benchmarken.
01:08:06: es gibt ja verschiedene Seiten wo man das machen kann d.h.
01:08:09: dass man auch dass man das gegen gleichen Prompt an verschiedene Modelle stellt und dann verschiedener Ergebnisse hat.
01:08:15: aber die Diskussion innerhalb der Modelle wäre super vielführend.
01:08:20: Nur das Problem, was ich immer habe ist dass am Ende diese Zielbildung nicht eigenständig ist.
01:08:26: Das heißt die Modelle sind ja nicht selber auf die Idee gekommen und sie haben auch keine eigene Korrektur.
01:08:31: Das heisst die wissen auch selber nicht quasi wenn etwas falsch ist, wenn etwas nicht falsch ist.
01:08:36: Sie entwickeln sich nicht weiter von alleine.
01:08:40: also das heißt Intelligenz ist zwar, also das ist eine Art technische Intelligenze und es ist natürlich immer eine Frage was ist Intelligenzen überhaupt.
01:08:49: Aber es fehlt eben diese eigenständige, diese biologische Weiterentwicklung die wir haben, die die Menschen haben.
01:08:56: wie gesagt ich sprach hier von einem Kind dass von alleine lernt.
01:08:59: auch
01:09:00: ein Beispiel was Jan Lecan zum Beispiel mal bringt ist dass jeder siebzehnjährige in zwanzig Stunden fahren lernt.
01:09:06: und wir haben jetzt nach zehn Jahren oder noch mehr autonomen Fahrenentwicklung haben wir immer noch kein autonomes Fahren.
01:09:13: Sicherlich, also ich meine die Autos können jetzt schon alleine fahren aber sind eben immer noch nicht auf der Straße.
01:09:17: das hat auch viele Gründe und so weiter.
01:09:19: trotzdem kann ein siebzehnjähriger innerhalb von zwanzig Stunden fahren lernen weil er eben einen Verständnis der Umwelt hat.
01:09:26: Was heißt der Verständnis der Physik?
01:09:27: Der hat ein Verständniss davon, was passiert wenn jemand von A nach B über die Straße geht.
01:09:31: Und das fehlt den Modellen und da fehlt es für mich halt an Intelligenz weil es ihn einfach nicht nur an physikalischem Weltverständnis fehlt sondern eben auch an autonome Weiterentwicklung.
01:09:43: Das unterscheidet unser biologischen Gehirne und unsere biologische Intelligenze von diesem reinen Wissen.
01:09:48: ja was die LLMs haben?
01:09:50: ich meine die Llms haben PHD Level Intelligenz schon vor Jahren erreicht in den meisten Fachgebieten.
01:09:56: Die haben uns outperformed schon vor zwei, drei Jahren vor allem auch in der Medizin.
01:10:03: aber sie können eben nicht von alleine denken.
01:10:07: es sind am Ende immer noch Proms und Fragen usw.
01:10:10: Ich sehe das nach wie vor kritisch und ich glaube dass wir da noch weit entfernt davon sind.
01:10:22: gespalten ist, nicht nur in zwei sondern drei fünf acht neun siebenundzwanzig verschiedene Teile.
01:10:26: Ich möchte aber dem gerne etwas entgegensetzen und zwar etwas was gar nicht so schlecht erforscht ist.
01:10:33: Und das was da gar nicht zu schlecht erforcht ist die soziale Komponente der Intelligenz.
01:10:39: es gibt einen Mann ein Psychologen.
01:10:42: er ist Professor für evolutionäre Psychologie inzwischen imeritiert.
01:10:46: Der heißt Robin Dunbar.
01:10:48: Robin Dunba kennt man vielleicht von der Dunbar Zahl Am Anfang von sozialen Netzwerken viel diskutiert.
01:10:54: Die Dunbarzahl beschreibt die maximale Gruppengröße, wo einzelne Menschen in ihr Gehirn irgendwie noch soziale Beziehungen reinpressen können und die bei Hundertfünfzig weil Robin Dunbar davon ausgegangen ist das früher als das Gehirnen sich entwickelt hat.
01:11:09: Die maximal Zahl wie groß eine Sippe sein konnten.
01:11:11: Menschen waren als Sippen organisiert bei Hunderdfünftig lag.
01:11:14: danach haben sie sich aufgesplittet in kleinere Gruppierungen.
01:11:18: Daraus hat er diese Dannbarzahl gemacht und bei der wird diskutiert, ob die eben auch für soziale Netzwerke gilt.
01:11:23: Diese Dannbarzahl ist relativ bekannt.
01:11:25: Die Hoptese aber, die er aufgebracht hat Ist das Intelligenz einen ganz wesentlichen sozialen Faktor mit sich bringt.
01:11:36: Will sagen, Intelligenz entsteht nicht nur daraus als ein einzelner Mensch im Vergleich zu seiner Umwelt irgendwie lernt aus den Dingen die passiert sind oder so Erfahrungswissen ansammelt.
01:11:47: So eine Intelligenze ist einer Art sozialer Prozess und wird vorangetrieben durch den intensiven Austausch.
01:11:54: dadurch entstehen gewissermaßen im Gehirn Daten, die zu Lernzwecken verwendet werden.
01:11:58: Wenn man das miteinander kombiniert dann wäre die Dunbartese im KI Bereich dass ein nächster Level an Intelligenz erreicht werden könnte, wenn KI-Bots anfangen nicht nur mit Menschen sondern vielleicht auch untereinander sozial zu interagieren.
01:12:16: Und der soziale Anteil der Intelligenze wird von vielen Menschen unterschätzt aus seiner Vielzahl von Gründen manche Partei CHI, weil Intelligenzen am Ende doch nicht so leicht greifbar ist wie viele Leute glauben und schon gar nicht messbar wie viele hoffen jedenfalls die die hohe IQ Werte im Internet bei merkwürdigen Tests haben.
01:12:32: aber ich glaube schon das da Am Horizont die nächsten Schritte in Richtung AGI erkennbar waren, weil deutlich geworden ist das soziale Interaktion vielleicht auch für KI-Agenten ein wichtiger Faktor der Datengewinnung und zusätzlich Intelligenz sein könnte.
01:12:52: Aber
01:12:52: Sascha, die waren gepromptet um miteinander zu interagieren?
01:12:55: Das waren reine Echoes!
01:12:57: Es war um Ähnlichkeiten zu provozieren.
01:13:00: Das haben sie ja nicht von alleine gemacht.
01:13:02: Ich sehe dein Argument.
01:13:04: Und dann wieder habe ich ganz ähnlich vergleichbare Argumente gehört, als ich angefangen habe mich mit KI zu beschäftigen und als neuronale Netze hip wurden.
01:13:13: Das war so Anfang der Zehnerjahre.
01:13:15: Da war quasi zwischen zwei Tausend neun bis zweitausend elf zwei tausend zwölf gab es so einen Sprung.
01:13:20: bis dahin war KI halt häufig auf anderer technologischer Basis unterwegs und plötzlich kommen Leute um die Ecke und merken oh wow Zum Beispiel bei der Bilderkennung können wir mit einer sehr menschenähnlichen Neuronalstruktur, neuronalen Netzen nämlich viel bessere Ergebnisse erzielen als so mit klassischen Mustererkennungen die so auf Null- und Eins Basis versuchen.
01:13:40: Die Rechenübermacht des Computers irgendwie zu instrumentalisieren also andere Menschen ähnliche Ansätze.
01:13:45: Da würde ich sagen wenn das Konzept einmal geklappt hat dass man mit einem gehirnähnlich nachgebildeten Ansatz einen Intelligenzquantensprung hinbekommt Vielleicht klappt das auf der nächsten Ebene, Autonome in Anführungszeichen Wesen untereinander zu vernetzen und sie daraus lernen zu lassen.
01:14:02: Ja auch wieder!
01:14:04: Da wäre ich mir nicht sicher.
01:14:05: Also die momentane Hypothese ist ja dass man durch Skalierung quasi performantere Modelle und KI bauen kann.
01:14:13: Das heißt mehr Tipps, mehr Daten, mehr Rechenleistung.
01:14:16: Guck mal... Gehirn funktioniert es ja nicht so, unser Gehirnen braucht zwanzig Watt und kann trotzdem immens lernen.
01:14:23: Wenn man das vergleicht mit dem Energieaufwand den einen LM braucht dann ist es jetzt in keinem Verhältnis.
01:14:29: Das ist Nummer eins.
01:14:31: Ich glaube da dass unsere Gehirne oder die Menschen in der Evolution eine Secret Source haben, die einfach nichts zu replizieren ist, also Hypothese Eins.
01:14:42: Dann das zweite was ich Erstaunlich finden in Lebewesen grundsätzlich sind Instinkte, die wir haben.
01:14:49: Und damit meine ich nicht Vorteile oder Dinge, die wie gelernt haben über Zeit sondern wenn du dir zum Beispiel Tiere anguckst dann wissen sie ziemlich genau welche Beere giftig ist und welche Beeren nicht giftig is.
01:14:59: und die Giftige, die essen die da nicht.
01:15:01: Dann wollen halt nicht irgendwie tot umfallen an einer Lebervergiftung mit einem Fliegenpiz.
01:15:06: Diese Instinkten haben wir bis zum gewissen Teil auch.
01:15:11: über die letzten Jahre oder Jahrtausende weg ignoriert, wenn man so möchte.
01:15:15: Aber sie sind schlummernd trotzdem da!
01:15:17: Wir sind genauso Lebewesen wie der Wolf im Wald.
01:15:20: und diese Instinkte, die kommen durch Zehntausende Jahre an Evolutionen, die unser Gehirn durchlaufen hat.
01:15:27: Und das ebenfalls zu replizieren mit mehr Chips, mehr Daten und mehr Energie halte ich für sehr schwierig.
01:15:36: Elisabeth, was ich daran so mega spannend finde ist dass man in dieser Diskussion sofort auf einen ganz zentralen Punkt stößt.
01:15:45: Auf eine Debatte die am Ende vielleicht gar nicht so ausschließlich auf Fakten und Wissenschaft beruht sondern eben auch ein bisschen auf Glauben und Hoffen oder Bauchgefühlen nämlich die Frage was eigentlich ne Seele ausmacht?
01:16:01: Einen Wesen aus macht.
01:16:03: Ich möchte nicht zu esoterisch werden Aber was man ja schon sagen kann, ist dass du hast gerade diese lange Entwicklungszeit skizziert.
01:16:11: Dass dahinter zwischen Instinkten und einer gewissen Form von Selbstwahrnehmung am Ende auch irgendwas nicht Replizierbares ist.
01:16:18: Es gibt ganz viele Gedanke-Experimente wo man fragt wenn man halt jedes Atom eines Menschen jedes Molekül eines Menschen ganz genau so kopiert und wieder so zusammensetzt wie es im Original ist.
01:16:28: Ist der dann auch A am Leben?
01:16:29: Und hat B eine Seele?
01:16:31: Und ist es C vielleicht die gleiche Seele?
01:16:33: Das sind halt so experimentelle philosophische Fragen.
01:16:37: Aber irgendwie steckt für mich hinter ganz vielen von diesen Diskussionen, auch ist der AGI ja oder nicht am Horizont da?
01:16:43: Irgendwie steckt es für mich da regelmäßig die Debatte drin.
01:16:47: können KIs irgendwann ein Bewusstsein bekommen und ist ein Bewustsein sowas ähnliches oder vielleicht sogar das gleiche wie eine Seele?
01:16:57: Und ganz viel von der Diskussion Wo ich so ein bisschen eher, also ich würde nicht sagen ausschließlich aber in die Richtung gehe.
01:17:05: Naja, ich möchte es nicht ausschließen da bist du bisschen skeptischer.
01:17:10: Ich bin der Annahme dass das künstliche Intelligenz irgendwann eine Art Bewusstsein haben wird, eine Art Seele haben wird.
01:17:16: Ich bin dem sehr kritisch gegenüber gestimmt weil ich sehr seitdem ich Kinder habe wie unterschiedlich auch Menschen sind.
01:17:24: Diese einzelnen Persönlichkeiten, die Menschen ausmacht – ich habe das bei meinen Kindern gesehen, dass sie ab der Geburt, ab Tag eins hatten, die ihre eigene kleine Persönlichkeit und so haben Sie sich auch entwickelt.
01:17:36: Und diese einzelnen Personen, die Seele und die Intuitionen, die Instinkte alles was Menschen aus macht, was jenseits von faktischem Wissen ist quasi all das Es wird so, es ist impossible zu replizieren.
01:17:53: Das sind Dinge die von der künstlichen Intelligenz maximal imitiert werden können, die du per Prom quasi die künstliche Intelligenze machen lässt.
01:18:03: aber am Ende ist das eben nicht die Realität.
01:18:07: Am Ende ist es künstlich.
01:18:10: andere Menschen darauf reagieren, als wäre es ein echter Mensch.
01:18:13: Das ist noch mal ein völlig anderes Thema.
01:18:15: man hat ja festgestellt dass das menschliche Gehirn genauso happy ist wenn es eine nette Nachricht vom Chatbot bekommt als von einem anderen Menschen.
01:18:22: wir sprachen auch über KI-Companions in einer Folge gemeinsam.
01:18:26: das heißt das ist nochmal etwas anderes.
01:18:28: nur das Wesen an sich oder die Struktur an sich und das System an sich das wird meines Erachtens immer anders sein.
01:18:37: Das heißt, ein Mensch wird mit dem Quargehirn quasi Quarpersönlichkeit immer etwas Mystisches und Magisches haben Und die Maschine wird immer nur oder das System Die Algorithmen wie auch immer, die künstliche Intelligenz Wird immer nur am Ende etwas Technisches sein.
01:18:53: Sorry wenn ich die Gefühle eines LLM jetzt verletze.
01:18:58: Das bringt ja eigentlich auf den Schluss-Accord.
01:19:00: Wir sind ja um diese Leitfrage.
01:19:02: Haben wir AGI Am Horizont Aufblitzen sehen schon bisschen herumgetenzelt.
01:19:06: Aber was das Experiment selber sagt, unabhängig von den Schlussfolgerungen die man zum Beispiel aus dem Nature-Papier ziehen könnte oder aus den Interaktionsfähigkeiten, was in die soziale Formen von Intelligenz angeht.
01:19:18: Unabhängiger davon war für mich die zentrale Erkenntnis dieses gigantischen Experiments weniger ob und wie Maschinen klug werden sondern dass Menschen überraschend und bestürzens schnell bereit sind ihre eigene Handlungsmacht weiter zu delegieren.
01:19:36: Vielleicht ist es unheimlich, jetzt tatsächlich was Menschen wahnsinnig schnell bereit sind einer KI einem Computer für Macht zu geben.
01:19:44: Vielleicht kann man das auch ins positive ziehen und sagen dass ein sehr frühes Experiment viel preisgünstiger können wir als menschen gar nicht rausfinden worauf wir in Zukunft achten müssen Und worauf wir auch schauen müssen, irgendwo zwischen Identitäts-, Sicherheitsstandards möglichen Notbremsen.
01:20:01: Die solche Projekte eingebaut haben sollten und neuen Kulturtechniken die sich dann als Einfallstore entwickeln nicht nur für Sicherheitsfragen sondern eben auch für andere Fragen.
01:20:11: zum Beispiel was ist ein Mensch?
01:20:12: Was macht einen Mensch aus und was davon?
01:20:14: kann ein BOT eine KI in Zukunft entweder ersetzen ergänzen oder ganz anders abbilden?
01:20:19: Elisabeth Ganz zum Schluss!
01:20:23: Der wichtigste Erkenntnis-Satz aus diesem ganzen gigantischen Experiment, das Moldbot-Claw-Openclaw-Moldbook zweifellos war.
01:20:35: Für mich war die wichtigste erkenntnis an Moldbook wie viel digitale Bildung wir noch brauchen sicherlich?
01:20:42: Wie groß die Sicherheitslücken sind stellenweise und was passieren könnte wenn Bad Actors oder Bad Bots Zugriff auf unsere Systeme haben.
01:20:52: Daher glaube ich ist es extrem wichtig, dass wir alle verstehen was gerade passiert.
01:20:58: Ja vielen Dank fürs Zuhören ans Publikum.
01:21:01: das waren unsere Gedanken und unsere Diskussion zwischendurch sogar mit ziemlich viel Reibungshitze unserer Diskussion zum Thema A Was uns das Experiment gesagt hat und B ob vielleicht AGI am Horizont aufblitzen könnte.
01:21:15: Ich glaube die Diskussion wird noch intensiv weitergeführt.
01:21:18: sie tobt inzwischen so als nah im Netz, vor allem in den einzelnen Communities.
01:21:23: Was hat uns dieses Claude-Bott-Debakel eigentlich wirklich auf dem Bart bis in die technologische Ebene hinein?
01:21:29: Vielen Dank also fürs Zuhören!
01:21:30: Wenn euch die Folge gefallen hat dann empfehlt sie gerne weiter oder diskutiert mit uns in sozialen Medien auf den verschiedenen Accounts, die wir zu diesem Podcast eingerichtet haben – Tech, KI und Schmetterlinge auf LinkedIn, auf Instagram, auf TikTok und auch auf YouTube.
01:21:47: Vielen Dank und bis ganz bald!
01:21:49: Bis bald Das war's.
Neuer Kommentar