Ist AGI schon da? – Superintelligenz, Gruselfaktor & KI-Souveränität (mit Elisabeth L'Orange)
Shownotes
Schwarz Digits Digitale Souveränität ist die Basis für Unabhängigkeit, Wachstum und Wohlstand. Dafür wollen wir Bewusstsein schaffen.
Transkript anzeigen
00:00:01:
00:00:07: Guten Tag und herzlich willkommen zu einer neuen Ausgabe von Tech, KI & Schmetterlinge.
00:00:11: Dem Podcast von mir, Sascha Lobo in Zusammenarbeit mit schwarz digits dem deutschen Technologiepartner für digitale Souveränität in Europa.
00:00:22: Das Thema heute ist AGI und ASI ob AGI eigentlich schon da ist.
00:00:30: AGI, also Artificial General Intelligence und ASI, Artificial Superintelligence was das vom Gruselfaktor her bedeutet?
00:00:39: Und natürlich auch die Frage der KI-Souveränität.
00:00:42: wie weit sind wir in Deutschland und Europa?
00:00:46: Und besprechen möchte ich das mit Elisabeth Lorange denn wir beide diskutieren über genau diese Frage als kleiner.
00:01:11: Hallo Sascha, freut mich sehr wieder einmal dabei sein zu dürfen.
00:01:15: Und ich glaube dass man zunächst einmal Intelligenz dafür definieren sollte.
00:01:20: bevor wir wissen ob in Artificial und General Intelligence schon da ist Sollten wir erst mal gucken, ob es überhaupt Artificial Intelligence gibt im Sinne von menschlicher Intelligenz die's bei Maschinen jetzt gibt.
00:01:32: Und ich finde das gibt verschiedene Definitionen zur Intelligenzen.
00:01:36: aber sag mal was ist deine?
00:01:37: Also mein klassischer Ansatz wäre dass Intelligenze die Fähigkeit zur Problemlösung ist.
00:01:43: Das ist so ein bisschen ein Basic-Ansatz und natürlich gibt es eine Vielzahl von wissenschaftlichen Definition.
00:01:49: Es gibt ja auch eine ganze Reihe von unterschiedlichen Intelligenzformen, die dann unterschiedlich definiert werden.
00:01:56: Das bekannteste an der Stelle ist wahrscheinlich so emotionale Intelligenze.
00:01:59: aber ganz ehrlich jetzt gerade im Rahmen der Diskussion um KI.
00:02:03: interessanterweise schon vor Chatchity Pt nämlich ungefähr seit zwei tausend zwanzig hat einer der Vorzeige Philosophen vielleicht mal ein bisschen plakativ Aber im Silicon Valley durchaus sehr sehr wichtig So als Denker und als Wegweiser für Eigentlich Technologie insgesamt.
00:02:21: Einer von denen, nämlich Navarravicant hat eine sehr interessante Definition von Intelligenz gebracht.
00:02:29: Nämlich der einzig wahre Test für Intelligenze ist ob du das bekommst was du vom Leben willst.
00:02:36: und da steckt auch so ein bisschen die Kritik drin, die Navaravicant häufig entgegen gebracht wird.
00:02:43: Hyperneoliberale, jeder ist seines Glückes schmied und du bist allein da nur dann wenn du es wirklich schaffst auch wirklich gut.
00:02:51: Und das ist mir so ein bisschen zu wenig gesellschaftlich bis hinzu wenig irgendwo zwischen Diskriminierung und unterschiedlichen Startchancen ist damit gedacht aber erst mal als Intelligenz zu sagen wie gut bist du darin zu erkennen was du möchtest?
00:03:07: Wie gut bist Du darin das auch zu bekommen?
00:03:10: Das hat auf mehreren Ebenen mit mir gesprochen und es war ein erfrischend anderer Ansatz als dieses klassische, kannst du irgendwelche dreidimensionalen Muster im Kopf richtig zuordnen.
00:03:20: Oder irgendwelchen absurden Textaufgaben die dann früher oder später sich entlarven als sowieso so gedrexelt das eine ganz besondere Personengruppe überhaupt damit zurechtkommt?
00:03:29: Und wie ist bei dir?
00:03:30: Ich sehe dass tatsächlich ähnlich ich glaube seine Definition ist nicht differenziert genug Auf der anderen Seite bringt es an natürlich zum nachdenken.
00:03:37: nur Der Kern von Intelligenz ist auf jeden Fall Lernfähigkeit.
00:03:41: Bist du in der Lage, neue Erfahrungen in einer Art und Weise abzuspeichern, dass du daraus Schlüsse ziehen kannst und für das nächste Mal diese Erfahrung nutzt?
00:03:52: Und das nächste Level der Intelligenze ist natürlich wie du schon sagst die Problemlösungskompetenz, dann gibt es verschiedene Arten von Intelligenz.
00:03:59: Es ist mutan, es ist ja auch strittlich überhaupt ob diese ganzen Vertestungen überhaupt alle Bevölkerungsgruppen gleichermaßen abholen wie vorbei es letztlich daran ist, ob das jetzt mit Absicht war oder ohne Absicht.
00:04:10: Das ist alles strittig.
00:04:11: aber ich glaube diese Kernfähigkeit des sich weiterentwickelns ist auch etwas was wir ja auf künstliche Intelligenz anwenden können und für mich ist das dann eben auch die irgendwann die Definition von AGI Artificial General Intelligence.
00:04:26: Das heißt können dieses Thema autonom denken, autonom agieren und von ihrer Umwelt derartig lernen dass sie sich eben anpassen können.
00:04:35: irgendwann
00:04:36: Ja, was man nicht tun kann in einem Podcast über AGI und künstliche Intelligenz weiter darüber reden.
00:04:45: Wenn wir nicht mindestens einmal den Turing-Test erwähnt.
00:04:49: Der Turing Test stammt von Alan Turing, einem britischen Mathematiker, einem der Pioniere – wenn ich sogar der pionier!
00:04:57: Was Computer, Kryptografie und eben auch KI angeht.
00:05:02: Er hat schon neunzehntfünfzig, was absolut früh ist muss man ehrlicherweise sagen.
00:05:06: Ein Aufsatz vorgestellt Computing Machinery and Intelligence und in diesem Aufsatz hat er diesen Turing-Test vorgestellt.
00:05:17: das ist deswegen wichtig weil er den ursprünglich mit einem anderen Namen vorgestellt hat nämlich The Imitation Game.
00:05:24: Der Turing Test geht davon aus dass in dem Moment wo ein Computer in Klammern zum Beispiel bei einem Chat so tun kann, als sei ein Mensch und auf der anderen Seite das nicht erkennt dass es ein Computer ist.
00:05:36: Dass dann ein Test dafür wäre wie intelligent computer sein können.
00:05:43: da muss man ehrlicherweise sagen damit gibt's nicht nur eine gewisse problematik sondern auch alles andere als objektive Möglichkeit Intelligenz wirklich festzustellen Und gleichzeitig ergeben sich aus dieser Urdefinition eine ganze Menge Ansprüche und Ansätze.
00:06:00: Die Forschung ist in diese Richtung gegangen wegen dieses Tests, ich sehe das an sehr vielen Ebenen der Touring-Tests nicht nur überholt vollkommen klar aber eigentlich sich rückwirkend als etwas entpuppt was gar nicht so gut geeignet ist um rauszufinden ob KI tatsächlich intelligent ist.
00:06:16: es schien vielleicht lange Zeit so Aber in Wahrheit ist es nicht wirklich so oder?
00:06:21: Ja Und das Spannende ist ja, dass im Zweiten Weltkrieg bei einer Lage die Verschlüsselung der Wehrmacht zu entschlüsseln.
00:06:27: Er war eine der begnadetsten britischen Mathematiker überhaupt und hat mit seinen Entschlüsselungen Millionen von Menschenleben gerettet.
00:06:34: Das heißt ich glaube als Mathematika hatte er einfach einen anderen Blick auf die Dinge.
00:06:39: Alan Turing brachte sich selbst um weil er stark diskriminiert wurde, weil er schwul war und hat trotzdem durch diese gesamte Kriegszeit hindurch so einen Dienst an der Menschheit geleistet.
00:06:50: Dass ich ihm quasi das gar nicht übernehme dass er diese sehr eingeschränkte Definition hat, der künstliche Intelligenz.
00:06:56: aber dieser sein Test hat es ja immerhin über fünfzig Jahre geschafft in unserer Gesellschaft künstlicher Intelligenzen zu vertesten oder zumindest eine Art Bemessungsgrad oder so ein Maßstab anzulegen wie wir es überhaupt einschätzen.
00:07:07: Klar haben wir uns jetzt weiterentwickelt.
00:07:09: Ich meine die letzten Innovationsschübe, die wir gesehen haben waren ja alle exponentiell.
00:07:14: Wir haben seitdem wir so viel Computer haben, seit dem wir so viele Daten haben wurden die Modelle skaliert und skaliert.
00:07:19: Und jetzt sind wir gerade an einem Punkt in dem es möglich ist... Ja das ist ja eine Theorie dass wir mit LLMs AGI bauen werden.
00:07:28: Die Frage ist jetzt nur ob das ausreicht?
00:07:30: Sind wir da zu einer Lage oder eben nicht?
00:07:33: Lasst uns ruhig nochmal ganz kurz in der Geschichte zurückgehen Weil es, glaube ich, zum Verständnis des Komplexes wichtig ist die Urgründung von künstlicher Intelligenz.
00:07:43: Diese bekannte Veranstaltung am Dartmouth College, neunzeits sechsundfünfzig nochmal sich genau anzuschauen.
00:07:49: und warum ist das relevant?
00:07:51: Weil damals ein paar ziemlich bekannten Mathematiker z.B.
00:07:55: Marvin Minsky, Claude Shannon, John McCarthy, die Hoffnung formuliert haben dass es eine Form von maschineller Intelligenz geben könne Und der Weg dorthin sei jeden Aspekt von menschlicher Intelligenz maschinell, also mathematisch und damit berechenbar beschreiben zu können.
00:08:14: Das ist quasi der Gründungsmythos dass man maschinelle Intelligenze von Menschen vermessen kann und daraus nachahmen kann.
00:08:24: auch das so ein bisschen imitation game beeinflusst ganz offensichtlich von touring und dieser jeder aspekt Der ist heute noch sehr essentiell bei der Frage, haben wir schon AGI oder nicht?
00:08:35: Weil General Intelligence es deutet schon ein bisschen drauf hin.
00:08:38: Ist halt nicht irgendeine Maschine kann besser rechnen als du sondern irgendeinem Maschinen reagiert in jeder beliebigen Situation quasi menschlich beziehungsweise so gut oder besser als der Mensch.
00:08:52: und dieser jede Aspekt von Intelligenz muss sich dann eben auch auf Körperlichkeit beziehen, auf Emotionalität Wissen, Wissensanwendungen, Übertragung, Intuition und so weiter.
00:09:03: Ganz ganz viele Mechaniken von denen man ausgehen könnte wohnen.
00:09:08: Mensch mit einer gewissen Intelligenz sagt okay dem passiert das nicht.
00:09:11: eine KI passiert es aber noch zum Beispiel in der simple Anweisung so falsch zu verstehen oder einfach komplett gar nicht umsetzen zu können was irgendwie ein fünfjähriger hinbekommt was eine KI heute noch nicht richtig schafft.
00:09:23: Das finde ich ist wichtig das zu erwähnen zusammen mit einem Punkt, über den wir auch nochmal kurz sprechen können.
00:09:29: Weil zehn Jahre nach dieser neunzeigstefünfziger Veranstaltung ein Mann namens Josef Weizenbaum Eliza gebaut hat.
00:09:38: und tatsächlich war Eliza ein Chatbot eigentlich der erste echte Chatbot, den es überhaupt gab.
00:09:45: Und Joseph Weizenbaum hat Eliza so gebaut dass im Prinzip vergleichsweise simple Regeln die wirklich gar nichts mit KI zu tun haben Plötzlich auf Menschen wirken, als seien sie intelligent.
00:09:59: Zum Beispiel beantwortet der Fragen mit einem bestimmten Muster von Gegenfragen und plötzlich glauben Leute da wären Verständnis drin.
00:10:10: Weizenbaum spricht von der Illusion des Verstehens Und das war damals definitiv auch so und es hat ganz weitreichende Folgen gehabt.
00:10:18: zum Beispiel Hat weizenbaum dass auch mit Leuten aus seinem institut geprüft so eine art heimlicher Turing-Test und irgendwann Bart offenbar Weizenbaumsekretärin ihn den Raum zu verlassen, um mal privat mit dem Chatbot zu sprechen.
00:10:34: Denn sie hatte den Eindruck es gäbe da eine emotionale Verbindung.
00:10:38: Man muss dazusagen dass Weizenbaum jetzt Kind seiner Zeit war müssen wir ganz vorsichtig auszudrücken.
00:10:44: Und so eine gewisse Herablassung gegenüber weniger gebildeten, gegenüber Frauen war damals mutmaßlich häufiger.
00:10:50: Ich möchte jetzt weißen Baum nichts unterstellen aber die Art und Weise wie das aufgezeichnet ist lässt ein bisschen darauf schließen dass er so denkt naja da müssen ja bestimmte Leute drauf reinfallen.
00:11:00: Er äußert sich dann auch ein bisschen herablassend in diese Richtung.
00:11:02: Aber was wichtig ist ganz offensichtlich braucht die Maschine um einen Mensch bei Tirings Imitation Game zu überzeugen viel weniger als gedacht.
00:11:14: Plötzlich gibt es die Illusion des Verstehens und sogar das Verständnis, und wie Weizenbaum das formuliert, sogar des Verliebtseins.
00:11:22: Es sollen sich angeblich Leute in den Chatbott verliebt haben.
00:11:25: also was davon irgendwie Deutung ist und was tatsächlich real würde ich jetzt nochmal ein bisschen dahingestellt sein lassen?
00:11:32: Ach weißt du, seventy-two Prozent aller Teenagers in den Vereinigten Staaten sind in einer parasozialen Beziehungen mit einem Chatbot Und zwanzig Prozent aller erwachsenen Menschen in den USA sind eine romantischen Beziehung mit einem Chatbot.
00:11:44: Also ich kann mir durchaus vorstellen, dass es vor fünfzig, sechszig, siebzig Jahren genau das Gleiche war.
00:11:48: Denn das menschliche Gehirn kann das ja nicht unterscheiden.
00:11:51: Ob der ein Mensch etwas schreibt oder eine Maschine, das ist für's Gehirnen letztlich das gleiche.
00:11:57: und dieses Verliebtsein dieser Dopaminrausch, der findet ja im Gehirnsstadt also... Mit Sicherheit, das wird sicher nicht alle betreffen.
00:12:05: Aber wir haben ja schon mehrfach über diese parasozialen Beziehungen gesprochen und ich kann mir das sehr gut vorstellen, dass es damals so schockierend war für einige, dass sie sich schockverliebt haben.
00:12:14: Ja, wobei... Also ich war auch schon in der ganze Reihe von Auch das sind ja parasoziale Beziehung Menschen verliebt, von denen ich jetzt nicht viel mehr kannte als ihr mediales Bild Und ein paar halbe Videoclips die man irgendwo gefunden hat.
00:12:28: Insofern würde ich sagen also zum einen finde ich parasozielle Beziehungs gar nichts prinzipiell schlecht ist sondern im Gegenteil Ganz interessant, so quasi als das Nichtschwimmerbecken der menschlichen Beziehungslandschaft mal ein bisschen auszutesten.
00:12:37: Wie fühlt man sich womit?
00:12:39: Okay, man muss dazu sagen die das Gegenüber reagiert halt nicht.
00:12:42: aber da hat dann sogar einen Vorteil weil da reagiert das gegenüber und zwar relativ genau zugeschnitten auf einen selbst mit allen vornnachteilen die es hat.
00:12:49: Aber da haben wir ja schonmal festgestellt dass wir da unterschiedlich so vom Bewertungsansatz in manchen Teilen sind.
00:12:55: Ich möchte mit dir auf die aktuelle Diskussion kommen denn es gibt eine Wie ich glaube, Diskussion die wissenschaftlich geführt wird aber noch viel größer werden dürfte.
00:13:05: Der Anlass ist das im Februar diesen Jahres, im Prinzip der wichtigsten Wissenschaftszeitschrift der Welt in Nature nämlich ein Kommentar erscheint von Jen Belkin und anderen hauptsächlich von der Universität San Diego Und der Titel ist zugespitzt Aber die Argumentation sehr interessant Und dort wird nämlich im Titel gesagt, dass AI already have human level intelligence.
00:13:33: The evidence is clear.
00:13:35: Gleichzeitig so ein bisschen click-baity weil in welche Richtung ist denn die Beweislage total klar?
00:13:41: Aber dort wird im Februar von wirklich ernstzunehmenden Forschenen gesagt Turings Vision ist nicht nur Realität sondern der Test ist eigentlich sogar diesbezüglich überholt das es um weit mehr geht als nur die Imitation.
00:13:56: Die sagen im Prinzip ganz zusammengefasst, nein wir müssen eigentlich davon ausgehen AGI existiert bereits.
00:14:04: Es ist bloß fragmentierter es ist bloßen auf viele unterschiedliche sehr nützliche Einzelinstrumente verteilt.
00:14:13: und in der Zusammenschau haben wir eigentlich AGI.
00:14:17: Und dann Antworten Leute unter anderem Capraro und Gary Marcus antworten ebenfalls in Nature Kommentar und sagen auch in der Überschrift schon, worum es geht.
00:14:27: Statistical approximation is not general intelligence will sagen egal wie gut die Mustererkennung ist ihr habt noch nicht General Intelligence erreicht weil das hier um statistische Annäherungen geht.
00:14:39: Und dann Anfang März.
00:14:43: Die dritte Meinung ebenfalls in Nature.
00:14:45: Der Protext also der sagt AGI ist schon da sei zwar größtenteils überzeugend Blende aber wissenschaftliche und gesellschaftliche Kontexte aus.
00:14:55: Wir haben im Moment einen Grundseitschreit darüber, was artificial General Intelligence ist und ob sie schon erreicht ist?
00:15:03: Ja!
00:15:04: Und ich stimme dem zu, dass sie eben noch nicht erreicht ist.
00:15:06: Für mich persönlich ist auch einer der Kernaspekte von einer generellen Intelligenz – auch künstlichen Intelligenzen eine Transferleistung.
00:15:15: Keiner dieser Modelle kann aus anderen wenn du so möchtest Fachgebieten diesen transfer erbringen.
00:15:21: wenn du wirklich smarten menschen siehst und sieht wie die zum beispiel klavier spielen dann können sie diese muster des klavierspielen häufig auf die mathematik übertragen oder andersherum.
00:15:31: Und dieser transferleistung über mehrere disziplin.
00:15:34: das funktioniert in der künstlichen intelligent noch nicht und auch das reasoning funktioniert ja nur theoretisch, aber beziehungsweise es funktioniert nur in ein vorgegebenes Nachdenken.
00:15:46: Ein wirkliches Nachdanken findet ebenfalls nicht statt und ich meine am Ende ist es für mich einfach sind das Wörter.
00:15:52: die Welt kann eigentlich nicht auf Wörtern reduziert werden.
00:15:55: d.h.
00:15:56: In dem Kontext stimme ich Jan Le Kanz zu Das ist der ehemalige Head of AI von Meta der jetzt ein eigenes Unternehmen Army Labs gegründet hat, um Worldmodels aufzubauen.
00:16:05: Die auf einer anderen Architektur, nämlich der DEPA-Architekturausbasieren und mit anderen Daten trainiert werden.
00:16:13: Und die nutzen Videodaten, sie nutzen Sensorikdaten, die nutzen eben real world Data, um genau diese Transferleistung zu erbringen.
00:16:21: Weil ich glaube es ist ein bisschen vermessen zu glauben dass man Intelligenz nur mit Wörtern erreicht.
00:16:27: Es fehlt das Bewusstsein auf der einen Seite, aber es fehlt eben das Verständnis von vielen Dingen die eben nicht einfach nur mit Wörtern zu beschreiben sind.
00:16:36: Das stimmt total.
00:16:37: und dann wieder hat Jan Le Carre, der ja Turing-Testpreisträger ist aus den letzten Jahren auch einen interessanten Track record an sagen wir mal nicht ganz präzisen Einschätzungen was mit welchem Modell möglich sei?
00:16:49: Mit am lustigsten ist das er ausgerechnet im januar zwei tausend zwanzig also elf monate fort die bt gesagt hat in einem interview mit lex friedman dabei podcast sagt der ja k i ist einfach nicht so wie die leute denken.
00:17:09: wenn ich zum beispiel dieses papier auf diesen tisch tour und den tisch verschiebe was passiert dann?
00:17:13: das papier bewegt sich mit.
00:17:17: daraus machen, die würde das nicht verstehen.
00:17:19: Nicht einmal ich zitiere hier GPT-Five tausend ja zu dem Zeitpunkt klappt es GPT drei, nicht einmal GPT five Tausend fünftausend also ganz weit in die Zukunft gedacht, würde das hinbekommen aus einem Text zu lernen dass ein Tisch verschoben wird und ein Objekt was da drauf ist mitverschoben wird.
00:17:38: Und das Lustige ist, dass einfach wirklich elf Monate später im Dezember zwei tausendswochenzwanzig Jemand genau diesen Videoschnipsel geschnitten hat gegen eine Aufnahme von Chatchi
00:17:49: P.T.,
00:17:50: wo jemand fragt, ich lege einen Papier auf den Tisch, was passiert mit dem Papier?
00:17:56: Und Chachi P. T. antwortet im ersten Satz richtig und führt alles aus alle Eventualitäten.
00:18:01: Das heißt Jan LeCun hat einfach nicht geschafft auch nur elf Monate in die Zukunft zu schauen und da würde ich schon sagen ja das ist ein genialer Kopf.
00:18:10: aber das ist ja ein Kennzeichen der KI-Welt auch heutzutage, dass es selbst für absolute Fachleute extrem schwer einzuschätzen ist in welche Richtung wo wie die KI sich entwickelt weiterentwickelt und wo die größten Hebeln und größte Qualitäten sein werden.
00:18:27: Absolut, Lechepity Song Meal hat mehr geliefert als antizipierte.
00:18:33: Aber was du sagst stimmt ja.
00:18:34: ich meine wenn wir uns jetzt angucken was die großen Tech Bros permanent postulieren so sehen wir dass sie alle paar Monate also auf der einen Seite eine Arbeitsmarktapokalypse voraussagen und auch noch mit großer Präzisionen was ich unterhaltsam finde weil es nie ein Tritt tatsächlich.
00:18:48: Also bisher war noch keiner auch nur ansatzweise korrekt mit ihren predictions.
00:18:52: Das gleiche gilt im übrigen für agi, auch sam orton kündigte mehrfach an das wir bis zum ende des jahrzehnts agi hätten und so eine million chips bräuchten erst dabei sieben billionen zu raisen mit dem ziel einer neue cai infrastruktur und energieinfrastruktur aufzubauen usw.
00:19:10: Ich kreite dass yanle kann nicht an dass er mit seiner prediction korrekt war, aber den Grundgedanken, denen er hat das Sprachmodelle Erdansziehungskraft oder normale Gesetze der Physik eben nicht begreifen.
00:19:21: Den unterstreiche ich schon weil Ich habe zum Beispiel letzte Woche für meine Kinot versucht Domino Steine die umfallen zu generieren und ich hab Nanobanana genommen also schon eines der besseren Bildmodelle oder bessere Videomodelle die es gibt Und es hat mich wirklich Also so viele Prompts gebraucht bis sich alle mal eine Token aufgebraucht hatte Bis zum Schluss und selbst der letzte Stein ist einfach nicht umgefallen.
00:19:45: Ich musste da einen riesenlangen Prompt reinschreiben, dass von Anfang bis Ende bitte die erste Stein fällt an eine zweite oder dritte auch.
00:19:52: Und jedes Ergebnis war anders so.
00:19:55: Das heißt, selbst diese Basics funktionieren in twenty-sextonzwanzig noch nicht.
00:20:00: Wenn zwanzig sechsundzwanziger Nanobinana keine Dominosteine generieren kann, dann sind wir meines Erachtens noch sehr weit entfernt vom ADI.
00:20:07: Absolut!
00:20:08: Ich glaube auch das wir von AGI noch entfernt sind.
00:20:12: aber ich finde die Argumentation relativ interessant.
00:20:15: von den Nature-Leuten, die haben das ehrlicherweise muss man sagen auch hauptsächlich geschrieben als ... Ich möchte mal sagen Provokation.
00:20:24: Die wollten die Diskussion anheizen was ihnen definitiv ziemlich gut gelungen ist und sie wollten vor allem erst einmal erreichen dass diese Debatte neu geführt wird weil so wahnsinnig viele Sachen in Breichkai vor zehn Jahren, vor fünfzehn jahren, vor zwanzig jahren als wahnsinnig fortschrittlich gegolten hätten.
00:20:46: Als eigentlich wir sind schon da, als eigentlich Zielerreichung.
00:20:50: die werden inzwischen so selbstverständlich hingenommen.
00:20:52: ja und das nervt mich auch manchmal muss ich ehrlicherweise sagen dass in dem moment wo was neues vorgestellt wird die leute zwar ganz kurz sagen sieht magisch aus toll und zwei Wochen später ist es ein bisschen axelzuckend wie so ein klassischer mittelständischer Geschäftsführer in der Gesellschaft davon, so einem sauerländischen Metallverarbeitungsindustrie betrieb.
00:21:11: Der sagt doch ganz interessant aber wird das wirklich was ändern?
00:21:14: Wir sind jetzt nicht überzeugt wir machen weiter.
00:21:15: So wie haben wir seit fünf und dreißig Jahren zwei stelle Renditen.
00:21:17: also diese Leute die auf der einen Seite total bewundern zu werden sind auf die anderen Seite völlig unbeeindruckbar durch alles Und damals sagen wir sind extrem weit gekommen.
00:21:26: es wird noch krasser.
00:21:28: Das würde ich sagen ist schon wichtig und gut.
00:21:32: und gleichzeitig gibt es halt an dieser Stelle eine Account Empfehlung.
00:21:35: Solche Leute wie Husk, den findet man auf Instagram und da husk.irl also in real life husk .irl.
00:21:47: Und der ist ein junger Mann, der inzwischen über dreieinhalbtausend Follower hat Der fast nichts anderes macht als zu beweisen Wie unfassbar doof ChatGPT isst.
00:22:01: Zum Beispiel beträgt er chatgpt auf bestimmte Sachen zu tun, die es erklärter oder bekanntermaßen nicht gut kann.
00:22:09: Wie zum Beispiel bis hundert zu zählen und ChatGPT sagt dann halt immer wieder sowas wie one two three four five and so on and now we are with hundred also will sagen erfüllt weder die Aufgaben richtig noch versteht worum es geht.
00:22:23: ich empfehle wirklich diesen Account sich mal anzuschauen.
00:22:26: er macht da ein paar Tricks zwar aber sie zeigen wie weit zum beispiel chat gpt im moment noch In der Audioversion, er spricht mit dem immer und nimmt es auf noch von Artificial General Intelligence ist.
00:22:39: Wir blenden einfach mal ganz kurz ein Zitat aus einem dieser kleinen Videos
00:22:46: ein!
00:23:11: Ja, das
00:23:25: ist das lustige Echo von einem alten Klassiker der schon... Ende des Jahres habe ich den das erste Mal gesehen, bei der Vorstellung von ChatGPT.
00:23:34: Wie viele R's sind eigentlich in Strawberry?
00:23:37: So Erdbeere!
00:23:38: Es sind drei und ChatG Pt kann leicht davon überzeugt werden.
00:23:41: Das ist nur zwei sein.
00:23:43: Je nachdem wie man wo reagiert – es gibt ja auch Unterschiede in der schriftlichen Version übrigens und der Audi-Version.
00:23:49: aber wenn man halt hast ihr ein bisschen folgt dann merkt man okay AGI´s in manchen Situationen noch sehr weit weg.
00:23:57: Also ich finde, man sollte es auch nicht immer nur auf diesen Vorwurf des stochastischen Papageien reduzieren.
00:24:02: Natürlich sind die LLMs im Wesentlich.
00:24:03: mehr ist fantastisch was wir erreicht haben gerade in den letzten drei vier Jahren mit der Compute Power, die wir aufgebaut haben weltweit also großartig auch an medizinischen Forschung und so weiter.
00:24:14: Ich begrüße das alles sehr und ich finde manchmal ist auch diese Diskussion ein bisschen wie das Kind einer letzten Reihe in der Schule dass die Lehrerin darauf hinweist Punkt auf dem E-Fail so.
00:24:25: Also, ich finde es eine wahnsinnige Fortschritte.
00:24:27: nur für meinen Empfinden braucht das halt zur wirklichen generellen künstlichen Intelligenz wesentlich mehr und dass ist eben... Ich sehe also, es fehlt halt das räumliche Verständnis, also es fehlt eben das Lernvermögen, dass man bei jedem fünfjährigen Kind sieht geht schneller.
00:24:43: und dann und das finde ich das das Wichtigste eigentlich in dieser Debatte ist, dass wenn man davon ausgeht oder wenn man der Hypothese folgt AGI mit LLMs erreicht werden.
00:24:54: Dann braucht man, wenn man den Rechnungen von Sam Ordman Glauben schenken möchte an die eine Million GPU so.
00:25:01: Das ist B two hundred sein, h eight one hundreds egal erst mal so grob ja.
00:25:06: und Die wenn man es hochrechnet haben einen Verbrauch von mehreren Kraftwerken pro Tag.
00:25:11: Und das heißt die Energiebilanz eines AGI Modells Ist einfach nicht tragbar für die Welt Wenn du überlegst dass wir ganz viele von diesen bräuchten und gerade die Infarenz der Modelle, denn funktioniert das eigentlich auf den aktuellen Chips nicht.
00:25:26: Das heißt wir brauchen andere Architekturen als die LLAMS oder zweitens andere Chips.
00:25:32: D.h.,
00:25:32: die nächste Evolution-Stufe in den Chips sind Neuromorphichips.
00:25:35: Neuromorphichips wiederum brauchen andere Software d.h.
00:25:38: die aktuellen Python Torch usw.
00:25:40: funktionieren dort nicht.
00:25:42: Wir stecken noch so ein bisschen in den Kinderschuhen meines Achtens aufgrund von technischen Einschränkungen.
00:25:48: Das heißt, es sind momentan physikalische Gesetze die uns daran hindern unter anderem.
00:25:53: Und ich glaube auch zum Beispiel das LLM-Style von der ADI werden.
00:25:56: Ich glaube dass ist ein Konglomerat an verschiedenen künstlichen Intelligenzen, die in Harmonie miteinander arbeiten und eben nicht nur diese eine singuläre Architektur.
00:26:07: Wir kommen jetzt mal zum ersten großen Themenblock und zwar dieser Frage, die gerade sehr groß besprochen wird haben wir schon AGI oder nicht?
00:26:18: Da kann man zuallererst feststellen, dass da gleich mehrere Maßstäbe um diesen Begriff AGI gegeneinander kämpfen.
00:26:26: Dann gibt es unterschiedliche Schulen wie in ungefähr allem.
00:26:29: aber die drei großen Schulen kämpfen gerade um eine Deutungshoheit und zwar ist das einmal die behaviorale Schule, die kognitive Schule und die ökonomische Schule.
00:26:41: Und nach diesen Maßstäben, welchen Maßstab legt man an um AGI für schon da oder noch nicht da?
00:26:48: Oder ein Mittelding zu betrachten.
00:26:50: Da ist so der erste Punkt.
00:26:52: dieses Behaviourale will sagen es ist sehr nah an Turing und da fragt man das ist bei Nature passiert.
00:27:01: wenn sich ein gesamtes System also nicht eine einzelne Technologin den gesamten System über ganz viele Domänen hinweg fast so oder so verhält als sei es allgemein intelligent reicht das nicht eigentlich aus.
00:27:13: Da würde man nicht sagen, es muss ein KI-Modell alles können sondern da würde man eher sagen ja natürlich wenn du ein bestimmtes Modell fragst wie hosk IRL was ist nicht kann dann wird es auch immer irgendwie quatsch antworten.
00:27:29: und also diese behäuferale schule.
00:27:32: dann gibt es die zweite schule die ich mit am interessantesten finde dass Die sagt, Intelligenz braucht wahrscheinlich mehr.
00:27:40: Zum Beispiel Weltmodelle zum Beispiel Gedächtnis und den richtigen Zugriff auf das Gedächten ist auch da es überraschend für viele aber heutige KI- und Sprachmodelle immer noch ziemlich schlecht oder sowas wie Meta-Kognition also Kognition über die eigene.
00:27:55: Das ist deswegen sehr interessant weil Jüngst gerade jetzt im März zwei tausend sechsundzwanzig Google DeepMind im Prinzip einer der wichtigsten KI Firmen des Planeten ja auch Nobelpreis bewährt zehn kognitive Fähigkeiten aufgemalt haben, die sie als AGI Profil betrachten.
00:28:12: Also haben gesagt wir brauchen ganz konkrete Maßstäbe und Sie sagen das sei erstens Aufmerksamkeit also
00:28:19: wo
00:28:20: fokussiere ich drauf?
00:28:21: nur auf die relevanten Informationen?
00:28:23: Das zweite parallel zu dir Elisabeth Lernen erwerbt neuen Wissens durch Erfahrungen und Anleitungen.
00:28:29: Das dritte Gedächtnis Die langfristige Speicherung und Abruf von Informationen.
00:28:33: Das vierte Schlussfolgerung also Reasoning dass man sinnvolle und gültige Schlussfolgerungen durch logische Argumentationen hinbekommt.
00:28:41: Das Fünfte ist die Meta-Kognition selbst, nämlich Wissen über und Überwachung der eigenen kognitiven Prozesse.
00:28:48: Hab ich etwas gelernt?
00:28:49: Hat das Substanz wie habe ich es gelernt?
00:28:51: Kann ich daraus lernen
00:28:52: usw.?
00:28:52: Dann das Sechste ist die Exekutivfunktion Planung, Hemmung von Impulsen zum Beispiel auch Kognitive Flexibilität also mit überraschenden Situationen sinnvoll umgehen zu können Problemlösungsmit dabei finden von effektiven Lösungen für sehr domänspezifische Aufgaben.
00:29:09: So wird das von Google spezifiziert, die Wahrnehmung auch sehr wichtig.
00:29:14: Verarbeitung von sensorischen Eingaben.
00:29:16: Das ist jetzt zum Beispiel in der Robotik etwas was einen ziemlichen Sprung nach vorn gemacht hat.
00:29:20: Die Generierung also Generation Also die Erstellung von Text und Sprache aber auch von bestimmten Aktionen Von Bildern von Videos usw.
00:29:28: Und als zehntes und letztes die soziale Kognition Also soziale Kontexte zu verstehen und angemessen zu reagieren.
00:29:36: Das ist also diese kognitive Schule von KI, die letzte große Schule ist die ökonomische.
00:29:42: Das vielleicht auch gar nicht ganz falsch.
00:29:44: erst mal zu fragen Moment das sind alles Unternehmen die müssen Geld verdienen ob AI zb sagt AGI sei dann erreicht wenn es hoch autonome Systeme gibt die Menschen bei den meisten ökономisch wertvollen Tätigkeiten übertreffen oder zumindest gleichziehen.
00:30:02: Und wenn du das ökonomisch betrachtest, dann ist AGI natürlich früher erreicht.
00:30:07: Das passt glaube ich Open AI auch ziemlich gut in den Kramen.
00:30:10: Ja Sam Ordmann hat außerdem gesagt dass es irgendwann Intelligenz by the meter geben wird.
00:30:17: also das heißt quasi so wie Strom aus der Steckdose kommt wirst du dann jeweils die Intelligenze anzapschen können die du dann im Moment brauchst?
00:30:25: oder das Modell spezialisierte modelle langsam denkende modelle die aber tiefer gehen und so weiter.
00:30:32: Klar, ich meine für die Wirtschaft hätte das gravierende Folgen.
00:30:34: Es hätte auch gravierenden Folgen für die jeweiligen Regierungen.
00:30:37: Die amerikanische Volkswirtschaft zum Beispiel fußt auf föderale Ebene zu dreiundachtzig Prozent auf die Einkommenssteuern.
00:30:44: Das heißt wenn denken so billig wird dass der Arbeitsmarkt quasi kollabiert und Menschen ersetzt werden dann werden die Länder auch irgendwann kollabieren.
00:30:52: Das heisst keiner möchte das.
00:30:53: aber auch in dem Kontext unterschreibe ich das nicht so ganz was Sam Orton da sagt.
00:30:59: natürlich wenn Intelligenz ohne irgendwelche Hürden verfügbar ist, wird das alle befrügeln und den Arbeitsmarkt sicherlich verändern.
00:31:06: Aber es ist ja nicht nur Intelligenz was den Menschen ausmacht Es ist ja auch nicht nur reine kognitive Leistung Wenn man sieht wie wirkliche Arbeit aussieht Wie Verträge geschlossen werden, wie Geschäft gemacht wird, wenn die Dinge bestellt werden.
00:31:19: Das ist ein hoch ineffizienter Prozess auf allen Ebenen weil er hoch menschlich ist Und diese menschliche Komponente fehlt ja komplett.
00:31:28: Wenn Sam Ordman das als AGI irgendwie definiert oder wenn wir dann an der Stelle AGI haben.
00:31:34: Dann denke ich mir so, dass es trotzdem ist.
00:31:37: also es mag sicherlich einen Anteil haben oder es macht sicherlich vieles verändern aber die Wirtschaft und die Welt und die Gesellschaft besteht ja trotzdem noch aus Menschen.
00:31:46: Und das heißt Ich glaube Es wird einfach nur eine Art Esset Dass man zu buchen kann Oder Eine Art Fähigkeit Aber Es Wird letztlich Solange es auf dem Level Ist Noch Keine massiven Veränderung bringen.
00:31:58: Aber ich denke, sobald wir eine AGI erreicht haben von autonomen Maschinen die tatsächlich autonom denken können und die so ähnlich denken können wie Menschen ja?
00:32:07: Die so ähnlich handeln können wie menschen wo vielleicht andere Menschen gar nicht mehr den Unterschied merken ob eine maschine an der anderen Seite ist.
00:32:14: Dann glaube ich komme in einen anderen bereich Und dann sollten wir uns über sehr viele andere dinge Gedanken machen.
00:32:21: Ja was da passiert mit diesem Kampf zwischen den Schulen Ist am Ende natürlich und das geht uns jetzt aus europäischer Sicht, aus deutscher Sicht.
00:32:30: Aus eigentlich Sicht der digitalen Souveränität auch eine ganze Menge an ist eigentlich die Frage ab welchem Zeitpunkt wird KI einsetzbar nicht nur für einzelne Prozesse im Job sondern für ganze Jobprofile für ganze Abteilungen für ganze Unternehmen und für eigentlich sogar Teilbereiche der Gesellschaft so funktional?
00:32:50: Und in dem Moment, wo man das mit AGI so beantworten kann – nie das geht schon!
00:32:57: wird es gemacht werden.
00:32:58: Das ist viel weniger eindeutig und leichter als man vielleicht am Anfang glaubt, weil natürlich ein Unterschied ist zwischen eine KI wenn sie AGI Level erreicht hat, kann die Anfragen richtig beantwortet sein.
00:33:13: Das is was anderes als eine KI kann sämtliche Anfragen immer richtig beantworten Und es passen eine ganze Menge Leute gut in den Kram, sowohl das eine als auch das andere.
00:33:22: Ob myEye würde sehr davon profitieren wenn man sagt ach nee siebenundneinzig Prozent reicht.
00:33:27: Menschen haben dann Fehlerquote von drei vier Prozent.
00:33:29: also völlig in Ordnung.
00:33:30: wenn die KI auch drei Prozent hat ja Dann können wir das einfach schon mal so machen und dann sind ein paar Fehler nicht so wichtig.
00:33:35: und dann könnte man aber auch sagen ne solange eine KI nicht hundert prozent erreicht ist grob fahrlässig die überhaupt so einzusetzen, dass Menschen ersetzt werden können.
00:33:45: Übrigens eine ähnliche Diskussion wie bei selbstfahrenden Autos, wo man einen Unfall bei Selbstfahren in Autos durch der Softwaremenge passiert?
00:33:53: Überhaupt nicht verzeiht!
00:33:55: Wie soll man gesellschaftlich längst eingepreist hat?
00:33:57: Dass wahnsinnig viele Unfälle passieren weil Menschen halt Menschen sind und auch Menschen zu Tode kommen, weil Menschen Menschen sind.
00:34:03: In den USA sterben neunzehntausend Menschen jedes Jahr an Driving Under Influence.
00:34:07: Und die Rate wäre deutlich niedriger, wenn sie alle von einem Waymore gefahren werden würden.
00:34:12: Natürlich stellt sich die ethische Frage schon lange ab welchem Punkt ein selbstfahrender Perfektion das endlich ausgetauscht wird?
00:34:20: Bei wie viel Toten sozusagen oder erspartentoten würde dieser Wandel stattfinden?
00:34:25: und das können natürlich nur die Leute da in der Regierung beziehungsweise, Aber diese ethische Frage stellt sich an vielen, vielen Dingen.
00:34:34: Dieses Human AI Alignment ist glaube ich eines der Kernprobleme werden weil... Diese AGI wenn wir sie dann erreicht haben auf den Maschinen was machen wir wenn wir die Pet Chip in die Hirne der Menschen einpflanzen?
00:34:47: Dann haben wir nur einen kleinen Anteil der Menschen der sich diese Chips mit vielleicht dieser unfassbar potenten Software leisten kann und der andere Teil der Gesellschaft nicht mehr.
00:34:55: das heißt hier werden eine derartige Polarisierung sehen im zwanzig dreißig Jahren von den Menschen, die KI nutzen können.
00:35:02: Die KI kreieren und entwickeln und für die KI verantwortlich sind.
00:35:06: Und eben die Menschen, der ja nur auf der Anwenderseite sind und sich vielleicht die Moderne nicht leisten können.
00:35:11: Nur Data-Cleaning machen oder gleichen... Also das heißt ich finde mit dieser AGI Debatte kommen sehr viele ethische und gesellschaftspolitische Fragen über die wir dringend nachdenken müssen bevor es zu spät ist.
00:35:22: Weil ähnlich wie das Ozonlochbrühe haben wir's auch geschafft durch die Kluge Regulatorik das ganze Problem einzu... Dämmen und es zu schaffen, dass wir nicht mehr FCKW in der Atmosphäre haben.
00:35:33: Und dadurch größere Probleme abgewendet haben.
00:35:35: Ja ich finde das Beispiel total toll, dass du gesagt hast, wir konnten als menschliche Gemeinschaft das FCKW-Problem des OZO noch einigermaßen nösen.
00:35:45: Es hat sich zu einem Teil verbessert.
00:35:47: man muss es auch mal ein bisschen differenzierter betrachten.
00:35:49: aber Ich habe auch mal eine sehr interessante Untersuchung genau darüber gelesen Dass das völlig untypisch war für klassische Menschheitsprobleme weil A dieses Ozoneloch, fand ich Monocausal war aber so stark geprägt von FCKW und weil BFCKW vor allem in so ein zwei drei Schlüsselindustrie vorgekommen ist die man vergleichsweise gut steuern konnte.
00:36:13: Weil es weniger Anbieter gab und irgendwann einen vergleichsweise günstiger Ersatzstoff gefunden wurde ohne FCK.
00:36:19: W das heißt ganz viele Voraussetzungen sind zusammengekommen dass am Ende weniger FCKW freigeworden ist und dann hat sich das Ozoneloch tatsächlich erholt, aber zum Beispiel auch noch nicht vollumfänglich.
00:36:31: Also ich finde den Punkt sehr gut.
00:36:33: Ich glaube in ganz vielen Bereichen es ist viel komplexer und gleichzeitig kann man ja beim Erreichen von AGI das was du feststellst, dass da die soziale Frage häufig ausgeblendet wird, auch sogar feststellen bei denenjenigen, die sagen AGI ist noch gar nicht da!
00:36:48: Die sind ganz weit entfernt.
00:36:50: Ein sehr schönes Beispiel dafür ist jetzt auch gerade wiederum in Nature's Grill, wie der Debatten-Schwerpunkt zum KI im Januar.
00:37:00: Das Hunterweise gab es da nämlich einen Test mit dem sogenannten Humanities Last Exam.
00:37:07: Das ist ein Test mit zwei Tausend Fünfhundert absoluten Expertenfragen und die besten LLMs, die gerade verfügbar sind.
00:37:18: Die haben interessantes Phänomen bei Humanities last exam nämlich, dass sie eine sehr niedrige Genauigkeit bei der Beantwortung der Frage erzielen und gleichzeitig wahnsinnig selbstsicher sind das es richtig ist.
00:37:33: Das ist also wirklich ein sehr gutes Gegenbild zu dieser AGI-Euphorie.
00:37:38: Das Problem ist warum wird auch da die soziale Frage ausgeblendet?
00:37:42: Ich habe mir diese Fragen mal angeschaut und ich hab mal eine Frage mitgebracht Elisabeth und dann merkt man sofort... von allen Seiten ein bisschen unredlich geführt wird.
00:37:55: Was meine ich konkret?
00:37:57: Zum Beispiel aus dem Bereich Kunstgeschichte und Ikodografie ist dort die Frage, ich zitiere... der himmlischen Stadt beeinflusst.
00:38:23: Wahrscheinlich war das irgendwie so ein Schneckenpigment, dass seinen Rot oder so verloren hat.
00:38:27: Irgendwie sowas.
00:38:29: Der Hauptpunkt den ich hier machen wollen würde ist ja... Das ist eine komplizierte Frage!
00:38:35: Die ist übrigens für die KI schwer.
00:38:37: Der Test wurde wirklich entwickelt um festzustellen was kann KI und was kann es nicht?
00:38:41: Um die Grenzen der KI im Vergleich zum Menschen wahrzunehmen.
00:38:45: Das ist deswegen schwer für die KI, weil hier ein chemisches Wissen der Pinkmentanalyse mit kunsthistorischer Interpretation und restaurierungswissenschaftlichen Fakten verknüpft werden muss.
00:38:55: Das Problem was ich dabei habe... ...ist dass das Null zu tun hat mit der Lebensrealität noch nicht mal von Fachleuten!
00:39:02: Weil wenn du zweitausendfünfhundert Fragen auf diesem Expertenlevel hast dann gibt es genau nullkommannull Personen auf der Welt die das für sich genommen beantworten könnten.
00:39:13: Und noch schlimmer Wenn du glaubst, dass das der entscheidende Hebel ist um menschliche Intelligenz von Maschinella-Intelligence zu unterscheiden dann würde ich sagen blendest du neunundneunzig Prozent der Menschen aus die weniger gebildet, weniger intelligent, weniger sozialfähig, weniger im Moment in der Lage, weniger ablenkungsfrei, weniger und so weiter und sofort sind.
00:39:38: Wo vollkommen klar ist eigentlich ist AGI da oder nicht?
00:39:42: Eine Krasse!
00:39:43: Elitendiskussion.
00:39:45: Weil in ganz vielen Bereichen AGI, wenn man das ökonomisch betrachtet eine Realität für Menschen ist die vielleicht in den nächsten Jahren Arbeitslos werden könnten weil sie eben nicht irgendwelche Pigment-Diskussionen beruflich führen.
00:39:59: Ja aber Sascha ich musste da wieder sprechen Ist es nicht.
00:40:01: tatsächlich geht es nicht darum wie die KI zum Ergebnis kommt?
00:40:05: Genauso wie wenn du zur Schule gehst oder wenn du studierst dann lernst du irgendwas relevant ist.
00:40:11: Kein Mensch braucht mehr das Wissen, was wir in Biologien als hintenklasse erlernt haben.
00:40:16: Zumindest erinnere ich mich nicht mehr so richtig an die Metohondrien und was ich da alles gelernt habe.
00:40:20: Aber weswegen gehst du zur Schule?
00:40:22: Und weswegen studiert man solange um am Ende denken zu lernen?
00:40:25: es geht darum die kritische Analyse zu beherrschen.
00:40:28: Es geht darum Dinge einzuordnen es geht Darum Neugierde Zu Haben Um Gewisse Dinge dir selber zu erschließen.
00:40:35: Und dieser Gedankenprozess, den glaube ich.
00:40:38: Den sollte man auf diese Pigment-Frage quasi anwenden.
00:40:42: Das heißt du fragst dich welche Pigmente gab es überhaupt zu der Zeit?
00:40:45: Da gab es wahrscheinlich Lapis, Schnecken noch zwei drei andere Erdtöne vielleicht.
00:40:50: Who knows so!
00:40:51: Dann kannst du überlegen was ist die Halbwertzeit von organischem Material?
00:40:55: ja Die Lapis und Steine werden sicherlich länger gehalten haben und die Schnecken wahrscheinlich nicht.
00:41:00: Das heißt, darüber...das heißt diese Verknüpfung von wie du schon gesagt hast.
00:41:05: Die Verknüpfung von organischer Chemie mit dann kunsthistorischen Wissen.
00:41:10: Ich glaube das ist letztlich der Sweet Spot worauf die hinaus wollen.
00:41:14: Das heißt es geht in Fächer.
00:41:16: übergreifen wenn man so möchte ja?
00:41:18: Letztlich zeigt das ja, glaube ich geht es weniger um die Frage sondern es zeigt halt diese Gedanken oder die Art und Weise wie man analysiert oder wie man denkt.
00:41:27: Aber ich gebe dir recht natürlich ist materiell Es ist mehr als fragwürdig.
00:41:31: darüber hinaus haben LLMs ohnehin eine sehr kurze halbwertzeit.
00:41:35: Die Fähigkeit über eine Stunde zu denken ist den meisten auch auszuführen.
00:41:42: Ja ununterbrochen sind meistens LLM nicht gegeben.
00:41:45: so.
00:41:45: Und nicht nur dass die meisten LLMS haben bei einer einstündigen Aufgabe eine Fehlerwahrscheinlichkeit für fünfzig Prozent.
00:41:53: Keiner würde eigentlich einen Computer behalten, der die Hälfte der Zeit kaputt geht so.
00:41:57: Das Nummer eins.
00:41:58: darüber hinaus ist es so dass wenn man fast alle LMS, wenn man die promptet, die bei der zweiten Nachfrage auch eine doppelso hohe Wahrscheinlichkeit haben falsch abzubiegen Bei allen LMS und es gibt dieser Versuch der dort gestartet wurde hat über zwei hunderttausend prompts beinhaltet.
00:42:16: Ich glaube trotzdem noch, dass es die Growing Pains sind.
00:42:19: Also das da viel zu tun ist.
00:42:21: Dass es vielleicht auch nur Kinderkrankheiten sind, die am Anfang der künstlichen Intelligenz sind.
00:42:26: aber wenn solche Basics sozusagen noch nicht da sind dann brauchen wir über irgendwie Schneckenpigmente glaube ich noch nicht sprechen.
00:42:35: Stell dich mal bitte kurz das perfekte Sicherheits-Setup vor.
00:42:38: also wirklich perfekt!
00:42:40: Die Fireballs stehen, Melwa Scanners sind aktuell Endgeräte geschützt alles verschlüsselt des Digitale Fort Knox Und dann kommt jemand und geht einfach durch die Tür.
00:42:50: Nicht weil er irgendwie zaubern kann, sondern weil er den Schlüssel hat!
00:42:54: Alle Sicherheitsfunktionen taugen eben nur dann wenn der Schlüssel in den Händen der richtigen Leute ist.
00:43:00: Das ist das Problem beim sogenannten Account Takeover.
00:43:03: Fast siebzig Prozent aller großen Dateneinbrüche starten mit gestohlenen Zugangsdaten.
00:43:10: Wir hinterlassen ja alle ständig digitale Spuren und wenn irgendwo ein Datenleck passiert dann laden E-Mail Adressen und Passwörter häufig im Darknet.
00:43:19: Außerdem benutzen Cyberkriminelle die persönlichen Identitäten, Geräte und sogar Familienmitglieder von Mitarbeitenden als Hintertüren um in Unternehmensnetzwerke einzudringen.
00:43:29: Mittlerweile haben ja die meisten verstanden dass sowas wie Passwort one two three four nicht unbedingt der sicherste Schutz ist.
00:43:36: aber eine ziemlich große Sicherheitslücke entsteht zum Beispiel dadurch das wir uns eigentlich heute ein paar hundert Password merken müssten dass aber nicht tun wollen, sondern ungefähr die Hälfte der Leute das gleiche Passwort an verschiedenen Stellen nutzen.
00:43:50: Das heißt so ein harmloses Hobbyforum was vielleicht gar nicht so wahnsinnig gut gesichert ist weil es jemand nebenbei betreibt kann plötzlich einen Einfallstor ins Unternehmen sein, weil irgendjemand überall das gleiches Passwort benutzt und niemand es merkt!
00:44:04: Und genau hier setzt Omnik an eine Identitätsschutz-Lösung von schwarz digits.
00:44:09: Omniac macht im Prinzip das, was wir selbst nicht leisten können.
00:44:12: Nämlich kontinuierlich das Internet zu scannen, das Deep Web und vor allem auch das Darknet und zwar nach verifizierten Datenlecks.
00:44:20: Und wenn eure Daten dort auftauchen gibt es nicht nur einen Alarm sondern auch direkt konkrete Handlungsempfehlungen.
00:44:27: Für Unternehmen ist das besonders spannend und zwar aus drei Perspektiven.
00:44:31: Erstens als Mitarbeitervorteil Wenn Mitarbeitende ihre privaten Accounts besser schützen sinkt eben auch das Risiko für das Unternehmen.
00:44:38: Zweitens als Partnerlösung, man kann Omniac ins eigene Portfolio integrieren und weiterverkaufen.
00:44:43: Und drittens auch für Tausende von Mitarbeitenden über die Omniak Business API.
00:44:48: Die lässt sich direkt in bestehende Systeme einbauen und überwacht kontinuierlich sensible Filmdaten wie E-Mailadressen oder Telefonnummern – und warnt sofort wenn sie irgendwo auftauchen!
00:44:57: Das Ganze läuft auf der Stackit Cloud von Schwarz-Digits.
00:45:00: Die Daten sind hochsicher verschlüsselt bei Übertragungen und Speicherung also digitale Souveränität nicht nur als Busword.
00:45:07: Das bedeutet, Omniac sorgt einfach dafür dass wenn man mal einen Schlüssel verliert daraus nicht sofort ein gigantisches Angriffs-Szenario wird.
00:45:15: Wenn euch das interessiert alle Infos findet ihr unter omniac.de.
00:45:18: slash business slash security minus awareness.
00:45:21: und jetzt zurück zum Podcast.
00:45:25: Was mich interessieren würde ist deine Einschätzung zu diesem großen Arbeitsmarkt Thema.
00:45:31: Du hast es eben schon angedeutet Das steht im Fokus nicht nur von ganz vielen Debatten in den Vereinigten Staaten, aus meiner Sicht absolut zu Recht.
00:45:39: In Deutschland ist das irgendwo zwischen Fachkräftemangel und einer gewissen Misstrauensebene der Technologie noch nicht voll durchgeschlagen.
00:45:49: Aber glaubst du dass mit AGI wenn wir es dann erreichen je nach Definition sagen wir mal ruhig gegen Ende dieses Jahrzehnts?
00:45:59: Und dann gibt es ja jede Menge Leute, die sagen wir werden das in den nächsten drei Jahren erreichen.
00:46:07: Auch durchaus ernst zu nehmen und auch durchaus Menschen, die bisher ein bisschen skeptischer waren.
00:46:11: Glaubst du dass der Moment wo wir AGI erreichen nach einer ein bisschen allgemeinen und nicht nur ökonomischen Diskussion?
00:46:20: Dass dann diese große Welle, die immer wieder prognostiziert wird von dir eben auch schon angedeutet hat, dass die dann losgeht?
00:46:30: Tipping Point haben wir mal Malcolm Gladwell zu zitieren, so ein KI-Tipping Point.
00:46:35: Wo plötzlich klar ist wow die großen Unternehmen fangen an massenhaft Leute entweder zu entlassen oder in Bereiche zu ziehen wo sie halt nicht mehr das arbeiten was Sie bisher gearbeitet haben und dafür schlechter zu entlohnen.
00:46:49: oder oder oder?
00:46:50: glaubst du es gibt diesen KI Tipping point?
00:46:53: Nein und zwar aus folgenden Gründen erstens Momentan sind wir noch sehr, sehr weit davon entfernt.
00:46:58: Das heißt momentan haben vierundachtzig Prozent der Weltbevölkerung kein Zugang zur künstlichen Intelligenz.
00:47:04: Momentan sehen nur um die sechs Prozent der Unternehmen überhaupt ein ROI wenn sie künstliche Intelligenzen in irgendeiner Form implementieren.
00:47:12: so das heißt auf der Seite ich glaube wir sind in der Adoption noch sehr weiter von entfernt.
00:47:19: dann auf der zweiten seite auf der realen Praxisseite ist wie gesagt Die Art und Weise wie Menschen Geschäfte machen das hochgradig ineffizient, aber Menschen wollen mit Menschen geschäftemachen und nicht mit Maschinen.
00:47:31: Und man müsste alle Unternehmen neu bei null aufbauen um zu diesen Effizienz gewinnen zu kommen, um AGI's alleine agieren zu lassen.
00:47:41: Das heißt es geht gar nicht mit dieser Legacy Tag die wir haben, mit diesem Legacy Systemen, mit den alten Strukturen, mit diesen alten Architekturen.
00:47:49: Man müsste komplett bei Null anfangen AGI laufen lassen.
00:47:53: Aber selbst dann hast du ein Unternehmen, das AGI First ist wenn du so möchtest.
00:47:58: aber es fehlt ja auf der anderen Seite, es fehlen die Kunden und die Beziehung sozusagen.
00:48:03: Menschen machen sehr viel Geschäft mit anderen Menschen mit denen sie irgendeine Form von Beziehungen haben und zwar insbesondere in Deutschland.
00:48:09: Das heißt auch auf der Seite I don't think so.
00:48:13: Gardner hat dazu jede Menge Studien veröffentlicht.
00:48:15: Die gehen davon aus dass im Jahr Die Arbeitsplätze die durch KI geschaffen werden tatsächlich den Verlust, den es von Arbeitsplätzen sicherlich auch geben wird aber überrunden werden.
00:48:26: das heißt momentan.
00:48:27: Was ich in der realen Welt sehe ist dass ohne Ende Data Engineers gebraucht werden.
00:48:32: es werden vor deployed engineers gebrauchten werden Programmierer Gebrauchtes alles enablement Programme händering gesucht.
00:48:39: so das heißt Alles, was benötigt wird um KI in irgendeiner Form zu den Menschen zu bringen und damit die Menschen bewegen.
00:48:45: Da gibt es einen riesen Bedarf.
00:48:47: Die Arbeitsmärkte wandeln sich ja nicht so leicht.
00:48:50: Drittens fragt ihr nach dem Fachkräftemangel.
00:48:52: Wir haben tatsächlich ein Fachkräfte-Mangel von sieben Millionen Deutschland.
00:48:55: Und wir haben ungefähr vier Millionen Arbeitslose.
00:48:57: Das heißt das ist ein gewisses Paradoxon.
00:48:59: Da ist irgendwie ein Mismatch.
00:49:01: Kann man jetzt die vier Millionen Arbeitslosen mit bisschen AGI zu den sieben Million Fachkräften wandeln?
00:49:06: Ich glaube nicht!
00:49:08: Es ist komplexer.
00:49:10: Menschen funktionieren komplexe, Systeme funktionieren Komplexe Gesellschaften sind komplexa.
00:49:14: es ist nicht so dass du einfach jemand der quasi nicht rechnen kann dem Taschenrechner an die Hand gehst gibts und sagst so jetzt you go und sei mal CFO.
00:49:22: also ich glaube es wird sicherlich horizontal sehr viel wandel innerhalb der Unternehmen geben.
00:49:27: Ich glaub AGI wird viele Menschen zu Dingen bewegen zu denen sie vorher nicht in der Lage waren.
00:49:33: ja das heißt auf der anderen Seite dass andere Fähigkeiten wichtiger sein werden als Meinen wegen Mathe zu können, also das heißt Empathie und vor allen Dingen auch Kuratierung.
00:49:43: Und ich glaube da wird es irgendwann hingehen,
00:49:44: d.h.,
00:49:45: Dinge werden kuratiert werden müssen.
00:49:48: Wenn eine AGI in Anwalt entsetzt, wirst du immer noch einen Human in the Loop brauchen ein Richter oder an Anwaltung der das Ergebnis der AGI, der KI in irgendeiner Form bewertet und einordnet?
00:50:00: Das Gleiche brauchst du auf der medizinischen Seite, das gleiche brauchste bei den Lehrern.
00:50:04: Also mit Sicherheit wird es toll sein, wenn wir sehr kluge Maschinen haben.
00:50:11: Wir müssen sie in irgendeiner Form einsetzen weil es ist immer noch ein Globus der von Menschen regiert wird quasi und nicht vom Maschin.
00:50:19: Ich finde toll dass du versuchst dir den Optimismus oder die Abwesenheit des Pessimismus hochzuhalten.
00:50:26: Selbst bin ich auch super optimistisch allerdings eher auf eine generelle Art Nicht was einzelne Anwendungen, einzelne gesellschaftliche Bereiche und auch das Branchen angeht.
00:50:36: Was du beschrieben hast... Das ist ja mehr oder weniger der Stand den zum Beispiel McKinsey im letzten Jahr relativ präzise faktisch zurückführen könnte.
00:50:46: Nämlich dass die großen ROIs also die Zugewinne was die Investitionen in KI angeht bei Unternehmen kommen erst dann raus Wenn man Prozesse halt nicht mehr nachahmt so durch KI wie der Mensch das eins gemacht hat, sondern wenn man ganze Arbeitsprozesse genau so aufsetzt dass die KI sie auch gut erledigen kann.
00:51:04: Es gibt genau darauf bezogen eine bekannte Wette über die haben wir ja auch schon mal gesprochen nämlich die Wette wann wird das erste Unicorn im Silicon Valley oder irgendwo anders entstehen also Start-up was über eine Milliarde Dollar wert ist?
00:51:16: Dass nur aus einer Person besteht!
00:51:18: Nämlich dem CEO und der Rest ist komplett KI.
00:51:21: Das ist natürlich so eine Agentenwette.
00:51:23: Können diese Arbeiten auch Agenten erledigen?
00:51:25: und die Wetten stehen im Moment auf zwei tausend sechsund zwanzig und zweitausend siebenundzwanzig, durchaus auch von Leuten wie dem Enthropic Gründer Dario Amodei also von Leuten, die da sehr intensiv dabei sind und ein eigenes Interesse haben aber... Dario
00:51:37: amodei ist der größte Alarmist.
00:51:39: ich habe tatsächlich mir mal aus Scherz eine Matrix gemacht zwischen Aussagen Also Ich hab dir auf So einer Rage Scala von eins bis fünf Raiden lassen öffentliche Aussagen Im Vergleich zu wichtigen Events bei den Unternehmen, das heißt Finanzierungsrunden.
00:51:55: Neue Product Releases und dergleiche wenn sie PR brauchen.
00:51:58: also das heißt uns korreliert so hart ja also Dario Amodays Statements zu dass es noch achtzehn Monate sind bis alle White Collar Jobs eliminiert werden.
00:52:07: Korreliert ist es zufällig immer dann wenn er Geld braucht und Presse braucht.
00:52:10: ich finde solche Aussagen sind ein bisschen vor sich zu genießen und ich find's auch nicht sehr verantwortungsbewusst von diesen Stimmen die sehr viel Reichweite haben solche Dinge in die Welt zu pusten, weil es auch immer wieder Menschen gibt, die dadurch irgendwie verängstigt werden.
00:52:24: Absolut
00:52:24: und Darühamode ist neben ja ganz eindeutig einem der wichtigsten KI Gründer des Planeten definitiv ein PR-Genie.
00:52:32: Das kann man nicht anders formulieren.
00:52:33: aber früher so weit ich weiß Chefwissenschaftler, Chefforscher bei OpenAI und die öffentliche Wahrnehmung, in die ihr das ziehen möchtest.
00:52:41: Nicht nur stärker BtoB und da ist tatsächlich ein Topic weit vorne hat OpenAI und alle anderen inklusive Google's Gemini überholt, was die Anwendung für Firmen angeht.
00:52:51: Sondern er behauptet zumindest öffentlich einen radikalen Fokus auf Sicherheit zu haben, was in einem gewissen Widerspruch steht.
00:52:57: Zudem, was wie du gesagt hast mit seinen regelmäßigen alarmistischen Aussagen der um die Ecke kommt.
00:53:02: Ich würde ein bisschen überleiten auf den zweiten großen Block und das ist das, was nach AGI kommt.
00:53:09: Wir sind noch nicht bei Artificial General Intelligence – nach Meinung der meisten Leute außer vielleicht jetzt ein paar Menschen, die das auf Krampf so sehen möchten.
00:53:17: Aber wir beschäftigen uns schon und es ist eben auch wichtig dass man es tut mit dem übernächsten Schritt und das ist ASI Artificial Super Intelligence.
00:53:28: Hast du mit artificial super intelligence dich schon aus deiner Sicht als KI Beraterin?
00:53:36: Als jemand der das beruflich auch spüren und wissen muss hast Du Dich schon tiefer mit ASI Beschäftigt.
00:53:45: Ich habe mich im Zugem der AGI einmal mit ASI und ich glaube, der Begriff kam so vor, ich würde sagen, vierundzwanzig Monaten auf
00:53:52: bzw.,
00:53:52: das war das erste Mal, dass ich darüber gelesen habe.
00:53:55: also da geht es darum, die Artificial Superintelligence der Agi wahnsinnig überlegen sein soll in Unabhängigkeit, in strukturiertem Handeln quasi diese apokalyptische Sicht der Roboter, die die Welt übernehmen.
00:54:11: Ich teile auch diese Vision noch nicht, weil ich erst auf technischer Ebene gerne wissen möchte, wo das herkommen soll und wo die trainiert werden sollen.
00:54:20: Wie gesagt, die Chips sind nicht da!
00:54:22: Die Programmiersprache, auf denen die Chhips trainiert wird ist ebenfalls nicht vorhanden.
00:54:28: Wenn Technologien entwickelt werden, es dauert schon eine Weile.
00:54:30: Also wenn wir überlegen seit wann es künstliche Intelligenz gibt?
00:54:33: Und wir sprachen über Touring in den vierzigern fünfziger Jahren.
00:54:37: Das sind siebzig-achtzig Jahre, mit ähnlichen Modellen am entwickeln sind.
00:54:42: Deswegen ASI sehe ich jetzt nicht so direkt in der Zukunft, siehst du das anders?
00:54:47: Also was ist deine Sicht auf die Dinge?
00:54:50: Ich versuche gleichzeitig immer ein bisschen meine Begeisterung im Schacht zu halten und mit einzubeziehen.
00:54:57: dass wir einen wiederkehrenden Phänomen haben war ja letzte sechzig Jahre.
00:55:03: da gab es auch den KI Winter wo zwischendurch irgendwelche Vorhersagen gleich übermorgen können KI XYZ Einfach nicht nur nicht eingefroffen sind, sondern ist eigentlich ein Rückschritt zu beobachten war.
00:55:12: Wo man dachte das kriegt KI schon hin und dann hat sie einfach gar nichts bekommen als man es ein bisschen breiter getestet hat.
00:55:16: Das gab's immer wieder.
00:55:17: Und gleichzeitig haben wir halt gerade in den letzten fünf Jahren im Prinzip schon vor ChatGPT.
00:55:24: mein eindrucksvollstes Erlebnis in dieser Hinsicht war ... Als ich die ersten Forschungen von dem gesehen habe was danach mit Journey geworden ist nämlich Bilderstellung... ein gutes Jahr, ein paar Monate vor ChatGPT.
00:55:40: Das war der Sommer, zwanzig.
00:55:42: da gab es plötzlich eine Explosion.
00:55:44: also in der Fachwelt muss man sagen.
00:55:46: Eine Explosion von diesen Bildgenerierungen.
00:55:51: wo krass!
00:55:52: Inzwischen erkennt eine KI wenn ich sage Ich brauche ne Katze die als Clown verkleidet ist und mit Motorsegen jongliert Die Lila Glühn Und das ungefähr das war was am Ende rausgekommen ist?
00:56:03: Das war einfach einen magischer Moment Und seitdem gab es noch eine so große Zeit von magischen Momente in so schneller Geschwindigkeit.
00:56:13: Zuletzt bei der Robotik, KI auf zwei Beinen.
00:56:15: Frühjahrsgarler haben hier ne Sendung auch ein Dieb-Dive drüber gemacht.
00:56:19: Frühjaßgala in China wo Roboter, humanist Roboter plötzlich anfangen so Kämpfe zu führen und irgendwelche Bewegungen zu machen die noch vor zwei Jahren als undenkbar galten.
00:56:30: Wir haben so'ne Beschleunigung beim Fortschritt das ich nicht sagen würde ASI Artificial Superintelligence, das ist noch mindestens x Jahre hin.
00:56:41: Weil es muss man mir auch dazu sagen Es gibt einen ganz wichtigen Hebel jetzt sogar die KI vor.
00:56:49: AGI Ist in der Lage und wir sehen hier erste Ansätze sich selbst in bestimmten Bereichen zu verbessern auf eine Weise die Menschen bisher nicht können.
00:57:00: Wir haben den Punkt schon überschritten wo KI nur noch durch Menschen verbessert werden kann.
00:57:06: Wir haben den Punkt überschritten, an dem es selbstverständlich ist dass KI an KI arbeitet und das ist gleichzeitig gruselig unten Turbo.
00:57:16: Woher soll diese Weiterentwicklung kommen?
00:57:19: Also ich frage mich das technisch wirklich also soll das über die LLMs kommen?
00:57:23: soll das über?
00:57:24: ich meine Roboter laufen jetzt nicht auf LLM oder nur beziehungsweise beschränkt aber die haben andere Systeme Die viel über die ganze Sensorik laufen und über Trainingsdaten, die sie selber zum Teil gesammelt haben untergleichen.
00:57:37: Aber wir sprachen eben darüber... Ich meine am Ende wie schaffen wir es diese technischen Limitation aus dem Weg zu räumen?
00:57:46: Ich frag mich das wirklich!
00:57:47: Also vielleicht auch dieser Limitation auf der Energiesite was glaubst du?
00:57:51: wo geht die Reise hin in der Hinsicht?
00:57:53: Den ersten Teil deiner Frage ist ja quasi in manchen Bereichen schon beantwortet.
00:57:59: Ob das nur LLMs sind, kann ich schwer sagen.
00:58:04: da wo wir die größten Fortschritte haben gibt es zum Beispiel eben in Robotern gleich mehrere miteinander verknüpfte KI-Modelle und Modellvarianten.
00:58:15: Da gibt's auch unterschiedliche Herangehensweisen.
00:58:18: aber wir haben so Physicall AI-Modelle die eine Art mini physikalisches World Model für sich haben sensorischen Daten einfliegen.
00:58:30: Dann gibt es dann eine Schnittstelle zum LLM, dass man dem Roboter eben auch sagen kann gehen wir darüber nach links zu dieser Kommode macht die Schublade auf und holt irgendwie die drei Tischdecken raus.
00:58:39: das hört sich so trivial an aber ist einer der allergrößten Herausforderungen für die Robotik in Klammern gewesen weil sie inzwischen seit gut zwei Jahren schon sehr stark in diese Richtung optimiert werden.
00:58:48: und da braucht man so zwei bis drei Modelle zb dazu noch das WLM also Vision Language Model was Zwischen den beiden großen Sprachmodell und dieser Motorik, der Steuerung dafür so eine Art Brücke sind.
00:59:01: Die Brücke zwischen sehen- und handeln ist, erwartet man vielleicht gar nicht aber noch mal ein eigenes Modell was es richtig übersetzt weil das ultra komplex ist.
00:59:09: Da würde ich sagen sehen wir schon Ansätze da bin ich fast ein bisschen spirituell KI-Spiritualität weil Ich glaube dass zu ASI zur Super Intelligence noch etwas gehört was wir bisher nicht rausgefunden haben.
00:59:24: Also, ich möchte jetzt nicht sagen da fehlt die Seele oder so.
00:59:27: Das habe ich verquatscht aber bei AGI kann ich mir vorstellen dass wir das gewissermaßen mit Bordmitteln noch einigermaßen erreichen.
00:59:33: Aber per Definition ist Super Intelligence eine Form von Intelligenz überlegenheit Die der Mensch und das ist glaube ich wichtig an der Stelle der Definitionen, die der Mensch nicht einmal mit AGI erreichen könnte will sagen ASI ist dann da wenn Mensch plus AGI immer noch schwächer wäre als diese neue Technologie.
00:59:57: Und da würde ich sagen, sind wir nicht nur noch nicht sondern da fehlt aus meiner Sicht und das ist irgendwo so eine technophilosophische Sicht, fehlt irgendeine entscheidende Zutat die ich noch nicht ganz greifen kann.
01:00:11: Kannst du ja sagen jetzt deine dove Intuition?
01:00:14: Das ist deine Hoffnung weil du noch irgendwie Ich möchte es, dass die Maschinen gleich übermorgen übernehmen.
01:00:19: Absolut!
01:00:20: Und diese Intuitionen, die du ansprichst ist ja nicht unbedingt die erlernte Intuition sondern die Intuition, die jedes Tier hat, das sie nicht den Fliegenpilz isst.
01:00:29: Wo weißes Tier?
01:00:30: Nicht weil's die Mutter eben beigebracht hat, sondern weil es fürs Tier nicht gut riecht und dieser Intuition vielleicht bei Menschen vielerorts verloren gegangen ist.
01:00:38: aber die Tiefe in unseren Genen steckt Das erlernete Wissen von zehntausend oder hunderttausend an Jahren der Evolution Tief in uns drin und ich glaube das fehlt für den nächsten.
01:00:50: Evolution sprungen beziehungsweise innovationen sprung für die für die isi, und dass es letztlich das glaubt auch das ist der entscheidende punkt dass dieser.
01:00:58: Innovationssprung fehlt.
01:01:00: wenn man in die geschichte guckt dann sieht man ja immer auch während der industriellen revolution gab es diesen innovationspringen das heißt dann gab's hundertfünfzig jahre kaus wenn man so möchte und irgendwann hat überall eine glühlampe geleuchtet.
01:01:11: diese zeit die braucht es auch.
01:01:14: wir sehen diesen absolut exponentiellen wandeln gerade in der technologie und die menschen kommen hinterher.
01:01:19: es gibt diesen riesen kognitions gap zwischen den modellen und den menschen, die sich eigentlich nur linear weiterentwickeln können nehmen nicht exponentiell.
01:01:28: Und am ende werden wir irgendwann diesen prong sehen... ...und die frage ist dann natürlich wenn uns quasi die KI entgleitet wenn man so möchte das ist ja dann die ASI am Ende.
01:01:39: Die Frage ist wie man das ganze verheiratet und ich glaube da müssen wir einfach aufpassen und Regeln schaffen, Systeme schaffen, dass es nicht so leicht passieren kann.
01:01:48: Ich würde gerne mit dir ein bisschen auch als Abschluss zu diesem Thema Superintelligenz darüber sprechen, weil das für mich gerade die machtpolitische Perspektive entscheidend ist, weil eine Superintelligence ganz offensichtlich ein Machtinstrument wird.
01:02:04: bei AGI würde man sagen okay das ist vielleicht in erster Linie ökonomisch, das ist für den Arbeitsmarkt relevant aber eine Super Intelligence kann nachdem wie es im Moment definiert wird, zumindest ein geopolitisches Machtinstrument werden.
01:02:18: Es ist natürlich einerseits total wichtig dann auch in die Verantwortungsbereiche reinzugehen und zu sagen okay das heißt wir brauchen das auch in Europa?
01:02:26: Wir müssen auch in europa versuchen so was nicht nur herzustellen sondern sinnvoll zu greifen.
01:02:31: Und gleichzeitig möchte ich mit dir über diese Ansätze sprechen die schon da sind wo Teilbereiche des Weges AGI und dann irgendwie zu ASI vorhanden sein könnten.
01:02:44: Und da möchte ich insbesondere hinaus auf ein Phänomen, was häufig besprochen worden ist nämlich dass man in jüngster Zeit davon ausgeht das nicht mehr ein KI Agent AI Agent irgendwie so intelligent wird, dass man die Richtung von AGI kommt sondern wo man KI-Agenten, Netzwerke oder sogar Communities für einen sehr zentralen Fortschritt in dieser Frage hält.
01:03:13: Es wäre denn also die Frage ob AGI und später ASI nicht eher eine Schwarmanwendung von KI ist?
01:03:23: Was glaubst du da?
01:03:25: Also es gibt in ... von ... ein... zwanzig, fünfundzwanzig.
01:03:28: in Nature Communications gibt das die Diskussion zum ALA Framework.
01:03:33: Danach ist der Multi Agent Ansatz sehr vielversprechend.
01:03:36: Allerdings es ist so, dass es auf anderen Ebenen immer wieder Diskussion dazu gibt weil das Grundproblem ist, dass die meistens auf den gleichen Daten trainiert werden.
01:03:46: Das heißt, die Schwachstellen, die Agenten haben, haben sie meistens Modell übergreifen.
01:03:51: Das ist ähnlich wie beim Halluzinieren.
01:03:54: ein Modell in einem Bereich halluciniert, dann wird das nächste Modell im gleichen Bereich hallucineren.
01:03:58: Weil die Trainingsdaten typischerweise das Problem sind.
01:04:01: Das heißt Löcher an den Trainings-Daten zu dünne Trainingszarten, falsche Trainingsdrate usw.. So!
01:04:07: D.h.,
01:04:07: die Frage ist immer ob ein Netzwerk eine Art Schwarmintelligenz tatsächlich wie beim Menschen funktioniert?
01:04:14: D. h. bei Menschen funktioniert die Schwarm Intelligenz ja sehr gut.
01:04:17: Je diverser quasi die Intelligenze, desto besser.
01:04:20: wir sehen dass es tausendfach belegt.
01:04:22: tatsächlich und wir sehen das in jedem jeglichen Kontext nur bei Maschinen funktioniert es eben nicht so gut, weil da die wirkliche gedankliche Diversität fehlt.
01:04:32: Und eben das kritische Denken oder?
01:04:34: Ja ich würde schon sagen dass sowas wie das ALA Framework was einfach versucht rauszufinden wie ist gerade die KI-Landschaft drauf Was funktioniert wie wofür Dass man da Ansätze erkennen kann die vielversprechender sind.
01:04:49: Anfang des Jahres auch über Openclaw gesprochen, wo deutlich geworden ist.
01:04:54: Da waren zwar ganz viele Sachen nicht so wie sie am Anfang schienen aber die Vernetzung von KI Chatbots hat trotzdem einen eigenen Wert kann weiterentwickelt werden und zwar hauptsächlich deswegen weil wenn es unterschiedliche Entitäten sind bestimmte Prognosen viel leichter herzustellen sind und bestimmte Geschwindigkeiten viel leicht überhaupt erst mal in Gang gesetzt werden können.
01:05:19: Es gibt gerade relativ viele Ansätze, zum Beispiel Simulationen von Gesellschaft eben nicht mit einer KI zu machen sondern ganz vielen kleinen KI-Agenten die so tun als seien sie jeweils Personen, die man dann irgendwie besser einschätzen kann wie sie gemeinschaftlich oder eben nicht gemeinschaftliche handeln und was das denn am Ende bedeutet.
01:05:36: also solche Ansätze da gibt es viele Echoes.
01:05:39: aber ich sehe schon dass wir an einem Punkt sind Bei AGI, aber auch bei ASI und das ist für mich so das zentrale Learning aus dieser ganzen Debatte.
01:05:52: Dass es sein kann dass mit ein zwei drei guten Ideen und den Instrumenten die wir schon haben unfassbare Fortschritte erzielt werden können und zwar sowohl in Richtung AGI wie auch in Richtung ASI.
01:06:07: relativ viele von den Problemen über die wir gerade gesprochen haben auf das was du was Lerndaten angeht gerade erwähnt hast.
01:06:14: Relativ viele Probleme davon, kann man entweder direkt oder indirekt über Bande versuchen zu adressieren und das heißt nicht immer und überall.
01:06:22: aber für mich ist da eine sehr sehr wohltunende Nachricht aus Perspektive von europäischer digitaler Souveränität drin.
01:06:29: Das war es blitzte schon mal bei Diepsik auf als Anfang fünfundzwanzig Diepsiq um die Ecke kamen und gesagt haben wir kriegen es auch ohne Video Prozessoren hin hat insgesamt zwölf Mark gekostet da diesen ganzen Lernprozess hinzubekommen und daraufhin einfach sofort die Aktienkurse in den Keller gerauscht sind von vielen großen KI Firmen.
01:06:46: Ich sehe, dass wir noch überhaupt nicht ganz viele Bereiche ausgereizt haben auf dem Weg zu AGI und ASI Und das am Ende vielleicht ist auch eine Hoffnung von mir Nicht nur Technologie und Raw Power und drei Schrilliarden Gigawatt pro Millisekunde Ausschlaggebend sind sondern vielleicht ein Park Kluge hebeln, ein paar kluge Ideen und ein paar KluGE gedankliche Ansätze.
01:07:11: Viel eher als nur immer größer, immer stärker, immer krasser, immer mehr.
01:07:17: Man braucht viel als Basis.
01:07:19: Du kannst nicht sagen KI-Infrastruktur ist egal.
01:07:21: im Gegenteil!
01:07:22: Wir brauchen KI Infrastruktur weil vollkommen klar ist auf absehbare Zeit wird wenig daran vorbeiführen.
01:07:27: aber wie man mit der Infrastruktur umgeht?
01:07:29: Und was es bedeutet und wo am Ende der große Vorteile liegt da glaube ich tend jetzt gerade so ein bisschen in Richtung Idee
01:07:34: Das glaube ich auch.
01:07:35: und am end ist es auch kein Schicksal sondern wir können gestalten so wie's für uns als Menschheit Sinn macht.
01:07:41: Und wenn man final noch einmal vergleicht ein menschliches Gehirn braucht zwanzig Watt zum nachdenken, und im Vergleich einen Rechenzentrum für AGI braucht tausend zweihundert Milliarden Watt wie du gesagt hast also brauche so viel Strom wie einige Atomkraftwerke kaum herstellen können.
01:07:59: das heißt Am Ende ist vielleicht doch unser Gehirn etwas Magisches, was man nicht so leicht kopieren kann.
01:08:05: Ja das Magische... dass die Seele ein Element.
01:08:10: und dann wieder ist es, was mich in Sachen Ziel Richtung AGI, ASI am meisten beeindruckt hat dieses Jahr.
01:08:18: Das wo ich davor stand und dachte ach krass.
01:08:20: auch etwas, was ganz viele so Nerds-und KI Forschende ziemlich beeindruckte.
01:08:26: Und zwar Andrej Capathis.
01:08:30: Das ist ein sehr minimalistisches Open Source Framework und das versucht eine bestimmte Form von Experiment im Bereich Machine Learning, sehr viel schneller herzustellen.
01:08:44: Es ist super simpel!
01:08:46: Ist es wirklich in erster Linie nicht die Technologie sondern die Idee?
01:08:49: Das System, das ganze Setup besteht aus drei zentralen technischen Elemente.
01:08:54: zum einen ist es der Agent.
01:08:56: da kann man irgendeinen Auswählen irgendeine KI, quasi das Gehirn.
01:08:59: Dass die Anweisung liest, diesen Code versteht und Änderungen vornehmend im Code?
01:09:03: Dann gibt es einen sehr kompakten Code von einem kleinen Sprachmodell, ein Nano-LLM Und diese Datei darf der KI-Agent verändern Will sagen dass ist das was am Ende bei einem Experiment rauskommt.
01:09:18: und dann gibt es ein Markdown Dokument will sagen Ein Dokument wo der Mensch seine Forschungsziele reinschreibt.
01:09:26: Dieses Setup von Kapathetut ist, dass der automatisch schon ganz allein anfängt zu experimentieren.
01:09:37: was funktioniert für die Ziele die er mir der Mensch aufgetragen hat am besten?
01:09:42: und dann wenn er das rausgefunden hat.
01:09:45: Dann kann er modifizieren und zwar den eigenen Code nur einen Teil des Codes, und zwar genau das Training des kleinen Sprachmodells.
01:09:53: Das ist die einzige Datei, die er verändern kann.
01:09:55: aber diese Modifikation führt dazu dass quasi über Nacht der Agent immer wieder neue Experimente macht schaut wenn ich den Faktor A hochregle oder den Factor B ist dann das Ergebnis besser und dann selbst sich dann einer neuen Experimentalrunde annähe.
01:10:13: das bedeutet über Nacht läuft da ein Machine Learning Experiment, wo man am Tag sieht.
01:10:17: Oh krass!
01:10:18: Der hat Lösungen gefunden und die hätte ich nie gedacht weil er gemerkt hat wenn man Parameter A und B und C verschiebt Wenn man es lauter macht und gleichzeitig heller und dann aber auf die Kontrastarmut drückt kommt etwas raus das sich nie ausprobiert hatte.
01:10:30: Aber was ist das Ergebnis verbessert?
01:10:33: Und Ich glaube dass solche Auto Research Loops in sehr vielen Bereichen wenn man da erstmal die KI richtig verstanden hat und verbessern kann dramatische Verbesserungen herbeiführen können.
01:10:48: Ja, das Interessante daran ist dass wir uns dann tatsächlich langsam dem Punkt nähern den wir eingangs besprochen haben, dass die KI selbst lernt und sich selbst verbessert.
01:10:57: Das ist eigentlich ja wie wir sagten der die Kernkompetenz der künstlichen Intelligenz oder der Intelligenzen sowieso Dass sie eben wie in einer Art Evolution sich weiterentwickelt.
01:11:07: also sehr super spannend auf jeden Fall.
01:11:10: Zum Abschluss vielleicht Noch eine wissenschaftliche Einlassung, wie die der Einschätzung dort aussieht.
01:11:17: Blais Aghera Iarkas schreibt dazu einen relativ bekannter KI-Forscher natürlich wo auch sonst in Nature wiederum im Jahr twenty-fünfundzwanzig.
01:11:28: das eigentlich KI ist recht bei AGI und auch bei ASI dass es nicht mehr als einzelnes Instrument betrachtet werden kann, sondern das ist irgendwann so komplexe Intelligenzformen sind.
01:11:40: Dass wir von einem Intelligenz-Ökosystem sprechen müssen oder noch ein bisschen zurückgeführter, ein bisschen more basic in dem Moment wo wir AGI als System verstehen, dass AGI eine Anwendung ist wie heute im Chatbot spätestens dann sehr plausibel, dass ASI diese Superintelligenz eben eine Infrastruktur ist will sagen, miteinander verknüpfte AGI's die als Intelligenz-Ökosystem funktionieren.
01:12:11: Ich glaube nicht nur dass das am wahrscheinlichsten ist sondern das wäre zumindest aus europäischer Sicht sogar das vorteilhafteste weil ganz am Ende sind Ökossysteme eigentlich ein Begriff der Vernetzung und auch der Resilienz also Begriffe mit digitaler Solidarität gut fassbar und gut greifbar wären.
01:12:32: Und die vor allem nicht aus der einen komplett riesenüberlegenden Technologie bestehen, sondern aus einer Vernetzung verschiedener Intelligenzen miteinander.
01:12:42: Das ist vielleicht eine fremde Hoffnung aber zumindest eine, die die Debatte für mich im Moment noch ein wenig weniger dystopisch
01:12:50: macht.
01:12:51: Ja, warten wir es mal ab!
01:12:55: Warten wir jetzt mal ab.
01:12:56: Fantastisches Schlusswort!
01:12:57: Vielen Dank, Elisabeth, dass du da warst.
01:12:59: Vielen Dank euch da draußen fürs Zuhören.
01:13:02: wenn es euch gefallen hat dann diskutiert mit uns gerne auf den verschiedenen Accounts von TechKI und Schmetterlinge Auf LinkedIn, auf Instagram, auf TikTok und auf YouTube.
01:13:13: Danke nochmal für's Zuhörn und bis zum nächsten Mal.
01:13:16: Vielen dank, bis dann.
01:13:18: Bye bye.
Neuer Kommentar