Der dröge Teil der Nachricht: Meta verkündete Quartalszahlen. Meta meldete einen Gewinn pro Aktie von 7,14 US-Dollar bei einem Umsatz von 47,52 Milliarden US-Dollar. Das übertrifft recht deutlich das, was zuvor an der Wall Street erwartet wurde. Spannend ist dabei allenfalls, dass Meta auch seine Ausgaben deutlich erhöht hat. Die Gesamtkosten und -ausgaben fürs Quartal 2025 beliefen sich auf 27,07 Mrd. US-Dollar gegenüber 17,01 Mrd. US-Dollar im Vorjahreszeitraum – ein satter Anstieg um 12 Prozent.
Milliardenausgaben auf dem Weg zur Superintelligenz
Wieso das spannend sein soll? Weil ein Großteil dieses Geldes nämlich sowohl in die Übernahme von KI-Unternehmen als auch ins Anwerben von KI-Experten fließt. Meta bezahlt aktuell Milliarden, um die intelligentesten Forscher und Ingenieure bei der Konkurrenz loszueisen. Dahinter steckt das ambitionierte Ziel, vor der Konkurrenz eine sogenannte Superintelligenz zu erreichen.
Mit der Meta AI, die Ihr als eigenständige App oder zum Beispiel auch in WhatsApp nutzen könnt, wird nur ansatzweise sichtbar, was Meta anstrebt. Eine Superintelligenz kann nämlich entschieden mehr als ein LLM (Large Language Model) wie besagte Meta AI oder ChatGPT. Superintelligenz ist dann erreicht, wenn die KI nicht nur mit der menschlichen Intelligenz mithalten kann, sondern die des Menschen in allen Bereichen übersteigt. Mark Zuckerberg deutet an, dass man diesem Ziel ein Stück näher gekommen ist. Konkret schreibt er:
In den letzten Monaten konnten wir erste Anzeichen dafür beobachten, dass sich unsere KI-Systeme selbst verbessern. Die Verbesserung verläuft derzeit noch langsam, ist aber unbestreitbar. Die Entwicklung von Superintelligenz rückt nun in greifbare Nähe.
Natürlich möchte Meta damit den großen Konkurrenten wie OpenAI (ChatGPT), Google (u.a. Gemini), xAI (Grok) und auch den chinesischen Mitbewerbern zuvorkommen. Zuckerberg sieht sich da auch deshalb in einer guten Position, weil sein Unternehmen seiner Meinung nach ein komplett anderes Konzept verfolgt als alle anderen. Er spricht da von einer „Ära der persönlichen Selbstbestimmung“, das eingeläutet werden könnte.
Superintelligenz für jeden!
Während aber alle anderen Unternehmen einen zentralisierten Ansatz wählen, will Meta diese Superintelligenz aber individuell an jeden einzelnen geben. Jeder, so Zuckerberg, solle über eine persönliche Superintelligenz verfügen, um „seine Ziele zu erreichen, das zu schaffen, was er in der Welt sehen möchte, jedes Abenteuer zu erleben, ein besserer Freund für diejenigen zu sein, die ihm am Herzen liegen, und zu der Person zu werden, die er sein möchte.“
Geht es nach dem Meta-Boss, werden wir also alle irgendwann diese Meta-Superintelligenz nutzen, um uns für die Dinge einsetzen zu können, die uns jeweils wichtig sind. Bedenkt dabei, dass dieser Text eben zusammen mit den Quartalszahlen veröffentlicht wurde. Das bedeutet, dass diese Aussagen natürlich auch ein direktes Signal an die Investoren sind, und daher mit einer gesunden Skepsis betrachtet werden müssen.
Wann es so weit sein wird? Das kann auch ein Mark Zuckerberg nicht voraussagen. Aber er glaubt, dass das Rest dieses Jahrzehnts die entscheidende Phase darstellt. Wichtig ist noch, dass er selbst auch Sicherheitsbedenken bei einer so mächtigen Technologie thematisiert. Das nutzt er als Begründung, wieso sich das Facebook-Unternehmen offen hält, welche Teile als Open Source mit der Welt geteilt werden – und welche nicht.
Was denkt Ihr darüber? Glaubt Ihr daran, dass wir Superintelligenz schon so nah sind und dass sie uns von Meta bereitgestellt wird? Oder seid Ihr von Haus aus vorsichtig, wenn Mark Zuckerberg die PR-Kanone anwirft?
Aus dem Text geht nicht hervor, für welches Quartal 2025 die Ausgaben von 17,01 Mrd. auf 27,07 Mrd. gesteigert wurden. Immerhin sind zwei davon abgelaufen und das dritte gerade aktuell (Allerdings des Kalenderjahres, das Wirtschaftsjahr/Geschäftsjahr kann davon abweichen). Auch ist eine Steigerung von 17,01 Mrd. auf 27,07 Mrd. keine um nur 12 Prozent, sondern die Steigerung beträgt satte 59,14 % ((27,07/17,01 – 1) * 100%).
Und nein, ich glaube nicht, dass eine Superintelligenz die generell menschlicher Intelligenz überlegen ist allein durch Verbesserung von KI möglich ist, schon gar nicht durch Selbstverbesserung. Bestimmte Aspekte menschlicher Intelligenz sind noch nicht einmal vollständig erforscht, d.h. man weiß nicht genau wie sie funktionieren. Solange wird man sie nicht modellieren können und damit für KI zugänglich machen können. Nichtsdestotrotz darf man die kommenden Entwickungen im.Bereich der KI mit Spannung verfolgen.
Der Wettbewerb unter mehreren großen Marktteilnehmern läßt zudem hoffen, dass zumindest der Zugriff auf ältere Versionen der großen LLMs wirklich für jedermann möglich bleibt – auch ohne teure Abos.
"Bestimmte Aspekte menschlicher Intelligenz sind noch nicht einmal vollständig erforscht, d.h. man weiß nicht genau wie sie funktionieren. Solange wird man sie nicht modellieren können und damit für KI zugänglich machen können."
Eventuell braucht eine KI so ein Modell auch gar nicht, um Superintelligenz zu entwickeln. Es ist vorstellbar und auch sehr wahrscheinlich, dass das Gehirn des Menschen nicht die einzige Möglichkeit darstellt, Intelligenz zu entwickeln. Vielleicht stellt sich dabei sogar heraus, dass die kohlenstoffbasierte Intelligenz noch nicht mal die höchste Stufe von Intelligenz darstellt (was wir in unserer verständlicherweise anthropozentrischen Sichtweise ja insgeheim annehmen), sondern nur eine Stufe oder einen Zweig darstellt, der nicht das gesamte Spektrum von Intelligenz repräsentiert. Superintelligenz von Computern könnte also durchaus eine nächste Evolutionsstufe von Intelligenz darstellen. Und auch wenn Superintelligenz menschliche Intelligenz nur kopieren sollte, bedeutet es ja nicht, dass diese nicht genauso gut oder sogar besser funktionieren könne. In der Diskussion um Superintelligenz wird da immer wieder das Argument angeführt, dass wir auch Flugzeuge entwickeln konnten, die hervorragend fliegen, ohne dass wir die genaue Funktionsweise von Flügeln der Vögel verstanden und nachgebaut hätten.
Ich persönlich denke, dass wir durchaus in der Lage sind, eine sehr hohe Intelligenz zu entwickeln, ohne das menschliche Gehirn in Gänze verstanden zu haben. Ob dabei – als Nebenprodukt – auch Bewußtsein entsteht, bleibt für mich die spannende Frage.
Ich glaube nicht, dass dabei ein Art von Bewusstsein entsteht, jedenfalls keines, das dem menschlichen Bewusstsein überlegen ist. Emotionen sind auch wichtig. Außerdem weiß man immer noch nicht wirklich, wie Bewusstsein überhaupt entsteht. Das wäre aber wichtig, um es irgendwie nachahmen zu können. Denn auch hier in diesem Bereich ist wohl alles mehr oder weniger Nachahmung der Natur.
Oh ja, Emotionen sind auch ein wichtiger Aspekt. Die lassen sich nach außen natürlich nachahmen, aber das macht wenig Sinn, die Intelligenz sollte diese Emotionen ja tatsächlich empfinden. Zeitwahrnehmung halte ich eventuell auch für wichtig. Spannend finde ich zu beobachten, ob Bewußtsein sich a) mit zunehmender Intelligenz von alleine einstellt (was die Wissenschaft lange annahm und es teilweise immer noch tut) und b) ob Bewußtsein überhaupt eine entscheidende Rolle spielt, insbesondere für eine Intelligenz innerhalb einer "Black Box".
Auch ich halte es prinzipiell für möglich, das künstliche Intelligenz irgendwann "Kohlenstoffintelligenz" überlegen sein kann oder in anderen Welten schon überlegen ist. Allerdings hege ich starke Zweifel, ob die derzeitige Form der KI die richtige Ausgangsbasis dafür ist und ob KI deshalb in absehbarer Zeit "Superintelligenz" entwickeln kann die menschlicher Intelligenz generell und nicht nur in einzelnen Kriterien überlegen ist. Ich schätze derzeitige LLMs noch nicht mal als mit menschlicher Intelligenz vergleichbare "starke künstliche Intelligenz" ein, war mir aber nicht sicher und habe deshalb an ChatGPT folgende Frage formuliert: "Sind derzeitige LLMs schon starke KI und ist eine Entwicklung starker KI auf Basis von LLMs derzeit denkbar und wahrscheinlich"
Die Antwort war eine Bestätigung meiner eigenen Einschätzung. Derzeitige LLMs sind keine starke KI und eine Entwicklung starker KI auf ihrer Basis zwar prinzipiell möglich aber unwahrscheinlich. Einige Experten schließen eine solche Enteicklung auch grundsätzlich aus.
Die umfangreiche und aufschlussreiche Begründung spare ich mir hier, jeder kann ja die Frage selber an eine KI seiner Wahl formulieren.
Grundsätzlich halte ich auch höhere extraterrestrische Intelligenz natülichen Ursprungs und nicht zwingend auf Kohlenstoffbasis für möglich. Allerdings hat Kohlenstoff nach Wasserstoff die meisten Verbindungen. Er stellt eine exzellente Basis für die Selbstorganisation von Leben auf Basis relativ einfacher Moleküle da und deshalb vermute ich, wird mit sehr hoher Wahrscheinlichkeit auch extraterrestrisches Leben auf Kohlenstoff basieren und deshalb konzentriert sich die Suche auf solche Lebensformen auch auf vergleichbare Lebensformen zur Erde.
Extraterrestrische Intelligenz dürfte noch schwerer zu finden sein als einfache Lebensformen da Intelligenz auch unter evolutionären Gesichtspunkten nicht zwingende vorteihaft sein muss. Die Dinosaurier, groß aber nicht unbedingt intelligent beherrschten Millionen Jahre lang die Erde, bis der Chicxulub-Impaktor und die aus seinem Einschlag folgenden chaotischen Bedingungen mit Bränden, langer Dunkelheit und Kälte, Ruß, waberden Schwefelwolken und saurem Regen zu einem Artensterben und dem fast vollständigem Verschwinden der Saurier führten (die Vögel gelten als ihre Nachkommen). Möglicherweise waren es gerade diese sehr schwierigen Lebensverhältnisse, die Intelligenz zu einem entscheidenden Evolutionsvorteil machten.
Nicht zuletzt könnte der Zeitfaktor ein Problem bei der Suche nach außerirdischer Intelligenz sein Das Universum gibt es seit mindestens 13 Milliarden Jahren vielleicht auch schon viel länger. Hochkulturen könnten längst untergegangen sein, wenn man ihre Spuren irgendwann in Millionen- oder Milliarden Lichtjahren Entfernung mal findet.
Ich bin da ebenfalls hin und her gerissen, ob die Technik heutiger LLMs als Basis für die Entwicklung einer Intelligenz oder gar Superintelligenz ausreichend ist. Es ist ja letztendlich nur Stochastik und ein Anordnen von Bausteinen, ein Nachahmen von Wissen und Verhalten ohne echtes Verständnis. Dann aber denke ich, macht der Mensch denn das nicht auch so? Auch wir fangen als Kinder an, Verhalten der Eltern und anderer nachzuahmen, ohne wirklich zu verstehen, warum manches so und anderes anders gehandhabt wird. Dann machen wir eigene Erfahrungen und wenn davon einige zusammenkommen, ändern wir vielleicht unser Verhalten. Wir merken uns, wenn wir auf die Nase fallen oder wenn wir dafür gelobt werden. Wichtig sind also Gedächtnis und Erfahrungen, für eine KI bedeutet das Speicher (wird heute schon gemacht) und Interaktion. Es braucht ein Modell der Welt, um Erfahrungen sammeln zu können. Das lässt sich heute schon digital erzeugen, klein angefangen und immer größer werdend. Und wenn sich die KI in diesen Modellen bewährt hat, kann es weitere und realere Erfahrungen sammeln, indem man diese in Robotern einsetzt. Auch das wird schon gemacht. Und es braucht "andere", so wie der Mensch sich in der Kommunikation und Interaktion mit anderen entwickelt, so muss die KI ebenfalls in Interaktion mit anderen KIs und natürlich auch Menschen treten. Lernen braucht Motivation, aber auch das lässt sich für eine KI bewerkstelligen. Man muss also quasi eine Kindheit für die KI schaffen, durchaus möglich und sogar in kürzerer Zeit durchlebt als bei uns Menschen. Eine Ethik könnte man vorgeben, aber spannender wäre es, diese durch die KIs selbst entwickeln zu lassen. Ich denke, Ethik und Moral entstehen im sozialen Kontakt mit anderen, ein allein auf einer einsamen Insel aufwachsender Mensch dürfte meines Erachtens nach auch keine Ethik entwickeln (auch kein Verständnis dafür), weil er schlicht keinen Bedarf daran hat. Kommen wir zum Bewußtsein. Wir wissen nicht, wie genau es entsteht, aber meines Erachtens ist es ebenfalls ein Produkt sozialer Interaktion. Je komplexer diese Interaktion untereinander und unser Zusammenleben wurde, umso mehr hat die Evolution unser Bewußtsein verstärkt. Eventuell entsteht also Bewußtsein ganz von selbst (und vielleicht sogar unabhängig vom Grad der Intelligenz). Das ist etwas, das in der modernen Philosophie auch diskutiert wird.
Ich halte es also durchaus für möglich, dass Intelligenz bereits mit den einfachen Mitteln von LLMs erzeugbar sein könnte. Es sind interessante Zeiten und ich bin sehr gespannt, wie sich die Forschung auf diesem Gebiet entwickelt.
Superintelligenz? Gott ist jetzt im Internet? 😆