Künstliche Intelligenz (KI) ist allgegenwärtig und hat in den letzten 36 Monaten enorme Fortschritte gemacht. Der sogenannte „ChatGPT-Moment“ – die Veröffentlichung von OpenAIs Chatbot Ende 2022 – markierte einen Paradigmenwechsel: Zum ersten Mal interagierten Millionen Menschen weltweit mit einer KI, die nicht nur plausible Sprache generieren, sondern komplexe Fragen beantworten, Programmcode schreiben und kreative Inhalte erstellen konnte. Dieser Moment veränderte das öffentliche Bewusstsein für KI – von abstrakter Zukunftsvision zu unmittelbarer Realität. Zum ersten Mal interagierten Millionen Menschen weltweit mit einer KI, die nicht nur plausible Sprache generieren, sondern komplexe Fragen beantworten, Programmcode schreiben und kreative Inhalte erstellen konnte. Dieser Moment veränderte das öffentliche Bewusstsein für KI – von abstrakter Zukunftsvision zu unmittelbarer Realität. Wie schnell diese neuen Möglichkeiten Ihren Eingang in unsere Alltagswelt fanden, zeigt folgender Vergleich: Während Google etwa elf Jahre benötigte, um auf ein jährliches Suchvolumen von rund 365 Milliarden Anfragen zu kommen (Stand um 2009/2010), erreichte ChatGPT diese Größenordnung laut OpenAI in weniger als zwei Jahren nach dem Start im November 2022.
Im Silicon Valley löste dieser Durchbruch eine Investitions- und Innovationswelle aus. Big Tech wie Microsoft, Google und Meta trieben ihre KI-Programme massiv voran. Start-ups sammelten in Rekordzeit Milliardenbeträge. Gleichzeitig begannen Regierungen und Aufsichtsbehörden, über Risiken, Kontrolle und Ethik zu diskutieren. Die Vorstellung, dass KI bald alle menschlichen Fähigkeiten erreichen – oder übertreffen – könnte, ist seither kein Science-Fiction-Motiv mehr, sondern Gegenstand ernsthafter Debatten.
Ein markanter Moment dieser Entwicklung war der KI-Moratoriumsbrief im März 2023. Über 1.000 Experten – darunter Elon Musk (CEO Tesla, SpaceX, Mitgründer von OpenAI), Steve Wozniak (Apple-Mitgründer), Yoshua Bengio (Turing-Preisträger, KI-Pionier), Stuart Russell (Professor für KI, University of California, Berkeley) und Emad Mostaque (Stability AI) – forderten darin einen Entwicklungsstopp für KI-Systeme, die mächtiger als GPT-4 sind. Der offene Brief des Future of Life Institute warnte vor „tiefgreifenden Risiken für Gesellschaft und Menschheit“ und plädierte für ein sechsmonatiges, öffentlich überprüfbares Moratorium. Neben Sorgen um Kontrollverlust und Desinformation wurde die Notwendigkeit internationaler Governance-Strukturen betont. Auch wenn der Aufruf kontrovers diskutiert wurde, markierte er einen Wendepunkt: Die Frage, wann Superintelligenz kommt, wird seither begleitet von der Frage, ob und wie sie kontrollierbar bleibt.
Gemeint ist mit „Superintelligenz“ eine KI, die den Menschen nicht nur in Teilbereichen, sondern in nahezu allen kognitiven Leistungen übertrifft – mit potenziell disruptiven Folgen für Wirtschaft, Wissenschaft, Politik und Gesellschaft. Doch wann dieser Punkt erreicht wird – falls überhaupt – bleibt umstritten. Ziel dieses Beitrags ist es, die Bandbreite der Prognosen zu ordnen und die Debatte zu versachlichen.
Der Begriff „Superintelligenz“ wird dabei sehr unterschiedlich verstanden. In der technischen Forschung ist damit meist eine KI gemeint, die in allen Bereichen der Problemlösung und des Lernens besser ist als der Mensch. Andere Stimmen betonen das selbstreflexive, kreative oder moralische Denken als entscheidende Schwelle. Wieder andere definieren Superintelligenz als Fähigkeit zur autonomen Selbsterweiterung. Ohne einheitliche Definition fällt es schwer, ein Zieljahr zu benennen – denn worauf genau soll sich die Prognose beziehen? Hier kommt die Singularität ins Spiel. Sie beschreibt einen historischen Wendepunkt, der durch eine solche Superintelligenz ausgelöst wird: Einen Moment, ab dem technologische Entwicklungen exponentiell beschleunigt und für den Menschen nicht mehr vorhersehbar oder kontrollierbar sind. Während Superintelligenz eine Eigenschaft eines Systems ist, markiert die Singularität eine systemische Zäsur mit weitreichenden gesellschaftlichen Folgen.
Die Bandbreite der Schätzungen, zu welchem Zeitpunkt dieser Zustand erreicht wird, ist enorm. Tech-Größen wie Elon Musk, Jensen Huang (NVIDIA) oder Dario Amodei (Anthropic) sehen die Singularität bereits in der zweiten Hälfte der 2020er Jahre. Ray Kurzweil hält weiterhin am Jahr 2045 als Zeitpunkt der technologischen Singularität fest. In seinem aktuellen Buch „The Singularity Is Nearer“ (2024) bekräftigt er diese Prognose. Allerdings hat er inzwischen einige Zwischenmeilensteine vorgezogen: Er erwartet etwa das Erreichen von menschlicher Intelligenz (AGI) bis 2029 – also deutlich früher als den vollständigen Übergang zur Superintelligenz, den er weiterhin für die Mitte der 2040er Jahre ansetzt.
Viele Forscher aus der KI-Wissenschaft halten die 2040er bis 2060er Jahre ebenfalls für wahrscheinlich – darunter Jürgen Schmidhuber oder die Mitwirkenden der vielzitierten Bostrom/Müller-Umfrage1. Schmidhuber ist ein deutscher Informatiker und einer der international renommiertesten Pioniere im Bereich der Künstlichen Intelligenz. Er gilt als einer der „Väter“ des Deep Learning: Gemeinsam mit seinem Team am Schweizer Dalle Molle Institute for Artificial Intelligence (IDSIA)2 entwickelte er in den 1990er Jahren die sogenannte Long Short-Term Memory (LSTM)-Architektur3 – ein zentraler Baustein vieler heutiger KI-Anwendungen wie Sprachmodelle oder maschinelle Übersetzung. Er vertritt eine stark optimistische Sicht auf KI und sagt voraus, dass Superintelligenz noch in diesem Jahrhundert entstehen könnte. In Interviews betont er häufig seine Vision, eine KI zu schaffen, die „neugierig“ ist und das Universum erforscht – auch unabhängig vom Menschen.
Gleichzeitig gibt es skeptische Stimmen: Yann LeCun (Meta) und Gary Marcus (NYU) bezweifeln, dass heutige Architekturen überhaupt geeignet sind, Superintelligenz hervorzubringen. LeCun kritisiert insbesondere, dass aktuelle Large Language Models rein statistisch arbeiten und weder über Weltwissen noch ein echtes Verständnis physikalischer oder sozialer Zusammenhänge verfügen. Für ihn fehlt es an Mechanismen für planvolles Denken, Kausalitätsverarbeitung und langfristiges Gedächtnis – alles Fähigkeiten, die für allgemeine Intelligenz entscheidend sind. Gary Marcus argumentiert ähnlich: Er hält heutige KI-Systeme für beeindruckend, aber fundamental oberflächlich. Ohne symbolisches Denken, erklärbare Entscheidungslogik und die Fähigkeit zu abstrahieren, könnten diese Modelle komplexe Probleme nicht zuverlässig lösen – geschweige denn sich selbst verbessern oder echte Autonomie entwickeln.
Auch andere Disziplinen tragen zur Diskussion bei. Manche Philosophen wie Daniel Dennett oder Jaron Lanier halten das ganze Konzept für überhöht – oder gar gefährlich. Dennett sieht in der Idee der Superintelligenz eine übersteigerte Metapher, die falsche Erwartungen weckt und den Menschen aus der Verantwortung entlässt. Für ihn sind Intelligenz und Bewusstsein nicht rein technische Phänomene, sondern in biologischen, sozialen und kulturellen Kontext eingebettet. Lanier wiederum kritisiert die Singularitätsdebatte als quasi-religiöse Erzählung, in der Technik zur allmächtigen Heilsfigur stilisiert wird. Er warnt davor, dass solche Denkmodelle entmenschlichend wirken können: Wenn wir Maschinen für allwissend halten, nehmen wir uns selbst die Fähigkeit zur kritischen Reflexion und Gestaltung unserer Zukunft.
Auch der Historiker Yuval Noah Harari betrachtet das Konzept der Superintelligenz mit Sorge – allerdings aus gesellschaftlich-kultureller Perspektive. Für ihn liegt die eigentliche Gefahr nicht in Maschinen, die denken wie Menschen, sondern in Systemen, die unsere Kommunikation, Entscheidungen und Narrative dominieren. Harari warnt davor, dass KI Menschen „hackbar“ macht – also ihre Emotionen, Schwächen und Verhaltensmuster besser versteht als sie selbst. Solche Systeme könnten politische Prozesse, öffentliche Meinung und individuelle Entscheidungsfreiheit unterwandern. Er fordert daher globale Regeln und Institutionen, um die gesellschaftliche Kontrolle über KI zu sichern – bevor diese sich verselbstständigt.
Die Unterschiede gründen oft in den jeweiligen Annahmen: Tech-Optimisten extrapolieren Moore‘s Law und Fortschritte in Modellgrößen.4 Kritische Wissenschaftler weisen darauf hin, dass kognitive Intelligenz nicht rein rechnerisch skaliert. Hinzu kommen psychologische und strategische Faktoren: Wer in KI investiert oder Aufmerksamkeit sucht, hat ein Interesse an nahen Zieljahren. Umgekehrt betonen viele Akademiker die Unsicherheit des Erkenntnisstands – auch um dem Hype entgegenzuwirken.
Welche Indikatoren sinnvoll wären
Um fundierter zu diskutieren, braucht es belastbare Zwischenziele. Dazu könnten zählen: die Fähigkeit zu multimodalem Planen, nachhaltiger Selbstverbesserung, autonomer Forschung oder sozialem Verständnis. Doch viele dieser Marker sind schwer objektiv messbar. Statt allein auf Benchmarks zu schauen, fordern einige Forscher qualitative Kriterien – etwa: Wie robust ist die KI? Wie erklärbar? Wie gut kann sie mit Unsicherheit umgehen?
Mehrere Philosophen und Zukunftsforscher plädieren dafür, den Begriff der Singularität nicht als konkreten Zeitpunkt zu (miss)verstehen, sondern als Denkmodell zu betrachten: Er markiert einen Kipppunkt, an dem sich die Mensch-Maschine-Beziehung grundlegend verändert. Selbst wenn keine „explosionsartige“ Intelligenz entsteht, könnten KI-Systeme zentrale Steuerungsfunktionen übernehmen – mit weitreichenden Folgen für Demokratie, Arbeit und Machtverhältnisse.
Was folgt aus all dem?
Anstatt auf ein konkretes Jahr zu starren, sollte die Debatte sich auf Szenarien und Rahmenbedingungen konzentrieren. Entscheidend ist nicht nur, wann Superintelligenz entsteht, sondern auch unter welchen Bedingungen. Welche Regeln, Aufsichten und gesellschaftlichen Werte prägen ihre Entwicklung? Welche Schutzmechanismen existieren, falls Systeme ihre Ziele verfehlen? Organisationen und Staaten brauchen heute schon Foresight-Strategien – nicht erst, wenn es zu spät ist. Die Idee der Superintelligenz ist ein mächtiges Bild – und ein zweiseitiger Spiegel unserer technologischen Ambitionen wie dystopischen Ängste. Ob sie 2030, 2045 oder nie eintritt, weiß niemand sicher. Klar ist: Die Diskussion darüber wird unser Verhältnis zu Technologie in den kommenden Jahren tiefgreifend prägen. Entscheidend – vielleicht sogar für das Überleben der Menschheit – ist nicht die Frage, ob Superintelligenz möglich ist, sondern wie wir gesellschaftlich, politisch und ethisch mit den sich bietenden Möglichkeiten umgehen. Maschinen müssen Menschen dienen. Und nicht umgekehrt.
1Die Bostrom/Müller-Umfrage (2012/13) befragte über 500 KI-Experten zu ihren Erwartungen hinsichtlich künstlicher allgemeiner Intelligenz (AGI) und Superintelligenz. Der Median der Prognosen sah das Erreichen menschlicher Intelligenz durch Maschinen um das Jahr 2040–2050, mit einer 90-prozentigen Wahrscheinlichkeit bis 2075. Viele hielten es für plausibel, dass kurz darauf auch Superintelligenz entstehen könnte.
2Schmidhuber, J. (2015). Deep Learning in Neural Networks: An Overview. Neural Networks, 61, 85–117. DOI: 10.1016/j.neunet.2014.09.003, enthält eine detaillierte historische Einordnung der KI-Forschung am IDSIA, inkl. Schmidhubers Beitrag.
3Hochreiter, S., & Schmidhuber, J. (1997). Long Short-Term Memory. Neural Computation, 9(8), 1735–1780. Originalpublikation zur Entwicklung der LSTM-Netze, heute ein Meilenstein der KI-Geschichte.
4Moore’s Law besagt, dass sich die Anzahl der Transistoren auf einem Mikrochip – und damit die Rechenleistung – etwa alle 18 bis 24 Monate verdoppelt, während die Kosten pro Recheneinheit sinken. Ursprünglich von Intel-Mitgründer Gordon Moore 1965 formuliert, wurde es zu einem zentralen Treiber der digitalen Innovationsdynamik.

