Die Geschichte des KI-Hypes
Was sie uns über die Zukunft lehrt
11. Juni 2025 | 3 min.
Was sie uns über die Zukunft lehrt
11. Juni 2025 | 3 min.
Das Thema KI ist aktuell in aller Munde, hauptsächlich getrieben von großen Sprachmodellen (LLMs) wie ChatGPT oder Bildgeneratoren wie Dall-E und Midjourney. Es wird viel darüber gesprochen, wohin uns die Entwicklung von KI führen wird. Für welche Berufe werden bald keine Menschen mehr gebraucht? Welche Gefahren gehen von einer allgemeinen künstlichen Intelligenz (AGI) aus?
Dabei wird gerne vergessen, dass wir uns diese Fragen nicht zum ersten Mal stellen. Der Begriff „Künstliche Intelligenz“ wurde bereits in den 50er Jahren geprägt. Im Jahr 1959 veröffentlichten Herbert A. Simon, J. C. Shaw und Allen Newell den „General Problem Solver“ (GPS), ein Computerprogramm, das Probleme jeglicher Art lösen sollte. Der Versuch galt schlussendlich als gescheitert, das Programm konnte lediglich simple, wohldefinierte Probleme zuverlässig lösen. Trotzdem brach in den 60er Jahren die KI-Euphorie aus und im Jahr 1963 beschrieben Leonard Uhr und Charles Vossler eines der ersten Programme für maschinelles Lernen. 1965 baute Joseph Weizenbaum ELIZA, ein interaktives Programm, das beliebige Dialoge in englischer Sprache führen sollte.
Man kann sich vorstellen, mit welcher Begeisterung, aber auch mit welchen Ängsten, die Menschen damals auf diese Entwicklungen reagiert haben. Die KI-Entwicklung der 60er Jahre hat maßgeblich die Science-Fiction-Autoren der Zeit beeinflusst. Man ging davon aus, dass die bisherigen Entwicklungen in gleicher oder sogar erhöhter Geschwindigkeit fortgeführt werden können.
In Interviews aus der Zeit hört man gerne Vorstellungen von der KI-dominierten Welt in 10 bis 15 Jahren: Roboter sind überall und übernehmen alle lästigen Arbeiten, sind aber durch ihre Intelligenz auch eigenständige Wesen. (Das ging soweit, dass ein Wissenschaftler beschrieb davon auszugehen, dass seine Tochter in 10 bis 15 Jahren einen Roboter und keinen Menschen heiraten würde.)
Irgendwie kommt einem das alles bekannt vor, oder? Seit der Veröffentlichung von ChatGPT werden wieder ähnliche Töne angeschlagen, ganze Branchen für überholt erklärt oder Szenarien von der Auslöschung der Menschheit durch KI gestrickt.
Die Frage lautet also: Warum sind die Vorhersagen der 60er Jahre nicht eingetroffen?
Die Antwort ist aus meiner Sicht recht simpel: Die Erwartungen waren überzogen. Man ging davon aus, dass man die großen Sprünge, die den schnellen Fortschritt möglich machten, einfach wiederholen kann, wurde jedoch enttäuscht. Die Entwicklung verlangsamte sich rapide, Skeptiker wurden lauter und so folgte in den 70er Jahren der KI-Winter. Fortschritte bei Expertensystemen führten in den frühen 80er Jahren zu einer Erholung des Feldes, aber auch hier konnte man den hohen Erwartungen nicht gerecht werden. Es folgte der zweite KI-Winter bis in die 2010er Jahre.
Im Jahr 2017 erschien „Attention Is All You Need“, ein Forschungspapier von Google, das eine neue Deep-Learning-Architektur, den Transformer, beschrieb. Fast alle LLMs bauen bis heute auf der Transformer-Architektur auf. Mit Blick auf die Entwicklung von Sprachmodellen seit GPT-3 im Jahr 2020 kann man sagen, dass große Teile der Entwicklung evolutionärer – nicht revolutionärer – Natur waren und viele Fortschritte im Bereich der Fähigkeiten dieser Modelle auf größere Skalierung mit mehr Rechenleistung zurückzuführen sind. Laut einer Umfrage der Association for the Advancement of Artificial Intelligence aus dem März 2025 glauben 76 % der befragten KI-Forscher nicht daran, dass dieser Ansatz zu einer allgemeinen künstlichen Intelligenz (AGI) führen kann.
Um den aktuellen Erwartungen an die Entwicklung von KI gerecht zu werden, braucht es also neue, grundlegende Innovationen. Ob und wann diese kommen werden, wird allerdings niemand seriös vorhersagen können.
Wird es also einen dritten KI-Winter geben? Vielleicht. Allerdings nicht im gleichen Maße, wie wir es in den 70er und 90er Jahren gesehen haben. Bereits jetzt haben LLMs und andere generative Modelle viel ungenutztes Potenzial. Sie werden Menschen – zumindest vorerst – nicht ersetzen, aber sie können sie unterstützen.
Während Frontier-Labs wie OpenAI oder Anthropic immer mehr Ressourcen für immer kleinere Fortschritte nutzen, fokussieren sich andere darauf, bestehende Fähigkeiten in immer kleinere und effizientere Modelle zu verpacken, die dann auch außerhalb von riesigen Datacentern – teilweise sogar auf Smartphones – betrieben werden können.
Viele dieser Modelle werden als Open-Source- oder Open-Weight-Modelle veröffentlicht und können auch auf eigener Infrastruktur betrieben werden, wodurch Unternehmen und auch Privatpersonen bei der Nutzung von KI unabhängig und flexibel bleiben. Außerdem lässt sich im Eigenbetrieb die Hoheit über die eigenen Daten waren – gerade hier sind Bedenken bei der Nutzung aktueller KI-Angebote häufig eine besondere Hürde. Diese Demokratisierung des Zugangs zu KI wird weiter voranschreiten und ihre ganz eigenen Innovationen mit sich bringen. Der Fokus auf große Sprünge hin zur künstlichen allgemeinen Intelligenz, die man am Ende kaum noch vom Menschen unterscheiden soll, scheint dieses Potenzial in den Köpfen gerne zu überschatten.
Die Abbildung oberhalb zeigt ein logarithmisches Diagramm, das die sinkenden Kosten von LLMs bei gleichbleibenden Fähigkeiten über den Zeitraum von 2022 bis 2024 darstellt (Quelle: Andreessen Horowitz).
Dann werfen Sie doch einen Blick auf unsere anderen Blogartikel über den Einsatz und die Entwicklung von KI, zum Beispiel im Collaboration- oder Infrastruktur-Umfeld. Behalten Sie unseren Blog im Auge und freuen Sie sich auf weitere Artikel zu diesem und anderen innovativen Themen. Vielen Dank an Paul für diesen spannenden Artikel.