Seit 2001 · Literatur, Sprache, Kunst, Musik, Medien
StartseiteSpracheDas ELIZA-Programm – Als ein Computer erstmals sprechen lernte
Sprache

Das ELIZA-Programm – Als ein Computer erstmals sprechen lernte

Die Geburt eines Programms: ELIZA und Joseph Weizenbaum

Ein Berliner am MIT

Im Jahr 1966 veröffentlichte der Informatiker Joseph Weizenbaum am Massachusetts Institute of Technology ein Computerprogramm, das die Welt der Wissenschaft in Erstaunen versetzte. Das ELIZA-Programm war in der Lage, mit einem menschlichen Gegenüber eine scheinbar sinnvolle Unterhaltung in englischer Sprache zu führen – eine Leistung, die bis dahin als unmöglich gegolten hatte. ELIZA gilt heute als der erste Chatbot der Geschichte und markiert einen Wendepunkt in der Auseinandersetzung des Menschen mit künstlicher Intelligenz.

Das ELIZA-Programm – Als ein Computer erstmals sprechen lernte

Weizenbaum selbst stammte aus Berlin, wo er am 8. Januar 1923 als Sohn einer jüdischen Familie geboren wurde. Nach der Machtergreifung der Nationalsozialisten floh die Familie 1936 in die Vereinigten Staaten. Der junge Joseph studierte Mathematik an der Wayne State University in Detroit, diente im Zweiten Weltkrieg in der US-Luftwaffe und kehrte anschließend an die Universität zurück. Ab 1963 lehrte er am MIT, wo er zum Pionier der Informatik avancierte. Es war an diesem Ort, an dem einige der kühnsten Ideen über die Zukunft der Rechenmaschinen geboren wurden, dass Weizenbaum sein berühmtestes Werk schuf.

Der historische Kontext: KI-Optimismus der 1960er Jahre

Die 1960er Jahre waren eine Zeit des überschwenglichen Optimismus in der Forschung zur künstlichen Intelligenz. Seit der legendären Dartmouth-Konferenz von 1956, auf der der Begriff Artificial Intelligence geprägt worden war, glaubten viele Forscher, dass denkende Maschinen in wenigen Jahrzehnten Realität sein würden. Herbert Simon, einer der Gründungsväter der KI-Forschung, sagte 1965 voraus, dass Maschinen innerhalb von zwanzig Jahren jede Arbeit eines Menschen würden verrichten können. In diese Atmosphäre des Aufbruchs hinein stellte Weizenbaum sein ELIZA-Programm vor – und löste damit eine Debatte aus, die bis heute andauert.

Joseph Weizenbaum (1923–2008)

Der in Berlin geborene Informatiker lehrte von 1963 bis 1988 am MIT. Neben dem ELIZA-Programm wurde er vor allem durch sein Buch „Computer Power and Human Reason“ (1976) bekannt, in dem er vor einer unkritischen Übernahme von Computertechnologie warnte. Nach seiner Emeritierung kehrte Weizenbaum 1996 nach Berlin zurück, wo er am 5. März 2008 verstarb.

Wie das ELIZA-Programm funktioniert

Das DOCTOR-Skript

Technisch betrachtet war Weizenbaums Schöpfung erstaunlich schlicht. Das Computerprogramm arbeitete mit einem System von Schlüsselwörtern und Mustererkennungen, die Weizenbaum in sogenannten Skripten definierte. Das berühmteste dieser Skripte hieß DOCTOR und simulierte das Gesprächsverhalten eines Psychotherapeuten der Rogersianischen Schule – einer Therapierichtung, die darauf beruht, die Aussagen des Patienten aufzugreifen und in Form von Rückfragen zu spiegeln.

Das Verfahren funktionierte nach einem klaren Prinzip: Das ELIZA-Programm durchsuchte die Eingabe des Benutzers nach vordefinierten Schlüsselwörtern. Fand es etwa das Wort „Mutter“, konnte es mit einer Antwort wie „Erzählen Sie mir mehr über Ihre Familie“ reagieren. Enthielt der Satz die Formulierung „Ich bin traurig“, antwortete das Programm möglicherweise mit „Seit wann fühlen Sie sich traurig?“. Fand ELIZA kein passendes Schlüsselwort, griff es auf allgemeine Floskeln zurück: „Fahren Sie fort“ oder „Das ist sehr interessant“.

Muster und Transformationsregeln

Im Kern von Weizenbaums Programm standen Transformationsregeln, die Sätze des Benutzers umformten. Sagte der Benutzer beispielsweise „Ich habe Angst vor meinem Vater“, konnte das Programm daraus die Rückfrage „Was an Ihrem Vater macht Ihnen Angst?“ generieren. ELIZA verstand dabei weder den Inhalt noch die Bedeutung des Gesagten. Es manipulierte ausschließlich Zeichenketten nach festen Regeln – ein rein syntaktischer Vorgang ohne jede semantische Tiefe. Dennoch entstand beim Gesprächspartner der Eindruck eines echten Dialogs.

Der ELIZA-Effekt: Wenn Menschen Maschinen vermenschlichen

Die überraschende Reaktion der Nutzer

Was Weizenbaum zutiefst beunruhigte, war nicht das ELIZA-Programm selbst, sondern die Reaktion der Menschen darauf. Selbst Personen, die genau wussten, dass sie mit einem Computerprogramm sprachen, begannen nach kurzer Zeit, dem Programm menschliche Eigenschaften zuzuschreiben. Weizenbaums Sekretärin bat ihn, den Raum zu verlassen, damit sie sich ungestört mit ELIZA unterhalten könne. Psychiater erwogen ernsthaft, ELIZA als kostengünstige Ergänzung zur herkömmlichen Therapie einzusetzen.

Dieses Phänomen – die menschliche Neigung, Computerprogrammen Verständnis, Empathie oder Intelligenz zuzuschreiben – wird heute als ELIZA-Effekt bezeichnet. Der Begriff hat längst Eingang in die Psychologie und Informatik gefunden und beschreibt ein Grundproblem unseres Umgangs mit Technologie: Wir projizieren menschliches Verhalten auf Maschinen, sobald diese bestimmte kommunikative Muster nachahmen. Der ELIZA-Effekt zeigt sich heute bei Sprachassistenten, Chatbots und sozialen Robotern in noch weit größerem Maßstab als zu Weizenbaums Zeiten.

Der Turing-Test und die Frage nach dem Denken

Alan Turings Gedankenexperiment

Das ELIZA-Programm steht in direktem Zusammenhang mit einer der grundlegendsten Fragen der Informatik: Können Maschinen denken? Bereits 1950 hatte der britische Mathematiker Alan Turing in seinem Aufsatz Computing Machinery and Intelligence vorgeschlagen, diese Frage durch ein praktisches Experiment zu beantworten. Beim sogenannten Turing-Test kommuniziert ein menschlicher Prüfer über eine Textkonsole mit zwei Gesprächspartnern – einem Menschen und einer Maschine. Kann der Prüfer nicht zuverlässig unterscheiden, welcher der beiden Gesprächspartner die Maschine ist, so hat die Maschine den Turing-Test bestanden.

ELIZA konnte den Turing-Test freilich nicht bestehen – dafür war das Programm viel zu einfach gestrickt. Dennoch zeigte Weizenbaums Chatbot, wie leicht Menschen getäuscht werden können, zumindest für kurze Zeit. Der Turing-Test wurde damit vom rein theoretischen Konzept zu einer greifbaren Herausforderung für die künstliche Intelligenz.

Ned Blocks Einwand

Der Philosoph Ned Block formulierte später einen scharfsinnigen Einwand gegen den Turing-Test. Er argumentierte, dass man theoretisch ein Computerprogramm konstruieren könne, das sämtliche denkbaren Gesprächsverläufe in einer gigantischen Tabelle gespeichert hätte. Ein solches Programm würde den Turing-Test bestehen, ohne auch nur den geringsten Funken von Intelligenz zu besitzen. Blocks Argument zielte auf einen Kernpunkt: Der bloße äußere Anschein von Verstehen ist kein Beweis für tatsächliches Verstehen. Weizenbaums Chatbot hatte genau dies auf eindrucksvolle Weise demonstriert.

Weizenbaums Warnung: „Die Macht der Computer und die Ohnmacht der Vernunft“

Vom Schöpfer zum Kritiker

Die enthusiastischen Reaktionen auf ELIZA erschreckten Weizenbaum zutiefst. 1976 veröffentlichte er sein Hauptwerk Computer Power and Human Reason: From Judgment to Calculation, das unter dem deutschen Titel „Die Macht der Computer und die Ohnmacht der Vernunft“ erschien. In diesem Buch wandte sich Weizenbaum gegen die Vorstellung, dass Computer als Ersatz für menschliches Urteilsvermögen dienen könnten. Er unterschied zwischen Entscheidungen, die Computern überlassen werden können, und solchen, die zwingend von Menschen getroffen werden müssen – insbesondere in der Medizin, im Rechtswesen und in der Kriegsführung.

Weizenbaum wurde damit zu einer der prominentesten Stimmen der Technikkritik im 20. Jahrhundert. Er warnte davor, dass die Gesellschaft in eine gefährliche Abhängigkeit von Computern gerate, und dass die Faszination für künstliche Intelligenz den Blick auf die eigentlich wichtigen Fragen verstelle. Diese Haltung brachte ihn in einen tiefen Konflikt mit vielen seiner Kollegen am MIT, die in der KI-Forschung die Zukunft der Menschheit sahen.

Rückkehr nach Berlin

Nach seiner Emeritierung 1988 kehrte Weizenbaum 1996 nach Berlin zurück – in jene Stadt, aus der er als Kind hatte fliehen müssen. Er setzte sich bis zu seinem Tod im Jahr 2008 unermüdlich für einen verantwortungsvollen Umgang mit Technologie ein. In Interviews warnte er vor der zunehmenden Überwachung durch digitale Systeme und vor der Illusion, dass Algorithmen menschliche Weisheit ersetzen könnten. Der Schöpfer von ELIZA war zum entschiedensten Mahner gegen die Verherrlichung der künstlichen Intelligenz geworden.

PARRY, der Loebner-Preis und andere Nachfolger

PARRY: Der paranoide Chatbot

Im Jahr 1972 schuf der Psychiater Kenneth Colby an der Stanford University ein Programm namens PARRY, das einen Patienten mit paranoider Schizophrenie simulierte. Im Unterschied zu ELIZA, das einen Therapeuten nachahmte, spielte PARRY die Rolle des Patienten. In einem berühmten Experiment ließen Forscher ELIZA und PARRY miteinander „sprechen“ – der Therapeut befragte den Patienten. Das Ergebnis war ein bizarrer, aber erstaunlich kohärent wirkender Dialog zwischen zwei Computerprogrammen, der die Frage aufwarf, was Kommunikation im Kern eigentlich ist.

Der Loebner-Preis

Seit 1990 wird jährlich der Loebner-Preis verliehen, ein Wettbewerb, der direkt auf dem Turing-Test beruht. Das Computerprogramm, das von einer Jury am überzeugendsten als menschlicher Gesprächspartner eingestuft wird, erhält eine Bronzemedaille. Die goldene Medaille – für ein Programm, das den Turing-Test tatsächlich besteht – wurde bis heute nicht vergeben. Der Loebner-Preis erinnert Jahr für Jahr daran, wie weit der Weg von ELIZA bis zu einer tatsächlich „verstehenden“ Maschine noch immer ist.

Von ELIZA zu Siri, Alexa und ChatGPT

Sprachassistenten und die Illusion des Verstehens

Betrachtet man die heutigen Sprachassistenten – Apples Siri, Amazons Alexa, den Google Assistant –, so fällt auf, wie sehr sie in der Tradition von ELIZA stehen. Zwar arbeiten diese Systeme mit Methoden, die ungleich komplexer sind als Weizenbaums Mustererkennung: Sie nutzen neuronale Netzwerke, statistische Sprachmodelle und riesige Datenmengen. Doch das Grundprinzip ist verwandt geblieben. Der Benutzer spricht, das System erkennt Muster und liefert eine Antwort, die möglichst passend erscheint. Die Frage, ob das System den Benutzer tatsächlich versteht, bleibt offen.

Mit dem Aufkommen großer Sprachmodelle wie ChatGPT hat diese Frage eine neue Dringlichkeit erlangt. Solche Programme führen Gespräche, die weit über das hinausgehen, was ELIZA leisten konnte. Sie verfassen Texte, beantworten Wissensfragen und imitieren verschiedene Schreibstile. Dennoch funktionieren auch sie letztlich nach dem Prinzip der statistischen Vorhersage – sie berechnen, welches Wort mit der höchsten Wahrscheinlichkeit als nächstes folgt, ohne den Inhalt zu begreifen. Der ELIZA-Effekt wirkt bei diesen Systemen stärker denn je.

ELIZA und die Grenzen der Sprache

Warum das ELIZA-Programm auf Englisch besser funktionierte

Ein linguistisch aufschlussreicher Aspekt des ELIZA-Programms betrifft die Sprachstruktur. Weizenbaum konzipierte sein Computerprogramm für die englische Sprache, und dies nicht ohne Grund. Die englische Grammatik ist vergleichsweise einfach: Substantive werden nicht dekliniert, Verben nur minimal konjugiert, und die Wortstellung folgt einer relativ festen Ordnung. Diese Regelmäßigkeit erleichterte die Mustererkennung erheblich.

Im Deutschen hätte das ELIZA-Programm vor weit größeren Schwierigkeiten gestanden. Die vier Fälle der deutschen Sprache, die umfangreiche Konjugation, die trennbaren Verben und die variable Satzstellung hätten die Transformationsregeln um ein Vielfaches komplizierter gemacht. Ein Satz wie „Ich habe meiner Mutter gestern einen Brief geschrieben“ lässt sich im Deutschen auf dutzende Weisen umstellen, ohne seine Bedeutung zu verändern – ein Umstand, der für ein auf Mustererkennung basierendes Computerprogramm ein erhebliches Problem darstellt.

Was ELIZA über Sprache verrät

Das ELIZA-Programm offenbarte damit eine fundamentale Einsicht über das Wesen der Sprache: Oberflächliche Muster können den Eindruck von Verstehen erzeugen, ohne dass tatsächliches Verständnis vorliegt. Menschen interpretieren Sprache nicht allein über Grammatik und Wortbedeutung, sondern über Kontext, Erfahrung, Emotion und Weltkenntnis. Das ELIZA-Programm besaß nichts von alledem – und war dennoch in der Lage, seine Gesprächspartner zu täuschen. Diese Beobachtung hat die Sprachphilosophie und die Linguistik nachhaltig beeinflusst.

Das Chinesische Zimmer und die Philosophie des Geistes

John Searles Gedankenexperiment

Im Jahr 1980 formulierte der Philosoph John Searle ein Gedankenexperiment, das die durch ELIZA aufgeworfenen Fragen auf die Spitze trieb: das Chinesische Zimmer (englisch: Chinese Room). Searle stellte sich vor, er säße in einem geschlossenen Raum und erhielte chinesische Schriftzeichen durch einen Schlitz. Mithilfe eines umfangreichen Regelwerks könnte er passende chinesische Antworten zusammenstellen und zurückreichen – ohne auch nur ein Wort Chinesisch zu verstehen.

Das Argument zielte direkt auf die Grundlage des ELIZA-Programms und aller nachfolgenden Chatbots: Ein System, das Symbole nach Regeln manipuliert, versteht nichts. Es simuliert Verstehen, ohne es zu besitzen. Searle wollte damit zeigen, dass kein Computerprogramm – gleich wie ausgefeilt – jemals echtes Bewusstsein oder echtes Verstehen erlangen kann. Dieser Standpunkt ist bis heute umstritten und bildet einen der zentralen Diskussionspunkte in der Philosophie des Geistes.

Warum ELIZA noch heute von Bedeutung ist

Mehr als ein historisches Kuriosum

Das ELIZA-Programm ist weit mehr als ein historisches Kuriosum aus den Pioniertagen der Informatik. Es stellte Fragen, die im Zeitalter von Sprachassistenten, sozialen Robotern und großen Sprachmodellen drängender sind als je zuvor: Was bedeutet es, zu verstehen? Kann ein Computerprogramm Sprache wirklich erfassen, oder bleibt es immer bei einer äußerlichen Nachahmung? Und welche Verantwortung tragen die Schöpfer solcher Programme gegenüber einer Gesellschaft, die allzu bereitwillig den Eindruck von Intelligenz mit tatsächlicher Intelligenz verwechselt?

Joseph Weizenbaum hat diese Fragen früher gestellt als die meisten seiner Zeitgenossen – und er hat die Antworten, die seine eigene Schöpfung nahelegte, mit einer Aufrichtigkeit diskutiert, die in der Technologiebranche selten war und selten geblieben ist. Das ELIZA-Programm erinnert uns daran, dass der Fortschritt der künstlichen Intelligenz stets auch ein Spiegel unserer eigenen Erwartungen, Ängste und Projektionen ist. In diesem Sinne hat das schlichte Computerprogramm von 1966 nichts von seiner Relevanz eingebüßt.

Wer sich heute mit künstlicher Intelligenz auseinandersetzt – sei es als Informatiker, als Linguist oder als interessierter Laie –, kommt an Weizenbaums ELIZA-Programm nicht vorbei. Es steht am Anfang einer Entwicklung, die unser Verhältnis zu Sprache, Technik und Menschlichkeit grundlegend verändert hat.

Weitere Beiträge