Chinesisches Zimmer

Der chinesische Raum ist ein Gedankenexperiment , das John Searle um 1980 vorgestellt hat . Searle fragte sich, ob ein noch so komplexes Computerprogramm ausreichen würde, um einen Systemgeist zu erzeugen . Dieses Gedankenexperiment soll zeigen, dass eine künstliche Intelligenz nur eine schwache künstliche Intelligenz sein und nur ein Bewusstsein simulieren kann, anstatt authentische mentale Bewusstseinszustände und Intentionalität zu besitzen. Es soll auch zeigen, dass der Turing-Test nicht ausreicht, um festzustellen, ob eine künstliche Intelligenz diese mentalen Zustände aufweist oder nicht.

Prinzip

In diesem Gedankenexperiment stellt sich Searle eine Person vor, die keine Chinesischkenntnisse hat (in diesem Fall sich selbst) und in einem Schlafzimmer eingesperrt ist. Dieser Person wird ein Katalog mit Regeln für die Beantwortung chinesischer Sätze zur Verfügung gestellt. Diese Regeln sind dem Bediener völlig klar. Ihre Anwendung basiert ausschließlich auf der Syntax von Sätzen. Ein Satz einer bestimmten syntaktischen Form auf Chinesisch wird mit einem Satz einer anderen syntaktischen Form korreliert. Der im Raum eingesperrte Bediener erhält daher Sätze in chinesischer Sprache und erstellt unter Anwendung der ihm zur Verfügung stehenden Regeln andere Sätze in chinesischer Sprache, die tatsächlich Antworten auf Fragen eines echten chinesischen Sprechers außerhalb des Raums darstellen. Aus der Sicht des Sprechers, der die Fragen stellt, verhält sich die im Raum eingesperrte Person wie eine Person, die wirklich Chinesisch spricht. In diesem Fall hat letzterer jedoch kein Verständnis für die Bedeutung der Sätze auf Chinesisch, die er transformiert. Es folgt nur vorgegebenen Regeln.

Ironischerweise setzt Searle das Verfahren des Turing- Tests fort, ein Test, der zeigen soll, dass ein ausgeklügeltes Computerprogramm als intelligent bezeichnet werden kann , und stellt sich vor, dass das Programm, das die Antworten bestimmt, die dem chinesischsprachigen Gesprächspartner gegeben werden, so ausgefeilt wird und die Person nicht. Chinesische Sprecher, die die Fragen beantworten, werden so geschickt in der Manipulation von Symbolen, dass am Ende des Experiments die Antworten, die sie auf die Fragen gibt, nicht von denen unterschieden werden können, die ein echter chinesischer Muttersprachler geben würde, obwohl laut Searle die Person, die wir uns im Raum vorstellen, versteht immer noch kein Wort Chinesisch.

Dieses Gedankenexperiment legt nahe, dass es nicht ausreicht, das sprachliche Verhalten eines chinesischen Sprechers genau zu reproduzieren, um Chinesisch zu sprechen, da das Sprechen von Chinesisch oder einer anderen Sprache nicht nur bedeutet, dass die richtigen Dinge zur richtigen Zeit auch bedeuten oder wollen zu sagen, was wir sagen: Ein kontrollierter Sprachgebrauch ist also verbunden mit einem Bewusstsein für die Bedeutung dessen, was wir sagen ( absichtliches Bewusstsein ) und künstlicher Reproduktion. Selbst perfektes sprachliches Verhalten reicht nicht aus, um ein solches Bewusstsein zu erzeugen.

Entdeckung des Problems

Searle fasst die Motivationen, die ihn dazu veranlassten, sein Gedankenexperiment zu entwerfen, wie folgt zusammen:

„Ich wusste [1971] nichts über künstliche Intelligenz . Ich kaufte zufällig ein Handbuch, dessen argumentativer Ansatz mich durch seine Schwäche verblüffte. Ich wusste damals nicht, dass dieses Buch einen Wendepunkt in meinem Leben markieren würde. Er erklärte, wie ein Computer Sprache verstehen kann . Das Argument war, dass eine Geschichte auf einem Computer erzählt werden konnte und dann Fragen zu dieser Geschichte beantworten konnte, obwohl die Antworten in der Erzählung nicht ausdrücklich angegeben wurden. Die Geschichte war folgende: Ein Mann geht in ein Restaurant, bestellt einen Burger, ihm wird ein verkohlter Burger serviert, der Mann geht, ohne zu bezahlen. Der Computer wird gefragt: "Hat er den Burger gegessen?". Er verneint. Die Autoren waren sehr zufrieden mit diesem Ergebnis, das beweisen sollte, dass der Computer die gleichen Verständniskapazitäten wie wir hatte. An diesem Punkt habe ich mir das Argument der chinesischen Kammer ausgedacht. ""

Ein Argument gegen funktionalistische Vorstellungen des Geistes

Searle widersetzt sein erstes Gedankenexperiment den Verteidigern der These von "starker" künstlicher Intelligenz , die erstmals in den 1950er Jahren von Alan Turing verteidigt wurde (vgl. Turing-Test ) und darin besteht, ein absichtliches Bewusstsein nur in einem Gesprächspartner (Person oder Maschine) zu erkennen aufgrund seines sprachlichen Verhaltens.

Searles philosophischer Ansatz besteht darin, aus vier Beobachtungen, die er zu etablieren versucht, Schlussfolgerungen zu ziehen:

  1. Computerprogramme sind formale ( syntaktische ) Systeme.
  2. Der menschliche Geist hat semantische mentale Zustände und Inhalte .
  3. Die Syntax ist für die Semantik weder konstitutiv noch ausreichend.
  4. Gehirne produzieren den Geist.

Der Zweck des chinesischen Kammergedankenexperiments besteht darin, intuitiv davon zu überzeugen, dass das Finden von 3 korrekt ist, während die anderen aus seiner Sicht offensichtlicher sind. Der vierte Befund besagt nicht, dass nur das Gehirn den Geist produziert, sondern dass ein System, das einen Geist produzieren kann, nicht von der Funktion eines Gehirns zu unterscheiden ist. Laut Searle reichen Computerprogramme nicht aus, um einen Geist hervorzubringen, wenn wir diese vier Beobachtungen akzeptieren.

Im weiteren Sinne widersetzt sich Searle funktionalistischen Vorstellungen des Geistes , die ihn in Bezug auf biologische oder physikalische Funktionen definieren, ohne die subjektiven Aspekte der Erfahrung zu berücksichtigen. Diese Funktionen werden normalerweise von Funktionalisten (insbesondere von H. Putnam und J. Fodor ) abstrakt konzipiert, unabhängig von dem physischen Medium, auf dem sie ausgeführt werden. So wie es möglich ist, die Funktionen eines Herzens künstlich zu reproduzieren, wäre es ihnen zufolge möglich, die intellektuellen und sensorischen Funktionen des Gehirns unter Verwendung eines geeigneten Mediums künstlich zu reproduzieren. In der rechnergestützten Version des Funktionalismus ist eine Gedankenproduktion mit einem geeigneten Computerprogramm sogar durchaus möglich . Die Erfahrung des chinesischen Raums zeigt jedoch, dass man sich ein automatisches System per Definition ohne Geist vorstellen kann und dennoch aus funktionaler Sicht nicht von einem Menschen zu unterscheiden ist, der eine Intentionalität besitzt . Die künstliche Reproduktion eines Verhaltens, das als beabsichtigt bezeichnet werden könnte, würde daher nicht ausreichen, um einen Geist, dh ein beabsichtigtes Bewusstsein, hervorzubringen.

Einwände

Der am häufigsten erhobene Einwand gegen das Argument der chinesischen Kammer ist das, was Searle erwartungsgemäß als "Antwort des Systems" bezeichnete. Ihr zufolge versteht das System, zu dem die Person, die den Anweisungen im Handbuch folgt, gehört, Chinesisch, obwohl die Person selbst diese Sprache nicht versteht. In dem System, aus dem der chinesische Raum besteht, spielt die Person dann die Rolle der Zentraleinheit (oder des Prozessors ) eines Computers. Der Prozessor ist jedoch nur einer der vielen Teile eines Computers. Im Fall eines Computers, der hoch genug ist, um zu denken, denkt nicht der Prozessor isoliert, sondern das gesamte System, zu dem er gehört, denn es ist das gesamte System, das die Bereitstellung der entsprechenden Antworten ermöglicht.

Für Searle ist dieser Einwand nicht zulässig, da er die absurde Vorstellung impliziert, dass es ein Bewusstsein für den chinesischen Raum geben würde, das auf der Ebene der Person, die die Antworten liefert, nicht existiert, obwohl davon ausgegangen wird, dass diese Person die einzige ist sich dieses Raumes bewusst sein. Wir können jedoch feststellen, dass das Handbuch selbst das Produkt eines Bewusstseins ist. Es muss von jemandem geschrieben worden sein, der die chinesische Sprache versteht. .

Zenon Pylyshyn  (in) seinerseits betonte die Leere des Begriffs der Intentionalität oder der "kausalen Kräfte" des Gehirns, die von Searle gefördert wurden, um ein echtes Verständnis des offensichtlichen Verständnisses eines chinesischen Raums zu differenzieren. Um dieses Problem zu veranschaulichen, stellt er sich vor, die Gehirnzellen nach und nach in einem menschlichen Gehirn durch elektronische Äquivalente mit genau den gleichen Eigenschaften zu ersetzen. Die Person würde weiterhin streiten und das gleiche offensichtliche Verständnis haben, aber nach Searles Ansichten würde sie allmählich die Fähigkeit des wahren Verstehens verlieren. Aus Searles Position ist jedoch nicht ersichtlich, wann, warum und wie sich die Fähigkeit der Person zum Verstehen geändert hat.

Ein weiterer Einwand, der insbesondere von Douglas Hofstadter , stammt aus der Linguistik (z. B. Semiologie oder dem Studium der Perlokutionsfunktion ) und behauptet, dass Searles Gedankenexperiment tatsächlich unmöglich ist, da wir keine angepassten Antworten nur mit syntaktischen Antworten erstellen können Regeln; Eine Kenntnis der Welt ist notwendig, zum Beispiel auf Englisch, um die grammatikalischen Funktionen im berühmten Beispiel korrekt zu unterscheiden. Die Zeit vergeht wie ein Pfeil. Frucht fliegt wie eine Banane  (in) .

Wir können endlich feststellen (diese Analyse wurde zum Beispiel von Zach Weiner ), dass es ein bettelndes Prinzip gibt: Da die Menge möglicher Dialoge in einer Sprache unendlich ist, wurden dieselben Dialoge noch nicht alle produziert, also ist es so ist nicht einmal bekannt, ob eine solche Liste von Regeln existieren kann.

Darüber hinaus hatte Alan Turing aus dem Artikel, in dem er diesen Intelligenztest zum ersten Mal beschrieb, durch Berechnung (in Abschnitt 7 dieses Artikels) gezeigt, dass selbst die inkompressibelste Version dieses Katalogs syntaktischer Regeln so lang sein würde, dass Seine Erschaffung ist für jede bereits konstituierte oder zumindest menschliche Intelligenz unerreichbar. Es ist genau dieser Einwand, der sicherlich eher technischer als philosophischer Natur ist, der Alan Turing veranlasste, seinen Intelligenztest als ausreichend anzunehmen, da man nach dieser Hypothese eine andere Intelligenz als eine andere Intelligenz nicht nachahmen kann.

Es sollte auch beachtet werden, dass Searle sich bei seiner Demonstration auf die Intuition und nicht auf Beweise verlässt und sich fragt, wo sich der Geist im Raum befindet. Dieses Argument funktioniert aber auch im Fall des Gehirns: Wo ist der Geist in dieser Sammlung von Zellen, die nach den Gesetzen der Biochemie blind arbeiten?

Anmerkungen und Referenzen

  1. JR Searle, "Minds, Brains and Programme", The Behavioral and Brain Sciences , vol. 3, Cambridge University Press, 1980, tr. Fr. "Geister, Gehirne und Programme", in D. Hofstadter, D. Dennett, Ansichten des Geistes , Paris, Interéditions, 1987, pp.  354-373
  2. Interview in der Rezension Le Débat , März 2000, Nr. 109
  3. Stuart Russel, Peter Norvig Künstliche Intelligenz, Ein moderner Ansatz 3d ed. Prencice Hall, 2010, Kap. 26 p. 1032
  4. Siehe insbesondere D. Dennett, La conscience erklärt (1991), hrsg. Odile Jacob, 1993, p.  540-546 und S. Pinker, How the Mind Works (1997), hrsg. Odile Jacob, 2000, p.  104-105
  5. (en) Douglas Hofstadter und Daniel Dennett , Das Ich des Geistes: Fantasien und Reflexionen über Selbst und Seele , Grundlegende Bücher ,2001512   p. ( ISBN  978-0-465-03091-0 ) , p.  374
  6. Douglas Hofstadter, Ansichten des Geistes
  7. Ein Beispiel auf Chinesisch, vielleicht sogar noch relevanter, ist The Poet Eating Lions in His Stone Lair .
  8. (in) Das chinesische Zimmer , Zach Weinersmith, SMBC.
  9. Alan Turing, "  Computermaschinen und Intelligenz  ", Mind, Oxford University Press, vol. 59, Nr. 236 ,1950
  10. Stuart Russell und Peter Norvig ( trans.  Aus dem Englischen), Künstliche Intelligenz , Paris, Pearson Education,20101199  p. ( ISBN  978-2-7440-7455-4 und 2744074551 , OCLC  708384789 ) , p.  1088

Siehe auch

Zum Thema passende Artikel

Externe Links