Sala cinese

La stanza cinese è un esperimento mentale immaginato da John Searle intorno al 1980 . Searle si chiedeva se un programma per computer , per quanto complesso, sarebbe bastato a dare uno spirito di sistema . Questo esperimento mentale mira a dimostrare che un'intelligenza artificiale può essere solo un'intelligenza artificiale debole e può solo simulare una coscienza, piuttosto che possedere stati mentali autentici di coscienza e intenzionalità. Mira anche a dimostrare che il test di Turing è insufficiente per determinare se un'intelligenza artificiale abbia o meno questi stati mentali.

Principio

In questo esperimento mentale , Searle immagina una persona che non ha conoscenza del cinese (in questo caso, se stesso) rinchiusa in una camera da letto. A questa persona viene messo a disposizione un catalogo di regole per rispondere alle frasi cinesi. Queste regole sono perfettamente chiare per l'operatore. La loro applicazione si basa esclusivamente sulla sintassi delle frasi. Una frase di una certa forma sintattica in cinese è correlata con una frase di un'altra forma sintattica. L'operatore chiuso nella stanza riceve quindi frasi scritte in cinese e, applicando le regole che ha a disposizione, produce altre frasi in cinese che di fatto costituiscono risposte a domande poste da un vero parlante cinese situato fuori dalla stanza. Dal punto di vista dell'oratore che pone le domande, la persona chiusa nella stanza si comporta come un individuo che parla veramente cinese. Ma, in questo caso, quest'ultima non ha la comprensione del significato delle frasi in cinese che trasforma. Segue solo regole predeterminate.

Continuando ironicamente la procedura del test di Turing , un test che dovrebbe dimostrare che un sofisticato programma per computer può essere definito intelligente , Searle immagina che il programma che determina le risposte che vengono date all'interlocutore di lingua cinese diventi così sofisticato, e la persona no. Il madrelingua cinese che risponde alle domande diventa così abile nella manipolazione dei simboli, che alla fine dell'esperimento, le risposte che dà alle domande non possono essere distinte da quelle che darebbe un vero madrelingua cinese, sebbene secondo Searle, il persona che immaginiamo chiusa nella stanza ancora non capisce una parola di cinese.

Questo esperimento mentale suggerisce che non è sufficiente essere in grado di riprodurre esattamente i comportamenti linguistici di un madrelingua cinese per parlare cinese, perché parlare cinese, o qualsiasi altra lingua, non significa solo dire le cose giuste al momento giusto anche significare o volere per dire quello che diciamo: un uso controllato del linguaggio è quindi accoppiato con una consapevolezza del significato di ciò che diciamo (consapevolezza intenzionale ) e la riproduzione artificiale, anche perfetta, un comportamento linguistico non è sufficiente per produrre tale coscienza.

Scoperta del problema

Searle riassume le motivazioni che lo hanno portato a progettare il suo esperimento mentale come segue:

“Non sapevo nulla [nel 1971] sull'intelligenza artificiale . Ho comprato un manuale a caso, il cui approccio argomentativo mi ha sbalordito per la sua debolezza. Non sapevo allora che questo libro avrebbe segnato una svolta nella mia vita. Stava spiegando come un computer potesse capire la lingua . L'argomento era che una storia poteva essere raccontata su un computer e che era quindi in grado di rispondere a domande relative a quella storia sebbene le risposte non fossero espressamente fornite nella narrazione. La storia era questa: un uomo va al ristorante, ordina un hamburger, gli viene servito un hamburger carbonizzato, l'uomo se ne va senza pagare. Al computer viene chiesto: "Ha mangiato l'hamburger?". Lui risponde negativamente. Gli autori sono stati molto soddisfatti di questo risultato, che avrebbe dovuto dimostrare che il computer aveva le nostre stesse capacità di comprensione. È stato a questo punto che ho concepito l'argomento della camera cinese. "

Un argomento contro le concezioni funzionaliste della mente

Searle oppone il suo primo esperimento mentale ai difensori della tesi dell'intelligenza artificiale "forte" , tesi difesa per la prima volta negli anni Cinquanta da Alan Turing (cfr. Test di Turing ) e consistente nel riconoscere una coscienza intenzionale in un solo interlocutore (persona o macchina) sulla base del suo comportamento linguistico.

L'approccio filosofico di Searle consiste nel trarre conclusioni da quattro osservazioni che tenta di stabilire:

  1. I programmi per computer sono sistemi formali ( sintattici ).
  2. Le menti umane hanno stati e contenuti mentali semantici .
  3. La sintassi non è né costitutiva né sufficiente per la semantica.
  4. I cervelli producono la mente.

Lo scopo dell'esperimento di pensiero della camera cinese è convincere intuitivamente che Finding 3 sia corretto, mentre gli altri sono più ovvi dal suo punto di vista. La quarta scoperta non dice che solo il cervello produce la mente, ma indica che un sistema in grado di produrre una mente deve essere indistinguibile dal funzionamento di un cervello. Secondo Searle, se accettiamo queste quattro osservazioni, ne consegue che i programmi per computer non sono sufficienti per produrre una mente.

Più in generale, Searle si oppone alle concezioni funzionaliste della mente che la definiscono in termini di funzioni biologiche o fisiche senza tener conto degli aspetti soggettivi dell'esperienza. Queste funzioni sono generalmente concepite dai funzionalisti (in particolare in H. Putnam e J. Fodor ) in modo astratto, indipendentemente dal mezzo fisico su cui vengono svolte. Pertanto, così come è possibile riprodurre artificialmente le funzioni di un cuore, sarebbe possibile secondo loro riprodurre artificialmente le funzioni intellettuali e sensoriali del cervello utilizzando qualsiasi mezzo adatto. Nella versione computazionalista del funzionalismo, una produzione del pensiero è persino perfettamente possibile con un programma per computer appropriato. Tuttavia, l'esperienza della stanza cinese mostra che si può immaginare un sistema automatico per definizione privo di spirito e tuttavia indistinguibile, dal punto di vista funzionale, da un essere umano dotato di intenzionalità . La riproduzione artificiale di un comportamento che si potrebbe definire intenzionale non sarebbe quindi sufficiente a produrre una mente, cioè una coscienza intenzionale.

Obiezioni

L'obiezione più frequentemente sollevata all'argomentazione della Camera cinese è quella che Searle chiamava anticipatamente "la risposta del sistema". Secondo lei, il sistema di cui fa parte la persona che segue le istruzioni del manuale capisce il cinese, nonostante il fatto che la persona stessa non capisca quella lingua. Nel sistema che costituisce la sala cinese, la persona svolge quindi il ruolo di unità centrale (o processore ) di un computer. Ma il processore è solo una delle tante parti di un computer. Nel caso di un computer abbastanza sofisticato da pensare, non è il processore preso isolatamente a pensare, ma piuttosto l'intero sistema di cui fa parte, poiché è l'intero sistema che consente di fornire le risposte appropriate.

Per Searle, questa obiezione non è ammissibile perché implica l'idea assurda che ci sarebbe una coscienza della stanza cinese che non esiste al livello di chi fornisce le risposte, anche se si presuppone che questa persona sia l'unica essere a conoscenza di questa stanza. Tuttavia, possiamo notare che il manuale stesso è il prodotto di una coscienza. Deve essere stato scritto da qualcuno che capisce la lingua cinese. .

Zenon Pylyshyn  (in) da parte sua ha sottolineato il vuoto della nozione di intenzionalità , o "poteri causali" del cervello, promossa da Searle per differenziare una comprensione genuina dell'apparente comprensione di una stanza cinese. Per illustrare questo problema, immagina di sostituire, a poco a poco, in un cervello umano, le cellule cerebrali con equivalenti elettronici aventi esattamente le stesse proprietà. La persona continuerebbe a discutere e ad avere la stessa apparente comprensione, ma secondo le concezioni di Searle, perderebbe gradualmente la facoltà della vera comprensione. Ma dalla posizione di Searle non è chiaro quando, perché e come sia cambiata la capacità di comprensione della persona.

Un'altra obiezione, sviluppata in particolare da Douglas Hofstadter , proviene dalla linguistica (ad esempio dalla semiologia , o dallo studio della funzione di perlocuzione ) e afferma che l'esperimento mentale di Searle è di fatto impossibile, perché non possiamo produrre risposte adeguate usando solo regole sintattiche; è necessaria una conoscenza del mondo , ad esempio in inglese, distinguere correttamente le funzioni grammaticali nel famoso esempio Il tempo vola come una freccia; moscerini della frutta come una banana  (in) .

Possiamo finalmente notare (questa analisi è sviluppata ad esempio da Zach Weiner ) che c'è una supplica per il principio: la quantità di dialoghi possibili in una lingua essendo infinita, questi stessi dialoghi non sono ancora stati tutti prodotti, quindi non è nemmeno noto se un tale elenco di regole possa esistere.

Inoltre, Alan Turing, dall'articolo in cui ha descritto per la prima volta questo test di intelligenza, aveva dimostrato mediante calcoli (nella sezione 7 di questo articolo) che anche la versione più incomprimibile di questo catalogo di regole sintattiche sarebbe di tale lunghezza che la sua creazione è al di là della portata di qualsiasi intelligenza già costituita, o almeno umana. È proprio questa obiezione, certamente di natura tecnica più che filosofica, che ha portato Alan Turing a supporre sufficiente il suo test di intelligenza, poiché secondo questa ipotesi non si può imitare un'intelligenza se non con un'altra intelligenza.

Va anche notato che Searle si affida all'intuizione per la sua dimostrazione e non alla prova, chiedendosi dove sia lo spirito nella stanza. Ma questo argomento funziona anche nel caso del cervello: dov'è la mente in questo insieme di cellule che operano alla cieca secondo le leggi della biochimica?

Note e riferimenti

  1. JR Searle, "Menti, cervelli e programmi", The Behavioral and Brain Sciences , vol. 3, Cambridge University Press, 1980, tr. P. "Spiriti, cervelli e programmi", in D. Hofstadter, D. Dennett, Views of the Spirit , Paris, Interéditions, 1987, pp.  354-373
  2. Intervista nella rivista Le Débat , marzo 2000, n. 109
  3. Stuart Russel, Peter Norvig intelligenza artificiale, Un approccio moderno 3d ed. Prencice Hall, 2010, cap. 26 p. 1032
  4. Cfr. In particolare D. Dennett, La conscience spiegato (1991), ed. Odile Jacob, 1993, p.  540-546 e S. Pinker, How the Mind Works (1997), ed. Odile Jacob, 2000, p.  104-105
  5. (en) Douglas Hofstadter e Daniel Dennett , L'io della mente: Fantasie e riflessioni su Auto & Soul , Boringhieri ,2001, 512   p. ( ISBN  978-0-465-03091-0 ) , p.  374
  6. Douglas Hofstadter, Views of the Mind
  7. Un esempio in cinese, forse ancora più rilevante, è Il poeta che mangia leoni nella sua tana di pietra .
  8. (a) The Chinese Room , Zach Weinersmith, SMBC.
  9. Alan Turing, "  Computing Machinery and Intelligence  " , Mind, Oxford University Press, vol. 59, n. 236 ,1950
  10. Stuart Russell e Peter Norvig ( trad .  Dall'inglese), Intelligenza artificiale , Parigi, Pearson Education,2010, 1199  p. ( ISBN  978-2-7440-7455-4 e 2744074551 , OCLC  708384789 ) , p.  1088

Vedi anche

Articoli Correlati

link esterno