L' intelligenza artificiale è radicata nell'antichità, ma soprattutto nella seconda metà del XX ° secolo, è decollato, e una lettura storica diventa possibile.
Le prime pietre miliari storiche dell'intelligenza artificiale (o AI) risalgono alla Protostoria , dove miti, leggende e dicerie dotano esseri artificiali, realizzati da maestri artigiani, di un'intelligenza o di una coscienza; come scrive Pamela McCorduck, l'intelligenza artificiale inizia con "il vecchio desiderio di interpretare Dio".
L'intelligenza artificiale come la intendiamo oggi è stata iniziata dai filosofi classici, tra cui Gottfried Wilhelm Leibniz con il suo calcolo ratiocinator , che cercano di descrivere il processo del pensiero umano come la manipolazione meccanica dei simboli, senza voler fare degli esemplari. Questo pensiero si materializzò con l'invenzione del computer programmabile negli anni 40. Questo strumento e le idee alla base ispirarono scienziati che iniziarono a discutere seriamente la fattibilità di un "cervello elettronico".
La ricerca sull'intelligenza artificiale è iniziata davvero dopo una conferenza nel campus del Dartmouth College nell'estate del 1956. A seguito di questo incontro, alcuni partecipanti sono stati investiti nella ricerca sull'intelligenza artificiale. Alcuni utopisti hanno predetto che una macchina intelligente come un essere umano sarebbe esistita in meno di una generazione e milioni di dollari sono stati poi investiti per reificare questa previsione. Nel corso del tempo, è emerso che le difficoltà inerenti a questo annuncio erano state gravemente sottovalutate. Nel 1973, in risposta alle critiche degli scienziati, tra cui James Lighthill e alle continue pressioni dei parlamentari, i governi britannico e americano hanno sospeso i sussidi per la ricerca sull'intelligenza artificiale senza guida. Sette anni dopo, a seguito dell'iniziativa profetica del Gabinetto del Giappone , i governi e l'industria reinvestirono nell'intelligenza artificiale, ma alla fine degli anni '80 i politici disillusi ritirarono nuovamente i loro fondi. Possiamo quindi dire che questo ciclo a dente di sega, dove si alternano periodi di gelo e disgelo, caratterizza il supporto all'intelligenza artificiale. Ma ci sono sempre idealisti rimasti a fare previsioni audaci.
Comunque, nonostante alti e bassi e nonostante la riluttanza di tecnocrati e investitori, l'intelligenza artificiale sta progredendo. I problemi ritenuti inaccessibili nel 1970 sono stati risolti e le loro soluzioni sono state distribuite commercialmente. Ciò è dovuto anche ai progressi negli algoritmi che hanno permesso di programmare soluzioni che in passato potevano essere raggiunte solo tramite euristica. Tuttavia, nessuna macchina con una forte intelligenza artificiale è stata ancora costruita, contrariamente alle previsioni ottimistiche della prima generazione di ricercatori. "Possiamo solo intravedere il breve termine", ha ammesso Alan Turing , in un famoso articolo del 1950 che prefigura la ricerca moderna sulle macchine pensanti. “Ma”, aggiunge, “non possiamo prevedere la portata del lavoro che resta da fare”.
Inizialmente, due approcci si confrontano: l'approccio logico o simbolico, che mira a ricreare le "leggi universali" del pensiero e si ispirano al concetto di macchina di Turing , e l'approccio neurale, incarnato da Frank Rosenblatt , che cerca di imitare il biologico processi nel cervello. Se l'approccio logicista , ispirato al lavoro di Russell , Frege , il circolo di Vienne , la logica matematica , ecc., Vince al DARPA , l'ente principale che finanzia la ricerca sull'intelligenza artificiale, l'approccio neurale riemerge negli anni '80 , ispirando il lavoro sul connessionismo .
Poiché l'intelligenza artificiale si è sviluppata principalmente negli Stati Uniti, questo articolo si concentrerà principalmente su questo paese.
McCorduck 2004 ha scritto nel 2004 che " L'intelligenza artificiale in una forma o nell'altra è un'idea che si è diffusa nella storia del pensiero occidentale, un sogno che ha un disperato bisogno di essere realizzato", nei miti, leggende, storie, speculazioni e automi antropomorfi di umanità.
Uomini meccanici ed esseri artificiali sono presenti nella mitologia greca , quindi i robot d'oro di Efesto e Pigmalione e Galatea , mentre nel Medioevo circolano voci di segreti mistici o di tecniche alchemiche per impregnare spiriti, come il Takwin di Geber , gli omuncoli di Paracelso e il Golem di MaHaRaL . Nel XIX ° secolo , l'idea di uomini artificiali e macchine pensanti si incarna in opere di narrativa, come Frankenstein di Mary Shelley o RUR (di Rossum Universal Robots) da Karel Čapek , e test speculativa come Darwin tra le macchine da Samuel Butler . L'intelligenza artificiale è una parte importante della fantascienza .
Dei robot antropomorfi realistici furono costruiti da artigiani di tutte le civiltà, incluso Yan Shi, che lavorò per Ji Man , Hero of Alexandria , al-Jazari e Wolfgang von Kempelen . Gli automi più antichi sono le statue sacre dell'antico Egitto e dell'antica Grecia . I credenti erano convinti che gli artigiani avessero impregnato queste statue di spiriti veri, capaci di saggezza ed emozione - scriveva Ermete Trismegisto che "scoprendo la vera natura degli dei, l'uomo fu in grado di riprodurla". Il PLC Vaucanson del XVIII ° secolo, che rappresenta un anatra è un sorprendente implementazione di un artificiale esibirà alcune funzioni della vita, mentre il giocatore turco scacchi di Johann Wolfgang von Kempelen era una frode.
L'intelligenza artificiale si basa sul presupposto che il processo di pensiero umano possa essere meccanizzato. Lo studio del ragionamento meccanico - o "formale" - ha una lunga storia. I filosofi cinesi , indiani e greci svilupparono tutti metodi strutturati di deduzione formale durante il primo millennio d.C. DC Le loro idee furono sviluppate nel corso dei secoli da filosofi come Aristotele (che fornì un'analisi formale del sillogismo ), Euclide (i cui elementi sono modello di ragionamento formale), Al-Khwarizmi (a cui si deve l' algebra e il cui nome dava " algoritmo ") e Filosofi scolastici europei come Guglielmo d'Ockham e Duns Scoto .
Il filosofo maiorchino Raymond Lulle (1232–1315) progettò diverse macchine logiche dedicate alla produzione di conoscenza con mezzi logici; Lull descrive le sue macchine come entità meccaniche in grado di combinare verità fondamentali e innegabili attraverso semplici operazioni logiche, generate dalla macchina attraverso meccanismi, in modo da produrre tutta la conoscenza possibile. Il lavoro di Lullo ha una grande influenza su Leibniz , che ha riqualificato le sue idee.
Nel XVII ° secolo , Gottfried Wilhelm Leibniz , Thomas Hobbes e Descartes esplorato la possibilità che qualsiasi pensiero razionale di essere il più sistematica come l'algebra o la geometria. Nel Leviatano di Hobbes c'è la famosa frase: "la ragione [...] non è altro che calcolare". Leibniz immaginava un linguaggio di ragionamento universale (la sua caratteristica universalis ) che equiparasse l'argomentazione a un calcolo, così che “non c'è più bisogno di discutere tra due filosofi che tra due contabili. Perché dovrebbero semplicemente prendere in mano la matita e la lavagna e dirsi (con un amico come testimone, se necessario): Calcoliamo! ". Questi filosofi iniziarono ad articolare i presupposti di un sistema di simboli fisici che sarebbe poi diventato uno dei dogmi della ricerca sull'IA.
Nel XX ° secolo , lo studio della logica matematica ha fornito la maggior parte dei progressi che hanno reso plausibile l'intelligenza artificiale. Le basi sono state gettate con opere come Le leggi del pensiero di Boole e Ideografia di Frege . Basandosi sul sistema di Frege, Russell e Whitehead hanno presentato una trattazione formale dei fondamenti della matematica nel loro capolavoro Principia Mathematica del 1913. Ispirato dal successo di Russell, David Hilbert ha sfidato i matematici degli anni '20 e '30 a rispondere a questa domanda fondamentale: "Può il ragionamento matematico essere completamente formalizzato? " "Abbiamo risposto alla sua domanda con i teoremi di incompletezza di Gödel , la Macchina di Turing e il lambda calcolo di Church . La loro risposta è stata sorprendente in diversi modi. In primo luogo, hanno dimostrato che c'erano, in effetti, dei limiti in ciò che la logica matematica poteva realizzare.
Ma anche (e cosa più importante per l'IA) il loro lavoro ha suggerito che in queste condizioni qualsiasi forma di ragionamento matematico potrebbe essere meccanizzata. La tesi della Chiesa prevedeva un dispositivo meccanico, manipolando simboli semplici come 0 e 1, in grado di imitare qualsiasi concepibile processo di deduzione matematica. Questa nozione chiave è stata tradotta nella Macchina di Turing , un semplice costrutto teorico che ha catturato l'essenza della manipolazione di simboli astratti. Questa invenzione ha ispirato una manciata di scienziati che poi hanno iniziato a discutere la possibilità di macchine pensanti.
Le macchine calcolatrici sono apparse in tempi antichi e sono state migliorate nel corso della storia da molti matematici e ingegneri, tra cui Leibniz . Agli inizi del XIX ° secolo , Charles Babbage ha progettato la calcolatrice programmabile (il motore analitico ), senza costruire mai. In seguito, Ada Lovelace ipotizza che la macchina "possa comporre brani musicali elaborati e scientifici di ogni complessità e lunghezza".
I primi computer moderni sono macchine di crittoanalisi massiva della seconda guerra mondiale (come lo Z3 , l' ENIAC e il Colossus ), progettate, per quanto riguarda gli ultimi due, dalle basi teoriche poste da Alan Turing e sviluppate da John von Neumann .
Una nota sulle sezioni di questo articolo .
Negli anni Quaranta e Cinquanta, una manciata di scienziati provenienti da un'ampia gamma di campi (matematica, psicologia, ingegneria, economia e scienze politiche) iniziarono a discutere la possibilità di creare un cervello artificiale. Questa area di ricerca sull'intelligenza artificiale è stata fondata come disciplina accademica nel 1956.
La prima ricerca nel campo delle macchine pensanti è stata ispirata da una convergenza di idee che si è gradualmente diffusa dalla fine degli anni '30 all'inizio degli anni '50. Recenti ricerche in neurologia hanno dimostrato che il cervello è una rete elettrica di neuroni che inviava impulsi di tipo all-or -Niente. La cibernetica di Norbert Wiener descriveva il controllo e la stabilità dei sistemi di alimentazione. La teoria dell'informazione di Claude Shannon descrive i segnali digitali (cioè i segnali tutto o niente). Il calcolo teorico di Alan Turing ha mostrato che qualsiasi forma di calcolo può essere rappresentata digitalmente. La stretta relazione tra queste idee suggerisce la possibilità di costruire un cervello artificiale .
Esempi di lavoro in questo filone di robot come Bristol Turtles di William Gray Walter e Beast Johns Hopkins (in) . Queste macchine non utilizzano computer, elettronica digitale o ragionamento simbolico; erano interamente controllati da circuiti analogici.
Walter Pitts e Warren McCulloch hanno analizzato le reti neurali artificiali ideali e hanno mostrato come potevano eseguire semplici operazioni logiche. Sono stati i primi a parlare di quella che in seguito i ricercatori avrebbero chiamato una rete neurale . Uno degli studenti ispirati da Pitts e McCulloch era Marvin Minsky , allora uno studente di 24 anni. Nel 1951 (con Dean Edmonds) costruì la prima macchina per reti neurali, lo SNARC . Minsky diventerà uno dei più importanti leader e innovatori di intelligenza artificiale dei prossimi cinquant'anni.
Nel 1951, con il Ferranti Mark I macchina dalla Università di Manchester , Christopher Strachey ha scritto un programma di dama e Dietrich Prinz ha scritto un programma di scacchi. La dama di Arthur Samuel , sviluppata a metà degli anni '50 e all'inizio degli anni '60, alla fine acquisì un livello sufficiente per sfidare un buon dilettante. In effetti, l'intelligenza artificiale nei giochi funge da punto di riferimento per i progressi nell'intelligenza artificiale.
Nel 1950 Alan Turing pubblicò un articolo memorabile in cui speculava sulla possibilità di creare macchine dotate di vera intelligenza. Si accorge che è difficile definire "intelligenza" e immagina il suo famoso test di Turing . Se una macchina può condurre una conversazione (tramite telescrivente interposta) che non può essere distinta da una conversazione con un essere umano, allora la macchina potrebbe essere definita "intelligente". Questa versione semplificata del problema permise a Turing di argomentare in modo convincente che una "macchina pensante" era almeno plausibile , e questo articolo rispondeva a tutte le classiche obiezioni a questa proposizione. Il test di Turing è stata la prima ipotesi seria nel campo della filosofia dell'intelligenza artificiale.
Quando l'accesso ai computer divenne possibile a metà degli anni '50, gli scienziati, inizialmente in numero limitato, si resero conto che una macchina in grado di manipolare i numeri poteva anche manipolare i simboli e che questa manipolazione dei simboli poteva potenzialmente essere usata, l'essenza stessa del pensiero umano. Ciò ha portato allo sviluppo delle prime macchine pensanti.
Nel 1955 Allen Newell e il futuro premio Nobel per l'economia , Herbert Simon , con l'aiuto di Cliff Shaw , crearono il " Teorico logico ". Il programma alla fine dimostrerà 38 dei primi 52 teoremi dei Principia Mathematica di Russell e Whitehead , e ha persino trovato prove nuove ed eleganti. Simon dice che hanno "risolto il venerabile problema mente-corpo , spiegando come un sistema fatto di materia possa avere proprietà della mente". Questa è una delle prime formulazioni di un movimento filosofico che John Searle chiamerà più tardi " forte intelligenza artificiale ": come gli esseri umani, le macchine possono avere una mente.
Nel 1949, Warren Weaver pubblicò il suo memorandum sulla traduzione automatica delle lingue naturali che è sia visionario che ottimista sul futuro di questo problema fondamentale dell'intelligenza artificiale.
La Conferenza Dartmouth 1956 è stata organizzata da Marvin Minsky , John McCarthy e due scienziati senior: Claude Shannon e Nathan Rochester (in) a IBM . La tesi della conferenza includeva questa affermazione: "Ogni aspetto dell'apprendimento o qualsiasi altra caratteristica dell'intelligenza può essere descritto in modo così preciso che una macchina può essere progettata per simularlo". I partecipanti includevano Ray Solomonoff , Oliver Selfridge , Trenchard More , Arthur Samuel , Allen Newell e Herbert Simon , che avrebbero creato importanti programmi durante i primi decenni di ricerca sull'IA. Alla conferenza, Newell e Simon hanno avviato il " teorico della logica " ( teorico della logica ) e McCarthy ha convinto il pubblico ad accettare il termine "Intelligenza artificiale" come titolo dell'area. La conferenza di Dartmouth del 1956 è stata il momento chiave in cui l'intelligenza artificiale è stata chiamata come tale, ha definito i suoi obiettivi, ha realizzato i suoi primi successi e ha riunito i suoi attori importanti. Questa conferenza è ampiamente considerata nel mondo occidentale come il momento fondante dell'intelligenza artificiale come disciplina teorica indipendente (dell'informatica) .
Gli anni che seguirono la conferenza di Dartmouth furono un'epoca di scoperte, di frenetica conquista di nuove terre di conoscenza. I programmi sviluppati all'epoca sono considerati dalla maggior parte delle persone semplicemente "straordinari": i computer risolvono problemi di parole algebriche, dimostrano teoremi di geometria e imparano a parlare inglese. A quel tempo, pochi credevano che tali comportamenti "intelligenti" fossero possibili per le macchine. I ricercatori mostrano quindi un intenso ottimismo nel settore privato poiché nei loro articoli prevedono che nei prossimi 20 anni verrà costruita una macchina completamente intelligente. Le agenzie governative come la DARPA stanno investendo molto in questa nuova area.
Molti programmi hanno successo.
Ragionare per tentativi ed erroriMolti dei primi programmi di intelligenza artificiale che utilizzano lo stesso algoritmo fondamentale sono molti . Per completare determinati obiettivi (come vincere una partita o dimostrare un teorema), procedono passo dopo passo verso la soluzione (eseguendo un movimento o una deduzione alla volta) come se stessero navigando in un labirinto, tornando indietro non appena lo sono si imbattono in un vicolo cieco. Questo paradigma è chiamato "ragionamento per tentativi ed errori" o backtracking .
La difficoltà principale sta nel fatto che, per molti problemi, il numero di possibili percorsi verso la soluzione è astronomico, si tratta della famosa “ esplosione combinatoria ”. I ricercatori hanno quindi cercato di ridurre lo spazio di ricerca utilizzando euristiche o "regole pratiche" che eliminano la maggior parte dei percorsi che difficilmente porteranno a una soluzione.
Newell e Simon cercano di catturare una versione generale di questo algoritmo in un programma chiamato General Problem Solver . Alcuni programmi di "ricerca" sono in grado di svolgere compiti considerati all'epoca impressionanti come la risoluzione di problemi geometrici e algebrici, come il Geometry Theorem Prover di Herbert Gelernter (1958) e il SAINT , scritto da James Slagle, uno degli studenti di Minsky (1961 ). Altri programmi cercano attraverso obiettivi e sotto-obiettivi per pianificare azioni, come il sistema STRIPS sviluppato a Stanford per controllare il comportamento del loro robot, Shakey .
Linguaggio naturaleUno dei principali obiettivi della ricerca sull'intelligenza artificiale è consentire ai computer di comunicare in un linguaggio naturale come l'inglese. Un primo successo è stato il programma STUDENT of Bobrow , che poteva risolvere problemi algebrici scritti per studenti delle scuole superiori.
Una rete semantica rappresenta concetti (es. "Casa", "porta") utilizzando i nodi e le relazioni tra i concetti (es. " Ne ha uno") mediante collegamenti tra questi nodi. Il primo programma di intelligenza artificiale a utilizzare una rete semantica è stato scritto da Ross Quillian e la versione più potente (e controversa) è stata la teoria della dipendenza concettuale di Roger Schank .
ELIZA di Joseph Weizenbaum potrebbe condurre conversazioni così realistiche che alcuni utenti sono stati ingannati facendogli credere di comunicare con un essere umano e non con un programma. In realtà, ELIZA non aveva idea di cosa stesse parlando. Ha semplicemente dato una "risposta barca" o riformulato in risposta utilizzando alcune regole grammaticali. ELIZA è stata la prima agente conversazionale .
Micro-mondiAlla fine degli anni '60, Marvin Minsky e Seymour Papert del MIT AI Lab proposero che la ricerca sull'IA si concentrasse su situazioni artificialmente semplificate chiamate anche micro-mondi. Hanno giustamente menzionato che nelle scienze ad alte prestazioni come la fisica, i fondamenti erano spesso meglio compresi usando modelli semplificati come aeroplani senza attrito o corpi perfettamente rigidi. La maggior parte della ricerca si è poi concentrata su un “ mondo a blocchi ”, che consisteva in un insieme di blocchi colorati di varie forme e dimensioni disposti su una superficie piana.
Questo paradigma ha consentito un lavoro innovativo nella visione artificiale di Gerald Sussman (che ha guidato il team), Adolfo Guzman , David Waltz (che ha inventato la " propagazione dei vincoli ") e in particolare Patrick Winston . Allo stesso tempo, Minsky e Papert stavano costruendo un braccio robotico che impilava blocchi insieme, dando vita a questi mondi a blocchi. Il più grande successo di questi programmi di micro-mondi è stato lo SHRDLU di Terry Winograd . Quest'ultimo poteva comunicare in inglese usando frasi ordinarie, pianificare operazioni ed eseguirle.
La prima generazione di ricercatori di intelligenza artificiale fa le seguenti previsioni sul proprio lavoro:
Nel Giugno 1963il MIT ottiene 2,2 milioni di dollari dalla neonata ARPA ("Agenzia per i progetti di ricerca avanzata", che in seguito divenne la DARPA ). Il denaro viene utilizzato per finanziare il Progetto MAC (in) che include il "Gruppo AI" fondato da Minsky e McCarthy cinque anni prima. L' ARPA continua a fornire tre milioni di dollari all'anno fino al 1970. L'ARPA ha realizzato un programma di sovvenzioni simile Newell e Simon alla Carnegie Mellon e il progetto Stanford AI (fondato da John McCarthy nel 1963). Un altro importante laboratorio di intelligenza artificiale è stato istituito presso l' Università di Edimburgo da Donald Michie nel 1965. Queste quattro istituzioni hanno continuato a essere i principali centri di ricerca sull'intelligenza artificiale a livello accademico per molti anni.
Il denaro viene distribuito con scarso controllo. L'ex professore di Minsky ad Harvard , JCR Licklider , allora capo del "Bureau of Information Processing Technology" ( IPTO ) e direttore del Command & Control Program presso ARPA, ritiene che la sua organizzazione dovrebbe "finanziare le persone, non i progetti! »E autorizza i ricercatori a perseguire tutte le strade che sembrano loro interessanti. Questo crea un'atmosfera di completa libertà al MIT che dà così vita alla cultura hacker . Licklider (1962-64) succedette a Ivan Sutherland (1964-66), Robert Taylor (1966-69) e Lawrence Roberts (1969-1972), tutti vicini al MIT e nella continuità di Licklider nei confronti della IA. Tuttavia, questo atteggiamento di distacco non dura.
Negli anni '70, l'intelligenza artificiale ha subito critiche e battute d'arresto di bilancio, poiché i ricercatori di intelligenza artificiale non avevano una visione chiara delle difficoltà dei problemi che dovevano affrontare. Il loro immenso ottimismo ha generato aspettative eccessive e quando i risultati promessi non si concretizzano, gli investimenti nell'intelligenza artificiale appassiscono. Nello stesso periodo, il connessionismo fu quasi completamente accantonato per 10 anni dalla devastante critica di Marvin Minsky sui perceptrons . Nonostante l'immagine negativa dell'intelligenza artificiale nel pubblico in generale alla fine degli anni '70, nuove idee vengono esplorate nella programmazione logica , nel ragionamento basato sul buon senso e in altre direzioni.
All'inizio degli anni '70, la capacità dei programmi di intelligenza artificiale era limitata. I top performer trovano difficile manipolare versioni semplicistiche dei problemi che dovrebbero risolvere, e tutti i problemi sono, in un certo senso, "banalità". In effetti, i ricercatori di intelligenza artificiale devono affrontare diversi limiti fondamentali insormontabili e sebbene alcuni limiti siano stati superati, altri rimangono dei veri ostacoli.
Limiti della potenza di calcoloLa potenza e la memoria del tempo erano giustamente considerate come un vero e proprio ostacolo alle applicazioni pratiche; erano a malapena sufficienti per dimostrare modelli semplicistici.
Pertanto, il lavoro di Ross Quillian sul linguaggio naturale è limitato a un vocabolario di venti parole, perché la memoria non può contenere di più.
Inoltre, Hans Moravec si lamenta nel 1976 che i computer sono milioni di volte troppo deboli per mostrare intelligenza, che sono lontani dal raggiungere la soglia critica minima. Per capire meglio cosa intende per soglia, usa la seguente analogia: "Al di sotto di un certo livello di potenza, un aeroplano rimane piatto a terra e non può decollare affatto, è semplicemente impossibile". Tuttavia, con l' aumentare della potenza di calcolo , alla fine diventerà possibile.
Per quanto riguarda la visione artificiale, Moravec stima che il semplice abbinamento delle capacità della retina umana di rilevare movimenti e contorni in tempo reale (un problema semplice di questi tempi) richiederebbe un computer generico in grado di 10 9 operazioni / secondo (1000 MIPS ). In confronto, il computer più veloce nel 1976, il Cray-1 (con un prezzo compreso tra $ 5 e $ 8.000.000 ), era in grado di supportare solo da 80 a 130 MIPS e un tipico computer desktop dell'epoca non raggiungeva nemmeno 1 MIPS. In effetti, la sua stima, che era impressionante per l'epoca, era eccessivamente ottimistica: nel 2011, le applicazioni di visione artificiale del mondo reale avevano bisogno di una potenza da dieci a mille volte maggiore, da 10.000 a 1.000.000 MIPS .
Limitazioni intrinseche: completezza NPNel 1972, seguendo il teorema di Cook , Richard Karp dimostrò che c'erano molti problemi molto difficili, per i quali era impensabile trovare soluzioni ottimali, con la conseguenza che i problemi fondamentali dell'intelligenza artificiale non sarebbero passati.
Ragionamento e base di conoscenza della cultura generaleMolte delle principali applicazioni dell'intelligenza artificiale come la visione artificiale o l'elaborazione automatica del linguaggio naturale richiedono enormi quantità di informazioni dal mondo reale per creare programmi in grado di "comprendere" ciò che vede o di cui discute. Già negli anni '70, i ricercatori in questi campi hanno scoperto che la quantità di informazioni corrispondenti è molto grande, sebbene un bambino le acquisisca molto rapidamente. A quel tempo, non era possibile costruire un database del genere o un programma in grado di gestire così tante informazioni.
Il paradosso di MoravecI ricercatori di robotica e intelligenza artificiale Hans Moravec , Rodney Brooks e Marvin Minsky hanno scoperto che il ragionamento di alto livello è spesso più facile da riprodurre e simulare da un programma per computer rispetto alle abilità sensorimotorie umane. Ciò può sembrare controintuitivo poiché un essere umano non ha particolari difficoltà a svolgere compiti che rientrano in quest'ultima categoria, a differenza della prima.
Ad esempio, la dimostrazione di teoremi o la risoluzione di problemi geometrici è relativamente fattibile dai computer, ma un compito più semplice per un essere umano, come riconoscere un volto o attraversare una stanza senza collisioni, è stato a lungo molto complicato per le macchine. Pertanto, la ricerca sulla visione artificiale e sulla robotica ha fatto pochi progressi a metà degli anni '70.
Il quadro e le questioni relative alle qualificheI ricercatori di intelligenza artificiale (come John McCarthy ) che hanno usato la logica hanno scoperto che non potevano rappresentare deduzioni ordinarie che coinvolgevano la pianificazione o il ragionamento predefinito senza dover modificare la struttura della logica stessa. Hanno dovuto sviluppare nuove logiche (come logiche non monotoniche e modali ) per cercare di risolvere questi problemi.
Le agenzie che hanno investito nella ricerca sull'IA (come il governo del Regno Unito , DARPA e NRC, American Research Council ) sono frustrate dalla mancanza di progressi e finiscono per tagliare praticamente tutti i finanziamenti di base per la ricerca sull'IA. Questo comportamento è iniziato già nel 1966, quando un rapporto dell'ALPAC sembrava criticare gli sforzi della traduzione automatica. Dopo aver speso 20 milioni di dollari, l'NRC decide di fermare tutto. Nel 1973 il rapporto di Lighthill (nello) stato della ricerca sull'IA in Inghilterra ha criticato il triste fallimento dell'IA nel raggiungere il suo "ambizioso" e ha portato allo smantellamento della ricerca sull'IA in questo paese (questo rapporto menziona specificamente il problema dell'esplosione combinatoria come uno dei le ragioni dei fallimenti dell'IA). Per quanto riguarda DARPA, è stato estremamente deluso dai ricercatori che lavorano nel programma di ricerca sulla comprensione del discorso alla Carnegie-Mellon e ha annullato una sovvenzione annuale di 3 milioni di dollari. Intorno al 1974, trovare finanziamenti per progetti di IA era quindi raro.
Hans Moravec ha attribuito la crisi alle previsioni irrealistiche dei suoi colleghi. “Molti ricercatori si sono trovati intrappolati in una rete di crescenti esagerazioni. Sorse un altro problema: il voto sull'emendamento Mansfield nel 1969 mise la DARPA sotto crescente pressione per finanziare solo "la ricerca direttamente applicabile, piuttosto che la ricerca esplorativa di base". I fondi per l'esplorazione creativa ea ruota libera come negli anni Sessanta non sarebbero più venuti dalla DARPA. Invece, il denaro è stato reindirizzato a progetti specifici con obiettivi specifici, come carri armati principali autonomi o sistemi di gestione delle battaglie.
Diversi filosofi hanno forti obiezioni alle affermazioni dei ricercatori di intelligenza artificiale. Un primo degli oppositori è John Lucas , che si basa sul teorema di incompletezza di Gödel per sfidare la capacità dei dimostratori di teoremi automatici di dimostrare certe affermazioni. Hubert Dreyfus mette in ridicolo le promesse non mantenute degli anni Sessanta e critica le ipotesi dell'IA, sostenendo che il ragionamento umano in realtà necessitava di pochissima "elaborazione simbolica" ma soprattutto di un sentimento di incarnazione , di istinto , di un inconscio " saper fare ". L'argomento della camera cinese avanzato da John Searle nel 1980 cerca di dimostrare che non si può dire che un programma "capisca" i simboli che usa (una qualità chiamata " intenzionalità "). Se i simboli non hanno alcun significato per la macchina, non si può, dice Searle, qualificare la macchina come "pensiero".
Queste critiche non sono realmente prese in considerazione dai ricercatori di intelligenza artificiale, poiché alcune non prendono di mira l'essenza del problema. Domande come l'indecidibilità, la complessità intrinseca o la definizione di cultura generale sembrano molto più immediate e serie. Pensano che la differenza tra "know-how" e "intenzionalità" aggiunga poco a un programma per computer . Minsky dice di Dreyfus e Searle che "hanno frainteso la domanda e dovremmo ignorarli". I critici di Dreyfus, che insegna al MIT, vengono accolti di fresco: in seguito ha confessato che i ricercatori dell'IA "non hanno osato mangiare con me per paura di essere visti insieme". Joseph Weizenbaum , l'autore di ELIZA , ritiene che il comportamento dei suoi colleghi nei confronti di Dreyfus sia poco professionale e infantile. Sebbene critichi apertamente le posizioni di Dreyfus, chiarisce che questo non è [il modo] di trattare qualcuno.
Weizenbaum inizia ad avere seri dubbi etici sull'intelligenza artificiale quando Kenneth Colby scrive a DOCTOR , un terapista agente conversazionale . Weizenbaum è imbarazzato dal fatto che Colby veda il suo programma Mindless come un serio strumento terapeutico. Sorge quindi una faida e la situazione peggiora quando Colby non menziona il contributo di Weizenbaum al programma. Nel 1976, Weizenbaum pubblica il potere del computer e la ragione umana (in) spiega che l'uso improprio dell'intelligenza artificiale può potenzialmente portare a svalutare la vita umana.
Un perceptron è un tipo di rete neurale introdotto nel 1958 da Frank Rosenblatt . Come la maggior parte dei ricercatori di intelligenza artificiale dell'epoca, è ottimista e prevede che "un perceptron potrebbe essere in grado di apprendere, prendere decisioni e tradurre lingue". Un dinamico programma di ricerca su questi concetti fu condotto negli anni Sessanta, ma si interruppe bruscamente dopo la pubblicazione del libro di Minsky e Papert nel 1969 intitolato Perceptrons . Questo libro rileva diversi limiti a ciò che i perceptrons possono fare e rileva diverse esagerazioni nelle previsioni di Frank Rosenblatt . L'effetto del libro è devastante: da dieci anni non si fa ricerca nel campo del connessionismo . È stato solo dopo un decennio che una nuova generazione di ricercatori ha affrontato nuovamente il problema, in particolare in Francia, Guy Perennou e Serge Castan.
John McCarthy ha introdotto l'uso della logica nell'IA già nel 1958, nel suo Advice Taker . Nel 1963, J. Alan Robinson scoprì un metodo relativamente semplice per implementare la deduzione. Per questo inventa i concetti di risoluzione e unificazione . In effetti, implementazioni più dirette, come quelle provate da McCarthy e dai suoi studenti alla fine degli anni Sessanta, si sono dimostrate particolarmente inefficienti, poiché gli algoritmi richiedono un numero astronomico di passaggi per dimostrare teoremi molto semplici. Un uso più fruttuoso della logica è stato sviluppato negli anni '70 da Alain Colmerauer e Philippe Roussel presso l' Università di Marseille-Luminy e Robert Kowalski (in) presso l' Università di Edimburgo che ha creato il linguaggio di programmazione Prolog . Prolog utilizza un sottoinsieme del calcolo dei predicati , le clausole di Horn , che consente calcoli più efficienti. Altri ricercatori utilizzano regole di produzione, inclusi sistemi esperti di Edward Feigenbaum e software per Allen Newell e Herbert Simon che portano alla cognizione unificata Soar e Theory ["Unified Theory of Cognition"]1990.
L'approccio logico è stato criticato sin dal suo inizio. Così Hubert Dreyfus osserva che gli esseri umani usano raramente la logica quando risolvono i problemi. Le esperienze di psicologi come Peter Wason , Eleanor Rosch , Amos Tversky , Daniel Kahneman e altri confermano più o meno questa opinione. McCarthy ha ribattuto che ciò che fanno gli umani è irrilevante, spiegando che l'obiettivo è avere macchine in grado di risolvere problemi, non macchine che pensano come gli umani. Ma la critica più severa all'approccio basato sulla deduzione automatica viene dal teorico del computer Stephen Cook che mostra nel suo famoso articolo The Complexity of Theorem-Proving Procedures che “non esistono procedure automatiche efficienti per dimostrare i teoremi a meno che P = NP .
I critici dell'approccio di McCarthy includono colleghi in tutto il paese al MIT Marvin Minsky , Seymour Papert e Roger Schank hanno cercato di risolvere problemi come "capire una storia" e "riconoscere oggetti" che richiedono una macchina per pensare come una persona. Per manipolare concetti ordinari come una "sedia" o un "ristorante", devono fare tutti gli stessi presupposti più o meno logici che le persone di solito fanno. Sfortunatamente, concetti così imprecisi sono difficili da rappresentare in logica. Gerald Sussman osserva che "l'uso di un linguaggio preciso per descrivere concetti imprecisi non li rende più precisi". Alogico Schank descrive questi approcci come " disordinato (dentro) ", si oppone ai paradigmi " elegante (dentro) " usati da McCarthy, Kowalski, Feigenbaum , Newell e Simon.
Nel 1975, Minsky nota che molti dei suoi colleghi "bozze" usano lo stesso approccio, cioè un quadro che comprende tutti i presupposti culturali generali (in) un dato tema. Ad esempio, se manipoliamo il concetto di "uccello", vengono in mente una serie di fatti, quindi possiamo affermare che vola, che mangia vermi e così via. . Sappiamo che questi fatti non sono sempre veri e che non tutte le inferenze da questi fatti sono "logiche", ma questi insiemi strutturati di ipotesi fanno parte del contesto delle nostre discussioni o dei nostri pensieri. Minsky chiama queste strutture " frame ". Schank, nel frattempo, introduce una variante di frame che chiama " script " per rispondere alle domande sui romanzi di lingua inglese. Alcuni dicono che alcuni anni dopo la programmazione orientata agli oggetti prenderà in prestito la nozione di " eredità " dai dirigenti dell'intelligenza artificiale .
Negli anni '80, i programmi di intelligenza artificiale chiamati " sistemi esperti " sono stati adottati dalle aziende e la conoscenza è diventata l'argomento centrale della ricerca sull'intelligenza artificiale. Nel frattempo, il governo giapponese finanzia una massiccia intelligenza artificiale attraverso la sua iniziativa " computer di quinta generazione (entrati) ". Un altro evento è la rinascita del connessionismo attraverso le opere di John Hopfield e David Rumelhart .
Un sistema esperto è un programma che risponde a domande o risolve problemi in una data area di conoscenza, utilizzando regole logiche derivate dalla conoscenza di esperti umani in quell'area. Le primissime copie sono sviluppate da Edward Feigenbaum e dai suoi studenti. Dendral , iniziato nel 1965, identifica i componenti chimici dalle letture spettrometriche. Mycin , sviluppato nel 1972, consente di diagnosticare malattie infettive del sangue. Questi programmi confermano la fattibilità dell'approccio.
I sistemi esperti sono deliberatamente limitati a una piccola area di conoscenza specifica (evitando così il problema della cultura generale ) e il loro design semplice consente di costruire questo software in modo relativamente semplice e di migliorarlo una volta distribuito. Infine, questi programmi si stanno rivelando utili , perché è la prima volta che l'intelligenza artificiale trova un'applicazione pratica.
Nel 1980, un sistema esperto chiamato Xcon , il cui obiettivo è ottimizzare la configurazione dei computer VAX da consegnare ai clienti, è stato prodotto dalla Carnegie-Mellon per DEC . Il successo è enorme, perché l'azienda può risparmiare dal 1986 fino a 40 milioni di dollari all'anno. Da quel momento in poi, le aziende di tutto il mondo hanno iniziato a sviluppare e implementare i propri sistemi esperti e intorno al 1985 più di un miliardo di dollari è stato speso per l'intelligenza artificiale, principalmente nei centri di ricerca e sviluppo industriale. Un intero settore viene creato attorno a sistemi esperti, inclusi produttori di hardware come Symbolics e LMI (Lisp Machines, Inc.) e società di software come IntelliCorp e Aion .
La potenza dei sistemi esperti deriva dall'esperienza che contengono. Fanno parte di una nuova direzione della ricerca sull'IA che ha guadagnato terreno negli anni '70. "I ricercatori sull'intelligenza artificiale stavano iniziando a sospettare - con riluttanza, poiché andava contro il canone scientifico della parsimonia - che l'intelligenza potesse essere molto utile in base alla capacità di usare una grande quantità di conoscenze diverse in modi diversi ", osserva Pamela McCorduck . “La grande lezione degli anni Settanta era che il comportamento intelligente dipendeva molto dall'elaborazione della conoscenza, a volte da una conoscenza molto avanzata nel dominio di un determinato compito. "I sistemi di knowledge base e l' ingegneria della conoscenza sono diventati centrali nella ricerca sull'intelligenza artificiale negli anni '80.
Gli anni '80 vedono anche la nascita di Cyc , il primo tentativo di attacco frontale al problema della cultura generale: viene creato un gigantesco database con l'obiettivo di contenere tutti i fatti banali che la persona media conosce. Douglas Lenat , che ha avviato e gestito il progetto, sostiene che non ci sono scorciatoie: l'unico modo per le macchine di conoscere il significato dei concetti umani era insegnarli, un concetto alla volta, e manualmente. Il progetto dovrebbe ovviamente svolgersi per diversi decenni.
Nel 1981, il ministero giapponese dell'Economia, del Commercio e dell'Industria riserva 850 milioni per il progetto della quinta generazione di computer (in) . Il loro obiettivo è scrivere programmi e costruire macchine in grado di sostenere conversazioni, tradurre, interpretare immagini e ragionare come esseri umani. Con dispiacere dei fautori dell'approccio casuale (in) , scelgono Prolog come linguaggio informatico principale del loro progetto, influenzano anche abbastanza in profondità da soddisfare le loro esigenze.
Altri paesi stanno rispondendo con nuovi programmi equivalenti. Il Regno Unito ha avviato il progetto Alvey (in) a 350 milioni di sterline. Un consorzio di aziende americane forma la Microelectronics and Computer Technology Corporation (o MCC ) per finanziare progetti di computer e intelligenza artificiale su larga scala. La DARPA ha reagito anche fondando la Strategic Computing Initiative (Strategic Computing Initiative) e triplicando i suoi investimenti nell'IA tra il 1984 e il 1988.
Nel 1982, il fisico John Hopfield dimostrò che un certo tipo di rete neurale (ora chiamata " rete di Hopfield ") poteva apprendere ed elaborare le informazioni in un modo completamente nuovo. Nello stesso periodo, David Rumelhart ha reso popolare un nuovo metodo di addestramento delle reti neurali chiamato " backpropagation gradiente " (scoperto alcuni anni prima da Paul Werbos ). Queste due nuove scoperte fecero rivivere il campo del connessionismo che era stato ampiamente abbandonato dal 1970.
La giovane tenuta è stata unificata e ispirata dall'apparizione di Distributed Parallel Processing del 1986, una raccolta di articoli in due volumi curata da Rumelhart e dallo psicologo McClelland . Le reti neurali diventeranno un successo commerciale negli anni '90, quando inizieremo a usarle come motori di applicazioni come il riconoscimento ottico dei caratteri e il riconoscimento vocale .
Il fascino della comunità imprenditoriale per l'intelligenza artificiale è cresciuto e poi è diminuito negli anni '80 seguendo il modello classico di una bolla economica . Il crollo dell'IA è avvenuto al livello della percezione che ne avevano gli investitori e le agenzie governative: il campo scientifico continua ad avanzare nonostante le critiche. Rodney Brooks e Hans Moravec , ricercatori nel campo correlato della robotica , sostengono un approccio completamente nuovo all'intelligenza artificiale.
La frase “AI winter” è circolata tra i ricercatori che, avendo già sperimentato i tagli al budget del 1974, si rendono conto con preoccupazione che l'entusiasmo per i sistemi esperti è fuori controllo e che sicuramente ci sarà di più. Le loro paure sono davvero fondate: tra la fine degli anni '80 e l'inizio degli anni '90, l'intelligenza artificiale ha subito una serie di tagli di bilancio.
I primi segni di una tempesta imminente furono l'improvviso crollo del mercato dell'hardware di intelligenza artificiale nel 1987. I computer desktop di Apple e IBM migliorarono gradualmente in velocità e potenza e nel 1987 divennero i gioielli del mercato, come le migliori macchine Lisp di Symbolics . Non c'è quindi più alcun motivo per acquistarli. Da un giorno all'altro, un'industria da mezzo miliardo di dollari scompare del tutto.
Infine, i primi sistemi esperti di successo come Xcon costano troppo da mantenere. Sono difficili da aggiornare, non possono imparare, sono troppo " fragili (in) " (beh, possono commettere errori grotteschi quando i parametri sono fuori dai valori normali) e impigliarsi in problemi (come il problema della qualificazione). I sistemi esperti si sono dimostrati utili, ma solo in contesti molto specifici.
Alla fine degli anni '80, la Strategic Computing Initiative della DARPA tagliò bruscamente i fondi per l'intelligenza artificiale. Con la nuova gestione DARPA che conclude che l'intelligenza artificiale non è più "l'ultima moda", ha reindirizzato le sovvenzioni a progetti più favorevoli a risultati rapidi.
Nel 1991, gli impressionanti obiettivi elencati nel 1981 dal Giappone per i suoi computer di quinta generazione non furono raggiunti. Inoltre, alcuni di loro, come il fatto di "condurre una normale conversazione", non sono stati ancora fatti vent'anni dopo. Come per altri progetti di intelligenza artificiale, il livello è stato fissato troppo in alto.
Alla fine degli anni '80, diversi ricercatori hanno chiesto un approccio completamente nuovo all'intelligenza artificiale, incentrato sulla robotica. Credono che per mostrare la vera intelligenza, una macchina debba essere consapevole del proprio corpo : deve percepire, muoversi, sopravvivere ed evolversi nel mondo. Spiegano che queste capacità sensomotorie sono essenziali per abilità di livello superiore come il ragionamento di conoscenza generale e che il ragionamento astratto è in realtà l'abilità umana meno interessante o importante (cfr. Il paradosso di Moravec ). Difendono un'intelligenza "dal basso verso l'alto". "
L'approccio fa rivivere concetti nati dalla cibernetica e dalla regolamentazione che hanno perso il loro impatto a partire dagli anni Sessanta. Uno dei precursori, David Marr , arrivò al MIT alla fine degli anni '70 con successi passati nelle neuroscienze teoriche per guidare il gruppo che studiava la visione . Egli rifiuta tutti gli approcci simbolici ( sia di McCarthy di logica e di Minsky quadri ), sostenendo che le esigenze di intelligenza artificiale per comprendere il meccanismo fisico della visione dal basso prima della trasformazione simbolica possa essere messo in gioco. Quadrato. Il suo lavoro è stato bruscamente interrotto dalla leucemia che lo ha colpito nel 1980.
In un articolo del 1990 intitolato Gli elefanti non giocano a scacchi , il ricercatore di robotica Rodney Brooks prende direttamente di mira l'ipotesi del sistema simbolico fisico, spiegando che i simboli non sono sempre necessari perché “Il mondo è il suo modello ed è il migliore. È sempre perfettamente aggiornato. Contiene sempre tutti i dettagli necessari. Quello che serve è misurarlo correttamente e ripetutamente ”. Negli anni '80 e '90, molti cognitici hanno anche rifiutato il modello di elaborazione simbolica della mente spiegando che il corpo è essenziale nel ragionamento, una tesi chiamata incarnazione .
Il campo dell'intelligenza artificiale, con più di mezzo secolo alle spalle, è finalmente riuscito a raggiungere alcuni dei suoi obiettivi più antichi. Abbiamo iniziato ad utilizzarlo con successo nel settore tecnologico, anche senza essere stati realmente proposti. Alcuni successi sono stati ottenuti con l'avvento dei computer e altri sono stati raggiunti concentrandosi su specifici problemi isolati e approfondendoli con i più alti standard di integrità scientifica. Tuttavia, la reputazione dell'IA, almeno nel mondo degli affari, è tutt'altro che perfetta. Internamente, non possiamo davvero spiegare le ragioni del fallimento dell'intelligenza artificiale nel rispondere al sogno di un livello di intelligenza equivalente a quello umano che ha catturato l'immaginazione del mondo negli anni '60. Tutti questi fattori spiegano la frammentazione dell'IA in molti sottomarini concorrenti -domini dedicati a una specifica tematica o percorso, arrivando talvolta anche a scegliere un nome che eviti l'espressione ormai contaminata di “intelligenza artificiale”. L'intelligenza artificiale è stata improvvisamente più attenta ma anche più efficace che mai.
Il 11 maggio 1997, Deep Blue è diventato il primo computer di scacchi a battere il campione del mondo in carica Garry Kasparov . Nel 2005, un robot di Stanford ha vinto la DARPA Grand Challenge guidando autonomamente 131 miglia su una pista nel deserto senza aver effettuato una ricognizione precedente. Due anni dopo, un team della Carnegie-Mellon ha vinto la DARPA Urban Challenge , questa volta navigando in autonomia per 55 miglia in un ambiente urbano rispettando le condizioni del traffico e le regole della strada. Nelfebbraio 2011In un gioco dimostrativo del game show Jeopardy! , i due più grandi campioni di Jeopardy! Brad Rutter e Ken Jennings sono stati battuti con un discreto margine dal sistema di domande e risposte progettato da IBM presso il Watson Research Center .
Questi successi non si basano su nuovi paradigmi rivoluzionari, ma sull'attenta applicazione delle tecniche di ingegneria e sulla potenza fenomenale dei computer. In effetti, la macchina Deep Blue è 10 milioni di volte più veloce del Ferranti Mark I, a cui Christopher Strachey insegnò a giocare a scacchi nel 1951. Questo aumento drammatico segue la legge di Moore , che prevede che la velocità e l'abilità della memoria del computer raddoppino ogni due anni. Non stiamo rompendo il blocco sulla "potenza di calcolo"?
Un nuovo paradigma, " agenti intelligenti ", è emerso gradualmente durante gli anni '90. Sebbene i primi ricercatori abbiano proposto approcci modulari "divide et impera" nell'intelligenza artificiale, l' agente intelligente non ha raggiunto la sua forma moderna prima che Judea Pearl , Allen Newell e altri portassero nei concetti di teoria delle decisioni ed economia . Quando la definizione economica dell'agente razionale si combina con la definizione informatica dell'oggetto o anche del modulo , prende piede il paradigma dell'agente intelligente .
Un agente intelligente è un sistema che percepisce il suo ambiente e intraprende azioni che massimizzano le sue possibilità di successo. In base a questa definizione, i programmi semplici che risolvono problemi specifici sono "agenti intelligenti", così come gli esseri umani e le organizzazioni umane come le imprese . Il paradigma dell'agente intelligente definisce l'intelligenza artificiale come lo "studio di agenti intelligenti". È una generalizzazione di alcune delle prime definizioni di AI: va oltre lo studio dell'intelligenza umana; studia tutti i tipi di intelligenza.
Questo paradigma ha aperto la strada ai ricercatori per studiare problemi isolati; le soluzioni trovate sono sia verificabili che utili. Un linguaggio comune consente di descrivere i problemi e di condividere le loro soluzioni tra loro, e anche altri campi hanno utilizzato questo concetto di agenti astratti, come l'economia e la regolamentazione . Si ritiene che l '"architettura degli agenti" (come Soar to Newell ) un giorno i ricercatori dovrebbero costruire sistemi di agenti intelligenti più versatili e intelligenti.
I ricercatori di intelligenza artificiale stanno sviluppando e utilizzando sofisticati strumenti matematici come mai prima d'ora. Si rendono conto che molti problemi che l'intelligenza artificiale deve risolvere sono già stati affrontati in altri campi come la matematica , l' economia o la ricerca operativa . In particolare, la matematica migliora la collaborazione con discipline più solide e porta alla fertilizzazione incrociata e alla raccolta di dati misurabili e dimostrabili; l'intelligenza artificiale sta avanzando verso "l'ortodossia scientifica". Russell e Norvig 2003 lo qualificano per niente di meno che una "rivoluzione" e la "vittoria di elegante (in) ".
Il libro seminale di Judea Pearl del 1988 integra probabilità e teoria delle decisioni con reti bayesiane , modelli di Markov nascosti , teoria dell'informazione , calcolo stocastico e ottimizzazione matematica più in generale . Le descrizioni matematiche si applicano ai paradigmi primordiali di " intelligenza computazionale " come le reti neurali e gli algoritmi evolutivi .
Gli algoritmi inizialmente sviluppati dai ricercatori di intelligenza artificiale stanno iniziando a far parte di sistemi più grandi. L'intelligenza artificiale ha risolto molti problemi molto complessi e le loro soluzioni sono state utilizzate in tutto il settore tecnologico, come data mining , robotica industriale , logistica , riconoscimento vocale , applicazioni bancarie, diagnostica medica, riconoscimento di pattern e motore di ricerca Google .
Il campo dell'intelligenza artificiale non ha praticamente ricevuto alcun merito per questi successi. Alcune delle sue più grandi innovazioni sono state ridotte allo status di un altro elemento nella cassetta degli attrezzi IT. Nick Bostrom spiega: “Un sacco di intelligenza artificiale all'avanguardia è filtrata in applicazioni generali, senza esservi ufficialmente attaccata perché non appena qualcosa diventa utile e abbastanza comune, toglie l'etichetta di intelligenza artificiale. "
Molti ricercatori di intelligenza artificiale negli anni Novanta chiamavano volontariamente i loro studi con altri nomi, come informatica, sistemi basati sulla conoscenza, sistemi cognitivi o intelligenza computazionale. Ciò potrebbe essere in parte dovuto al fatto che vedono il loro campo come fondamentalmente diverso dall'intelligenza artificiale, ma anche perché questi nuovi nomi facilitano i finanziamenti. Almeno nel settore degli affari, le promesse non mantenute dell'inverno dell'IA continuano a perseguitare la ricerca sull'intelligenza artificiale, come riportato dal New York Times nel 2005: "Gli informatici e gli ingegneri del software hanno evitato l'espressione 'intelligenza artificiale' per paura di essere considerati dolci sognatori. "
Nel 1968 Arthur C. Clarke e Stanley Kubrick immaginano che dal 2001 una macchina avrà un'intelligenza paragonabile, addirittura superiore alle capacità degli esseri umani. Il personaggio che creano, HAL 9000 , si basa su una convinzione diffusa tra molti ricercatori di intelligenza artificiale che una macchina del genere esisterà nel 2001.
Marvin Minsky si chiede: “Perché non abbiamo avuto HAL nel 2001? E pensa che le questioni centrali come il ragionamento della conoscenza generale siano trascurate, poiché la maggior parte dei ricercatori si concentra su aspetti come le applicazioni commerciali di reti neurali o algoritmi genetici . John McCarthy , invece, accusa ancora il problema delle qualifiche. Per Ray Kurzweil , il problema sta nella mancanza di potenza di calcolo e, in base alla legge di Moore, prevede che macchine con intelligenza paragonabile a quella umana arriveranno intorno al 2030. In pratica, assistiamo all'arrivo dell'assistente personale “intelligente” Apple Siri nel 2007, Google Now nel 2012 e Microsoft Cortana nel 2014.
La ricerca sull'intelligenza artificiale in Francia è iniziata verso la fine degli anni settanta, con in particolare il GR 22 (chiamato anche gruppo di ricerca Claude-François Picard dove lavorano Jacques Pitrat e Jean-Louis Laurière ) a Parigi, il GIA (sic) (intorno Alain Colmerauer ) a Marsiglia, LIMSI a Orsay, CRIN a Nancy, CERFIA a Tolosa e Laboria (intorno a Gérard Huet e in un campo fondamentale) a Rocquencourt.
Un congresso nazionale annuale di riconoscimento delle forme e intelligenza artificiale è stato creato nel 1979 a Tolosa. In connessione con l'organizzazione della conferenza IJCAI (in) a Chambéry nel 1993, e la creazione di un'intelligenza artificiale GRECO-PRC , nel 1983, dà origine a una società dotta, l' AFIA nel 1989, che, tra le altre, organizza conferenze nazionali sull'intelligenza artificiale. Yann Le Cun proveniva da questa scuola francese .