Limiti dell'IA

Esistono limiti a ciò che l'IA può fare?

Nel 1980, il filosofo John Searle ha introdotto una distinzione tra:

  1. IA debole - l'idea che le macchine possano agire come se fossero intelligenti, ovvero simulando di esserlo;

  2. IA forte - l'affermazione che le macchine che agiscono in tal modo pensano effettivamente in modo consapevole.

Nel corso del tempo la definizione di IA forte si è spostata verso quella che viene chiamata anche Intelligenza Artificiale Generale (Artificial General Intelligence, AGI): programmi in grado di risolvere una varietà arbitrariamente ampia di compiti, compresi quelli nuovi, e di farlo bene come o meglio di un essere umano.

Alcuni filosofi sostengono che una macchina che agisce in modo intelligente non starebbe realmente pensando (IA forte), ma sarebbe solo simulando il pensiero (IA debole). Ma la maggior parte dei ricercatori di IA non si preoccupa di questa distinzione. L'informatico Edsger Dijkstra (1984) ha affermato che:

La domanda se le macchine possano pensare... è rilevante quanto la domanda se i sottomarini possano nuotare.

Anche in questo caso, la questione è stata affrontata da Turing. Egli osserva che non abbiamo mai prove dirette sugli stati mentali interni degli altri esseri umani - una sorta di solipsismo mentale. Tuttavia, Turing afferma:

Invece di discutere continuamente su questo punto, sarebbe giusto avere la cortese convenzione che tutti sono in grado di pensare.

Turing sostiene che potremmo estendere tale convenzione anche alle macchine, se solo avessimo esperienza di macchine che agiscono in modo intelligente.

La stanza cinese

Il filosofo John Searle rifiuta questa convenzione di cortesia.

L'esperimento mentale della stanza cinese, ideato da John Searle nel 1980, è un argomento contro l'intelligenza artificiale forte (IA forte). L'obiettivo di Searle è dimostrare che un computer, pur essendo in grado di superare il test di Turing, non può realmente comprendere il linguaggio.

Searle immagina una persona chiusa in una stanza che non capisce il cinese. La persona riceve dei fogli con dei caratteri cinesi e, seguendo un manuale di istruzioni scritto in inglese, fornisce dei fogli con altri caratteri cinesi come risposta. Il manuale di istruzioni è un programma che simula la conversazione in cinese, ma la persona nella stanza non ha idea del significato dei simboli che sta manipolando.

Secondo Searle:

  • Nell'esperimento, il rapporto con la lingua cinese è di tipo sintattico (manipolazione corretta di simboli), mentre quello con la lingua inglese è di tipo semantico (collegare il significato di un termine).

  • La persona nella stanza non capisce il cinese, anche se è in grado di rispondere correttamente alle domande in base al programma.

  • Allo stesso modo, un computer che supera il test di Turing non capisce realmente il linguaggio, ma sta solo manipolando simboli secondo un programma.

Ci sono state molte confutazioni dell'argomento di Searle, ma nessun consenso. Il suo argomento potrebbe essere ugualmente utilizzato - forse dai robot - per sostenere che un essere umano non può avere una vera comprensione; dopo tutto, un essere umano è fatto di cellule, le cellule non comprendono, quindi non c'è comprensione nell'essere umano. Questa è la trama del racconto di fantascienza They're Made Out of Meat di Terry Bisson (1990), in cui robot alieni esplorano la Terra e non riescono a credere che dei pezzi di carne possano essere senzienti.

Coscienza e qualia

In tutti i dibattiti sull'IA forte è presente la questione della coscienza: la consapevolezza del mondo esterno, del sé e dell'esperienza soggettiva della vita. Il termine tecnico per indicare la natura intrinseca delle esperienze è qualia.

I qualia (plurale neutro latino di qualis, e cioè qualità, attributo, modo) sono, nella filosofia della mente, gli aspetti qualitativi delle esperienze coscienti. Ogni esperienza cosciente ha una sensazione qualitativa diversa da un'altra. Ad esempio, l'esperienza che proviamo nell'assaporare un gelato è qualitativamente diversa da quella che cogliamo quando contempliamo La Gioconda di Leonardo.

La grande domanda è se le macchine possano avere i qualia.

Nel film 2001: Odissea nello Spazio, quando l'astronauta David Bowman sta scollegando i "circuiti cognitivi" del computer HAL 9000, questo dice: "Ho paura, Dave. Dave, la mia mente sta andando. Lo sento". HAL ha davvero dei sentimenti (e merita compassione)? Oppure la risposta è solo una risposta algoritmica, non diversa da "Errore 404: documento non trovato"?

Alan Turing (1950) ammette che la questione della coscienza è difficile, ma nega che abbia molta rilevanza per la pratica dell'IA:

Non vorrei dare l'impressione che io pensi che non ci sia alcun mistero sulla coscienza... Ma non credo che questi misteri debbano necessariamente essere risolti prima di poter rispondere alla domanda di cui ci occupiamo in questo articolo.

Facendo nostro il pensiero di Turing, siamo interessati a creare programmi che si comportino in modo intelligente. Siamo d'accordo sul fatto che un comportamento intelligente richiederà un certo grado di consapevolezza, che varierà da compito a compito. Il progetto aggiuntivo di rendere una macchina cosciente esattamente come gli esseri umani non è un progetto che siamo in grado di (o che sia rilevante) affrontare.

Diritti dei robot

La questione della coscienza dei robot è fondamentale per stabilire quali diritti, se ce ne sono, dovrebbero avere i robot. Se non hanno coscienza, né qualia, allora pochi sosterrebbero che meritano dei diritti.

Ma se i robot possono provare dolore, se possono temere la morte, se sono considerati come persone, allora si può sostenere che hanno dei diritti e meritano di vederli riconosciuti, proprio come altri gruppi storicamente oppressi hanno lottato per vederli riconosciuti.

Se i robot hanno dei diritti, allora non dovrebbero essere ridotti in schiavitù, e c'è da chiedersi se riprogrammarli sarebbe una sorta di schiavitù. Un'altra questione etica riguarda il diritto di voto: una persona ricca potrebbe comprare migliaia di robot e programmarli per esprimere migliaia di voti, questi voti dovrebbero contare? Se un robot si clona, possono votare entrambi? Il voto robotico viola il principio "una persona, un voto"? Queste domande sono rilevanti anche nel contesto del voto online, in particolare per il voto all'interno delle Organizzazioni Autonome Decentralizzate (DAO).

Il quartiere Užupis di Vilnius in Lituania è il primo quartiere al mondo ad autodichiararsi Repubblica indipendente, con tanto di costituzione e ambasciate in giro per il mondo. La sua costituzione contiene un articolo (numero Pi Greco) che rappresenta il primo articolo al mondo in una costituzione a citare i diritti dell’Intelligenza Artificiale: "Qualsiasi Intelligenza Artificiale ha il diritto di credere nella buona volontà dell'umanità".

Gli argomenti contro l'IA generale

I rapidi progressi degli ultimi anni non dimostrano, tuttavia, che non ci siano limiti a ciò che l'IA può raggiungere. Alan Turing, il primo a definire l'IA, è stato anche il primo a sollevare possibili obiezioni all'IA, prevedendo quasi tutte quelle successivamente sollevate da altri.

Tre sono i principali argomenti contro l'IA generale:

  • l'argomento dell'informalità

  • l'argomento della disabilità

  • l'argomento dell'impossibilità

L'argomento dell'informalità

L'argomento dell'informalità afferma che:

Il comportamento umano è troppo complesso per essere catturato da un insieme di regole formali - gli esseri umani utilizzano linee guida informali che non potrebbero mai essere catturate in un insieme formale di regole e quindi non potrebbero mai essere codificate in un programma per computer.

Uno dei principali sostenitori di questo punto di vista è stato Hubert Dreyfus, che ha prodotto una serie di influenti critiche sull'intelligenza artificiale: What Computers Can't Do (1972), il seguito What Computers Still Can't Do (1992) e, con il fratello Stuart, Mind Over Machine (1986).

Dreyfus sosteneva che l'intelligenza e la competenza umana dipendono principalmente da processi inconsci piuttosto che dalla manipolazione simbolica cosciente, e che queste abilità inconsce non possono mai essere completamente catturate da regole formali.

Allo stesso modo, il filosofo Kenneth Sayre (1993) ha detto: "L'intelligenza artificiale perseguita all'interno del culto del computazionalismo non ha nemmeno la minima possibilità di produrre risultati duraturi".

La tecnologia da loro criticata è stata chiamata Good Old-Fashioned AI (GOFAI), ovvero l'approccio logico-simbolico all'IA: è effettivamente difficile catturare ogni contingenza del comportamento umano in un insieme di regole logiche necessarie e sufficienti (il cosiddetto qualification problem). Ma i sistemi di ragionamento probabilistico si sono dimostrati essere più adatti a domini aperti e i sistemi di apprendimento profondo si comportano bene in una varietà di compiti informali.

Quindi, la critica non è rivolta contro i computer in sé, ma piuttosto contro un particolare stile di programmazione con regole logiche, uno stile che era popolare negli anni '80 ma che è stato eclissato da nuovi approcci.

Inoltre, le argomentazioni di Dreyfus sono state formulate per motori di inferenza logica disincarnati piuttosto che per agenti situati, ovvero calati nella realtà. Un agente la cui comprensione del concetto di "cane" deriva solo da un insieme limitato di frasi logiche come "x è un cane implica che x è un mammifero" si trova in una posizione di netto svantaggio rispetto a un agente che ha visto correre i cani, ha giocato con loro ed è stato amato da uno di essi.

Come dice il filosofo Andy Clark (1998): "i cervelli biologici sono innanzitutto i sistemi di controllo dei corpi biologici. I corpi biologici si muovono e agiscono in un ambiente reale ricco di esperienze." Secondo Clark, in sostanza, "siamo più bravi a giocare a frisbee che a manipolare formule logiche".

L'approccio della cognizione incarnata (embodied cognition) sostiene che non ha senso considerare il cervello separatamente dal corpo: la cognizione ha luogo all'interno di un corpo, che è inserito in un ambiente. Dobbiamo studiare il sistema nel suo complesso; il funzionamento del cervello sfrutta le regolarità del suo ambiente, compreso il resto del corpo. Con l'approccio della cognizione incarnata, la robotica e la visione artificiale diventano centrali nell'IA, non più periferiche.

L'argomento della disabilità

L'argomento della disabilità sostiene che:

Una macchina non potrà mai fare X.

Come esempi di X, Turing elenca i seguenti:

Essere gentile, piena di risorse, bella, amichevole, avere iniziativa, avere senso dell'umorismo, distinguere il bene dal male, commettere errori, innamorarsi, gustare fragole e panna, far innamorare qualcuno, imparare dall'esperienza, usare le parole in modo appropriato, essere oggetto del proprio pensiero, avere una diversità di comportamento pari a quella dell'uomo, fare qualcosa di veramente nuovo.

A ben vedere, alcuni di questi aspetti sono piuttosto facili da raggiungere per una macchina: conosciamo tutti i computer che commettono errori o hanno allucinazioni. I computer con capacità di metaragionamento possono esaminare i propri calcoli, diventando così oggetto del proprio ragionamento.

L'esperto di scacchi informatici David Levy prevede che entro il 2050 le persone si innamoreranno abitualmente di robot umanoidi. Questo è un tema comune nella narrativa - ad esempio, l'opera Coppélia (1870), il romanzo Do Androids Dream of Electric Sheep? (1968, da cui è stato tratto il film del 1982 Blade Runner e il sequel del 2017 Blade Runner 2049), i film AI (2001), Wall-E (2008) e Her (2013).

Inoltre, i computer hanno fatto cose veramente nuove, facendo scoperte significative in astronomia, matematica, chimica, mineralogia, biologia, informatica e altri campi, e creando nuove forme di arte generativa basata sull'IA.

Voi sostenete che certe cose una macchina non le può fare. Spiegatemi esattamente cosa una macchina non può fare, e io riuscirò a costruire una macchina che fa proprio quella cosa. John von Neumann

Sono stati stilati altri elenchi più ambiziosi di cose che una macchina non potrà mai fare:

Un essere umano dovrebbe essere in grado di cambiare un pannolino, pianificare un'invasione, macellare un maiale, progettare un edificio, scrivere un sonetto, far quadrare i conti, costruire un muro, sistemare un osso, confortare un moribondo, prendere ordini, dare ordini, cooperare, agire da solo, risolvere equazioni, analizzare un nuovo problema, spargere letame, programmare un computer, cucinare un pasto gustoso, combattere in modo efficiente, morire con coraggio. La specializzazione è per gli insetti.

Finora nessun sistema di IA è all'altezza di questi elenchi e alcuni sostenitori dell'IA generale insistono sul fatto che il lavoro continuo su compiti specifici (o su singoli componenti) non sarà sufficiente per raggiungere la padronanza su un'ampia varietà di compiti; avremo bisogno di un approccio fondamentalmente nuovo. In realtà, sarebbe stato un errore dire ai fratelli Wright nel 1903 di interrompere il lavoro sul loro aeroplano che sapeva solo volare e di progettare una macchina per il "volo generale artificiale" in grado di decollare verticalmente, volare più veloce del suono, trasportare centinaia di passeggeri e atterrare sulla luna.

Nel complesso, l'IA supera le prestazioni umane in alcuni compiti ed è ancora indietro in altri. L'unica cosa che chiaramente non riesce a fare è essere esattamente umana.

In conclusione, l'IA ha fatto grandi progressi nella sua breve storia, ma la frase finale del saggio di Alan Turing (1950) su Computing Machinery and Intelligence è ancora valida oggi:

Possiamo vedere solo una breve distanza davanti a noi, ma possiamo vedere che molto rimane da fare.

L'argomento dell'impossibilità

Turing (1936) e Gödel (1931) dimostrarono che alcune questioni matematiche sono in linea di principio irrisolvibili da particolari sistemi formali. Il teorema di incompletezza di Gödel ne è l'esempio più famoso. In breve, per qualsiasi sistema formale assiomatico F sufficientemente potente da includere l'aritmetica, è possibile costruire una cosiddetta asserzione di Gödel G(F) con le seguenti proprietà:

  • G(F) è una formula di F, ma non può essere dimostrata all'interno di F

  • Se F è coerente, allora G(F) è vera.

Quindi, assumendo la coerenza di F, allora G(F) è una formula vera che non può essere dimostrata in F, ovvero è indecidibile. Ricordiamo che un sistema assiomatico è coerente se non esiste un enunciato tale che sia l'enunciato che la sua negazione siano dimostrabili a partire dagli assiomi del sistema, ovvero il falso \bot non è dimostrabile nel sistema.

Filosofi come J. R. Lucas hanno sostenuto che questo teorema dimostra che le macchine sono mentalmente inferiori agli esseri umani, perché le macchine sono sistemi formali limitati dal teorema di incompletezza e non possono stabilire la verità di affermazioni indecidibili, mentre gli esseri umani non hanno questa limitazione. Questo ha causato molte controversie, generando una vasta letteratura, tra cui due libri del matematico e fisico Roger Penrose. Penrose ripropone l'affermazione di Lucas con alcune novità, come l'ipotesi che gli esseri umani siano diversi perché i loro cervelli operano secondo la gravità quantistica - una teoria gravitazionale che si spinge nel regno quantistico.

Tuttavia, nessuna entità - umana o macchina - può dimostrare cose che sono impossibili da dimostrare.

Se ammettiamo che i computer hanno dei limiti su ciò che possono dimostrare, non c'è alcuna prova che gli esseri umani siano immuni da tali limiti. È fin troppo facile dimostrare in modo rigoroso che un sistema formale non può fare X, e poi affermare che gli esseri umani possono fare X usando il loro metodo informale, senza fornire alcuna prova per questa affermazione.

In effetti, è impossibile dimostrare che gli esseri umani non sono soggetti al teorema di incompletezza di Gödel, perché qualsiasi prova rigorosa richiederebbe una formalizzazione del talento umano che non può essere formalizzato a priori, e quindi si confuterebbe da sola.

Rimane quindi l'appello all'intuizione che gli esseri umani possano in qualche modo compiere imprese sovrumane di intuizione matematica. Questo appello è espresso con argomenti come "dobbiamo assumere la nostra coerenza, se il pensiero deve essere possibile" (Lucas, 1976). Ma si sa che gli esseri umani sono incoerenti. Questo è certamente vero per i ragionamenti di tutti i giorni, ma lo è anche per un attento pensiero matematico.

Un esempio famoso è il problema della mappa a quattro colori. Alfred Kempe pubblicò una prova nel 1879 che fu ampiamente accettata e contribuì alla sua elezione a Fellow della Royal Society. Nel 1890, tuttavia, Percy Heawood evidenziò un difetto e il teorema rimase indimostrato fino a quando, nel 1976, fu dimostrato da Kenneth Appel e Wolfgang Haken.

Gödel, Escher, Bach: un'eterna ghirlanda brillante è un celebre saggio di Douglas Hofstadter, pubblicato la prima volta nel 1979, che indaga il tema dell'autoreferenzialità nelle opere creative del logico Kurt Gödel, dell'artista Maurits Cornelis Escher e del compositore Johann Sebastian Bach.

Teorema di incompletezza di Gödel

Estendendo leggermente il linguaggio della logica del primo ordine per consentire lo schema dell'induzione matematica in aritmetica, Kurt Gödel fu in grado di dimostrare, nel suo teorema di incompletezza pubblicato nel 1931, che esistono affermazioni logiche vere che non possono essere dimostrate.

La dimostrazione del teorema di incompletezza va un po' oltre lo scopo di questo corso, occupando almeno 30 pagine, ma possiamo darne un accenno. Cominciamo con la teoria logica dei numeri. In questa teoria esiste una sola costante, 0, e una sola funzione, S (la funzione successore). Nel modello previsto, S(0) indica 1, S(S(0)) indica 2 e così via; il linguaggio ha quindi nomi per tutti i numeri naturali. Il vocabolario comprende anche i simboli di funzione + (somma), x (prodotto) ed exp (esponenziazione), oltre al consueto insieme di connettivi (congiunzione, disgiunzione, negazione) e quantificatori logici (esistenziale e universale).

Il primo passo consiste nel notare che l'insieme delle affermazioni che possiamo scrivere in questo linguaggio può essere enumerato. Immaginiamo di definire un ordine alfabetico dei simboli e poi di disporre, in ordine lessicografico, ogni affermazione. Possiamo quindi numerare ogni affermazione α\alpha associandole un unico numero naturale #α\#\alpha, detto numero di Gödel della formula. Allo stesso modo, possiamo numerare ogni possibile prova P con un numero, detto numero di Gödel della prova, perché una prova è semplicemente una sequenza finita di affermazioni.

Supponiamo ora di avere un insieme enumerabile A di affermazioni che sono vere sui numeri naturali. Assumiamo inoltre la correttezza del sistema: ogni formula dimostrabile nel sistema logico a partire da affermazioni in A è anche una affermazione vera. La correttezza è in generale una ipotesi più forte della coerenza (assunto del teorema originale), ma ci servirà per agevolare questa dimostrazione semplificata.

Possiamo immaginare di scrivere nel nostro linguaggio una frase α(j,A)\alpha(j, A) del tipo seguente:

Per tutti i numeri ii, il numero ii non è il numero di Gödel di una prova della affermazione il cui numero di Gödel è jj, dove la prova utilizza solo le premesse in A.

Ovvero, α(j,A)\alpha(j, A) afferma che la affermazione il cui numero di Gödel è jj non è dimostrabile da A.

Allora sia:

σ=α(#σ,A)\sigma = \alpha(\#\sigma, A)

cioè σ\sigma è una affermazione autoreferenziale che dice:

Io non sono dimostrabile.

Che questa formula esista sempre è vero, ma non del tutto ovvio. In un certo senso la formula σ\sigma è il punto fisso della funzione α\alpha.

Ora facciamo il seguente ingegnoso ragionamento:

  1. supponiamo che σ\sigma sia dimostrabile;

  2. allora σ\sigma è falsa, perché essa dice che non può essere dimostrata;

  3. ma allora abbiamo una affermazione falsa che è dimostrabile da A - una violazione della nostra premessa di correttezza del sistema;

  4. pertanto, σ\sigma non è dimostrabile;

  5. ma questo è esattamente ciò che σ\sigma afferma; quindi σ\sigma è una affermazione vera che non è dimostrabile.

I limiti dell'uomo rispetto alla macchina

Ribaltando la questione, ci sono cose che le macchine possono fare e gli esseri umani no? Il caso generale è quello della computazione (almeno quella sufficientemente veloce). Consideriamo il fenomeno dell'irriducibilità computazionale. Ci sono alcuni calcoli che si potrebbe pensare richiedano molti passaggi per essere eseguiti, ma che in realtà possono essere ridotti a qualcosa di abbastanza immediato. Ad esempio un frattale è un oggetto apparentemente complicato ma che può essere generato a partire da poche regole molto semplici. Ci sono sistemi complessi, al contrario, in cui per capire cosa succede è inevitabile dover tracciare essenzialmente ogni passaggio computazionale, ovvero eseguire e osservare il sistema senza scorciatoie. Questi sistemi sono eseguibili da una macchina ma non lo sono da un uomo, perlomeno in un tempo limitato.

In realtà, il tipo di cose che facciamo normalmente con il nostro cervello è presumibilmente scelto appositamente per evitare questo tipo di irriducibilità, quindi forse non è un buon campione di compiti da far svolgere ad una macchina. In altri termini, c'è una tensione fondamentale tra la capacità di apprendimento e l'irriducibilità computazionale. L'apprendimento implica la compressione dei dati sfruttando le regolarità. Ma l'irriducibilità computazionale implica che c'è un limite alle regolarità che possono esistere. Quindi tendiamo ad apprendere solo ciò che è riducibile computazionalmente. Dunque è in linea di principio possibile per una macchina apprendere qualcosa che l'essere umano non ha la capacità di imparare.

Last updated