Una definizione bidimensionale

Dove descriviamo quattro diversi approcci all'IA

Iniziamo con una citazione dal romanzo Maniac di Benjamín Labatut:

Prima che John von Neumann diventasse indifferente a tutto e si rifiutasse di parlare anche con amici e parenti, gli chiesero cosa sarebbe stato necessario perché un calcolatore, o qualsiasi altra entità meccanica, cominciasse a pensare e comportarsi come un essere umano. Lui si prese moltissimo tempo prima di rispondere, e con una voce non più forte di un sussurro, disse:

  1. Che avrebbe dovuto crescere da solo, e non essere costruito.

  2. Che avrebbe dovuto comprendere il linguaggio, leggere, scrivere, parlare.

  3. Che avrebbe dovuto giocare, come un bambino

Secondo von Neumann, dunque, una IA deve essere in grado di replicarsi, conoscere il linguaggio, e saper giocare.

Storicamente, i ricercatori hanno perseguito un approccio più formale che consiste in diverse versioni di IA:

  1. pensiero vs. azione: alcuni considerano l'intelligenza una proprietà dei processi di pensiero e ragionamento interni, mentre altri si concentrano sul comportamento intelligente, una caratterizzazione esterna.

  2. umano vs. razionale: alcuni hanno definito l'intelligenza in termini di aderenza alle prestazioni umane, mentre altri preferiscono una definizione astratta e formale di intelligenza chiamata razionalità - in senso lato fare la cosa giusta dato ciò che si conosce.

Per queste due dimensioni - pensare vs. agire e umano vs. razionale - ci sono quattro possibili combinazioni.

Pensare umanamente: la modellazione cognitiva

Per dire che un programma pensa come un essere umano, dobbiamo sapere come pensano gli esseri umani. Possiamo imparare a conoscere il pensiero umano in tre modi:

  1. introspezione - cercando di cogliere i nostri stessi pensieri mentre passano;

  2. esperimenti psicologici - osservando una persona in azione;

  3. immagini cerebrali - osservare il cervello in azione.

Il campo interdisciplinare delle scienze cognitive riunisce i modelli informatici dell'IA e le tecniche sperimentali della psicologia per costruire teorie precise e verificabili della mente umana.

Una volta ottenuta una teoria della mente sufficientemente precisa, diventa possibile esprimerla come programma informatico e quindi replicarla su una macchina.

Pensare razionalmente: le leggi del pensiero

Il filosofo greco Aristotele fu uno dei primi a tentare di codificare il pensiero corretto, cioè i processi di ragionamento inconfutabili.

I suoi sillogismi fornivano modelli di strutture argomentative che producevano sempre conclusioni corrette quando venivano date premesse corrette - ad esempio, Socrate è un uomo; tutti gli uomini sono mortali; quindi, Socrate è mortale.

Lo studio delle leggi del pensiero ha dato inizio al campo della logica. I logici hanno sviluppato una notazione precisa per le affermazioni su tutti i tipi di oggetti del mondo e sulle relazioni tra di essi (in contrasto con la notazione aritmetica ordinaria, che prevede solo affermazioni sui numeri). Nel 1965 esistevano programmi in grado di risolvere, in linea di principio, qualsiasi problema risolvibile descritto in notazione logica. La cosiddetta tradizione logica nell'ambito dell'intelligenza artificiale spera di basarsi su tali programmi per creare sistemi intelligenti.

La logica come convenzionalmente intesa richiede una conoscenza del mondo che sia certa, una condizione che, in realtà, è raramente raggiunta. Semplicemente, non conosciamo le regole della politica o della finanza tanto bene come conosciamo le regole degli scacchi o della matematica. La teoria della probabilità colma questa lacuna, consentendo un ragionamento rigoroso in un contesto di informazioni incerte.

Agire umanamente: il test di Turing

Il Test di Turing, proposto da Alan Turing nel 1950, è stato concepito per fornire una definizione operativa di intelligenza.

Un computer supera il test di Turing se un interrogatore umano, dopo aver posto alcune domande scritte, non è in grado di dire se le risposte scritte provengono da una persona o da un computer.

Il computer che supera il test dovrebbe possedere le seguenti capacità:

  • elaborazione del linguaggio naturale - natural language processing - per consentirgli di comunicare con successo;

  • rappresentazione della conoscenza - knowledge representation - per memorizzare ciò che sa o sente;

  • ragionamento automatico - automated reasoning - per utilizzare le informazioni memorizzate allo scopo di rispondere alle domande e trarre nuove conclusioni;

  • apprendimento automatico - machine learning - per adattarsi a nuove circostanze.

Turing riteneva che la simulazione fisica di una persona non fosse necessaria per dimostrare l'intelligenza. Tuttavia, altri ricercatori hanno proposto il test di Turing totale, che richiede interazioni con oggetti e persone nel mondo reale. Per superare il test di Turing totale, un robot dovrà anche avere:

  • visione artificiale e riconoscimento vocale - computer vision and speech recognition - per percepire gli oggetti e la voce,

  • robotica - robotics - per manipolare gli oggetti e muoversi.

Queste sei discipline costituiscono la maggior parte dell'IA e a Turing va il merito di aver ideato un test che rimane attuale tuttora. Tuttavia, i ricercatori di IA hanno dedicato pochi sforzi al superamento del Test di Turing, ritenendo più importante studiare i principi alla base dell'intelligenza.

La ricerca del volo artificiale ha avuto successo quando i fratelli Wright e altri hanno smesso di imitare gli uccelli e hanno iniziato a usare gallerie del vento e a studiare l'aerodinamica. I testi di ingegneria aeronautica non definiscono l'obiettivo del loro campo come la realizzazione di macchine che volano così bene come gli uccelli da poter ingannare anche gli uccelli stessi!

Agire razionalmente: l'agente razionale

Un agente è semplicemente qualcosa che agisce (agente deriva dal latino agere, fare). Naturalmente, tutti i programmi per computer fanno qualcosa, ma ci si aspetta che gli agenti razionali facciano di più: operare in modo autonomo, percepire l'ambiente, persistere per un periodo di tempo prolungato, adattarsi al cambiamento, creare e perseguire obiettivi.

Un agente razionale è un agente che agisce in modo da ottenere il miglior risultato o, in caso di incertezza, il miglior risultato atteso.

Questo approccio si concentra sullo studio e sulla costruzione di agenti che fanno la cosa giusta. Ciò che conta come cosa giusta è definito dall'obiettivo che forniamo all'agente. Questo paradigma generale è così pervasivo che potremmo chiamarlo il modello standard.

Il modello standard è stato un'utile guida per la ricerca sull'IA fin dai suoi inizi, ma probabilmente non è il modello giusto nel lungo periodo. Il motivo è che presuppone che si fornisca alla macchina un obiettivo completamente specificato.

Per un compito definito artificialmente, come gli scacchi o il calcolo del percorso più breve tra due punti, il compito viene fornito con un obiettivo chiaro, quindi il modello standard è applicabile. Quando ci spostiamo nel mondo reale, tuttavia, diventa sempre più difficile specificare la funzione obiettivo in modo completo e corretto.

Inoltre, il modello standard soffre del problema dell'allineamento dei valori: i valori o gli obiettivi inseriti nella macchina devono essere allineati con quelli dell'uomo.

Non vogliamo macchine intelligenti nel senso di perseguire i loro obiettivi; vogliamo che perseguano i nostri obiettivi.

Per questo è più sicura una nuova formulazione del modello standard: una macchina che persegua i nostri obiettivi, ma che sia necessariamente incerta su quali siano.

Quando una macchina sa di non conoscere l'obiettivo completo, è incentivata ad agire con cautela, a chiedere il permesso, a imparare di più sulle nostre preferenze attraverso l'osservazione, a rimettersi al controllo umano.

Last updated