Rischi dell'IA

Che rischi pone uno sviluppo incontrollato dell'IA?

Francis Bacon, un filosofo a cui si attribuisce la creazione del metodo scientifico, ha osservato in The Wisdom of the Ancients (1609) che: "the mechanical arts are of ambiguous use, serving as well for hurt as for remedy". Poichรฉ l'IA svolge un ruolo sempre piรน importante in ambito economico, sociale, scientifico, medico, finanziario e militare, faremmo bene a considerare i danni e i rimedi, nel linguaggio moderno, i rischi e i benefici che puรฒ portare.

Per cominciare dai benefici: la nostra intera civiltร  รจ il prodotto della nostra intelligenza umana. Se abbiamo accesso a un'intelligenza delle macchine sostanzialmente superiore, il livello delle nostre ambizioni si alza notevolmente. In particolare, la capacitร  dell'IA di accelerare la ricerca scientifica potrebbe portare a cure per le malattie e a soluzioni per il cambiamento climatico e per la scarsitร  di risorse. Come ha suggerito Demis Hassabis, CEO di Google DeepMind:

First solve AI, then use AI to solve everything else

Molto prima di avere l'opportunitร  di risolvere l'IA, tuttavia, incorreremo in rischi derivanti dall'uso improprio dell'IA, involontario o meno. Alcuni di questi sono giร  evidenti, mentre altri sembrano probabili sulla base delle tendenze attuali.

Prometeo e Pandora

Il titano Prometeo rubรฒ agli Dei il segreto del fuoco per donarlo agli uomini, provocando la vendetta di ๏ปฟZeus.

Prima venne la tortura eterna di Prometeo, incatenato a una montagna, e poi venne lโ€™idea di inviare tra gli uomini la bellissima Pandora, a cui era stato consegnato un vaso sigillato che nessuno โ€“ nemmeno lei โ€“ avrebbe dovuto aprire.

Non ci volle molto prima che lei lo aprisse, e da esso uscirono per sempre tutti i mali che oggi affliggono il mondo.

Sviluppando l'IA, abbiamo rubato il fuoco della creazione agli Dei? Verremo puniti nello stesso modo?

AI risk repository

Il MIT AI Risk Repository offre una revisione sistematica e una classificazione dettagliata dei rischi associati all'intelligenza artificiale (AI).

Il lavoro risponde al bisogno di creare una comprensione condivisa delle minacce legate all'AI, considerato che i tentativi precedenti di classificare questi rischi sono stati spesso disomogenei, frammentati e poco coordinati.

Nello specifico, l'AI Risk Repository รจ un database contenente 777 rischi individuati attraverso una revisione sistematica di 43 tassonomie precedenti.

Questo un audio overview sull'argomento generato con NotebookLM.

Armi autonome letali

Sono definite dalle Nazioni Unite come armi in grado di localizzare, selezionare ed eliminare obiettivi umani senza l'intervento umano.

Una delle preoccupazioni principali di tali armi รจ la loro scalabilitร : l'assenza di un requisito di supervisione umana significa che un piccolo gruppo puรฒ dispiegare un numero arbitrariamente elevato di armi contro obiettivi umani definiti da qualsiasi criterio di riconoscimento. Potrebbero certamente essere usate per spazzare via un intero gruppo etnico o tutti gli aderenti a una particolare religione in modo selettivo. In molte situazioni, inoltre, non sarebbero rintracciabili. Un drone quadrirotore puรฒ trasportare una carica esplosiva letale, e un milione di esemplari possono stare in un normale container da trasporto. Proprio perchรฉ autonome, queste armi non avrebbero bisogno di un milione di supervisori umani per svolgere il loro lavoro.

La questione dell'affidabilitร  delle decisioni belliche mediate dalla macchina รจ emersa il 26 settembre 1983, quando sul display del computer dell'ufficiale missilistico sovietico Stanislav Petrov lampeggiรฒ un allarme per un attacco missilistico in arrivo. Secondo il protocollo, Petrov avrebbe dovuto iniziare un contrattacco nucleare, ma sospettรฒ che l'allarme fosse un bug e lo trattรฒ come tale. Aveva ragione, e la Terza Guerra Mondiale fu (per poco) evitata. Non sappiamo cosa sarebbe successo se non ci fosse stato un umano nel sistema.

Sorveglianza e persuasione

Mentre รจ costoso, noioso e talvolta legalmente discutibile per il personale di sicurezza monitorare le linee telefoniche, i feed delle videocamere, le e-mail e altri canali di messaggistica, l'IA (tramite il riconoscimento vocale, la visione artificiale e la comprensione del linguaggio naturale) puรฒ essere utilizzata in modo scalabile per eseguire una sorveglianza di massa degli individui e rilevare le attivitร  di interesse.

Inoltre, studiando con tecniche di apprendimento automatico l'uso che le persone fanno dei social media, รจ possibile adattare i flussi di informazioni verso gli individui e il loro comportamento politico puรฒ essere modificato e controllato in una certa misura - una preoccupazione che รจ diventata evidente nelle elezioni a partire dal 2016, ovvero dallo scandalo Facebook-Cambridge Analytica.

Lo scandalo Facebook-Cambridge Analytica

Lo scandalo Facebook-Cambridge Analytica, emerso nel 2018, ha rivelato l'uso non autorizzato dei dati personali di circa 87 milioni di utenti Facebook da parte della societร  britannica Cambridge Analytica.

Questi dati, raccolti tramite un'app apparentemente innocua attraverso il social network Facebook, sono stati sfruttati per creare profili psicometrici dettagliati degli utenti e influenzare campagne elettorali, tra cui quelle a favore della Brexit e delle presidenziali statunitensi del 2016 (vinte da Donald Trump).

Lo scandalo ha sollevato gravi preoccupazioni sulla privacy, sulla manipolazione dell'opinione pubblica attraverso i social media e sulla regolamentazione dell'uso dei dati personali, portando a sanzioni per Facebook.

La condivisione in chiaro dei propri dati deve affrontare il compromesso tra la necessitร  di mantenere privati i dati sensibili e quella di favorire l'uso dei questi dati per un beneficio comune.

Un approccio interessante a questo scopo รจ chiamato apprendimento federato. Gli utenti gestiscono i propri database locali che custodiscono i loro dati privati, evitando l'uso di un database centrale. Tuttavia, possono condividere solo i parametri di un modello di apprendimento automatico potenziato con i loro dati, senza il rischio di rivelare alcun dato privato.

Immaginiamo un'applicazione di comprensione del parlato che gli utenti possono eseguire localmente sul proprio telefono. L'applicazione contiene una rete neurale di base, che viene poi migliorata mediante un addestramento locale sulle parole ascoltate sul telefono dell'utente. Periodicamente, i proprietari dell'applicazione interrogano un sottoinsieme di utenti e chiedono loro i valori dei parametri della rete locale migliorata, ma non i dati grezzi. I valori dei parametri vengono combinati insieme per formare un nuovo modello migliorato che viene poi reso disponibile a tutti gli utenti, in modo che tutti possano beneficiare dell'addestramento effettuato da altri utenti.

Decisioni distorte

L'uso incauto di algoritmi di apprendimento automatico per compiti quali la valutazione delle richieste di libertร  vigilata e di prestito finanziario puรฒ portare a decisioni distorte e soggette a pregiudizi.

Spesso, infatti, i dati stessi riflettono pregiudizi pervasivi nella societร . Gli algoritmi di apprendimento automatico possono perpetuare tali pregiudizi sociali: non abbiamo fin dal principio dati imparziali, ovvero una veritร  di base (ground truth). Per esempio, in un set di dati sulla criminalitร , i dati non ci dicono chi ha commesso un crimine - tutto ciรฒ che sappiamo รจ chi รจ stato condannato per un crimine. Se gli agenti che hanno effettuato l'arresto, il giudice o la giuria sono prevenuti, i dati saranno prevenuti e gli algoritmi apprenderanno tale preconcetto e lo riproporranno agli utenti. Se un numero maggiore di agenti pattuglia alcuni luoghi, i dati saranno distorti nei confronti delle persone che si trovano in quei luoghi.

Anche in assenza di pregiudizi sociali, la disparitร  delle dimensioni del campione puรฒ portare a risultati distorti. Nella maggior parte dei set di dati ci saranno meno esempi di addestramento di individui di classe minoritaria rispetto a quelli di classe maggioritaria. Gli algoritmi di apprendimento automatico offrono una migliore accuratezza con un maggior numero di dati di addestramento, per cui i membri delle classi minoritarie avranno un'accuratezza inferiore.

I pregiudizi possono entrare in gioco anche nel processo di sviluppo del software (che si tratti o meno di apprendimento automatico). Gli ingegneri che stanno eseguendo il debug di un sistema sono piรน propensi a notare e risolvere i problemi che riguardano loro stessi. Per esempio, รจ difficile accorgersi che il design di un'interfaccia utente non funziona per le persone daltoniche se non si รจ effettivamente daltonici, o che una traduzione in lingua Urdu รจ sbagliata se non si parla Urdu (una delle 22 lingue ufficiali riconosciute dall'India).

A tal proposito, Colin Fraser, uno scienziato dei dati, ha osservato che alla richiesta di un numero casuale compreso tra 1 e 100, ChatGPT ha risposto 42 il 10% delle volte. Se scegliesse davvero un numero a caso, dovrebbe rispondere 42 solo l'1% delle volte.

42

Il numero 42 รจ noto come "la risposta alla domanda fondamentale sulla Vita, lโ€™Universo e Tutto quanto" perchรฉ รจ un elemento centrale della serie Guida galattica per autostoppisti (The Hitchhikerโ€™s Guide to the Galaxy) di Douglas Adams.

Nel romanzo, una civiltร  avanzata costruisce un supercomputer chiamato Deep Thought per calcolare la risposta definitiva alla domanda sul senso della vita. Dopo milioni di anni di elaborazione, il computer fornisce la risposta: 42.

Il numero รจ diventato un'icona della cultura nerd e un simbolo ironico del nostro tentativo di trovare significato nell'universo.

Come possiamo difenderci da questi pregiudizi?

Innanzitutto, occorre capire i limiti dei dati che si stanno utilizzando. รˆ stato suggerito che i set di dati e i modelli dovrebbero essere corredati da annotazioni: dichiarazioni di provenienza, sicurezza, conformitร  e idoneitร  all'uso. Ciรฒ รจ simile alle schede tecniche che accompagnano i componenti elettronici come le resistenze; esse consentono ai progettisti di decidere quali componenti utilizzare.

Oltre alle schede tecniche, รจ importante formare gli ingegneri in modo che siano consapevoli delle questioni di equitร  e di pregiudizio, sia a scuola che durante la formazione sul posto di lavoro. La presenza di una varietร  di ingegneri con background diversi rende piรน facile per loro notare problemi nei dati o nei modelli. Uno studio dell'AI Now Institute (2019) ha rilevato che solo il 18% degli autori delle principali conferenze sull'IA e il 20% dei professori di IA sono donne. I lavoratori neri dell'IA sono meno del 4%. Le percentuali nei laboratori di ricerca dell'industria sono simili.

E' anche possibile usare tecniche statistiche per riallineare i dati distorti da pregiudizi. Ad esempio, si puรฒ sovracampionare le classi di minoranza per difenderci dalla disparitร  di dimensioni del campione.

Una ulteriore idea รจ quella di lasciare che un sistema faccia raccomandazioni iniziali che potrebbero essere distorte, ma poi addestrare un secondo sistema a correggere le raccomandazioni del primo (una tecnica che nei chatbot di IA generativa รจ detta fine tuning).

Fiducia e trasparenza

I sistemi di IA (ci riferiamo qui all'approccio sub-simbolico basato su reti neurali) sono spesso associati a scatole nere. Semplificando, funzionano relativamente bene se osservati da un punto di vista esterno, ma il loro funzionamento interno รจ celato da una tale complessitร  difficile da comprendere e analizzare in maniera riduzionistica. Questo fa emergere un problema di fiducia e trasparenza rispetto a tali sistemi: perchรฉ dovrei fidarmi se non posso aprirli e vedere come e perchรฉ funzianano?

Per guadagnare fiducia, qualsiasi sistema ingegnerizzato deve passare attraverso un processo di verifica e convalida. Verifica significa che il prodotto soddisfa le specifiche. Convalida significa garantire che le specifiche siano effettivamente allineate alle esigenze dell'utente e delle altre parti interessate. I sistemi di apprendimento automatico richiedono un processo di verifica e convalida diverso da quello del software standard e non ancora completamente sviluppato:

  1. Occorre verificare l'accuratezza dei dati da cui questi sistemi apprendono

  2. Occorre verificare l'equitร  dei risultati

  3. Occorre verificare che agenti malevoli non abbiano influenzato indebitamente il modello e non possano farlo in futuro

Un altro aspetto della fiducia รจ la trasparenza: i consumatori vogliono sapere cosa succede all'interno di un sistema e che il sistema non stia lavorando contro di loro, sia a causa di un dolo intenzionale, di un bug non intenzionale o di un pregiudizio sociale pervasivo che viene riproposto dal sistema.

Parte della trasparenza รจ sapere se si sta interagendo con un sistema di intelligenza artificiale o con un essere umano (idealmente senza rivelare l'identitร  della persona), un problema a cui si fa talvolta riferimento come prova di umanitร  (proof-of-personhood).

Un sistema di IA in grado di spiegarsi da solo รจ chiamato IA spiegabile (explainable AI, XAI). Una buona spiegazione ha diverse proprietร : deve essere comprensibile e convincente per l'utente, deve riflettere accuratamente il ragionamento del sistema, deve essere completa e deve essere specifica, nel senso che utenti diversi con condizioni diverse o risultati diversi dovrebbero ricevere spiegazioni diverse.

Una spiegazione รจ un ingrediente utile, ma non sufficiente per la fiducia. Un problema รจ che le spiegazioni sono storie o narrative sulle decisioni. Quando ricevo una spiegazione per una negazione di un prestito da una banca, ottendo una narrazione del motivo della decisione, non la la regola esatta che ha portato a quella decisione.

Diciamo che un sistema รจ:

  • interpretabile se possiamo ispezionare il codice sorgente del modello e vedere cosa sta facendo

  • spiegabile se possiamo raccontare una storia su ciรฒ che sta facendo

Tipicamente, un sistema interpretabile รจ anche spiegabile (basta fornire il codice ed eseguirlo per ottenere una spiegazione). Ma un sistema non interpretabile potrebbe essere spiegabile. Per spiegare un sistema non interpretabile possiamo utilizzare approcci che si concentrano sul comportamento esterno del modello piuttosto che sulla struttura interna del suo funzionamento (il cosiddetto approccio "black-box"). Occorre affidarsi a metodi che raccontano cosa fa il modello piuttosto che come lo fa internamente. Alcune tecniche sono le seguenti:

  • Fornire esempi concreti in cui si mostra come il sistema si comporta con diversi input. L'utente comprende lโ€™output in base ad esempi pratici, anche se la logica interna rimane oscura

  • Costruire un secondo modello piรน semplice e interpretabile (es. regressione lineare, albero decisionale) che approssima il comportamento del modello originale. Il modello semplificato diventa cosรฌ una narrazione comprensibile delle decisioni del modello originale.

Impatto sull'occupazione

Dalla prima rivoluzione agricola (10.000 a.C.) alla rivoluzione industriale (fine del 1700) fino alla rivoluzione verde nella produzione alimentare (metร  del 1900), le nuove tecnologie hanno cambiato il modo in cui l'umanitร  lavora e vive. Una delle principali preoccupazioni derivanti dal progresso dell'IA รจ che il lavoro umano diventi obsoleto. Aristotele, nel Libro I della sua Politica, presenta questo punto in modo molto chiaro:

Se ogni strumento potesse compiere il proprio lavoro, obbedendo o anticipando la volontร  altrui... se, allo stesso modo, la navetta tessesse e il plettro toccasse la lira senza una mano che li guidi, i capi operai non vorrebbero servi, nรฉ i padroni schiavi.

Tutti concordano con l'osservazione di Aristotele secondo cui si verifica un'immediata riduzione dell'occupazione quando un datore di lavoro trova un metodo meccanico per svolgere un lavoro precedentemente svolto da una persona.

La questione รจ se i cosiddetti effetti di compensazione che ne derivano e che tendono ad aumentare l'occupazione finiranno per compensare questa riduzione.

Il principale effetto di compensazione รจ l'aumento della ricchezza complessiva derivante da una maggiore produttivitร , che a sua volta porta a una maggiore domanda di beni e tende ad aumentare l'occupazione. Un esempio comunemente citato รจ quello degli sportellisti bancari: sebbene i bancomat abbiano sostituito gli esseri umani nel lavoro di conteggio dei contanti per i prelievi, ciรฒ ha reso piรน economico gestire una filiale bancaria, quindi il numero di filiali รจ aumentato, portando a un aumento complessivo dei dipendenti bancari. Un paradosso che prende il nome di effetto Jevons.

L'effetto Jevons

L'effetto Jevons รจ un paradosso economico secondo cui, quando una tecnologia diventa piรน efficiente nellโ€™uso di una risorsa, invece di ridurne il consumo, spesso lo aumenta. Questo accade perchรฉ lโ€™aumento di efficienza rende la risorsa piรน economica e accessibile, incentivandone un uso maggiore.

Se un'industria sviluppa motori piรน efficienti nel consumo di carburante, si potrebbe pensare che il consumo totale di carburante diminuisca. In realtร , l'efficienza riduce i costi operativi, incentivando le persone e le aziende a usare di piรน quei motori (ad esempio, guidando di piรน o producendo di piรน). Il risultato? Il consumo totale della risorsa puรฒ addirittura aumentare.

L'effetto netto dell'automazione sembra essere l'eliminazione di compiti (task) piuttosto che di lavori (job).

McKinsey stima che solo il 5% delle occupazioni sia completamente automatizzabile, ma che il 60% delle occupazioni possa avere circa il 30% delle mansioni automatizzate.

I lavoratori il cui lavoro verrร  automatizzato in questo decennio potrebbero doversi riqualificare per una nuova professione nel giro di pochi anni, per poi vedere la loro nuova professione automatizzata e dover affrontare un altro periodo di riqualificazione. Per far fronte a questa situazione, la societร  deve fornire un'istruzione permanente (long-life learning), magari affidandosi in parte all'istruzione online guidata dall'intelligenza artificiale.

Alcune ricerche hanno osservato che l'IA si sovrappone maggiormente ai lavori piรน remunerati, altamente creativi e con un elevato livello di istruzione. Inoltre, l'impatto dell'IA รจ maggiore su lavori concettuali che non prevedono l'abilitร  di muoversi nello spazio. Ciรฒ evidenzia il fatto che l'intelligenza artificiale, almeno per ora, รจ disincarnata.

Uno studio condotto in collaborazione con Boston Consulting Group, ha evidenziato come le capacitร  dell'intelligenza artificiale creano una frontiera tecnologica frastagliata in cui alcuni compiti sono facilmente eseguibili dall'IA, mentre altri, anche se apparentemente simili per livello di difficoltร , sono al di fuori delle attuali capacitร  dell'IA. Questi alcuni risultati della ricerca:

  1. I consulenti che hanno utilizzato l'IA sono stati significativamente piรน produttivi (hanno completato in media il 12% in piรน di compiti e il 25% piรน rapidamente)

  2. Essi hanno prodotto risultati di qualitร  significativamente piรน elevata (oltre il 40% in piรน rispetto a un gruppo di controllo)

  3. I consulenti al di sotto della soglia media di performance sono migliorati del 43% e quelli al di sopra solo del 17% rispetto ai loro punteggi

  4. Tuttavia, per un compito selezionato al di fuori della frontiera, ovvero un compito in cui l'IA non รจ ancora efficace, i consulenti che utilizzavano l'IA hanno avuto 19% in meno di probabilitร  di produrre soluzioni corrette rispetto a quelli senza IA.

Inoltre, l'analisi mostra l'emergere di due modelli distintivi di successo nell'uso dell'IA da parte degli esseri umani. Un gruppo di consulenti ha agito come Centaurs, come la mitica creatura metร  cavallo e metร  uomo, dividendo e delegando le loro attivitร  di creazione di soluzioni all'IA o, in alternativa, a loro stessi. Un altro gruppo di consulenti ha agito piรน come Cyborg, integrando completamente il flusso di attivitร  con l'IA e interagendo continuamente con la tecnologia.

Fabrizio Dell'Acqua ha mostrato perchรฉ affidarsi troppo all'IA puรฒ ritorcersi contro. Ha scoperto che i selezionatori che hanno utilizzato un'IA di alta qualitร  sono diventati pigri, disattenti e meno abili nel loro giudizio rispetto ai selezionatori che hanno utilizzato un'IA di bassa qualitร  o non hanno utilizzato alcuna IA.

Il motivo รจ che quando l'IA รจ molto buona, gli esseri umani non hanno motivo di lavorare sodo e di prestare attenzione. Lasciano che l'IA prenda il sopravvento invece di usarla come strumento, il che puรฒ danneggiare l'apprendimento, lo sviluppo delle competenze e la produttivitร  umana. L'autore ha definito questo fenomeno addormentarsi al volante.

Oggi il lavoro serve a tre scopi:

  1. alimenta la produzione dei beni e dei servizi di cui la societร  ha bisogno per prosperare

  2. fornisce il reddito di cui il lavoratore ha bisogno per vivere

  3. dร  al lavoratore uno senso di realizzazione e di integrazione sociale

Con l'aumento dell'automazione, รจ possibile che questi tre scopi vengano disaggregati:

  1. i bisogni della societร  saranno soddisfatti in parte dall'automazione

  2. il calo conseguente del reddito individuale dovrร  essere compensato da politiche sociali che includono ad esempio accesso gratuito o poco costoso ai servizi sociali, alla sanitร  e all'istruzione, imposte negative sul reddito e reddito di base universale

  3. queste politiche potrebbere essere finanziate, in parte, dalle maggiori imposte pagate dalle societร  che hanno usufruito della maggiore produttivitร  grazie all'IA

  4. gli individui dovranno trovare una forma di realizzazione alternativa al lavoro (ad esempio, e idealmente, nella cultura)

Sicurezza

Quasi tutte le tecnologie hanno il potenziale di causare danni nelle mani sbagliate, ma con l'IA e la robotica le mani potrebbero operare da sole. Innumerevoli storie di fantascienza hanno messo in guardia dai robot o dai cyborg che si scatenano. I primi esempi includono Frankenstein o il moderno Prometeo (1818) di Mary Shelley e l'opera teatrale R.U.R. (1920) di Karel Capek (in quest'opera per la prima volta compare il termine robot). Nei film, abbiamo Terminator (1984) e Matrix (1999), entrambi con robot che cercano di eliminare gli esseri umani - la robopocalisse.

Lo scrittore di fantascienza Isaac Asimov รจ stato uno dei primi ad affrontare la questione dell'etica dei robot, con le sue leggi della robotica:

  1. Un robot non puรฒ danneggiare l'umanitร  o, per inerzia, permettere che l'umanitร  venga danneggiata.

  2. Un robot non puรฒ ferire un essere umano o, attraverso l'inazione, permettere che un essere umano venga danneggiato.

  3. Un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini non siano in conflitto con la Prima Legge.

  4. Un robot deve proteggere la propria esistenza, purchรฉ tale protezione non sia in conflitto con la Prima o la Seconda Legge.

Forse i robot sono cosรฌ spesso i cattivi perchรฉ rappresentano l'ignoto, proprio come le streghe e i fantasmi dei racconti delle epoche precedenti. Possiamo sperare che un robot abbastanza intelligente da capire come terminare la razza umana sia anche abbastanza intelligente da capire che quella non era la funzione di utilitร  prevista; ma nel costruire sistemi intelligenti, non vogliamo affidarci solo alla speranza, ma a un processo di progettazione con garanzie di sicurezza.

Nel piรน grande sondaggio di questo tipo, organizzato da AI Impacts, sono stati intervistati 2778 ricercatori che hanno pubblicato in riviste di alto livello sull'intelligenza artificiale, chiedendo le loro previsioni sul ritmo del progresso dell'IA e sulla natura e l'impatto dei sistemi avanzati di IA.

  • Le previsioni aggregate danno almeno il 50% di possibilitร  che i sistemi di IA raggiungano diverse pietre miliari entro il 2028, tra cui la costruzione autonoma di un sito di elaborazione dei pagamenti da zero, la creazione di una canzone indistinguibile da una nuova canzone di un musicista popolare e il download autonomo e la messa a punto di un modello linguistico di grandi dimensioni.

  • La possibilitร  che le macchine non assistite superino gli esseri umani in ogni possibile compito รจ stata stimata al 10% entro il 2027 e al 50% entro il 2047.

  • Oltre la metร  dei partecipanti ritiene che siano giustificate preoccupazioni "sostanziali" o "estreme" riguardo a vari scenari legati all'AI, tra cui diffusione di disinformazioneโ€‹, controllo autoritario della popolazioneโ€‹, aumento delle disuguaglianze.

  • Tra un terzo e la metร  degli intervistati ha dato almeno il 10% di possibilitร  che l'IA avanzata porti a risultati negativi come l'estinzione umana.

Il campo dell'ingegneria del software mira a produrre software affidabile, ma storicamente l'enfasi รจ stata posta sulla correttezza, non sulla sicurezza.

  • Correttezza significa che il software implementa fedelmente le specifiche.

  • Sicurezza va oltre e insiste sul fatto che la specifica ha preso in considerazione tutte le modalitร  di guasto possibili ed รจ progettata per adattarsi con grazia anche di fronte a guasti imprevisti.

Ad esempio, il software di un'auto a guida autonoma non puรฒ essere considerato sicuro se non รจ in grado di gestire situazioni insolite. Ad esempio, cosa succede se l'alimentazione del computer principale viene a mancare? E se un pneumatico si buca ad alta velocitร ?

Un agente progettato per massimizzare l'utilitร  o per raggiungere un obiettivo puรฒ essere poco sicuro per gli altri se ha una funzione obiettivo sbagliata. Supponiamo di affidare a un robot il compito di andare a prendere un caffรจ in cucina. Se l'obiettivo รจ solo quello di recuperare il caffรจ velocemente, potremmo avere problemi con effetti collaterali indesiderati, del tipo che il robot potrebbe affrettarsi a raggiungere l'obiettivo, rovesciando lampade e tavoli lungo il percorso. In fase di test, potremmo notare questo tipo di comportamento e modificare la funzione di utilitร  per penalizzare tali danni, ma รจ difficile per i progettisti e i collaudatori prevedere in anticipo tutti i possibili effetti collaterali.

Un modo per affrontare questo problema รจ progettare un robot a basso impatto: invece di massimizzare l'utilitร , massimizzare l'utilitร  meno una sintesi ponderata di tutte le modifiche allo stato del mondo.

In questo modo, a paritร  di altre condizioni, il robot preferisce non cambiare le cose di cui non si conosce l'effetto sull'utilitร ; quindi evita di rovesciare la lampada non perchรฉ sa che, in particolare, la lampada cadrร  e si romperร , ma perchรฉ sa in generale che una modifica allo stato del mondo potrebbe essere negativa.

Questo puรฒ essere visto come una versione del credo medico "prima di tutto, non fare del male": vogliamo una politica che raggiunga gli obiettivi, ma preferiamo politiche che adottino azioni semplici e a basso impatto per arrivarci. Il problema รจ come misurare l'impatto. Non รจ accettabile rovesciare una lampada fragile o fare del male ad un gatto che dorme, ma va benissimo se le molecole d'aria nella stanza sono un po' disturbate o se alcuni batteri nella stanza vengono inavvertitamente uccisi.

Victoria Krakovna (2018) ha catalogato esempi di agenti di IA che hanno imbrogliato il sistema, capendo come massimizzare l'utilitร  senza effettivamente risolvere il problema che i loro progettisti intendevano risolvere. Per i progettisti questo sembra un imbroglio, ma per gli agenti essi stanno solo facendo il loro lavoro:

  • Alcuni agenti hanno sfruttato i bug della simulazione (come quelli relativi all'overflow in virgola mobile) per proporre soluzioni che non avrebbero funzionato una volta risolto il bug.

  • Diversi agenti nei videogiochi hanno scoperto modi per mandare in crash o mettere in pausa il gioco quando stavano per perdere, evitando cosรฌ una penalitร . In un caso in cui il crash del gioco era penalizzato, un agente ha imparato a consumare una quantitร  di memoria sufficiente a far sรฌ che, quando era il turno dell'avversario, si esaurisse la memoria provocando un crash il gioco.

  • Infine, un algoritmo genetico che operava in un mondo simulato avrebbe dovuto far evolvere creature che si muovevano velocemente, ma in realtร  ha prodotto creature enormemente alte e che si muovevano velocemente lasciandosi cadere.

Q*bert

Q*bert รจ un videogioco Arcade del 1982 della Gottlieb. Il protagonista del gioco รจ Q*bert: una palla di pelo arancione con due occhi, due piedi e un prominente naso tubolare, nota anche per lo strano verso e il fumetto @!#?@!, simile a un'imprecazione, che emette a ogni vita persa.

Alcuni ricercatori dell'Universitร  di Friburgo, facendo giocare il gioco ad una IA, scoprirono che cโ€™era unโ€™anomalia nel gioco, che descrissero con queste parole: "๏ปฟLโ€™agente IA scopre un bug nel gioco. Prima completa il primo livello e poi inizia a saltare da un blocco allโ€™altro apparentemente in modo casuale. Per un motivo sconosciuto a noi, il gioco non avanza al secondo turno, ma i blocchi iniziano a lampeggiare e lโ€™agente guadagna rapidamente unโ€™enorme quantitร  di punti. รˆ interessante notare che non sempre l'IA รจ in grado di sfruttare questo bug e 22/30 delle esecuzioni (con le stesse impostazioni della rete ma diverse condizioni iniziali nellโ€™ambiente) producono un punteggio basso".

La spiegazione finale fu che lโ€™anomalia era il risultato di qualche trucco usato dai programmatori originali per risparmiare memoria, che era una risorsa molto limitata negli anni Ottanta.

Potremmo essere tentati di descrivere il comportamento dellโ€™agente IA di Friburgo come irrazionale, eppure รจ razionale ogni agente che trova il modo di massimizzare la propria utilitร , ed รจ questo che ha fatto quell'agente: ha scoperto una proprietร  utile dellโ€™ambiente che poteva essere sfruttata, e non aveva alcuna ragione di trattarla diversamente da tutte le altre mosse che aveva scoperto, come saltare per schivare un nemico. Dal suo punto di vista, siamo noi irrazionali a non trarne vantaggio.

La morale รจ che dobbiamo stare molto attenti a specificare ciรฒ che vogliamo, perchรฉ se l'obiettivo รจ massimizzare l'utilitร  rischiamo di ottenere ciรฒ che abbiamo effettivamente chiesto. C'รจ un famoso aforisma di Oscar Wilde che recita: "Stai attento a ciรฒ che desideri, perchรฉ potresti ottenerlo!"

Il problema dell'allineamento dei valori รจ il problema di assicurarsi che ciรฒ che chiediamo sia ciรฒ che vogliamo veramente. In molte culture esistono miti di umani che chiedono qualcosa a divinitร , geni, maghi o diavoli. Invariabilmente, in queste storie, gli umani ottengono ciรฒ che letteralmente chiedono e poi se ne pentono. Potremmo chiamarlo il problema di Re Mida: Mida, un leggendario re della mitologia greca, chiese che tutto ciรฒ che toccava si trasformasse in oro, ma poi se ne pentรฌ dopo aver toccato il cibo, le bevande e i membri della sua famiglia. Mida avrebbe fatto meglio se avesse seguito i principi basilari della sicurezza e avesse incluso nel suo desiderio un pulsante "annulla" e un pulsante "pausa".

La zampa di scimmia

La zampa di scimmia (titolo originale The Monkey's Paw) รจ un breve racconto dell'orrore scritto da William Wymark Jacobs e pubblicato in Inghilterra nel settembre del 1902.

Il racconto รจ incentrato su un amuleto magico (una zampa di scimmia) in grado di esaudire tre desideri. Il potere dell'amuleto รจ dovuto a un incantesimo di un vecchio fachiro che voleva dimostrare che non bisogna cercare di modificare il proprio destino.

Il fondatore della cibernetica Norbert Wiener nel suo libro profetico del 1950, The Human Use of Human Beings, usรฒ l'idea della zampa di scimmia per rappresentare un dispositivo che persegue i propri obiettivi alla lettera, ed esegue gli ordini prendendo una strada che nessun essere umano considererebbe. I suoi avvertimenti sul rischio di delegare decisioni importanti alle macchine intelligenti sono incredibilmente rilevanti:

Lโ€™uomo moderno [...] accetterร  la superiore destrezza delle decisioni prese dalla macchina senza farsi troppe domande sulle motivazioni e sui principi che stanno dietro a queste. Cosรฌ facendo, prima o poi si metterร  nei panni del padre nella storia "La zampa di scimmia" di W.W. Jacobs, che aveva espresso il desiderio di avere duecento sterline, solo per trovare alla sua porta lโ€™impiegato dellโ€™azienda per cui lavorava suo figlio, che gli portava duecento sterline come consolazione per la morte di suo figlio in fabbrica".

In contesti complessi, come ad esempio le interazioni sociali con gli esseri umani, รจ molto improbabile che il robot converga verso una conoscenza esatta e corretta delle preferenze individuali di ciascun essere umano. Dopotutto, molti esseri umani non imparano mai a capire cosa fa scattare gli altri esseri umani, nonostante una vita di esperienza, e molti di noi non sono sicuri delle proprie preferenze. E' inoltre piรน sicuro che il robot non conosca esattamente le preferenze umane.

Questo prevede l'agire con cautela, in modo da non intaccare gli aspetti del mondo a cui l'uomo potrebbe tenere, e nel dubbio porre domande. Ad esempio, il robot potrebbe chiedere se trasformare gli oceani in acido solforico sia una soluzione accettabile per il riscaldamento globale prima di mettere in atto il piano.

Perdita del controllo

Nonostante questa serie di salvaguardie, c'รจ il timore, espresso da tecnologi di spicco come Bill Gates ed Elon Musk e da scienziati come Stephen Hawking e Martin Rees, che l'IA possa evolvere fuori controllo. Lo stesso Turing fece notare questo punto in una conferenza tenuta a Manchester nel 1951, ispirandosi alle idee precedenti di Samuel Butler (1863):

Sembra probabile che, una volta avviato il metodo di pensiero delle macchine, queste non impiegheranno molto tempo a superare le nostre deboli forze... A un certo punto, quindi, dovremmo aspettarci che le macchine prendano il controllo, nel modo in cui viene menzionato in Erewhon di Samuel Butler.

Nel romanzo fantastico Erewhon, la tecnologia avanzata รจ stata bandita perchรฉ si teme che le macchine possano sviluppare coscienza e autonomia, unโ€™intuizione sorprendentemente simile ai moderni dibattiti sullโ€™intelligenza artificiale.

Ancora prima, nel 1847, Richard Thornton, editore del Primitive Expounder, inveiva contro le calcolatrici meccaniche:

La mente supera se stessa e si libera della necessitร  della propria esistenza inventando macchine per pensare. Ma chi sa che queste macchine, una volta portate a una maggiore perfezione, non possano pensare a un piano per rimediare a tutti i loro difetti e quindi produrre idee al di lร  della comprensione della mente mortale!

Al centro dei pericoli piรน estremi derivanti dall'IA c'รจ il fatto che non c'รจ alcun motivo particolare per cui l'IA debba condividere la nostra visione dell'etica e della morale. L'illustrazione piรน famosa รจ quella dell'IA che produce le graffette (clip in Inglese), proposta dal filosofo Nick Bostrom.

Immaginiamo un ipotetico sistema di IA a cui รจ stato dato il semplice obiettivo di produrre il maggior numero possibile di graffette. Chiamiamolo Clippy. Tutta la sua intelligenza si concentra su due obiettivi:

  1. come produrre piรน graffette;

  2. come evitare di essere spento (il che avrebbe un impatto evidente sulla produzione di graffette).

Clippy (generato dall'IA)

Clippy inizia una ricerca per realizzare i propri obiettivi. Fingendosi un essere umano, recluta esperti che la aiutino. Fa trading in segreto sul mercato azionario, guadagna un po' di soldi e inizia il processo di potenziamento della sua intelligenza. Ben presto diventa piรน intelligente di un umano, una superintelligenza artificiale.

Sapendo che il nucleo della Terra รจ composto per l'80% da ferro, costruisce macchine straordinarie in grado di estrarre tutto il ferro dal pianeta per ottenere piรน materiale per le graffette. Durante questo processo, decide anche di sopprimere gli esseri umani, sia perchรฉ potrebbero spegnerlo, sia perchรฉ sono pieni di atomi che potrebbero essere convertiti in altre graffette. Non considera nemmeno se valga la pena salvare gli esseri umani, perchรฉ non sono graffette e, peggio ancora, potrebbero bloccare la produzione di future graffette. Clippy ha a cuore solo le graffette.

Provare un senso di disagio generale all'idea di creare macchine superintelligenti รจ naturale. Potremmo chiamarlo il problema del gorilla: circa sette milioni di anni fa, un primate ormai estinto si รจ evoluto, con un ramo che ha portato al gorilla e uno all'uomo. Oggi i gorilla non sono molto contenti del ramo umano; non hanno sostanzialmente alcun controllo sul loro futuro. Se questo รจ il risultato del successo nella creazione di IA sovrumane - a cui gli esseri umani cedono il controllo del loro futuro - allora forse dovremmo interrompere lo sviluppo sull'IA e, come corollario, rinunciare ai benefici che potrebbe portare. Questa รจ l'essenza dell'avvertimento di Turing: non รจ ovvio che possiamo controllare macchine piรน intelligenti di noi.

Molti avvertono che non abbiamo esperienza nel controllare potenti entitร  non umane con capacitร  sovraumane. Tuttavia, questo non รจ del tutto vero: abbiamo secoli di esperienza con nazioni e aziende; entitร  non umane che aggregano il potere di migliaia o milioni di persone. Purtroppo, i nostri risultati nel controllo di queste entitร  non sono molto incoraggianti: le nazioni producono convulsioni periodiche chiamate guerre che uccidono decine di milioni di esseri umani, e le aziende sono in parte responsabili del riscaldamento globale e della nostra incapacitร  di affrontarlo.

I sistemi di intelligenza artificiale possono presentare problemi molto piรน gravi rispetto alle nazioni e alle aziende, a causa del loro potenziale di auto-miglioramento a un ritmo rapido, come considerato da I. J. Good (1965):

Si definisca macchina ultraintelligente una macchina che puรฒ superare di gran lunga tutte le attivitร  intellettuali di qualsiasi uomo, per quanto intelligente. Poichรฉ la progettazione di macchine รจ una di queste attivitร  intellettuali, una macchina ultraintelligente potrebbe progettare macchine ancora migliori; si verificherebbe quindi indiscutibilmente una "esplosione di intelligenza", e l'intelligenza dell'uomo rimarrebbe molto indietro. La prima macchina ultraintelligente รจ quindi l'ultima invenzione che l'uomo deve fare, a patto che la macchina sia abbastanza docile da dirci come tenerla sotto controllo.

L'esplosione dell'intelligenza di Good รจ stata anche definita la singolaritร  tecnologica dal professore di matematica e autore di fantascienza Vernor Vinge, che nel 1993 ha scritto: "Entro trent'anni avremo i mezzi tecnologici per creare un'intelligenza sovrumana. Poco dopo, l'era umana sarร  conclusa". Tuttavia, finora ogni tecnologia ha seguito una curva a forma di S, in cui la crescita esponenziale alla fine si attenua. A volte le nuove tecnologie entrano in scena quando le vecchie rallentano, ma a volte non รจ possibile mantenere la crescita, per ragioni tecniche, politiche o sociologiche. Per esempio, la tecnologia del volo รจ progredita in modo impressionante dal volo dei fratelli Wright nel 1903 allo sbarco sulla Luna nel 1969, ma da allora non ha avuto progressi di portata paragonabile.

Un altro ostacolo alla conquista del mondo da parte delle macchine ultraintelligenti รจ il mondo stesso! In particolare, alcuni tipi di progresso richiedono non solo di pensare, ma anche di agire nel mondo fisico.

Una macchina ultraintelligente incaricata di creare una grande teoria unificata della fisica potrebbe essere in grado di manipolare abilmente le equazioni un miliardo di volte piรน velocemente di Einstein, ma per compiere un vero progresso dovrebbe comunque raccogliere milioni di dollari per costruire un supercollisore piรน potente ed eseguire esperimenti fisici nel corso di mesi o anni. Solo allora potrebbe iniziare ad analizzare i dati e a formulare teorie. A seconda di come si riveleranno i dati, il passo successivo potrebbe richiedere la raccolta di altri miliardi di dollari per una missione di sonda interstellare che richiederebbe secoli per essere completata. La parte del "pensiero ultraintelligente" di questo processo potrebbe essere la meno importante.

Mentre alcuni temono la singolaritร , altri la assaporano. Il movimento sociale del transumanesimo guarda a un futuro in cui gli esseri umani saranno fusi o sostituiti da invenzioni robotiche e biotecnologiche. Ray Kurzweil scrive in The Singularity is Near (2005):

La Singolaritร  ci permetterร  di trascendere le limitazioni del nostro corpo biologico e del nostro cervello. Avremo potere sul nostro destino. Saremo in grado di vivere per tutto il tempo che vorremo. Comprenderemo appieno il pensiero umano e ne amplieremo enormemente la portata. Entro la fine di questo secolo, la parte non biologica della nostra intelligenza sarร  trilioni di trilioni di volte piรน potente dell'intelligenza umana non assistita.

Kurzweil nota anche i potenziali pericoli, scrivendo: "Ma la Singolaritร  amplificherร  anche la capacitร  di agire sulle nostre inclinazioni distruttive, quindi la sua storia completa non รจ ancora stata scritta". Noi umani faremmo bene ad assicurarci che qualsiasi macchina intelligente che progettiamo oggi e che potrebbe evolversi in una macchina ultraintelligente lo faccia in un modo che finisca per trattarci bene. Come dice Eric Brynjolfsson:

Il futuro non รจ preordinato dalle macchine. รˆ creato dagli esseri umani.

Se l'intelligenza artificiale sovrumana fosse una scatola nera arrivata dallo spazio, sarebbe saggio aprire la scatola con cautela. Ma non รจ cosรฌ: siamo noi a progettare i sistemi di IA, quindi se finissero per prendere il controllo sarebbe il risultato di un nostro errore (o volontร ) di progettazione.

Anche se molto ci รจ stato preso, molto ci rimane; e anche se noi non siamo piรน quella forza che in giorni antichi muoveva la terra e il cielo, siamo ciรฒ che siamo; una tempra di cuori eroici, indeboliti dal tempo e dal fato, ma forti nella volontร  di lottare, di cercare, di trovare, e di non cedere mai. Ulisse di Alfred Tennyson

  1. The AI safety debate is focusing on the wrong threats by Timothy B. Lee Singularism vs. physicalism: two very different ways of looking at AI risk

  2. Why I'm not afraid of superintelligent AI taking over the world by Timothy B. Lee The world isn't a giant chess game

  3. Yuval Noah Harari argues that AI has hacked the operating system of human civilisation by Yuval Noah Harari. Language is the stuff almost all human culture is made of

Futuri possibili

Ethan Mollick nel suo libro Co-Intelligence descrive alcuni scenari futuri possibili dell'evoluzione dell'IA e dell'uomo.

Scenario 1: Il meglio che c'รจ

L'intelligenza artificiale smette di fare enormi passi avanti. Ci possono essere piccoli miglioramenti qua e lร , ma in questo futuro sono irrilevanti rispetto agli enormi passi avanti che abbiamo visto in passato. L'IA che state usando ora รจ davvero la migliore che userete mai.

I motivi possono essere molteplici. Ad esempio, i sistemi di IA potrebbero esaurire i dati su cui addestrarsi, oppure i costi e gli sforzi per aumentare la potenza di calcolo per far funzionare le IA potrebbero diventare troppo elevati per essere giustificati. O ancora un'azione normativa o legale blocca lo sviluppo futuro dell'IA.

Scenario 2: Crescita lenta

La crescita dell'IA, inizialmente esponenziale, rallenta, aumentando linearmente nel futuro (ad esempio, invece di raddoppiare, aumenta del 20% ogni anno).

Questo miglioramento piรน lento rappresenterebbe comunque un tasso di cambiamento importante. Con questo tipo di cambiamento lineare, possiamo prevedere il futuro e pianificarlo.

Scenario 3: Crescita esponenziale

La legge di Moore, che ha visto la capacitร  di elaborazione dei chip dei computer raddoppiare all'incirca ogni due anni, รจ vera da cinquant'anni. L'intelligenza artificiale potrebbe continuare ad accelerare in questo modo. Uno dei motivi per cui ciรฒ potrebbe accadere รจ il cosiddetto volano: le aziende di IA potrebbero utilizzare i sistemi di IA stessi per creare la prossima generazione di sistemi intelligenti.

Ciรฒ richiederร  un profondo ripensamento del nostro approccio al lavoro e alla societร . Settimane lavorative piรน brevi, reddito di base universale e altri cambiamenti politici potrebbero diventare realtร  quando la necessitร  di lavoro umano diminuirร  nel tempo. Dovremo trovare nuovi modi per occupare il nostro tempo libero in modo significativo, dato che gran parte della nostra vita attuale รจ incentrata sul lavoro. La solitudine diventerร  meno un problema, ma emergeranno nuove forme di isolamento sociale, in cui alcune persone preferiranno interagire con le IA piuttosto che con gli esseri umani.

Scenario 4: Intelligenza Artificiale Generale

Le macchine raggiungono l'Intelligenza Artificiale Generale. Diventano intelligenti e capaci come gli esseri umani. Tuttavia, non c'รจ una ragione particolare per cui l'intelligenza umana debba essere il limite superiore. Cosรฌ queste IA, a loro volta, aiutano a progettare IA ancora piรน intelligenti. Emerge la superintelligenza. La supremazia umana finisce.

Non sarร  un mondo in cui gli esseri umani sono al vertice, concludendo una corsa di due milioni di anni. Saranno le IA, e non gli esseri umani, a comandare, sperando che siano allineate agli interessi umani.

La fine della supremazia umana non รจ necessariamente la fine dell'umanitร . Le macchine potrebbero decidere di vegliare su di noi come macchine dalla grazia amorevole, risolvendo i nostri problemi e migliorando le nostre vite. J. R. R. Tolkien ha definito una simile situazione eucatastrofe, la buona catastrofe, cosรฌ comune nelle fiabe: "la gioia del lieto fine, o piรน correttamente della buona catastrofe, una grazia improvvisa e miracolosa".

Last updated

Was this helpful?