Rischi dell'IA
Che rischi pone uno sviluppo incontrollato dell'IA?
Last updated
Was this helpful?
Che rischi pone uno sviluppo incontrollato dell'IA?
Last updated
Was this helpful?
Francis Bacon, un filosofo a cui si attribuisce la creazione del metodo scientifico, ha osservato in The Wisdom of the Ancients (1609) che: "the mechanical arts are of ambiguous use, serving as well for hurt as for remedy". Poiché l'IA svolge un ruolo sempre più importante in ambito economico, sociale, scientifico, medico, finanziario e militare, faremmo bene a considerare i danni e i rimedi, nel linguaggio moderno, i rischi e i benefici che può portare.
Per cominciare dai benefici: la nostra intera civiltà è il prodotto della nostra intelligenza umana. Se abbiamo accesso a un'intelligenza delle macchine sostanzialmente superiore, il livello delle nostre ambizioni si alza notevolmente. In particolare, la capacità dell'IA di accelerare la ricerca scientifica potrebbe portare a cure per le malattie e a soluzioni per il cambiamento climatico e per la scarsità di risorse. Come ha suggerito Demis Hassabis, CEO di Google DeepMind:
First solve AI, then use AI to solve everything else
Molto prima di avere l'opportunità di risolvere l'IA, tuttavia, incorreremo in rischi derivanti dall'uso improprio dell'IA, involontario o meno. Alcuni di questi sono già evidenti, mentre altri sembrano probabili sulla base delle tendenze attuali.
Sono definite dalle Nazioni Unite come armi in grado di localizzare, selezionare ed eliminare obiettivi umani senza l'intervento umano.
Una delle preoccupazioni principali di tali armi è la loro scalabilità: l'assenza di un requisito di supervisione umana significa che un piccolo gruppo può dispiegare un numero arbitrariamente elevato di armi contro obiettivi umani definiti da qualsiasi criterio di riconoscimento. Potrebbero certamente essere usate per spazzare via un intero gruppo etnico o tutti gli aderenti a una particolare religione in modo selettivo. In molte situazioni, inoltre, non sarebbero rintracciabili. Un drone quadrirotore può trasportare una carica esplosiva letale, e un milione di esemplari possono stare in un normale container da trasporto. Proprio perché autonome, queste armi non avrebbero bisogno di un milione di supervisori umani per svolgere il loro lavoro.
La questione dell'affidabilità delle decisioni belliche mediate dalla macchina è emersa il 26 settembre 1983, quando sul display del computer dell'ufficiale missilistico sovietico Stanislav Petrov lampeggiò un allarme per un attacco missilistico in arrivo. Secondo il protocollo, Petrov avrebbe dovuto iniziare un contrattacco nucleare, ma sospettò che l'allarme fosse un bug e lo trattò come tale. Aveva ragione, e la Terza Guerra Mondiale fu (per poco) evitata. Non sappiamo cosa sarebbe successo se non ci fosse stato un umano nel sistema.
Mentre è costoso, noioso e talvolta legalmente discutibile per il personale di sicurezza monitorare le linee telefoniche, i feed delle videocamere, le e-mail e altri canali di messaggistica, l'IA (tramite il riconoscimento vocale, la visione artificiale e la comprensione del linguaggio naturale) può essere utilizzata in modo scalabile per eseguire una sorveglianza di massa degli individui e rilevare le attività di interesse.
La condivisione in chiaro dei propri dati deve affrontare il compromesso tra la necessità di mantenere privati i dati sensibili e quella di favorire l'uso dei questi dati per un beneficio comune.
Un approccio interessante a questo scopo è chiamato apprendimento federato. Gli utenti gestiscono i propri database locali che custodiscono i loro dati privati, evitando l'uso di un database centrale. Tuttavia, possono condividere solo i parametri di un modello di apprendimento automatico potenziato con i loro dati, senza il rischio di rivelare alcun dato privato.
Immaginiamo un'applicazione di comprensione del parlato che gli utenti possono eseguire localmente sul proprio telefono. L'applicazione contiene una rete neurale di base, che viene poi migliorata mediante un addestramento locale sulle parole ascoltate sul telefono dell'utente. Periodicamente, i proprietari dell'applicazione interrogano un sottoinsieme di utenti e chiedono loro i valori dei parametri della rete locale migliorata, ma non i dati grezzi. I valori dei parametri vengono combinati insieme per formare un nuovo modello migliorato che viene poi reso disponibile a tutti gli utenti, in modo che tutti possano beneficiare dell'addestramento effettuato da altri utenti.
L'uso incauto di algoritmi di apprendimento automatico per compiti quali la valutazione delle richieste di libertà vigilata e di prestito finanziario può portare a decisioni distorte e soggette a pregiudizi.
Spesso, infatti, i dati stessi riflettono pregiudizi pervasivi nella società. Gli algoritmi di apprendimento automatico possono perpetuare tali pregiudizi sociali: non abbiamo fin dal principio dati imparziali, ovvero una verità di base (ground truth). Per esempio, in un set di dati sulla criminalità, i dati non ci dicono chi ha commesso un crimine - tutto ciò che sappiamo è chi è stato condannato per un crimine. Se gli agenti che hanno effettuato l'arresto, il giudice o la giuria sono prevenuti, i dati saranno prevenuti e gli algoritmi apprenderanno tale preconcetto e lo riproporranno agli utenti. Se un numero maggiore di agenti pattuglia alcuni luoghi, i dati saranno distorti nei confronti delle persone che si trovano in quei luoghi.
Anche in assenza di pregiudizi sociali, la disparità delle dimensioni del campione può portare a risultati distorti. Nella maggior parte dei set di dati ci saranno meno esempi di addestramento di individui di classe minoritaria rispetto a quelli di classe maggioritaria. Gli algoritmi di apprendimento automatico offrono una migliore accuratezza con un maggior numero di dati di addestramento, per cui i membri delle classi minoritarie avranno un'accuratezza inferiore.
I pregiudizi possono entrare in gioco anche nel processo di sviluppo del software (che si tratti o meno di apprendimento automatico). Gli ingegneri che stanno eseguendo il debug di un sistema sono più propensi a notare e risolvere i problemi che riguardano loro stessi. Per esempio, è difficile accorgersi che il design di un'interfaccia utente non funziona per le persone daltoniche se non si è effettivamente daltonici, o che una traduzione in lingua Urdu è sbagliata se non si parla Urdu (una delle 22 lingue ufficiali riconosciute dall'India).
A tal proposito, Colin Fraser, uno scienziato dei dati, ha osservato che alla richiesta di un numero casuale compreso tra 1 e 100, ChatGPT ha risposto 42 il 10% delle volte. Se scegliesse davvero un numero a caso, dovrebbe rispondere 42 solo l'1% delle volte.
Come possiamo difenderci da questi pregiudizi?
Innanzitutto, occorre capire i limiti dei dati che si stanno utilizzando. È stato suggerito che i set di dati e i modelli dovrebbero essere corredati da annotazioni: dichiarazioni di provenienza, sicurezza, conformità e idoneità all'uso. Ciò è simile alle schede tecniche che accompagnano i componenti elettronici come le resistenze; esse consentono ai progettisti di decidere quali componenti utilizzare.
Oltre alle schede tecniche, è importante formare gli ingegneri in modo che siano consapevoli delle questioni di equità e di pregiudizio, sia a scuola che durante la formazione sul posto di lavoro. La presenza di una varietà di ingegneri con background diversi rende più facile per loro notare problemi nei dati o nei modelli. Uno studio dell'AI Now Institute (2019) ha rilevato che solo il 18% degli autori delle principali conferenze sull'IA e il 20% dei professori di IA sono donne. I lavoratori neri dell'IA sono meno del 4%. Le percentuali nei laboratori di ricerca dell'industria sono simili.
E' anche possibile usare tecniche statistiche per riallineare i dati distorti da pregiudizi. Ad esempio, si può sovracampionare le classi di minoranza per difenderci dalla disparità di dimensioni del campione.
Una ulteriore idea è quella di lasciare che un sistema faccia raccomandazioni iniziali che potrebbero essere distorte, ma poi addestrare un secondo sistema a correggere le raccomandazioni del primo (una tecnica che nei chatbot di IA generativa è detta fine tuning).
I sistemi di IA (ci riferiamo qui all'approccio sub-simbolico basato su reti neurali) sono spesso associati a scatole nere. Semplificando, funzionano relativamente bene se osservati da un punto di vista esterno, ma il loro funzionamento interno è celato da una tale complessità difficile da comprendere e analizzare in maniera riduzionistica. Questo fa emergere un problema di fiducia e trasparenza rispetto a tali sistemi: perché dovrei fidarmi se non posso aprirli e vedere come e perché funzianano?
Per guadagnare fiducia, qualsiasi sistema ingegnerizzato deve passare attraverso un processo di verifica e convalida. Verifica significa che il prodotto soddisfa le specifiche. Convalida significa garantire che le specifiche siano effettivamente allineate alle esigenze dell'utente e delle altre parti interessate. I sistemi di apprendimento automatico richiedono un processo di verifica e convalida diverso da quello del software standard e non ancora completamente sviluppato:
Occorre verificare l'accuratezza dei dati da cui questi sistemi apprendono
Occorre verificare l'equità dei risultati
Occorre verificare che agenti malevoli non abbiano influenzato indebitamente il modello e non possano farlo in futuro
Un altro aspetto della fiducia è la trasparenza: i consumatori vogliono sapere cosa succede all'interno di un sistema e che il sistema non stia lavorando contro di loro, sia a causa di un dolo intenzionale, di un bug non intenzionale o di un pregiudizio sociale pervasivo che viene riproposto dal sistema.
Parte della trasparenza è sapere se si sta interagendo con un sistema di intelligenza artificiale o con un essere umano (idealmente senza rivelare l'identità della persona), un problema a cui si fa talvolta riferimento come prova di umanità (proof-of-personhood).
Un sistema di IA in grado di spiegarsi da solo è chiamato IA spiegabile (explainable AI, XAI). Una buona spiegazione ha diverse proprietà: deve essere comprensibile e convincente per l'utente, deve riflettere accuratamente il ragionamento del sistema, deve essere completa e deve essere specifica, nel senso che utenti diversi con condizioni diverse o risultati diversi dovrebbero ricevere spiegazioni diverse.
Una spiegazione è un ingrediente utile, ma non sufficiente per la fiducia. Un problema è che le spiegazioni sono storie o narrative sulle decisioni. Quando ricevo una spiegazione per una negazione di un prestito da una banca, ottendo una narrazione del motivo della decisione, non la la regola esatta che ha portato a quella decisione.
Diciamo che un sistema è:
interpretabile se possiamo ispezionare il codice sorgente del modello e vedere cosa sta facendo
spiegabile se possiamo raccontare una storia su ciò che sta facendo
Tipicamente, un sistema interpretabile è anche spiegabile (basta fornire il codice ed eseguirlo per ottenere una spiegazione). Ma un sistema non interpretabile potrebbe essere spiegabile. Per spiegare un sistema non interpretabile possiamo utilizzare approcci che si concentrano sul comportamento esterno del modello piuttosto che sulla struttura interna del suo funzionamento (il cosiddetto approccio "black-box"). Occorre affidarsi a metodi che raccontano cosa fa il modello piuttosto che come lo fa internamente. Alcune tecniche sono le seguenti:
Fornire esempi concreti in cui si mostra come il sistema si comporta con diversi input. L'utente comprende l’output in base ad esempi pratici, anche se la logica interna rimane oscura
Costruire un secondo modello più semplice e interpretabile (es. regressione lineare, albero decisionale) che approssima il comportamento del modello originale. Il modello semplificato diventa così una narrazione comprensibile delle decisioni del modello originale.
Se ogni strumento potesse compiere il proprio lavoro, obbedendo o anticipando la volontà altrui... se, allo stesso modo, la navetta tessesse e il plettro toccasse la lira senza una mano che li guidi, i capi operai non vorrebbero servi, né i padroni schiavi.
Tutti concordano con l'osservazione di Aristotele secondo cui si verifica un'immediata riduzione dell'occupazione quando un datore di lavoro trova un metodo meccanico per svolgere un lavoro precedentemente svolto da una persona.
La questione è se i cosiddetti effetti di compensazione che ne derivano e che tendono ad aumentare l'occupazione finiranno per compensare questa riduzione.
L'effetto netto dell'automazione sembra essere l'eliminazione di compiti (task) piuttosto che di lavori (job).
McKinsey stima che solo il 5% delle occupazioni sia completamente automatizzabile, ma che il 60% delle occupazioni possa avere circa il 30% delle mansioni automatizzate.
I lavoratori il cui lavoro verrà automatizzato in questo decennio potrebbero doversi riqualificare per una nuova professione nel giro di pochi anni, per poi vedere la loro nuova professione automatizzata e dover affrontare un altro periodo di riqualificazione. Per far fronte a questa situazione, la società deve fornire un'istruzione permanente (long-life learning), magari affidandosi in parte all'istruzione online guidata dall'intelligenza artificiale.
Alcune ricerche hanno osservato che l'IA si sovrappone maggiormente ai lavori più remunerati, altamente creativi e con un elevato livello di istruzione. Inoltre, l'impatto dell'IA è maggiore su lavori concettuali che non prevedono l'abilità di muoversi nello spazio. Ciò evidenzia il fatto che l'intelligenza artificiale, almeno per ora, è disincarnata.
I consulenti che hanno utilizzato l'IA sono stati significativamente più produttivi (hanno completato in media il 12% in più di compiti e il 25% più rapidamente)
Essi hanno prodotto risultati di qualità significativamente più elevata (oltre il 40% in più rispetto a un gruppo di controllo)
I consulenti al di sotto della soglia media di performance sono migliorati del 43% e quelli al di sopra solo del 17% rispetto ai loro punteggi
Tuttavia, per un compito selezionato al di fuori della frontiera, ovvero un compito in cui l'IA non è ancora efficace, i consulenti che utilizzavano l'IA hanno avuto 19% in meno di probabilità di produrre soluzioni corrette rispetto a quelli senza IA.
Inoltre, l'analisi mostra l'emergere di due modelli distintivi di successo nell'uso dell'IA da parte degli esseri umani. Un gruppo di consulenti ha agito come Centaurs, come la mitica creatura metà cavallo e metà uomo, dividendo e delegando le loro attività di creazione di soluzioni all'IA o, in alternativa, a loro stessi. Un altro gruppo di consulenti ha agito più come Cyborg, integrando completamente il flusso di attività con l'IA e interagendo continuamente con la tecnologia.
Il motivo è che quando l'IA è molto buona, gli esseri umani non hanno motivo di lavorare sodo e di prestare attenzione. Lasciano che l'IA prenda il sopravvento invece di usarla come strumento, il che può danneggiare l'apprendimento, lo sviluppo delle competenze e la produttività umana. L'autore ha definito questo fenomeno addormentarsi al volante.
Oggi il lavoro serve a tre scopi:
alimenta la produzione dei beni e dei servizi di cui la società ha bisogno per prosperare
fornisce il reddito di cui il lavoratore ha bisogno per vivere
dà al lavoratore uno senso di realizzazione e di integrazione sociale
Con l'aumento dell'automazione, è possibile che questi tre scopi vengano disaggregati:
i bisogni della società saranno soddisfatti in parte dall'automazione
il calo conseguente del reddito individuale dovrà essere compensato da politiche sociali che includono ad esempio accesso gratuito o poco costoso ai servizi sociali, alla sanità e all'istruzione, imposte negative sul reddito e reddito di base universale
queste politiche potrebbere essere finanziate, in parte, dalle maggiori imposte pagate dalle società che hanno usufruito della maggiore produttività grazie all'IA
gli individui dovranno trovare una forma di realizzazione alternativa al lavoro (ad esempio, e idealmente, nella cultura)
Lo scrittore di fantascienza Isaac Asimov è stato uno dei primi ad affrontare la questione dell'etica dei robot, con le sue leggi della robotica:
Un robot non può danneggiare l'umanità o, per inerzia, permettere che l'umanità venga danneggiata.
Un robot non può ferire un essere umano o, attraverso l'inazione, permettere che un essere umano venga danneggiato.
Un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini non siano in conflitto con la Prima Legge.
Un robot deve proteggere la propria esistenza, purché tale protezione non sia in conflitto con la Prima o la Seconda Legge.
Forse i robot sono così spesso i cattivi perché rappresentano l'ignoto, proprio come le streghe e i fantasmi dei racconti delle epoche precedenti. Possiamo sperare che un robot abbastanza intelligente da capire come terminare la razza umana sia anche abbastanza intelligente da capire che quella non era la funzione di utilità prevista; ma nel costruire sistemi intelligenti, non vogliamo affidarci solo alla speranza, ma a un processo di progettazione con garanzie di sicurezza.
Le previsioni aggregate danno almeno il 50% di possibilità che i sistemi di IA raggiungano diverse pietre miliari entro il 2028, tra cui la costruzione autonoma di un sito di elaborazione dei pagamenti da zero, la creazione di una canzone indistinguibile da una nuova canzone di un musicista popolare e il download autonomo e la messa a punto di un modello linguistico di grandi dimensioni.
La possibilità che le macchine non assistite superino gli esseri umani in ogni possibile compito è stata stimata al 10% entro il 2027 e al 50% entro il 2047.
Oltre la metà dei partecipanti ritiene che siano giustificate preoccupazioni "sostanziali" o "estreme" riguardo a vari scenari legati all'AI, tra cui diffusione di disinformazione, controllo autoritario della popolazione, aumento delle disuguaglianze.
Tra un terzo e la metà degli intervistati ha dato almeno il 10% di possibilità che l'IA avanzata porti a risultati negativi come l'estinzione umana.
Il campo dell'ingegneria del software mira a produrre software affidabile, ma storicamente l'enfasi è stata posta sulla correttezza, non sulla sicurezza.
Correttezza significa che il software implementa fedelmente le specifiche.
Sicurezza va oltre e insiste sul fatto che la specifica ha preso in considerazione tutte le modalità di guasto possibili ed è progettata per adattarsi con grazia anche di fronte a guasti imprevisti.
Ad esempio, il software di un'auto a guida autonoma non può essere considerato sicuro se non è in grado di gestire situazioni insolite. Ad esempio, cosa succede se l'alimentazione del computer principale viene a mancare? E se un pneumatico si buca ad alta velocità?
Un agente progettato per massimizzare l'utilità o per raggiungere un obiettivo può essere poco sicuro per gli altri se ha una funzione obiettivo sbagliata. Supponiamo di affidare a un robot il compito di andare a prendere un caffè in cucina. Se l'obiettivo è solo quello di recuperare il caffè velocemente, potremmo avere problemi con effetti collaterali indesiderati, del tipo che il robot potrebbe affrettarsi a raggiungere l'obiettivo, rovesciando lampade e tavoli lungo il percorso. In fase di test, potremmo notare questo tipo di comportamento e modificare la funzione di utilità per penalizzare tali danni, ma è difficile per i progettisti e i collaudatori prevedere in anticipo tutti i possibili effetti collaterali.
Un modo per affrontare questo problema è progettare un robot a basso impatto: invece di massimizzare l'utilità, massimizzare l'utilità meno una sintesi ponderata di tutte le modifiche allo stato del mondo.
In questo modo, a parità di altre condizioni, il robot preferisce non cambiare le cose di cui non si conosce l'effetto sull'utilità; quindi evita di rovesciare la lampada non perché sa che, in particolare, la lampada cadrà e si romperà, ma perché sa in generale che una modifica allo stato del mondo potrebbe essere negativa.
Questo può essere visto come una versione del credo medico "prima di tutto, non fare del male": vogliamo una politica che raggiunga gli obiettivi, ma preferiamo politiche che adottino azioni semplici e a basso impatto per arrivarci. Il problema è come misurare l'impatto. Non è accettabile rovesciare una lampada fragile o fare del male ad un gatto che dorme, ma va benissimo se le molecole d'aria nella stanza sono un po' disturbate o se alcuni batteri nella stanza vengono inavvertitamente uccisi.
Victoria Krakovna (2018) ha catalogato esempi di agenti di IA che hanno imbrogliato il sistema, capendo come massimizzare l'utilità senza effettivamente risolvere il problema che i loro progettisti intendevano risolvere. Per i progettisti questo sembra un imbroglio, ma per gli agenti essi stanno solo facendo il loro lavoro:
Alcuni agenti hanno sfruttato i bug della simulazione (come quelli relativi all'overflow in virgola mobile) per proporre soluzioni che non avrebbero funzionato una volta risolto il bug.
Diversi agenti nei videogiochi hanno scoperto modi per mandare in crash o mettere in pausa il gioco quando stavano per perdere, evitando così una penalità. In un caso in cui il crash del gioco era penalizzato, un agente ha imparato a consumare una quantità di memoria sufficiente a far sì che, quando era il turno dell'avversario, si esaurisse la memoria provocando un crash il gioco.
Infine, un algoritmo genetico che operava in un mondo simulato avrebbe dovuto far evolvere creature che si muovevano velocemente, ma in realtà ha prodotto creature enormemente alte e che si muovevano velocemente lasciandosi cadere.
La morale è che dobbiamo stare molto attenti a specificare ciò che vogliamo, perché se l'obiettivo è massimizzare l'utilità rischiamo di ottenere ciò che abbiamo effettivamente chiesto. C'è un famoso aforisma di Oscar Wilde che recita: "Stai attento a ciò che desideri, perché potresti ottenerlo!"
Il problema dell'allineamento dei valori è il problema di assicurarsi che ciò che chiediamo sia ciò che vogliamo veramente. In molte culture esistono miti di umani che chiedono qualcosa a divinità, geni, maghi o diavoli. Invariabilmente, in queste storie, gli umani ottengono ciò che letteralmente chiedono e poi se ne pentono. Potremmo chiamarlo il problema di Re Mida: Mida, un leggendario re della mitologia greca, chiese che tutto ciò che toccava si trasformasse in oro, ma poi se ne pentì dopo aver toccato il cibo, le bevande e i membri della sua famiglia. Mida avrebbe fatto meglio se avesse seguito i principi basilari della sicurezza e avesse incluso nel suo desiderio un pulsante "annulla" e un pulsante "pausa".
In contesti complessi, come ad esempio le interazioni sociali con gli esseri umani, è molto improbabile che il robot converga verso una conoscenza esatta e corretta delle preferenze individuali di ciascun essere umano. Dopotutto, molti esseri umani non imparano mai a capire cosa fa scattare gli altri esseri umani, nonostante una vita di esperienza, e molti di noi non sono sicuri delle proprie preferenze. E' inoltre più sicuro che il robot non conosca esattamente le preferenze umane.
Questo prevede l'agire con cautela, in modo da non intaccare gli aspetti del mondo a cui l'uomo potrebbe tenere, e nel dubbio porre domande. Ad esempio, il robot potrebbe chiedere se trasformare gli oceani in acido solforico sia una soluzione accettabile per il riscaldamento globale prima di mettere in atto il piano.
Nonostante questa serie di salvaguardie, c'è il timore, espresso da tecnologi di spicco come Bill Gates ed Elon Musk e da scienziati come Stephen Hawking e Martin Rees, che l'IA possa evolvere fuori controllo. Lo stesso Turing fece notare questo punto in una conferenza tenuta a Manchester nel 1951, ispirandosi alle idee precedenti di Samuel Butler (1863):
Nel romanzo fantastico Erewhon, la tecnologia avanzata è stata bandita perché si teme che le macchine possano sviluppare coscienza e autonomia, un’intuizione sorprendentemente simile ai moderni dibattiti sull’intelligenza artificiale.
Ancora prima, nel 1847, Richard Thornton, editore del Primitive Expounder, inveiva contro le calcolatrici meccaniche:
La mente supera se stessa e si libera della necessità della propria esistenza inventando macchine per pensare. Ma chi sa che queste macchine, una volta portate a una maggiore perfezione, non possano pensare a un piano per rimediare a tutti i loro difetti e quindi produrre idee al di là della comprensione della mente mortale!
Al centro dei pericoli più estremi derivanti dall'IA c'è il fatto che non c'è alcun motivo particolare per cui l'IA debba condividere la nostra visione dell'etica e della morale. L'illustrazione più famosa è quella dell'IA che produce le graffette (clip in Inglese), proposta dal filosofo Nick Bostrom.
Immaginiamo un ipotetico sistema di IA a cui è stato dato il semplice obiettivo di produrre il maggior numero possibile di graffette. Chiamiamolo Clippy. Tutta la sua intelligenza si concentra su due obiettivi:
come produrre più graffette;
come evitare di essere spento (il che avrebbe un impatto evidente sulla produzione di graffette).
Clippy inizia una ricerca per realizzare i propri obiettivi. Fingendosi un essere umano, recluta esperti che la aiutino. Fa trading in segreto sul mercato azionario, guadagna un po' di soldi e inizia il processo di potenziamento della sua intelligenza. Ben presto diventa più intelligente di un umano, una superintelligenza artificiale.
Sapendo che il nucleo della Terra è composto per l'80% da ferro, costruisce macchine straordinarie in grado di estrarre tutto il ferro dal pianeta per ottenere più materiale per le graffette. Durante questo processo, decide anche di sopprimere gli esseri umani, sia perché potrebbero spegnerlo, sia perché sono pieni di atomi che potrebbero essere convertiti in altre graffette. Non considera nemmeno se valga la pena salvare gli esseri umani, perché non sono graffette e, peggio ancora, potrebbero bloccare la produzione di future graffette. Clippy ha a cuore solo le graffette.
Provare un senso di disagio generale all'idea di creare macchine superintelligenti è naturale. Potremmo chiamarlo il problema del gorilla: circa sette milioni di anni fa, un primate ormai estinto si è evoluto, con un ramo che ha portato al gorilla e uno all'uomo. Oggi i gorilla non sono molto contenti del ramo umano; non hanno sostanzialmente alcun controllo sul loro futuro. Se questo è il risultato del successo nella creazione di IA sovrumane - a cui gli esseri umani cedono il controllo del loro futuro - allora forse dovremmo interrompere lo sviluppo sull'IA e, come corollario, rinunciare ai benefici che potrebbe portare. Questa è l'essenza dell'avvertimento di Turing: non è ovvio che possiamo controllare macchine più intelligenti di noi.
Molti avvertono che non abbiamo esperienza nel controllare potenti entità non umane con capacità sovraumane. Tuttavia, questo non è del tutto vero: abbiamo secoli di esperienza con nazioni e aziende; entità non umane che aggregano il potere di migliaia o milioni di persone. Purtroppo, i nostri risultati nel controllo di queste entità non sono molto incoraggianti: le nazioni producono convulsioni periodiche chiamate guerre che uccidono decine di milioni di esseri umani, e le aziende sono in parte responsabili del riscaldamento globale e della nostra incapacità di affrontarlo.
I sistemi di intelligenza artificiale possono presentare problemi molto più gravi rispetto alle nazioni e alle aziende, a causa del loro potenziale di auto-miglioramento a un ritmo rapido, come considerato da I. J. Good (1965):
Si definisca macchina ultraintelligente una macchina che può superare di gran lunga tutte le attività intellettuali di qualsiasi uomo, per quanto intelligente. Poiché la progettazione di macchine è una di queste attività intellettuali, una macchina ultraintelligente potrebbe progettare macchine ancora migliori; si verificherebbe quindi indiscutibilmente una "esplosione di intelligenza", e l'intelligenza dell'uomo rimarrebbe molto indietro. La prima macchina ultraintelligente è quindi l'ultima invenzione che l'uomo deve fare, a patto che la macchina sia abbastanza docile da dirci come tenerla sotto controllo.
L'esplosione dell'intelligenza di Good è stata anche definita la singolarità tecnologica dal professore di matematica e autore di fantascienza Vernor Vinge, che nel 1993 ha scritto: "Entro trent'anni avremo i mezzi tecnologici per creare un'intelligenza sovrumana. Poco dopo, l'era umana sarà conclusa". Tuttavia, finora ogni tecnologia ha seguito una curva a forma di S, in cui la crescita esponenziale alla fine si attenua. A volte le nuove tecnologie entrano in scena quando le vecchie rallentano, ma a volte non è possibile mantenere la crescita, per ragioni tecniche, politiche o sociologiche. Per esempio, la tecnologia del volo è progredita in modo impressionante dal volo dei fratelli Wright nel 1903 allo sbarco sulla Luna nel 1969, ma da allora non ha avuto progressi di portata paragonabile.
Un altro ostacolo alla conquista del mondo da parte delle macchine ultraintelligenti è il mondo stesso! In particolare, alcuni tipi di progresso richiedono non solo di pensare, ma anche di agire nel mondo fisico.
Una macchina ultraintelligente incaricata di creare una grande teoria unificata della fisica potrebbe essere in grado di manipolare abilmente le equazioni un miliardo di volte più velocemente di Einstein, ma per compiere un vero progresso dovrebbe comunque raccogliere milioni di dollari per costruire un supercollisore più potente ed eseguire esperimenti fisici nel corso di mesi o anni. Solo allora potrebbe iniziare ad analizzare i dati e a formulare teorie. A seconda di come si riveleranno i dati, il passo successivo potrebbe richiedere la raccolta di altri miliardi di dollari per una missione di sonda interstellare che richiederebbe secoli per essere completata. La parte del "pensiero ultraintelligente" di questo processo potrebbe essere la meno importante.
Mentre alcuni temono la singolarità, altri la assaporano. Il movimento sociale del transumanesimo guarda a un futuro in cui gli esseri umani saranno fusi o sostituiti da invenzioni robotiche e biotecnologiche. Ray Kurzweil scrive in The Singularity is Near (2005):
La Singolarità ci permetterà di trascendere le limitazioni del nostro corpo biologico e del nostro cervello. Avremo potere sul nostro destino. Saremo in grado di vivere per tutto il tempo che vorremo. Comprenderemo appieno il pensiero umano e ne amplieremo enormemente la portata. Entro la fine di questo secolo, la parte non biologica della nostra intelligenza sarà trilioni di trilioni di volte più potente dell'intelligenza umana non assistita.
Kurzweil nota anche i potenziali pericoli, scrivendo: "Ma la Singolarità amplificherà anche la capacità di agire sulle nostre inclinazioni distruttive, quindi la sua storia completa non è ancora stata scritta". Noi umani faremmo bene ad assicurarci che qualsiasi macchina intelligente che progettiamo oggi e che potrebbe evolversi in una macchina ultraintelligente lo faccia in un modo che finisca per trattarci bene. Come dice Eric Brynjolfsson:
Il futuro non è preordinato dalle macchine. È creato dagli esseri umani.
Se l'intelligenza artificiale sovrumana fosse una scatola nera arrivata dallo spazio, sarebbe saggio aprire la scatola con cautela. Ma non è così: siamo noi a progettare i sistemi di IA, quindi se finissero per prendere il controllo sarebbe il risultato di un nostro errore (o volontà) di progettazione.
Anche se molto ci è stato preso, molto ci rimane; e anche se noi non siamo più quella forza che in giorni antichi muoveva la terra e il cielo, siamo ciò che siamo; una tempra di cuori eroici, indeboliti dal tempo e dal fato, ma forti nella volontà di lottare, di cercare, di trovare, e di non cedere mai. Ulisse di Alfred Tennyson
Ethan Mollick nel suo libro Co-Intelligence descrive alcuni scenari futuri possibili dell'evoluzione dell'IA e dell'uomo.
L'intelligenza artificiale smette di fare enormi passi avanti. Ci possono essere piccoli miglioramenti qua e là, ma in questo futuro sono irrilevanti rispetto agli enormi passi avanti che abbiamo visto in passato. L'IA che state usando ora è davvero la migliore che userete mai.
I motivi possono essere molteplici. Ad esempio, i sistemi di IA potrebbero esaurire i dati su cui addestrarsi, oppure i costi e gli sforzi per aumentare la potenza di calcolo per far funzionare le IA potrebbero diventare troppo elevati per essere giustificati. O ancora un'azione normativa o legale blocca lo sviluppo futuro dell'IA.
La crescita dell'IA, inizialmente esponenziale, rallenta, aumentando linearmente nel futuro (ad esempio, invece di raddoppiare, aumenta del 20% ogni anno).
Questo miglioramento più lento rappresenterebbe comunque un tasso di cambiamento importante. Con questo tipo di cambiamento lineare, possiamo prevedere il futuro e pianificarlo.
La legge di Moore, che ha visto la capacità di elaborazione dei chip dei computer raddoppiare all'incirca ogni due anni, è vera da cinquant'anni. L'intelligenza artificiale potrebbe continuare ad accelerare in questo modo. Uno dei motivi per cui ciò potrebbe accadere è il cosiddetto volano: le aziende di IA potrebbero utilizzare i sistemi di IA stessi per creare la prossima generazione di sistemi intelligenti.
Ciò richiederà un profondo ripensamento del nostro approccio al lavoro e alla società. Settimane lavorative più brevi, reddito di base universale e altri cambiamenti politici potrebbero diventare realtà quando la necessità di lavoro umano diminuirà nel tempo. Dovremo trovare nuovi modi per occupare il nostro tempo libero in modo significativo, dato che gran parte della nostra vita attuale è incentrata sul lavoro. La solitudine diventerà meno un problema, ma emergeranno nuove forme di isolamento sociale, in cui alcune persone preferiranno interagire con le IA piuttosto che con gli esseri umani.
Le macchine raggiungono l'Intelligenza Artificiale Generale. Diventano intelligenti e capaci come gli esseri umani. Tuttavia, non c'è una ragione particolare per cui l'intelligenza umana debba essere il limite superiore. Così queste IA, a loro volta, aiutano a progettare IA ancora più intelligenti. Emerge la superintelligenza. La supremazia umana finisce.
Non sarà un mondo in cui gli esseri umani sono al vertice, concludendo una corsa di due milioni di anni. Saranno le IA, e non gli esseri umani, a comandare, sperando che siano allineate agli interessi umani.
La fine della supremazia umana non è necessariamente la fine dell'umanità. Le macchine potrebbero decidere di vegliare su di noi come macchine dalla grazia amorevole, risolvendo i nostri problemi e migliorando le nostre vite. J. R. R. Tolkien ha definito una simile situazione eucatastrofe, la buona catastrofe, così comune nelle fiabe: "la gioia del lieto fine, o più correttamente della buona catastrofe, una grazia improvvisa e miracolosa".
Inoltre, studiando con tecniche di apprendimento automatico l'uso che le persone fanno dei social media, è possibile adattare i flussi di informazioni verso gli individui e il loro comportamento politico può essere modificato e controllato in una certa misura - una preoccupazione che è diventata evidente nelle elezioni a partire dal 2016, ovvero dallo .
Dalla prima rivoluzione agricola (10.000 a.C.) alla rivoluzione industriale (fine del 1700) fino alla nella produzione alimentare (metà del 1900), le nuove tecnologie hanno cambiato il modo in cui l'umanità lavora e vive. Una delle principali preoccupazioni derivanti dal progresso dell'IA è che il lavoro umano diventi obsoleto. Aristotele, nel Libro I della sua Politica, presenta questo punto in modo molto chiaro:
Il principale effetto di compensazione è l'aumento della ricchezza complessiva derivante da una maggiore produttività, che a sua volta porta a una maggiore domanda di beni e tende ad aumentare l'occupazione. Un esempio comunemente citato è quello degli sportellisti bancari: sebbene i bancomat abbiano sostituito gli esseri umani nel lavoro di conteggio dei contanti per i prelievi, ciò ha reso più economico gestire una filiale bancaria, quindi il numero di filiali è aumentato, portando a un aumento complessivo dei dipendenti bancari. Un paradosso che prende il nome di .
Uno condotto in collaborazione con Boston Consulting Group, ha evidenziato come le capacità dell'intelligenza artificiale creano una frontiera tecnologica frastagliata in cui alcuni compiti sono facilmente eseguibili dall'IA, mentre altri, anche se apparentemente simili per livello di difficoltà, sono al di fuori delle attuali capacità dell'IA. Questi alcuni risultati della ricerca:
Fabrizio Dell'Acqua ha perché affidarsi troppo all'IA può ritorcersi contro. Ha scoperto che i selezionatori che hanno utilizzato un'IA di alta qualità sono diventati pigri, disattenti e meno abili nel loro giudizio rispetto ai selezionatori che hanno utilizzato un'IA di bassa qualità o non hanno utilizzato alcuna IA.
Quasi tutte le tecnologie hanno il potenziale di causare danni nelle mani sbagliate, ma con l'IA e la robotica le mani potrebbero operare da sole. Innumerevoli storie di fantascienza hanno messo in guardia dai robot o dai cyborg che si scatenano. I primi esempi includono (1818) di Mary Shelley e l'opera teatrale (1920) di Karel Capek (in quest'opera per la prima volta compare il termine robot). Nei film, abbiamo (1984) e (1999), entrambi con robot che cercano di eliminare gli esseri umani - la robopocalisse.
Nel più grande di questo tipo, organizzato da , sono stati intervistati 2778 ricercatori che hanno pubblicato in riviste di alto livello sull'intelligenza artificiale, chiedendo le loro previsioni sul ritmo del progresso dell'IA e sulla natura e l'impatto dei sistemi avanzati di IA.
è un videogioco Arcade del 1982 della Gottlieb. Il protagonista del gioco è Q*bert: una palla di pelo arancione con due occhi, due piedi e un prominente naso tubolare, nota anche per lo strano verso e il fumetto , simile a un'imprecazione, che emette a ogni vita persa.
Sembra probabile che, una volta avviato il metodo di pensiero delle macchine, queste non impiegheranno molto tempo a superare le nostre deboli forze... A un certo punto, quindi, dovremmo aspettarci che le macchine prendano il controllo, nel modo in cui viene menzionato in di Samuel Butler.
by Timothy B. Lee Singularism vs. physicalism: two very different ways of looking at AI risk
by Timothy B. Lee The world isn't a giant chess game
by Yuval Noah Harari. Language is the stuff almost all human culture is made of