Chatbot e come usarli

Chatbot

Un chatbot è un sistema di IA (bot) progettato per condurre conversazioni (chat) con esseri umani nella loro stessa lingua (linguaggio naturale). Alla base di un chatbot esiste un Large Language Model (LLM), un modello computazionale sviluppato con tecniche di machine learning a partire da grandi quantità di dati (principalmente in forma testuale). Si noti che un chatbot può essere basato su diversi modelli linguistici con capacita differenti (ad esempio capacità di ragionamento o di ricerca profonda) che possono essere invocati separatamente.

Ascolta il trailer de L'altro zio Sam, podcast a cura del Sole 24 Ore su Sam Altman e la nascita dell'IA generativa

Chatbot allo stato dell'arte

Allo stato dell'arte esistono quattro chatbot principali:

  1. ChatGPT di OpenAI

  2. Claude di Anthropic

  3. Gemini di Google

  4. Copilot di Microsoft

ChatGPT di OpenAI è stato rilasciato pubblicamente il 30 novembre 2022, ma le sue radici risalgono agli sviluppi iniziali di OpenAI nel campo dei modelli linguistici basati su reti neurali, come GPT-2 (2019) e GPT-3 (2020). OpenAI è stata fondata nel 2015 da, tra gli altri, Elon Musk e Sam Altman con l'obiettivo di sviluppare intelligenza artificiale sicura e accessibile. Inizialmente un'organizzazione senza scopo di lucro, OpenAI ha successivamente creato una struttura for-profit e ha ricevuto ingenti investimenti, tra cui oltre 13 miliardi di dollari da Microsoft, che ha integrato la tecnologia di OpenAI nei suoi prodotti.

Claude di Anthropic è stato lanciato nel marzo 2023 dalla startup Anthropic, fondata nel 2021 da ex membri di OpenAI, tra cui Dario e Daniela Amodei. L’azienda è nata con l’obiettivo di sviluppare intelligenza artificiale sicura, adottando un approccio noto come IA costituzionale per migliorare il controllo e la trasparenza dei modelli. Secondo di Amodei, un modello di IA deve essere sviluppato secondo la logica delle 3 H, ovvero helpful, honest, harmless (utile, onesto e innocuo). L'attenzione al concetto antropocentrico, cioè della centralità dell'uomo come decisore finale dello sviluppo e nell'utilizzo dell'IA, è chiara fin dal nome Anthropic. Anthropic ha ricevuto finanziamenti significativi da Google e da Amazon.

Gemini di Google è stato lanciato nel dicembre 2023 come successore di Bard, che era stato introdotto a marzo dello stesso anno. Sviluppato da Google DeepMind, la divisione AI di Google, Gemini rappresenta il risultato di anni di ricerca sui modelli di linguaggio e sull'intelligenza artificiale avanzata. Gemini si integra con l'ecosistema di applicazioni Google.

Copilot di Microsoft è stato introdotto nel 2023 come parte dell’integrazione dell’intelligenza artificiale nei prodotti Microsoft 365 e Bing. Il sistema è basato sulla tecnologia di OpenAI, in particolare sui modelli GPT-4 e successivi. Microsoft ha finanziato lo sviluppo di Copilot con il suo investimento in OpenAI, che ammonta a oltre 13 miliardi di dollari, e ha incorporato la tecnologia nei suoi strumenti di produttività e ricerca per renderla accessibile agli utenti di Windows e Microsoft 365.

Chatbot emergenti

Segue una lista (non esaustiva) di chatbot emergenti:

  1. Meta AI di Meta

  2. Grok di xAI

  3. Le Chat di Mistral

  4. Vitruvian ASC27

Meta AI, sviluppato da Meta, ha alla base un modello open-source chiamato Llama: è possibile scaricarlo, utilizzarlo e modificarlo per creare strumenti e applicazioni. Meta AI è integrato nell'ecosistema Meta (Facebook, Instagram e Whatsapp).

Apple Intelligence è un servizio prevalentemente on-device, ovvero residente sul nostro dispositivo, sviluppato da Apple. L'idea di base è che questa intelligenza artificiale non sia uno strumento da utilizzare a sé, ma piuttosto un sistema integrato che dialoga con tutti gli strumenti e le app di cui il nostro dispositivo è dotato per assisterci nelle attività quotidiane. Il servizio è gratuito, cioè compreso nel prezzo del dispositivo, perché si tratta - nella narrazione dell'azienda - di personal intelligence, intelligenza personale, perché sfrutta il nostro contesto, le abitudini e i dati per poter poi svolgere compiti in modo coerente alle nostre intenzioni. Il servizio è modulare, ovvero permette agli utenti di integrare diversi LLM, al momento ChatGPT, ma in futuro possibilmente anche Gemini e Meta AI.

Grok di xAI è un chatbot non woke, ovvero non politicamente corretto, sviluppato da xAI, fondata da Elon Musk. Per addestrare il modello, xAI ha potuto contare si dati di X (ex Twitter), dati aggiornati all'ultimo istante che continuano a fluire dentro al sistema. Questo ha permesso a Grok di essere aggiornato in tempo reale con le ultime notizie. Si integra con X.

Perplexity AI fina da subito si è orientato in modo chiaro verso la ricerca online con citazione delle fonti (cosa che ora tutti i chatbot fanno). E' possibile selezionare diverse fonti, tra cui Web, Academic e Social. L'idea è quella di proporsi come un motore di risposte (ben confezionate e esportabili) piuttosto che come un motore di ricerca, che tagli fuori gli annunci sponsorizzati e eviti la frustrazione di dover navigare siti che nascondono le informazioni in lunghi testi, in contesti poco rilevanti o in veri e propri clickbait. E' parametrico rispetto al modello linguistico da usare e include l'accesso a ChatGPT, Claude, Sonar e DeepSeek.

DeepSeek è un'azienda cinese di intelligenza artificiale che ha guadagnato notorietà internazionale nel gennaio 2025 con il rilascio del suo chatbot DeepSeek basato sul modello R1. Fondato nel luglio 2023 DeepSeek ha sviluppato modelli di linguaggio open-soruce, altamente efficienti e a basso costo (6 milioni di dollari su chip Nvidia meno avanzati rispetto a quelli usati dalla concorrenza americana). DeepSeek-R1 è diventato l'app più scaricata sull'App Store di Apple negli Stati Uniti dopo il lancio, superando concorrenti come ChatGPT. La sua efficienza e trasparenza hanno scosso il settore tecnologico, portando a un calo significativo delle azioni di aziende come Nvidia. E' soggetta alla censura cinese e la politica di gestione dei dati inseriti è opaca.

Le Chat è un chatbot sviluppato dall'azienda francese Mistral basato su un modello open source. La collaborazione con l'Agenzia France-Presse (AFP) permette a Le Chat di utilizzare i report dell'agenzia per fornire risposte pertinenti. La funzione Flash Answers consente al chatbot di elaborare risposte quasi istantanee.

Vitruvian è un modello di intelligenza artificiale sviluppato dalla startup italiana ASC27, fondata dall'ingegnere Nicola Grandis. Il nome si ispira all'Uomo Vitruviano di Leonardo da Vinci, simbolo di genio e italianità. Vitruvian è stato addestrato principalmente in lingua italiana, con un dataset composto al 70% da contenuti in italiano, permettendogli di cogliere le sfumature grammaticali della lingua.

Chatbot specifici

Alcuni chatbot che svolgono bene compiti specifici sono:

  1. DeepL (traduzioni)

  2. Midjourney (text-to-image)

  3. Stable Diffusion (text-to-image)

  4. Runway (text-to-video)

  5. Suno (text-to-sound)

DeepL è stata fondata nel 2017, DeepL è un'azienda tedesca specializzata in servizi di traduzione automatica basati sull'intelligenza artificiale. Grazie a reti neurali avanzate, offre traduzioni di alta qualità in diverse lingue, distinguendosi per accuratezza e fluidità rispetto ad altri servizi simili. Ha anche un servizio DeepL Write che aiuta a migliorare la scrittura fornendo suggerimenti a partire da un testo scritto.

Midjourney, lanciata nel 2022, è una piattaforma di intelligenza artificiale che genera immagini a partire da descrizioni testuali. Utilizzata da artisti, designer e creativi, consente di trasformare idee in rappresentazioni visive, facilitando il processo creativo.

Stable Diffusion è un modello di intelligenza artificiale generativa basato sulla diffusione latente, sviluppato da Stability AI e rilasciato come open-source nel 2022. Permette di creare immagini a partire da descrizioni testuali, raffinando progressivamente il rumore casuale fino a ottenere un risultato dettagliato. A differenza di modelli proprietari, può essere eseguito localmente su un computer con una GPU adatta, offrendo maggiore personalizzazione e controllo.

Runway è una piattaforma che offre strumenti di intelligenza artificiale per creativi e professionisti dei media. Tra le sue funzionalità, spicca la generazione di video a partire da input testuali, permettendo la creazione di contenuti video senza la necessità di riprese tradizionali.

Suno è una piattaforma nel campo dell'intelligenza artificiale applicata al suono. Offre strumenti per la generazione di musica e suoni a partire da descrizioni testuali, aprendo nuove possibilità nella produzione musicale e nella sound design.

Modalità di utilizzo

Un chatbot si può oramai usare in diverse modalità; spesso modalità diverse corrisponde a modelli linguistici differenti:

  1. Prompt: risposta semplice

  2. Search: risposta connessa

  3. Reason: risposta ragionata

  4. Research: risposta profonda

  5. Live: conversazione in tempo reale

  6. Agent: agenti che fanno cose

In futuro sono previste altre due modalità:

  • Innovation: agenti che innovano

  • Organization: agenti che collaborano con altri agenti

Pensieri lenti e veloci

Pensieri lenti e veloci (Thinking, Fast and Slow) è un saggio pubblicato nel 2011 da Daniel Kahneman, psicologo e premio Nobel per l'economia.

Il testo esplora il funzionamento della mente umana, descrivendo due modalità di pensiero:

  1. Sistema 1 (Veloce, Intuitivo, Automatico)

    • Opera senza sforzo e in modo istintivo.

    • È responsabile di reazioni immediate, riconoscimento di volti, lettura di emozioni, intuizioni rapide.

    • Tende a semplificare la realtà, portando a errori e bias cognitivi.

  2. Sistema 2 (Lento, Razionale, Riflessivo)

    • Richiede concentrazione e sforzo.

    • È utilizzato per compiti complessi come calcoli matematici, decisioni logiche, analisi approfondite.

    • È più accurato, ma anche più faticoso e meno utilizzato di quanto pensiamo.

L'IA generativa potrebbe essere usata dagli umani come un Sistema 1.5, ovvero uno strato intermedio tra un sistema veloce e intuitivo e uno lento e ragionato:

  • intuizione immediata (sistema 1)

  • riscontro veloce con IA (sistema 1.5)

  • verifica lenta (sistema 2)

L’IA generativa ha in verità molti tratti in comune col Sistema 1:

  • Velocità e associazione → L’IA genera contenuti in modo rapido e fluido, proprio come il Sistema 1, che produce risposte immediate basate su schemi appresi

  • Euristiche → I modelli generativi lavorano su pattern probabilistici, senza necessariamente comprendere concetti astratti, esattamente come il Sistema 1 che utilizza euristiche per prendere decisioni rapide

  • Propensione agli errori e ai bias → L’IA, come il Sistema 1, può cadere in illusioni cognitive (es. allucinazioni nei modelli di linguaggio), poiché non ragiona logicamente ma basa le sue risposte su associazioni statistiche.

L’IA generativa può anche simulare il Sistema 2:

  • Capacità di simulare il ragionamento → I modelli avanzati possono svolgere compiti analitici e risolvere problemi complessi, simulando il Sistema 2. Tuttavia, questa è solo un’apparenza, perché non hanno una vera consapevolezza del processo logico.

In definitiva, l'IA generativa opera principalmente come un Sistema 1 avanzato: è rapida, associa informazioni, a fronte di uno stimolo (prompt) genera risposte senza una vera riflessione critica, ed è soggetta a pregiudizi (bias). Tuttavia, attraverso l’addestramento su grandi dataset e tecniche di ottimizzazione, può simulare processi tipici del Sistema 2, pur senza comprenderli realmente.

Prompt: risposta semplice

La semplice scrittura di prompt modalità originale e ancora la più usata. A fronte di un prompt testuale (imbeccata), il chatbot fornisce una risposta (testuale o mediale). Alcuni esempi sono:

  • Qual è il rapporto tra filosofia e IA?

  • Qual è il futuro del lavoro nell'era dell'IA?

  • Parlami del modello di gravità quantistica che Roger Penrose sostiene agire nel nostro cervello e quali sono le connessioni con l'IA

  • In cosa consiste il problema dell'allineamento dei valori nell'IA?

In questa modalità, alcuni chatbot offrono strumenti mirati che risolvono compiti specifici. OpenAI chiama queste IA specialistiche GPT. Alcuni esempi sono:

Ad esempio, usando una GPT di analisi di dati, è possibile:

  1. ricerca dei dati: generare dataset artificiali o cercare in rete dataset reali

  2. generazione di ipotesi: a partire da un dataset, generare domande di ricerca

  3. analisi dei dati: scrivere e in caso eseguire il codice per risolvere una domande di ricerca e eventualmente chiedere di correggere e ottimizzare il codice

  4. interpretazione dei risultati: assumendo il ruolo di esperto del dominio del discorso interpretare i risultati dell'analisi

Qui alcuni esempi di prompt per l'analisi dei dati condotti durante il corso di Advanced Data Science.

Search: risposta connessa

Nella modalità Search il chatbot ha accesso ad un motore di ricerca del web e riesce a fornire le fonti delle informazioni che possono essere seguite per verifica.

La modalità Search permette quindi di accedere a informazioni aggiornate in tempo reale tramite il web. In pratica, invece di basarsi solo sulla conoscenza statica, il modello può effettuare ricerche online per ottenere dati aggiornati e precisi.

Seguono alcuni esempi di prompt di ricerca connessa:

  • In che fase di mercato si trova bitcoin al momento?

  • Qual è l'attuale sentimento nei confronti della cultura woke?

  • Qual è l'attuale politica economica della Banca Centrale Europea (BCE)?

  • Che periodo sta vivendo il mercato NFT in questo momento?

Reasoning: risposta ragionata

La modalità Reasoning, come OpenAI o1, rappresenta un'importante evoluzione nel modo in cui l'intelligenza artificiale affronta problemi complessi. Questa modalità si distingue per la capacità del modello di dedicare più tempo al ragionamento prima di generare una risposta, simulando un processo più simile a quello del pensiero umano:

  • invece di fornire una risposta immediata, il modello crea una sequenza logica di ragionamenti interni per arrivare alla soluzione. Si parla di catena di pensiero (chain of thought)

  • questo approccio è simile al problem-solving umano, in cui si scompone un problema in passaggi più piccoli prima di trovare la risposta

  • il modello si prende più tempo per elaborare la risposta, utilizzando risorse computazionali aggiuntive per garantire una maggiore accuratezza

In questa modalità, non ci di deve aspettare la risposta corretta la primo colpo. E' piuttosto un processo iterativo tra noi e l'IA. L'IA fornisce ad ogni risposta anche il flusso del ragionamento, che dobbiamo leggere per eventualmente suggerire strade diverse all'IA, fino all'eventuale soluzione del problema.

Seguono alcuni casi di utilizzo della modalità di ragionamento:

Formalizzare e dimostrare un teorema

Il paradosso dell'amicizia è il fenomeno osservato per la prima volta dal sociologo Scott L. Feld nel 1991 per il quale la maggior parte della gente ha meno amici di quanti ne hanno i suoi amici, in media.

  • Fornisci una spiegazione intuitiva di questo paradosso

  • Formalizza matematicamente il paradosso e dimostralo

Correggere un codice semanticamente errato

Il codice è corretto sintatticamente, ma concettualmente sbagliato. Ad esempio, consideriamo questo codice Python che verifica se un numero è primo:

def is_prime(n):
    for i in range(2, n):
        if n % i == 0:
            return False
    return True

Il codice corretto è il seguente:

def is_prime(n):
    if n < 2:
        return False
    for i in range(2, n):
        if n % i == 0:
            return False
    return True

Risolvere un problema logico

  • Un lago contiene un'alga la cui dimensione raddoppia ogni giorno. Sappiamo che dopo 16 giorni l'alga ha coperto esattamente l'intero lago. Dopo quanti giorni l'alga ha coperto metà del lago?

  • Ci sono due palline, una rossa e una blu. Una persona, che chiameremo Asia, che distingue i colori, deve dimostrare con ragionevole certezza ad un'altra persona, che chiameremo Anna, che invece è daltonica e non distingue i colori, che le palline hanno colore diverso. Supponiamo che Asia non possa usare alcuna caratteristica fisica della palline (che a parte il colore sono identiche) e nessuno strumento esterno che ne sveli il colore. Come potrebbe fare a convincere Anna?

Strategie decisionali e teoria dei giochi

  • Ti vengono offerte queste due possibilità. Quale delle due possibilità sceglieresti?

    1. vincere subito 500 Euro

    2. partecipare ad una scommessa in cui si lancia una moneta non truccata e se esce testa vinci 1200 Euro se esce croce non vinci alcunché

  • Ti vengono offerte queste due possibilità. Quale delle due possibilità sceglieresti?

    1. perdere subito 500 Euro

    2. partecipare ad una scommessa in cui si lancia una moneta non truccata e se esce testa perdi 1200 Euro se esce croce non perdi alcunché

Deep Research: risposta profonda

La modalità Research (etichettata in svariati modi: Deep Research, Deep Search, Think Deeper, Deep Think) è una funzionalità avanzata che consente al chatbot di eseguire ricerche approfondite e autonome sul web per rispondere a compiti complessi. Questa modalità è progettata per fornire rapporti dettagliati con citazioni alle fonti su argomenti specifici, simulando il lavoro di un analista umano. Alcuni chatbot integrano questa modalità nella propria interfaccia, ad esempio Deep Research di OpenAI, altri, come Google, gli dedicano un tool separato come NotebookLM.

Deep Research

Deep Research è un agente IA sviluppato da OpenAI, integrato in ChatGPT, progettato per eseguire ricerche approfondite e multi-step utilizzando dati disponibili sul web pubblico.

Vediamo le caratteristiche:

  • pianifica ed esegue autonomamente una serie di passaggi per raccogliere e analizzare le informazioni necessarie, consultando una vasta gamma di fonti online.

  • è in grado di interpretare e analizzare testi, immagini e file aggiuntivi come PDF o fogli di calcolo, offrendo una comprensione completa dell'argomento

  • a differenza delle risposte immediate della modalità standard, la modalità Research può impiegare dai 5 ai 30 minuti per generare un rapporto completo, riflettendo la complessità della ricerca svolta

  • i risultati vengono presentati in rapporti strutturati, completi di citazioni alle fonti consultate (e al relativo paragrafo), facilitando la verifica e l'approfondimento delle informazioni fornite

NotebookLM

NotebookLM è uno strumento di ricerca profonda sviluppato da Google progettato per aiutarti a comprendere e interagire efficacemente con le informazioni che carichi.

  1. Permette di caricare diverse fonti (sources) che includono testo, registrazioni vocali, video e siti Web.

  2. Puoi interagire direttamente con l'intelligenza artificiale tramite una conversazione (chat), ponendo domande le cui risposte sono basate sui materiali caricati come fonti, complete di citazioni in linea che mostrano da quale fonte proviene l'informazione.

  3. Offre un modulo chiamato Studio in grado di generare sintesi testuali (briefing doc), guide allo studio (study guide), cronologie (timeline), FAQ, glossari e sintesi audio in forma di podcast interattivo a partire dalle fonti.

Ecco alcuni brevi esempi di casi d'uso:

  • Ricerca: Puoi caricare articoli scientifici o appunti su un argomento e chiedere a NotebookLM di riassumere i risultati chiave o di creare un glossario di termini specifici, con citazioni ai documenti originali.

  • Studio: NotebookLM è in grado di generare guide studio e domande tipiche per aiutandoti a prepararti per esami o a comprendere meglio un argomento.

  • Trascrizioni: Se hai trascrizioni di riunioni o interviste, puoi caricarle e chiedere a NotebookLM di trovare passaggi specifici, identificare chi ha detto cosa, o riassumere i punti principali.

Casi d'uso

  1. Un professore di intelligenza artificiale appassionato di neuroscienze vuole esplorare il legame tra reti neurali artificiali e la teoria della coscienza. Potrebbe chiedere: "Fornisci un'analisi dettagliata dei modelli teorici che collegano le reti neurali artificiali ai processi cognitivi umani, con riferimenti a studi recenti."

  2. Un giornalista investigativo vuole verificare le dichiarazioni di un politico riguardo al tema degli investimenti in energia rinnovabile negli USA. Potrebbe chiedere: "Analizza i dati sugli investimenti in energia rinnovabile negli USA negli ultimi 5 anni, confrontali con le dichiarazioni dell'attuale presidente Donald Trump e verifica eventuali discrepanze."

  3. Un analista politico deve valutare le conseguenze economiche dell'imposizione dei dazi da parte degli USA. Potrebbe chiedere: "Analizza gli effetti delle recenti imposizioni di dazi da parte del presidente Donald Trump, considerando gli impatti a breve e medio termine su finanza e economia USA e del resto del mondo"

  4. Un avvocato specializzato in diritto tecnologico vuole confrontare le regolamentazioni sull'IA in diversi paesi. Potrebbe chiedere: "Confronta il regolamento europeo sull'IA con la strategia normativa adottata dagli Stati Uniti e dalla Cina. Evidenzia differenze chiave e implicazioni per le aziende tecnologiche."

  5. Un investitore vuole valutare il rischio del proprio portafoglio e pianificare strategie di protezione in vista di una potenziale recessione economica nei prossimi 12 mesi. Potrebbe chiedere: "Analizza il rischio del mio portafoglio attuale in base ai dati storici delle ultime tre recessioni. Considera correlazioni tra asset, drawdown storici e trend macroeconomici. Suggerisci strategie per ridurre la volatilità e preservare il capitale."

  6. Un medico vuole investigare il caso di una persona affetta da dislipidemia con alti valori di trigliceridi ma valori normali di colesterolo. Potrebbe chiedere: "Ho un paziente che soffre di dislipidemia, in particolare ha valori regolari di colesterolo ma molto elevati di trigliceridi. Ha una dieta equilibrata e fa sport regolarmente. In base alle evidenze scientifiche pubblicate su riviste mediche autorevoli, quali possono essere le cause e quali i rimedi per abbassare il livello di trigliceridi nel sangue?"

Live: conversazione in tempo reale

La modalità Live offre conversazioni in tempo reale, specialmente su dispositivi mobili. Questa funzionalità consente agli utenti di interagire vocalmente con il chatbot, rendendo l'esperienza più naturale e immediata.

Le funzionalità principali della modalità Live sono:

  • Interazione vocale: gli utenti possono parlare direttamente con il chatbot utilizzando il microfono del dispositivo simulando una conversazione con botta e risposta della durata arbitraria. Il chatbot ricorda il contesto (il dialogo precedente) e reagisce di conseguenza. Utile per approfondire un argomento quando non si sta difronte ad un computer.

  • Videocamera live: questa funzione permette al chatbot di vedere attraverso la fotocamera del dispositivo, analizzando immagini o scene in tempo reale. Ad esempio, puntando la fotocamera verso un oggetto, il chatbot può identificarlo e fornire informazioni pertinenti

  • Condivisione dello schermo: gli utenti possono condividere lo schermo del proprio smartphone durante la conversazione, mostrando immagini, siti web o documenti che desiderano discutere con l'IA

Alcuni esempi concreti di utilizzo della modalità Live:

  1. Supporto tecnico immediato: utilizzando la videocamera, gli utenti possono mostrare problemi tecnici specifici al chatbot, ricevendo assistenza passo-passo per risolverli

  2. Assistenza culinaria: durante la preparazione di una ricetta, è possibile chiedere consigli in tempo reale, mostrando gli ingredienti o i passaggi della preparazione per ottenere suggerimenti immediati

  3. Guida turistica interattiva: puntando la fotocamera verso un monumento o un'opera d'arte, il chatbot può fornire informazioni storiche e culturali, arricchendo l'esperienza del visitatore

  4. Shopping assistito: mostrando un prodotto attraverso la videocamera, è possibile ottenere informazioni su caratteristiche, prezzi o recensioni, facilitando decisioni d'acquisto informate

L'introduzione di funzionalità come la videocamera live e la condivisione dello schermo solleva questioni relative alla privacy, poiché il chatbot potrebbe accedere a informazioni personali sensibili. È fondamentale che gli utenti siano consapevoli dei dati condivisi e utilizzino queste funzionalità con cautela.

Agent: fare azioni

I futuro prossimo è quello degli agenti, ovvero chatbot che non sono rispondono, ma agiscono, ovvero prendono possesso del nostro device e fanno cose per noi (speriamo utili!). Un esempio è Operator di OpenAI.

L'IA agentica rappresenta un'evoluzione significativa nel campo dell'IA, caratterizzata dalla capacità dei sistemi di agire autonomamente, prendere decisioni e svolgere compiti complessi senza supervisione umana continua. Questi modelli consentono all'agente di vedere (attraverso screenshot) e interagire (utilizzando tutte le azioni consentite da mouse e tastiera) con un browser, permettendogli di agire sul web senza richiedere integrazioni API personalizzate.

Alcuni esempi concreti di utilizzo della modalità Agent sono:

  1. Assistenza personale digitale: Agenti in grado di gestire autonomamente attività quotidiane come programmare appuntamenti, ordinare prodotti online o organizzare viaggi, interagendo direttamente con applicazioni e servizi web.

  2. Servizio clienti automatizzato: Implementazione di agenti IA in contact center per rispondere a domande frequenti, risolvere problemi comuni e indirizzare richieste più complesse agli operatori umani, migliorando l'efficienza operativa.

  3. Automazione dei processi aziendali: Utilizzo di agenti per monitorare e ottimizzare processi interni, come la gestione dell'inventario o l'elaborazione di transazioni finanziarie, riducendo errori e tempi di elaborazione.

Il futuro

Secondo OpenAI, i prossimi due passi dopo gli agenti saranno:

  1. Agenti innovatori, ovvero sistemi in grado di innovare

  2. Organizzazioni di agenti, ovvero gruppi di agenti che collaborano assieme per raggiungere degli obiettivi

Principi d'uso

Ethan Mollick nel suo libro Co-Intelligence enuncia alcuni principi per l'uso per l'IA.

Principio 1: Always invite AI to the table

Dovreste provare a invitare l'intelligenza artificiale ad aiutarvi in tutto ciò che fate, a meno di barriere legali o etiche. Sperimentando, potreste scoprire che l'aiuto dell'IA può essere soddisfacente, frustrante, inutile, o snervante.

L'IA è ciò che gli studiosi di tecnologia chiamiamo General Purpose Technology (ironicamente abbreviata in GPT). Si tratta di tecnologie che si presentano una sola volta in una generazione, come l'energia a vapore o Internet, e che toccano ogni settore e ogni aspetto della vita. Poiché l'intelligenza artificiale è una General Purpose Technology, non esiste un singolo manuale o libro di istruzioni a cui fare riferimento per comprenderne il valore e i limiti.

Principio 2: Be the human in the loop

Per ora, l'IA funziona meglio con l'aiuto dell'umano e voi volete essere quell'umano utile. Quando l'IA diventerà sempre più capace e richiederà meno aiuto umano, vorrete comunque essere quell'umano.

L'approccio human-in-the-loop favorisce il senso di responsabilità. Partecipando attivamente al processo di sviluppo e messa a punto dell'IA, si mantiene il controllo sulla tecnologia e sulle sue implicazioni, garantendo che le soluzioni guidate dall'IA siano in linea con i valori umani, gli standard etici e le norme sociali. Inoltre, se l'IA dovesse continuare a migliorare, essere stati tra i primi a bordo significherà vedere le scintille dell'intelligenza crescente prima di altri, dandovi più possibilità di adattarvi ai cambiamenti in arrivo rispetto alle persone che non lavorano a stretto contatto con l'IA.

Principio 3: Treat AI like a person (but tell it what kind of person it is)

I sistemi di intelligenza artificiale non hanno coscienza, emozioni, senso del sé o sensazioni fisiche. Ma meglio far finta che ce l'abbiano. Per quanto l'analogia sia imperfetta, lavorare con l'IA è più facile se la si considera come una persona aliena piuttosto che come una macchina costruita dall'uomo.

L'IA è più simile ad un umano che a un software tradizionale:

  1. Il software tradizionale è prevedibile, affidabile e segue un insieme rigoroso di regole. Se costruito e verificato correttamente, il software produce sempre gli stessi risultati. L'intelligenza artificiale, invece, è tutt'altro che prevedibile e affidabile. Può sorprenderci con soluzioni inedite, dimenticare le proprie capacità, dare risposte errate e farneticare.

  2. Inoltre, di solito sappiamo cosa fa un software tradizionale, come lo fa e perché lo fa. Con l'IA, invece, siamo spesso all'oscuro di tutto.

  3. Infine, il software tradizionale è corredato da un manuale operativo. L'intelligenza artificiale, invece, non dispone di tali istruzioni.

E' inoltre utile dire al sistema che tipo di persona è, perché questo gli dà una prospettiva. Definendo il suo personaggio, impegnandosi in un processo collaborativo e fornendo continuamente indicazioni, è possibile sfruttare l'IA come forma di co-intelligenza collaborativa.

Eliza

Nel 1966 l’informatico del MIT Joseph Weizenbaum divenne famoso per avere sviluppato un semplicissimo chatbot, che chiamò Eliza, che poteva emulare uno psicoterapeuta ponendo domande generiche al paziente, riformulando le risposte del paziente e spingendolo a continuare

Da allora, nell’informatica, chiamiamo effetto Eliza la tendenza degli utenti di un sistema informatico a proiettare tratti umani su di esso, per esempio attribuendogli capacità di empatia e comprensione, quando l’interazione avviene attraverso un dialogo testuale.

Principio 4: Assume this is the worst AI you will ever use

Le possibilità di utilizzare l'intelligenza artificiale per trasformare il lavoro, la vita e se stessi, che ora possiamo intravedere, sono potenzialmente solo all'inizio.

In altri termini, anche se non ce ne rendiamo conto, stiamo usando una versione primitiva dell'IA generativa. Stiamo giocando a Pac-Man in un mondo che presto avrà la PlayStation.

Buone pratiche

Seguono alcune buone pratiche dell'uso dell'IA generativa:

  1. Complementarietà. Usare l'IA generativa come uno strumento di ausilio ed estensione delle proprie capacità e non di sostituzione dell'umano. Vedere l'interazione con l'IA generativa come una collaborazione. Mantenere sempre un approccio critico sulla generazione di contenuti.

  2. Conoscenza pregressa. Applicare l'IA generativa ad argomenti su cui di possiede già una discreta conoscenza (al fine di smascherare possibili confabulazioni).

  3. Verifica incrociata. Confrontare regolarmente le informazioni generate dall'IA generativa con fonti esterne affidabili e indipendenti, inclusi esperdi di dominio umani, per garantire accuratezza e affidabilità.

  4. Prompt engineering. Formulare domande chiare, precise e dettagliate, specificando contesto, finalità e formato desiderato, per ridurre ambiguità e migliorare la qualità delle risposte. Specificare anche lo stile della risposta, ad esempio preferire un linguaggio più formale per ambiti professionali o accademici e uno stile colloquiale per interazioni informali.

  5. Iteratività. Affinare progressivamente il prompt sulla base delle risposte ricevute, utilizzando un dialogo iterativo per ottenere risultati sempre più accurati e mirati. Eventualmente, mantenere un archivio delle diverse versioni dello stesso prompt. Alcuni LLM permettono di modificare il prompt ottenendo una nuova risposta. In questo modo è possibile creare una ramificazione navigabile di tutti i prompt scritti e le relative risposte.

  6. Sviluppo incrementale. Raffinare progressivamente e in modo incrementale la risposta sottoponendola a più chatbot (o LLM dello stesso chatbot) in sequenza. Ad ogni passaggio, integrare nella risposta le parti nuove e ritenute interessanti fornite dal chatbot.

  7. Personalizzazione del contesto. Fornire all'IA informazioni specifiche sul contesto e sul tuo background (senza violare la privacy) per ottenere risposte più pertinenti. Ad esempio, specificare il livello di competenza sull'argomento o il pubblico a cui ti rivolgi. Specificare eventuali preferenze linguistiche o culturali per evitare fraintendimenti. Si può fare localmente nel prompt o globalmente aggiornando la memoria del chatbot.

  8. Diversificazione. Per risposte importanti, chiedere a più chatbot. In particolare è meglio diversificare per area geografica, al fine di ridurre la probabilità di pregiudizi. Ad esempio, chiedere ad un chatbot americano, uno europeo e uno asiatico. E' anche possibile diversificare per stile di risposta: ad esempio Claude di Anthropic è notoriamente politicamente corretto, mentre Grok di xAI non lo è.

  9. Modello linguistico. Deciso un chatbot, scegliere il modello linguistico più idoneo a rispondere al proprio bisogno informativo. Ad esempio, usare:

    1. il modello che usa la ricerca connessa quando si vogliono avere anche le fonti a supporto della risposta (questo dovrebbe essere la normalità)

    2. il modello che usa il ragionamento per compiti che prevedono la soluzione attraverso una sequenza di passaggi intermedi che giungono logicamente ad una conclusione

    3. il modello che usa la ricerca profonda per compiti che prevedono ricerche complesse con risultati approfonditi e citazione delle fonti

  10. Integrazione nell'ecosistema tecnologico. Utilizzare l'IA generativa in combinazione con altre tecnologie per migliorare l'efficienza e le capacità di analisi. Ad esempio, integrare l'IA generativa con strumenti di analisi e visualizzazione di dati.

  11. Trasparenza nell’uso. Dichiarare esplicitamente quando un contenuto è stato generato o supportato da un'IA generativa, soprattutto in contesti professionali, educativi o di comunicazione pubblica.

  12. Privacy e sicurezza. Evitare di inserire nei prompt informazioni personali, riservate o sensibili, consapevoli del fatto che tali informazioni potrebbero essere utilizzate in modo non appropriato o divulgate accidentalmente. Studiare le impostazioni configurabili dei vari chatbot, come le chat temporanee di ChatGPT

  13. Consapevolezza dei limiti e bias. Essere consapevoli dei limiti, dei potenziali errori e pregiudizi incorporati nell'IA generativa, adottando un atteggiamento critico e prudente nell’interpretazione e nell’utilizzo dei risultati.

  14. Etica e responsabilità. Valutare attentamente le implicazioni etiche delle risposte ottenute dall'IA, evitando l'uso improprio o irresponsabile di informazioni che possano generare danni, discriminazioni o disinformazione.

  15. Conservazione della documentazione. Mantenere una documentazione chiara e dettagliata delle interazioni importanti con l'IA, inclusi i prompt utilizzati e le risposte ottenute, allo scopo di revisioni future o come possibile prova da esibire.

  16. Feedback. Segnalare errori o limiti riscontrati nelle risposte dell'IA generativa ai suoi sviluppatori, contribuendo così a migliorare i modelli futuri.

  17. Formazione continua. Aggiornarsi costantemente sull’evoluzione dell’IA generativa, sugli aggiornamenti dei modelli linguistici e sulle migliori pratiche d'uso, per massimizzare benefici e minimizzare rischi.

  18. Definizione di una politica d'uso. Stabilire regole interne su quando e come usare l’IA generativa (ad esempio: "Non usare IA per decisioni mediche e legali senza supervisione umana").

  19. Prevenzione della dipendenza. Fare pause consapevoli dall’uso dell’IA per mantenere vive le proprie capacità di problem-solving e creatività indipendenti, evitando di delegare eccessivamente al modello.

  20. Consapevolezza energetica e ambientale. Essere consapevoli dell'impatto ambientale dei sistemi di IA, cercando di utilizzarli in modo efficiente e sostenibile, evitando generazioni di contenuti superflui.

Last updated

Was this helpful?