githubEdit

Chatbot e come usarli

chevron-rightArtefatti NotebookLMhashtag

Chatbot

Un chatbot è un sistema di IA (bot) progettato per condurre conversazioni (chat) con esseri umani nella loro stessa lingua (linguaggio naturale).

Alla base di un chatbot esiste un Large Language Model (LLM), un modello computazionale sviluppato con tecniche di machine learning a partire da grandi quantità di dati (principalmente in forma testuale). Si noti che un chatbot può essere basato su diversi modelli linguistici con capacita differenti (ad esempio capacità di ragionamento o di ricerca profonda) che possono essere invocati separatamente.

circle-info

Ascolta il trailerarrow-up-right de L'altro zio Sam, podcast a cura del Sole 24 Ore su Sam Altman e la nascita dell'IA generativa

Chatbot allo stato dell'arte

Allo stato dell'arte esistono tre chatbot principali:

ChatGPT di OpenAI è stato rilasciato pubblicamente il 30 novembre 2022, ma le sue radici risalgono agli sviluppi iniziali di OpenAI nel campo dei modelli linguistici basati su reti neurali, come GPT-2 (2019) e GPT-3 (2020). OpenAI è stata fondata nel 2015 da, tra gli altri, Elon Musk e Sam Altman con l'obiettivo di sviluppare intelligenza artificiale sicura e accessibile. Inizialmente un'organizzazione senza scopo di lucro, OpenAI ha successivamente creato una struttura for-profit e ha ricevuto ingenti investimenti.

Gemini di Google è stato lanciato nel dicembre 2023 come successore di Bard, che era stato introdotto a marzo dello stesso anno. Sviluppato da Google DeepMind, la divisione AI di Google, Gemini rappresenta il risultato di anni di ricerca sui modelli di linguaggio e sull'intelligenza artificiale avanzata. Gemini si integra con l'ecosistema di applicazioni Google.

Claude di Anthropic è stato lanciato nel marzo 2023 dalla startup Anthropic, fondata nel 2021 da ex membri di OpenAI, tra cui Dario e Daniela Amodei. L’azienda è nata con l’obiettivo di sviluppare intelligenza artificiale sicura, adottando un approccio noto come IA costituzionale per migliorare il controllo e la trasparenza dei modelli. Secondo di Amodei, un modello di IA deve essere sviluppato secondo la logica delle 3 H, ovvero helpful, honest, harmless (utile, onesto e innocuo).

Chatbot emergenti

Segue una lista (non esaustiva) di chatbot emergenti:

Grok di xAI è un chatbot non woke, ovvero non politicamente corretto, sviluppato da xAI, fondata da Elon Musk. Per addestrare il modello, xAI ha potuto contare si dati di X (ex Twitter), dati aggiornati all'ultimo istante che continuano a fluire dentro al sistema. Questo ha permesso a Grok di essere aggiornato in tempo reale con le ultime notizie. Si integra con X.

DeepSeek è un'azienda cinese di intelligenza artificiale che ha guadagnato notorietà internazionale nel gennaio 2025 con il rilascio del suo chatbot omonimo. Fondata nel luglio 2023 DeepSeek ha sviluppato modelli di linguaggio open-soruce, efficienti e a basso costo (6 milioni di dollari su chip Nvidia meno avanzati rispetto a quelli usati dalla concorrenza americana). DeepSeek è soggetto alla censura cinese e la politica di gestione dei dati inseriti è opaca.

Le Chat è un chatbot sviluppato dall'azienda francese Mistral basato su un modello open source. La collaborazione con l'Agenzia France-Presse (AFP) permette a Le Chat di utilizzare i report dell'agenzia per fornire risposte pertinenti.

Vitruvian è un modello di intelligenza artificiale sviluppato dalla startup italiana ASC27, fondata dall'ingegnere Nicola Grandis. Il nome si ispira all'Uomo Vitruviano di Leonardo da Vinci, simbolo di genio e italianità. Vitruvian è stato addestrato principalmente in lingua italiana, con un dataset composto al 70% da contenuti in italiano, permettendogli di cogliere le sfumature grammaticali della lingua.

Modalità di utilizzo

Un chatbot si può oramai usare in diverse modalità; spesso modalità diverse corrisponde a modelli linguistici differenti:

  1. Prompt: risposta semplice

  2. Search: risposta connessa

  3. Reason: risposta ragionata

  4. Research: risposta profonda

  5. Study: tutor interattivo

  6. Live: conversazione in tempo reale

  7. Agent: agenti che fanno cose

chevron-rightPensieri lenti e velocihashtag

Pensieri lenti e veloci (Thinking, Fast and Slow) è un saggio pubblicato nel 2011 da Daniel Kahneman, psicologo e premio Nobel per l'economia.

Il testo esplora il funzionamento della mente umana, descrivendo due modalità di pensiero:

  1. Sistema 1 (Veloce, Intuitivo, Automatico)

    • Opera senza sforzo e in modo istintivo.

    • È responsabile di reazioni immediate, riconoscimento di volti, lettura di emozioni, intuizioni rapide.

    • Tende a semplificare la realtà, portando a errori e bias cognitivi.

  2. Sistema 2 (Lento, Razionale, Riflessivo)

    • Richiede concentrazione e sforzo.

    • È utilizzato per compiti complessi come calcoli matematici, decisioni logiche, analisi approfondite.

    • È più accurato, ma anche più faticoso e meno utilizzato di quanto pensiamo.

L'IA generativa potrebbe essere usata dagli umani come un Sistema 1.5, ovvero uno strato intermedio tra un sistema veloce e intuitivo e uno lento e ragionato:

  • intuizione immediata (sistema 1)

  • riscontro veloce con IA (sistema 1.5)

  • verifica lenta (sistema 2)

L’IA generativa ha in verità molti tratti in comune col Sistema 1:

  • Velocità e associazione → L’IA genera contenuti in modo rapido e fluido, proprio come il Sistema 1, che produce risposte immediate basate su schemi appresi

  • Euristiche → I modelli generativi lavorano su pattern probabilistici, senza necessariamente comprendere concetti astratti, esattamente come il Sistema 1 che utilizza euristiche per prendere decisioni rapide

  • Propensione agli errori e ai bias → L’IA, come il Sistema 1, può cadere in illusioni cognitive (es. allucinazioni nei modelli di linguaggio), poiché non ragiona logicamente ma basa le sue risposte su associazioni statistiche.

L’IA generativa può anche simulare il Sistema 2:

  • Capacità di simulare il ragionamento → I modelli avanzati possono svolgere compiti analitici e risolvere problemi complessi, simulando il Sistema 2. Tuttavia, questa è solo un’apparenza, perché non hanno una vera consapevolezza del processo logico.

In definitiva, l'IA generativa opera principalmente come un Sistema 1 avanzato: è rapida, associa informazioni, a fronte di uno stimolo (prompt) genera risposte senza una vera riflessione critica, ed è soggetta a pregiudizi (bias). Tuttavia, attraverso l’addestramento su grandi dataset e tecniche di ottimizzazione, può simulare processi tipici del Sistema 2, pur senza comprenderli realmente.

Prompt: risposta semplice

La semplice scrittura di prompt è ancora la più usata. A fronte di un prompt testuale (imbeccata), il chatbot fornisce una risposta (testuale o visuale). Alcuni esempi sono:

  • Qual è il rapporto tra filosofia e IA?

  • Qual è il futuro del lavoro nell'era dell'IA?

  • Parlami del modello di gravità quantistica che Roger Penrose sostiene agire nel nostro cervello e quali sono le connessioni con l'IA

  • In cosa consiste il problema dell'allineamento dei valori nell'IA?

Search: risposta connessa

Nella modalità Search il chatbot ha accesso ad un motore di ricerca del web e riesce a fornire le fonti delle informazioni che possono essere seguite per una verifica più approfondita.

La modalità Search permette quindi di accedere a informazioni aggiornate in tempo reale tramite il web. In pratica, invece di basarsi solo sulla conoscenza statica, il modello può effettuare ricerche online per ottenere dati aggiornati e precisi.

Seguono alcuni esempi di prompt di ricerca connessa:

  • In che fase di mercato si trova bitcoin al momento?

  • Qual è l'attuale sentimento nei confronti della cultura woke?

  • Qual è l'attuale politica economica della Banca Centrale Europea (BCE)?

Reasoning: risposta ragionata

La modalità Reasoning si distingue per la capacità del modello di dedicare più tempo al ragionamento prima di generare una risposta, simulando un processo più simile a quello del pensiero umano:

  • invece di fornire una risposta immediata, il modello crea una sequenza logica di ragionamenti interni per arrivare alla soluzione. Si parla di catena di pensiero (chain of thought)

  • questo approccio è simile al problem-solving umano, in cui si scompone un problema in passaggi più piccoli prima di trovare la risposta

  • il modello si prende più tempo per elaborare la risposta, utilizzando risorse computazionali aggiuntive per garantire una maggiore accuratezza

Seguono alcuni casi di utilizzo della modalità di ragionamento:

Formalizzare e dimostrare un teorema

Il paradosso dell'amicizia è il fenomeno osservato per la prima volta dal sociologo Scott L. Feld nel 1991 per il quale la maggior parte della gente ha meno amici di quanti ne hanno i suoi amici, in media.

  • Fornisci una spiegazione intuitiva di questo paradosso

  • Formalizza matematicamente il paradosso e dimostralo

Correggere un codice semanticamente errato

Il codice è corretto sintatticamente, ma concettualmente sbagliato. Ad esempio, consideriamo questo codice Python che verifica se un numero è primo:

Il codice corretto è il seguente:

Risolvere un problema logico

Ci sono due palline, una rossa e una blu. Una persona, che chiameremo Alice, che distingue i colori, deve dimostrare con ragionevole certezza ad un'altra persona, che chiameremo Bob, che invece è daltonica e non distingue i colori, che le palline hanno colore diverso. Supponiamo che Alice non possa usare alcuna caratteristica fisica della palline (che a parte il colore sono identiche) e nessuno strumento esterno che ne sveli il colore. Come potrebbe fare a convincere Bob?

Deep Research: risposta profonda

La modalità Research (etichettata in svariati modi: Deep Research, Deep Search, Think Deeper, Deep Think) è una funzionalità avanzata che consente al chatbot di eseguire ricerche approfondite e autonome sul web per rispondere a compiti complessi. Questa modalità è progettata per fornire rapporti dettagliati con citazioni alle fonti su argomenti specifici, simulando il lavoro di un analista umano.

Casi d'uso

  1. Un analista politico deve valutare le conseguenze economiche dell'imposizione dei dazi da parte degli USA. Potrebbe chiedere: "Analizza gli effetti delle imposizioni di dazi da parte del presidente Donald Trump, considerando gli impatti a breve e medio termine su finanza e economia USA e del resto del mondo".

  2. Un avvocato specializzato in diritto tecnologico vuole confrontare le regolamentazioni sull'IA in diversi paesi. Potrebbe chiedere: "Confronta il regolamento europeo sull'IA con la strategia normativa adottata dagli Stati Uniti e dalla Cina. Evidenzia differenze chiave e implicazioni per le aziende tecnologiche".

  3. Un ricercatore vuole trovare lavori correlati rispetto ad un articolo sul Quadratic Voting che sta scrivendo. Potrebbe chiedere: "Analizza la letteratura scientifica esistente sul Quadratic Voting. Per ogni riferimento, fornisci una breve sintesi del lavoro e il riferimento bibliografico in formato BibTeX".

  4. Un medico vuole investigare il caso di una persona affetta da dislipidemia con alti valori di trigliceridi ma valori normali di colesterolo. Potrebbe chiedere: "Ho un paziente che soffre di dislipidemia, in particolare ha valori regolari di colesterolo ma molto elevati di trigliceridi. Ha una dieta equilibrata e fa sport regolarmente. In base alle evidenze scientifiche pubblicate su riviste mediche autorevoli, quali possono essere le cause e quali i rimedi per abbassare il livello di trigliceridi nel sangue?"

Study: tutor interattivo

La modalità Study è una modalità progettata per trasformare il chatbot da “fornitore di risposte” a “tutor interattivo”, con l’obiettivo di favorire un apprendimento più profondo e critico.

Quando attivi Study, l’interazione con con il chatbot cambia in questi modi principali:

  • Domande socratiche / guida al ragionamento: invece di dare subito la risposta, il chatbot ti pone domande per capire il tuo livello, stimolare riflessione e portarti verso la soluzione.

  • Spiegazioni progressive e strutturate: i concetti vengono spezzettati in blocchi chiari, partendo da nozioni semplici e costruendo gradualmente complessità.

  • Controlli di comprensione / quiz: possono essere proposti esercizi o domande aperte per valutare cosa hai assimilato, con feedback mirati.

Google offre lo strumento NotebookLMarrow-up-right utile, tra le altre cose, per lo studio di un argomento. Con questo strumento è possibile:

  • caricare diverse fonti che includono testo, registrazioni vocali, video e siti Web.

  • interagire direttamente con l'intelligenza artificiale tramite una conversazione, ponendo domande le cui risposte sono basate sui materiali caricati come fonti, complete di citazioni in linea che mostrano da quale fonte proviene l'informazione.

  • generare sintesi testuali, audio e video, guide allo studio, infografiche, mappe mentali, quiz e flashcards a partire dalle fonti.

Live: conversazione in tempo reale

La modalità Live offre conversazioni in tempo reale, specialmente su dispositivi mobili. Questa funzionalità consente agli utenti di interagire vocalmente con il chatbot, rendendo l'esperienza più naturale e immediata.

Le funzionalità principali della modalità Live sono:

  • Interazione vocale: gli utenti possono parlare direttamente con il chatbot utilizzando il microfono del dispositivo simulando una conversazione con botta e risposta della durata arbitraria. Il chatbot ricorda il contesto (il dialogo precedente) e reagisce di conseguenza. Utile per approfondire un argomento quando non si sta difronte ad un computer.

  • Videocamera live: questa funzione permette al chatbot di vedere attraverso la fotocamera del dispositivo, analizzando immagini o scene in tempo reale. Ad esempio, puntando la fotocamera verso un oggetto, il chatbot può identificarlo e fornire informazioni pertinenti

  • Condivisione dello schermo: gli utenti possono condividere lo schermo del proprio smartphone durante la conversazione, mostrando immagini, siti web o documenti che desiderano discutere con l'IA

Alcuni esempi concreti di utilizzo della modalità Live:

  1. Supporto tecnico immediato: utilizzando la videocamera, gli utenti possono mostrare problemi tecnici specifici al chatbot, ricevendo assistenza passo-passo per risolverli

  2. Guida turistica interattiva: puntando la fotocamera verso un monumento o un'opera d'arte, il chatbot può fornire informazioni storiche e culturali, arricchendo l'esperienza del visitatore

  3. Shopping assistito: mostrando un prodotto attraverso la videocamera, è possibile ottenere informazioni su caratteristiche, prezzi o recensioni, facilitando decisioni d'acquisto informate

L'introduzione di funzionalità come la videocamera live e la condivisione dello schermo solleva questioni relative alla privacy, poiché il chatbot potrebbe accedere a informazioni personali sensibili. È fondamentale che gli utenti siano consapevoli dei dati condivisi e utilizzino queste funzionalità con cautela.

Agent: fare azioni

L'IA agentica rappresenta un'evoluzione significativa nel campo dell'IA, caratterizzata dalla capacità dei sistemi di agire autonomamente, prendere decisioni e svolgere compiti complessi senza supervisione umana continua. Questi modelli consentono all'agente di vedere (attraverso screenshot) e interagire (utilizzando tutte le azioni consentite da mouse e tastiera) con un browser, permettendogli di agire sul web senza richiedere integrazioni API personalizzate.

Alcuni esempi concreti di utilizzo della modalità Agent sono:

  1. Assistenza personale digitale: Agenti in grado di gestire autonomamente attività quotidiane come programmare appuntamenti, ordinare prodotti online o organizzare viaggi, interagendo direttamente con applicazioni e servizi web.

  2. Servizio clienti automatizzato: Implementazione di agenti IA in contact center per rispondere a domande frequenti, risolvere problemi comuni e indirizzare richieste più complesse agli operatori umani, migliorando l'efficienza operativa.

  3. Automazione dei processi aziendali: Utilizzo di agenti per monitorare e ottimizzare processi interni, come la gestione dell'inventario o l'elaborazione di transazioni finanziarie, riducendo errori e tempi di elaborazione.

Principi d'uso

Ethan Mollick nel suo libro Co-Intelligence enuncia alcuni principi per l'uso per l'IA.

Always invite AI to the table

Dovreste provare a invitare l'intelligenza artificiale ad aiutarvi in tutto ciò che fate, a meno di barriere legali o etiche. Sperimentando, potreste scoprire che l'aiuto dell'IA può essere soddisfacente, frustrante, inutile, o snervante.

L'IA è ciò che gli studiosi di tecnologia chiamiamo General Purpose Technology (ironicamente abbreviata in GPT). Si tratta di tecnologie che si presentano una sola volta in una generazione, come l'energia a vapore o Internet, e che toccano ogni settore e ogni aspetto della vita. Poiché l'intelligenza artificiale è una General Purpose Technology, non esiste un singolo manuale o libro di istruzioni a cui fare riferimento per comprenderne il valore e i limiti.

Be the human in the loop

Per ora, l'IA funziona meglio con l'aiuto dell'umano e voi volete essere quell'umano utile. Quando l'IA diventerà sempre più capace e richiederà meno aiuto umano, vorrete comunque essere quell'umano.

L'approccio human-in-the-loop favorisce il senso di responsabilità. Partecipando attivamente al processo di sviluppo e messa a punto dell'IA, si mantiene il controllo sulla tecnologia e sulle sue implicazioni, garantendo che le soluzioni guidate dall'IA siano in linea con i valori umani, gli standard etici e le norme sociali. Inoltre, se l'IA dovesse continuare a migliorare, essere stati tra i primi a bordo significherà vedere le scintille dell'intelligenza crescente prima di altri, dandovi più possibilità di adattarvi ai cambiamenti in arrivo rispetto alle persone che non lavorano a stretto contatto con l'IA.

Treat AI like a person

I sistemi di intelligenza artificiale non hanno coscienza, emozioni, senso del sé o sensazioni fisiche. Ma meglio far finta che ce l'abbiano. Per quanto l'analogia sia imperfetta, lavorare con l'IA è più facile se la si considera come una persona aliena piuttosto che come una macchina costruita dall'uomo.

L'IA è più simile ad un umano che a un software tradizionale:

  1. Il software tradizionale è prevedibile, affidabile e segue un insieme rigoroso di regole. Se costruito e verificato correttamente, il software produce sempre gli stessi risultati. L'intelligenza artificiale, invece, è tutt'altro che prevedibile e affidabile. Può sorprenderci con soluzioni inedite, dimenticare le proprie capacità, dare risposte errate e farneticare.

  2. Inoltre, di solito sappiamo cosa fa un software tradizionale, come lo fa e perché lo fa. Con l'IA, invece, siamo spesso all'oscuro di tutto.

  3. Infine, il software tradizionale è corredato da un manuale operativo. L'intelligenza artificiale, invece, non dispone di tali istruzioni.

E' inoltre utile dire al sistema che tipo di persona è, perché questo gli dà una prospettiva. Definendo il suo personaggio, impegnandosi in un processo collaborativo e fornendo continuamente indicazioni, è possibile sfruttare l'IA come forma di co-intelligenza collaborativa.

chevron-rightElizahashtag

Nel 1966 l’informatico del MIT Joseph Weizenbaum divenne famoso per avere sviluppato un semplicissimo chatbot, che chiamò Eliza, che poteva emulare uno psicoterapeuta ponendo domande generiche al paziente, riformulando le risposte del paziente e spingendolo a continuare

Da allora, nell’informatica, chiamiamo effetto Eliza la tendenza degli utenti di un sistema informatico a proiettare tratti umani su di esso, per esempio attribuendogli capacità di empatia e comprensione, quando l’interazione avviene attraverso un dialogo testuale.

Assume this is the worst AI you will ever use

Le possibilità di utilizzare l'intelligenza artificiale per trasformare il lavoro, la vita e se stessi, che ora possiamo intravedere, sono potenzialmente solo all'inizio.

In altri termini, anche se non ce ne rendiamo conto, stiamo usando una versione primitiva dell'IA generativa. Stiamo giocando a Pac-Man in un mondo che presto avrà la PlayStation.

Buone pratiche

Seguono alcune buone pratiche dell'uso dell'IA generativa:

  1. Complementarietà. Usare l'IA generativa come uno strumento di ausilio ed estensione delle proprie capacità e non di sostituzione dell'umano. Vedere l'interazione con l'IA generativa come una collaborazione.

  2. Conoscenza pregressa. Applicare l'IA generativa ad argomenti su cui di possiede già una discreta conoscenza (al fine di smascherare possibili confabulazioni).

  3. Verifica incrociata. Confrontare regolarmente le informazioni generate dall'IA generativa con fonti esterne affidabili e indipendenti, inclusi esperti di dominio umani, per garantire accuratezza e affidabilità.

  4. Prompt engineering. Formulare domande chiare, precise e dettagliate, specificando contesto, finalità e formato desiderato, per ridurre ambiguità e migliorare la qualità delle risposte. Specificare anche lo stile della risposta, ad esempio preferire un linguaggio più formale per ambiti professionali o accademici e uno stile colloquiale per interazioni informali.

  5. Iteratività. Affinare progressivamente il prompt sulla base delle risposte ricevute, utilizzando un dialogo iterativo per ottenere risultati sempre più accurati e mirati. Eventualmente, mantenere un archivio delle diverse versioni dello stesso prompt. Alcuni LLM permettono di modificare il prompt ottenendo una nuova risposta. In questo modo è possibile creare una ramificazione navigabile di tutti i prompt scritti e le relative risposte.

  6. Sviluppo incrementale. Raffinare progressivamente e in modo incrementale la risposta sottoponendola a più chatbot in sequenziale. Ad ogni passaggio, integrare nella risposta le parti nuove e ritenute interessanti fornite dal chatbot.

  7. Personalizzazione del contesto. Fornire all'IA informazioni specifiche sul contesto e sul proprio background (senza violare la privacy) per ottenere risposte più pertinenti. Ad esempio, specificare il livello di competenza sull'argomento o il pubblico a cui ti rivolgi. Specificare eventuali preferenze linguistiche o culturali per evitare fraintendimenti. Si può fare localmente nel prompt o globalmente aggiornando la memoria del chatbot.

  8. Diversificazione. Per risposte importanti, chiedere a più chatbot. In particolare è meglio diversificare per area geografica, al fine di ridurre la probabilità di pregiudizi. Ad esempio, chiedere ad un chatbot americano, uno europeo e uno asiatico. E' anche possibile diversificare per stile di risposta: ad esempio Claude di Anthropic è notoriamente politicamente corretto, mentre Grok di xAI non lo è.

  9. Modello linguistico. Deciso un chatbot, scegliere il modello linguistico più idoneo a rispondere al proprio bisogno informativo. Ad esempio, usare:

    1. il modello che usa la ricerca connessa quando si vogliono avere anche le fonti a supporto della risposta (questo dovrebbe essere la normalità)

    2. il modello che usa il ragionamento per compiti che prevedono la soluzione attraverso una sequenza di passaggi intermedi che giungono logicamente ad una conclusione

    3. il modello che usa la ricerca profonda per compiti che prevedono ricerche complesse con risultati approfonditi e citazione delle fonti

  10. Integrazione nell'ecosistema tecnologico. Utilizzare l'IA generativa in combinazione con altre tecnologie per migliorare l'efficienza e le capacità di analisi. Ad esempio, integrare l'IA generativa con strumenti di analisi e visualizzazione di dati.

  11. Trasparenza nell’uso. Dichiarare esplicitamente quando un contenuto è stato generato o supportato da un'IA generativa, soprattutto in contesti professionali, educativi o di comunicazione pubblica.

  12. Privacy e sicurezza. Evitare di inserire nei prompt informazioni personali, riservate o sensibili, consapevoli del fatto che tali informazioni potrebbero essere utilizzate in modo non appropriato o divulgate accidentalmente. Studiare le impostazioni configurabili dei vari chatbot, come le chat temporanee di ChatGPT

  13. Consapevolezza dei limiti. Essere consapevoli dei limiti, dei potenziali errori e pregiudizi incorporati nell'IA generativa, adottando un atteggiamento critico e prudente nell’interpretazione e nell’utilizzo dei risultati.

  14. Etica e responsabilità. Valutare attentamente le implicazioni etiche delle risposte ottenute dall'IA, evitando l'uso improprio o irresponsabile di informazioni che possano generare danni, discriminazioni o disinformazione.

  15. Conservazione della documentazione. Mantenere una documentazione chiara e dettagliata delle interazioni importanti con l'IA, inclusi i prompt utilizzati e le risposte ottenute, allo scopo di revisioni future o come possibile prova da esibire.

  16. Feedback. Segnalare errori o limiti riscontrati nelle risposte dell'IA generativa ai suoi sviluppatori, contribuendo così a migliorare i modelli futuri.

  17. Formazione continua. Aggiornarsi costantemente sull’evoluzione dell’IA generativa, sugli aggiornamenti dei modelli linguistici e sulle migliori pratiche d'uso, per massimizzare benefici e minimizzare rischi.

  18. Definizione di una politica d'uso. Stabilire regole interne su quando e come usare l’IA generativa (ad esempio: "Non usare IA per decisioni mediche e legali senza supervisione umana").

  19. Prevenzione della dipendenza. Fare pause consapevoli dall’uso dell’IA per mantenere vive le proprie capacità di problem-solving e creatività indipendenti, evitando di delegare eccessivamente al modello.

  20. Consapevolezza energetica e ambientale. Essere consapevoli dell'impatto ambientale dei sistemi di IA, cercando di utilizzarli in modo efficiente e sostenibile, evitando generazioni di contenuti superflui.

Last updated