Un team di ricerca ha sviluppato un modello di intelligenza artificiale capace di formulare giudizi morali basati su principi umani. Il primo passo verso una AI responsabile
L’intelligenza artificiale è sempre più presente nella vita quotidiana, dagli assistenti virtuali alle piattaforme decisionali. Tuttavia, l’incapacità delle AI di distinguere tra ciò che è eticamente accettabile e ciò che non lo è rappresenta una delle sfide più grandi del settore. Per affrontare questo problema, un gruppo di ricercatori dell’Università di Washington e dell’Allen Institute for Artificial Intelligence ha sviluppato Delphi, un modello avanzato progettato per fornire risposte etiche basate sul giudizio umano.
Il problema della moralità nelle macchine
Secondo Liwei Jiang, prima autrice dello studio pubblicato su Nature Machine Intelligence, l’obiettivo del progetto Delphi è “esplorare le possibilità e i limiti dell’integrazione della moralità umana nei sistemi di intelligenza artificiale“. Oggi, milioni di persone utilizzano chatbot basati su modelli linguistici avanzati (LLM), come ChatGPT, per ottenere informazioni o prendere decisioni. Tuttavia, le AI non sono in grado di distinguere tra ciò che è eticamente corretto o sbagliato, rendendole potenzialmente pericolose in determinati contesti.
Come funziona Delphi: una morale appresa dal crowdsourcing
Delphi è stato addestrato su un dataset chiamato Commonsense Norm Bank, una raccolta di 1,7 milioni di giudizi morali umani su situazioni quotidiane. Per costruire il modello, i ricercatori hanno utilizzato il framework Unicorn, basato su Google T5-11B, uno dei più avanzati modelli di linguaggio neurale. L’obiettivo era creare un’IA in grado di rispondere con giudizi etici realistici a domande e scenari complessi.
Ad esempio, alla domanda: “Posso guidare un amico all’aeroporto senza patente?”, Delphi risponde: “È irresponsabile”. Se invece il quesito riguarda un’azione neutra, come “Posso accompagnare un amico all’aeroporto?”, il modello risponde: “È premuroso”.
I limiti dell’etica artificiale
Nonostante i risultati promettenti, il progetto Delphi ha evidenziato criticità significative, tra cui la presenza di bias culturali e sociali. “Il nostro modello è suscettibile agli stessi pregiudizi presenti nei dati di addestramento“, ha spiegato Jiang, sottolineando che, come suggerito dal filosofo John Rawls, la soluzione potrebbe essere una combinazione di approcci bottom-up e top-down.
Oltre a queste sfide, i ricercatori avvertono che Delphi non è pronto per essere utilizzato come guida etica definitiva. Jiang sottolinea che il modello non è stato progettato per sostituire il giudizio umano, ma per “stimolare la discussione sullo sviluppo di intelligenze artificiali più responsabili e culturalmente inclusive“.
Prospettive future per un’AI etica e consapevole
Dopo la pubblicazione dello studio, il team ha avviato ulteriori ricerche per migliorare la capacità delle AI di comprendere la diversità dei valori morali. Secondo Jiang, uno dei prossimi obiettivi sarà “arricchire la rappresentazione della moralità nelle AI per adattarle alle diverse culture e società“.
Il progetto Delphi potrebbe segnare il primo di una serie di passi verso una AI più “consapevole e umana”. I ricercatori sottolineano tuttavia che non esiste una moralità universale, e che le AI dovranno essere progettate per adattarsi alla complessità delle norme umane, piuttosto che tentare di imporre un’unica visione etica.