Sistemi di IA al posto dei giornalisti, il test della BBC: “Un disastro”

ChatGPT, Copilot, Gemini e Perplexity non sono stati in grado di riassumere le news in modo affidabile: ancora evidente una forte tendenza agli errori

Le Intelligenze artificiali, nelle già molteplici versioni sviluppate in giro per il mondo, consentono all’uomo di raggiungere risultati incredibili nei più disparati settori. Ma che cosa succede se la si lascia libera di operare senza la supervisione di un professionista? I giornalisti della piattaforma televisiva britannica BBC hanno voluto mettere alla prova quattro delle IA più famose, e i risultati sono stati tutt’altro che incoraggianti.

Le altre notizie del canale Innovazione

BBC testa ChatGPT, Copilot, Gemini e Perplexity

ChatGPT, Copilot, Gemini e Perplexity sono state messe alla prova con un esercizio tutto sommato semplice. I giornalisti hanno fornito ai sistemi “intelligenti” 100 notizie del giorno, chiedendo dei normali riassunti. I risultati sono stati poi valutati.

Il 51% delle risposte IA presenta errori gravi

Stando a quanto riferito dai professionisti della BBC il 51 per cento di tutte le risposte presentavano uno o più problemi. Non semplici refusi, umanamente accettati, ma “gravi imprecisioni”. Nel 19 per cento dei casi numeridati e percentuali sono stati letteralmente inventati di sana pianta.

IA veloci ma inaffidabili senza controllo umano

I modelli di Intelligenza Artificiale, benché impressionanti per rapidità, necessitano dunque di una guida esperta, di un “controllore specializzato” nella materia trattata. ChatGPT, Copilot, Gemini e Perplexity, lasciati liberi di elaborare le informazioni, si sono dimostrati tutti “inaffidabili”. Moltissime le informazioni datate spacciate per recenti, come tante sono state le opinioni scambiate per fatti assodati.

Errori IA: rischio legale per dati falsi

Il test, non impegnativo rispetto al lavoro che un giornalista è chiamato a svolgere quotidianamente, dimostra la necessità di non affidarsi ancora completamente a questi sistemi. Le allucinazioni, così vengono chiamate le “sviste più clamorose” dei sistemi IA, possono esser causa di problemi, anche legali. I gruppi che stanno dietro ai diversi sistemi sono da tempo impegnati nel minimizzare i possibili errori, ma ad oggi una soluzione “risolutoria” non esiste.

L’IA non può ancora sostituire l’uomo

Le allucinazioni sono certamente meno frequenti, ma per chi desidera informazioni attendibili, al pari di ricerche scientifiche accurate, le IA non possono esser usate come lo strumento autonomo in grado di sostituire una intera categoria.

Fonte:

Correlati