Sviluppata una tecnologia che permette di rilevare i contenuti scritti dall’intelligenza artificiale, anche se modificati o parafrasati
L’intelligenza artificiale sta trasformando il mondo della scrittura, ma come distinguere i contenuti generati da un essere umano da quelli prodotti da modelli avanzati come ChatGPT e Google Gemini? Un nuovo sistema potrebbe risolvere il problema: un watermark digitale invisibile in grado di rilevare se un testo è stato scritto da un’AI, anche se modificato o parafrasato.
Lo sviluppo di questa tecnologia è guidato da Yuheng Bu, Ph.D., professore presso il Dipartimento di Ingegneria Elettrica e Informatica dell’Università della Florida. “Se uno studente utilizza ChatGPT per scrivere un compito, non vuole che il professore lo scopra. Ma con questa tecnologia, potremmo identificare con certezza i testi generati dall’AI”, ha dichiarato Bu.
Un nuovo metodo per identificare i testi generati dall’AI
L’idea alla base della ricerca è semplice: incorporare segnali invisibili nei testi generati dalle AI, creando un sistema di verifica affidabile. Il watermark viene applicato direttamente durante la generazione del testo, restando impercettibile all’occhio umano ma riconoscibile dagli strumenti di verifica.
L’obiettivo di Bu e del suo team è semplice:
- Garantire che la qualità del testo resti invariata anche dopo l’inserimento del watermark
- Garantire che il watermark sia resistente a modifiche come sinonimi, parafrasi o ristrutturazioni del testo
Questa tecnologia è stata testata utilizzando HiPerGator, il supercomputer dell’Università della Florida, con risultati promettenti.
Watermarking: il futuro della verifica dei contenuti digitali
Grandi aziende tecnologiche stanno già sperimentando sistemi di watermark per contrastare l’uso improprio dell’AI. Google DeepMind, ad esempio, ha implementato una tecnologia simile per i chatbot.
Ma cosa rende unico il sistema sviluppato da Bu?
- Il watermark viene applicato solo su alcune parti del testo, garantendo una maggiore qualità e resistenza alla rimozione
- Anche se il contenuto viene modificato o parafrasato, il watermark rimane rilevabile con un’alta probabilità
La chiave per rilevare il watermark è custodita dall’entità che applica la marcatura digitale, come OpenAI o Google. “Se un testo è stato generato da ChatGPT, solo OpenAI possiede la chiave per verificare il watermark“, spiega Bu.
Il futuro dell’intelligenza artificiale tra trasparenza e sicurezza
Il problema attuale è chi detiene le chiavi di verifica e come gli utenti possono accedervi. Secondo Bu, la soluzione potrebbe essere un ecosistema centralizzato per la gestione delle chiavi o lo sviluppo di metodi avanzati che non ne richiedano l’utilizzo.
Bu ha già pubblicato diversi studi sul watermarking per l’AI, tra cui il paper “Adaptive Text Watermark for Large Language Models”, presentato alla conferenza ICML 2024.
“I watermark possono diventare uno strumento fondamentale per garantire fiducia e autenticità nell’era dell’AI generativa”, conclude Bu. “Il mio obiettivo è vederli adottati nelle scuole, nelle università e nelle piattaforme digitali per distinguere i contenuti reali dalla disinformazione”.