La crescente diffusione di testi generati dall’intelligenza artificiale ha sollevato il bisogno di strumenti per riconoscere l’origine dei contenuti. Per rispondere a questa esigenza, Google DeepMind ha sviluppato SynthID-Text, un sistema che introduce una sorta di “firma digitale” invisibile nei testi generati dall’AI. Questa firma, chiamata watermark, può essere rilevata da un detector apposito, permettendo di verificare se il testo è stato generato da un modello di AI.
SynthID-Text funziona modificando in modo statistico alcune parole del testo generato, invisibile agli esseri umani, ma facilmente rilevabile da strumenti specializzati. Il sistema non compromette la qualità o la creatività del contenuto prodotto, ma rende più difficile distinguere tra testo umano e testo generato dall’AI senza un detector adeguato. Tuttavia, questa tecnologia non è ancora perfetta. Come ammettono gli stessi ricercatori di Google DeepMind, il watermark può essere facilmente oscurato se il testo viene significativamente modificato, ad esempio con un riassunto.
Google ha integrato il sistema nel suo chatbot Gemini e ha reso disponibile il tool agli sviluppatori e alle aziende per identificare testi generati dai propri modelli linguistici. Tuttavia, attualmente solo Google e alcuni sviluppatori hanno accesso al rilevatore che permette di verificare la presenza del watermark. L’uso di watermark è già diffuso per immagini e video, soprattutto per contrastare il fenomeno dei deepfake, ma applicarlo ai testi è più complesso. I deepfake sono contenuti falsificati utilizzando l’intelligenza artificiale, che rendono difficile distinguere tra realtà e creazione artificiale. SynthID-Text rappresenta un primo passo verso un sistema di identificazione affidabile per i contenuti testuali, sebbene non sia una soluzione definitiva. Il sistema è stato testato su 20 milioni di prompt e ha mostrato di non compromettere la qualità delle risposte, risultando altrettanto soddisfacente per gli utenti rispetto ai testi generati senza watermark.
La creazione di un sistema interoperabile per rilevare i watermark su testi generati da diverse AI rimane una sfida complessa. Anche se le grandi aziende tecnologiche aderissero a un accordo per implementare tali tecnologie, resterebbe il problema dei modelli open-source, facilmente modificabili per rimuovere il watermark. Inoltre, identificare testi “in libertà” può essere difficile, poiché è necessario conoscere quale modello di intelligenza artificiale ha prodotto il contenuto per sapere come rilevare il watermark.
In sintesi, la tecnologia di watermarking proposta da Google DeepMind rappresenta una promettente innovazione nella lotta per distinguere i testi creati dall’intelligenza artificiale, ma il cammino verso una soluzione completa e scalabile è ancora lungo.