Frodi, disinformazione, crimini informatici. Sono queste le aree di preoccupazione individuate in un rapporto dell’ufficio europeo di polizia (Europol) in relazione all’utilizzo di ChatGPT, il prototipo di chatbot basato sull’intelligenza artificiale (IA) e l’apprendimento automatico sviluppato da OpenAI e specializzato nella conversazione con un utente umano.
Cosa è un chatbot
Un chatbot è un programma informatico progettato per condurre conversazioni in linguaggio naturale con gli utenti, al fine di fornire informazioni, assistenza o eseguire compiti specifici. In poche parole, un chatbot simula una conversazione umana attraverso l’utilizzo di messaggi testuali o vocali.
Il funzionamento di un chatbot si basa su algoritmi e tecniche di Intelligenza Artificiale (AI) come il Natural Language Processing (NLP) che gli permettono di comprendere il contenuto dei messaggi inviati dall’utente e di formulare risposte coerenti e pertinenti.
In genere, i chatbot vengono programmato per eseguire specifiche attività, ad esempio fornire informazioni su prodotti o servizi, assistere nella prenotazione di viaggi o rispondere a domande frequenti. Possono anche essere progettati per apprendere dalle interazioni con gli utenti e migliorare le loro risposte nel tempo.
I chatbot possono essere integrati in diverse piattaforme come Facebook Messenger, WhatsApp o sul sito web dell’azienda. Molto spesso sono utilizzati dalle aziende per automatizzare i processi di servizio clienti, migliorare l’esperienza dell’utente e ridurre i tempi di risposta alle richieste dei clienti.
Il rapporto Europol
Il rapporto, che raccoglie le riflessioni emerse in una serie di seminari dedicati al potenziale uso illegale di ChatGPT, sottolinea come il chatbot sia già in grado di “facilitare un numero significativo di attività criminali, che vanno dalla garanzia di anonimato dei criminali a crimini specifici tra cui il terrorismo e lo sfruttamento sessuale dei minori”.
La capacità di ChatGPT di redigere testi altamente autentici lo rende uno “strumento estremamente utile per scopi di phishing”, si osserva nel rapporto, aggiungendo che la produzione di e-mail di phishing, così come di comunicazioni simili a quelle umane e di disinformazione, è “già preoccupantemente sofisticata”.
I modelli di linguaggio di grandi dimensioni intelligenti (LLM) come ChatGPT, impiegati per attività illecite, potrebbero diventare un “modello di business criminale chiave del futuro”, avverte Europol, sottolineando infine come ciò ponga “una nuova sfida per le forze dell’ordine”.
Fonte: Ansa