Frontoni: “Perché l’intelligenza artificiale non è un pericolo per l’uomo”

Intelligenza artificiale. Immagine di repertorio. Foto di Possessed Photography su Unsplash

Che cosa è l’intelligenza artificiale? Come funziona? Cosa significa ‘generativa’? E, soprattutto, è un percolo per l’umanità? Interris.it lo ha chiesto ad un esperto, l’ingegnere Emanuele Frontoni, Full Professor of Computer Science presso l’Università di Macerata, co-director VRAI Lab presso l’Università Politecnica delle Marche.

L’intervista a Emanuele Frontoni

Che cos’è l’intelligenza artificiale?

“Il sogno dell’essere umano è quello di replicare all’interno di una macchina l’intelligenza umana e tutte le sue capacità: pensare, ragionare, generalizzare, collegare, creare. Però quando si parla di intelligenza artificiale bisogna essere attenti, perché la realtà è ben diversa dal sogno e dalla fantascienza. I parallelismi – anche linguistici – tra cervello e IA sono puramente metaforici: non c’è realmente nulla di simile tra un neurone del cervello umano e il neurone tecnologico che si usa nella rete neurale artificiale della IA. Così come il termine stesso ‘intelligenza’ è fuorviante. Tanto che nel gergo tecnologico chiamiamo il grande mondo della IA machine learning o deep learning, vale a dire ‘apprendimenti di macchine’ o ‘apprendimenti profondi’. Sono concetti molto distanti dall’intelligenza umana”.

Quando è stato coniato per la prima volta il termine IA?

“Il termine intelligenza artificiale è stato coniato in inglese, Artificial intelligence (AI), per la prima volta nel 1956, anno in cui si tenne una famosa conferenza estiva presso il Dartmouth College di Hannover, nel New Hampshire, in America. Da quella storica prima conferenza, sono passati 67 anni”.

A che punto siamo ora con la IA?

“A quasi 7 decenni di distanza, siamo al punto che non abbiamo ancora evidenze scientifiche di quella che viene definita ‘intelligenza artificiale generale’, vale a dire una IA con capacità uguali a quelle dell’essere umano. Ma abbiamo molte evidenze scientifiche del fatto che siamo capaci di lavorare nel mondo della cosiddetta ‘intelligenza artificiale ristretta’ o, in inglese, narrow AI”.

Che cosa è l’intelligenza artificiale ristretta?

“E’ una IA che ci permette concretamente di fare cose molto specifiche, particolarmente bene. Ad esempio: riconoscere mail benigne dalle maligne e le fakes news; capire quali siano le tendenze della moda; riuscire a scrivere dei pezzi, anche giornalistici; tradurre in tutte le lingue del mondo. Queste azioni le narrow AI le sanno fare, ma con un’accortezza: non riescono a generalizzare. Ad esempio, la stessa rete neurale artificiale che si usa per riconoscere il volto delle persone, riesce benissimo in questo, ma non riesce a riconoscere i nei maligni da quelli benigni. E viceversa: la IA che è in grado di riconoscere i nei maligni da quelli benigni non riesce a riconoscere i volti. Questo significa intelligenza artificiale ristretta, vale a dire molto settoriale”.

Recentemente si parla di intelligenza artificiale generativa. Di cosa si tratta?

“Si tratta di algoritmi in grado di generare dei testi e delle immagini molto realistiche. Molto si è parlato in questi giorni di ChatGPT e delle possibili problematiche ad esso correlate. Ma anche in questo caso bisogna fare chiarezza: questi algoritmi non hanno coscienza semantica di ciò che leggono o scrivono. Sono addestrati per generare la più probabile prossima parola partendo dal gruppo di parole precedenti. Questo permette loro di scrivere testi molto credibili, specie su argomenti ripetitivi, tipo degli inviti. Inoltre, e questa è la grande novità, riescono a risolvere più problemi contemporaneamente: scrivono lettere, fanno post di Twitter, etc”.

Similmente all’essere umano?

“No, assolutamente. Siamo lontanissimi dalle capacità del cervello umano. Mancano i sentimenti, la creatività, l’unicità. Tutto ciò che crea l’IA è basato sull’esempio: apprendono da milioni di dati, di testi, di immagini. Ma non fa qualcosa di innovativo. Non va ‘oltre’ gli esempi. L’uomo sì”.

Non è dunque un pericolo per l’uomo, come alcuni paventano?

“No, non abbiamo una situazione ‘fuori controllo’. Abbiamo dei rischi, che però non chiamerei ‘pericoli’. Ad esempio, è a rischio la democraticizzazione di questa nuova transizione tecnologica: addestrare le IA è molto costoso, sia dal punto di vista economico, sia dal punto di vista di utilizzo delle risorse ambientali. Non tutti i Paesi hanno le possibilità per poter investire nella IA e dunque rischiano di rimanere tagliati fuori dal progresso e diventare ancora più poveri. Come già avvenuto in passato con la rivoluzione industriale o quella informatica. Ma è un rischio che dobbiamo e possiamo evitare”.

La IA cambierà il nostro modo di lavorare?

“Probabilmente sì. Ma non nel senso che la IA sostituirà l’uomo, questo non riesce a farlo. Andremo sempre più verso la stretta collaborazione uomo-algoritmo. Non scriveremo più noi i testi, ma scriveremo un articolo o uno studio partendo da una bozza pre elaborata dalla IA. Non è una guerra tra due sistemi: è invece un abituarsi ad una nuova forma di collaborazione. Che può essere utile anche ad arricchire il sistema Paese”.

Milena Castigli: