In un recente studio, la società di rilevamento e risposta di reti native del cloud ExtraHop ha svelato una tendenza preoccupante: le aziende stanno lottando con le implicazioni sulla sicurezza dell’uso dell’intelligenza artificiale (AI) generativa da parte dei dipendenti. Il loro nuovo rapporto di ricerca, The Generative AI Tipping Point, fa luce sulle sfide affrontate dalle organizzazioni man mano che la tecnologia dell’intelligenza artificiale generativa diventa sempre più diffusa sul posto di lavoro. Il report approfondisce il modo in cui le organizzazioni affrontano l’uso di strumenti di intelligenza artificiale generativa, rivelando una significativa dissonanza cognitiva tra i manager IT e della sicurezza. Sorprendentemente, il 73% di questi manager ha confessato che i propri dipendenti utilizzano spesso strumenti di intelligenza artificiale generativa o Large Language Models (LLM) sul lavoro. Nonostante ciò, una sconcertante maggioranza ha ammesso di essere incerta su come affrontare in modo efficace i rischi per la sicurezza associati. Interrogati sulle loro preoccupazioni, i manager IT e della sicurezza hanno espresso più preoccupazione per la possibilità di risposte inesatte o prive di senso (40%) rispetto a problemi critici di sicurezza come l’esposizione delle informazioni personali identificabili (PII) di clienti e dipendenti (36%) o perdite finanziarie ( 25%).
Raja Mukerji, co-fondatore e scienziato capo di ExtraHop, ha dichiarato: “Unendo l’innovazione con forti garanzie, l’intelligenza artificiale generativa continuerà ad essere una forza che migliorerà interi settori negli anni a venire”. Una delle rivelazioni sorprendenti dello studio è stata l’inefficacia dei divieti dell’AI generativa. Circa il 32% degli intervistati ha affermato che la propria azienda ha vietato l’uso di questi strumenti. Tuttavia, solo il 5% ha riferito che i dipendenti non hanno mai utilizzato questi strumenti, il che indica che i divieti da soli non sono sufficienti a frenarne l’utilizzo. Lo studio ha inoltre evidenziato un chiaro desiderio di orientamento, in particolare da parte degli enti governativi. Un significativo 90% degli intervistati ha espresso la necessità di un coinvolgimento del governo, con il 60% che sostiene normative obbligatorie e il 30% che sostiene gli standard governativi che le aziende possono adottare volontariamente.
Nonostante il senso di fiducia nelle loro attuale infrastrutture di sicurezza, lo studio ha rivelato lacune nelle pratiche di sicurezza di base. Mentre l’82% si sente fiducioso nella capacità del proprio sistema di sicurezza per la protezione dalle minacce dell’AI generativa, meno della metà ha investito nella tecnologia per monitorare l’utilizzo dell’AI generativa. In modo allarmante, solo il 46% ha stabilito politiche che regolano l’uso accettabile e solo il 42% ha fornito formazione agli utenti sull’uso sicuro di questi strumenti. I risultati arrivano sulla scia della rapida adozione di tecnologie, come ChatGPT, che sono diventate parte integrante delle aziende moderne. I manager aziendali sono invitati a comprendere l’utilizzo dell’intelligenza artificiale generativa da parte dei propri dipendenti per identificare potenziali vulnerabilità della sicurezza.