Un nuovo regolamento sulla cybersicurezza introdotto dal governo australiano obbliga le piattaforme di social media e le compagnie high-tech in Australia a sopprimere contenuti nocivi creati con l’uso della IA, quali immagini, video e testi offensivi o pericolosi.
L’Australia vieta l’uso dannoso dell’intelligenza artificiale
Le piattaforme di social media e le compagnie high-tech in Australia saranno obbligate a sopprimere contenuti nocivi creati con l’uso dell’intelligenza artificiale (IA), come immagini intime deep fake e incitamento all’odio, secondo il nuovo regolamento sulla cybersicurezza introdotto dal governo federale. La ministra delle Comunicazioni, Michelle Rowland, ha annunciato oggi una serie di misure per rispondere a “nuovi ed emergenti danni”, esprimendo “significativa preoccupazione per i servizi generativi IA, ampiamente disponibili, usati per creare immagini, video e testi offensivi o pericolosi”.
Aggiornamenti delle linee guida già in atto, le cosiddette Basic Online Safety Expectation (Bose), richiedono alle compagnie high-tech di assicurare che gli algoritmi che dettano cosa gli utenti vedono online, non diffondano contenuti a sfondo razzista, sessista o omofobico. Parlando oggi al National Press Club, la ministra ha anche espresso preoccupazione per i contenuti antisemitici e islamofobici che vengono pubblicati sulla piattaforma X. “E’ chiaro che il settore può e deve fare di più per prevenire danni che non sono esplicitamente indicati nelle linee guida… Negli ultimi due anni, è diventato sempre più difficile distinguere fra immagini generate dalla IA e immagini genuine”, ha detto. “Mentre questa tecnologia ha un potenziale enorme come strumento positivo, la vediamo anche usata per creare immagini concepite per umiliare imbarazzare, offendere e anche abusare di altri”, ha aggiunto.
Fonte: Ansa