A partire dal prossimo 2 febbraio entreranno in vigore le disposizioni del regolamento europeo sull’intelligenza artificiale (AI Act) relative ai sistemi considerati a rischio “inaccettabile”. Si tratta di tecnologie che, secondo le istituzioni europee, violano i valori fondamentali dell’Unione e possono mettere a repentaglio diritti e libertà fondamentali.
L’articolo 5 dell’AI Act elenca le pratiche di intelligenza artificiale vietate, tra cui:
• Sistemi che utilizzano tecniche subliminali o manipolative, capaci di influenzare inconsapevolmente il comportamento delle persone inducendole a scelte che altrimenti non avrebbero compiuto, con possibili danni significativi.
• Tecnologie che sfruttano vulnerabilità legate all’età, alla disabilità o a condizioni sociali ed economiche.
• Strumenti di social scoring basati sul comportamento o sulle caratteristiche personali, con l’obiettivo di classificare le persone nel tempo.
• Sistemi di profilazione che valutano il rischio di commissione di reati sulla base di dati biometrici o caratteristiche personali.
• L’uso di tecniche di riconoscimento facciale mediante scraping indiscriminato di immagini da Internet o da telecamere di sorveglianza.
• Sistemi di rilevazione delle emozioni nei luoghi di lavoro e nelle scuole, salvo utilizzi per motivi medici o di sicurezza.
• Tecnologie di categorizzazione biometrica che possano dedurre informazioni sensibili come razza, opinioni politiche o orientamento sessuale.
• L’identificazione biometrica remota in tempo reale in spazi pubblici, salvo specifiche eccezioni per la sicurezza pubblica.
Esempi concreti di rischio inaccettabile includono giocattoli con intelligenza artificiale che influenzano negativamente i bambini o strumenti di riconoscimento biometrico usati in maniera indiscriminata.
Verso un’Autorità di controllo: nodo ancora aperto. Nonostante l’imminente applicazione delle nuove regole, resta ancora da definire l’Autorità di controllo incaricata di vigilare sul rispetto dell’AI Act. L’Italia, come gli altri Stati membri, dovrà designare un ente di supervisione entro il 2 agosto 2025. Le prossime settimane saranno decisive per delineare il futuro dell’intelligenza artificiale in Europa, con un occhio alla tutela dei diritti fondamentali e alla necessità di un controllo efficace e indipendente.
Fonte: ANSA
L&G Solution