Il Parlamento Europeo, con una maggioranza di 523 voti favorevoli, ha adottato l’AI Act, prima “legge” al mondo incentrata sulla regolamentazione dell’intelligenza artificiale. Il regolamento entrerà in vigore a partire dal 2025 e darà possibilità all’Unione Europea di proibire usi illeciti dell’IA e richiedere trasparenza dai fornitori.
L’AI Act si propone di proibire l’utilizzo di sistemi basati su intelligenza artificiale nelle attività di sorveglianza pubblica di massa e impone restrizioni su sistemi classificati “ad alto rischio” per la società (strumenti per infrastrutture critiche, educazione e formazione professionale, e sistemi di applicazione della legge).
Durante il dibattito che ha accompagnato la stesura e l’approvazione del testo del regolamento non sono mancate le critiche da parte di alcuni stati membri e da figure politiche, come il presidente francese Emmanuel Macron. Il timore alla base di tali rilievi è che l’AI Act possa ostacolare l’innovazione. Tuttavia, il provvedimento rappresenta un passo significativo verso la creazione di un quadro regolamentare equilibrato per l'intelligenza artificiale. Questo perché la normativa cerca di bilanciare la promozione dell’innovazione tecnologica con la tutela dei diritti civili e la protezione dei consumatori. In tal modo l’Ue si pone come un leader nella regolamentazione dell’intelligenza artificiale a livello mondiale.
Il regolamento verrà ora sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura. Inoltre, deve ancora essere formalmente approvato dal Consiglio. Come da normativa, il provvedimento entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’Ue e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore.
Solo alcune parti del regolamento entreranno in vigore successivamente: i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di Ia per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).
Infine, i Paesi dell’Ue dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali, in modo che Pmi e startup possano sviluppare sistemi di intelligenza artificiale innovativi e addestrarli, prima di immetterli sul mercato.
La Redazione
Source: Aboutpharma