Parlamento europeo. "I sistemi di IA siano supervisionati da persone: Siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente"
Per garantire uno sviluppo umano-centrico ed etico dell'intelligenza artificiale in Europa, il Parlamento europeo ha approvato a livello di commissioni nuove regole di trasparenza e gestione del rischio per i sistemi di IA. Oggi la commissione per il Mercato interno e la commissione per le Libertà civili hanno adottato un progetto di mandato negoziale sulle prime norme in assoluto per l'intelligenza artificiale con 84 voti a favore, 7 contrari e 12 astensioni.
Nei loro emendamenti alla proposta della Commissione, i deputati mirano a garantire che i sistemi di IA siano supervisionati dalle persone, siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. Vogliono anche avere una definizione uniforme per l'IA progettata per essere neutrale dal punto di vista tecnologico, in modo che possa essere applicata ai sistemi di intelligenza artificiale di oggi e di domani. Prima che possano iniziare i negoziati con il Consiglio sulla forma finale della legge, questo progetto di mandato negoziale deve essere approvato dall'intero Parlamento, con il voto previsto durante la sessione del 12-15 giugno.
Le regole seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio che l'IA può generare. I sistemi di intelligenza artificiale con un livello di rischio inaccettabile per la sicurezza delle persone sarebbero severamente vietati, compresi i sistemi che impiegano tecniche subliminali o intenzionalmente manipolative, sfruttano le vulnerabilità delle persone o sono utilizzati per il punteggio sociale (classificazione delle persone in base al loro comportamento sociale, stato socio-economico, personale caratteristiche).
I deputati hanno ampliato la classificazione delle aree ad alto rischio per includere i danni alla salute, alla sicurezza, ai diritti fondamentali o all'ambiente delle persone. Hanno anche aggiunto i sistemi di intelligenza artificiale per influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti ai sensi del Digital Services Act) all'elenco ad alto rischio. I deputati hanno incluso obblighi per i fornitori di modelli di fondazione - uno sviluppo nuovo e in rapida evoluzione nel campo dell'IA - che dovrebbero garantire una solida protezione dei diritti fondamentali, della salute e della sicurezza e dell'ambiente, della democrazia e dello stato di diritto. Dovrebbero valutare e mitigare i rischi, rispettare i requisiti di progettazione, informazione e ambiente e registrarsi nella banca dati dell'Ue.
I modelli di base generativi, come GPT, dovrebbero rispettare ulteriori requisiti di trasparenza, come rivelare che il contenuto è stato generato dall'intelligenza artificiale, progettare il modello per impedire che generi contenuto illegale e pubblicare riepiloghi dei dati protetti da copyright utilizzati per la formazione. Per promuovere l'innovazione dell'IA, i deputati hanno aggiunto esenzioni a queste regole per le attività di ricerca e i componenti dell'IA forniti con licenze open source. La nuova legge promuove i sandbox normativi, o ambienti controllati, istituiti dalle autorità pubbliche per testare l'intelligenza artificiale prima della sua implementazione.
I deputati vogliono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di intelligenza artificiale e ricevere spiegazioni delle decisioni basate su sistemi di intelligenza artificiale ad alto rischio che incidono in modo significativo sui loro diritti. I deputati hanno anche riformato il ruolo dell'Ufficio AI dell'Ue, che avrebbe il compito di monitorare l'attuazione del regolamento sull'IA.