E-News, In Evidenza, Ultime Notizie, Notizie

UE: accordo politico su legge intelligenza artificiale

La Commissione accoglie con favore l’accordo politico raggiunto tra il Parlamento europeo e il Consiglio sulla legge sull’intelligenza artificiale (legge sull’intelligenza artificiale), proposto dalla Commissione nell’aprile 2021.

Le nuove norme saranno applicate direttamente allo stesso modo in tutti gli Stati membri, sulla base di una definizione di IA a prova di futuro. Seguono un approccio basato sul rischio:

Rischio minimo: la stragrande maggioranza dei sistemi di intelligenza artificiale rientra nella categoria del rischio minimo. Le applicazioni a rischio minimo come i sistemi di raccomandazione abilitati all’intelligenza artificiale o i filtri antispam beneficeranno di un pass gratuito e dell’assenza di obblighi, poiché questi sistemi presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini. Su base volontaria, le aziende possono tuttavia impegnarsi ad adottare ulteriori codici di condotta per questi sistemi di IA.

Ad alto rischio: i sistemi di IA identificati come ad alto rischio dovranno rispettare requisiti rigorosi, tra cui sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un alto livello di robustezza, accuratezza e sicurezza informatica. I sandbox normativi faciliteranno l’innovazione responsabile e lo sviluppo di sistemi di intelligenza artificiale conformi.

Esempi di tali sistemi di IA ad alto rischio includono alcune infrastrutture critiche, ad esempio nei settori dell’acqua, del gas e dell’elettricità; dispositivi medici; sistemi per determinare l’accesso alle istituzioni educative o per il reclutamento delle persone; o determinati sistemi utilizzati nei settori dell’applicazione della legge, del controllo delle frontiere, dell’amministrazione della giustizia e dei processi democratici. Inoltre, anche i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni sono considerati ad alto rischio.

Rischio inaccettabile: i sistemi di IA considerati una chiara minaccia ai diritti fondamentali delle persone saranno vietati. Ciò include sistemi o applicazioni di intelligenza artificiale che manipolano il comportamento umano per eludere il libero arbitrio degli utenti, come giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi di minori o sistemi che consentono il “punteggio sociale” da parte di governi o aziende e alcune applicazioni di polizia predittiva. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o l’identificazione biometrica remota in tempo reale per scopi di contrasto in spazi accessibili al pubblico (con limitate eccezioni).

Rischio specifico per la trasparenza: quando si utilizzano sistemi di intelligenza artificiale come i chatbot, gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina. I deep fake e altri contenuti generati dall’intelligenza artificiale dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo tale che il contenuto sintetico di audio, video, testo e immagini sia contrassegnato in un formato leggibile dalla macchina e rilevabile come generato o manipolato artificialmente.

Le aziende che non rispetteranno le regole verranno multate.

Nuove regole per l’Intelligenza Artificiale – Pagina Fatti

Author