E-News, diritti umani ed uguaglianza, In Evidenza, Ultime Notizie, Notizie
La Convenzione quadro sull’intelligenza artificiale, i diritti umani, la democrazia e lo Stato di diritto è stata completata nei giorni scorsi dal Comitato sull’intelligenza artificiale del Consiglio d’Europa. Il progetto di testo sarà sottoposto al Comitato dei Ministri per l’adozione e sarà aperto alla firma in una fase successiva.

Di seguito, la dichiarazione della Segretaria generale Marija Pejčinović Burić in occasione del completamento della Convenzione:
Questo trattato, primo nel suo genere, assicurerà che la diffusione dell’intelligenza artificiale rispetti le norme giuridiche del Consiglio d’Europa in materia di diritti umani, democrazia e Stato di diritto. Il suo completamento da parte del Comitato sull’intelligenza artificiale (CAI) è un traguardo straordinario e dobbiamo celebrarlo come tale.

La Convenzione stabilisce un quadro giuridico che copre i sistemi di IA in tutto il loro ciclo di vita, dall’inizio alla fine.

Sebbene questo trattato sia stato elaborato dal Consiglio d’Europa con partner internazionali che condividono le stesse idee, sarà uno strumento globale, aperto al mondo. Dopo la sua adozione da parte del Comitato dei Ministri nelle prossime settimane, i paesi di tutto il mondo potranno aderirvi e rispettare gli elevati standard etici che stabilisce.

Il testo raggiunge il giusto equilibrio in ambito normativo proprio grazie al contributo di governi ed esperti, come anche del settore e della società civile. Ringraziamo tutti i partner per il loro contributo e il completamento di questo testo fondamentale. Siamo convinti che, una volta adottato, questo trattato susciterà un consenso generale quanto alla portata del suo impatto.”

0

E-News, diritti umani ed uguaglianza, In Evidenza, Ultime Notizie, Notizie
Di seguito il messaggio della Segretaria generale del Consiglio d’Europa, Marija Pejčinović Burić, per la Giornata internazionale della donna.

“Sempre di più, l’Intelligenza Artificiale (IA) sta forgiando il mondo in cui viviamo: le nostre prospettive di lavoro, i nostri risultati in ambito sanitario, il nostro accesso a prestazioni e servizi. L’elenco delle aree interessate dall’IA è lungo e in crescita. Se non impariamo a sfruttare il potenziale dell’IA per colmare le disuguaglianze, comprese quelle di genere, e per prevenire la discriminazione, l’IA può diventare e diventerà una forza che radica, perpetua e amplifica le disuguaglianze.

Un recente studio del Consiglio d’Europa ha indicato delle carenze nei meccanismi esistenti volti a prevenire la discriminazione nello sviluppo di sistemi algoritmici. Lo studio illustra i modi di utilizzare la tecnologia per promuovere l’uguaglianza e la necessità di valutazioni dell’impatto sui diritti umani in tutto il ciclo di vita dell’IA.

Abbiamo avviato dei lavori per fornire orientamenti essenziali ai governi attraverso uno strumento non vincolante sull’impatto dei sistemi di intelligenza artificiale, sul loro potenziale di promuovere l’uguaglianza, compresa quella di genere, e sui rischi che potrebbero causare in relazione alla discriminazione. Questi lavori integrano i negoziati in corso del Consiglio d’Europa tesi a raggiungere un accordo globale per l’implementazione dell’IA basata sui diritti umani, sullo Stato di diritto e sulla democrazia.

Dato il ruolo sempre più centrale dell’IA nelle nostre vite, quest’anno celebriamo la Giornata internazionale della donna con un invito a sfruttare la potenza dell’IA per individuare i pregiudizi e affrontare le disuguaglianze di genere, nonché per assicurare una narrazione e un immaginario più inclusivi. Si presenteranno delle sfide lungo il percorso, ma i rischi che si corrono indicano che dobbiamo perseverare. Una forza lavoro più eterogenea e in cui vi sia parità di genere è necessaria per contribuire a contrastare i pregiudizi nei sistemi di IA. Lancio un appello per un’istruzione e una formazione più inclusive sulle competenze digitali in Europa, assicurando una partecipazione molto più diversificata alle discipline scientifiche, tecnologiche, ingegneristiche e matematiche (STEM).

Affrontare le sfide poste dalle nuove tecnologie, tra cui l’IA, è una delle aree prioritarie della nuova Strategia sull’uguaglianza di genere 2024-2029 adottata questa settimana dal Consiglio d’Europa. La nuova Strategia ribadisce l’elevato livello di impegno degli Stati membri a raggiungere un’Europa in cui vi sia parità di genere per tutti. Tale impegno richiede di agire. Data l’evoluzione dei sistemi di IA, dobbiamo intensificare i nostri sforzi per colmare le lacune in materia di uguaglianza”.
0

E-News, In Evidenza, Ultime Notizie, Notizie
La Commissione accoglie con favore l’accordo politico raggiunto tra il Parlamento europeo e il Consiglio sulla legge sull’intelligenza artificiale (legge sull’intelligenza artificiale), proposto dalla Commissione nell’aprile 2021.

Le nuove norme saranno applicate direttamente allo stesso modo in tutti gli Stati membri, sulla base di una definizione di IA a prova di futuro. Seguono un approccio basato sul rischio:

Rischio minimo: la stragrande maggioranza dei sistemi di intelligenza artificiale rientra nella categoria del rischio minimo. Le applicazioni a rischio minimo come i sistemi di raccomandazione abilitati all’intelligenza artificiale o i filtri antispam beneficeranno di un pass gratuito e dell’assenza di obblighi, poiché questi sistemi presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini. Su base volontaria, le aziende possono tuttavia impegnarsi ad adottare ulteriori codici di condotta per questi sistemi di IA.

Ad alto rischio: i sistemi di IA identificati come ad alto rischio dovranno rispettare requisiti rigorosi, tra cui sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un alto livello di robustezza, accuratezza e sicurezza informatica. I sandbox normativi faciliteranno l’innovazione responsabile e lo sviluppo di sistemi di intelligenza artificiale conformi.

Esempi di tali sistemi di IA ad alto rischio includono alcune infrastrutture critiche, ad esempio nei settori dell’acqua, del gas e dell’elettricità; dispositivi medici; sistemi per determinare l’accesso alle istituzioni educative o per il reclutamento delle persone; o determinati sistemi utilizzati nei settori dell’applicazione della legge, del controllo delle frontiere, dell’amministrazione della giustizia e dei processi democratici. Inoltre, anche i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni sono considerati ad alto rischio.

Rischio inaccettabile: i sistemi di IA considerati una chiara minaccia ai diritti fondamentali delle persone saranno vietati. Ciò include sistemi o applicazioni di intelligenza artificiale che manipolano il comportamento umano per eludere il libero arbitrio degli utenti, come giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi di minori o sistemi che consentono il “punteggio sociale” da parte di governi o aziende e alcune applicazioni di polizia predittiva. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o l’identificazione biometrica remota in tempo reale per scopi di contrasto in spazi accessibili al pubblico (con limitate eccezioni).

Rischio specifico per la trasparenza: quando si utilizzano sistemi di intelligenza artificiale come i chatbot, gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina. I deep fake e altri contenuti generati dall’intelligenza artificiale dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo tale che il contenuto sintetico di audio, video, testo e immagini sia contrassegnato in un formato leggibile dalla macchina e rilevabile come generato o manipolato artificialmente.

Le aziende che non rispetteranno le regole verranno multate.

Nuove regole per l’Intelligenza Artificiale – Pagina Fatti
0

E-News, In Evidenza, Ultime Notizie, Notizie
La Commissione europea rende noto in un comunicato stampa di aver accolto con favore l’accordo del 30 ottobre dei leader del G7 sui principi guida internazionali sull’intelligenza artificiale (AI) e su un codice di condotta volontario per gli sviluppatori di IA nell’ambito del processo di Hiroshima sull’intelligenza artificiale.

Questi principi e il codice di condotta volontario integreranno, a livello internazionale, le norme giuridicamente vincolanti che i colegislatori dell’UE stanno attualmente mettendo a punto nell’ambito della legge sull’IA dell’UE.
0

E-News, In Evidenza, Ultime Notizie, Notizie
La Commissione europea rende noto in un comunicato stampa di aver adottato il 28 settembre due proposte intese ad adeguare le norme in materia di: era digitale, economia circolare e impatto delle catene globali del valore.

In primo luogo, Bruxelles propone di ammodernare le norme vigenti in materia di responsabilità oggettiva dei fabbricanti per prodotti difettosi (dalle tecnologie ai prodotti farmaceutici). Le norme rivedute garantiranno la certezza del diritto alle imprese, che potranno quindi investire in prodotti nuovi e innovativi, e permetteranno alle vittime di ottenere un equo risarcimento per i danni causa da prodotti difettosi, compresi i prodotti digitali e ricondizionati.

In secondo luogo, la Commissione propone per la prima volta un’armonizzazione mirata delle norme nazionali in materia di responsabilità per l’IA (Intelligenza Artificiale), agevolando l’ ottenimento di risorcimenti da parte di chi ha subito danni connessi all’IA. Conformemente agli obiettivi del Libro bianco sull’IA e alla proposta di Le nuove regole consentiranno a chi ha subito danni causa prodotti da servizi o Commissioni subito sull’IA di benefici dei medesimi livelli di protezione di cui godrebbe se i danni sono riconducibili a qualsiasi circostanza.

Proposta di direttiva relativa all’adeguamento delle norme artificiali in materia di responsabilità civile extracontrattuale all’intelligenza

Proposta: revisione della direttiva sulla responsabilità per danno da prodotti difettosi

Norme in materia di responsabilità in materia di intelligenza artificiale

Libro bianco della Commissione sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia
0