Parlamento Europeo – Intelligenza Artificiale: approvato il disegno di legge per disciplinarne l’uso – a cura di Leyton Italia

Il Parlamento Europeo ha approvato in Commissione la relazione sulla proposta di Regolamento Europeo volto a disciplinare l’utilizzo dell’intelligenza  artificiale, tenuto conto anche dello scalpore generatosi recentemente in riferimento a GPT. La proposta fa parte di un più ampio pacchetto di IA, che include anche il piano coordinato aggiornato sull’IA.

Con l’approvazione della proposta di regolamento, che ha richiesto molti mesi per trovare un accordo comune tra i vari europarlamentari, si vogliono stabilire nuove regole armonizzate capaci di fornire limiti ben definiti entro cui poter beneficiare dei numerosi vantaggi offerti dall’intelligenza artificiale. La proposta di regolamento fonda le sue origini nel c.d. “Libro Bianco” pubblicato il 19 febbraio 2020 dalla Commissione Europea che ha tracciato le basi per promuove il ricorso all’IA e la gestione degli eventuali rischi che ne possono derivare. Il quadro normativo che si è delineato nel corso degli ultimi anni, e che continuerà a progredire anche in quelli successivi, mira al raggiungimento di specifici obiettivi:

  • Assicurare che i sistemi di IA immessi nel mercato UE siano sicuri e conformi alla normativa vigente in tema di diritti fondamentali e valori UE;
  • Assicurare la certezza dei diritti per facilitare gli investimenti e l’innovazione nell’IA;
  • Migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi IA;
  • Facilitare lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili nonché prevenire la frammentazione del mercato.

La proposta di Regolamento rientra all’interno di quanto prescritto dall’articolo 114 del TFUE, che prevede l’adozione di misure destinate ad assicurare l’instaurazione ed il funzionamento del mercato interno. Questo risulta essere un pilastro fondante su cui basare l’attività legislativa dei prossimi anni dell’UE. Il riferimento al “funzionamento del mercato interno” include, necessariamente, anche la garanzia di sfruttare una tecnologia capace di garantire la sicurezza e la salute dei cittadini UE in quanto è necessario che i cittadini europei possano fidarsi di ciò che l’IA ha da offrire.

Sono da ritenersi escluse, pertanto, quelle pratiche incompatibili con i valori dell’Unione Europea come, ad esempio, la classificazione ed il monitoraggio delle persone fisiche sulla base del loro comportamento  sociale.

I divieti e i livelli di rischio dell’Intelligenza Artificiale
La lista dei divieti, ad oggi, non è ancora esaustiva ma è in via di definizione non è essendo semplice delineare in quali settori o pratiche possa configurarsi concretamente una violazione chiara e precisa dei valori UE. Ma la discussione su cosa vietare o meno in tema di IA è ben più complessa. E’ questo il caso di quelle prassi che, di per sé, non presentano una violazione conclamata dei diritti e dei valori UE ma che racchiudono potenziali lesività dei diritti fondamentali in seguito all’esposizione ad uno o più rischi di varia graduazione. Si passa, quindi, da una elencazione di divieti assoluti ad una valutazione del rischio che modula gli obblighi di conformità basandosi esclusivamente sul livello di rischio. Maggiore sarà il rischio e maggiori saranno gli oneri e le responsabilità degli autori e fruitori delle applicazioni che sfruttano l’IA.
Sono definiti, in linea di massima, 4 livelli di rischio nell’Intelligenza Artificiale:

  • Rischio inaccettabile: persiste una chiara minaccia per la sicurezza ed i diritti delle persone;
  • Altro rischio: Non c’è una certezza facilmente riscontrabile, ma una potenziale lesività alquanto alta;
  • Rischio limitato: in questi casi il livello di trasparenza è molto allo e l’esposizione al rischio per i fruitori è alquanto ridotto;
  • Rischio minimo/assenza di rischio: In questo caso l’uso è gratuito non essendo ravvisabile alcuna minaccia per la sicurezza o per i diritti fondamentali dei soggetti fruitori (esempio: videogames).

Quali sono gli obblighi da rispettare?
Si tratta di vincoli capaci di garantire un sistema di controllo generale sulle risorse tecnologiche offerte dall’IA:

  • Attenta analisi dei dati che saranno utilizzati dagli algoritmi;
  • Mantenere attivo un sistema di valutazione e gestione del rischio;
  • I sistemi che sfruttano l’IA devono poter essere supervisionati da parte di persone fisiche;
  • Trasparenza nel fornire informazioni sul sistema adoperato, sui rischi e sul livello di sicurezza e, soprattutto, me modalità ed i dati con cui gli algoritmi elaborano i dati.

Non è chiaro come ed entro quando l’attività normativa UE potrà definire con precisione la nuova disciplina comunitaria. Ma è chiaro che, l’avvento dell’IA rappresenta una pluralità di sfide per la comunità europea non più rimandabili. La strategia adottata sino ad ora è quelle di adoperare un Regolamento unico che racchiuda principi e regole generali per gli Stati Membri, che dovrà essere supportato da un serie di norme complementari, proporzionate e flessibili. Non è escluso che verso la prima metà del 2024 il nuovo
Regolamento possa diventare operativo per determinate categorie di operatori.

Leyton e FenImprese sono a disposizione per approfondimenti.

Leggi anche