fbpx

ULTERIORI PASSI VERSO IL REGOLAMENTO EUROPEO SULL’INTELLIGENZA ARTIFICIALE

Un altro passo è stato fatto verso l’approvazione del regolamento U.E, denominato “Artificial Intelligence Act” , che introdurrà nell’ordinamento giuridico dell’Unione e, quindi, di tutti gli Stati membri, il corpus di norme, il primo al mondo, che disciplini l’Intelligenza Artificiale.
Nella giornata del 2 Febbraio 2024, infatti, i ventisette rappresentanti diplomatici del COREPER (1), all’unanimità, hanno approvato il testo del regolamento su cui lo scorso 9 Dicembre il Parlamento ed il Consiglio europeo avevano trovato un accordo. Dopo l’approvazione del COREPER, l’atto successivo sarà la votazione del testo normativo da parte di due commissioni parlamentari (2) il prossimo 13 Febbraio, cui seguirà la votazione finale del Parlamento Europeo in seduta plenaria, ad Aprile, ed infine la ratifica del Consiglio dell’Unione Europea.
Con molta probabilità, il regolamento entrerà in vigore tra il 2024 ed il 2025. La scelta di tale fonte normativa consente la diretta applicabilità, in base all’art. 288 TFUE, delle medesime norme in tutti gli Stati membri, uniformando, in tal modo, la disciplina, cosa che non sarebbe possibile con l’adozione di direttive, in quanto queste richiedono provvedimenti normativi interni (pertanto, diversi da Stato a Stato) di attuazione.
Sarà necessario, tuttavia, armonizzare la nuova normativa con le fonti già esistenti in materie che toccano più ambiti: un esempio su tutti, il regime della protezione dei dati personali, che è oggetto di regolamentazione da parte del Reg. U.E. 2016/679 (GDPR) e della Dir. U.E. 2016/680 e che riguarderà inevitabilmente l’utilizzo dell’intelligenza artificiale.
Ma che cos’è l’Intelligenza Artificiale? Per dirla in parole povere e non tecniche, è un programma informatico, un software, istruito attraverso un algoritmo, che ha la capacità d’imparare.
Come agisce un sistema di IA?
1) Raccoglie dati, tramite sensori, foto e videocamere, microfoni etc. (I dati devono essere equilibrati, completi, esaustivi, altrimenti le risposte generate saranno distorte).
2) Elabora le informazioni attraverso un algoritmo.
3) Esegue l’azione, attraverso software o elementi fisici (ruote, bracci meccanici etc.).

La locuzione “intelligenza artificiale” nacque nel 1955, ad opera di John Mc Carthy, un assistente universitario in una facoltà statunitense di matematica. Il giovane professore organizzò un convegno sull’I.A., illustrandone l’oggetto nei termini di un apprendimento costante, da parte di una macchina, di tutti gli aspetti dell’intelligenza umana, talmente dettagliati da consentire che la macchina possa addirittura automigliorarsi.

Tuttavia, la mente umana presenta meccanismi complessi, non paragonabili a quelli di macchine e computer. I dispositivi informatici non possono competere con la creatività umana, per esempio; quest’ultima rompe gli schemi per definizione, trovando nuove alternative e soluzioni, una macchina non può farlo: le macchine si limitano a scegliere la strada migliore per conseguire un certo risultato, in base a criteri dettati loro per ottimizzare le risorse a disposizione.
Oltretutto, se mal usata, l’intelligenza artificiale diventa pericolosa: quella generativa può falsificare la realtà, manipolare l’informazione, rubare diritti intellettuali e immaginiamo con quale impatto, dato che lo sviluppo dell’IA è reso ancor più veloce a causa del progresso informatico e della digitalizzazione diffusa, che consentono la disponibilità e la memorizzazione di dati dal numero impressionante.
Esiste, poi, il problema del consumo di energia, di cui questi programmi abbisognano in quantità inimmaginabili (particolare non trascurabile, data l’attenzione negli ultimi anni nei riguardi della sostenibilità).

L’intelligenza artificiale è un nodo centrale nel rilancio dell’economia europea dopo il Covid19 ed ha un ruolo fondamentale nella digitalizzazione della società: il suo utilizzo è ormai avviato in vari ambiti, dalla finanza alla sanità, alla sicurezza, alla scuola, all’agricoltura, ai processi industriali e altro. Infatti, tutte le ricerche che svolgiamo in Internet, tutte le applicazioni che usiamo ai più svariati fini, i film di animazione, i videogiochi, il GPS, le chatbot e molto altro hanno l’I.A. alla base del loro funzionamento; inoltre, è da poco iniziata l’era dell’I.A. applicata alla robotica (che in alcune attività sta estromettendo i lavoratori dalle fabbriche a favore di automi sempre più sofisticati) ed ai sistemi predittivi, nelle attività di polizia.
Tuttavia, l’impiego dell’I.A. presenta dei rischi, quali “meccanismi decisionali opachi, discriminazioni basate sul genere o di altro tipo, intrusioni nelle nostre vite private o utilizzi per scopi criminali” (Libro bianco sull’intelligenza artificiale).
Il principio fondamentale della normativa in elaborazione, che prevede obblighi per i fornitori e gli sviluppatori di sistema, pertanto, sarà la promozione di un’intelligenza artificiale incentrata sull’essere umano, in linea con la Carta fondamentale dei diritti dell’Unione Europea, che garantisca un elevato livello di protezione dai possibili effetti negativi dei sistemi d’intelligenza artificiale sulla salute, la sicurezza, la privacy ed i diritti fondamentali in genere, assicurando trasparenza e non sollevando gli esseri umani dalle loro responsabilità. Anzi, è assolutamente richiesto che i controlli sui sistemi di intelligenza artificiale siano proprio svolti dalle persone e non solo dall’automazione.
In realtà, nei mesi scorsi, Francia, Italia e Germania erano su posizioni favorevoli ad una disciplina normativa più leggera per i modelli generativi di I.A. (come ChatGPT, per esempio), preferendo l’introduzione di codici di condotta. Alla fine, però, i tre Stati si sono posizionati sui punti di vista della maggioranza, rendendo così possibile l’approvazione del testo all’unanimità in seno al COREPER.
Il testo del regolamento si compone di 85 articoli e nove allegati ed è impostato sull’individuazione di quattro livelli di rischio (rischio minimo, rischio limitato, alto rischio, rischio inaccettabile) cui verranno correlati limiti diversi, responsabilità e sanzioni proporzionali.
Le attività assolutamente proibite
Le attività inaccettabili e, pertanto, assolutamente proibite, sono elencate all’art. 5:
Manipolazione comportamentale mediante tecnologie subliminali.
Polizia predittiva basata su profilazione, ubicazione o comportamenti illeciti passati (informazioni su personalità, nazionalità, situazione economica e altro, per stabilire la probabilità di compimento di un reato).
Categorizzazione biometrica basata su dati sensibili e sensibilissimi, come credo religioso, idee politiche, orientamento sessuale.
Riconoscimento delle emozioni sui luoghi di lavoro, alle frontiere o nelle scuole, sistemi di punteggio sociale (social scoring).
Estrazione di dati biometrici dal web o da telecamere a circuito chiuso per creare data base di riconoscimento facciale.
Identificazione biometrica remota.
Quest’ultima è, però, consentita solo se avviene in tempo reale (cioè, se la ricezione dei dati ed il confronto avvengono simultaneamente) e se serve a:

  • ricercare persone scomparse e vittime di reato;
  • prevenire minacce imminenti e certe alla vita e all’incolumità fisica, nonchè attacchi terroristici;
  • individuare il presunto autore di una lista di 16 reati contenuti in uno degli allegati.
    Per adottare lo strumento suddetto, che deve essere impiegato solo per confermare l’identità di una persona individuata come sospetta responsabile di un reato, le forze di polizia devono effettuare una valutazione d’impatto sui diritti fondamentali dei cittadini ed ottenere l’autorizzazione di un giudice. In caso di urgenza, la sorveglianza biometrica si può attivare subito, ma l’autorizzazione va richiesta entro 24 ore.
    L’identificazione a posteriori, invece, è ammessa solo per perseguire l’autore di gravi reati, e previa autorizzazione di un giudice. Anche in questo caso, per motivi di urgenza, la sorveglianza biometrica si potrà attivare subito, ma l’autorizzazione deve essere richiesta entro 48 ore.
    I sistemi ad alto rischio
    I sistemi ad alto rischio sono soggetti, prima dell’immissione sul mercato, a valutazione d’impatto sui diritti fondamentali (che si affiancherà alla valutazione d’impatto sulla privacy (DPIA) di cui all’art. 35 GDPR) nonchè all’obbligo di registrarsi in un’apposita banca dati U.E.. Essi sono catalogabili in due categorie:
    1) Sistemi utilizzati in prodotti quali giocattoli, automobili, ascensori, dispositivi medici e tutti i dispositivi soggetti alla direttiva U.E. sulla sicurezza generale dei prodotti (Dir. 2001/95/CE).
    2) Sistemi che rientrano in 8 aree specificate nell’Allegato n. 3 e che dovranno essere registrati presso la banca dati dell’Unione Europea.

I sistemi a rischio limitato.
Sono i sistemi che riconoscono le emozioni, i sistemi di categorizzazione biometrica, quelli che generano o manipolano immagini e contenuti audio e video e i sistemi che interagiscono con gli esseri umani (per es. le chatbot); tali categorie di I.A. saranno soggette ad obblighi di trasparenza; le chatbot, per es., dovranno esplicitare che il contenuto è generato da un’intelligenza artificiale; evitare di generare contenuti illegali; pubblicare riepiloghi dei dati con i diritti d’autore usati per l’istruzione del sistema.

I sistemi a rischio minimo.
Non sono previsti obblighi, ma incoraggiati codici di condotta affinchè tali sistemi, sebbene non molto rischiosi, applichino volontariamente le stesse misure previste per le I.A. a più alto rischio.

L’impiego dell’intelligenza artificiale è un fenomeno ancora incipiente, di cui non è possibile immaginare gli sviluppi futuri e il loro impatto su aspetti attualmente disciplinati in maniera tradizionale. Poichè i progressi tecnologici marciano più rapidamente degli adeguamenti giuridici, il rischio che si possano creare zone franche, non disciplinate (con tutte le conseguenze che ciò comporterebbe) non è implausibile: per questo occorre una normativa puntuale, ma nel contempo “estensibile” a nuove fattispecie, che sia semplice e rigorosa nel contempo, al fine di tutelare i diritti dei cittadini, ma di promuovere comunque l’innovazione. Non ci resta che attendere il regolamento U.E. prossimo venturo.

(1) Comitato dei rappresentanti permanenti. E’ un organo del Consiglio dell’U.E., composto dai capi e vice-capi delegazione degli Stati membri. Al suo interno si svolge la gran parte dei negoziati tra gli Stati U.E. sulle decisioni da prendere.
(2) Commissione per il mercato interno e la protezione dei consumatori e Commissione per le libertà civili, la giustizia e gli affari interni.

©2024 IPS - I Professionisti della Sicurezza - Cod. Fisc. 93209680870 - il portale di informazione e formazione dal mondo della sicurezza e per la polizia locale

Contattaci

Hai domande, desideri informazioni, o desideri collaborare con noi? Inviaci una mail e ti risponderemo al più presto.

Sending
or

Log in with your credentials

Forgot your details?