IA: le regole in Europa

Una panoramica sulle possibilità e i divieti per l’uso dell’AI, non solo in sanità

Un anno fa di intelligenza artificiale in sanità praticamente non si parlava, se non fra addetti ai lavori appassionati. L’introduzione di sistemi come GPT-4 nella nostra vita quotidiana nella seconda metà del 2023 ha spalancato la porta delle persone verso una Narnia in realtà già fiorita. Siamo in un momento storico molto delicato: il 2024 è l’anno in cui stiamo andando verso una regolamentazione dei sistemi di Intelligenza Artificiale (IA), non solo in sanità. Le forze in gioco a livello globale sono da una parte i Big del Tech che hanno abbattuto un muro, quello dell’introduzione di questi sistemi nella nostra quotidianità – che ne siamo o meno pienamente consapevoli – e dall’altra i governi e le realtà sovranazionali che stanno capendo come tenere le redini di questa rete di complessi processi.

Non stiamo approcciando la regolamentazione dell’IA tutti allo stesso modo. L’Unione Europea si appresta all’adozione dell’AI Act, la legge sull’intelligenza artificiale approvata dal Parlamento europeo a metà marzo 2024, a cui è seguita la rettifica il 17 aprile 2024 (si può leggere qui in italiano). L’obiettivo dichiarato è quello di migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l'immissione sul mercato, la messa in servizio e l'uso di sistemi di intelligenza artificiale nell'Unione, in conformità con i valori dell'UE, promuovere la diffusione di un'intelligenza artificiale antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea. L’AI Act garantirà la libera circolazione transfrontaliera di beni e servizi basati sull'IA approvati, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di IA in autonomia.

QUALI SONO LE TECNOLOGIE DI IA PROIBITE IN EUROPA?

Anzitutto è vietato l’impiego di tecniche subliminali, manipolative o ingannevoli per distorcere il comportamento e compromettere il processo decisionale informato delle persone. Sono poi vietati i sistemi che sfruttano le vulnerabilità legate all’età, alla disabilità o alle circostanze socioeconomiche per influenzare il comportamento. Saranno proibiti anche i sistemi di categorizzazione biometrica che deducono caratteristiche sensibili (etnia, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale), ad eccezione dei dati biometrici raccolti dalle forze dell’ordine.

Saranno vietati i sistemi che puntano al “punteggio sociale”, ossia a valutare o classificare individui o gruppi in base al comportamento sociale o ai tratti personali, causando un trattamento sfavorevole di gruppi di persone.

Non saranno legali sistemi che permettano di valutare il rischio che un individuo commetta reati esclusivamente sulla base della profilazione o dei tratti della personalità, né database di riconoscimento facciale utilizzando immagini da Internet o filmati CCTV.

Sarà vietata anche l’identificazione biometrica remota (RBI) “in tempo reale” in spazi accessibili al pubblico, tranne in caso di ricerca di persone scomparse, vittime di rapimenti e persone vittime della tratta di esseri umani o sfruttate sessualmente, ma da parte delle forze dell’ordine e per prevenire una minaccia sostanziale e imminente alla vita o un prevedibile attacco terroristico. È infine illegale commerciare sistemi in grado di identificare sospetti di reati gravi.

LA SITUAZIONE NEGLI STATI UNITI

Negli Stati Uniti l’approccio è stato ed è completamente diverso. Manca una regolamentazione generale sull’uso dell’intelligenza artificiale, ma si sta legiferando sull’IA da diversi anni a livello federale. L’Università di Stanford riferisce che, tra il 2016 e il 2022, 14 stati hanno approvato leggi riguardanti l’IA, il leader è stato il Maryland con sette progetti di legge relativi all’intelligenza artificiale, seguito dalla California con sei, e Massachusetts e Washington con cinque.

A ottobre 2022 il White House Office of Science and Technology Policy aveva pubblicato il Blueprint for an AI Bill of Rights, una “Carta” quindi, con i cinque principi per guidare la
progettazione, l’utilizzo e l’implementazione di sistemi automatizzati per proteggere i diritti delle persone.

Finalmente, il 30 ottobre 2023 siamo passati al lato pratico con l’ordine esecutivo emesso dal presidente Joe Biden sullo "Sviluppo e utilizzo sicuri, protetti e affidabili dell'intelligenza artificiale". Si basa di fatto sui lavori precedenti, e impone ai big del tech (fra cui Amazon, Google, Meta, Microsoft e OpenAI) di mettere in campo sistemi per combattere la discriminazione algoritmica. Di fatto quello che impone Biden è un “volontario” impegno da parte delle principali aziende statunitensi a guidare sviluppo dell’IA sicuro, protetto e affidabile. L'ordinanza copre otto settori politici. Innanzitutto, si concentra su nuovi standard per la sicurezza e la protezione dell’IA; richiede ad esempio agli sviluppatori di sistemi di intelligenza artificiale più potenti per condividere i risultati dei test di sicurezza e altre informazioni critiche con il governo degli Stati Uniti. Verranno inoltre stabiliti nuovi standard per la protezione dai rischi derivanti dall'utilizzo dell’IA per progettare materiali biologici pericolosi e proteggere i cittadini statunitensi dalle frodi e dagli inganni consentiti dall’intelligenza artificiale.

Dal canto loro, le organizzazioni internazionali come l’Organizzazione Mondiale della Sanità (OMS), e l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE), hanno iniziato ad attrezzarsi sull’argomento con pubblicazioni che mettono nero su bianco i desiderata per l’uso di questi sistemi in sanità.

La grande domanda è come Paesi quali la Cina e l’India intendano regolamentare la produzione, la commercializzazione e l’uso dei sistemi di intelligenza artificiale.

Ti interessa il tema dell’intelligenza artificiale?

Leggi anche:

Intelligenza artificiale e malattie rare: i modi in cui può beneficiarne la ricerca

Intelligenza artificiale: 10 milioni di euro per una piattaforma innovativa per le malattie rare

Diagnosticare e trattare l’acromegalia con l’Intelligenza Artificiale è oggi possibile?

Malattia di Castleman: grazie all’intelligenza artificiale potrebbero arrivare nuove opzioni terapeutiche

Seguici sui Social

Iscriviti alla Newsletter

Iscriviti alla Newsletter per ricevere Informazioni, News e Appuntamenti di Osservatorio Malattie Rare.

Sportello Legale OMaR

Tutti i diritti dei talassemici

Le nostre pubblicazioni

Malattie rare e sibling

30 giorni sanità

Speciale Testo Unico Malattie Rare

Guida alle esenzioni per le malattie rare

Con il contributo non condizionante di

Partner Scientifici

Media Partner


Questo sito utilizza cookies per il suo funzionamento. Maggiori informazioni