skip to Main Content
Area Utenti           Abbonamenti

Il Parlamento europeo approva il Regolamento IA per la sicurezza, i diritti fondamentali e la trasparenza

Docente specializzata in analisi del comportamento per il recupero degli studenti con disabilità intellettiva.
Tutor specializzato per il supporto di ragazzi con disturbi specifici dell’apprendimento.

L’intelligenza artificiale (IA) ha fatto enormi progressi negli ultimi anni, trasformando molti settori della nostra vita. Tuttavia, con l’aumento dell’uso dell’IA, sorgono anche preoccupazioni legate alla trasparenza, alla responsabilità e all’etica.

Per affrontare queste sfide, il 13 marzo 2024, il Parlamento europeo, riunito in assemblea plenaria, ha approvato il Regolamento sull’IA per promuovere l’innovazione ma garantire la sicurezza e il rispetto dei diritti fondamentali, confermandosi un punto di riferimento per la regolazione dell’economia digitale, come era già accaduto con l’introduzione del Regolamento generale per la protezione dei dati Digital Markets Act e il Digital Services Act (GDPR).

Questa legge rappresenta il primo testo giuridico in assoluto sull’IA in tutto il mondo ed affonda le radici in un progetto presentato nell’aprile 2021 dalla Commissione europea. L’obiettivo principale delle nuove norme è garantire il rispetto dei diritti fondamentali, la sicurezza e i principi etici.

Una delle caratteristiche principali alla base della nuova legge europea è la distinzione tra i modelli di intelligenza artificiale ad “uso generale” che dovranno rispettare le regole europee sul diritto d’autore e quelli “ad alto rischio” che dovranno rispettare requisiti più severi in quanto sono adoperati nel mondo dell’istruzione, nelle risorse umane e nell’ambito della sicurezza pubblica.

In questo articolo, cercheremo di esplorare quali sono i punti chiave di questa legge e le sue implicazioni per il futuro dell’innovazione tecnologica in Europa.

Per prima cosa va detto che il Regolamento in realtà deve ancora essere ancora formalmente approvato dal Consiglio da una apposita commissione di giuristi e linguisti. In seguito a tale approvazione esso potrà essere definitivamente adottato entro venti giorni dalla pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi ventiquattro mesi dopo l’entrata in vigore, nove mesi dopo i codici di buone pratiche, dodici mesi dopo la governance, trentasei mesi dopo gli obblighi per i sistemi ad alto rischio.

La nuova legge avrà innanzitutto un impatto significativo sull’innovazione tecnologica in Europa perché se è vero che da un lato, potrebbe creare una maggiore certezza normativa per le aziende, incoraggiando l’adozione dell’IA in settori come la sanità, l’agricoltura e l’energia, dall’altro è anche vero che tali norme  potrebbero imporre restrizioni e vincoli alle aziende che sviluppano e utilizzano l’IA, al fine di proteggere i diritti dei cittadini e prevenire abusi, limitando fortemente la spinta all’innovazione delle sturt-up.

I principi fondamentali della legge sono: sicurezza, rispetto dei diritti fondamentali e trasparenza. Questi principi sono stati sviluppati per proteggere i cittadini europei e garantire che l’IA sia utilizzata in modo responsabile e conforme ai valori europei. La legge richiede che i sistemi siano sicuri e privi di rischi per la salute, la sicurezza e i diritti delle persone.

Le aziende saranno tenute a garantire che i loro algoritmi siano testati accuratamente e che i rischi potenziali siano valutati in modo adeguato. Saranno inoltre imposte norme specifiche per le applicazioni ad alto rischio, come l’IA utilizzata nei settori dei trasporti, della sanità e della sicurezza oppure per discriminare le persone in base alla loro razza, genere, religione o altre caratteristiche protette dalla legge.

Con i suoi principi fondamentali di sicurezza, rispetto dei diritti fondamentali e trasparenza, mira a garantire che l’IA sia utilizzata in modo responsabile e conforme ai valori europei.

Sebbene possa comportare sfide e restrizioni per le aziende, potrebbe anche creare opportunità per l’Europa di diventare un leader nell’innovazione tecnologica etica.  In tal senso, infatti, sarà fondamentale trovare un equilibrio tra la promozione dell’innovazione e la tutela dei diritti dei cittadini, al fine di garantire che l’IA continui a contribuire al benessere della società nel rispetto dei valori fondamentali.

La nuova legge europea sull’IA rappresenta un importante passo avanti nella regolamentazione delle tecnologie emergenti e nel garantire che l’innovazione avvenga nel rispetto dei valori fondamentali della società.

Tuttavia, resta da vedere come verrà attuata nella pratica e quali saranno i suoi effetti a lungo termine sul settore tecnologico e sulla società nel suo insieme. In un mondo sempre più guidato dall’IA, trovare un equilibrio tra innovazione e responsabilità sarà una sfida cruciale per tutte le nazioni e organizzazioni.

Nonostante gli obiettivi nobili della legge ci sono anche preoccupazioni e critiche: per esempio alcuni sostengono che la legislazione potrebbe soffocare l’innovazione e la competitività, imponendo oneri eccessivi sulle imprese. Altri vedono la legge come un’opportunità per l’Europa di diventare un leader mondiale nella promozione di un’IA etica e responsabile. Inoltre, la legge potrebbe stimolare lo sviluppo di tecnologie alternative, come l’IA basata sulle conoscenze umane anziché sui dati personali sensibili.

Roberta Fameli
Back To Top
Search
La riproduzione è riservata!