Salta al contenuto ID

La normativa sull’intelligenza artificiale e nuove fattispecie di reato

Professore a contratto Università Mercatorum e Università degli Studi di Salerno, Avvocato specialista in diritto penale e Avvocato lavorista.

L’intelligenza artificiale è una moderna tecnologia che ha rivoluzionato l’interazione fra uomo e macchina poiché riesce a simulare i processi dell’intelligenza umana, quali le funzioni cognitive, l’interazione con l’ambiente e l’apprendimento, riuscendo così a risolvere problemi complessi e ad agire per uno specifico obiettivo prestabilito, ma con decisioni e percorsi autonomi. I sistemi di intelligenza artificiale, grazie all’utilizzo delle reti neurali, modelli computazionali ispirati al cervello umano sono, pertanto, capaci di adattare il proprio comportamento, analizzando gli effetti delle azioni precedenti e migliorando i risultati sulla base dei propri errori (c.d. machine learning). Nonostante le ampie potenzialità di tale tecnologia, notevoli sono i rischi che la sua diffusione può provocare se utilizzata in maniera sproporzionata, avventata, scorretta o inappropriata. I maggiori pericoli sono legati alla sicurezza della persona: si pensi ad esempio alle autovetture a guida autonoma, oppure ai droni ad uso militare o alla robotica in campo chirurgico. Fra i principali rischi dell’I.A. si possono annoverare anche i pregiudizi a carattere discriminatorio amplificati dai bias degli algoritmi, nonché le problematiche riguardanti il diritto alla riservatezza. La possibilità di contraffare contenuti di immagini, video o tracce audio con l’I.A. ha, poi, aumentato il rischio di diffusione dei c.d. deepfake. Tali contenuti multimediali, contraffatti con l’intelligenza artificiale per generare false notizie, ovvero falsi video, immagini o conversazioni partendo da contenuti reali, possono essere utilizzati nelle campagne di disinformazione, diffamazione e linciaggio mediatico. Con l’I.A. possono, ad esempio, essere creati falsi video pornografici generati dall’immagine reale di una persona, oppure tracce audio completamente contraffatte con la voce di soggetti reali.

Per i predetti motivi si è resa necessaria una stringente regolamentazione in materia di intelligenza artificiale, con il preciso intento di minimizzare gli impatti negativi che tale tecnologia può avere sulle persone, tramite la sanzione penale nei confronti di coloro che la utilizzano per scopi illeciti, diffamatori o manipolatori. È stata, a tal fine varata nel settembre del 2025, sulla base del c.d. A.I. Act europeo, una normativa che introduce nuove fattispecie penali, punendo la diffusione dei deepfake e la manipolazione dei mercati finanziari. La nuova normativa provvede, poi, a regolamentare il c.d. digital advertising al fine di limitare i rischi generati dalla promozione di prodotti on-line tramite l’intelligenza artificiale. Un altro punto focale della riforma è l’aggravante applicata ai delitti commessi con l’utilizzo dell’intelligenza artificiale, se questa costituisce un mezzo insidioso o aggrava gli effetti del reato. La legge, poi, prescrive a chi diffonde contenuti creati o manipolati con l’I.A., l’obbligo di informarne i destinatari.

La predetta legge sull’intelligenza artificiale, n. 132 del settembre 2025, ha origine dal regolamento UE 2024/1689, il c.d. A.I. Act, cui fa espresso rinvio con riguardo ad alcune disposizioni. La nuova normativa del 2025 introduce importanti obblighi per imprese e professionisti che utilizzano l’intelligenza artificiale ed aggiunge, altresì, nuove fattispecie di reato correlate alla rivoluzionaria tecnologia. In particolare è stato aggiunto al codice penale il nuovo articolo 612-quater, rubricato “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”, in vigore dal 10 ottobre del 2025. La norma punisce con la reclusione da uno a cinque anni chiunque diffonde senza il consenso della persona, cagionandole un danno ingiusto, immagini, video o voci alterati mediante l’impiego di sistemi di intelligenza artificiale idonei a indurre in inganno sulla loro genuinità. Si riconosce, così, tutela penale alla persona contro l’esposizione ai pericoli generati dal condizionamento ed inganno prodotti dalle tecnologie che si avvalgono dell’intelligenza artificiale. La rilevanza penale è, tuttavia, limitata alle sole ipotesi in cui sussista un danno ingiusto e ai casi in cui si faccia uso dell’intelligenza artificiale, secondo la definizione offerta dall’A.I. Act. Secondo il regolamento europeo un sistema di I.A. si connota per la propria autonomia e la capacità di influenzare in maniera innovativa l’ambiente esterno. Tale definizione risulta, tuttavia, a parere dello scrivente, alquanto generica, minando in tal modo la certezza e prevedibilità normativa.

Il nuovo delitto di illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale, previsto dall’art. 612-quater c.p., il c.d. deepfake, ha un raggio d’azione notevolmente più ampio della manipolazione di immagini e video attinenti alla sfera di riservatezza sessuale della persona, poiché riguarda anche la contraffazione di dichiarazioni di personaggi pubblici e privati al fine di diffamarli e screditarli. Per la configurazione della fattispecie del delitto di cui all’art. 612-quater c.p. la diffusione dei contenuti deve avvenire senza il consenso della persona. È previsto un aumento di pena se il fatto viene commesso contro un minore, a scopo di profitto, o nell’esercizio di attività professionale. La limitazione della perseguibilità penale alle ipotesi di danno ingiusto subìto dalla persona offesa, sembra circoscrivere eccessivamente la fattispecie. Viste le elevate ipotesi di danno, anche solo potenziale, dell’intelligenza artificiale, un reato di pericolo astratto avrebbe meglio tutelato il bene giuridico protetto.

All’art. 171 della legge 633 del 1941 è, poi, stata aggiunta la nuova lettera a-ter riguardante la violazione del diritto d’autore nell’estrazione di dati per i sistemi di intelligenza artificiale. La norma punisce con la multa da euro 51 a 2.065, chi riproduce o estrae testo o dati da opere o altri materiali in violazione del diritto d’autore, anche attraverso sistemi di intelligenza artificiale. La legge n. 132 del 2025 aggiunge, poi, all’art. 61 c.p. una nuova circostanza aggravante comune, nell’ipotesi in cui il fatto sia commesso mediante sistemi di intelligenza artificiale. All’art. 294 c.p. è stata invece aggiunta un’aggravante speciale nel caso in cui venga impedito a taluno l’esercizio di un diritto politico o determinato in senso difforme alla sua volontà, se posto in essere mediante sistemi di intelligenza artificiale. Altra aggravante riguarda il delitto di aggiotaggio, nel caso in cui la manipolazione del mercato o alterazione dei prezzi avvenga tramite l’utilizzo dell’intelligenza artificiale.

Le nuove implicazioni di rilevanza penale derivanti dall’impiego dell’I.A. potrebbero ampliarsi in un prossimo futuro, a causa di un utilizzo sempre più pervasivo di tale tecnologia da parte delle aziende e dei singoli individui. Ci si riferisce, in particolare, a quei settori che non hanno ancora trovato copertura normativa, ma che sono in continua espansione, quali le operazioni di predictive policing e di giustizia predittiva, ormai ampiamente utilizzate in alcuni Paesi extraeuropei. Un caso emblematico, al riguardo, è il famoso “Caso Loomis”, ove la Corte Suprema del Wisconsin negli Stati Uniti aveva stabilito una pena a sei anni ad un imputato, determinata dall’elaborazione di un algoritmo del sistema informatico Compas. Tale sistema aveva aumentato la pena base correlandola al rischio di recidiva secondo un calcolo automatizzato dell’algoritmo. Pena, invero, eccessiva soprattutto in considerazione che era stata calcolata sulla base di una mera analisi predittiva. L’esperienza del “Caso Loomis” dovrebbe far riflettere sui rischi dell’intelligenza artificiale, soprattutto quando essa non viene utilizzata quale ausilio, ma quale sostituto della mente umana mettendo a rischio i diritti delle persone o, peggio, la loro stessa incolumità.

Alberto Biancardo
Latest posts by Alberto Biancardo (see all)
Torna su
Cerca