La corruzione rappresenta, in Italia, una delle più rilevanti problematiche del complesso rapporto pubblico-privato poiché incide…
La necessità di una normativa sull’intelligenza artificiale dopo il ritiro della direttiva europea AI liability

Con la diffusione sempre più pervasiva dell’intelligenza artificiale nella vita quotidiana di ogni persona, il Parlamento europeo ha intrapreso nel 2023, su impulso della Commissione, l’iter per una nuova normativa specifica sulla responsabilità dei danni provocati da algoritmi dotati di apprendimento automatico, stante la difficoltà di adattare le norme tradizionali dei Paesi membri alle nuove tecnologie basate sull’intelligenza artificiale. In particolare le legislazioni dei ventisette Stati dell’UE hanno, nel complesso, mostrato dei limiti proprio in materia di responsabilità dei danni cagionati dall’intelligenza artificiale e della conseguente tutela degli utenti. Le maggiori problematiche riguardano la difficoltà di armonizzazione fra la preesistente normativa sulla responsabilità civile, ed una nuovissima tecnologia che rischia di sfuggire ai tradizionali canoni su cui sono basati i princìpi del risarcimento del danno e degli stessi concetti di garanzia e di prodotto difettoso.
Nonostante le promettenti premesse per un impegno dell’UE ai fini della risoluzione delle contraddizioni normative in materia di intelligenza artificiale, nel febbraio 2025 il Parlamento europeo ha ritirato la proposta di direttiva, reputando superfluo e prematuro il lavoro svolto fino a quel momento. L’organo dell’Unione ha ritenuto, pertanto, adeguate le attuali normative nazionali, non reputando necessari nuovi interventi sulla responsabilità civile per danni provocati dall’intelligenza artificiale. Tale determinazione ha posto fine ai lavori della “Direttiva sulla responsabilità civile per l’intelligenza artificiale” la c.d. AI liability, la quale aveva l’obiettivo di introdurre un quadro normativo organico in materia di risarcimento dei danni causati dall’intelligenza artificiale stessa. Le nuove disposizioni europee avrebbero rappresentato, al contempo, uno strumento di tutela del cittadino europeo, e di maggior fiducia del consumatore nei confronti delle nuove tecnologie a decisione autonoma, che hanno sempre generato diffidenza soprattutto fra le fasce di utenza meno giovani.
Il ritiro della proposta di direttiva è dovuto, principalmente, alla convinzione che le preesistenti regole degli Stati membri e dell’UE siano adeguate e sufficienti. Secondo gli eurodeputati, difatti, sia il regolamento quadro definito IA Act che la direttiva sulla responsabilità da prodotto difettoso, regolano la materia del risarcimento del danno in maniera completa, riuscendo altresì ad adattare le normative nazionali alle tecnologie più recenti ed avanzate senza rischiare una iper-regolamentazione. Nello specifico, si è ritenuto che le controversie vengano gestite in maniera egregia dai giudici con l’attuale normativa, che si adatta perfettamente alle nuove tecnologie basate sull’I.A., in un’ottica di diritto vivente in continua espansione. Una nuova normativa sull’I.A. non farebbe altro che dar vita ad una proliferazione normativa e sovrapposizione di princìpi, rallentando in tal modo l’innovazione. In definitiva viene sostenuto il concetto per cui sia un errore cercare di raggiungere il progresso tecnologico rincorrendolo e regolando la materia in maniera minuziosa. Sarebbe, invece, necessario cercare di migliorare l’adeguamento e l’armonizzazione rendendo le norme previgenti più chiare ed applicabili, altrimenti si rischia di ostacolare la competitività dei settori in espansione, quali le nuove tecnologie.
Molte, tuttavia, le voci dissenzienti, contrarie al ritiro della proposta. Secondo un nutrito numero di europarlamentari, difatti, la normativa già in vigore non scioglie i problemi riguardanti la ripartizione delle responsabilità e la dimostrazione della prova del danno. Sarebbero, pertanto, necessari strumenti giuridici adeguati, quali l’applicazione delle regole sulla responsabilità oggettiva e l’inversione dell’onere della prova, nonché meccanismi di risarcimento automatizzati e obbligo assicurativo. Un altro importante principio su cui ruota la direttiva e che secondo eminenti giuristi europei dovrebbe essere applicato all’intelligenza artificiale, in conformità all’AI Act, riguarda la differente regolamentazione in funzione del livello di rischio, ossia un modello di gestione del rischio che si avvale di un’organizzazione aziendale più moderna ed efficace, la quale prevede figure apposite deputate all’analisi, al controllo e alla risoluzione di problematiche attinenti ai danni provocati da algoritmi in sistemi di machine learning.
Difficile stabilire chi abbia ragione, ossia se la nuova direttiva avrebbe garantito maggior tutela agli utenti e chiarezza fra gli operatori del settore dell’innovazione. La dottrina si è, difatti, divisa fra coloro che reputano eccessiva una disciplina ad hoc per l’ambito tecnologico, e coloro che ritengono che in un settore con tali peculiarità sia indispensabile una rivisitazione normativa. A parere dello scrivente la normativa vigente sulla responsabilità ha effettivamente bisogno di alcuni ritocchi per adeguarsi ai moderni sistemi di intelligenza artificiale, altrimenti la sua applicazione diviene indiscutibilmente problematica. Alcune proposte della direttiva ritirata nel febbraio 2025, quali l’inversione dell’onere della prova del danno, la responsabilità oggettiva condivisa fra più soggetti e gli obblighi di controlli aggiuntivi ai fornitori di servizi che si avvalgono di scelte automatizzate, appaiono punti da cui non si può prescindere per una gestione corretta e veloce dei casi concreti, essendo peraltro agevolmente applicabili anche alle vigenti disposizioni. Pur volendo avallare l’idea che una normativa troppo rigida rischierebbe di rallentare lo sviluppo tecnologico, non si può tuttavia non rilevare la frammentazione nazionale delle regolamentazioni in materia di responsabilità, e la presumibile diffidenza degli utenti nei confronti delle nuove tecnologie, qualora non venissero adeguatamente tutelati i loro interessi. Gli operatori del mercato e gli utenti chiedono regole più semplici, uniformi e attuabili. Una normativa ad hoc sull’intelligenza artificiale non significherebbe necessariamente maggiore complessità e rigidità e non potrebbe aprioristicamente essere etichettata come iper-regolamentazione. Essa andrebbe, invece, a porsi quale normativa speciale al fine di fissare i punti più controversi, adattando ed armonizzando i princìpi della responsabilità civile alle nuove tecnologie emergenti.
Chiarita la necessità di nuove regole, ci si chiede se la direttiva ritirata sia indispensabile o superflua. A parere dello scrivente una efficace regolamentazione sull’intelligenza artificiale non richiede necessariamente un nuovo complesso normativo creato ad hoc, a patto di includere nelle regolamentazioni nazionali alcuni istituti e princìpi emersi durante i lavori, quali l’inversione dell’onere della prova, la trasparenza algoritmica e la responsabilità oggettiva, per rendere più adeguata la vigente disciplina ad una tecnologia di tale complessità. Resta difficile, tuttavia, commentare una scelta che ha azzerato due anni di lavori del Parlamento europeo. Due anni da cui erano emerse alcune semplici regole bilanciate ed equilibrate, che sarebbero state utili alla tutela degli utenti ed infondere maggior certezza ai nuovi investitori nel settore hi tech. Molti osservatori internazionali hanno individuato nella scelta del ritiro della direttiva un segnale di favore verso le grandi aziende della tecnologia, soprattutto americane, che in caso di approvazione avrebbero avuto evidenti svantaggi, per la conseguente facilitazione all’accesso al risarcimento del danno agli utenti. Elementi quali la presunzione di causalità, ossia una vera e propria inversione dell’onere della prova del nesso causale fra algoritmo e danno, e l’accesso ai codici degli algoritmi, non sarebbero state delle novità gradite a tali imprese big tech. Secondo i più critici non è un caso che il ritiro della direttiva sia avvenuto subito dopo le critiche ad essa mosse dal vicepresidente degli Stati Uniti, al summit di Parigi sull’intelligenza artificiale, ove questi aveva esternato una inequivocabile riflessione, ossia che le nuove regole europee “uccidono l’industria”. In risposta a tale affermazione si potrebbe ribattere che l’industria viene danneggiata dall’incertezza e dalla poca chiarezza delle regole, nonché dalla diffidenza dei destinatari nei confronti di un nuovo prodotto o servizio. La scarsa tutela degli utenti sarebbe certamente foriera di diffidenza da parte di questi ultimi, potendo perciò provocare l’insuccesso di una nuova tecnologia.
Latest posts by Alberto Biancardo (see all)
- L’evoluzione normativa nel contrasto ai fenomeni corruttivi - 9 Febbraio 2026
- I reati appropriazione indebita, peculato e peculato per distrazione - 9 Febbraio 2026
- I delitti dei pubblici ufficiali contro la Pubblica Amministrazione - 2 Febbraio 2026
