Skip to content

Intelligenza artificiale e responsabilità civile

Professore a contratto Università Mercatorum e Università degli Studi di Salerno, Avvocato specialista in diritto penale e Avvocato lavorista.

L’intelligenza artificiale elabora enormi quantità di dati che possono essere anche errati o incompleti, fornendo in tali casi risposte e informazioni distorte e fuorvianti. Nel caso in cui un errore o imprecisione dell’intelligenza artificiale cagioni un danno, sorge il problema di stabilire su chi debbano ricadere le responsabilità. Difatti un errore o anche una semplice inesattezza algoritmica possono comportare gravi conseguenze, dando corso ad una richiesta di risarcimento dei danni da parte del soggetto danneggiato. Si pensi al settore della sanità, ove l’uso dell’intelligenza artificiale è sempre più pervasivo: ogni errore, finanche minimo, può provocare seri danni alla salute del paziente, anche a seguito di diagnosi errate, mentre nel settore dell’automotive un difetto di programmazione dell’intelligenza artificiale, in particolare nella strumentazione delle auto a guida autonoma, può provocare incidenti, con conseguenti danni fisici e materiali. Seppur con effetti meno gravi, con riguardo alle assunzioni di nuovi lavoratori, o nell’ambito dei concorsi pubblici, nonché in materia di tutela della privacy, errori e bias dell’intelligenza artificiale possono essere causa di danni nei confronti di specifici soggetti. Frequenti, poi, sono i casi di vere e proprie discriminazioni nelle selezioni automatiche operate dall’intelligenza artificiale, dovute ad impostazioni di scelta che svantaggiano determinate etnie, abitanti, classi sociali. Ciò può avvenire, con maggior frequenza, nell’ambito bancario, lavorativo e nelle operazioni di predictive policing. Fra queste ultime sono da annoverare tutte quelle operazioni di controllo e perquisizione effettuate a campione sulla base di dati processati tramite un sistema che si avvale dell’intelligenza artificiale. Nell’ambito lavorativo, invece, è diventato famoso il caso Deliveroo, che si è concluso con una sentenza del Tribunale di Bologna la quale ha posto l’accento sulla discriminazione indiretta nei confronti di una determinata categoria di lavoratori, per effetto di decisioni automatizzate dell’intelligenza artificiale. Nella maggior parte delle ipotesi precedentemente considerate il sistema algoritmico dell’I.A., più che compiere un vero e proprio errore, si è limitato ad alterare e rendere più ampia l’inesattezza generata da un inserimento di dati non corretti, manipolati, ovvero mal interpretati dal sistema, secondo un noto processo definito tecnicamente data poisoning.

Al fine di risolvere le incertezze legislative riguardanti il risarcimento dei danni causati dall’intelligenza artificiale l’Unione europea si è attivata per creare un insieme di norme al fine di stabilire regole più precise in materia di responsabilità dei danni cagionati dall’intelligenza artificiale. Nelle more della formale entrata in vigore di una normativa organica sulla responsabilità civile per i danni causati dall’I.A., è necessario tuttavia far fronte alle tante incertezze avvalendosi della normativa vigente del codice civile e di quella contrattualistica. Alla luce del recente ritiro della proposta di direttiva sulla responsabilità da intelligenza artificiale, la c.d. AI liability directive, la necessità di un punto di raccordo fra le norme previgenti e la nuova tecnologia è diventata una condizione imprescindibile, almeno per l’immediato futuro. La problematica maggiore nello stabilire le responsabilità civili avvalendosi della normativa tradizionale, sta nel fatto che queste sono ripartite fra più soggetti difficilmente individuabili, poiché la mancanza di trasparenza delle procedure dell’algoritmo e l’effettiva difficoltà nel leggerle e interpretarle, rendono praticamente impossibile il riconoscimento dell’effettivo responsabile, ed estremamente complessa l’assunzione probatoria necessaria per ottenere una sentenza di condanna.

Con tali premesse l’utilizzo del codice civile in materia di responsabilità può certamente apparire inadeguato, tuttavia per l’immediato futuro resta il principale riferimento normativo utilizzabile nelle ipotesi di danni cagionati dalle moderne tecnologie, quali l’intelligenza artificiale. Quest’ultima, agendo in modo autonomo sulla base di logiche non agevolmente comprensibili, può generare conseguenze dannose anche in assenza di errore umano, ossia in presenza di un danno che non sia causato da condotta volontaria o negligente. Ciò mette in crisi il tradizionale modello codicistico della responsabilità civile, anche in considerazione del fatto che l’intelligenza artificiale non ha personalità giuridica e non può stare in giudizio in qualità di convenuto. Nel contempo risulta altrettanto complesso ricondurre il danno causato da un sistema di I.A. ad una persona fisica, sia esso fornitore, sviluppatore o utilizzatore. Difatti la caratteristica dell’I.A. di svolgere compiti in modo autonomo adattando il comportamento in base all’esperienza, in considerazione dei paradigmi classici della responsabilità escluderebbe qualsivoglia persona fisica. L’imprevedibilità dei risultati dell’I.A., anche per i tecnici che hanno sviluppato gli algoritmi, ossia l’opacità di tali sistemi definita black box, sembrerebbe escludere qualsivoglia responsabilità personale, per la difficoltà nel dimostrare che il danno fosse prevedibile, che vi fosse un nesso causale, che vi fosse negligenza o imperizia da parte del programmatore. Altra difficoltà oggettiva riguarda la ricostruzione della c.d. catena di responsabilità, poiché nei progetti che coinvolgono l’I.A. sono interessati una serie di soggetti e il danno viene cagionato da una combinazione di fattori, riconducibili a ognuno di essi, ma che nel contempo esclude ciascun attore.

Altra problematica riguardante il modello classico della responsabilità civile extracontrattuale, ex art. 2043 c.c., nasce dal fatto che l’onere della prova sia a carico del danneggiato. Tale onere risulterebbe alquanto complesso nel caso dell’I.A., non solo per le difficoltà di accedere al codice sorgente di proprietà del produttore del software, coperto pertanto dai diritti di copyright, ma anche per le competenze tecniche necessarie per l’analisi del sistema di I.A. e per l’utilizzo di strumenti che possano dimostrare la responsabilità. La difficoltà dell’onere della prova è acuita nei casi in cui l’algoritmo, operando in maniera autonoma o su basi tecniche non documentate, non permette l’individuazione di un responsabile. Alternativa alla responsabilità ex art. 2043 c.c. è l’orientamento, sempre più diffuso, di far rientrare i danni provocati da sistemi di I.A. autonomi, complessi, o comunque dotati della c.d. opacità, nell’ambito della responsabilità per attività pericolosa, prevista ex art. 2050 del codice civile. In tale attività si fanno, certamente, rientrare tutti quei settori in cui opera l’intelligenza artificiale, che possono mettere a rischio la salute e l’integrità fisica dell’utente, quali i dispositivi medici e i sistemi di guida assistita. Meno problematica è, invece l’applicazione dell’art. 1218 c.c. riguardante la responsabilità contrattuale, non solo per quanto riguarda l’onere della prova, a carico del debitore, ma anche dalla possibilità di inserire clausole contrattuali che prevedano precise responsabilità, obblighi di trasparenza, garanzie di conformità, supervisione e verifica, ed obblighi assicurativi per rischio tecnologico.

Per il momento vengono applicate le norme codicistiche sulla responsabilità civile, con gli adeguamenti e adattamenti necessari per renderle applicabili in materia di intelligenza artificiale. Anche la giurisprudenza sta svolgendo il proprio ruolo: le decisioni dei giudici di Palermo e Torino, accogliendo le istanze delle organizzazioni sindacali hanno obbligato alcune imprese, fra cui Uber Eats e Glovo, a rendere parzialmente conoscibili i modelli gestionali automatizzati e gli algoritmi, in un’ottica di trasparenza nell’ambito del diritto alla difesa.

Al fine di superare le difficoltà delle normative tradizionali dei Paesi membri l’UE ha approntato una serie di direttive sulla responsabilità civile per danni cagionati dall’I.A., col duplice obiettivo di garantire un’adeguata protezione giuridica al danneggiato, nonché maggior certezza e minori rischi per coloro che investono nell’I.A. e sviluppano sistemi intelligenti. La direttiva del 2022, attinente in maniera specifica alla responsabilità extracontrattuale dei sistemi di I.A., stabilisce alcuni punti fondamentali, quali: l’inversione dell’onere della prova con una presunzione di nesso causale, a vantaggio dei danneggiati nel caso dei sistemi ad alto rischio; l’obbligo del produttore del sistema di fornire informazioni tecniche alla controparte; l’applicazione delle nuove regole anche nelle relazioni fra imprese. Le nuove direttive dell’UE includono i danni causati dall’I.A. nell’ambito della responsabilità da prodotto difettoso, anche in assenza di un guasto tecnico, qualora non siano offerte garanzie di sicurezza adeguate. La direttiva segue la logica della responsabilità oggettiva del produttore.

Il ritiro nel febbraio 2025 della proposta di direttiva sulla responsabilità civile per l’I.A., la A.I. liability directive, da parte della Commissione europea, pur infliggendo un duro colpo ala necessità di una regolamentazione sovranazionale sulle nuove tecnologie, non mina la validità dei princìpi generali su cui tale proposta è stata articolata. Ciò lascia ampi spazi al legislatore nazionale e sovranazionale, aprendo ad una maggiore concentrazione ed impegno sull’applicazione dell’A.I. Act, la legge quadro sull’intelligenza artificiale, nella quale potranno confluire le nuove proposte elaborate specificamente per la direttiva poi ritirata.

La direttiva europea definita A.I. Act, rappresentante il quadro normativo sull’intelligenza artificiale, stabilisce una serie di obblighi incidenti sulla valutazione di responsabilità, quali l’adeguatezza della documentazione informativa, la trasparenza e la supervisione dell’uomo a determinati processi maggiormente delicati. Nello specifico, la supervisione umana di sistemi di I.A., c.d. human in the loop, obbliga il produttore non solo alla valutazione di personale umano tecnicamente competente, ma prevede anche la possibilità di annullamento della decisione automatica, con conseguenti responsabilità oggettive nell’ipotesi in cui non vi sia stato l’intervento del tecnico. Tutti questi obblighi diventano rilevanti ai fini della responsabilità civile del produttore essendo valutati dal giudice quali indizi di colpa o negligenza, nonché elementi determinanti sulla violazione contrattuale. Nell’impossibilità di creare nell’I.A. un soggetto giuridico destinatario di responsabilità, il tentativo dell’UE è quello di chiudere ogni vuoto normativo in materia di nuove tecnologie, semplificando la procedura di risarcimento del danno e responsabilizzando produttori e imprese alla gestione del rischio. Gestione che, ovviamente, passa anche attraverso gli obblighi assicurativi delle imprese che operano in tale settore. Tali obblighi includono la copertura, oltre alla responsabilità per danni a terzi del produttore della tecnologia, una maggiore attenzione alla tutela contro errori nei processi automatizzati. Non ancora previsto, ma auspicabile per il futuro, potrebbe essere una responsabilità organizzativa nella produzione di tecnologie complesse come l’I.A., con l’obbligo di prevedere figure tecniche che si occupano di risk managment, protocolli di conformità e tracciamento delle operazioni.

Il ritiro della proposta di direttiva non mette il punto alla questione, poiché potrà essere ripreso in seguito, oppure potranno essere varate nuove regole, anche dalle legislazioni nazionali, che diano continuità all’impegno nel creare una normativa organica sulle nuovissime tecnologie. L’auspicio è che, al primo pacchetto di disposizioni dell’AI Act, seguano altre regolamenti e direttive che includano i princìpi su cui era basata la direttiva A.I. liability directive, ritirata nel febbraio 2025. Qualora venisse a mancare tale continuità e non fosse colmato il vuoto normativo lasciato della proposta di direttiva, si rischierebbe di riportare la regolamentazione dei Paesi europei sulla responsabilità per danni da intelligenza artificiale in un limbo, ove regnano confusione e frammentarietà delle norme, nonché una mancanza di tutela di tutti gli attori che producono o utilizzano questa nuova tecnologia.

Alberto Biancardo
Torna su
Cerca
La riproduzione è riservata!