3 MARZO. AFFITTI – REGISTRAZIONE E IMPOSTA DI SERVIZIO. Le parti contraenti di contratti di locazione e…
Intelligenza artificiale e responsabilità penale

Pur non essendo stata universalmente condivisa una formula che racchiuda l’essenza e il significato dell’intelligenza artificiale, appare indubbiamente chiarificatrice la definizione coniata nel 1956 da uno dei suoi pionieri, John McCarthy, secondo cui l’I.A. è il modo in cui le macchine usano il linguaggio, formulano astrazioni e concetti, risolvono problemi riservati generalmente agli esseri umani, migliorando se stesse. In un’accezione più moderna ed accurata l’intelligenza artificiale può essere definita come la capacità della macchina di interagire e comunicare con l’ambiente esterno, simulare funzioni cognitive umane come apprendimento, ragionamento e percezione, con l’elemento aggiuntivo della capacità di assumere decisioni alternative a quelle inizialmente programmate, perciò non prevedibili dall’uomo, sulla base di algoritmi che si migliorano imparando dai propri errori. In alcuni casi, difatti, gli algoritmi dotati di intelligenza artificiale hanno la capacità di compiere scelte autonomamente, senza controllo o influenze esterne da parte dell’uomo. Siamo di fronte alla c.d. black box algorithm, per cui non solo l’utente, ma lo stesso sviluppatore del sistema non è in grado di comprendere e controllare il processo logico che ha condotto la macchina ad una determinata decisione. Tali sistemi sono dotati di una capacità definita machine learning, ossia possono apprendere dai dati immagazzinati e dalle interazioni con l’ambiente, e migliorare autonomamente adattandosi agli esiti del processo di apprendimento, senza alcuna influenza da parte dell’uomo.
Ferma restando la responsabilità di coloro che utilizzano consapevolmente l’intelligenza artificiale come strumento per commettere un reato, le problematiche sorgono nell’ascrivere una responsabilità penale colposa nelle ipotesi in cui la macchina sia completamente autonoma. È, difatti, proprio l’imprevedibilità delle macchine autonome dotate di intelligenza artificiale a creare i maggiori contrasti con la responsabilità penale, come tradizionalmente la conosciamo. Per l’art. 27 comma 1 della Costituzione la responsabilità penale è personale: nessuno può essere punito per fatto altrui, e sono escluse forme di responsabilità penale oggettiva. L’art. 42 comma 1 del codice penale, poi, stabilisce che nessuno può essere punito per un’azione od omissione preveduta dalla legge come reato, se non l’ha commessa con coscienza e volontà. Per l’art. 43 c.p. oltre al dolo, il reato può essere preterintenzionale o infine essere commesso per colpa, quando l’evento, pur se previsto, non è voluto dall’agente e si verifica a causa di negligenza, imprudenza, imperizia, ovvero per inosservanza di leggi, regolamenti, ordini o discipline. Ci si chiede, pertanto, in che modo l’intelligenza artificiale autonoma possa essere oggetto di una condanna in un sistema di diritto penale basato sul principio della personalità della responsabilità. Si pensi, ad esempio, alle automobili a guida autonoma: nell’ipotesi di investimento di un pedone da parte di un’autovettura guidata autonomamente dal computer, è possibile attribuire responsabilità di rilevanza penale? O ancora, è imputabile per colpa medica il primario che opera avvalendosi della chirurgia robotica autonoma, nell’ipotesi di un evento nefasto?
Alcuni giuristi hanno voluto individuare nel sistema informatico fornito di intelligenza artificiale un moderno soggetto attivo del reato. A parere dello scrivente ciò non è possibile per più ordini di ragioni. In primis la macchina intelligente pur potendo commettere l’azione colpevole, l’actus reus, sarebbe sprovvista della mens rea, ossia l’intenzione criminale, lasciando scoperto l’elemento soggettivo o psicologico del reato. Inoltre, l’eventuale pena comminata alla macchina non risponderebbe ad alcuna delle funzioni per cui viene predisposta, sia in senso riabilitativo-rieducativo, sia afflittivo e deterrente. Le macchine sono, difatti, ontologicamente incompatibili con la sanzione penale, la quale necessita e presuppone un agire cosciente, non avendo esse la necessità di risocializzazione e reinserimento nella società, non provando timore della privazione della libertà e non percependo il disvalore della propria condotta. Se, ipoteticamente, dovesse prevedersi una responsabilità diretta della macchina, sarebbe comunque necessario collegarla alla responsabilità umana, altrimenti l’utilizzo dell’automa per la commissione di un reato diverrebbe un espediente utilizzato dalle persone per ottenere l’impunità deviando ogni responsabilità sulla macchina.
Nelle ipotesi in cui la macchina autonoma non permette alcun intervento da parte dell’uomo o di esperti, poi, non possono essere attribuite responsabilità agli utilizzatori o ai tecnici deputati al controllo post-produzione. La responsabilità può, tuttavia, essere attribuita, a titolo di colpa, al produttore della macchina intelligente e allo sviluppatore del software. Sarà, poi, compito del giudice stabilire se produttore e sviluppatore avrebbero potuto concretamente prevedere ed evitare l’evento dannoso cagionato dalla macchina. Per il produttore della tecnologia con intelligenza artificiale capace di auto-istruirsi può essere previsto un grado di colpa dovuta ad imprudenza per il solo fatto di non aver predisposto dispositivi che evitassero pericoli presentati dalla macchina o consentissero un controllo di emergenza. Dovrebbe, difatti, essere preciso compito del produttore e del responsabile del progetto di sviluppo prevedere ogni reazione della macchina. Anche ove le reazioni fossero non prevedibili, lo sviluppatore nell’accettare la loro imprevedibilità, si assume un certo grado di colpa. Ciò quando l’evento avviene per una condotta imprudente, con l’assunzione di un rischio improbabile ma comunque possibile, dovuto ad insufficiente ponderazione delle conseguenze.
Tale orientamento non stravolge il concetto tradizionale di responsabilità penale, e nello stesso tempo soddisfa i requisiti sia del principio di legalità, sia del principio di colpevolezza. D’altronde, come l’intelligenza artificiale, tutte le opere dell’uomo hanno un certo grado di imprevedibilità ed imponderabilità. Ciò non impedisce un’analisi eziologica che possa stabilire responsabilità a titolo di colpa in capo ai produttori e progettisti. Seguendo questo ragionamento anche le macchine autonome, al pari di tutte le opere dell’ingegno umano, presuppongono delle responsabilità attribuibili ai soggetti che le hanno pensate, prodotte, commercializzate. Siamo, con tale processo logico, rientrati nel campo della responsabilità penale c.d. da prodotto difettoso o da attività pericolosa, la cui normativa è solida e dettagliata. Quando i sistemi intelligenti sono ad alto rischio, come ad esempio le vetture, velivoli o droni a guida autonoma, oppure la strumentazione di chirurgia robotica indipendente, l’omessa supervisione nelle fasi di testing è all’origine di responsabilità per negligenza o imprudenza. Soltanto qualora il giudicante accertasse l’assoluta impossibilità di tali soggetti di prevedere la verificazione dell’evento dannoso, non potrebbe effettivamente sussistere alcuna responsabilità penale.
La problematica dell’ascrizione di responsabilità penali per eventi dannosi prodotti da macchine autonome sembrerebbe, secondo i predetti concetti, superata. Tuttavia, in concreto, sorgono difficoltà non agevolmente sostenibili. Innanzitutto la complessità del funzionamento degli algoritmi dell’intelligenza artificiale non consente l’agevole individuazione dell’autore della routine e dell’algoritmo stesso che ha cagionato il comportamento lesivo della macchina. Ciò si traduce, ovviamente, in una notevole difficoltà di apporto di elementi probatori, in giudizio durante la fase istruttoria. Maggiormente agevole è, invece, l’individuazione del produttore che con i suoi obblighi di compliance nella gestione del rischio assume una posizione di garanzia e, in conformità con le disposizioni dell’Unione europea contenute nell’AI Act, risulta perciò il principale responsabile. Una soluzione condivisibile è contenuta proprio nella normativa europea che impone ai Paesi membri l’adozione di regole precauzionali e protocolli procedurali prescrittivi che impongono standard comportamentali, il cui rispetto è atto ad escludere ogni colpa in capo al produttore.
Latest posts by Alberto Biancardo (see all)
- Intelligenza artificiale e responsabilità penale - 24 Febbraio 2026
- L’appropriazione indebita alla luce della sentenza della Corte costituzionale n. 46 del 2024 - 24 Febbraio 2026
- Le segnalazioni di illeciti e la tutela del whistleblower - 24 Febbraio 2026
