top of page
Daniel Piscitelli

La responsabilità penale al tempo dell’Intelligenza artificiale

Avv. Federico Luppi e Avv. Matilde Bellingeri - Studio Legale Diodà


Gli esempi dei possibili utilizzi della nuova Intelligenza Artificiale “generativa” (come ChatGPT) si moltiplicano senza sosta, e con essi, le preoccupazioni per le ricadute offensive che, in prospettiva futura, potrebbero derivare dalla sua applicazione in settori socioeconomici in cui sono in gioco beni giuridici fondamentali.

La questione, da un punto di vista penalistico, può essere riassunta con un interrogativo concreto: ad esempio, chi risponde penalmente se un veicolo a guida autonoma, violando le regole cautelari, cagiona lesioni (od anche la morte) di un pedone?

Una tale questione può essere riproposta anche in altri ambiti: si pensi ai reati di Market Abuse, qualora vengano fornite notizie false e sensibili da parte piattaforme di intelligenza artificiale oppure ipotesi di manipolazione del mercato a causa di operazioni realizzate da algoritmi di trading finanziario.

Ancora, si pensi alla possibile automazione della compliance penale per la prevenzione di illeciti (ad esempio in punto di sicurezza e protezione dei lavoratori) all’interno di una realtà aziendale.

Una premessa necessaria: secondo la teoria del diritto penale (moderno, forse non più), il reato è quel comportamento umano (attivo od omissivo) al quale il legislatore ricollega una sanzione penale; dunque, un’intelligenza artificiale non è un agente nel senso penalistico del termine e, conseguentemente, non potendo essere considerata un valido soggetto di imputazione della responsabilità penale. L’A.I. è in definitiva una macchina e, pertanto, non ha la capacità di agire in modo consapevole e volontario, elementi che sono i fondamenti imprescindibili della colpevolezza della responsabilità penale (e della relativa rimproverabilità di una condotta).

Ci pare dunque che la riflessione sui reati da intelligenza artificiale possa e debba coinvolgere la sfera del “produttore”: a tal fine, è imprescindibile la distinzione tra i reati dolosi e quelli colposi.

Nel primo caso, ogni volta in cui una forma di intelligenza artificiale viene utilizzata per realizzare condotte direttamente e inequivocabilmente criminali, gli esiti di tali attività devono necessariamente essere ricondotte ai soggetti che a ciò hanno destinato l’intelligenza artificiale, in base ai generalissimi criteri di imputazione delle responsabilità penali che, dunque, appaiono allo stato non risentire di tale innovazione tecnologica.

Un esempio: le frodi informatiche, reati posti in essere in rete che si manifestano con modalità comunicative, la creazione, tramite l’intelligenza artificiale, di “creare” soggetti virtuali e renderli operativi in termini attendibili e per finalità criminali.

In questi casi l’utilizzo del programma per predisporre testi, per organizzare informazioni e per sviluppare contatti funzionali a attuare tali condotte illecite non potrà che ricadere su coloro che hanno posto in essere l’attività stessa.

In relazione alle condotte colpose, la conclusione è più articolata. Come è noto, ai sensi dell’art. 43 comma 3 c.p. il reato è colposo «quando l’evento, anche se preveduto, non è voluto dall’agente e si verifica a causa di negligenza o imprudenza o imperizia, ovvero per inosservanza di leggi, regolamenti, ordini o discipline».

In che termini, e come, tale principio è trasponibile nell’era dell’A.I.?

Delle due, l’una: o la colpa dovrà essere sempre considerata sussistente in capo al produttore, dal momento che egli potrà sempre prevedere una determinata classe di eventi lesivi algoritmici; oppure, qualora prevalga una concezione restrittiva della colpa, difficilmente potrà ritenersi esistente una colpa in capo al produttore, stante il carattere di intrinseca imprevedibilità̀ dell’evento lesivo concretamente realizzatosi.

Ciò premesso, si ribadisce che gli “algoritmi di apprendimento automatico” (machine learning) restituiscono risultati potenzialmente infiniti e imprevedibili in quanto i comportamenti umani all’interno dei sistemi da cui apprendono sono imprevedibili. E proprio in questo, sostanzialmente, consiste il vero rischio.

Ad ogni modo, data la difficoltà di individuare, all’interno delle strutture che hanno sviluppato il prodotto, i soggetti effettivamente responsabili di eventuali criticità dello stesso, non vi sono dubbi rispetto al fatto che, in molti casi, proprio sulla base dei principi generali di colpa, potrà essere individuata una responsabilità penale di tali soggetti, ovvero, laddove il legislatore lo ritenga, anche ai sensi del d.lgs. n. 231/2001, in relazione alla responsabilità delle persone giuridiche nell’ambito delle quali il soggetto fisico ha operato, ferma restando la necessità di provare il nesso tra l’evento che si assume illecito e la condotta di tali soggetti.

Si pensi, ad esempio, all’implementazione della base conoscitiva del programma - e quindi del meccanismo di autoapprendimento - sulla base di dati e informazioni non corretti o non pertinenti o non adeguatamente finalizzati: si tratta di una condotta che, ove provata, potrebbe indubbiamente costituire un principio di colpa, di rilevanza penale, così come a livello civilistico. In conclusione, occorre comprendere se il timore di “nuocere” alla diffusione e all’utilizzo generalizzato di forme di A.I. possa essere bilanciato da nuovi strumenti di riconoscimento delle responsabilità o se non sia necessario affrontare l’applicazione di canoni e strumenti da tempo metabolizzati dal sistema penale.

La risposta non è ovviamente scontata. La prospettiva di imboccare la scorciatoia del diritto penale di evento, ricorrendo ad esempio alla tradizionale nozione di posizione di garanzia, è suggestiva per la sua funzione di rassicurazione sociale, ma potrebbe determinare un mero centro di accollo di responsabilità in caso di eventi avversi, senza che in realtà ciò presupponga una reale rimproverabilità nei confronti di un soggetto, in realtà privo di un reale ed effettivo potere di governo ed intervento sull’attività algoritmica.

Infine, si segnala che, in data 13 marzo 2024, è stato approvato dal Parlamento Europeo la legge sull’Intelligenza Artificiale (la cui proposta di regolamento era stata presentata dalla Commissione europea il 21 aprile 2021).

L’obiettivo della norma europea è quella, in particolare, di “di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore. Il regolamento stabilisce obblighi per l’IA sulla base dei possibili rischi e del livello d’impatto”.

ll regolamento deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura. Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.

Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore.

Post correlati

Mostra tutti

Comments


bottom of page