
Indice
- Come l’intelligenza artificiale sta cambiando colpevolezza, aggravanti e criteri di imputazione
- La nuova aggravante generale per l’uso dell’intelligenza artificiale
- Le nuove fattispecie e le aggravanti specifiche
- IA e reati economici: un aggravamento strutturale
- Responsabilità penale e livello di controllo sull’IA
- Criticità interpretative in materia di AI e responsabilità penale
- Prospettive future su AI e responsabilità penale
Come l’intelligenza artificiale sta cambiando colpevolezza, aggravanti e criteri di imputazione
Con la legge n. 132 del 2025, il legislatore italiano interviene per la prima volta in modo organico sul rapporto tra AI e responsabilità penale, affrontando uno dei nodi più delicati del diritto contemporaneo.
Non si tratta di un semplice aggiornamento terminologico, ma di un vero tentativo di riscrivere alcune categorie fondamentali della responsabilità penale alla luce delle nuove tecnologie.
Il punto centrale della riforma è chiaro: l’intelligenza artificiale non è più solo uno strumento neutro. In determinate condizioni, diventa un fattore che incide direttamente sulla colpevolezza, sulla gravità del fatto e sulle conseguenze sanzionatorie.
La nuova aggravante generale per l’uso dell’intelligenza artificiale
Il cuore della riforma in materia di AI e responsabilità penale è rappresentato dall’introduzione dell’art. 61, n. 11-undecies c.p.
Per la prima volta, il codice penale prevede una circostanza aggravante comune applicabile a tutti i reati quando il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale.
L’aggravante opera però solo a determinate condizioni. Il legislatore non punisce l’uso dell’IA in quanto tale, ma il modo in cui viene utilizzata. In particolare, l’aggravante si applica quando:
- L’IA costituisce un mezzo insidioso
- L’uso dell’IA ostacola la difesa pubblica o privata
- L’impiego dell’IA aggrava le conseguenze del reato
La ratio è evidente: l’intelligenza artificiale rileva penalmente quando aumenta l’offensività del fatto o altera l’equilibrio tra autore e vittima.
Mezzo insidioso, deepfake e AI: profili di responsabilità penale
Il riferimento al “mezzo insidioso” richiama una categoria classica del diritto penale, che nel contesto digitale assume nuove forme.
Nel quadro di AI e responsabilità penale, tale concetto si traduce nell’uso di sistemi capaci di mascherare la propria natura artificiale, come deepfake, chatbot avanzati o software di simulazione dell’identità umana.
Si tratta di tecnologie che non si limitano a ingannare, ma rendono l’inganno strutturalmente più difficile da riconoscere, aumentando la vulnerabilità della vittima.
Le nuove fattispecie e le aggravanti specifiche
Accanto all’aggravante generale, la legge 132/2025 interviene su singole fattispecie già esistenti e ne introduce di nuove, rafforzando ulteriormente il legame tra AI e responsabilità penale.
Un primo esempio è la modifica dell’art. 294 c.p., in materia di attentati contro i diritti politici del cittadino, che prevede un aumento di pena quando l’inganno è realizzato mediante sistemi di intelligenza artificiale.
Il segnale è chiaro: l’uso dell’IA nella propaganda, nella disinformazione e nella manipolazione dell’opinione pubblica è considerato particolarmente pericoloso.
Ancora più rilevante è l’introduzione dell’art. 612-quater c.p., che punisce la diffusione illecita di contenuti generati o alterati tramite intelligenza artificiale.
La norma colpisce chi diffonde, senza consenso, immagini, video o voci falsificate idonee a ingannare sulla loro autenticità e a cagionare un danno ingiusto alla persona offesa.
Si tratta di una risposta diretta al fenomeno dei deepfake, soprattutto quando incidono su reputazione, vita privata e dignità personale, segnando un passaggio decisivo nel sistema di AI e responsabilità penale.
IA e reati economici: un aggravamento strutturale
La riforma non si limita ai reati contro la persona, ma coinvolge in modo esplicito anche il diritto penale dell’economia.
L’art. 2637 c.c., relativo agli ostacoli alle funzioni delle autorità di vigilanza, prevede ora una pena più elevata se il fatto è commesso mediante sistemi di intelligenza artificiale. Lo stesso vale per l’abuso di informazioni privilegiate, disciplinato dal TUF.
Il legislatore prende atto di un dato ormai evidente: l’intelligenza artificiale consente di rendere le condotte illecite più sofisticate, più rapide e più difficili da intercettare. Nei mercati finanziari, questo significa maggiore capacità di manipolazione e maggiore opacità rispetto ai controlli.
Responsabilità penale e livello di controllo sull’IA
Il passaggio più delicato della riforma in tema di AI e responsabilità penale emerge nella delega legislativa prevista dall’art. 24 della legge 132/2025.
Qui viene introdotto un principio destinato a incidere profondamente sulla teoria dell’imputazione.
La responsabilità penale, secondo il legislatore, dovrà tenere conto del livello effettivo di controllo esercitato dall’agente sul sistema di intelligenza artificiale.
Non basta più chiedersi se una persona abbia agito o omesso di agire. Occorre valutare:
- Quanto il sistema fosse autonomo
- Quanto l’agente potesse prevedere o governare le decisioni dell’IA
- Se l’evento sia frutto di un uso consapevole o di una delega tecnologica incontrollata
Si delinea così una scala di responsabilità, alla cui cima l’IA è uno strumento pienamente governato dall’uomo, e la responsabilità resta integra.
Scendendo lungo tale scala, l’autonomia del sistema diventa un fattore che può incidere sulla colpevolezza, fino a porre problemi seri di imputazione soggettiva.
Applicazioni pratiche: truffe, deepfake, reati patrimoniali
Sul piano applicativo, l’aggravante dell’art. 61, n. 11-undecies è destinata a operare in numerosi ambiti.
Nelle truffe online, l’uso di chatbot capaci di sostenere conversazioni credibili e personalizzate integra facilmente il concetto di mezzo insidioso.
Lo stesso vale per gli algoritmi che selezionano automaticamente le vittime più vulnerabili.
Nei reati contro la persona, i deepfake possono integrare sia la nuova fattispecie dell’art. 612-quater, sia aggravare reati preesistenti come la diffamazione o le molestie, soprattutto quando rendono più difficile per la vittima dimostrare la falsità del contenuto.
Nei reati patrimoniali, l’IA consente di automatizzare frodi complesse, accessi abusivi e clonazioni di strumenti di pagamento, con un evidente aggravamento delle conseguenze dannose.
Criticità interpretative in materia di AI e responsabilità penale
Le nuove norme aprono inevitabilmente problemi interpretativi rilevanti.
La definizione di “sistema di intelligenza artificiale” richiama quella del Regolamento UE 2024/1689, ma il confine tra software avanzato e vera IA resta spesso incerto nella pratica.
Ancora più complessa è la valutazione del livello di controllo. Stabilire quando un agente “governa” davvero un sistema e quando, invece, ne subisce le decisioni sarà uno dei nodi centrali della futura giurisprudenza.
Prospettive future su AI e responsabilità penale
La legge prevede l’adozione di decreti attuativi entro dodici mesi.
Sarà in quella sede che verranno chiariti aspetti decisivi: dalla responsabilità per omessa sicurezza dei sistemi di IA fino all’uso dell’intelligenza artificiale nelle indagini preliminari.
Quella attuale è una riforma di cornice: necessaria, ma non definitiva.
L’intelligenza artificiale non cambia solo il modo in cui si commettono i reati, ma il modo stesso in cui il diritto penale deve pensare responsabilità, colpevolezza e controllo umano.
Ed è su questo terreno che, nei prossimi anni, si giocherà una partita giuridica tutt’altro che teorica.
