di Luca Orlando
Immagina questa scena: un algoritmo analizza un video di sorveglianza, ricostruisce i movimenti di due figure, valuta la distanza, la velocità, il tono della voce. Alla fine, elabora un verdetto: “la reazione è proporzionata”. È un esperimento? Non più. È il mondo verso cui ci stiamo muovendo, in cui la giustizia — o almeno parte di essa — inizia ad essere calcolata, elaborata, persino simulata da una macchina.
Ma può davvero una macchina capire la legittima difesa? Può cogliere l’intenzione, la paura, l’improvvisazione, l’umanità di chi ha reagito a un’aggressione? Oppure, nel nome dell’efficienza, rischiamo di svuotare il diritto del suo tassello più fragile, ma anche più autentico: l’emozione?
Il tema è tutt’altro che fantascientifico. Già oggi esistono software capaci di supportare giudici e pubblici ministeri nell’analisi dei casi. Si chiamano predictive justice: sistemi di intelligenza artificiale addestrati su migliaia di sentenze per identificare pattern ricorrenti, aiutare nella previsione degli esiti processuali, suggerire analogie giurisprudenziali. Funzionano? In molti casi sì. Ma funzionano meglio dove il diritto è rigido, schematico, tecnico. Non dove entra in gioco l’imprevedibilità dell’essere umano.
E la legittima difesa è esattamente questo: un margine di imponderabile. Ogni caso è una storia a sé. Ogni reazione un intreccio di emozioni, impulsi, contesto. Anche due identici furti in appartamento possono finire in modo opposto: uno con una chiamata al 112, l’altro con un colpo di pistola. E la differenza non la fa il reato, ma chi lo subisce. Il suo passato, il suo carattere, il suo livello di tolleranza alla paura.
Una macchina, per quanto sofisticata, può cogliere tutto questo? Difficile. Perché l’intelligenza artificiale è, per definizione, senza corpo, senza memoria, senza emozioni. Può calcolare, ma non provare. Può associare, ma non comprendere. E questo fa tutta la differenza, soprattutto quando si giudica una scelta fatta in pochi secondi e in condizioni di pericolo.
Il rischio, quindi, non è solo quello di un errore tecnico. È quello di un disallineamento profondo tra il diritto come esperienza vissuta e il diritto come formula matematica. Un giudizio sulla legittima difesa non può basarsi solo su parametri oggettivi. Deve entrare nella mente di chi ha agito, cercare la verità tra le pieghe del dubbio. E questo, ancora oggi — e forse per sempre — resta un lavoro da esseri umani.
Tuttavia, l’intelligenza artificiale può avere un ruolo utile. Può aiutare nella raccolta e nella gestione delle prove. Può evitare errori grossolani. Può fornire uno strumento di supporto, ma non di sostituzione. La vera sfida è trovare il confine tra ciò che possiamo automatizzare e ciò che, per definizione, dobbiamo custodire come esclusivamente umano.

