La legittima difesa. Il rischio dell’automatismo giudiziario: tra velocità e giustizia
di Luca Orlando
Viviamo nell’epoca della velocità.
Tutto deve essere rapido, istantaneo, reattivo.
Anche la giustizia.
E allora ecco che si affacciano soluzioni tecnologiche: algoritmi che leggono sentenze, software che “prevedono” esiti processuali, sistemi di supporto per giudici e avvocati.
È l’era della giustizia automatizzata, dove la macchina promette di ridurre i tempi, eliminare gli errori, rendere le decisioni più coerenti.
Ma in questa corsa all’efficienza si nasconde un pericolo: l’oblio della complessità umana.
Perché ogni processo, specialmente quelli legati alla legittima difesa, non è solo una sequenza di fatti.
È un intreccio di paure, percezioni, errori e scelte difficili.
La persona che reagisce a un’aggressione lo fa in pochi secondi, spesso in un vortice emotivo. La sua storia, il suo stato psicologico, il contesto — tutto questo non è riducibile a una formula. Eppure, l’automatismo giudiziario rischia di farlo.
Oggi si parla con entusiasmo di predictive justice, cioè giustizia predittiva.
In alcuni Paesi, si sperimenta già l’uso di intelligenze artificiali per suggerire sentenze sulla base delle decisioni passate.
Una banca dati enorme viene consultata, confrontata, analizzata.
Il risultato? Un “consiglio” per il giudice, una probabilità statistica di colpevolezza, una scala di pena suggerita.
Ma quando la macchina inizia a proporre, è solo questione di tempo prima che inizi anche a decidere.
Il rischio è evidente: si sostituisce il ragionamento con la replica.
Si riproducono schemi passati senza valutare il presente.
Si punisce o si assolve non per ciò che è accaduto, ma perché “di solito” in casi simili si fa così.
E in questo automatismo, la giustizia perde la sua funzione più nobile: ascoltare l’unicità di ogni essere umano.
La legittima difesa è un terreno scivoloso proprio perché richiede una valutazione caso per caso.
Una stessa azione può essere giustificata o condannata a seconda del contesto, delle intenzioni, della reazione emotiva.
Una macchina non può sapere che quella persona aveva subito aggressioni simili, che quella notte non dormiva da giorni per paura, che ha agito spinta da un terrore paralizzante.
Può solo analizzare dati grezzi.
E questo non basta.
Certo, la giustizia italiana ha bisogno di velocità.
I processi durano troppo.
Le indagini sono lente.
Le sentenze tardano ad arrivare.
Ma non è con l’automatismo che si risolve il problema.
È con più risorse, più formazione, più umanità.
Una sentenza rapida non è necessariamente una sentenza giusta.
E una giustizia efficiente non può mai rinunciare a essere anche profondamente personale.
In un futuro in cui gli algoritmi ci suggeriranno se una reazione è stata “statisticamente” legittima, dovremo chiederci: è questo che vogliamo? Una giustizia che decide in base alla media?

