(Ti Lancio dal Friuli Venezia Giulia) Udine 12 marzo 2026 – L’intelligenza artificiale sta ridisegnando i confini della guerra e del diritto, ma il quadro normativo fatica a tenere il passo. L’avvocato Luca De Pauli, dello Studio Ponti DePauli Partners, interviene nel dibattito sull’uso dei sistemi algoritmici nei processi decisionali critici, sollevando interrogativi urgenti che spaziano dal campo di battaglia del Medio Oriente alle corsie degli ospedali europei.
Le recenti ricostruzioni sull’impiego di sistemi avanzati di analisi dati per l’individuazione di obiettivi militari hanno trasformato l’algoretica da concetto filosofico a priorità giuridica. “Non siamo di fronte a una mera questione tecnologica,” spiega l’avvocato De Pauli. “L’integrazione dell’AI nelle decisioni operative punta a velocità e precisione sovrumane, ma apre una voragine nel diritto moderno: la frammentazione della responsabilità.”
Il diritto internazionale e nazionale si fonda sulla certezza di un soggetto responsabile. Tuttavia, quando la decisione è mediata da un algoritmo, la catena si spezza. “L’intelligenza artificiale non è un soggetto giuridico e non può essere titolare di responsabilità,” sottolinea De Pauli. “Il rischio concreto è il cosiddetto ‘vuoto di responsabilità’: un’area grigia dove diventa impossibile distinguere se la colpa sia del programmatore, dell’ente che ha adottato il sistema o del decisore umano che ha validato l’analisi.”
Il problema non è confinato ai teatri di guerra. Lo stesso schema si ripropone in ambito sanitario, dove l’AI supporta diagnosi e terapie. “Se un algoritmo suggerisce una diagnosi errata che produce conseguenze gravi per il paziente, la domanda torna a porsi con forza: risponde il medico, il produttore del software o la struttura sanitaria? Il progresso tecnologico è immenso, ma la tutela della persona richiede chiarezza giuridica.”
Nonostante l’entrata in vigore del Regolamento UE 2024/1689 (AI Act), De Pauli evidenzia come la normativa si concentri prevalentemente sulla sicurezza del mercato, lasciando scoperte questioni fondamentali sulla delega di decisioni che incidono sui diritti umani.
In una prospettiva de jure condendo, l’avvocato De Pauli delinea i pilastri del diritto del futuro: le decisioni su vita, salute e sicurezza devono restare riconducibili all’uomo.
Deve essere sempre possibile ricostruire il processo logico che ha condotto a una decisione.
Evitare zone d’ombra per chi sviluppa o utilizza AI ad alto rischio.
“Il compito del diritto è assicurare che l’innovazione non avvenga a discapito dello Stato di diritto,” conclude De Pauli. “Anche nell’era degli algoritmi, ogni decisione che incide sulla vita delle persone deve poter essere ricondotta a una responsabilità umana chiaramente individuabile.”


Leave a Reply