
L’intelligenza artificiale non porterà mai a umana sentenza un iter giudiziario – Mille conflitti se la giustizia venisse delegata al freddo ragionamento di una macchina: sarebbe giuridicamente insostenibile – Se ne riconosce l’utilità nella fase investigativa
È indiscusso che gli strumenti di intelligenza artificiale sono destinati a costituire una preziosa risorsa tecnologica in termini di efficienza e di efficacia della giustizia penale. Con il ricorso alla “AI” è infatti possibile risolvere problemi investigativi, problemi cautelari, problemi probatori, problemi decisori.
In primo luogo, l’intelligenza artificiale, per così dire, rende decisamente più efficiente ed efficace il ricorso ad alcuni mezzi di ricerca della prova: si pensi alle enormi potenzialità investigative che presenta ricorso al cosiddetto captatore informatico o all’utilizzo di strumenti per la elaborazione di un amore enorme di dati informatici.
In secondo luogo, un ricorso alla strumentazione che utilizza l’intelligenza artificiale è decisamente utile qualora nel corso del procedimento penale vengano adottati nei confronti dell’indagato imputato misure cautelari limitative della sua libertà personale. In tali circostanze, infatti, può farsi ricorso alle cosiddette “tecnologie del controllo”: è palese che la sorveglianza di un indagato sottoposto agli arresti domiciliari è lacunosa e debole se condotta utilizzando il personale di polizia direttamente sul posto (tramite piantonamento o verifiche “a sorpresa”), ma estremamente efficace se effettuata con il “braccialetto elettronico”, che assicura una sorveglianza continuativa della permanenza in casa dell’indagato – oltre a doversi considerare come la tecnologia offra in concreto le uniche efficaci modalità di controllo del rispetto di misure specifiche, come i restraining orders a protezione della vittima, di nuovo conio in ordinamenti come quello italiano, in cui infatti hanno imposto l’uso della geolocalizzazione. Lo stesso è a dirsi della sorveglianza elettronica, utile a garantire il miglior controllo sul territorio di soggetti sottoposti a misure custodiali, così ponendosi come efficace supporto alla riduzione del sovraffollamento carcerario, che impone spese di mantenimento spropositate della popolazione detenuta, oltre a comportare condizioni inumane di espiazione della pena.
A queste potenzialità si aggiungono sovente considerevoli vantaggi in termini di efficienza, ossia di miglioramento del rapporto costi-benefici in diversi ambiti. In particolare, questa considerazione può essere svolta con riferimento all’utilizzo della telematica nello svolgimento del giudizio penale vero e proprio: attraverso la celebrazione a distanza delle udienze, ad esempio, si possono evitare non solo i rischi, ma anche i costi del trasferimento degli imputati dal luogo di detenzione alla sede di svolgimento del giudizio.
Da ultimo, potenziali benefici emergono laddove si consideri la cosiddetta “giustizia predittiva”, ossia la possibile elaborazione digitale mediante algoritmi di immense quantità di dati, per garantire alle parti o al giudice previsioni attendibili (quantificate sovente in termini percentuali) sul futuro. Si va, in pratica, dalla previsione delle decisioni giudiziarie su casi simili, utili alle difese per pronosticare il possibile esito di un’istanza o di un procedimento giudiziario ed articolare di conseguenza le proprie strategie – con vantaggi in termini di certezza del diritto e di uguaglianza dei cittadini dinanzi alla legge, considerando che la prevedibilità delle decisioni su casi analoghi assicura la costruzione progressiva di orientamenti stabili e omogeneità negli esiti delle controversie o dei procedimenti -, sino alla prognosi delle possibilità che l’indagato commetta reati o fugga o che il condannato si renda recidivo, utile al giudice, ad esempio, per decidere su una misura cautelare, sull’accesso alle diverse misure punitive alternative alla detenzione e persino sull’entità della pena irrogabile in concreto in caso di condanna, sostituendo così le a valutazioni prognostiche del tutto soggettive consistenti di regola in pronostici di pericolosità fatti in ragione della “fedina penale” del prevenuto e in base all’esperienza e alla sensibilità di del singolo giudice.
Riconosciute le potenzialità ed i vantaggi connessi ad un futuro utilizzo dell’Intelligenza artificiale nel processo penale, non se ne possono però misconoscere i rischi e le criticità. Infatti, le prospettive che lo sviluppo tecnologico promette di perseguire non solo offrono nuove opportunità, ma pongono anche nuove sfide in tema di compatibilità dei nuovi strumenti con l’impianto e la fisionomia delle garanzie proprie del nostro precesso penale.
Una prima criticità, sottolineata anche da diversi studiosi del processo penale, è rappresentata dalla circostanza che l’utilizzo dell’AI richiede il ricorso a strumenti di particolare complessità e di rilevante costo economico – come i programmi informatici, i risk assessment tools basati sugli algoritmi, gli strumenti di captazione o di sorveglianza elettronica, per la gestione dei quali è spesso necessario avvalersi dei servizi dei privati che producono la tecnologia acquistata che soli dispongono del know how per garantirne il funzionamento e la supervisione -, di cui la pubblica amministrazione di regola non ha la disponibilità. Di conseguenza, se si intende far ricorso all’intelligenza artificiale occorrerà avvalersi in sede penale (e dunque in un delicatissimo settore al servizio della collettività) di prodotti di aziende private, con il rischio di andare verso una progressiva privatizzazione di aree rilevanti dell’amministrazione giudiziaria.
Il fenomeno ha ricadute delicatissime su molti piani e produce conseguenze pratiche, che non solo incidono sul sistema giuridico e sulla tutela dei diritti coinvolti in vari modi, ma investono anche altri profili posto che la dipendenza del sistema pubblico dell’amministrazione della giustizia dall’impresa privata può avere ricadute anche più sottili e insidiose.
E’ il caso degli algoritmi predittivi, utilizzabili dai giudici per prendere decisioni sul rischio di recidiva o di fuga e dunque sia a fini cautelari, sia per l’accesso al misure di diversion a vario livello, e persino sulla commisurazione della pena.
In proposito, esempi non particolarmente tranquillizzanti derivano dall’esperienza statunitense che ha mostrato come si ponga seriamente il problema della compatibilità tra il diritto di difesa e la protezione della proprietà intellettuale sul programma usato, che fondamentalmente comporta la segretezza del funzionamento dell’algoritmo che il giudice ha usato per la decisione. Se è vero, infatti, che l’uso degli algoritmi può, come detto in precedenza, rendere più oggettive e rapide le decisioni – un giudice che potrebbe fare affidamento di regola solo sulla propria esperienza e su pochi dati significativi relativi a un accusato, come i precedenti penali, potrebbe ricevere un utile aiuto dagli algoritmi predittivi, idonei a fornirgli una valutazione del pericolo di fuga o di commissione di nuovi reati in una forma di immediata percezione (su un’ipotetica scala di rischio o con un numero percentuale) già pronta all’uso – è anche vero che proprio in ragione della segretezza che circonda il programma e le modalità di funzionamento di tali algoritmi impedisce di valutare se (come da taluno sostenuto) gli stessi non prendano in considerazione dati non pertinenti e di carattere discriminatorio (come la nazionalità) nonché il peso attribuito volta a volta ai singoli elementi e profili del fatto utilizzati per la decisione.
In sostanza che l’algoritmo possa agevolare la decisione del giudice e renderla più rapida è certo, ma il prezzo potrebbe essere la sudditanza di fatto del giudizio umano a quello della macchina: considerando la tendenza umana a fidarsi degli esiti di un processo computerizzato, c’è il serio rischio che il giudicante finisca con il delegare all’algoritmo il peso della decisione.
In definitiva, quale che sia lo spazio che si intende riconoscere all’intelligenza artificiale nel processo penale è certo che i suoi suggerimenti, le conclusioni derivanti dal suo utilizzo non dovranno mai sostituirsi alla decisione “umana”, nella quale il giudice resta sovrano, anche perché dell’affidabilità e neutralità dell’intelligenza artificiale si può e si deve dubitare.
La componente di freddezza razionale che sembra assicurare credibilità alla decisione, non la rende in realtà migliore; la decisione umana porta con sé l’idea della comprensione, del vaglio ragionevole (fatto anche di una componente di intelligenza emotiva) delle caratteristiche dell’individuo che è comparso innanzi al giudicante, nonché della responsabilità, il cui peso è avvertito solo da un essere umano, elemento rassicurante della prudenza nel decidere e giustificativo della affidabilità dell’esito anche di fronte alla collettività.
Ciro Santoriello