"L’intelligenza artificiale non può sostituire il giudice", Avvocati, 12 febbraio 2024

-

Leggere l'articolo sul sito AVVOCATI

Tra derive tecnocratiche e responsabilità umane, un dibattito aperto sul futuro del diritto nell’era digitale

Sommario:

  • Linquietante disumanizzazione del diritto nell’era dell’intelligenza artificiale: un’analisi critica.
  • Intelligenza artificiale: strumento o simulacro di intelligenza? Le differenze sostanziali con l’intelligenza umana.
  • Le applicazioni dell’IA al diritto: un’analisi critica delle funzioni vitali dell’organismo giuridico.
  • Rischi e derive dell’IA applicata al diritto: conformismo, deresponsabilizzazione, perdita di sapere, privacy, libertà, equità e dignità umana.
  • Principi per una regolamentazione equilibrata: sussidiarietà, complementarità, fallibilità e controllo umano.
  • L’IA al servizio del giurista, non un sostituto: l’importanza di una visione critica e umanistica del diritto.
  • Conclusioni: la sfida di riumanizzare il diritto nell’era digitale, preservando la centralità della responsabilità umana e della soggettività.

 

Il tema dell’intelligenza artificiale si iscrive in un fenomeno generale di disumanizzazione del nostro diritto.

Nel mio saggio Riumanizzare il diritto, mi inquieto particolarmente delle numerose manifestazioni di disumanizzazione del nostro diritto. In realtà è anche un'illusione, perché rimane sempre umano anche nelle sue derive, pure tecnocratiche.

La mia paura è che questa dematerializzazione, questa disincarnazione, questa astrazione ci portino ad allontanarci della realtà. La realtà è fatta di concretezza, di carne, di materialità. La nostra carne, i nostri sensi, cioè la nostra presenza fisica sono il nostro primo strumento per percepire la realtà. Pure la nostra soggettività è una parte essenziale della realtà.

 

È interessante riprendere il titolo dell’incontro: “Intelligenza artificiale e diritto: derive e tutele alla luce dell’EU AI Act” per analizzarne i termini. Bisogna ripartire dalla base per capire che cosa vuol dire questa introduzione della tecnica nella materia giuridica.

 

Bisogna interrogarsi sul senso esatto della cosiddetta “intelligenza” artificiale. In realtà, non si dovrebbe parlare di una vera e propria intelligenza, ma piuttosto di uno strumento.

È stimolante il concetto stesso di intelligenza artificiale, perché ci invita a ripensare che cosa è la nostra intelligenza umana. La differenza fondamentale è proprio che l'intelligenza artificiale non è in realtà un'intelligenza. Io parlerei più volentieri di strumento, di tecnica, o di processo informativo. Non c'è proprio intelligenza. Non c'è l'intuizione. Non c'è la sensibilità. Non c'è l'empatia. Non c'è l'imprevedibilità. Queste sono caratteristiche dell'intelligenza umana. Non c'è una coscienza attuale presente che decide sul momento. Infatti, non c'è presente. L'ha detto il sottosegretario Ostellari. A un certo punto ha parlato di passato. L’IA è proprio un passato che ha un'azione nel presente, ma in assenza di una coscienza. E proprio questo il problema, direi anche in un certo senso la truffa. Siamo di fronte a una creazione certo umana perché è una creazione umana, ma che agisce in assenza di una persona umana. Perché è proprio questo il processo dell'algoritmo. C'è un uomo che l'ha creato, poi l'uomo sparisce e entra in atto questo processo. E nel momento in cui procede, non c'è più un essere umano che interviene. Direi anche che nell’IA, non c'è poesia nel senso proprio etimologico. Cioè non c'è capacità di creare sul momento. Nel senso che se succede qualcosa di imprevedibile, l'intelligenza artificiale non sa creare una risposta nuova. Si può sempre dire che potrà migliorare, che ha delle capacità di addestramento. Ma non ha la capacità che ha la nostra intelligenza di adattarsi su momento ad una cosa inaspettata. Dunque, in questo senso dico, non c'è poesia. Non c'è neanche politica. C’è una decisione che è presa nel passato, un algoritmo, una cosa impostata, ma non c'è più nel momento della sua applicazione la capacità di una deliberazione tra diversi giudici, o di un colloquio interiore di un giudice che decide. C'è invece, perché comunque non è neanche niente questa cosa, dell’intelligenza artificiale, c'è per esempio calcolabilità. C’è una memoria pazzesca, molto più potente della nostra. C'è regolarità. Può essere in un certo senso, affidabilità. C'è anche l'idea di un'uguaglianza di trattamento perché non c'è un arbitrario umano. C'è anche una forza pazzesca perché questa intelligenza è un concentrato di energia che ci supera per tanti versi, come in termini di memoria. C'è anche ubiquità e patrimonialità. Propongo solo un qualche spunti su quello che è e non è intelligenza artificiale. In una parola, siamo davanti ad uno strumento tecnico (gli algoritmi), non ad un’intelligenza. Tra l’altro è questo il significato della parola “artificiale”.

 

Come tutte le tecniche, l’intelligenza artificiale conosce tutta una serie di derive possibili. L’intelligenza artificiale è anche un prodotto, dunque, qualcuno che la vuole vendere… L’intelligenza artificiale ha un mercato. Si pone il problema dell’accesso e delle possibili discriminazioni ed esclusioni. Come l’ha detto la collega Carolina Scarano, c'è il problema della proprietà dei dati e dunque del loro controllo. Inoltre, il fatto che questo strumento sia artificiale, può essere, nutre il fantasma che possa essere un rimedio contro i difetti della nostra intelligenza umana applicata al diritto, tra i quali l’arbitrario, i pregiudizi, l’incompetenza…

 

Per capire meglio queste derive, vediamo quali sono le possibili applicazioni dell’IA al diritto.

Nel mio saggio, vedo il diritto come un organismo umano con le sue funzioni vitali. Ne identifico sette nell’organismo giuridico: fondare il diritto, pensare il diritto, comunicare il diritto, applicare il diritto, decidere il diritto, vivere il diritto e imporre il diritto. Vediamo come le tecniche algoritmiche possono essere applicate a queste diverse funzioni del diritto.

Per fondare il diritto c'è il bisogno di stabilire dei principi fondamentali, dei valori superiori per reggere la nostra società. L'intelligenza artificiale potrebbe riuscire a elaborare una Costituzione?

Per pensare il diritto, può l’intelligenza artificiale criticare, cambiare le leggi? Mi sembra, mi sembra di no.

Comunicare il diritto è il nostro compito, come avvocati. Noi comunichiamo sul diritto, comunichiamo a proposito del diritto con il diritto. Da Aristotele, si sa che parlare del diritto come l'avvocato che si indirizza a un giudice mette in moto tre dimensioni. La prima è il logos, la razionalità. Questa è precisamente la dimensione stessa dell'intelligenza artificiale. Per questo è bravissima. Ma quid del pathos e dell’ethos? Il pathos riguardo le emozioni. L’intelligenza artificiale non è capace di empatia. Di più, la cosa molto perversa secondo me, è che l'intelligenza artificiale può riconoscere delle emozioni. Ma interpreta in modo quantitativo dei dati qualitativi. C'è dunque un problema di possibile manipolazione. Perché manca anche l'ethos. L'intelligenza artificiale non ha nessuna sensibilità etica. Se succede un problema etico non è in grado di risolverlo sul momento e di rimettersi in discussione.

Quando si parla di intelligenza artificiale applicata al diritto, di solito, si pensa alla funzione di applicare il diritto, cioè di giudicare. Voglio qui fare riferimento ad un bellissimo libro di Alessio Del Giudice che si chiama Il dramma del giudizio. Mostra bene a che punto è sia indispensabile sia impossibile giudicare. Sottolinea anche una componente di sacralità, e la necessaria umiltà del giudice, il quale sa che è impossibile giudicare. Lo dice anche la Bibbia. Pensare di utilizzare l’IA per giudicare pone anche un problema politico. Secondo me questa intelligenza artificiale è molto adatta alla cultura giuridica della Common Law, basata sui precedenti. Perché in realtà in che cosa consiste il processo dell’intelligenza artificiale applicata al giudizio? Si tratta di compilare tutte le decisioni e fare calcoli statistici, per determinare in tale caso particolare, quale decisione sarebbe presa dal giudice. Può essere un po’ forte quello che dico, ma mi sembra contrario alla nostra Costituzione, alla separazione dei poteri. Come l’ha scritto Montesquieu, il giudice deve solo essere “la bocca che pronuncia le parole della legge”. Nel nostro sistemo giuridico di diritto scritto, il giudice non ha un potere creativo. La legge è un atto di volontà del popolo, espresso tramite i suoi rappresentanti. Nel sistema di Common Law invece, il giudice dice la legge, cioè ne costata l’esistenza. Comunque, nella nostra cultura, c'è un vero problema democratico, perché si dovrebbe lasciare che il popolo, tramite i suoi rappresentanti, faccia la legge. Invece il fatto di utilizzare l'intelligenza artificiale per trovare la soluzione a partire dei precedenti è un modo di riconoscere un potere normativo ai giudici e di deprivarne il legislatore.

Il compito di creare il diritto, appunto, appartiene al legislatore. Se l'intelligenza artificiale creasse il diritto, sarebbe un cortocircuito democratico.

Poi c'è il sentire il diritto che io colloco nel popolo, cioè nei soggetti del diritto. Si vede qui che non si può applicare l’intelligenza artificiale. E un po’ un'ipotesi astratta di ragionamento, un po’ diciamo una ricerca. Ma sentire il diritto non si può fare tramite un'intelligenza artificiale, perché per definizione, non può essere soggetto di diritto e non ha sensibilità.

L'ultima funzione che individuo è quella di imporre il diritto. E il compito della polizia, dei carabinieri. Potrebbe un'intelligenza artificiale imporre il diritto, cioè fare da forza pubblica? Qui diventa secondo me molto oppressante, molto inquietante.

 

Quale sono i rischi dell’applicazione dell’IA al diritto?

L’attualità che ci riunisce è l’adozione della versione definitiva dell’EU IA ACT, qualche giorno fa. E si può notare un approccio centrato sui rischi.  C’è una classifica dei rischi per grado di gravità. E questo mi sembra l'approccio giusto per tutelarci contro le derive. La materia giuridica è considerata ad alto rischio per quel che riguarda l’interpretazione e l’applicazione della legge. Il rischio è considerato inaccettabile per certe tecniche che riguardano il mantenimento dell’ordine sociale.

Secondo me, i rischi riguardano l'utilizzatore dell'intelligenza artificiale. Io vedo un rischio di spingere al conformismo, alla pigrizia del ragionamento. Se il computer dice che questo sarebbe la decisione il giudice tenderà a adeguarsi. C'è un effetto psicologico. C'è sempre, per tutte le tecniche, un rischio di sottomissione, di deresponsabilizzazione. Levinas ha mostrato in modo molto bello come la presenza dell'altro davanti a me, con il suo viso, mi riporta alla mia responsabilità etica. E che cosa succede quando l'intelligenza artificiale fa a meno di questo viso, anche del disagio che può provocare? Che cosa resta della mia responsabilità etica? E poi c'è un rischio di perdita di sapere, dei nostri muscoli del cervello per ragionare giuridicamente, se ci affidiamo troppo all'intelligenza artificiale c'è appunto un rischio di andare all'economia.

Poi i rischi riguardano le tecniche stesse dell’IA. Vedo rischi per la privacy, per la libertà. C’è un problema di privatizzazione dei dati, di dominio dei più forti tramite il potere economico, di uguaglianza sociale. C'è il problema della dignità umana, dell'equità del processo, del misconoscimento delle emozioni e dell’aspetto umano di chi viene giudicato.

 

Come possiamo tutelarci contro questi rischi?

Un primo principio importantissimo dovrebbe essere quello di sussidiarietà. La sussidiarietà vuol dire che dobbiamo assolutamente capire dove potrebbe essere veramente utile questa intelligenza artificiale e dove non ci serve. L’importante è di non lasciarci condizionare. Quando c’è una novità tecnologica, ci sono quelli che, a prescindere di tutto, sono per quello che va considerato come un progresso. E quelli che sono contro, che sono considerati come rifiutando il progresso. Manteniamo il nostro spirito critico senza farci intrappolare in questa opposizione sterile.

Un altro principio è quello di complementarità.

C’è anche un principio di fallibilità. Viene formulato nel progetto di regolamentazione europea. Riconoscerla implica di prevedere dei controlli ad ogni tapa dell’applicazione.

 

Per concludere, non dobbiamo rinunciare a vedere l’IA per quello che è.

Niente di meno, ma niente di più. L’intelligenza artificiale può aiutare il giurista ma non sostituirlo. Il problema principale dell’astrazione, della dematerializzazione è di farci correre il rischio della derealizzazione. Dobbiamo sempre continuare con coraggio, con impegno a vedere le cose come sono.