QUANDO L'AI SBAGLIA, L'AVVOCATO PAGA?
- Avv. Marco Dantone
- 8 apr
- Tempo di lettura: 2 min

L'Intelligenza Artificiale è ormai un supporto indispensabile per molte professioni.
Anche nel mondo legale è così: banche dati, motori di ricerca, programmi di redazione atti... l'AI ha trovato ormai spazio ovunque!
D'altronde, è un rimedio indispensabile non solo per risparmiare tempo, ma anche per sopperire agli eventuali errori umani.
L'AI non può sbagliare, vero?
In realtà, non è proprio così. Infatti, la giurisprudenza di merito si è già ritrovata ad affrontare incidentalmente il caso di un legale che abbia fatto eccessivo affidamento sullo strumento, poi rivelatosi fallibile.
In particolare, in un caso di recente affrontato dal Tribunale di Firenze, l'Intelligenza Artificiale era caduta vittima del fenomeno conosciuto come “allucinazioni di intelligenza artificiale”, che si verifica quando vengono prodotti risultati inesistenti. O meglio, quando l'output, ossia la risposta data dall'AI, non corrisponde al prompt, ossia alla domanda (in gergo atecnico).
Le cause possono essere varie: la particolare complessità dell'algoritmo, la presenza di dati non ben definiti o qualitativamente inadeguati, l'errata interpretazione del quesito o del contesto.
L'esito di queste “allucinazioni” è stato l'invenzione di riferimenti a sentenze della Corte di Cassazione del tutto inesistenti, con lo scopo di corroborare la linea difensiva della parte.
Ma quali possono essere le possibili conseguenze in giudizio in queste ipotesi?
Il rischio è la possibile applicazione dell'art. 96 c.p.c., in ambito di responsabilità aggravata, che prevede la condanna al risarcimento danni per chi agisce o resiste in giudizio con mala fede o colpa grave.
Fortunatamente, nel caso sopra accennato, non vi è stata alcuna condanna, dal momento che la tesi difensiva non era fondata su quelle specifiche artefatte sentenze della Suprema Corte, ma su altri elementi e, pertanto, si è riconosciuto che le asserite sentenze non abbiano avuto in concreto la funzione di resistere in mala fede in giudizio.
Tuttavia, se si volesse trarre un insegnamento da questa vicenda, si dovrebbe necessariamente concludere che, sebbene l'AI sia un strumento con grandi potenzialità anche nel mondo legale, è, almeno attualmente, indispensabile un controllo vigile da parte dell'utilizzatore al fine di evitare conseguenze più o meno gravi.
Vuoi saperne di più? Non esitare a contattarci!
(Si veda Trib. di Firenze, sez. imprese, ordinanza del 14.03.2025, nel proc. di reclamo R.G. n. 11053/2024).
Comments