Intelligenza Artificiale e uso distorto negli atti difensivi
Tema di grande interesse legato all’impiego dell’intelligenza artificiale nei procedimenti giudiziari è stato esaminato dall’ordinanza del 14 marzo 2025 emessa dal Tribunale di Firenze, Sezione Imprese. Il provvedimento ha analizzato la possibilità che l’uso improprio di ChatGPT da parte di un difensore possa configurare una responsabilità aggravata per lite temeraria, ai sensi dell’art. 96 c.p.c..

L’intelligenza artificiale può essere uno strumento utile, ma non privo di potenziali rischi. Il suo utilizzo in ambito forense impone una verifica continua delle informazioni generate, essendo chiaro a tutti che la tecnologia non può mai rimpiazzare le competenze del professionista.
L’ordinanza del Tribunale di Firenze ha avuto origine da un reclamo riguardante il sequestro di merce contraffatta. Il reclamante aveva richiesto la condanna della società soccombente per responsabilità aggravata, affermando che quest’ultima, nelle proprie memorie difensive, aveva citato riferimenti giurisprudenziali inesatti, frutto di una ricerca effettuata tramite l’intelligenza artificiale.
Secondo quanto dichiarato dal legale della società convenuta, tali citazioni errate erano state inserite per un errore commesso da una collaboratrice dello studio, che aveva utilizzato ChatGPT per condurre la ricerca. I riferimenti, sebbene plausibili a prima vista, non erano pertinenti né legati al tema centrale della controversia, ovvero la contraffazione di merce raffigurante vignette di proprietà del reclamante.
Il reclamante ha sostenuto che l’inserimento di questi riferimenti inesatti rappresentasse un chiaro segno di mala fede e di abuso dello strumento processuale, sollecitando la condanna della controparte per lite temeraria.
I Giudici hanno escluso l’applicabilità dell’art. 96 c.p.c., che disciplina la responsabilità aggravata per lite temeraria, rilevando l’assenza di mala fede da parte della parte soccombente. Il Tribunale ha osservato che i riferimenti giurisprudenziali errati inseriti nelle memorie difensive riflettevano una strategia processuale coerente e invariata sin dal primo grado.
È stato sottolineato come la difesa della società convenuta si basasse sull’assenza di dolo nella commercializzazione delle magliette raffiguranti le vignette del reclamante. Tale impostazione era già nota al Tribunale e non aveva lo scopo di fuorviare i giudici mediante un utilizzo improprio dell’intelligenza artificiale.
Un elemento cruciale emerso è la mancanza di prove concrete del danno subito dal reclamante a seguito dell’inserimento dei riferimenti giurisprudenziali inesistenti. Ai sensi dell’art. 96 c.p.c., è necessario dimostrare non solo la mala fede o la colpa grave, ma anche il danno effettivo e il nesso causale tra la condotta illecita e il pregiudizio subito.
Secondo quanto riportato nella decisione, l’IA avrebbe prodotto risultati errati attribuibili al fenomeno delle cosiddette allucinazioni di intelligenza artificiale. Questo si verifica quando l’IA genera informazioni inesistenti, che tuttavia vengono confermate come veritiere anche a seguito di ulteriori verifiche. Nel caso specifico, il Tribunale ha evidenziato che lo strumento di intelligenza artificiale “avrebbe inventato dei numeri apparentemente riferiti a sentenze della Corte di Cassazione, riguardanti l’aspetto soggettivo dell’acquisto di merce contraffatta, il cui contenuto, in realtà, non è affatto pertinente a tale argomento“.