Dal tribunale di Firenze alle scuole italiane, l’uso dell’IA impone una riflessione condivisa sulla responsabilità professionale, la verifica delle fonti e la necessità di una formazione consapevole
Più volte le nostre pagine di Ecodellavalle hanno ospitato riflessioni sull’uso delle nuove tecnologie messe a disposizione dell’uomo, evidenziandone pregi, difetti e debolezze. Nel caso dell’Intelligenza Artificiale (IA), ormai diffusa e pervasiva nel contesto sociale, abbiamo sempre sottolineato l’importanza di verificare l’attendibilità delle informazioni ottenute, come principio fondamentale per una corretta e sana informazione dei fatti sociali. La recente notizia, riportata da diverse testate giornalistiche nazionali, secondo cui il Tribunale di Firenze si sarebbe trovato ad affrontare un caso legato a un errore generato dall’IA nel settore legale, ci induce a una riflessione approfondita sull’uso responsabile di queste tecnologie. In particolare, una memoria difensiva presentata presso la Sezione Imprese del Tribunale citava sentenze inesistenti, attribuite all’utilizzo di ChatGPT da parte di una collaboratrice dello studio legale coinvolto. Questo episodio ha sollevato un acceso dibattito sulla responsabilità dei professionisti del diritto nell’uso delle nuove tecnologie. Il legale ha dichiarato di non essere stato a conoscenza dell’errore, attribuendo la responsabilità alla collaboratrice. Tuttavia, i giudici hanno criticato la superficialità della condotta, sottolineando l’importanza della verifica delle fonti prima di inserirle in atti ufficiali.

Nonostante la gravità della situazione, il Tribunale ha deciso di non applicare l’articolo 96 del Codice di Procedura Civile, relativo alla lite temeraria. Secondo i giudici, le false sentenze erano state utilizzate per rafforzare una tesi difensiva già esistente e non per agire in malafede. Tuttavia, la leggerezza della condotta è stata evidenziata nel provvedimento, richiamando l’obbligo di verificare le informazioni fornite da strumenti di intelligenza artificiale. Questo episodio evidenzia la necessità di una formazione adeguata per gli operatori del diritto e di un aggiornamento delle norme deontologiche per regolamentare l’uso dell’intelligenza artificiale. La tecnologia, infatti, non può sostituire la verifica umana e la responsabilità professionale. L’IA non è una bacchetta magica, ma uno strumento che va utilizzato con competenza e consapevolezza, per evitare che errori diversi possano compromettere la credibilità in generale. Parallelamente, sempre a Firenze si è svolto un importante convegno sui temi legati alle neuroscienze e all’uso dell’intelligenza artificiale nella didattica, con la partecipazione di oltre 200 dirigenti scolastici. Nel corso del dibattito è stato sottolineato che tecnologie come l’IA non vanno demonizzate, ma comprese e utilizzate consapevolmente per migliorare l’insegnamento. E’ essenziale, infatti, è stato ribadito – che i docenti imparino a governare questi strumenti per utilizzarli a favore della didattica. Il convegno ha anche affrontato il divario di apprendimento tra le diverse scuole, evidenziando come i test Invalsi mostrino discrepanze significative anche tra classi dello stesso istituto. Tra le esperienze positive presentate, quella dell’ISS Sarrocchi di Siena, dove l’intelligenza artificiale viene utilizzata per insegnare agli studenti come sfruttare gli algoritmi per raccogliere informazioni in modo più efficiente che mai. In sintesi, in entrambi i contesti, sia giudiziario che educativo, emerge l’importanza di un uso consapevole e responsabile dell’intelligenza artificiale, accompagnato da una solida formazione e da regole chiare, per sfruttarne appieno le potenzialità minimizzando i rischi associati. ( La redazione)