GIURISPRUDENZA – “Errori dell’Intelligenza Artificiale nella progettazione: La Trappola Giuridica che Minaccia i Progettisti”

La giurisprudenza relativa agli errori commessi dall’intelligenza artificiale (IA) nella progettazione e alle responsabilità dei tecnici è un argomento di crescente interesse, soprattutto alla luce dell’espansione delle tecnologie AI in vari settori. Gli errori dell’IA nella progettazione possono avere conseguenze gravi, comprese lesioni personali e danni materiali. La questione principale riguarda la definizione e l’attribuzione di responsabilità quando tali errori si verificano.

Responsabilità Contrattuale

In ambito contrattuale, l’articolo 1218 del Codice Civile italiano gioca un ruolo chiave. Questa norma stabilisce che chi non adempie correttamente alle proprie obbligazioni è tenuto a risarcire il danno, a meno che non dimostri che l’inadempimento è dovuto a cause non imputabili a colpa o dolo. Nel contesto dell’IA, questo si applica principalmente quando c’è un rapporto contrattuale tra le parti coinvolte, come nel caso di un’azienda che sviluppa un sistema di IA per un cliente​

Per esempio, nel settore finanziario, l’applicazione dell’IA attraverso algoritmi di machine learning può comportare rischi elevati. Se un algoritmo provoca una perdita finanziaria a causa di un errore nella sua progettazione o nel suo addestramento, la parte responsabile può essere chiamata a rispondere dei danni. La direttiva MiFID 2 dell’Unione Europea, che regola i servizi finanziari, impone obblighi informativi e di diligenza agli operatori, estendendoli anche all’utilizzo di sistemi di IA​

Responsabilità Extracontrattuale

La responsabilità extracontrattuale è più complessa, soprattutto perché le norme attuali non sono state progettate specificamente per affrontare i problemi posti dall’IA. L’articolo 2043 del Codice Civile è la norma generale che stabilisce che chiunque commetta un fatto doloso o colposo che causa un danno ingiusto ad altri è obbligato a risarcirlo. Nel caso dell’IA, potrebbe essere difficile dimostrare il nesso causale tra l’errore dell’IA e il danno subito, dato il funzionamento complesso dei sistemi di machine learning, che possono elaborare milioni di dati e prendere decisioni autonome

Alcune norme speciali potrebbero essere applicate in determinati casi. L’articolo 2050 c.c. sulla responsabilità per l’esercizio di attività pericolose potrebbe essere rilevante se l’uso dell’IA è considerato intrinsecamente pericoloso, anche se questa interpretazione è limitata a situazioni specifiche. Un’altra ipotesi è l’articolo 2051 c.c. sulla responsabilità da cosa in custodia, che può essere applicata quando l’IA non è solo lo strumento, ma la fonte stessa del danno

Sentenze Rilevanti

Diversi casi giurisprudenziali hanno esaminato la responsabilità del progettista quando si verificano errori di progettazione, anche se non sempre direttamente collegati all’IA. Per esempio, nella sentenza della Corte di Cassazione Penale (Sez. IV, Sentenza n. 43435 dell’8 novembre 2012), è stata confermata la condanna di un progettista per la progettazione inadeguata di una passerella, che ha portato a un infortunio mortale. Il progettista è stato ritenuto colpevole di non aver eseguito i dovuti controlli e di non aver garantito un’adeguata verifica del progetto da parte di terzi​

Prospettive Future e Nuove Regole dell’Unione Europea

L’Unione Europea sta attivamente lavorando per affrontare le sfide poste dall’IA. Nel 2022, è stata presentata una proposta di direttiva per adattare le norme in materia di responsabilità civile extracontrattuale all’IA. Questa proposta mira a introdurre una presunzione relativa di causalità, facilitando l’onere della prova per i soggetti danneggiati. Inoltre, si prevede l’attribuzione di poteri alle corti nazionali per ordinare la divulgazione di documenti e informazioni relativi ai sistemi di IA ad alto rischio. Queste misure mirano a rendere più agevole la dimostrazione del nesso causale tra un errore dell’IA e il danno causato, semplificando anche l’individuazione dei soggetti responsabili​

Conclusioni

La responsabilità per gli errori dell’IA è una questione in evoluzione che richiede un attento esame giuridico. Le sfide riguardano sia l’applicazione delle norme attuali che l’interpretazione della responsabilità in un contesto in cui le macchine possono prendere decisioni autonome. Con l’avanzare della tecnologia e l’aumento dell’uso dell’IA in settori critici, è probabile che il quadro giuridico debba adattarsi ulteriormente, con nuove norme e linee guida che definiscano più chiaramente le responsabilità dei progettisti, degli sviluppatori e degli utenti di sistemi di IA.

About Mario Ferraioli 4250 Articles
MARIO FERRAIOLI - Nel '94 fondo lo STUDIO ALBATROS, informatico e consulente aziendale sono autore di un software gestionale per la sicurezza sul lavoro e nei cantieri sviluppato in Intelligenza Artificiale.

Be the first to comment

Leave a Reply

L'indirizzo email non sarà pubblicato.