Negli ultimi tempi il tema della Artificial Intelligence (A.I.), soprattutto nella sua evoluzione self-learning, ha iniziato ad interessare sempre più la riflessione giuridica, non soltanto al fine di descrivere i diversi fenomeni, pur analoghi ma non sempre riconducibili ad unità, quanto allo scopo di individuare i possibili rimedi esperibili, in ciascun sistema giuridico, nel caso di eventi dannosi arrecati alla controparte contrattuale o a terzi. Quindi, più che di un’unica Intelligenza Artificiale, sembra opportuno parlare di “intelligenze artificiali” al plurale, non escludendo che, anche sotto il profilo delle tutele, queste possano differenziarsi in ordine ai diversi modelli di intelligenza artificiale ed ai diversi tipi di tool, di machine learning o di agenti software (più o meno) autonomi che possono venire in considerazione nei differenti settori dei rapporti civili. In presenza di recenti proposte di Regolamento (del 21 aprile 2021) e di Direttiva (del 28 settembre 2022) che, da un lato, si propongono di prevenire i rischi stabilendo standard di sicurezza (tutela ex ante), dall’altro, prevedono l’abrogazione della Direttiva recepita nel D.Lgs 206/2005 e la sostituzione con due direttive che “alleggeriscono” l’onere della prova a carico del danneggiato (tutela ex post) con la previsione di presunzioni legali relative, si pone la necessità di un attento riesame delle discipline vigenti in tema di responsabilità. Superate le teorie, elaborate soprattutto dalla dottrina tedesca, che intendevano riconoscere agli agenti software autonomi una soggettività giuridica piena o parziale, un primo dato essenziale consiste nel ribadire la centralità del principio di responsabilità solidale tra i molteplici soggetti che partecipano, a vario titolo, alla “catena di produzione” di una I.A. La vigente normativa di origine europea in materia di sicurezza e di qualità dei prodotti si rivela senz’altro inadeguata a disciplinare la responsabilità di “cose” animate da intelligenza artificiale, sia per il carattere polisenso della nozione di difetto, sia per la dinamica degli oneri probatori (nonostante gli importanti risultati cui sono pervenute la Cassazione e la Corte di Giustizia U.E in tema di prova presuntiva del difetto e del nesso causale), sia, soprattutto, per l’incompatibilità delle I.A. con il c.d. rischio da sviluppo. Sicuramente più adeguata appare, sussistendone i presupposti applicativi, la Gefährdungshaftung e la disciplina sulla responsabilità per l’esercizio di attività pericolose (art. 2050 c.c.). Ma il criterio di imputazione della responsabilità tra l’agente software autonomo che abbia cagionato danni al terzo e il principal può essere qualificato anche dal rapporto di “custodia” di cui all’art. 2051 c.c. V’è sempre la possibilità, da parte del danneggiato, di proporre il “concorso” tra gli artt. 2050 e 2051 c.c., che lascia al giudice la possibilità di qualificare la fattispecie con riferimento al singolo concreto rapporto. Riguardo alla responsabilità per i danni causati dalla circolazione di veicoli self-driving, la “rilettura” della disciplina vigente è articolata tra i poli della responsabilità civile e della sicurezza sociale. Nel settore della robotica medica e dei veicoli self-driving, l’incidenza dell’evoluzione tecnologica spinge al superamento dell’idea di “responsabilità” verso modelli di imputazione dei danni a titolo di absolute liability, “garantiti” dall’assicurazione obbligatoria, da fondi di garanzia e/o da piani di social security.
Il sistema della responsabilità civile nell'intelligenza artificiale / PROCIDA MIRABELLI DI LAURO, Antonino. - (2023). (Intervento presentato al convegno Intelligenza Artificiale e Responsabilità Civile tenutosi a Università degli Studi di Camerino - Scuola di Giurisprudenza - Dottorato "Legal and Social sciences", curriculum "Civil Law and Constitutional Legality" nel 11 luglio 2023).
Il sistema della responsabilità civile nell'intelligenza artificiale
PROCIDA MIRABELLI DI LAURO, ANTONINO
2023
Abstract
Negli ultimi tempi il tema della Artificial Intelligence (A.I.), soprattutto nella sua evoluzione self-learning, ha iniziato ad interessare sempre più la riflessione giuridica, non soltanto al fine di descrivere i diversi fenomeni, pur analoghi ma non sempre riconducibili ad unità, quanto allo scopo di individuare i possibili rimedi esperibili, in ciascun sistema giuridico, nel caso di eventi dannosi arrecati alla controparte contrattuale o a terzi. Quindi, più che di un’unica Intelligenza Artificiale, sembra opportuno parlare di “intelligenze artificiali” al plurale, non escludendo che, anche sotto il profilo delle tutele, queste possano differenziarsi in ordine ai diversi modelli di intelligenza artificiale ed ai diversi tipi di tool, di machine learning o di agenti software (più o meno) autonomi che possono venire in considerazione nei differenti settori dei rapporti civili. In presenza di recenti proposte di Regolamento (del 21 aprile 2021) e di Direttiva (del 28 settembre 2022) che, da un lato, si propongono di prevenire i rischi stabilendo standard di sicurezza (tutela ex ante), dall’altro, prevedono l’abrogazione della Direttiva recepita nel D.Lgs 206/2005 e la sostituzione con due direttive che “alleggeriscono” l’onere della prova a carico del danneggiato (tutela ex post) con la previsione di presunzioni legali relative, si pone la necessità di un attento riesame delle discipline vigenti in tema di responsabilità. Superate le teorie, elaborate soprattutto dalla dottrina tedesca, che intendevano riconoscere agli agenti software autonomi una soggettività giuridica piena o parziale, un primo dato essenziale consiste nel ribadire la centralità del principio di responsabilità solidale tra i molteplici soggetti che partecipano, a vario titolo, alla “catena di produzione” di una I.A. La vigente normativa di origine europea in materia di sicurezza e di qualità dei prodotti si rivela senz’altro inadeguata a disciplinare la responsabilità di “cose” animate da intelligenza artificiale, sia per il carattere polisenso della nozione di difetto, sia per la dinamica degli oneri probatori (nonostante gli importanti risultati cui sono pervenute la Cassazione e la Corte di Giustizia U.E in tema di prova presuntiva del difetto e del nesso causale), sia, soprattutto, per l’incompatibilità delle I.A. con il c.d. rischio da sviluppo. Sicuramente più adeguata appare, sussistendone i presupposti applicativi, la Gefährdungshaftung e la disciplina sulla responsabilità per l’esercizio di attività pericolose (art. 2050 c.c.). Ma il criterio di imputazione della responsabilità tra l’agente software autonomo che abbia cagionato danni al terzo e il principal può essere qualificato anche dal rapporto di “custodia” di cui all’art. 2051 c.c. V’è sempre la possibilità, da parte del danneggiato, di proporre il “concorso” tra gli artt. 2050 e 2051 c.c., che lascia al giudice la possibilità di qualificare la fattispecie con riferimento al singolo concreto rapporto. Riguardo alla responsabilità per i danni causati dalla circolazione di veicoli self-driving, la “rilettura” della disciplina vigente è articolata tra i poli della responsabilità civile e della sicurezza sociale. Nel settore della robotica medica e dei veicoli self-driving, l’incidenza dell’evoluzione tecnologica spinge al superamento dell’idea di “responsabilità” verso modelli di imputazione dei danni a titolo di absolute liability, “garantiti” dall’assicurazione obbligatoria, da fondi di garanzia e/o da piani di social security.File | Dimensione | Formato | |
---|---|---|---|
CAMERINO INCONTRO_11luglio2023_5 (1).pdf
accesso aperto
Descrizione: LOCANDINA
Tipologia:
Versione Editoriale (PDF)
Licenza:
Dominio pubblico
Dimensione
229.31 kB
Formato
Adobe PDF
|
229.31 kB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.