Negli ultimi tempi il tema della Artificial Intelligence (A.I.), soprattutto nella sua evoluzione self-learning, ha iniziato ad interessare sempre più la riflessione giuridica, non soltanto al fine di descrivere i diversi fenomeni, pur analoghi ma non sempre riconducibili ad una semplificante unità, quanto allo scopo di individuare i possibili rimedi esperibili, in ciascun sistema giuridico, nel caso di eventi dannosi arrecati alla controparte contrattuale o a terzi. Quindi, più che di un’unica Intelligenza Artificiale, sembra opportuno parlare di “intelligenze artificiali” al plurale, non escludendo che, anche sotto il profilo delle tutele, queste possano differenziarsi, sulla base degli strumenti previsti da ciascun ordinamento giuridico, in ordine ai diversi modelli di intelligenza artificiale ed ai diversi tipi di tool, di machine learning o di agenti software (più o meno) autonomi che possono venire in considerazione nei differenti settori dei rapporti civili. In presenza di un significativo mutamento di opinione del Parlamento europeo, anche le proposte degli esperti del MiSE prospettano la necessità di un attento "riesame" delle discipline nazionali in tema di responsabilità. Superate le teorie, elaborate soprattutto dalla dottrina tedesca, che intendono riconoscere agli agenti software autonomi una soggettività giuridica piena o, quanto meno, parziale, poiché tali entità non sono dotate di un patrimonio autonomo e non realizzano interessi propri (così come accade per le fondazioni, per i comitati e, soprattutto, per le società di capitali con scopo “di lucro”), un primo dato essenziale consiste nel ribadire la centralità del principio di responsabilità solidale tra i molteplici soggetti che partecipano, a vario titolo, alla “catena di produzione” di una I.A. La precedente normativa di origine europea in materia di sicurezza e di qualità dei prodotti si è rivelata però inadeguata a disciplinare la responsabilità di “cose” animate da intelligenza artificiale, sia per il carattere polisenso della nozione di difetto, sia per la dinamica degli oneri probatori (nonostante gli importanti risultati cui sono pervenute la Cassazione italiana e la Corte di Giustizia U.E in tema di prova presuntiva del difetto e del nesso causale), sia, soprattutto, per l’incompatibilità delle I.A. con il c.d. rischio da sviluppo. In proposito v’è da rilevare che la Proposta di Direttiva del Parlamento europeo e del Consiglio del 28 settembre 2022 sulla responsabilità da Intelligenza Artificiale, allo stato, non ha avuto più seguito. Malgrado (nel Considerando n. 3) riconoscesse che «le specifiche caratteristiche di alcuni sistemi di Intelligenza Artificiale, come l’opacità, il comportamento autonomo e la complessità possono rendere eccessivamente difficile, se non impossibile, per il danneggiato soddisfare l’onere della prova», essa prevedeva un censurabile ritorno alla disciplina della responsabilità per colpa, anche per quelle Intelligenze Artificiali qualificate “ad alto rischio” dall’art. 6 e dall’Allegato III del Regolamento n. 1689 del 13 giugno 2024. A differenza di questa proposta di Direttiva, probabilmente considerata inadeguata a disciplinare un settore così delicato e complesso quale quello delle A.I., è stata approvata, invece, la Direttiva n. 2853 del 23 ottobre 2024 che «stabilisce norme comuni in materia di responsabilità degli operatori economici per il danno causato da prodotti difettosi», che va ad abrogare la precedente Direttiva 85/374. Le novità più significative riguardano: a) l’ampliamento della nozione di prodotto, che attualmente comprende anche il software, a prescindere dalle modalità con cui viene fornito o usato, sia che sia immesso sul mercato come prodotto a sé stante, sia che sia integrato in altri prodotti come componente, sia che sia integrato in un dispositivo, utilizzato tramite una rete di comunicazione o tecnologie cloud o fornito attraverso un modello software-as-a-service; b) la qualifica di “prodotto difettoso”, dovendo essere considerati sia “gli effetti sul prodotto della sua capacità di continuare a imparare o acquisire nuove funzionalità dopo la sua immissione sul mercato o messa in servizio” (art. 7), sia gli effetti ragionevolmente prevedibili sul prodotto di altri prodotti che ci si può attendere siano utilizzati insieme al prodotto, anche mediante l’interconnessione; c) la possibile inversione degli oneri probatori, in virtù dell’evidente “asimmetria” informativa che caratterizza il “fabbricante” e i terzi estranei al processo di produzione. Se il convenuto non ottempera all’ordine di divulgazione delle informazioni, se il danneggiato riesce a dimostrare che il prodotto non rispetta i requisiti obbligatori di sicurezza che sono previsti, o se l’attore riesce a dimostrare che il danno è stato causato da un malfunzionamento evidente del prodotto durante l’uso ragionevolmente prevedibile o in circostanze ordinarie, si presume il carattere difettoso del prodotto (art. 10, comma 2), con conseguente inversione dell’onere della prova. Tuttavia questa disciplina, che il legislatore europeo ha inteso estendere anche alla responsabilità per danni causati dalle A.I., presuppone pur sempre la nozione di “difetto” del prodotto, quale “pre-requisito” della responsabilità. Il problema si pone allorché un danno sia causato da una A.I. pur in assenza di un “difetto”. Sicuramente più adeguate appaiono, sussistendone i presupposti applicativi, la Gefährdungshaftung e le discipline sulla responsabilità per l’esercizio di attività pericolose e per i danni cagionati dalle “cose” in custodia (art. 2051 c.c. it.; garde, per il diritto francese: art. 1242 , comma 1, cod. fr.). Così il rapporto di imputazione della responsabilità tra l’agente software autonomo che abbia cagionato danni al terzo e il principal è specificamente qualificato dal rapporto di “custodia”. Ma v’è sempre la possibilità, da parte del danneggiato, almeno nei diritti che ammettono il “concorso” tra le diverse specie della responsabilità civile, di proporre il “concorso” tra questa disciplina e quella dettata per la responsabilità per i danni cagionati nell’esercizio di attività pericolose, che lascia al giudice la possibilità di qualificare la fattispecie con riferimento al singolo concreto rapporto. Riguardo alla responsabilità per i danni causati dalla circolazione di veicoli self-driving, la “rilettura” della disciplina vigente nella quasi totalità dei paesi si rivela per più versi inadeguata, dovendo la responsabilità civile cedere il passo a un più efficace modello di sicurezza sociale. Anche nel settore della robotica medica e dei veicoli self-driving, l’incidenza dell’evoluzione tecnologica spinge al superamento dell’idea di una “responsabilità” fondata sulla colpa, verso modelli di imputazione dei danni a titolo di absolute liability, “garantiti” dall’assicurazione obbligatoria, da fondi di garanzia e/o da piani di social security.

Le Intelligenze Artificiali nel prisma della responsabilità civile / Procida Mirabelli Di Lauro, Antonino. - (2026), pp. 2-78.

Le Intelligenze Artificiali nel prisma della responsabilità civile

PROCIDA MIRABELLI DI LAURO, ANTONINO
2026

Abstract

Negli ultimi tempi il tema della Artificial Intelligence (A.I.), soprattutto nella sua evoluzione self-learning, ha iniziato ad interessare sempre più la riflessione giuridica, non soltanto al fine di descrivere i diversi fenomeni, pur analoghi ma non sempre riconducibili ad una semplificante unità, quanto allo scopo di individuare i possibili rimedi esperibili, in ciascun sistema giuridico, nel caso di eventi dannosi arrecati alla controparte contrattuale o a terzi. Quindi, più che di un’unica Intelligenza Artificiale, sembra opportuno parlare di “intelligenze artificiali” al plurale, non escludendo che, anche sotto il profilo delle tutele, queste possano differenziarsi, sulla base degli strumenti previsti da ciascun ordinamento giuridico, in ordine ai diversi modelli di intelligenza artificiale ed ai diversi tipi di tool, di machine learning o di agenti software (più o meno) autonomi che possono venire in considerazione nei differenti settori dei rapporti civili. In presenza di un significativo mutamento di opinione del Parlamento europeo, anche le proposte degli esperti del MiSE prospettano la necessità di un attento "riesame" delle discipline nazionali in tema di responsabilità. Superate le teorie, elaborate soprattutto dalla dottrina tedesca, che intendono riconoscere agli agenti software autonomi una soggettività giuridica piena o, quanto meno, parziale, poiché tali entità non sono dotate di un patrimonio autonomo e non realizzano interessi propri (così come accade per le fondazioni, per i comitati e, soprattutto, per le società di capitali con scopo “di lucro”), un primo dato essenziale consiste nel ribadire la centralità del principio di responsabilità solidale tra i molteplici soggetti che partecipano, a vario titolo, alla “catena di produzione” di una I.A. La precedente normativa di origine europea in materia di sicurezza e di qualità dei prodotti si è rivelata però inadeguata a disciplinare la responsabilità di “cose” animate da intelligenza artificiale, sia per il carattere polisenso della nozione di difetto, sia per la dinamica degli oneri probatori (nonostante gli importanti risultati cui sono pervenute la Cassazione italiana e la Corte di Giustizia U.E in tema di prova presuntiva del difetto e del nesso causale), sia, soprattutto, per l’incompatibilità delle I.A. con il c.d. rischio da sviluppo. In proposito v’è da rilevare che la Proposta di Direttiva del Parlamento europeo e del Consiglio del 28 settembre 2022 sulla responsabilità da Intelligenza Artificiale, allo stato, non ha avuto più seguito. Malgrado (nel Considerando n. 3) riconoscesse che «le specifiche caratteristiche di alcuni sistemi di Intelligenza Artificiale, come l’opacità, il comportamento autonomo e la complessità possono rendere eccessivamente difficile, se non impossibile, per il danneggiato soddisfare l’onere della prova», essa prevedeva un censurabile ritorno alla disciplina della responsabilità per colpa, anche per quelle Intelligenze Artificiali qualificate “ad alto rischio” dall’art. 6 e dall’Allegato III del Regolamento n. 1689 del 13 giugno 2024. A differenza di questa proposta di Direttiva, probabilmente considerata inadeguata a disciplinare un settore così delicato e complesso quale quello delle A.I., è stata approvata, invece, la Direttiva n. 2853 del 23 ottobre 2024 che «stabilisce norme comuni in materia di responsabilità degli operatori economici per il danno causato da prodotti difettosi», che va ad abrogare la precedente Direttiva 85/374. Le novità più significative riguardano: a) l’ampliamento della nozione di prodotto, che attualmente comprende anche il software, a prescindere dalle modalità con cui viene fornito o usato, sia che sia immesso sul mercato come prodotto a sé stante, sia che sia integrato in altri prodotti come componente, sia che sia integrato in un dispositivo, utilizzato tramite una rete di comunicazione o tecnologie cloud o fornito attraverso un modello software-as-a-service; b) la qualifica di “prodotto difettoso”, dovendo essere considerati sia “gli effetti sul prodotto della sua capacità di continuare a imparare o acquisire nuove funzionalità dopo la sua immissione sul mercato o messa in servizio” (art. 7), sia gli effetti ragionevolmente prevedibili sul prodotto di altri prodotti che ci si può attendere siano utilizzati insieme al prodotto, anche mediante l’interconnessione; c) la possibile inversione degli oneri probatori, in virtù dell’evidente “asimmetria” informativa che caratterizza il “fabbricante” e i terzi estranei al processo di produzione. Se il convenuto non ottempera all’ordine di divulgazione delle informazioni, se il danneggiato riesce a dimostrare che il prodotto non rispetta i requisiti obbligatori di sicurezza che sono previsti, o se l’attore riesce a dimostrare che il danno è stato causato da un malfunzionamento evidente del prodotto durante l’uso ragionevolmente prevedibile o in circostanze ordinarie, si presume il carattere difettoso del prodotto (art. 10, comma 2), con conseguente inversione dell’onere della prova. Tuttavia questa disciplina, che il legislatore europeo ha inteso estendere anche alla responsabilità per danni causati dalle A.I., presuppone pur sempre la nozione di “difetto” del prodotto, quale “pre-requisito” della responsabilità. Il problema si pone allorché un danno sia causato da una A.I. pur in assenza di un “difetto”. Sicuramente più adeguate appaiono, sussistendone i presupposti applicativi, la Gefährdungshaftung e le discipline sulla responsabilità per l’esercizio di attività pericolose e per i danni cagionati dalle “cose” in custodia (art. 2051 c.c. it.; garde, per il diritto francese: art. 1242 , comma 1, cod. fr.). Così il rapporto di imputazione della responsabilità tra l’agente software autonomo che abbia cagionato danni al terzo e il principal è specificamente qualificato dal rapporto di “custodia”. Ma v’è sempre la possibilità, da parte del danneggiato, almeno nei diritti che ammettono il “concorso” tra le diverse specie della responsabilità civile, di proporre il “concorso” tra questa disciplina e quella dettata per la responsabilità per i danni cagionati nell’esercizio di attività pericolose, che lascia al giudice la possibilità di qualificare la fattispecie con riferimento al singolo concreto rapporto. Riguardo alla responsabilità per i danni causati dalla circolazione di veicoli self-driving, la “rilettura” della disciplina vigente nella quasi totalità dei paesi si rivela per più versi inadeguata, dovendo la responsabilità civile cedere il passo a un più efficace modello di sicurezza sociale. Anche nel settore della robotica medica e dei veicoli self-driving, l’incidenza dell’evoluzione tecnologica spinge al superamento dell’idea di una “responsabilità” fondata sulla colpa, verso modelli di imputazione dei danni a titolo di absolute liability, “garantiti” dall’assicurazione obbligatoria, da fondi di garanzia e/o da piani di social security.
2026
978-88-495-6095-4
Le Intelligenze Artificiali nel prisma della responsabilità civile / Procida Mirabelli Di Lauro, Antonino. - (2026), pp. 2-78.
File in questo prodotto:
File Dimensione Formato  
LE INTELLIGENZE ARTIFICIALI - GENNAIO 2026.pdf

accesso aperto

Descrizione: VOLUME
Tipologia: Versione Editoriale (PDF)
Licenza: Copyright dell'editore
Dimensione 3.1 MB
Formato Adobe PDF
3.1 MB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11588/1037556
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact