Al fine di tracciare un quadro sulle possibili responsabilità alle quali si può andare incontro nell’utilizzo delle Intelligenze Artificiali in ambito sanitario, allo stato, sembra opportuno superare una pur affermata concezione unitaria e distinguere le diverse forme di Intelligenza Artificiale sulla base delle loro specifiche caratteristiche e delle peculiari attività e funzioni svolte in ausilio o, addirittura, soprattutto in un prossimo futuro, in sostituzione dell’attività svolta dagli operatori sanitari. Alla responsabilità medico-sanitaria, infatti, non sembra possibile applicare automaticamente le soluzioni escogitate in generale per qualsiasi forma di Intelligenza Artificiale. Se è vero che, pur in presenza di alcuni fattori comuni, anche all’interno di questo ampio e variegato àmbito sia necessario distinguere, caso per caso, ciascun fenomeno dall’altro, a maggior ragione la materia medico-sanitaria rappresenta un settore nel quale hanno operato e, tutt’oggi, operano peculiari modelli di imputazione, che involgono parallelamente sia il diritto civile, sia il diritto penale, sia la responsabilità contrattuale, sia quella extracontrattuale. Esposte le intricate vicende che hanno interessato e che tutt’oggi interessano il settore della responsabilità medico-sanitaria, si esaminano le ipotesi, sempre più numerose, nelle quali l’attività sanitaria è esercitata con l’ausilio di congegni di Intelligenza Artificiale. Allorché questi operano sotto il controllo e la direzione dei sanitari, il paziente danneggiato non potrà non agire ai sensi dei regimi di responsabilità civile prescritti in ciascun ordinamento giuridico. Anzi, l’impiego di modelli di Intelligenza Artificiale sempre più complessi ed “autonomi” tende ad estendere la responsabilità contrattuale della struttura sanitaria o, meglio, del suo assicuratore (art. 12 l. n. 24 del 2017), per clinical risk management, mentre tende a ridimensionare la responsabilità extracontrattuale del singolo operatore. Quanto più una macchina sempre più performante interagisce con l’attività dal medico (fino a sostituirla del tutto), tanto più aumenta l’ottimizzazione della prestazione standard, con conseguente riduzione del suo margine di responsabilità. Man mano che l’attività medico-sanitaria sarà sempre più “sostituita” dall’utilizzo delle Intelligenze Artificiali, se tende progressivamente a decrescere la responsabilità extracontrattuale dei singoli operatori sanitari, permane una generale responsabilità contrattuale della struttura sanitaria nei riguardi del paziente. Per effetto del c.d. contratto di spedalità, concluso a seguito dell’”accettazione” di un paziente anche in stato di coma e, quindi, privo della capacità di prestare il proprio consenso, la prestazione sanitaria non si limita al solo intervento chirurgico o alla mera somministrazione delle cure, ma comprende molteplici obblighi sia di prestazione, sia di protezione, che riguardano, ad esempio, le prestazioni diagnostiche preventive e terapeutiche, la sicurezza e la custodia degli impianti e delle attrezzature presenti presso la struttura, le prestazioni infermieristiche e il costante monitoraggio dello stato di salute dei ricoverati, perfino le prestazioni di vitto e di alloggio legate alla degenza del paziente. In presenza di un ordinamento che ammette il concorso tra le due specie della responsabilità civile, la struttura sanitaria, oltre che a titolo contrattuale, potrà rispondere anche nella qualità di “custode” (art. 2051 c.c.) dei robot e delle ulteriori macchine e meccanismi che operano sotto la sua direzione, il suo governo e il suo controllo. Quindi, se l’accelerato progresso tecnologico rende sempre più difficile, quanto meno nel settore medico-sanitario interessato dalle innovazioni riconducibili all’utilizzo di Intelligenze Artificiali, l’applicazione di discipline che si fondano sul requisito della “pericolosità” dell’attività posta in essere (art. 2050 c.c.) , per sua natura o per la natura dei mezzi adoperati, l’imputare la responsabilità a chi si trovi nelle condizioni di controllare i rischi inerenti alla cosa rappresenta, altresì, una “perfetta applicazione dei criteri dell’analisi economica del diritto”. L’uso sempre più accelerato della tecnologia, tuttavia, introduce altri attori sulla scena della responsabilità medico-sanitaria. Il paziente eventualmente danneggiato potrà agire pur sempre, a titolo contrattuale, nei riguardi dell’assicuratore della struttura, e/o della struttura stessa (là dove operi in c.d. auto-assicurazione), ma quest’ultima, là dove il danno sia stato causato dal malfunzionamento della macchina dotata (o no) di Intelligenza Artificiale, potrà a sua volta agire nei riguardi del produttore del robot, provando il suo “difetto” (ai sensi della recente direttiva UE sul danno da prodotto). Questi, a sua volta, potrà chiamare in causa i soggetti “responsabili” che hanno partecipato alla complessa catena di produzione: l’ideatore degli algoritmi, il produttore del software, l’operatore che ha selezionato e somministrato i dati, l’addestratore della macchina che, eventualmente, operi in autonomia, ecc. In tal senso non può non applicarsi il generale principio di responsabilità solidale che consente, a colui che ha risarcito il danno, di agire in regresso avverso gli altri responsabili «nella misura determinata dalle dimensioni del rischio riferibile a ciascuno», oltre che «dalla gravità delle eventuali colpe e dalla entità delle conseguenze che ne sono derivate». Nel dubbio la ripartizione deve avvenire in parti eguali. Quindi, bisogna distinguere, da un lato, la responsabilità nei riguardi del paziente danneggiato, che, in Italia, è di tipo contrattuale nei riguardi (dell’assicuratore) della struttura, mentre è fondata sulla colpa, nei confronti del singolo operatore sanitario; dall’altro la responsabilità dei “produttori” della macchina che incorpora l’Intelligenza Artificiale, anche nei riguardi della struttura sanitaria che l’abbia impiegata, là dove la stessa abbia manifestato anomalie nel suo funzionamento dovuto ad un difetto di costruzione o ad una cattiva gestione del suo successivo processo evolutivo. Ai sensi della Direttiva n. 2853 del 23 ottobre 2024 che «stabilisce norme comuni in materia di responsabilità degli operatori economici per il danno causato da prodotti difettosi», e che va ad abrogare la precedente Direttiva 85/374, soprattutto nei casi più complessi dal punto di vista tecnico o scientifico, come quelli caratterizzati dall’impiego di Intelligenze Artificiali animate da algoritmi di machine learning, il soggetto danneggiato dal prodotto difettoso può chiedere agli organi giurisdizionali l’accesso agli elementi di prova, sempre che tale accesso «sia limitato a quanto necessario e proporzionato», anche al fine di evitare la divulgazione di informazioni non rilevanti per il procedimento e di proteggere le informazioni riservate (Considerando n. 42). Se il convenuto non ottempera all’ordine di divulgazione delle informazioni, se il danneggiato riesce a dimostrare che il prodotto non rispetta i requisiti obbligatori di sicurezza che sono previsti, o se l’attore riesce a provare che il danno è stato causato da un malfunzionamento evidente del prodotto durante l’uso ragionevolmente prevedibile o in circostanze ordinarie, si presume il carattere difettoso del prodotto (art. 10, comma 2), con conseguente inversione dell’onere della prova. Si presume la sussistenza del nesso di causa qualora si accerti la difettosità del prodotto e si ritenga che la natura del danno cagionato sia generalmente compatibile con il difetto riscontrato (comma 3). Anche là dove il convenuto abbia divulgato le informazioni pertinenti, le Corti potrebbero comunque presumere il carattere difettoso del prodotto o il nesso di causalità tra difetto e danno, o entrambi, qualora l’attore, a causa della complessità tecnica e scientifica, incontri difficoltà eccessive nel provare il difetto, il nesso causale o entrambi; ovvero dimostri che “è probabile” che il prodotto sia difettoso o che esista il nesso causale (art 1°, comma 4). Si tratta di presunzioni relative, che ammettono la prova contraria (comma 5), la quale, però, in questi casi, va a gravare per intero sul convenuto. Si tratta, inoltre, di presunzioni legali, che sono considerate in dottrina vere e proprie regole di prova, nella misura in cui impongono al giudice una determinata decisione per tutti i casi a cui astrattamente si riferiscono. E ciò, a differenza delle presunzioni semplici, che sono considerate semplici “mezzi di prova”, rimessi al prudente apprezzamento del giudice, che operano soltanto in via eventuale e con riferimento al caso deciso in concreto. Un problema giuridico ulteriore si pone allorché il danno causato al paziente dalla macchina prescinda da un “difetto” della A.I. In questi casi, anche nel settore della robotica medica sembra necessario trascorrere dall’idea di una “responsabilità” fondata sulla prova della colpa o del “difetto”, a modelli di imputazione dei danni a titolo di strict o di absolute liability, “garantiti” dall’assicurazione obbligatoria, da fondi di garanzia e/o da piani di social security.
La responsabilità sanitaria e le nuove sfide dell'era digitale / Feola, Maria. - (2026), pp. 95-136.
La responsabilità sanitaria e le nuove sfide dell'era digitale
FEOLA, MARIA
2026
Abstract
Al fine di tracciare un quadro sulle possibili responsabilità alle quali si può andare incontro nell’utilizzo delle Intelligenze Artificiali in ambito sanitario, allo stato, sembra opportuno superare una pur affermata concezione unitaria e distinguere le diverse forme di Intelligenza Artificiale sulla base delle loro specifiche caratteristiche e delle peculiari attività e funzioni svolte in ausilio o, addirittura, soprattutto in un prossimo futuro, in sostituzione dell’attività svolta dagli operatori sanitari. Alla responsabilità medico-sanitaria, infatti, non sembra possibile applicare automaticamente le soluzioni escogitate in generale per qualsiasi forma di Intelligenza Artificiale. Se è vero che, pur in presenza di alcuni fattori comuni, anche all’interno di questo ampio e variegato àmbito sia necessario distinguere, caso per caso, ciascun fenomeno dall’altro, a maggior ragione la materia medico-sanitaria rappresenta un settore nel quale hanno operato e, tutt’oggi, operano peculiari modelli di imputazione, che involgono parallelamente sia il diritto civile, sia il diritto penale, sia la responsabilità contrattuale, sia quella extracontrattuale. Esposte le intricate vicende che hanno interessato e che tutt’oggi interessano il settore della responsabilità medico-sanitaria, si esaminano le ipotesi, sempre più numerose, nelle quali l’attività sanitaria è esercitata con l’ausilio di congegni di Intelligenza Artificiale. Allorché questi operano sotto il controllo e la direzione dei sanitari, il paziente danneggiato non potrà non agire ai sensi dei regimi di responsabilità civile prescritti in ciascun ordinamento giuridico. Anzi, l’impiego di modelli di Intelligenza Artificiale sempre più complessi ed “autonomi” tende ad estendere la responsabilità contrattuale della struttura sanitaria o, meglio, del suo assicuratore (art. 12 l. n. 24 del 2017), per clinical risk management, mentre tende a ridimensionare la responsabilità extracontrattuale del singolo operatore. Quanto più una macchina sempre più performante interagisce con l’attività dal medico (fino a sostituirla del tutto), tanto più aumenta l’ottimizzazione della prestazione standard, con conseguente riduzione del suo margine di responsabilità. Man mano che l’attività medico-sanitaria sarà sempre più “sostituita” dall’utilizzo delle Intelligenze Artificiali, se tende progressivamente a decrescere la responsabilità extracontrattuale dei singoli operatori sanitari, permane una generale responsabilità contrattuale della struttura sanitaria nei riguardi del paziente. Per effetto del c.d. contratto di spedalità, concluso a seguito dell’”accettazione” di un paziente anche in stato di coma e, quindi, privo della capacità di prestare il proprio consenso, la prestazione sanitaria non si limita al solo intervento chirurgico o alla mera somministrazione delle cure, ma comprende molteplici obblighi sia di prestazione, sia di protezione, che riguardano, ad esempio, le prestazioni diagnostiche preventive e terapeutiche, la sicurezza e la custodia degli impianti e delle attrezzature presenti presso la struttura, le prestazioni infermieristiche e il costante monitoraggio dello stato di salute dei ricoverati, perfino le prestazioni di vitto e di alloggio legate alla degenza del paziente. In presenza di un ordinamento che ammette il concorso tra le due specie della responsabilità civile, la struttura sanitaria, oltre che a titolo contrattuale, potrà rispondere anche nella qualità di “custode” (art. 2051 c.c.) dei robot e delle ulteriori macchine e meccanismi che operano sotto la sua direzione, il suo governo e il suo controllo. Quindi, se l’accelerato progresso tecnologico rende sempre più difficile, quanto meno nel settore medico-sanitario interessato dalle innovazioni riconducibili all’utilizzo di Intelligenze Artificiali, l’applicazione di discipline che si fondano sul requisito della “pericolosità” dell’attività posta in essere (art. 2050 c.c.) , per sua natura o per la natura dei mezzi adoperati, l’imputare la responsabilità a chi si trovi nelle condizioni di controllare i rischi inerenti alla cosa rappresenta, altresì, una “perfetta applicazione dei criteri dell’analisi economica del diritto”. L’uso sempre più accelerato della tecnologia, tuttavia, introduce altri attori sulla scena della responsabilità medico-sanitaria. Il paziente eventualmente danneggiato potrà agire pur sempre, a titolo contrattuale, nei riguardi dell’assicuratore della struttura, e/o della struttura stessa (là dove operi in c.d. auto-assicurazione), ma quest’ultima, là dove il danno sia stato causato dal malfunzionamento della macchina dotata (o no) di Intelligenza Artificiale, potrà a sua volta agire nei riguardi del produttore del robot, provando il suo “difetto” (ai sensi della recente direttiva UE sul danno da prodotto). Questi, a sua volta, potrà chiamare in causa i soggetti “responsabili” che hanno partecipato alla complessa catena di produzione: l’ideatore degli algoritmi, il produttore del software, l’operatore che ha selezionato e somministrato i dati, l’addestratore della macchina che, eventualmente, operi in autonomia, ecc. In tal senso non può non applicarsi il generale principio di responsabilità solidale che consente, a colui che ha risarcito il danno, di agire in regresso avverso gli altri responsabili «nella misura determinata dalle dimensioni del rischio riferibile a ciascuno», oltre che «dalla gravità delle eventuali colpe e dalla entità delle conseguenze che ne sono derivate». Nel dubbio la ripartizione deve avvenire in parti eguali. Quindi, bisogna distinguere, da un lato, la responsabilità nei riguardi del paziente danneggiato, che, in Italia, è di tipo contrattuale nei riguardi (dell’assicuratore) della struttura, mentre è fondata sulla colpa, nei confronti del singolo operatore sanitario; dall’altro la responsabilità dei “produttori” della macchina che incorpora l’Intelligenza Artificiale, anche nei riguardi della struttura sanitaria che l’abbia impiegata, là dove la stessa abbia manifestato anomalie nel suo funzionamento dovuto ad un difetto di costruzione o ad una cattiva gestione del suo successivo processo evolutivo. Ai sensi della Direttiva n. 2853 del 23 ottobre 2024 che «stabilisce norme comuni in materia di responsabilità degli operatori economici per il danno causato da prodotti difettosi», e che va ad abrogare la precedente Direttiva 85/374, soprattutto nei casi più complessi dal punto di vista tecnico o scientifico, come quelli caratterizzati dall’impiego di Intelligenze Artificiali animate da algoritmi di machine learning, il soggetto danneggiato dal prodotto difettoso può chiedere agli organi giurisdizionali l’accesso agli elementi di prova, sempre che tale accesso «sia limitato a quanto necessario e proporzionato», anche al fine di evitare la divulgazione di informazioni non rilevanti per il procedimento e di proteggere le informazioni riservate (Considerando n. 42). Se il convenuto non ottempera all’ordine di divulgazione delle informazioni, se il danneggiato riesce a dimostrare che il prodotto non rispetta i requisiti obbligatori di sicurezza che sono previsti, o se l’attore riesce a provare che il danno è stato causato da un malfunzionamento evidente del prodotto durante l’uso ragionevolmente prevedibile o in circostanze ordinarie, si presume il carattere difettoso del prodotto (art. 10, comma 2), con conseguente inversione dell’onere della prova. Si presume la sussistenza del nesso di causa qualora si accerti la difettosità del prodotto e si ritenga che la natura del danno cagionato sia generalmente compatibile con il difetto riscontrato (comma 3). Anche là dove il convenuto abbia divulgato le informazioni pertinenti, le Corti potrebbero comunque presumere il carattere difettoso del prodotto o il nesso di causalità tra difetto e danno, o entrambi, qualora l’attore, a causa della complessità tecnica e scientifica, incontri difficoltà eccessive nel provare il difetto, il nesso causale o entrambi; ovvero dimostri che “è probabile” che il prodotto sia difettoso o che esista il nesso causale (art 1°, comma 4). Si tratta di presunzioni relative, che ammettono la prova contraria (comma 5), la quale, però, in questi casi, va a gravare per intero sul convenuto. Si tratta, inoltre, di presunzioni legali, che sono considerate in dottrina vere e proprie regole di prova, nella misura in cui impongono al giudice una determinata decisione per tutti i casi a cui astrattamente si riferiscono. E ciò, a differenza delle presunzioni semplici, che sono considerate semplici “mezzi di prova”, rimessi al prudente apprezzamento del giudice, che operano soltanto in via eventuale e con riferimento al caso deciso in concreto. Un problema giuridico ulteriore si pone allorché il danno causato al paziente dalla macchina prescinda da un “difetto” della A.I. In questi casi, anche nel settore della robotica medica sembra necessario trascorrere dall’idea di una “responsabilità” fondata sulla prova della colpa o del “difetto”, a modelli di imputazione dei danni a titolo di strict o di absolute liability, “garantiti” dall’assicurazione obbligatoria, da fondi di garanzia e/o da piani di social security.| File | Dimensione | Formato | |
|---|---|---|---|
|
LE INTELLIGENZE ARTIFICIALI - GENNAIO 2026.pdf
accesso aperto
Descrizione: VOLUME
Tipologia:
Versione Editoriale (PDF)
Licenza:
Copyright dell'editore
Dimensione
3.1 MB
Formato
Adobe PDF
|
3.1 MB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


