La questione centrale, con riguardo all’Intelligenza artificiale, è quella della responsabilità civile da danni prodotti da tali tecnologie avanzate rispetto alla quale occorre individuare soluzioni volte ad impedire che tali danni rimangano anonimi e non risarciti in presenza di un dato comune a tutte le forme di AI: cioè la pluralità di soggetti coinvolti in considerazione di “una catena di produzione” estesa e variegata che vede in stretto collegamento l’ideatore dell’algoritmo di machine learning, il trainer, il creatore del software, il produttore dell’hardware, il proprietario, l’utilizzatore e/o il custode della Cosa Intelligente. In questa direzione in presenza di una molteplicità di soggetti che contribuiscono a creare un medesimo prodotto di self-learning, si sollecita il richiamo all’art. 2055 c.c. nonché, secondo parte della dottrina, ad altre norme interne in particolare gli artt. 2050 e 2051 c.c. in considerazione della pericolosità intrinseca delle AI per la loro attitudine all’apprendimento, alla capacità di automodificarsi e nell’essere cose, sebbene peculiari per la loro dinamicità, spesso in custodia dell’utilizzatore. Norme codicistiche che comporterebbero l’esclusione dell’applicabilità della disciplina in materia di prodotti difettosi. La non condivisibilità di tale approccio è da ricondurre alla non riducibilità dei sistemi robotici ad unità sì da sollecitare l’individuazione di soluzioni diversificate a seconda del livello di sviluppo dell’AI e soprattutto degli specifici rischi connessi. In questa direzione è esaminato il caso dei danni da uso di robotica chirurgica che consente di addivenire a una nuova soluzione.
Intelligenze Artificiali, responsabilità civile e nuovi danni / Perlingieri, Carolina. - (2021). (Intervento presentato al convegno Obbligazioni, responsabilità civile e nuovi danni tenutosi a Consiglio dell'Ordine degli Avvocati di Napoli in collaborazione con Università degli Studi di Napoli "Federico II" nel 14 maggio 2021).
Intelligenze Artificiali, responsabilità civile e nuovi danni
Carolina Perlingieri
2021
Abstract
La questione centrale, con riguardo all’Intelligenza artificiale, è quella della responsabilità civile da danni prodotti da tali tecnologie avanzate rispetto alla quale occorre individuare soluzioni volte ad impedire che tali danni rimangano anonimi e non risarciti in presenza di un dato comune a tutte le forme di AI: cioè la pluralità di soggetti coinvolti in considerazione di “una catena di produzione” estesa e variegata che vede in stretto collegamento l’ideatore dell’algoritmo di machine learning, il trainer, il creatore del software, il produttore dell’hardware, il proprietario, l’utilizzatore e/o il custode della Cosa Intelligente. In questa direzione in presenza di una molteplicità di soggetti che contribuiscono a creare un medesimo prodotto di self-learning, si sollecita il richiamo all’art. 2055 c.c. nonché, secondo parte della dottrina, ad altre norme interne in particolare gli artt. 2050 e 2051 c.c. in considerazione della pericolosità intrinseca delle AI per la loro attitudine all’apprendimento, alla capacità di automodificarsi e nell’essere cose, sebbene peculiari per la loro dinamicità, spesso in custodia dell’utilizzatore. Norme codicistiche che comporterebbero l’esclusione dell’applicabilità della disciplina in materia di prodotti difettosi. La non condivisibilità di tale approccio è da ricondurre alla non riducibilità dei sistemi robotici ad unità sì da sollecitare l’individuazione di soluzioni diversificate a seconda del livello di sviluppo dell’AI e soprattutto degli specifici rischi connessi. In questa direzione è esaminato il caso dei danni da uso di robotica chirurgica che consente di addivenire a una nuova soluzione.File | Dimensione | Formato | |
---|---|---|---|
LOCANDINA-14-5-2021.pdf
accesso aperto
Tipologia:
Documento in Post-print
Licenza:
Dominio pubblico
Dimensione
157.5 kB
Formato
Adobe PDF
|
157.5 kB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.