arato

home / Archivio / Fascicolo / Sistemi intelligenti autonomi e responsabilità civile: stato dell'arte e prospettive ..

indietro stampa articolo indice fascicolo leggi articolo leggi fascicolo


Sistemi intelligenti autonomi e responsabilità civile: stato dell'arte e prospettive nell'esperienza comunitaria

Pier Giorgio Chiara, dottorando presso "Last-JD Law, Science and Technology RIoE", assunto dall'Università del Lussemburgo in co-tutela presso l'Università di Torino e l'Università di Bologna.

L’elaborato, dimostrando come l’attuale normativa di responsabilità da prodotto difettoso non offra risposte soddisfacenti al fine di assicurare l’adeguata allocazione dell’onere probatorio, propone un’analisi multilivello delle teorie di responsabilità extra-contrattuale, applicate ad un’ideale tripartizione delle tecnologie di IA, in relazione alla loro complessità ed autonomia. Le conclusioni, tenendo in debito conto il report finale del gruppo di esperti sulla responsabilità dell’IA e altre tecnologie emergenti, considerano un opportuno bilanciamento tra colpa e responsabilità oggettiva attraverso la metodologia dell’analisi economica del diritto.

PAROLE CHIAVE: robotica - responsabilità da prodotto difettoso - risarcimento del danno

Autonomous intelligent systems and civil liability: state of the art and perspectives in community experience

The paper, demonstrating that the current defective product liability legislation doesn’t offer satisfactory answers in order to ensure the adequate allocation of the burden of proof, proposes a multilevel analysis of the theories of extra-contractual liability, applied to an ideal tripartition of AI technologies, in relation to their complexity and autonomy. The conclusions, taking into due account the final report of the group of experts on the responsibility of AI and other emerging technologies, consider an appropriate balance between guilt and objective responsibility through the methodology of economic analysis of law.

Keywords: robotics – liability for defective product – damage compensation

» Per l'intero contenuto effettuare il login inizio

Sommario:

1. Introduzione - 2. Le coordinate concettuali del problema - 2.1. Una prospettiva verticale - 2.2. Una prospettiva orizzontale - 3. La responsabilità da prodotto difettoso - 4. Criticità nell’applicazione del regime di responsabilità da prodotto difettoso alle tecnologie emergenti - 4.1. Prodotto - 4.2. Difettosità - 4.3. Causalità - 5. Un’analisi multilivello di sistemi alternativi nell’attribuzione della responsabilità - 5.1. La rappresentanza: analogie e differenze con la legge romanistica della schiavitù - 5.2. Teorie di responsabilità vicaria: analogie e differenze con i minori, gli impiegati e gli animali - 6. Analisi del report finale del gruppo di esperti su responsabilità e nuove tecnologie - 7. Profili conclusivi - NOTE


1. Introduzione

Dinanzi alla necessità di confrontarsi con una tecnologia variabile nelle sue caratteristiche, è opportuno operare delle strategie speculative di fondo nel­l’ottica di definire un panorama coerente con la previsione, benché instabile, delle future dinamiche. In tal senso è bene sottolineare, in via di approssimazione, come le c.d. tecnologie digitali emergenti, tra cui l’intelligenza artificiale (IA), l’interazione di quest’ultima con la robotica e i sistemi di IoT (Internet of Things) conducano verso la creazione di nuovi prodotti e servizi, inesplorate opportunità per l’economia e il benessere delle nostre società [1]. Nella circostanza in cui una delle tecnologie emergenti cagioni un danno, l’allocazione della responsabilità extra-contrattuale può risultare difficoltosa in virtù delle caratteristiche delle tecnologie stesse. Pertanto, è necessario analizzare il panorama legislativo europeo in tema di responsabilità e sicurezza per vagliarne l’applicabilità a questa nuova categoria di agenti, senza trascurare, d’altra parte, l’esigenza dei produttori di operare all’interno di un sistema connotato dalla certezza e dalla trasparenza. Di tale elemento di complessità sembra aver preso maggiore coscienza il legislatore comunitario [2], il quale ha posto le basi per un percorso di ripensamento e revisione delle [continua ..]

» Per l'intero contenuto effettuare il login inizio


2. Le coordinate concettuali del problema

Nel ricostruire un sistema riconducibile all’alveo della responsabilità civile, idoneo a regolare le conseguenze di possibili eventi lesivi derivanti dalla tendenza a lasciare sempre più autonomia nell’interazione di queste tecnologie, il primo aspetto degno di nota è la profonda incertezza che permea lo sviluppo tecnologico e, conseguentemente, le proprietà che tali applicazioni sono suscettibili di assumere nel medio e nel lungo periodo.

» Per l'intero contenuto effettuare il login inizio


2.1. Una prospettiva verticale

È opportuno, innanzitutto, delineare i confini concettuali delle tecnologie sotto indagine. A tal proposito, si propone, in un’ottica verticale, come livello d’astrazione, una ideale tripartizione di questi sistemi, avendo come criterio distintivo il tratto dell’autonomia [5]. Primo osservabile di tale livello sarà la classe dei robot senza autonomia [6] che, in una prospettiva storica, può essere ricondotta alla categoria dei robot industriali. Il secondo punto d’osservazione è invece rappresentato da applicazioni robotiche con autonomia limitata [7], come taluni service robot [8]. Come per le applicazioni industriali automatizzate, la scelta di questa categoria merceologica ha ragioni di chiarificazione espositiva che debbono sfuggire all’equazione generalizzante che vorrebbe tutti gli appartenenti a questa classe condividere il medesimo grado di autonomia. Infine, il terzo osservabile prende in analisi i sistemi avanzati di IA. Le ultime tendenze nella ricerca sono testimoni di un rinnovato interesse nella c.d. IA in senso forte [9]; se i progetti moderni infatti possono fare affidamento su hardware più potenti, gli sviluppi compiuti nell’ingegneria del software e nella neuroscienza computazionale [10] hanno contribuito a rinnovare il vigore di questi progetti. Si prenda il caso di OpenAI, realtà che al tempo della ricerca sul modello di processo di linguaggio [continua ..]

» Per l'intero contenuto effettuare il login inizio


2.2. Una prospettiva orizzontale

Il livello di astrazione prescelto, tripartito per semplicità in macro-categorie di applicazioni tecnologiche nella sezione precedente, è destinato ad avere incidenza sempre maggiore su diverse sfere del diritto privato quali: la responsabilità contrattuale ed extra-contrattuale, diritti di proprietà intellettuale, nonché questioni legate a privacy e data protection [15]. La decisione di evidenziare aspetti di responsabilità civile nasce dall’esigenza di rispondere alla complessità dell’allocazione del danno secondo gli schemi tradizionali, ove le tecnologie autonome siano coinvolte [16].  

» Per l'intero contenuto effettuare il login inizio


3. La responsabilità da prodotto difettoso

Operando una distinzione di massima tra la normativa di matrice nordamericana –suscettibile di essere valutata dai singoli stati, pur orientata al rispetto dei principi delineati dal c.d. Third Restatement [17] – e quella europea, è opportuno sottolineare come quest’ultima si presti, in virtù della direttiva sulla responsabilità da prodotto difettoso (in prosieguo: Direttiva [18]), ad un’analisi unitaria. Gli oneri probatori richiesti dalla normativa UE sono, essenzialmente, affini a quelli previsti per la prova del difetto nella disciplina USA [19]: la parte attrice è tenuta a dimostrare che il prodotto per se non è adatto all’attività per la quale era stato messo in commercio (design defect) od alternativamente che, benché astrattamente idoneo a svolgere la propria funzione, lo specifico prodotto venduto è difettoso, e, di conseguenza, ha tenuto una condotta anomala (manufacturing defect). In aggiunta a ciò, gli ordinamenti domestici degli Stati Membri si presentano profondamente eterogenei, declinando in diverse maniere l’interpretazione degli elementi necessari a provare la causalità tra difetto del prodotto ed evento lesivo [20]. L’ampio spettro rappresentato dalle interpretazioni delle corti nazionali varia da posizioni prossime a forme di responsabilità semi-oggettiva (invertendo l’onere della prova e ponendolo in capo al [continua ..]

» Per l'intero contenuto effettuare il login inizio


4. Criticità nell’applicazione del regime di responsabilità da prodotto difettoso alle tecnologie emergenti

Riprendendo il livello d’astrazione iniziale, è possibile ipotizzare come dall’incontro della tripartizione delle tecnologie emergenti e la responsabilità da prodotto difettoso possano nascere diversi scenari di difficile interpretazione per il giurista. Il primo osservabile, rappresentato da robot senza autonomia, difficilmente può essere considerato destabilizzante dal momento che queste applicazioni sono guidate dall’uomo, che fissa l’obiettivo della macchina unitamente al percorso necessario per raggiungerlo: ciò rende questa classe “tecnologica” non dissimile dai prodotti tradizionali, facendola pertanto ricadere nel campo d’applicazione della direttiva [23]. I casi della weak AI, ossia il secondo osservabile del nostro modello, e dei sistemi avanzati di intelligenza artificiale, terzo ed ultimo grado di complessità, comportano di converso diverse difficoltà tecniche ed interpretative nel contesto della responsabilità da prodotto. Ai fini del presente lavoro, verrà preso in analisi solamente quest’ultimo livello di autonomia, in quanto è ritenuto essere il più dirompente per gli schemi di responsabilità extra-contrattuale a disposizione del giurista, oggi.

» Per l'intero contenuto effettuare il login inizio


4.1. Prodotto

È dibattuto in dottrina se la componente software di un sistema avanzato di IA possa essere classificata come “prodotto”, ai sensi dell’art. 2 della Direttiva [24]. Dal momento che la Direttiva trova la sua applicazione nei confronti di tutte le cose mobili – unitamente all’elettricità, di cui espressa menzione al comma 2, il software potrebbe essere escluso dall’ambito dello strumento comunitario per via della sua natura intangibile [25]. Da ritenersi minoritaria è la dottrina che propenderebbe per la tangibilità nei casi in cui il software fosse incorporato in un bene mobile a tal punto da non poter essere più distinto da esso (ad esempio: un robot) [26]. A dimostrazione di ciò, non si è mai riconosciuta in capo ai produttori di software una responsabilità extra-contrattuale da prodotto difettoso per un difetto di codice [27].

» Per l'intero contenuto effettuare il login inizio


4.2. Difettosità

Adottare la nozione di difettosità, ai sensi della Direttiva [28], in un contesto algoritmico può essere sviante. In primo luogo, è da determinarsi se le tecniche di machine learning, conducendo potenzialmente a risultati diversi da quelli che il consumatore può attendersi, possano rientrare nell’interpretazione di “prodotto difettoso”. Inoltre, un altro interrogativo è suscitato dalla qualità del dataset [29] utilizzato per l’addestramento del modello di IA, dal momento che la qualità del prodotto è direttamente influenzata dalla qualità del trattamento dei dati [30]: dei (big) dati biased, unfair o imbalanced possono minare la sicurezza legittimamente attesa nel test del consumatore ex art. 2 della Direttiva? Si aggiunga, come ulteriore complicazione, l’inesistenza di una definizione precisa per l’errore di codice (software fault): qualcuno ha provato a qualificare l’eventualità del guasto come una imperfezione strutturale da ricercarsi nelle linee di codice [31]. Se, infatti, i problemi di software design vengono rilevati durante la fase del testing, è bene sottolineare come ci siano sostanziali differenze tra il test di un algoritmo, ancorché “semplice”, e un prodotto tradizionale [32]. I test, invero, non possono dimostrare in modo assoluto che non ci siano errori a livello di scrittura del [continua ..]

» Per l'intero contenuto effettuare il login inizio


4.3. Causalità

Quanto al nesso di causalità, la direttiva affida agli ordinamenti domestici il compito di disciplinarne numerosi aspetti. Se agli articoli 1 e 4 statuisce chiaramente che l’onere di provare il difetto, il danno e il nesso causale tra essi debba ricadere interamente sulla parte attrice, condizione necessaria per la responsabilità del produttore, non specifica però quale sia lo standard della prova richiesto, o più generalmente, come il nesso di causa vada provato. Come si è avuto modo di osservare, gli Stati Membri, pur adottando diverse interpretazioni degli elementi necessari a provare la causalità, possono essere accorpati in macro-modelli, senza alcuna pretesa di fondare una tassonomia generale [36]. Analizzando il formante legislativo nazionale, pertanto, si nota come il nesso eziologico richiesto dalle varie ipotesi di responsabilità aquiliana previste all’interno del codice civile non sia sempre uguale a se stesso, a differenza di quanto avviene nella tutela penale, fondata sull’ineluttabile correlazione indagato o imputato ed evento di reato [37], per quanto presenti anch’essa tratti polimorfi trascendenti l’imputazione della responsabilità secondo la tripartizione canonica colposo, doloso, preterintenzionale (si fa riferimento a c.d. modelli di responsabilità oggettiva occulta, es. reati aggravati dall’evento o concorso anomalo ex art. 117 c.p.). Nella [continua ..]

» Per l'intero contenuto effettuare il login inizio


5. Un’analisi multilivello di sistemi alternativi nell’attribuzione della responsabilità

Alla luce di quanto emerso sulla prima facie difficoltosa applicabilità del paradigma della responsabilità da prodotto alle c.d. tecnologie emergenti, è opportuno esaminare altri schemi di responsabilità extra-contrattuale, considerando tali sistemi intelligenti autonomi come attori o agenti, a seconda del vario grado di autonomia di cui sono capaci, prescindendo dal dibattito sulla personalità giuridica [54]. Possibili fonti per la costruzione di una teoria di responsabilità aquiliana flessibile abbastanza da disciplinare gli agenti artificiali possono provenire dalle esistenti dottrine di responsabilità semi-oggettiva, relative al danno cagionato da soggetti diversi dal chiamato a risarcire (artt. 2048-2052). O persino da antichi istituti come quello del peculium (vedi sez. successiva), di provenienza romanistica, collegato alla schiavitù. Dette analogie sono provocatorie; ciò non di meno hanno il pregio di mostrare come le avanzate –e sorprendenti– capacità degli agenti artificiali, unitamente al vasto spettro di decisioni loro delegate, permettano una comparazione con altri agenti e altri attori fotografati dal diritto. Questa sezione mira a definire un approccio multilivello alla questione della responsabilità civile, anziché uno più marcatamente sliding-scale, come nel contributo di Boscarato [55]: l’autrice, distinguendo tra le azioni robotiche che [continua ..]

» Per l'intero contenuto effettuare il login inizio


5.1. La rappresentanza: analogie e differenze con la legge romanistica della schiavitù

Diverse voci in dottrina sostengono che l’IA sia una nuova forma di rappresentanza [57]. Il salto concettuale che si richiede al lettore è di non considerare tali tecnologie, animate da IA, alla stregua di meri artefatti. Una corrente di studiosi di cibernetica risalente agli anni ְ’80 proponeva una distinzione opportuna dei sistemi di IA dalla materia inanimata, in considerazione delle categorie a quest’ultima applicabili quali l’individualità, l’intelligenza, la locomozione e la percezione [58]. Ancora, si consideri che Weizenbaum, teorico estremamente critico con tali posizioni ritenute troppo futuristiche, riconosceva a tali sistemi autonomi una dignità di organismi dotati di “auto-coscienza”, in considerazione della loro abilità nel “socializzare” [59]. Considerare tali sistemi avanzati di IA come qualcosa di diverso e ulteriore dalla materia inanimata può condurre su una china pericolosa; cionondimeno, i giuristi di duemila anni fa avrebbero considerato illogico categorizzare gli schiavi fuori dal paradigma della proprietà. Così come alla condizione di schiavo, gradualmente, sono stati riconnessi sempre più diritti e doveri, anche nel contesto delle tecnologie avanzate di IA è possibile ipotizzare un ampliamento della sfera giuridica, in virtù di un progressivo avvicinamento alle capacità cognitive umane in ogni loro [continua ..]

» Per l'intero contenuto effettuare il login inizio


5.2. Teorie di responsabilità vicaria: analogie e differenze con i minori, gli impiegati e gli animali

Possibili fonti per la costruzione di una teoria di responsabilità aquiliana flessibile abbastanza da disciplinare gli agenti artificiali possono provenire dalle esistenti dottrine di responsabilità oggettiva e semi-oggettiva rinvenibili nel codice civile, relative al danno cagionato da soggetti diversi dal chiamato a risarcire. È opportuno pertanto provare ad applicare alla classe di agenti artificiali autonomi le dottrine di responsabilità per il danno cagionato da minore (art. 2048 c.c.) e dagli impiegati (art. 2049 c.c.) e il danno commesso dagli animali (art. 2052 c.c.). L’analogia con i minori È possibile tracciare un parallelismo tra un sistema robotico integrato da intelligenza artificiale e minori vicini alla maggior età; presupposto logico per l’applicazione di tale responsabilità al sistema artificiale è la libertà di imparare, muoversi, agire e reagire. Come i minori, alcuni agenti artificiali potrebbero essere capaci di apprendere nuove reazioni e comportamenti dall’esperienza diretta [68]: come i genitori provvedono all’educazione del minore senza però poter controllare ogni singolo atto del loro comportamento, così alcune azioni del robot potrebbero sfuggire all’intenzione originaria del programmatore o dell’utilizzatore. Parte della dottrina interpreta la responsabilità di cui all’art. 2048 come fondata su una presunzione di [continua ..]

» Per l'intero contenuto effettuare il login inizio


6. Analisi del report finale del gruppo di esperti su responsabilità e nuove tecnologie

Il report, rilasciato a fine novembre 2019, rappresenta l’atto conclusivo dell’iter del gruppo di esperti nominato dalla Commissione Europea nel marzo del 2018. Dopo una rapida elencazione dell’esistente panorama europeo in tema di responsabilità civile, il documento analizza, in termini di eventuali danni e in relazione al settore in cui questi possono concretizzarsi – conseguentemente ad un “difetto”, i risvolti applicativi di esistenti schemi di responsabilità, contrattuale e non, alle c.d. tecnologie emergenti. Segue uno studio per settore merceologico, considerato particolarmente opportuno, in quanto l’inquadra­mento giuridico del danno varia sensibilmente se il risultato inatteso si verifica nel settore automobilistico, nella domotica, oppure ancora nell’ambiente finanziario o sanitario. Infatti, a seconda del bene tutelato, il produttore potrebbe essere ritenuto responsabile da un punto di vista extra-contrattuale secondo schemi diversi ed ulteriori rispetto alla responsabilità da prodotto difettoso [85]. Tra le varie raccomandazioni, la responsabilità oggettiva del produttore [86] e la correlazione tra la responsabilità per colpa e i c.d. duties of care meritano una più approfondita analisi. Il documento suggerisce come uno schema di responsabilità oggettiva vada esteso al produttore nel caso in cui vi siano “difetti” nei prodotti o nelle [continua ..]

» Per l'intero contenuto effettuare il login inizio


7. Profili conclusivi

Il panorama che emerge da un primo tentativo di analisi dello stato del­l’arte circa il dibattito sulle regole di responsabilità extra-contrattuali nel contesto delle tecnologie autonome emergenti è di non chiara riunificazione. Un contesto che sappia coniugare la necessità di sicurezza, incentivi per la ricerca e sviluppo e al tempo stesso promuova la diffusione di tali sistemi autonomi deve essere coordinato con un regime di responsabilità che protegga gli interessi dei consumatori danneggiati. In questo lavoro, la responsabilità da prodotto difettoso, il regime ordinario per i beni mobili di consumo e durata, è stata il punto di inizio della riflessione circa l’adeguatezza e applicabilità delle regole di responsabilità extra-con­trat­tuale vigenti. Dal momento che tale schema sembra non essere, allo stato del­l’arte, idoneo a regolamentare il dirompente settore tecnologico riferibile alla classe degli agenti autonomi, e dal momento che l’applicazione per via analogica di esistenti schemi di responsabilità aquiliana non offre soluzioni di sicura affidabilità, è opportuno tracciare una linea di demarcazione tra un generale standard di negligence e un modello di responsabilità oggettiva, pura, analizzandone vantaggi e svantaggi da una prospettiva di teoria economica del diritto. Ricondurre la responsabilità del produttore all’alveo della [continua ..]

» Per l'intero contenuto effettuare il login inizio


NOTE

» Per l'intero contenuto effettuare il login inizio


  • Giappichelli Social