Diritto ed Economia dell'ImpresaISSN 2499-3158
G. Giappichelli Editore

indietro

stampa articolo indice fascicolo leggi articolo leggi fascicolo


Sistemi intelligenti autonomi e responsabilità civile: stato dell'arte e prospettive nell'esperienza comunitaria (di Pier Giorgio Chiara, dottorando presso "Last-JD Law, Science and Technology RIoE", assunto dall'Università del Lussemburgo in co-tutela presso l'Università di Torino e l'Università di Bologna.)


L’elaborato, dimostrando come l’attuale normativa di responsabilità da prodotto difettoso non offra risposte soddisfacenti al fine di assicurare l’adeguata allocazione dell’onere probatorio, propone un’analisi multilivello delle teorie di responsabilità extra-contrattuale, applicate ad un’ideale tripartizione delle tecnologie di IA, in relazione alla loro complessità ed autonomia. Le conclusioni, tenendo in debito conto il report finale del gruppo di esperti sulla responsabilità dell’IA e altre tecnologie emergenti, considerano un opportuno bilanciamento tra colpa e responsabilità oggettiva attraverso la metodologia dell’analisi economica del diritto.

Autonomous intelligent systems and civil liability: state of the art and perspectives in community experience

The paper, demonstrating that the current defective product liability legislation doesn’t offer satisfactory answers in order to ensure the adequate allocation of the burden of proof, proposes a multilevel analysis of the theories of extra-contractual liability, applied to an ideal tripartition of AI technologies, in relation to their complexity and autonomy. The conclusions, taking into due account the final report of the group of experts on the responsibility of AI and other emerging technologies, consider an appropriate balance between guilt and objective responsibility through the methodology of economic analysis of law.

Keywords: robotics – liability for defective product – damage compensation

SOMMARIO:

1. Introduzione - 2. Le coordinate concettuali del problema - 2.1. Una prospettiva verticale - 2.2. Una prospettiva orizzontale - 3. La responsabilità da prodotto difettoso - 4. Criticità nell’applicazione del regime di responsabilità da prodotto difettoso alle tecnologie emergenti - 4.1. Prodotto - 4.2. Difettosità - 4.3. Causalità - 5. Un’analisi multilivello di sistemi alternativi nell’attribuzione della responsabilità - 5.1. La rappresentanza: analogie e differenze con la legge romanistica della schiavitù - 5.2. Teorie di responsabilità vicaria: analogie e differenze con i minori, gli impiegati e gli animali - 6. Analisi del report finale del gruppo di esperti su responsabilità e nuove tecnologie - 7. Profili conclusivi - NOTE


1. Introduzione

Dinanzi alla necessità di confrontarsi con una tecnologia variabile nelle sue caratteristiche, è opportuno operare delle strategie speculative di fondo nel­l’ottica di definire un panorama coerente con la previsione, benché instabile, delle future dinamiche. In tal senso è bene sottolineare, in via di approssimazione, come le c.d. tecnologie digitali emergenti, tra cui l’intelligenza artificiale (IA), l’interazione di quest’ultima con la robotica e i sistemi di IoT (Internet of Things) conducano verso la creazione di nuovi prodotti e servizi, inesplorate opportunità per l’economia e il benessere delle nostre società [1]. Nella circostanza in cui una delle tecnologie emergenti cagioni un danno, l’allocazione della responsabilità extra-contrattuale può risultare difficoltosa in virtù delle caratteristiche delle tecnologie stesse. Pertanto, è necessario analizzare il panorama legislativo europeo in tema di responsabilità e sicurezza per vagliarne l’applicabilità a questa nuova categoria di agenti, senza trascurare, d’altra parte, l’esigenza dei produttori di operare all’interno di un sistema connotato dalla certezza e dalla trasparenza. Di tale elemento di complessità sembra aver preso maggiore coscienza il legislatore comunitario [2], il quale ha posto le basi per un percorso di ripensamento e revisione delle principali normative in vigore nell’Unione (in primis, la Direttiva sulla responsabilità da prodotto difettoso [3]) in conseguenza dell’affermarsi delle tecnologie connesse al fenomeno dell’intelligenza artificiale [4].


2. Le coordinate concettuali del problema

Nel ricostruire un sistema riconducibile all’alveo della responsabilità civile, idoneo a regolare le conseguenze di possibili eventi lesivi derivanti dalla tendenza a lasciare sempre più autonomia nell’interazione di queste tecnologie, il primo aspetto degno di nota è la profonda incertezza che permea lo sviluppo tecnologico e, conseguentemente, le proprietà che tali applicazioni sono suscettibili di assumere nel medio e nel lungo periodo.


2.1. Una prospettiva verticale

È opportuno, innanzitutto, delineare i confini concettuali delle tecnologie sotto indagine. A tal proposito, si propone, in un’ottica verticale, come livello d’astrazione, una ideale tripartizione di questi sistemi, avendo come criterio distintivo il tratto dell’autonomia [5]. Primo osservabile di tale livello sarà la classe dei robot senza autonomia [6] che, in una prospettiva storica, può essere ricondotta alla categoria dei robot industriali. Il secondo punto d’osservazione è invece rappresentato da applicazioni robotiche con autonomia limitata [7], come taluni service robot [8]. Come per le applicazioni industriali automatizzate, la scelta di questa categoria merceologica ha ragioni di chiarificazione espositiva che debbono sfuggire all’equazione generalizzante che vorrebbe tutti gli appartenenti a questa classe condividere il medesimo grado di autonomia. Infine, il terzo osservabile prende in analisi i sistemi avanzati di IA. Le ultime tendenze nella ricerca sono testimoni di un rinnovato interesse nella c.d. IA in senso forte [9]; se i progetti moderni infatti possono fare affidamento su hardware più potenti, gli sviluppi compiuti nell’ingegneria del software e nella neuroscienza computazionale [10] hanno contribuito a rinnovare il vigore di questi progetti. Si prenda il caso di OpenAI, realtà che al tempo della ricerca sul modello di processo di linguaggio naturale GPT-2 era non-profit e sostenuta da Elon Musk [11]; paradossalmente, a dispetto di quanto suggerisca il nome, l’azienda aveva in un primo momento deciso di non rendere pubblico il modello di generatore testuale con IA. Il sistema, chiamato ad elaborare un testo – dopo aver ricevuto un input, ancorché ridotto – basato sulle proprie predizioni, ha valicato nettamente il confine delle potenzialità che i suoi creatori avevano idealmente tracciato [12]. Inoltre, per pervenire a tali risultati, questi modelli avanzati di deep learning sono stati addestrati su datasets 15 volte più grandi dei precedenti modelli di IA [13]. Uno sviluppo interessante dell’argomento, in chiave futura, potrebbe essere una correlazione tra la crescita esponenziale di tali tecnologie e il conseguente impatto ambientale: recenti ricerche dell’MIT hanno dimostrato come l’elevata dispendiosità computazionale di tale approccio si [continua ..]


2.2. Una prospettiva orizzontale

Il livello di astrazione prescelto, tripartito per semplicità in macro-categorie di applicazioni tecnologiche nella sezione precedente, è destinato ad avere incidenza sempre maggiore su diverse sfere del diritto privato quali: la responsabilità contrattuale ed extra-contrattuale, diritti di proprietà intellettuale, nonché questioni legate a privacy e data protection [15]. La decisione di evidenziare aspetti di responsabilità civile nasce dall’esigenza di rispondere alla complessità dell’allocazione del danno secondo gli schemi tradizionali, ove le tecnologie autonome siano coinvolte [16].  


3. La responsabilità da prodotto difettoso

Operando una distinzione di massima tra la normativa di matrice nordamericana –suscettibile di essere valutata dai singoli stati, pur orientata al rispetto dei principi delineati dal c.d. Third Restatement [17] – e quella europea, è opportuno sottolineare come quest’ultima si presti, in virtù della direttiva sulla responsabilità da prodotto difettoso (in prosieguo: Direttiva [18]), ad un’analisi unitaria. Gli oneri probatori richiesti dalla normativa UE sono, essenzialmente, affini a quelli previsti per la prova del difetto nella disciplina USA [19]: la parte attrice è tenuta a dimostrare che il prodotto per se non è adatto all’attività per la quale era stato messo in commercio (design defect) od alternativamente che, benché astrattamente idoneo a svolgere la propria funzione, lo specifico prodotto venduto è difettoso, e, di conseguenza, ha tenuto una condotta anomala (manufacturing defect). In aggiunta a ciò, gli ordinamenti domestici degli Stati Membri si presentano profondamente eterogenei, declinando in diverse maniere l’interpretazione degli elementi necessari a provare la causalità tra difetto del prodotto ed evento lesivo [20]. L’ampio spettro rappresentato dalle interpretazioni delle corti nazionali varia da posizioni prossime a forme di responsabilità semi-oggettiva (invertendo l’onere della prova e ponendolo in capo al produttore), fino a opinioni diametralmente opposte, che addossano interamente l’onere della prova sull’attore [21]. Recentemente, la Commissione europea ha constatato come la normativa sulla responsabilità da prodotto difettoso, così come elaborata nel 1985, stia creando impedimenti sostanziali per l’effettivo accesso al risarcimento da parte delle vittime di illeciti; pertanto, ha incaricato un gruppo di esperti per approfondire la tematica della responsabilità civile nel contesto delle nuove tecnologie [22] (vedi sezione 6).


4. Criticità nell’applicazione del regime di responsabilità da prodotto difettoso alle tecnologie emergenti

Riprendendo il livello d’astrazione iniziale, è possibile ipotizzare come dall’incontro della tripartizione delle tecnologie emergenti e la responsabilità da prodotto difettoso possano nascere diversi scenari di difficile interpretazione per il giurista. Il primo osservabile, rappresentato da robot senza autonomia, difficilmente può essere considerato destabilizzante dal momento che queste applicazioni sono guidate dall’uomo, che fissa l’obiettivo della macchina unitamente al percorso necessario per raggiungerlo: ciò rende questa classe “tecnologica” non dissimile dai prodotti tradizionali, facendola pertanto ricadere nel campo d’applicazione della direttiva [23]. I casi della weak AI, ossia il secondo osservabile del nostro modello, e dei sistemi avanzati di intelligenza artificiale, terzo ed ultimo grado di complessità, comportano di converso diverse difficoltà tecniche ed interpretative nel contesto della responsabilità da prodotto. Ai fini del presente lavoro, verrà preso in analisi solamente quest’ultimo livello di autonomia, in quanto è ritenuto essere il più dirompente per gli schemi di responsabilità extra-contrattuale a disposizione del giurista, oggi.


4.1. Prodotto

È dibattuto in dottrina se la componente software di un sistema avanzato di IA possa essere classificata come “prodotto”, ai sensi dell’art. 2 della Direttiva [24]. Dal momento che la Direttiva trova la sua applicazione nei confronti di tutte le cose mobili – unitamente all’elettricità, di cui espressa menzione al comma 2, il software potrebbe essere escluso dall’ambito dello strumento comunitario per via della sua natura intangibile [25]. Da ritenersi minoritaria è la dottrina che propenderebbe per la tangibilità nei casi in cui il software fosse incorporato in un bene mobile a tal punto da non poter essere più distinto da esso (ad esempio: un robot) [26]. A dimostrazione di ciò, non si è mai riconosciuta in capo ai produttori di software una responsabilità extra-contrattuale da prodotto difettoso per un difetto di codice [27].


4.2. Difettosità

Adottare la nozione di difettosità, ai sensi della Direttiva [28], in un contesto algoritmico può essere sviante. In primo luogo, è da determinarsi se le tecniche di machine learning, conducendo potenzialmente a risultati diversi da quelli che il consumatore può attendersi, possano rientrare nell’interpretazione di “prodotto difettoso”. Inoltre, un altro interrogativo è suscitato dalla qualità del dataset [29] utilizzato per l’addestramento del modello di IA, dal momento che la qualità del prodotto è direttamente influenzata dalla qualità del trattamento dei dati [30]: dei (big) dati biased, unfair o imbalanced possono minare la sicurezza legittimamente attesa nel test del consumatore ex art. 2 della Direttiva? Si aggiunga, come ulteriore complicazione, l’inesistenza di una definizione precisa per l’errore di codice (software fault): qualcuno ha provato a qualificare l’eventualità del guasto come una imperfezione strutturale da ricercarsi nelle linee di codice [31]. Se, infatti, i problemi di software design vengono rilevati durante la fase del testing, è bene sottolineare come ci siano sostanziali differenze tra il test di un algoritmo, ancorché “semplice”, e un prodotto tradizionale [32]. I test, invero, non possono dimostrare in modo assoluto che non ci siano errori a livello di scrittura del codice [33]. Pertanto, l’interrogativo principale è quale sia il test idoneo a determinare la “difettosità” del design di un algoritmo; più precisamente, è molto probabile che tale dimostrazione per la parte attrice, in mancanza di un quadro ben delineato di standards accettati dalla comunità [34], si risolva in una prova diabolica [35].


4.3. Causalità

Quanto al nesso di causalità, la direttiva affida agli ordinamenti domestici il compito di disciplinarne numerosi aspetti. Se agli articoli 1 e 4 statuisce chiaramente che l’onere di provare il difetto, il danno e il nesso causale tra essi debba ricadere interamente sulla parte attrice, condizione necessaria per la responsabilità del produttore, non specifica però quale sia lo standard della prova richiesto, o più generalmente, come il nesso di causa vada provato. Come si è avuto modo di osservare, gli Stati Membri, pur adottando diverse interpretazioni degli elementi necessari a provare la causalità, possono essere accorpati in macro-modelli, senza alcuna pretesa di fondare una tassonomia generale [36]. Analizzando il formante legislativo nazionale, pertanto, si nota come il nesso eziologico richiesto dalle varie ipotesi di responsabilità aquiliana previste all’interno del codice civile non sia sempre uguale a se stesso, a differenza di quanto avviene nella tutela penale, fondata sull’ineluttabile correlazione indagato o imputato ed evento di reato [37], per quanto presenti anch’essa tratti polimorfi trascendenti l’imputazione della responsabilità secondo la tripartizione canonica colposo, doloso, preterintenzionale (si fa riferimento a c.d. modelli di responsabilità oggettiva occulta, es. reati aggravati dall’evento o concorso anomalo ex art. 117 c.p.). Nella divisione tra causalità c.d. materiale e giuridica, dove l’accertamento della prima è prodromico al secondo, è rilevante il dettato dell’art. 1223 c.c. [38] che prevede la risarcibilità dei danni che sono “conseguenza immediata e diretta”, risultato ottenibile secondo l’id quod plerumque accidit. La giurisprudenza, nel tempo, ha elaborato dei criteri per riconoscere, nel caso di specie, le conseguenze dannose immediate e dirette di un fatto illecito: i criteri maggiormente utilizzati sono quello della normalità e della prevedibilità [39]. Simil­mente, negli USA il foreseeability-test è essenziale nel determinare la causalità giuridica o scope of liability [40]. Tuttavia, “ciò che è prevedibile” è strettamente connesso al tessuto sociale, rendendo pertanto il concetto di prevedibilità inscindibile dal fattore temporale e del progresso della [continua ..]


5. Un’analisi multilivello di sistemi alternativi nell’attribuzione della responsabilità

Alla luce di quanto emerso sulla prima facie difficoltosa applicabilità del paradigma della responsabilità da prodotto alle c.d. tecnologie emergenti, è opportuno esaminare altri schemi di responsabilità extra-contrattuale, considerando tali sistemi intelligenti autonomi come attori o agenti, a seconda del vario grado di autonomia di cui sono capaci, prescindendo dal dibattito sulla personalità giuridica [54]. Possibili fonti per la costruzione di una teoria di responsabilità aquiliana flessibile abbastanza da disciplinare gli agenti artificiali possono provenire dalle esistenti dottrine di responsabilità semi-oggettiva, relative al danno cagionato da soggetti diversi dal chiamato a risarcire (artt. 2048-2052). O persino da antichi istituti come quello del peculium (vedi sez. successiva), di provenienza romanistica, collegato alla schiavitù. Dette analogie sono provocatorie; ciò non di meno hanno il pregio di mostrare come le avanzate –e sorprendenti– capacità degli agenti artificiali, unitamente al vasto spettro di decisioni loro delegate, permettano una comparazione con altri agenti e altri attori fotografati dal diritto. Questa sezione mira a definire un approccio multilivello alla questione della responsabilità civile, anziché uno più marcatamente sliding-scale, come nel contributo di Boscarato [55]: l’autrice, distinguendo tra le azioni robotiche che possono essere previste dal programmatore/utilizzatore e quelle che non sono programmate/imprevedibili, costruisce un sistema di attribuzione della responsabilità per fatto altrui in considerazione delle sempre maggiori capacità dei robot presi in esame. Quindi, al penultimo stadio, in virtù della capacità locomotiva, avremo la responsabilità per il fatto dell’animale, per pervenire all’ul­timo stadio evidenziato – l’apprendimento – in cui l’analogia è con i minori. Tuttavia, una metodologia scalare, che riconnette uno schema di responsabilità ad una specifica classe di agenti in virtù di una specifica capacità, corre il rischio di non trovare riscontro nella vastità e imprevedibilità del mercato: è ben possibile che il robot con capacità locomotorie venga in seguito dotato di capacità di apprendimento (che in origine erano appannaggio esclusivo [continua ..]


5.1. La rappresentanza: analogie e differenze con la legge romanistica della schiavitù

Diverse voci in dottrina sostengono che l’IA sia una nuova forma di rappresentanza [57]. Il salto concettuale che si richiede al lettore è di non considerare tali tecnologie, animate da IA, alla stregua di meri artefatti. Una corrente di studiosi di cibernetica risalente agli anni ְ’80 proponeva una distinzione opportuna dei sistemi di IA dalla materia inanimata, in considerazione delle categorie a quest’ultima applicabili quali l’individualità, l’intelligenza, la locomozione e la percezione [58]. Ancora, si consideri che Weizenbaum, teorico estremamente critico con tali posizioni ritenute troppo futuristiche, riconosceva a tali sistemi autonomi una dignità di organismi dotati di “auto-coscienza”, in considerazione della loro abilità nel “socializzare” [59]. Considerare tali sistemi avanzati di IA come qualcosa di diverso e ulteriore dalla materia inanimata può condurre su una china pericolosa; cionondimeno, i giuristi di duemila anni fa avrebbero considerato illogico categorizzare gli schiavi fuori dal paradigma della proprietà. Così come alla condizione di schiavo, gradualmente, sono stati riconnessi sempre più diritti e doveri, anche nel contesto delle tecnologie avanzate di IA è possibile ipotizzare un ampliamento della sfera giuridica, in virtù di un progressivo avvicinamento alle capacità cognitive umane in ogni loro forma [60]: creativa [61], morale [62] e logica [63]. Riprendendo una tesi di Pagallo [64], l’istituto del peculium può essere decisivo nel dirimere il dibattito circa la responsabilità all’interno di un rapporto di rappresentanza. Gli schiavi, non avendo la capacità giuridica, non potevano disporre di nulla; non potevano peggiorare la posizione patrimoniale del dominus e quindi nessun negozio da essi compiuto avrebbe potuto generare obligatio a carico dello stesso dominus [65]. Tuttavia, già dall’età arcaica, era in uso conferire ai servi una somma di danaro, o altri beni, configurante il peculium, appunto, che essi guadagnavano attraverso il loro lavoro: proprietario peculiare restava il dominus ma si ammise che i servi potessero trasferire il possesso delle res peculiares salva la facoltà del padrone di revocare il peculium in ogni momento. In modo similare, Pagallo suggerisce che un simile [continua ..]


5.2. Teorie di responsabilità vicaria: analogie e differenze con i minori, gli impiegati e gli animali

Possibili fonti per la costruzione di una teoria di responsabilità aquiliana flessibile abbastanza da disciplinare gli agenti artificiali possono provenire dalle esistenti dottrine di responsabilità oggettiva e semi-oggettiva rinvenibili nel codice civile, relative al danno cagionato da soggetti diversi dal chiamato a risarcire. È opportuno pertanto provare ad applicare alla classe di agenti artificiali autonomi le dottrine di responsabilità per il danno cagionato da minore (art. 2048 c.c.) e dagli impiegati (art. 2049 c.c.) e il danno commesso dagli animali (art. 2052 c.c.). L’analogia con i minori È possibile tracciare un parallelismo tra un sistema robotico integrato da intelligenza artificiale e minori vicini alla maggior età; presupposto logico per l’applicazione di tale responsabilità al sistema artificiale è la libertà di imparare, muoversi, agire e reagire. Come i minori, alcuni agenti artificiali potrebbero essere capaci di apprendere nuove reazioni e comportamenti dall’esperienza diretta [68]: come i genitori provvedono all’educazione del minore senza però poter controllare ogni singolo atto del loro comportamento, così alcune azioni del robot potrebbero sfuggire all’intenzione originaria del programmatore o dell’utilizzatore. Parte della dottrina interpreta la responsabilità di cui all’art. 2048 come fondata su una presunzione di colpevolezza, bipartita tra la culpa in educando e in vigilando. Risulta pertanto un’inversione dell’onere probatorio favorevole al danneggiato: il tutore o genitore per andare esente da responsabilità dovrà provare di non aver potuto impedire che il fatto illecito venisse commesso [69]. Tuttavia, una più prudente dottrina [70] sottolinea come la responsabilità vicaria del genitore si avvicini al modello della responsabilità oggettiva, forte delle considerazioni giurisprudenziali circa il rapporto di coabitazione tra genitori e minore; i primi sono infatti i soggetti meglio posizionati per evitare il danno ingiusto. L’analogia con gli impiegati La dottrina respondeat superior, che disciplina il regime di responsabilità aquiliana all’interno del rapporto lavorativo tra commesso e committente, implica una responsabilità oggettiva del datore quando l’agente commetta un fatto illecito: il datore, [continua ..]


6. Analisi del report finale del gruppo di esperti su responsabilità e nuove tecnologie

Il report, rilasciato a fine novembre 2019, rappresenta l’atto conclusivo dell’iter del gruppo di esperti nominato dalla Commissione Europea nel marzo del 2018. Dopo una rapida elencazione dell’esistente panorama europeo in tema di responsabilità civile, il documento analizza, in termini di eventuali danni e in relazione al settore in cui questi possono concretizzarsi – conseguentemente ad un “difetto”, i risvolti applicativi di esistenti schemi di responsabilità, contrattuale e non, alle c.d. tecnologie emergenti. Segue uno studio per settore merceologico, considerato particolarmente opportuno, in quanto l’inquadra­mento giuridico del danno varia sensibilmente se il risultato inatteso si verifica nel settore automobilistico, nella domotica, oppure ancora nell’ambiente finanziario o sanitario. Infatti, a seconda del bene tutelato, il produttore potrebbe essere ritenuto responsabile da un punto di vista extra-contrattuale secondo schemi diversi ed ulteriori rispetto alla responsabilità da prodotto difettoso [85]. Tra le varie raccomandazioni, la responsabilità oggettiva del produttore [86] e la correlazione tra la responsabilità per colpa e i c.d. duties of care meritano una più approfondita analisi. Il documento suggerisce come uno schema di responsabilità oggettiva vada esteso al produttore nel caso in cui vi siano “difetti” nei prodotti o nelle componenti digitali che incorporano le tecnologie emergenti. È opportuno sottolineare come parallelamente venga proposta la disapplicazione di due condizioni di esclusione della responsabilità del testo della Direttiva vigente: sia nel caso in cui il difetto appaia dopo la messa in circolazione del prodotto, sia nel caso in cui lo stato delle conoscenze scientifiche e tecniche al momento in cui ha messo in circolazione il prodotto non permetteva di scoprire l’esistenza del difetto, c.d. development risk defence, il produttore dovrà rispondere a titolo di responsabilità oggettiva [87]. Infine, considerate le già menzionate difficoltà del danneggiato in relazione all’onere probatorio, il gruppo di esperti suggerisce un’inversione dell’onere della prova in capo al produttore [88]. Per quanto concerne la responsabilità per colpa e i c.d. duties of care, il report suggerisce che sia gli operatori che i [continua ..]


7. Profili conclusivi

Il panorama che emerge da un primo tentativo di analisi dello stato del­l’arte circa il dibattito sulle regole di responsabilità extra-contrattuali nel contesto delle tecnologie autonome emergenti è di non chiara riunificazione. Un contesto che sappia coniugare la necessità di sicurezza, incentivi per la ricerca e sviluppo e al tempo stesso promuova la diffusione di tali sistemi autonomi deve essere coordinato con un regime di responsabilità che protegga gli interessi dei consumatori danneggiati. In questo lavoro, la responsabilità da prodotto difettoso, il regime ordinario per i beni mobili di consumo e durata, è stata il punto di inizio della riflessione circa l’adeguatezza e applicabilità delle regole di responsabilità extra-con­trat­tuale vigenti. Dal momento che tale schema sembra non essere, allo stato del­l’arte, idoneo a regolamentare il dirompente settore tecnologico riferibile alla classe degli agenti autonomi, e dal momento che l’applicazione per via analogica di esistenti schemi di responsabilità aquiliana non offre soluzioni di sicura affidabilità, è opportuno tracciare una linea di demarcazione tra un generale standard di negligence e un modello di responsabilità oggettiva, pura, analizzandone vantaggi e svantaggi da una prospettiva di teoria economica del diritto. Ricondurre la responsabilità del produttore all’alveo della strict liability, dunque, entro forme di responsabilità che escludono la rilevanza dell’elemento soggettivo proprio dell’illecito civile tradizionalmente inteso fondando l’onere risarcitorio in via prioritaria sull’elemento causale e sull’indesiderabilità sociale della condotta oggetto di responsabilità, pone l’accento sulla considerazione che chi risulta vittima di un illecito (dal suo punto di vista) inspiegabile o inevitabile non dovrebbe essere mai chiamato a sopportarne il costo. In tale contesto, il produttore, dovendo fronteggiare il costo totale di ogni incidente che coinvolga il sistema da lui commercializzato, tenderà razionalmente a minimizzare tale costo: applicando un regime di strict liability il costo sociale relativo ai danni causati da sistemi intelligenti autonomi è uguale al costo privato del produttore degli stessi, che massimizzerà, aderente ad un approccio economico tradizionale, gli [continua ..]


NOTE