Diritto ed Economia dell'ImpresaISSN 2499-3158
G. Giappichelli Editore

indietro

stampa articolo indice fascicolo leggi articolo leggi fascicolo


L'etica europea per la governance dell'intelligenza artificiale (di Nicola Busto, Avvocato, attualmente Contract Manager nel settore consulenziale e tecnologico)


Dopo aver introdotto i principali approcci etico-giuridici che ispirano lo sviluppo, uso e commercializzazione delle tecnologie di intelligenza artificiale, il presente lavoro intende porre in luce come quello europeo (basato sulle linee guida predisposte dalla Commissione Europea, attraverso lo High-Level Expert Group on Artificial Intelligence) possa essere considerato non soltanto un sistema di principi etici alternativi a quelli diffuso dalla strategia comunicativa delle grandi imprese del settore, ma altresì un tassello di una strategia economico-politica più ampia tesa alla governance globale dell’intelligenza artificiale.

European ethics for the artificial intelligence governance

After an introduction describing the main ethical-legal approaches the inspire the development, use and commercialization of artificial intelligence technologies, this paper aim is to highlight how the European approach (based on the guidelines drafted by the European Commission, through the High-Level Expert Group on Artificial Intelligence) can be considered not only a system of ethical principles alternative to those spread by the communication strategy of the tech companies, but also a piece of a broader economic-political strategy aimed at the global governance of artificial intelligence.

SOMMARIO:

1. Il contesto: tra “Machinewashing” e “techlash” - 2. La Californian Ideology - 3. Il “principle of essentiality” - 4. Etica hard ed etica soft - 5. L’etica europea soft per un’intelligenza artificiale affidabile - 6. Conclusioni: dalla “softer ethics” alla governance globale - NOTE


1. Il contesto: tra “Machinewashing” e “techlash”

Negli ultimi tempi la stampa anglosassone ha dato risalto ad una ricerca dell’Istituto Reuters per lo studio del giornalismo [1] dai cui esiti emerge che la copertura mediatica della presunta rivoluzione tecnologica guidata dall’intel­ligenza artificiale: (i) è dominata dall’industria di settore, (ii) si focalizza sugli sviluppi futuri, con poca considerazione per lo stadio evolutivo attuale della tecnologia (iii) dà ampia evidenza del ruolo dell’azione privata [2] nell’affron­tarne le complessità etiche, a discapito di quella pubblica e/o accademica [3]. Secondo alcuni commentatori, la lettura congiunta di questi riscontri dà atto del cosiddetto “machinewashing” [4], una strategia comunicativa dei tech giant per convincere l’opinione pubblica dell’inevitabilità di questo sviluppo tecnologico e – ad avviso di chi scrive – a contrastare il cosiddetto “techlash” [5] l’onda montante di riflessioni critiche intorno alle contraddizioni, anche etiche, di tale sviluppo [6]. La presente indagine intende inserirsi in questa contrapposizione cercando di porre in luce come l’approccio etico europeo all’intelligenza artificiale, incarnato dalle linee guida di AI HLEG [7], non solo costituisca uno delle principali testimonianze di tale techlash [8], ma – unitamente ad altri elementi di una più ampia strategia geo-politica continentale – si proponga come modello di governance globale della IA, alternativo a quello dei tech giant e non solo.


2. La Californian Ideology

Paul Nemitz [9] ha recentemente scritto che l’intelligenza artificiale è un “ad-on” all’economia di Internet. Per capire l’interesse delle corporation per l’etica della prima, bisogna comprendere le radici culturali della seconda, che – a detta dell’autore – sono ascrivibili alla c.d. “Californian Ideology” [10], una fusione tra i portati culturali del movimento flower power di San Francisco e lo zelo imprenditoriale dei tycoon della Silicon Valley. Tale ideologia, nutrita di principi “hacker-libertari” [11] su cui si basa l’ethos dei tech giant: è nata a seguito dei movimenti giovanili degli anni ’60 nell’ovest degli Stati Uniti; è sopravvissuta allo scoppio della bolla della New Economy della fine degli anni ’90; si è globalizzata con l’espansione ubiqua di Internet; oggi canta “le magnifiche sorti e progressive” dell’intelligenza artificiale attraverso il machinewashing e mira – tra i suoi obbiettivi – ad emancipare la società da istituzioni considerate obsolete tra cui il diritto che, atto a governare il comportamento degli individui all’interno di una determinata comunità, mal si adatta alla menzionata ubiquità della Rete. Vero quanto sopra, in ossequio alla Californian Ideology, l’interesse delle corporation per l’etica dell’intelligenza artificiale può essere letto come un tentativo di rinviare, potenzialmente sine die, il dibattito su eventuali leggi in materia, a favore dell’applicazione di “unenforceable ethics codes or self-regulation” [12] (quella “azione privata” – esaltata dal machinewashing – di cui al paragrafo che precede).


3. Il “principle of essentiality”

Ancora secondo Nemitz che – giova ricordarlo – è un importante consulente della Commissione Europea e – ad avviso di chi scrive – un convinto esponente del techlash, tale tentativo va respinto con fermezza. Assumendo che l’IA abbia le potenzialità per trasformare istituzioni fondamentali della società, lo studioso basa il suo rifiuto sul “principle of essentiality” [13], per il quale qualsiasi questione riguardante i diritti fondamentali delle persone o rilevante per lo Stato va normata per vie democraticamente legittimate. A nulla valendo le contestazioni di matrice “hacker-libertaria” secondo cui una normativa: non in grado di svilupparsi al passo della tecnologia e dei modelli di business; non sufficientemente precisa per regolamentare una tecnologia complessa; inferiore in termini di dettaglio, di precisione e di facilità d’uso ad un codice software non è una buona legge e non dovrebbe essere adottata dal Legislatore. Tali contestazioni – sollevate in anni recenti a proposito del GDPR ed oggi riproposte in ambito IA – pur avendo dato vita ad aspri confronti giudiziari  [14] e dottrinari [15] – sono a dire di Nemitz fallaci e frutto di una visione ingegneristica del mondo. Se è vero che le leggi richiedono lunghi processi per giungere, attraverso un compromesso democratico, alla loro adozione [16], esse non verranno successivamente applicate – come un codice software – in maniera automatica, ma da esseri umani e, in caso di controversia, interpretate da giudici. Un sistema che garantisce alle norme la flessibilità per adottarsi a esigenze sociali, tecnologiche e/o economiche nel tempo emergenti, senza – contrariamente a quanto accade per un codice software – dover essere riscritte [17]. Sulla base di questi presupposti, il ruolo che Nemitz attribuisce alle iniziative etiche – oltre a quello strettamente intraziendale e “beyond what the law requires” [18] – è quello di “precursors of law” [19] ovvero di orientamento in termini di principi generali, dei contenuti di eventuali nuove norme che dovranno essere emanate dopo aver verificato – ancora sulla base di un “principle of essentiality” che quelle attualmente vigenti non siano già in grado di [continua ..]


4. Etica hard ed etica soft

Per meglio comprendere le implicazioni del pensiero di Nemitz sul presente lavoro è necessario integrare quanto sopra con un recente scritto di Luciano Floridi intitolato “Soft Ethics and the Governance of the Digital” in cui il professore di Oxford distingue tra etica hard e soft. L’etica hard è relativa a valori, diritti, doveri e responsabilità – o, più in generale, ciò che è moralmente giusto o sbagliato – nel formulare nuove normative o mettere in discussione quelle esistenti e, secondo Floridi è ciò che ad esempio ha contribuito a smantellare l’apartheid in Sud Africa. Ad avviso di chi scrive, solo l’etica hard risponde alla funzione di “precursor of law”. L’etica soft agisce sullo stesso sottostante normativo, ma lo fa considerando ciò che dovrebbe e non dovrebbe essere fatto in aggiunta alla normativa esistente e non in contrasto con essa [21], come nel caso dell’etica hard. Seguendo il ragionamento di Floridi l’etica soft può essere correttamente esercitata solo dove la legislazione “is already on the good side of the moral vs. immoral divide” [22], come all’interno dell’Unione Europea dove gli “unenforceable ethics codes or self-regulation” non potrebbero che ricadere in questa categoria concettuale.


5. L’etica europea soft per un’intelligenza artificiale affidabile

In considerazione di quest’ultima osservazione e dell’influenza che i lavori di Floridi – quantomeno pare a chi scrive [23] – esercitano sulle linee guida etiche di AI HLEG, risulta evidente la ragione per cui queste ultime non si occupano dell’oggetto principale dell’etica, ovvero del moral vs. immoral divide, quanto piuttosto, in un’ottica di etica soft, di principi e strumenti, da esso derivati, per creare, commercializzare e fruire di una intelligenza artificiale “affidabile” [24]. Volendo tentare una sintesi del documento di AI HLEG in tale prospettiva ne emerge infatti che: il think tank associa l’attributo dell’affidabilità della IA ad una visione antropocentrica ed al rispettoby-design [25] dei diritti fondamentali dell’uomo; i diritti fondamentali che meglio si attagliano alla tecnologia IA sono un sottoinsieme dei diritti contenuti, tra le altre fonti, nella Carta Europea dei Diritti dell’Uomo[26]; la Carta è considerata fonte di diritto dai Trattati; i principi etici (Respect for human autonomy, Prevention of harm, Fairness, Explicability)[27], da cui AI HLEG fa discendere gli strumenti per conseguire l’affidabilità della intelligenza artificiale, sono derivati di diritti fondamentali, secondo un “rights-based approach to AI ethics”[28], che dà già per risolti i dilemmi fondativi dell’etica; i codici etici ed alle altre iniziative di autoregolamentazione aziendale[29]vengono relegati tra detti strumenti, alla voce “non-technical methods” [30].


6. Conclusioni: dalla “softer ethics” alla governance globale

In base alle considerazioni di cui ai paragrafi che precedono ed alla rilevanza residuale concessa a tali iniziative di autoregolamentazione, si potrebbe concludere che le linee guida di AI HLEG: sul territorio continentale, mirano a ritagliare per gli “unenforceable ethics codes or self-regulation” un ruolo di “softer ethics”, ovvero di etica additiva, non tanto alla legge, quanto alle linee guida stesse ed al loro concetto di “affidabilità”; di fuori dell’Unione, non si oppongono a che le iniziative etiche private svolgano un ruolo di etica hard (ovvero – nell’ottica della Californian Ideology – una funzione sostitutiva della normativa). Tali conclusioni sono però parziali e come detto relative alle linee guida di AI HLEG. Recenti dichiarazioni di alcune corporation (si faccia il caso di Microsoft che nel 2018 ha dichiarato di voler applicare il GDPR in ogni parte del mondo  [31] o di IBM che ha dichiarato di voler fare altrettanto con il framework etico di AI HLEG  [32]) sembrano smentirle e, tradendo i canoni della Californian Ideology, donando al quadro etico giuridico europeo una efficacia ben più ampia dei confini “naturali”. Le ragioni dell’apparente avvicinamento tra posizioni che sono state descritte come antitetiche possono essere molteplici, ma ad avviso di chi scrive, non contraddicono quanto premesso, piuttosto consentono di osservare le linee guida di AI HLEG in una prospettiva più ampia. In ultima analisi le dichiarazioni di Microsoft ed IBM confermano come tali linee guida non siano mero techlash, ma uno dei tasselli (il GDPR potrebbe essere considerato il primo) di una strategia europea che – con il suo approccio “olistico” [33] – sta tentando di inserire il Vecchio Continente nella partita geopolitica tra Stati Uniti e Cina per la governance globale dell’intelligenza artificiale [34].


NOTE