Intelligenza Artificiale, Robotica e Personalità Giuridica

[English Version]

Lo sviluppo della robotica e dell’intelligenza artificiale (AI) è una realtà entusiasmante e inarrestabile che sta lentamente facendo il suo corso e spostandosi dal cinema science fiction per trasferirsi nel mondo reale.

Inoltre, gli esseri umani e la tecnologia interagiscono in modo crescente in modo personale e quotidianamente.  Le crescenti occasioni di interazione tra gli esseri umani e i sistemi di intelligenza artificiale hanno enorme potenziale non solo per la crescita economica ma anche per il potenziamento dell’individuo, come ben spiegato nel McKinsey Global Institute report del gennaio 2017, che sottolinea come quasi ogni occupazione ha un parziale potenziale di automazione, e tuttavia saranno singole attività piuttosto che intere tipologie occupazionali ad essere impattate dall’automazione.

Di conseguenza, conclude che la realizzazione del potenziale pieno dell’automazione richiede una collaborazione tra umani e tecnologia.

Questa interazione tuttavia provoca una serie complessa di rischi e preoccupazioni, oltre a inevitabili questioni etiche.

Le questioni giuridiche principali che devono essere affrontate con urgenza sono la sicurezza fisica effettiva degli esseri umani,  l’esposizione a responsabilità e le questioni di privacy e protezione dei dati.

Le preoccupazioni di natura etica riguardano la dignità e autonomia degli esseri umani e includono non solo l’impatto dei robot sulla vita umana, ma anche, parallelamente,, la capacità del corpo umano di essere riparato (per esempio con arti e organi bionici), migliorato e infine creato, dalla robotica – e i sottili confini che queste procedure sorpassano nel tempo.

L’attuale regolamentazione giuridica è per definizione non strutturata per affrontare le questioni complesse sollevate dall’intelligenza artificiale. La conseguenza di questo è la necessità di trovare un approccio regolamentare bilanciato allo sviluppo della robotica e l’intelligenza artificiale che promuova e supporti l’innovazione, e allo stesso tempo definisca i confini per la protezione degli individui e della comunità umana in generale.

Su queste note, il Parlamento Europeo (“PE”) il 31 marzo 2016 ha emesso un progetto di relazione sulle norme di diritto civile applicabili alla robotica. La relazione delinea la visione e generale quadro di riferimento del Parlamento Europeo sul tema della robotica e intelligenza artificiale.

Se da una parte la relazione è ancora speculativa con accenti filosofici, è anche estremamente interessante – specialmente laddove definisce e classifica l’intelligenza artificiale, e quindi i “robot intelligenti” quali aventi le seguenti caratteristiche:

  • La capacità di acquisire autonomia grazie a sensori e/o mediante lo scambio di dati con il proprio ambiente (interconnettività) e l’analisi di tali dati
  • La capacità di apprendimento attraverso l’esperienza e l’interazione;
  • La forma del supporto fisico del robot;
  • La capacità di adeguare il suo comportamento e le sue azioni al proprio ambiente

La relazione del PE inoltre definisce sei principali temi regolatori sollevati dallo sviluppo della robotica e dell’intelligenza artificiale:

  • Principi generali ed etici;
  • Norme in materia di responsabilità;
  • Diritti di proprietà intellettuale, protezione dei dati e proprietà dei dati;
  • Normazione, sicurezza e protezione;
  • Istruzione e occupazione;
  • Coordinamento istituzionale e monitoraggio

La relazione conclude sottolineando che le implicazioni di queste tecnologie sono necessariamente internazionali e quindi se ogni singola nazione definisse delle regole separate questo costituirebbe una perdita di risorse – raccomandando quindi una regolamentazione europea unificata.

Certamente, le implicazioni sono internazionali/cross border e richiedono uno sforzo collaborativo, sebbene sia saggio presumere che alcune giurisdizioni saranno più aperte e flessibili di altre nel definire i limiti dell’autonomia dell’intelligenza artificiale, o più restrittive nel definirne i confini. E’ inoltre inevitabile che alcune nazioni siano alla guida nell’evoluzione della regolamentazione dell’intelligenza artificiale e della robotica.

Le aree nelle quali, secondo la posizione del PE, è necessaria un’azione regolamentare con priorità includono: il settore automotive, il settore medicale, e i droni.

La Questione della Responsabilità

La crescente autonomia dei robot solleva prima di tutto la questione della responsabilità giuridica derivante dall’azione nociva di un robot.  Allo stato delle cose, un robot non può essere considerato responsabile in proprio per atti o omissioni che causano danni a terzi e le norme esistenti in materia di responsabilità coprono i casi in cui la causa di un’azione o di un’omissione di un robot può essere fatta risalire ad uno specifico agente umano ad esempio il fabbricante, l’operatore, il proprietario o l’utilizzatore, o i casi in cui fabbricanti, operatori, proprietari o utilizzatori potrebbero essere considerati oggettivamente responsabili per gli atti o le omissioni di un robot.

In relazione al settore automotive, che viene ritenuta un’area che richiede interventi regolatori con carattere di urgenza,  il tema principale riguarda evidentemente i veicoli auto-guidati, che sono già oggetto di test in California e verranno testati in UK nel 2019 (da notare anche che il ministero dei trasporti tedesco nel settembre 2016 ha proposto una legge per determinare una regolamentazione dei veicoli auto-guidati che alloca la responsabilità sul produttore).

Tuttavia, in uno scenario dove un robot può prendere decisioni autonome, la tradizionale catena di responsabilità basata sulla proprietà o produzione non è sufficiente ad affrontare le complesse problematiche della responsabilità di un robot (sia contrattuale che extra-contrattuale) in quanto i principi esistenti non sarebbero idonei ad identificare correttamente la parte che dovrebbe sostenere l’onere di fornire compensazione per i danni causati. La questione della responsabilità civile è considerata “cruciale” dalla commissione.

Protezione dei dati e diritti di proprietà intellettuale

Altre questioni rilevanti in relazione allo sviluppo della robotica sono le regole sulla connettività. Mentre le leggi esistenti sulla privacy, e l’uso dei dati personali possono essere applicati alla robotica in generale, applicazioni pratiche riguardano ulteriori considerazioni e cioè la regolamentazione di standard per il concetto di “privacy by design”, il consenso informato e il criptaggio, cosi come l’utilizzo di dati personali si di esseri umani che di robot intelligenti che interagiscono con gli esseri umani.

I diritti di proprietà intellettuale inoltre devono essere considerati se si vuole accettare che ad un certo punto vi sarà la necessità di proteggere la “propria creazione intellettuale” di robot avanzati.

Una proposta nel cercare di affrontare queste questioni è stata quella di conferire ai robot “personalità elettronica”.

Una Proposta

La relazione del PE raccomanda che la Commissione UE esplori le implicazioni di tutte le possibili soluzioni legali, inclusa quella di creare uno specifico status legale per i robot, cosicchè almeno ai più sofisticati robot autonomi possa essere conferito lo status di “persona elettronica” con specifici diritti e obblighi, incluso quello di risarcire qualsiasi danno possano aver causato, ed applicare la personalità elettronica ai casi in cui i robot siano in grado di prendere autonome decisioni intelligenti o in ogni caso interagire autonomamente con esseri umani.

Se questa proposta è certamente un’idea valida, potrebbe volerci del tempo prima che sia applicabile a tutti i robot in quanto perchè un robot abbia lo status di “persona elettronica” le sue capacità autonome dovrebbero essere particolarmente pronunciate e avanzate.

Immaginare un regime dove la responsabilità dovrebbe essere proporzionata al reale livello di istruzioni date al robot ed alla sua autonomia, dovrebbe tener conto del fatto che ad una crescente capacità di apprendimento o autonomia del robot, dovrebbe corrispondere una minore responsabilità delle altre parti coinvolte, tenendo conto di quale tipo di sviluppo il robot ha avuto, quale tipo di istruzioni o “educazione”.

Tuttavia, non sarebbe sempre semplice discernere capacità derivanti dall'”educazione” data ad un robot da capacità che dipendano strettamente dalle sue abilità di auto-apprendimento. Questo implica che nel cercare di identificare l’allocazione delle responsabilità, si incapperebbe in enormi aree grigie.

Una via di mezzo è quindi necessaria per quei casi in cui il robot è capace di apprendimento e decisioni autonome ma adatto solo a specifici utilizzi e non ancora sofisticato al punto da essere dotato dello status di “persona elettronica”, come per esempio un veicolo autonomo.

Ritengo invece che una possibile soluzione a questo sia di attribuire a ciascuna intelligenza artificiale una personalità giuridica assimilabile a quella attribuita alle persone giuridiche.

I benefici sarebbero:

– registrazione/incorporazione del robot

– un’entità giuridica a cui attribuire la responsabilità, con regole specifiche e la possibilità di contrarre una copertura assicurativa

– la capacità di stipulare contratti reciprocamente e con gli esseri umani dai quali deriverebbero specifiche responsabilità e conseguenze per la violazione degli obblighi in essi previsti.

Un lato negativo di questa proposta è che questo tipo di status legale richiede un proprietario (un “azionista”) con responsabilità limitata, e questo significa che la responsabilità finale, sebbene limitata, non sarebbe necessariamente posta sul produttore ma sul proprietario, ritornando alla posizione di una protezione insufficiente.

Tuttavia, per esempio nel caso dei veicoli autoguidati, il proprietario dell’auto potrebbe essere considerato il proprietario dell’”entità giuridica” veicolo autonomo: in quanto tale avrebbe responsabilità limitata, e avrebbe l’obbligo di assicurare il veicolo.

Un altro tema riguarda la possibile difficoltà in taluni casi di “delimitare” fisicamente l’abito fisico di una specifica intelligenza artificiale.

Chiaramente, la questione deve essere ancora studiata e ponderata e possibili soluzioni evolveranno parallelamente allo sviluppo dell’intelligenza artificiale, credo però che in questo momento storico questa possa essere una valida soluzione da proporre per affrontare le attuali problematiche dell’intelligenza artificiale per come la conosciamo e comprendiamo ad oggi. Senza escludere che, forse fra qualche anno, non possa essere la stessa intelligenza artificiale a proporre le migliori soluzioni.

[Stefania Lucchetti was also quoted on her views on AI in https://www.politico.eu/article/europe-divided-over-robot-ai-artificial-intelligence-personhood/]

156-KWM-MILANO

 

© Stefania Lucchetti 2017.  Per ulteriori informazioni contattare l’autrice

Questo articolo può essere condiviso o riprodotto solo nella sua interezza e con credito e citazione dell’autrice.