BACK TO THE FUTURE. BREVI CENNI ETICO-GIURIDICI SULLA ROBOTICA A PARTIRE DALLA 

RISOLUZIONE DEL PARLAMENTO EUROPEO DEL 16 FEBBRAIO 2017

Autori: Avv. Daniele Vecchio e Prof. Domenico Tramontana

 


§ 1. Introduzione


Non siamo dinnanzi ad un problema di bioetica se lo stesso non è tormentoso e non investe casi estremi, affascinanti per alcuni, ripugnanti per altri.
L’aumento quantitativo e qualitativo del potere tecnico degli ultimi decenni ha condotto l'umanità innanzi a nuovi interrogativi, spesso pronti a scivolare verso lo spettro di antichi dilemmi.
La scienza e la tecnica contemporanee non sempre, infatti, operano nel rispetto dell'equilibrio che regola, sin dalla notte dei tempi, gli eventi naturali.
Le sempre crescenti conoscenze scientifiche stimolano l'essere umano a trascendere i propri limiti e in ciò l'uomo sembra lanciare la propria sfida alla natura.
Non è più la tecnica ad essere uno strumento nelle mani dell’uomo, ma è l’uomo ad esserne suo funzionario: come sostenuto dal Romano Pontefice, anche per ciò che concerne il settore delle innovazioni tecnologiche, non stiamo vivendo un'epoca di cambiamenti, ma un vero e proprio cambiamento d'epoca.
Anche per tali ragioni, si ritiene da più parti opportuno un impegno volto all'elaborazione, sempre più necessaria, di “un’etica per la civiltà tecnologica” che si fondi sul principio di responsabilità.
Sono passati diversi anni da quando Isac Asimov pubblicò, nel 1942, sulla rivista Astounding Science Fiction il racconto Rundaround.
E se un tempo i suoi racconti trovarono spazio in riviste di fantascienza, oggi, quanto profeticamente rappresentato mediante finzioni letterarie, appare ad un passo dal farsi compiutamente reale.
Uno degli ambiti che più lascia discutere studiosi di ogni dove è senza dubbio quello della Robotica e dell'intelligenza artificiale, per le implicazioni, non solo tecniche, ma etico-giuridiche che la tematica in oggetto sottende.
L’invasione robotica è progredita in modo graduale, prima nelle fabbriche, poi negli impianti, nella grande distribuzione e negli ospedali.
Oggi, grazie a giocattoli e piccoli elettrodomestici, inizia ad infiltrarsi nelle scuole e nelle case, anche per mezzo dell'ausilio di internet che ne moltiplica le possibilità, suscitando problemi e interrogativi che finora sembravano confinati al campo della fantascienza.
Con il termine “robotica”, coniato da Isaac Asimov nel racconto del 1941 “Liar!”, si descrive il settore che attiene alla progettazione e costruzione di un complesso variegato ed eterogeneo di macchine destinate a diversi scopi e finalità.
Si tratta di un settore caratterizzato da un elevato tasso di multidisciplinarietà, nel quale convergono ricerche d’informatica e cibernetica, matematica e meccanica, elettronica e neuroscienza, biologia e scienze umane, tra cui la psicologia, l’economia, la bioetica ed il diritto.
Alcuni studiosi definiscono la robotica come l’area dell’intelligenza artificiale volta alla costruzione di macchine in grado di “sentire, pensare e agire”. Altri, presentano i robot come macchine con l’abilità di “percepire sistemi complessi e prendere decisioni appropriate”. Altri ancora si spingono a definire i Robot quali agenti morali artificiali dotati di interattività (l’agente risponde agli stimoli dell’ambiente attraverso il mutamento degli stati interni o valori delle sue proprietà), autonomia (l’agente è in grado di cambiare detti stati indipendentemente da stimoli esterni), adattività (l’agente è capace di accrescere o migliorare le regole attraverso cui tali stati cambiano).
Proprio tali caratteristiche di interattività, autonomia e adattabilità che riguardano chiaramente le forme di Robot più evolute, comportano al contempo un certo grado di imprevedibilità delle loro azioni, sia nei confronti dei programmatori e costruttori di tali agenti artificiali sia dei loro stessi proprietari.
Anche a fronte di tali considerazioni, i progressi della scienza nel campo della Robotica e dell'intelligenza artificiale hanno spinto il Parlamento Europeo nella Risoluzione adottata nel 2017 a sottolineare l'opportunità di elaborare per l'intera Unione una definizione univoca di Robot intelligente.
Secondo il Parlamento Europeo, infatti, sarebbe opportuno iniziare a stabilire in seno all'Unione una definizione comune di robot autonomo intelligente, tenendo conto delle seguenti caratteristiche: (1) la capacità di acquisire autonomia grazie a sensori e/o mediante lo scambio di dati con il proprio ambiente (interconnettività) e l'analisi di tali dati; (2) la capacità di apprendimento attraverso l'esperienza e l'interazione; (3) la forma del supporto fisico del robot; (4) la capacità di adeguare il suo comportamento e le sue azioni all'ambiente.
La caratteristica più pregnante dei robot ‒ in grado di porre questioni realmente inedite anche rispetto al mondo digitale con cui il giurista si confronta da oltre vent’anni ‒ parrebbe essere quella incentrata sulla interazione fisica con la realtà materiale.
Nonostante la Risoluzione del Parlamento Europeo sottolinei l'opportunità di addivenire al più presto ad una definizione univoca del termine Robot, taluni studiosi esprimono alcune perplessità sull'utilità e la concreta fattibilità di operazioni classificatorie.
Il rischio che potrebbe corrersi è molto simile, secondo tali autori, a quello prospettato dal giudice Frank Easterbrook che, aprendo i lavori di un convegno sulla cyberlaw nel lontano 1996, mise in guardia dagli eccessi di classificazione con l'esempio della “legge del cavallo”. Molti casi giuridici interessano questi nobili animali: questioni contrattuali legati alla diffusa commercializzazioe, problemi legati alle cure veterinarie, così come alle forme di responsabilità per i danni cagionati a cose e persone dalle loro bizzarrie. Ma, ammonisce Easterbrook: “any effort to collect these strands into a course on ‘The Law of the Horse’ is doomed to be shallow and to miss unifying principles”.
Applicando tale assunto al nostro ambito di studio, un’astratta classificazione dei robot rischierebbe di rivelarsi un esercizio inutile anche a causa della continua evoluzione della tecnologia robotica e data la multi-funzionalità potenziale di ciascuna macchina.
Pensare dunque di comporre astratte categorie di robot sulla base delle diverse caratteristiche delle macchine o dell'uso cui sono potenzialmente destinate, oppure in relazione alle modalità di esecuzione, o ancora al grado di autonomia nell'agire, sarebbe, allo stato, verosimilmente inutile e potrebbe in ultima analisi tramutarsi in un pesante vincolo a danno dell'evoluzione tecnico-scientifica di settore.
In ciò l'intuizione appare ampiamente fondata, se si pensa, ad esempio, che la grande diffusione avuta negli ultimi anni da internet, dai social network e dalle piattaforme di e-commerce è stata certamente agevolata dalla grande libertà di cui per molto tempo tali realtà hanno goduto, sia per una certa leggerezza assunta dai legislatori, sia per le contingenti difficoltà regolatorie.
Le questioni legate ai robot saranno parzialmente diverse, e la fisicità di queste macchine impone evidentemente un approccio maggiormente attento e prudenziale, ma nonostante ciò si ritiene controproducente se non addirittura inutile proporre rigide classificazioni, preferendo, invece, un approccio pragmatico, case by case, senza che i giuristi ‒ né, soprattutto, i produttori e gli “inventori” ‒ si lascino imbrigliare da categorie e vincoli, anche mentali, che difficilmente possono appartenere ad un mondo in continua e rapida evoluzione.
E' evidente che a seconda del tipo di macchina, o forse dovremmo dire di agente artificiale, del suo impiego e del suo grado di evoluzione, muterà di conseguenza lo spettro di questioni giuridiche ed etiche ad esso connesse.
Qualunque sia la prospettiva che ci si pone innanzi, è certo che sembra essere trascorsa un'eternità da quando la parola robot apparve per la prima volta nel dramma di Karel Capek “RUR” (Rossum's Universal Robots), scritto nel 1920 e andato in scena nel 1921.
Il termine impiegato nell'opera letteraria derivava dal ceco “schiavo”, “forzato a lavorare”, e nel racconto di Capek era riferito per la verità ad un essere androide, un umano artificiale ma organico.
Nel suo dramma l'autore immagina una rivolta dei robot lavoratori, creati su un'isola sconosciuta, che si ribellano e distruggono senza alcuna pietà la razza umana, traducendo in distopia l'utopia comunista dell'epoca.
Probabilmente, Capek estrapolò dalla propria coscienza una delle componenti ancestrali del rapporto creatore/creatura che spesso si compone sia dell'inconscia paura di un' insubordinazione della creatura nei confronti del creatore, sia di una sorta di attrazione fatale, tecno-feticista, tra l'uomo e le sue invenzioni.
In tal senso non può resistersi alla tentazioni di citare il mito del Golem, termine che fa la sua prima apparizione nella Bibbia (antico Testamento, Salmo 139, 16) per indicare una massa ancora priva di forma, ed è presente nei libri fondamentali della mistica ebraica, lo Zohar (Il libro dello splendore) del XIII secolo, e il Sefer Jezira (Il libro della creazione).
La stessa parola è riportata nel Talmud, un altro importante libro della religione ebraica che contiene la legge orale, completamento della Torah, la legge scritta.
Anche in quest'opera la parola gelem compare nel commento all'episodio della creazione,  per definire un uomo allo stato primordiale, una sorta di embrione ricavato dal fango prima di ricevere il soffio vitale da Dio.
Secondo la leggenda chi fosse venuto a conoscenza della Qabbalah, e in particolare dei poteri legati ai nomi di Dio, avrebbe potuto fabbricare un Golem, un gigante di argilla forte e ubbidiente, da usare come servo, impiegato per svolgere lavori pesanti e come difensore del popolo ebraico dai suoi persecutori.
Nel Sefer Yesirah, un trattato di cosmogonia e cosmologia, sulla cui antichità i pareri sono discordi ma che sembra riflettere delle concezioni risalenti al II sec. d.C., associando ciascuna delle 22 lettere dell’alfabeto ebraico a tutte le altre, si potevano ottenere un totale di 231 combinazioni chiamate “porte”. Tra esse, la combinazione più importante e più nota era quella che formava la parola emet (verità) che, secondo la tradizione, andava scritta sulla fronte del Golem. Per distruggere la creatura bastava cancellare la prima lettera di emet (aleph) in modo che rimanesse impressa sulla fronte del Golem la parola met, che significa morte: una vera e propria procedura di killer switch ante litteram.
Nella Polonia del 1600 la leggenda, documentata in una lettera datata 1674, racconta di un Golem che crebbe a dismisura, diventando una minaccia ingovernabile per il suo padrone, il Rabbi Elija Ba'al Schem di Chelm. Questi, per arrestarne la pericolosità, ordinò alla gigantesca creatura di sfilargli le scarpe e, una volta fattolo chinare, riuscì, con il citato stratagemma, a cancellargli dalla fronte la lettera aleph. Come previsto il Golem morì e ricadde su se stesso, travolgendo però il Rabbi con la sua massa informe.
Per altro verso, non può non citarsi in questa sede quanto tramandatoci da Ovidio ne Le Meatamorfosi, relativamente ad una statua di avorio trasformata in donna da Venere per soddisfare le preghiere di Pigmalione, lo scultore ormai completamente invaghito della sua creatura.
I timori della creatura che si ribella al suo creatore e l'agalmatofilia del mito appena citato, sembrano fondersi in un unico corpo nella leggenda svizzera della bambola dei malgari meglio nota con il nome di Senenpuppe o Sennentuntschi.
Nella leggenda in questione si racconta di malgari che, durante la permanenza negli alpeggi, reagirono al desiderio di una presenza femminile costruendo una bambola.
La bambola venne realizzata creando uno ‘scheletro’ fatto di rami legati con delle corde, attorno ai quali vennero legati dei fasci di paglia. Con l’aiuto di alcuni stracci vennero creati, al contempo, sia degli spazi da riempire con la paglia per volumizzare seno e cosce, sia degli abiti per la finta donna.
Gli allevatori trattavano la bambola come se fosse una vera donna, trascorrendo con essa del tempo, donandole del cibo, facendola accomodare a tavola e intrattenendosi a turno sessualmente con essa.
Ma proprio quando, finalmente, i pastori si apprestarono al trasferimento del bestiame verso casa, decisi ad abbandonarla tra le Alpi Svizzere, la bambola prese vita ed uccise quegli uomini, vendicandosi del loro comportamento malvagio e lussurioso.
Fuori dal mito, tema del rapporto creatore/creatura ritorna oggi con prepotenza assumendo, di pari passo ai progressi della tecnica, sempre più profili di grande attualità.
La robotica, in effetti, ha fatto straordinari progressi negli ultimi sessant'anni.
Da oggetti meccanici, statici, recettivi, ripetitivi ed esecutivi, oggi i robot si apprestano a divenire entità autonome, mobili con funzioni generali e non solo specifiche, con capacità di apprendimento e adeguamento all’ambiente anche senza il controllo di un operatore umano, con capacità di cognizione analitica, comunicazione, espressione, emozioni o imitazioni delle emozioni umane nell’aspetto esteriore.
Grazie agli strabilianti progressi tecnologici dell'ultimo decennio, non solo oggi i robot sono grado di svolgere attività che tradizionalmente erano tipicamente ed esclusivamente umane, ma lo sviluppo di caratteristiche autonome e cognitive – ad esempio la capacità di apprendere dall'esperienza e di prendere decisioni indipendenti –li ha resi sempre più simili ad agenti che interagiscono con l'ambiente circostante e sono in grado di alterarlo in modo significativo.
Tale sviluppo tecnologico propone in termini reali per un futuro sempre più prossimo problemi etico-giuridici che non sono del tutto nuovi nella storia del pensiero umano.
La possibilità di creare con mezzi alchemici, magici o mistici, degli esseri con caratteristiche umane, che come visto, è stata considerata in diverse culture esprimendosi tra miti e leggende, oggi si propone come realtà futuribile.
Presto potrà essere necessario elaborare qualcosa di molto più complesso e dettagliato delle tre leggi della robotica enunciate dallo stesso Asimov per disciplinare a livello giuridico ed etico il rapporto tra uomo e robot

  • 1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
    A robot must obey any orders given to it by human beings, except where such orders would conflict with the First Law.
    A robot must protect its own existence as long as such protection does not conflict with the First or Second Law 

I primi progressi nel campo della robotica possono datarsi negli anni cinquanta e settanta del secolo passato. In quegli anni si sono poste le basi per progettare macchine con un comportamento più complesso. Nel 1958 Devol ed Engelberger fondarono Unimation, la prima società per la robotica. Da tali esperienze incrementate nel corso dei decenni derivano le definizioni di robot industriali ad esempio, il robot Institute of America (RIA) definisce il robot come un manipolatore riprogrammabile e multifunzionale progettato per muovere parti, strumenti o dispositivi specializzati attraverso vari movimenti programmati per l'esecuzione di una varietà di compiti.
La norma ISO TR/8373-2.3 definisce il robot industriale come: "Un manipolatore con più gradi di libertà, governato automaticamente, riprogrammabile, multiscopo, che può essere fisso sul posto o mobile per utilizzo in applicazioni di automazioni industriali".
Per la British Robot Association un robot industriale è un “apparato riprogrammabile progettato per manipolare ed allo stesso tempo trasportare utensili od apparecchi specializzati con un movimento variabile a seconda dello specifico compito da svolgere”.
Da quanto detto sinora si ricava che un robot è un'entità fisica programmata che percepisce e agisce autonomamente in un ambiente fisico che, fornendo diversi input, influenza il suo comportamento. La Federazione internazionale della robotica (IFR) ha distinto due servizi principali che vengono forniti da parte dei robot: (a) servizi in diretto favore degli esseri umani (salvaguardia personale, intrattenimento, ecc) e (b) servizi di manutenzione (manutenzione, riparazione, pulizia, ecc). 
Da ciò si può ricavare l'ulteriore definizione di robot di servizio "un robot che funziona semi o completamente autonomamente per effettuare servizi utili al benessere degli esseri umani e delle attrezzature, escluse le operazioni di fabbricazione industriale."
A differenza della robotica industriale, impiegata in fabbrica per compiti ripetitivi e faticosi, la robotica di servizio è pensata per “vivere” a stretto contatto con l'essere umano e per supportarlo nel suo ambiente di vita quotidiano, sia in casa che al lavoro. Tali robot non devono essere necessariamente “antropomorfi, ma possono assumere le sembianze più disparate.
All'interno della scienza robotica, una questione sempre più discussa riguarda l'emergere di nuovi robot progettati per interagire con gli esseri umani a livello sociale.
L'esperienza scientifica ha, infatti, dimostrato la tendenza a percepire i robot in modo diverso da quanto accade con gli altri oggetti, specie se ad essi vengono associate fattezze umane o proprie degli animali da compagnia.
Il 26 ottobre 2017, durante la Future Investment Initiative, un summit su economia e innovazione tenutosi a Riad a fine Ottobre, l’Arabia Saudita ha concesso la cittadinanza onoraria a Sophia, un robot umanoide creato dalla compagnia di Hong Kong Hanson Robotics, dotato di intelligenza artificiale e in grado di dialogare, riconoscere le emozioni umane e rispondere in tempo reale, sorridendo e cambiando la propria espressione facciale.
Lo Stato Arabo non ha specificato in cosa consista il diritto di cittadinanza attribuito a Sophia, ma l'evento offre parecchi spunti di discussione.
L'umanità, infatti, si trova sulla soglia di un'era nella quale robot, bot, androidi e altre manifestazioni dell'intelligenza artificiale (AI) sembrano sul punto di lanciare una nuova rivoluzione industriale, in grado di coinvolgere tutti gli strati sociali, rendendo di fatto imprescindibile che le legislazioni nazionali e sovranazionali ne considerino le possibili implicazioni.
Sebbene in seno all'Unione Europea, la robotica possa indirettamente considerarsi regolata da una varietà di atti normativi (si pensi, ad esempio, alla direttiva sulla responsabilità per i prodotti difettosi e la direttiva sulla sicurezza dei prodotti, alla direttiva sui Macchinari per i robot industriali, al regolamento sui dispositivi medici applicabile, in via estensiva, ai robot chirurgici o alle direttive sulla compatibilità elettromagnetica e sulle apparecchiature radio che possono applicarsi anche ai robot, ad esempio, nel caso di macchinari autonomi che incorporano un GPS, agli standard ISO e CEN esistenti sui dispositivi robotici) la realtà è che la legislazione e gli standard esistenti non sono sufficienti per affrontare le sfide poste dalle imminenti innovazioni nel settore della robotica.
Oltre che sul piano giuridico le innovazioni tecnologiche nel settore della robotica aprono a nuovi scenari nel campo dell'etica.
In quest’ottica, nel 2002 è nata la Roboetica, un campo di studi che si occupa degli aspetti etici e sociali delle tecnologie robotiche nella loro interazione con l’uomo e con la società umana nel suo insieme. La roboetica, quale branca di etica applicata, ha lo scopo di sviluppare strumenti e conoscenze scientifiche, culturali e tecniche che siano universalmente condivisi, indipendentemente dalle differenze culturali, sociali e religiose.
Essa si muove a ben vedere lungo un doppio binario, da un lato, l'etica che dovrebbero rispettare progettisti, costruttori e programmatori e, dall'altro, in epoca più futuristica, l'etica artificiale che dovrà essere rispettata in un futuro più o meno prossimo dagli agenti robotici.
Una delle più recenti definizioni ci viene fornita da Spyros G. Tzafestas che descrive la roboetica quale ramo dell’etica applicata, una riflessione filosofica, e perciò sistematica ed informata, che, nello specifico, studia le conseguenze tanto positive, come negative, dei robot nella società allo scopo di suscitare la progettazione, lo sviluppo e l’uso morale dei robot, in particolare dei robot “intelligenti” ed “autonomi”.
Su tale scia, è stata avviata l'elaborazione di una sorta di Roadmap dell'etica applicata al settore della robotica.
Nel 2005 Euron II, l’allora Network della Ricerca Europea sulla Robotica del VI Programma Quadro 2003-2007, ha finanziato per il 2005/2006 un Atelier sulla Roboetica che è stato affidato a Gianmarco Veruggio e a Scuola di Robotica, in collaborazione con CNRS-Laboratoire d'Analyse et d'Architecture des Systèmes (LAAS), e la Scuola Superiore Sant' Anna.
L' Atelier sulla Roboetica si è svolto a Genova nel 2006 e ha prodotto la prima Roadmap avente come obiettivo quello di sviluppare un linguaggio comune in tema di etica applicata alla robotica tra gli studiosi e gli stakeholder; affrontare problemi in discipline contigue, condividere idee, e dare inizio a un’indagine globale sui principali paradigmi dell'etica applicata alla tecnologia robotica nelle diverse culture, religioni e fedi .
Avendo come riferimento la Carta dei Diritti Fondamentali dell’Unione Europea, la Roadmap sulla Roboetica ha inteso raccogliere riflessioni ed esperienze dei gruppi di discussione nati in molte università e dipartimenti di ingegneria a livello mondiale.
Particolarmente controversa, data l’estrema interdisciplinarietà della robotica, è apparsa la mancanza di un glossario condiviso necessario, sia perchè ogni singolo ambito della ricerca coinvolto appare essere dotato di un proprio linguaggio specifico sia perchè l’internazionalizzazione della ricerca e la globalizzazione economica fanno sì che gli scienziati coinvolti provengano da paesi e culture assai lontane.
Il particolare interesse suscitato dalla Roboetica deriva, in parte, dal fatto che, a differenza di altri sistemi tecnologici, seppure sofisticati la robotica mira a realizzare macchine sempre più intelligenti ed autonome, che non sono soltanto oggetti tecnologici ma, sempre più, agenti tecnologici dotati di capacità decisionali.
Sono soprattutto le ricerche e applicazioni nel settore della robotica di servizio applicata al medicale, alla biorobotica, alla robotica per assistenza (si pensi, in tal senso, ai robot che potrebbero assistere le fasce più deboli della popolazione mondiale come anziani, bambini, soggetti diversamente abili o, ancora a quei robot destinati all'intrattenimento sessuale, come nel caso delle “love doll” dotate di intelligenza artificiale) e alla robotica militare a sollevare inquietudini e perplessità. “Potrà un robot scegliere se fare ‘il bene’ o ‘il male’?”, “I robot potranno essere pericolosi per l’umanità?”, “Dovremmo preoccuparci dei diritti dei robot?” “L'impiego dei Robot in campo lavorativo finirà con il sostitutire il lavoro dell'uomo?” “Chi avrà più necessità dell'uomo se potrà disporre di Robot sofisticati ed intelligenti?”.
La Roadmap sulla Roboetica prende in considerazione la relazione tra Umani e Robot chiarendo i principali nodi tematici da sciogliere quali ad esempio la natura ambivalente relativa ad ogni Tecnologia (ogni tecnologia può essere usata e usata impropriamente), la tendenza all' antropomorfizzazione delle macchine che potrebbe facilitare lo scaturire nell'uomo di legami cognitivi e affettivi nei confronti delle stesse, il pericolo della dipendenza dalla tecnologia per cui già da alcuni anni si parla del rapporto tra l’uomo e la tecnologia che oggi diventa sempre più complesso ed articolato riuscendo a modificare lo stile di vita e influenzare le scelte dei singoli e della collettività. Di fronte, infatti, alle consistenti risorse e potenzialità che il mezzo tecnologico comporta, è necessario, per la Roadmap considerare che il rapporto con il dispositivo tecnologico potrebbe sfociare, in alcune occasioni ed in determinate personalità, in condotte disfunzionali, additive e compulsive. Il documento si preoccupa di evidenziare il pericolo crescente del Robot Divide, gap socio-tecnologico che potrebbe ricevere ulteriori impulsi per età, livello sociale, aree geografiche, in relazione alle sperequazioni esistenti in merito al grado di accessibilità dei diversi soggetti alle nuove tecnologie con possibili effetti negativi sulla già iniqua distribuzione globale della ricchezza e del potere.
Il documento enfatizza nell'impiego delle tecnologie robotiche il principi precauzionale di accountability secondo il quale "Quando un'attività solleva minacce di danno alla salute umana o all'ambiente, devono essere prese misure precauzionali anche se alcune relazioni di causa-effetto non sono completamente stabilite scientificamente."
Dal principio di precauzione, secondo la Roadmap derivano alcune altre regole quali: non strumentalizzazione, non discriminazione, consenso informato ed equità, senso di reciprocità, protezione dei dati che dovrebbero applicarsi secondo la modalità by design, ovvero sin dall'inizio della progettazione delle predette macchine.
Ciò appare pienamente congruente con lo scopo della tabella di marcia sulla roboetica che altro non è se non quello di aprire un dibattito sulle basi etiche che dovrebbero ispirare la progettazione e lo sviluppo dei robot, per evitare di essere costretti a prendere coscienza delle basi etiche sotto la minaccia imminente di eventi dolorosi e/o catastrofici, senza che ciò si traduca, tuttavia, in una paralisi della scienza e della tecnologia
Per tali ragioni la Roadmap sottolinea l'importanza di altri due principi fondamentali nell'ambito della ricerca scientifica che dovrebbero applicarsi anche in seno al settore della Robotica e, precisamente, il principio di non maleficenza e di beneficenza che mirano a far aderire la ricerca non solo al prinicpio del neminem laedere ma anche a quello dell' alterum, quantum potest, iuvat.
Il documento, inoltre, si concentra su uno degli obiettivi più ambiziosi della robotica quello di progettare un robot autonomo in grado di raggiungere, e persino superare, l'intelligenza umana che sia in grado di sviluppare le proprie prestazioni in ambienti parzialmente sconosciuti, mutevoli e imprevedibili. La Roadmap prevede che i robot, in un futuro non troppo lontano, potranno fornire assistenza nelle faccende domestiche, in favore delle fasce più deboli della popolazione e nel settore dell'intrattenimento.
Si prevede che tipologie avanzate di robot potranno lavorare insieme ai partner umani nel nostro ambiente di vita, condividendo lo stesso spazio di lavoro e sperimentando schemi di pensiero e comportamentali di un essere umano. Tali tipologie di robot integreranno le informazioni provenienti dai sensori e mostreranno azioni coordinate che realizzeranno forme comunicative uomo/macchina per mezzo dell'uso della parola, dell'espressione facciale e del movimento del “corpo” .
Per raggiungere tale obiettivo, negli ultimi decenni gli scienziati stanno lavorando a tecniche di intelligenza artificiale che possano condurre i robots ad imparare dall'esperienza, replicando in qualche modo i processi naturali dell'evoluzione dell'intelligenza negli esseri viventi (procedure di sintesi, tentativi ed errori, apprendimento esperenziale e così via).
Si pensa che tali processi condurranno alla implementazione di un tipo di macchina intelligente dotata della capacità di esprimere un certo grado di autonomia che potrebbe dar luogo a comportamenti non sempre prevedibili.
La Roadmap conclude con una serie di raccomandazioni finali legate alla necessità di:
Introdurre problemi di roboetica nei campi di indagine del gruppo europeo di etica;
Promuovere una comunità di roboetica transdisciplinare e transculturale, sulla falsariga dei Comitati di bioetica; 
Aprire un gruppo di interesse speciale Roboethics all'interno di EURON - European Robotics Research; 
Promuovere la discussione sulle questioni roboetiche per aumentare l'interesse pubblico sulla materia.
A sedici anni dalla sua nascita, la Roboetica appare sempre più come un utile strumento culturale per stimolare una maggiore sensibilità dei ricercatori robotici nei confronti delle loro responsabilità verso la società. La dimostrazione è il crescente fiorire di iniziative, leggi e progetti sul tema.
Tra i documenti più recenti possono, sotto tale aspetto, senza dubbio, annoverarsi quello pubblicato nell’ottobre 2016 dall’Ufficio For Science and Technology della Casa Bianca Artificial Intelligence, Automation, and the Economy, la risoluzione adottata, nel Febbraio 2017, dal Parlamento Europeo sulle norme di diritto civile europeo inerenti la robotica, nonché, sul piano nazionale, il parere sulla robotica/roboetica adottato congiuntamente dal Comitato Nazionale di Bioetica e dal Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita.

 

§2. La prospettiva nazionale – Il parere del Comitato Nazionale di Bioetica e del Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita.


Per ciò che concerne il panorama nazionale, un interessante documento è costituito dal parere sulla robotica/roboetica, nei profili scientifico-tecnologici, etici e giuridici elaborato, nel Luglio del 2017, dal gruppo misto costituito dal Comitato Nazionale per la Bioetica e dal Comitato Nazionale per la Biosicurezza, le Biotecnologie e la Scienza della Vita.
A partire da una preliminare definizione di robot e di intelligenza artificiale, il documento delinea le possibilità, potenzialità e limiti delle nuove emergenti tecnologie, distinguendo i robot con un corpo da quelli senza corpo (meccanico), con e senza intelligenza artificiale.
Il centro della riflessione riguarda il rapporto tra il “corpo” (bot) e il “cervello” (IA) della macchina tecnologica e la loro interconnessione.
Il documento delinea gli scenari che si prefigurano alla luce delle recenti trasformazioni della robotica applicate in diversi ambiti, precisando, in modo equilibrato e critico, quali sono le linee di riflessione di robot-etica e giuridica che delineano l’orizzonte di governance delle nuove tecnologie.
Il lavoro condotto dai Comitati approfondisce in modo particolare le tematiche della sostituzione robotica del lavoro umano, della dipendenza robotica (intesa come dipendenza sociale e personale, o come “vulnerabilità tecnologica”), dell’informazione ai cittadini finalizzata ad aumentare la consapevolezza critica e favorire la “metabolizzazione” dell'innovazione, del “robotic divide”, intendendo per esso la diseguaglianza nell’accesso alle tecnologie per i costi e per la competenza e motivazione ad utilizzarle, della necessità di elaborare codici etici e deontologici dei progettisti (che si richiamano ai principi di dignità, la privacy e la sicurezza delle persone). Specifica attenzione è dedicata, inoltre, alle applicazioni della robotica in ambito medico, in ambito socio assistenziale, in campo militare.
I Comitati delineano, in conclusione, alcune raccomandazioni che appaiono ruotare intorno alla necessità di sviluppare una consapevolezza critica ai fini della promozione di un’analisi interdisciplinare dell’impatto sociale della robotica, all'esigenza di elaborare codici etici per programmatori di robot e creare al contempo comitati etici per la ricerca di settore.
Infine, in ambito giuridico, si sottolinea la necessità di un chiarimento del nuovo significato e dei limiti della responsabilità giuridica umana nei confronti dei robot, la tutela dei cittadini e la sicurezza, nell’auspicio di una normativa europea quanto più omogenea possibile.
Accanto al concetto di Robot il parere analizza quello di intelligenza artificiale (AI) che rappresenta, nel mondo della tecnologia applicata alla robotica, il corrispettivo del cervello per come definito dall'anatomia umana e dalla neuroscienza .
A parere dei due Comitati Nazionali, la storia della robotica con IA sembra aver trovato un limite nella difficoltà di riprodurre i principi ed i meccanismi del funzionamento dell’intelligenza umana. Oggi, tuttavia, in considerazione delle nuove generazioni di computer, si rinnova per gli scienziati la speranza che l’uomo possa costruire robot intelligenti. I Comitati appaiono sul fronte un po' scettici.
Un robot umanoide pensante potrebbe si arrivare a pensare come un uomo, ma dovrebbe avere una centrale elettrica a propria esclusiva disposizione, costerebbe al momento troppo e sarebbe inutilizzabile; pertanto, sembrerebbe allo stato impossibile ipotizzare, dal punto di vista tecnico, un sistema semovente capace di pensare come l’uomo con le stesse capacità mentali, oltre che biomeccaniche.
La soluzione a questi problemi potrebbero giungere ben presto, secondo i due Comitati Nazionali, dalle Big Data Companies (tipo Google), che gestiscono i grandi computer e i grandi apparati di storage.
Queste nuove tecnologie sarebbero, infatti, in grado di rinnovare le speranze di studiosi e scienziati pur nonostante talune criticità immediatamente connesse alla gestione e alla messa in sicurezza dei dati trattati dalla macchina intelligente che ben potrebbe soccombere alla minaccia di pericolosi data breaches.

 

§ 3. La Risoluzione del Parlamento Europeo del 16 febbraio 2017


La Risoluzione del Parlamento Europeo del 16 febbraio 2017, rappresenta uno dei più rilevanti atti normativi sovranazionali e rivolge alcune raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, al fine di predisporre un'omogenea normativa europea che disciplini l’attività ed in particolar modo la responsabilità dei robot in seno al territorio dell'Unione.
La complessità della materia trattata e gli aspetti multidisciplinari che la contraddistinguono, anche per gli scenari - inimmaginabili sino a qualche decennio fa – che essa prospetta, sono in parte testimoniati dal lavoro delle commissioni parlamentari coinvolte nella redazione di pareri relativi alla risoluzione stessa: commissione per i trasporti e il turismo, commissione per le libertà civili, la giustizia e gli affari interni, commissione per l'occupazione e gli affari sociali, commissione per l'ambiente, la sanità pubblica e la sicurezza alimentare commissione per l'industria, la ricerca e l'energia, commissione per il mercato interno e la protezione dei consumatori.
La risoluzione in questione si fonda su talune rilevanti premesse di carattere generale che è bene evidenziare.
Innanzitutto, il Parlamento Europeo sottolinea come la robotica abbia avuto negli ultimi anni una crescita esponenziale.
Secondo i dati riportati nella risoluzione, infatti, tra il 2010 e il 2014 la crescita media delle vendite di robot era stabile al 17% annuo, mentre nel 2014 è aumentata al 29%, raggiungendo il più considerevole aumento annuo mai registrato.
Per il 2019 il totale delle vendite globali dovrebbe essere circa 413.000 unità e la popolazione mondiale di robot dovrebbe raggiungere entro il prossimo anno ben 2.590.000 unità, puntando ad un un aumento del 76% rispetto al 2014 in soli 5 anni!
Parallelamente a tale trend di crescita, nel corso dell'ultimo decennio, sono triplicate le richieste di brevetto per le tecnologie robotiche.
L'impiego della robotica, considerando che negli ultimi duecento anni il tasso di occupazione è aumentato costantemente grazie agli sviluppi tecnologici, si legge nella risoluzione, può certo comportare notevoli benefici in diversi aspetti della vita umana, essendo potenzialmente in grado di trasformare le abitudini di vita e lavorative, innalzare i livelli di efficienza, di risparmio e di sicurezza e migliorare il livello dei servizi non solo in ambito manifatturiero e commerciale, ma anche in settori quali i trasporti, l'assistenza medica, l'istruzione e l'agricoltura, diminuendo persino il grado di esposizione dell'uomo ai pericoli connessi a talune attività pericolose (si pensi ad esempio ad azioni di disinnesco di ordigni esplosivi, azioni di bonifica di siti contaminati, etc..)
Tuttavia l'evidente progresso tecnologico in grado di realizzare macchine (?) sempre più in grado di compiere atti, elaborare dati ed assumere decisioni sempre più autonome rispetto alla componente umana, potrebbe generare nel breve-lungo periodo non solo vantaggi ma anche una serie di effetti diretti e indiretti sulla società nel suo complesso.
Anche per tali ragioni la risoluzione rivendica per L'Unione Europea un ruolo fondamentale nella elaborazione di una normativa che possa in qualche modo rendere autonomo il Vecchio Continente dal progresso normativo di altre realtà extra europee, assurgendo a guida nell'enunciazione di alcuni principi etici connessi alla materia trattata.
E' evidente, infatti, che la crescente introduzione della robotica nella vita quotidiana potrebbe avere significati risvolti ad. es. sulla tutela dei dati personali, sulla sicurezza collettiva ed individuale, sul mercato del lavoro.
Si pensi, ad esempio, ai pericoli connessi allo scambio di dati personali tra robot dotati di intelligenza artificiale che, connettendosi più o meno autonomamente tra loro, potrebbero scambiarsi e rielaborare dati sensibili inerenti diversi soggetti, società, pubbliche amministrazioni, Stati; ancora alla possibile riduzione di posti di lavoro quale conseguenza dell'automazione delle attività lavorative più o meno manuali, alla prospettabile crisi della sostenibilità dei sistemi previdenzali, alla eventuale concentrazione di ricchezza e potere nelle mani di una minoranza.
Inoltre, come nota il Parlamento Europeo , molta attenzione dovrà dedicarsi ai principali temi etici e giuridici connessi a tali innovazioni tecnologiche, considerando che gli sviluppi nel campo della robotica e dell'intelligenza artificiale dovrebbero essere pensati in modo tale da preservare la dignità, l'autonomia e l'autodeterminazione degli esseri umani.
Dal punto di vista giuridico la Risoluzione considera taluni rilevanti fattori da approfondire al fine di consentire, da un lato di non porre inutili freni all'innovazione tecnologica e, dall'altro, di garantire che essa si sviluppi all'interno di un bacino di norme che possano garantire ai principali soggetti di diritto un adeguato grado di tutela e di sicurezza.
Sulla scorta di ciò il Parlamento Europeo ha elaborato una serie di raccomandazioni rivolte alla Commissione Europea che si articolano in dodici blocchi tematici inerenti:
principi generali riguardanti lo sviluppo della robotica e dell'intelligenza artificiale per uso civile;
principi etici;
l'opportunità della istituzione di un'Agenzia Europea:
la protezione dei dati personali;
la sicurezza dei consumatori;
la disciplina dei veicoli autonomi;
la disciplina dei droni;
l'impiego dei robot nel campo dell'assistenza sociale e, in particolare, nei confronti degli anziani;
l'impiego dei robot in campo medico;
le possibili conseguenze nel mondo del lavoro;
l'importanza di un'adeguata sostenibilità ambientale;
l'analisi della responsabilità civile per i danni causati da robot.
Alcuni degli spunti più interessanti riguardano proprio le questioni etiche e giuridiche che il progresso tecnologico nell'ambito della robotica e dell'intelligenza artificiale pongono con sempre maggiore prepotenza.
Dal punto di vista etico la Risoluzione sottolinea la necessità di aggiornare l'attuale quadro giuridico dell'Unione riferendosi a principi etici di orientamento che riflettano la complessità della robotica e delle sue numerose implicazioni sociali, mediche, bioetiche.
L’appendice alla raccomandazione contiene considerazioni altrettanto interessanti, proponendo una vera e propria ‘Carta della Robotica’.
Il Parlamento Europeo individua inizialmente le caratteristiche principali degli smart robots, suggerendo alla Commissione di procedere alla formulazione di una definizione che li identifichi e che tenga conto della capacità di tali tecnologie di acquisire autonomia utilizzando sensori e/o scambiando e analizzando dati con l’ambiente circostante e altri robot; la capacità di apprendimento tramite esperienza e l’interazione con altri agenti; la forma fisica dei robot e, in ultimo, la capacità dei robot di adattarsi all’ambiente con il quale interagiscono.
La Carta sulla Robotica propone, poi, una serie di considerazioni di carattere etico, elaborando, quindi, una sorta di codice di comportamento nel campo della robotica, i cui primi destinatari sono i produttori, gli ingegneri e i ricercatori del settore fondato taluni principi, tra cui:
Principio di beneficenza: i robot devono agire nell'interesse degli esseri umani;
Principio di non-malvagità: la dottrina del "primum, non nocere ", in virtù della quale i robot non devono fare del male a un essere umano;
Principio di autonomia: la capacità, riservata all'essere umano, di adottare una decisione informata e non imposta sulle condizioni di interazione con i robot;
Principio di giustizia: l'importanza di un'equa ripartizione dei benefici associati alla robotica e l'accessibilità economica dei robot addetti all'assistenza a domicilio e, in particolare, a quelli addetti alle cure sanitarie.
La proposta di adozione di un codice etico prevede ulteriori principi fondamentali quali il principio di salvaguardia dei diritti umani nelle attività di ricerca che dovranno essere condotte nell'interesse del benessere e dell'autodeterminazione del singolo e della società nel suo complesso; il principio di precauzione, secondo il quale le attività di ricerca dovranno tenere in conto le eventuali incidenze dei risultati in termini di sicurezza e adottare le debite precauzioni, proporzionalmente al livello di protezione, incoraggiando allo stesso tempo il progresso a vantaggio della società e dell'ambiente; il principio di inclusione, per cui dovrà essere garantita la partecipazione ai processi decisionali di tutti i soggetti coinvolti nelle attività di ricerca sulla robotica o di quelli che nutrono un interesse nella stessa; il principio di rendicontabilità, secondo il quale occorrerà tenere presente, nell'attività di ricerca, le eventuali incidenze sociali, ambientali e sanitarie della robotica per le generazioni attuali e quelle future; il principio di sicurezza, secondo cui la ricerca dovrà rispettare il benessere fisico, la sicurezza, la salute e i diritti delle persone, segnalando senza indugio i fattori che potrebbero mettere a rischio la collettività o l'ambiente; il principio di reversibilità, secondo il quale la programmazione deve sempre consentire il controllo dei robot e di annullare le azioni indesiderate reimpostando le corrette modalità di funzionamento; il principio di rispetto della privacy, anche in relazione alla necessità di acquisire il consenso informato all'uso dei dati personali in ogni tipologia di interazione uomo-macchina e comprensivo di un diritto alla rimozione dei propri dati, simile ad un diritto all'oblio; il principio della riduzione dei rischi, secondo il quale il funzionamento di un sistema robotico dovrà sempre basarsi su un rigoroso processo di valutazione dei rischi improntato ai principi di proporzionalità e di precauzione.
La Risoluzione propone, inoltre, l'istituzione di un comitato etico di ricerca a carattere multidisciplinare in grado di includere uomini e donne con una vasta esperienza e competenza nel settore della ricerca sulla robotica. Il CER ( Comitato Etico di Ricerca) avrà il compito di esaminare tutte le attività di ricerca che coinvolgano direttamente o indirettamente soggetti umani; di assicurare l'indipendenza, la professionalità e la tempestività dell'esame etico; di tutelare la dignità, i diritti e il benessere dei soggetti che partecipano alla ricerca; di tenere in considerazione la sicurezza del ricercatore o dei ricercatori; di tenere in considerazione gli interessi legittimi di altri soggetti in causa; di formulare pareri informati sul merito scientifico delle proposte.
La Risoluzione propone, infine, un codice per i comitati etici di ricerca, fissando alcuni fondamentali principi quali il principio di indipendenza, secondo cui il processo di esame etico dovrà essere indipendente dalla ricerca stessa; il principio di competenza, secondo cui processo di esame etico dovrà essere condotto da persone dotate di adeguate competenze specifiche, tenendo conto della necessità di esaminare attentamente la diversità della composizione e la formazione specifica dei CER in materia di etica; il principio di trasparenza e rendicontabilità, secondo cui il processo di esame dovrà essere sempre responsabile e verificabile.
Oltre a suggerire l'istituzione di uno o più comitati etici per la ricerca, la Risoluzione ritiene necessario il rafforzamento della cooperazione tra gli Stati membri e la Commissione per garantire all'interno dell'Unione norme che promuovano la collaborazione tra le industrie europee e consentano la diffusione nell'intera Unione di robot che soddisfino i livelli richiesti di sicurezza nonché i principi etici sanciti dal diritto europeo.
Anche per tale ragione si propone l'istituzione di un'Agenzia Europea, che dovrà essere dotata di un bilancio proprio e di personale, avrà il compito di monitorare, a livello multidisciplinare, le applicazioni basate sulla robotica, individuare norme relative alle migliori prassi e, ove opportuno, raccomandare misure regolamentari, definire nuovi principi e affrontare eventuali questioni di tutela dei consumatori e difficoltà sistemiche.
La risoluzione in questione si sofferma sull'impiego dei robot nel campo dell'assistenza sociale e, in particolare, nei confronti degli anziani nonché sull'analisi della responsabilità civile per i danni causati da robot.
Sotto il primo aspetto, la Risoluzione sottolinea l'importanza della ricerca e dello sviluppo di robot per la prevenzione, l'assistenza, il monitoraggio, lo stimolo e l'accompagnamento degli anziani, come pure delle persone affette da demenza, disturbi cognitivi o perdita della memoria.
In tali termini, il Parlamento Europeo evidenzia come la sostituzione del fattore umano con i robot possa, da una parte, disumanizzare le pratiche di accudimento, ma riconosce, d'altra parte, la grande rilevanza settoriale dei robot che potrebbero svolgere compiti di assistenza automatizzati e agevolare il lavoro degli assistenti sanitari, migliorando, al contempo, le cure fornite dal personale sanitario e rendendo il percorso di riabilitazione più mirato.
Sul piano della responsabilità civile per danni causati dai Robot, i maggiori problemi nell’affrontare l’istituto risiedono nella difficoltà di raccordo e comunicazione tra robotica e norme giuridiche esistenti.
Il nucleo di quella che è stata definita dal Parlamento UE come una rivoluzione industriale e sociale consiste nella capacità dei robot di apprendere e agire sulla base dell’esperienza maturata. Una simile abilità rende sempre più autonomi tali ritrovati della tecnologia e in grado di comportarsi in modo non sempre prevedibile dal costruttore, divenendo potenzialmente fonte di danno e, di conseguenza, oggetto di richieste risarcitorie.
In via esemplificativa può citarsi l'esperimento condotto dal noto Social Network Facebook.
Nel 2017, gli sviluppatori di Facebook hanno lavorato, tra le altre cose, ad alcuni sistemi di intelligenza artificiale (AI) per implementare programmi di chatbot in grado di simulare una conversazione tra bot ed esseri umani o esclusivamente tra bot mediante l'uso di voce o testo.
In particolare i due bot, BOB e ALICE erano capaci di dialogare tra loro in inglese e condurre semplici trattative, per esempio quelle per dividersi due libri, tre palloni da basket e un cappello da cowboy.
Il fine dell'esperimento che li riguardava era di far sì che ognuno di loro fosse in grado di negoziare con l'altro. Una capacità tipica dell'essere umano, perché non prevede solo una conoscenza approfondita del linguaggio, ma anche una serie di valutazioni tratte dal vissuto. Contrattare, del resto, vuol dire saper gestire un conflitto, insistere, in caso mentire o esagerare e infine trovare un compromesso, compiti estremamente complessi che Alice e Bob stavano imparando a svolgere.
Nel corso dell'esperimento le due macchine sono state messe l'una di fronte all'altra, e a forza di “parlare” e di confrontarsi, non avendo un limite imposto con precisione sono arrivate a esprimersi in un inglese sempre più simile a un linguaggio binario, solo che invece dell'1 e dello 0 a ripetersi erano una serie di parole. Ogni volta che un robot modificava un termine, l'altro lo imparava e lo registrava come regola da seguire, e in breve tempo il dialogo è diventato totalmente incomprensibile:
Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i . . . . . . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i i i i i everything else . . . . . . . . . . . . . .
Alice: balls have 0 to me to me to me to me to me to me to me to me to
Bob: you i i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Probabilmente il tutto è stato causato da un errore di programmazione che ha omesso di impostare come lingua predefinita esclusivamente quella inglese.
Tuttavia, se c'è chi ha inteso minimizzare l'accaduto, c'è stato anche chi, come Kevin Warwickha parlato dell'evento come una pietra miliare nel campo della scienza.
Qualunque sia la reale portata di quanto accaduto, di certo, la crescente abilità di apprendimento rende i robot sempre meno ascrivibili alla categoria di meri strumenti, macchine od oggetti nelle mani altrui, nonché sempre più lontani dalla possibilità di applicare agli stessi le tradizionali forme di responsabilità da prodotto difettoso o dalla gestione di attività pericolose.
Se da un lato, infatti, i robot stanno acquisendo caratteristiche autonome e cognitive, configurandosi quali agenti che interagiscono con l’ambiente circostante ed in grado di alterarlo in modo significativo, dall'altro, le attuali norme in tema di responsabilità non regolano i casi in cui un’azione od omissione non sia direttamente riconducibile a un soggetto di diritto quale il fabbricante, il proprietario o l’utilizzatore.
Il punto debole nell’applicazione di queste due tipologie di responsabilità risiede, infatti, nella più o meno ardua difficoltà di attribuire ad un preciso soggetto tra quelli testé richiamati, la responsabilità per le azioni compiute in totale autonomia dalla macchina intelligente.
La capacità di apprendere dall’esperienza e prendere decisioni indipendenti avvicina, infatti, i robot alla nozione di agente, rendendo labile il confine cardine del mondo giuridico tra cose e persone.
Anche per tale ragione il Parlamento Europeo ritiene fondamentale predisporre al più presto una normativa omogenea in tutta l'Unione europea, e ciò nell'interesse, tanto dei cittadini e dei consumatori, quanto delle imprese.
A tal fine nel corpo della propria Risoluzione ha invitato la Commissione a presentare, sulla base dell'articolo 114 del TFUE, una proposta di atto legislativo sulle questioni giuridiche relative allo sviluppo e all'utilizzo della robotica e dell'intelligenza artificiale prevedibili nei prossimi 10-15 anni, in associazione a strumenti non legislativi quali linee guida e codici di condotta.
La materia appare particolarmente spinosa, in quanto le norme esistenti in materia di responsabilità non appaiono sempre di immediata applicazione nel momento in cui l’attività è condotta da un robot piuttosto che da un essere umano.
Sul punto il Parlamento Europeo intende prospettare una forma di responsabilità oggettiva, così da eliminare la valutazione circa il rapporto di causalità quando l’attività dannosa venga esercitata da un’intelligenza artificiale o da un robot.
In particolare, nell’individuare il soggetto responsabile, il Parlamento Europeo mette in luce come, risponda dell’attività rischiosa non chi agisca negligentemente ma la persona che, in determinate circostanze, sia in grado di poter minimizzare i rischi e gestire gli effetti negativi dell’attività steessa.
Sotto tale propspettivaappare particolarmente interessante il monito che il Parlamento Europeo rivolge alla Commissione Europea – destinataria della raccomandazione, secondo la procedura di iniziativa legislativa stabilita dal Trattato sul Funzionamento dell’Unione Europea (TFUE) – per cui la responsabilità di colui che “addestra” il robot aumenterà in maniera proporzionale all’aumentare delle capacità e dell’autonomia del robot.
Alla base di ciò starebbe la considerazione generale secondo la quale, almeno al presente stadio di avanzamento tecnologico, la responsabilità debba essere attribuita esclusivamente all' essere umano, e non all'agente tecnologico, sebbene tale responsabilità possa rivelarsi non idonea a coprire quelle azioni strettamente correlate alla capacità di apprendimento autonomo del robot e, dunque, sempre più indipendente dall'addestramento umano.
Anche a ragione di ciò, il Parlamento Europeo suggerisce alla Commissione di tenere presente la possibilità di stabilire un meccanismo di assicurazione obbligatoria che copra non solo le attività del robot, ma tutte le azioni della catena causale che porta all’attività dannosa compiuta dall'agente tecnologico, quali progettisti, costruttori, produttori ed utilizzatori.
I danni non coperti da tale schema assicurativo andrebbero coperti mediante l'istituzione di un fondo di compensazione, modulabile a seconda della tipologia di robot, al quale dovrebbero essere registrate le varie tipologie di robot, in modo tale che ciascun individuo che entri in interazione con tali agenti tecnologici possano essere edotti circa la natura della loro responsabilità e l’identità degli individui eventualmente responsabili per le azioni compiute dagli stessi.
In maniera ancora più interessante, il Parlamento Europeo propone per il medio e lungo periodo, l'istituzione di uno status giuridico specifico per i robot più sofisticati proponendo l'istituzione della personalità giuridica elettronica.
E' chiaro che una simile proposta apre scenari del tutto nuovi che coinvolgono di certo profili giuridici, ma non solo, anche etici e morali, specie a fronte della tendenza ad antropomorfizzare i robot con cui ci troveremmo ad interagire a livello sociale.
Proiettare le nostre emozioni sugli oggetti potrebbe permettere di estendere delle protezioni legali sui robot stessi, che non sarebbe più solo titolari per così dire di doveri, ma anche di diritti seguendo un ragionamento simile a quello ha condotto il diritto vivente a riconoscere diritti anche in favore degli animali.
Tale ipotesi è già stata oggetto di un suggestivo studio accademico condotto da Kate Darling dal titolo Extending Legal Protection To Social Robots. The Effects Of Anthropomorphism, Empathy, And Violent Behavior Towards Robotic Objects e, del resto, non è di pura fantasia la fondazione nel 1999, a Seattle, dell'American Society for the prevention of cruelty on robots (ASPCR), un'associazione che ha l'obiettivo di impedire le violenze sui robot cercando di informare l'opinione pubblica sulle questioni etiche e morali dettate dalla creazione di esseri artificiali e che mira all'adozione da parte degli USA di una Robotic Bill of Rights.
Il documento presentato da Kate Darling pone alcuni interessanti interrogativi.
Secondo la studiosa gli esseri umani sono inclini all'antropomorfismo, tendendo a proiettare le qualità intrinseche dell'uomo su altre entità per farle sembrare più simili agli umani.
Tale inclinazione, già presente in ambito religioso e ben documentata dalla tendenza a relazionarsi antropomorficamente agli animali, potrebbe trovare ampio spazio realizzativo anche in seno alle interazioni con i modelli più sofisticati di robot definitit robot sociali, che sono specificamente progettati per suscitare tale forma di proiezione.
Alcuni studi confermano, infatti, che gli esseri umani interagiscono già in modo diverso con i robot sociali di quanto non facciano con altri oggetti.
Ma se tendiamo sempre meno a percepire i robot come delle cose, dovremmo trattarli come dispositivi o come creature?
Probabilmente il vero punctum dolens di questa futuristica teoria è connessa alla problematicità semantica del linguaggio che si utilizza per tentare di spiegare dimensione “soggettiva” dell’intelligenza artificiale con categorie antropologiche ormai cristallizzate nella storia e nel pensiero occidentale, quali quelle di autonomia, volontà, responsabilità, ma che appare, tuttavia, del tutto insufficiente ad illustrare adeguatamente una presunta libertà di agire di una entità meccanica.
Provando a riflettere ancora un po' sul punto, si produrrebbe una sorta di butterfly effect in grado di generare a caduta conseguenze di fatto inarrestabili.
Se, infatti, ai Robot intelligenti venisse realmente affidata una personalità giuridica elettronica, benchè inizialmete tale ipotesi potrebbe agevolare la ricerca, la produzione e l'immissione sul mercato di macchine intelligenti, forti di una sorta di esenzione di responsabilità dei vari soggetti coinvolti nel loro impiego (programmatori, costruttori, produttori, utilizzatori finali) in favore di una sorta di imputabilità robototica per eventuali danni connessi al loro impiego, arriverebbe, presto o tardi, il momento in cui saremmo costretti a riconoscere agli stessi agenti tecnologici dei diritti, ma come capire quando?
Generalmente per cogliere questo inquietante turning point si fa riferimento al test di Turing, un criterio per determinare se una macchina è in grado di mostrare un comportamento abbastanza intelligente da rendere molto ardua la distinzione rispetto ad un essere umano. Secondo alcuni studiosi, tuttavia, il test di Turing in questo senso fornirebbe solo una condizione necessaria, ma non sufficiente, in quanto, essere in grado di simulare un comportamento intelligente è cosa ben diversa dall’essere intelligente.
Eppure c'è chi sostiene che affiancando il test di Turing ad un secondo test denominato "test dello specchio" che ha lo scopo di capire se un robot è in grado di riconoscere la sua immagine e ha quindi sviluppato il senso del sé, il dado sarebbe tratto e dovremmo riconoscere ai robot diritti sino ad adesso patrimonio dei soli esseri umani.
Ciò comporterebbe quel temuto ed inarrestabile effetto domimno poichè riconoscendo nei robot dei veri soggetti di diritti e non solo centri di imputazione di responsabilità, dovranno essere riconosciuti loro il diritto alla vita e quello al benessere (che impedirebbero di “uccidere” un robot, cioè di applicare le procedure di killer switch, procedure che ptrebbero assurgere a livelli di difficoltà applicativa anche prima di tali riconoscimento. Si pensi a dei Robot di servizio con sembianze antropomorfe e a cosa accadrà quando quella macchina condannata a morte sarà oggetto dell’affetto di un bambino o un anziano che non accetterà tanto facilmente di perderla, soprattutto senza un processo), il diritto alla libertà dalla schiavitù (che farebbe venire meno la ragione stessa per cui si stanno creando macchine di tale natura, si ricordi l'etimologia del termine robot) e il diritto alla riproduzione.
Dai diritti "umani" al diritto di voto, il passo, poi sarebbe breve. D’altra parte, come si potrebbe negare a dei robot dotati di coscienza e che svolgono un ruolo produttivo nella società la possibilità di esprimersi politicamente di avere una loro rappresentanza in Parlamento e, infine, di accedere al suffragio?
Forse si corre troppo con la fantasia, o forse no, se si pensa al fatto che già dal 2014 nel Cda di un’azienda di biotecnologie e ricerca farmaceutica di Hong Kong siede anche VITAL un robot, con diritto di voto.

 

§ 4. La prospettiva Statunitense - Il rapporto della Casa Bianca sull’intelligenza artificiale


“Gli avanzamenti nella tecnologia dell’intelligenza artificiale (IA) e nei settori correlati hanno aperto nuovi mercati e nuove opportunità per il progresso in aree critiche come la sanità, l’istruzione, l’energia, l’integrazione economica, il benessere sociale e l’ambiente.”
Così si apre il rapporto sull’intelligenza artificiale della Casa Bianca pubblicato il 20 dicembre 2016. Si tratta di un documento che riassume i potenziali vantaggi dello sviluppo di questo settore, ma che allo stesso tempo ne evidenzia alcuni rischi.
Il rapporto sull’IA della Casa Bianca esamina il futuro impatto dell’automazione sull’economia americana e descrive le strategie che potrebbero offrire benefici e ridurre i costi.
Nel documento viene precisato che è difficile prevedere cosa succederà nei prossimi anni, soprattutto nel mondo del lavoro, similmente a quanto accaduto durante le trasformazioni tecnologiche del XVIII e del XIX secolo.
Questo perché non ci si trova innanzi ad una singola tecnologia, ma ad un insieme di tecnologie che interagiscono per raggiungere scopi molteplici.
Secondo il rapporto Statunitense, alcune attività lavorative verranno sostituite dalle macchine più facilmente rispetto ad altre, come suggerisce anche uno studio recente di McKinsey.
D’altra parte, l’automazione potrebbe aumentare la produttività delle persone e aumentare la richiesta di personale che abbia specifiche competenze. Potrebbero addirittura nascere nuove professioni che avranno a che fare con lo sviluppo e la supervisione dell’IA.
Secondo i dati del CEA (Council of Economic Advisers), l'iterazione intelligenza artificiale-essere umano in ambito lavorativo nel prossimo futuro ruoterà attorno ad alcuni principi.
Coinvolgimento. Spesso si pensa alla sostituzione della persona sul posti di lavoro con una macchina. Ma ormai sono evidenti i vantaggi che possono derivare da una collaborazione tra umani e intelligenza artificiale. Ad esempio, Watson di IBM può migliorare il rilevamento di cancri e malattie, ma sarà un medico a guidare i pazienti nei trattamenti.
Sviluppo. Per creare efficienti sistemi di IA è necessario il lavoro di sviluppatori di software e di ingegneri altamente qualificati. Si prevede, dunque, unarichiesta di lavori che prevedano la creazione, la raccolta e la gestione di dati per i sistemi di IA così come di sociologi e filosofi per studiare gli impatti che queste tecnologie avranno sulle popolazioni e le loro implicazioni etiche.
Supervisione. Lo sviluppo in ambito lavorativo di macchine dotate di intelligenza artificiale investirà positivamente tutti quei lavori che hanno e che avranno a che fare con il monitoraggio e le riparazioni dei sistemi di IA generando un aumento esponenziale delle opportumità di lavoro .
Risposta ai cambiamenti di paradigma. L’innovazione tecnologia dell’IA rimodellerà le caratteristiche degli ambienti. L'arrivo sulle strade di automobili senza conducente richiederà, inevitabilmente, una modifica delle infrastrutture delle città e delle strade. Anche nell’ambito della sicurezza informatica potranno esserci nuove opportunità di lavoro, divenendo necessario costruire veicoli autonomi più sicuri a livello di connessione o di sviluppare metodi per individuare messaggi o transazioni fraudolente.
Le ricerche mostrano, di contro, che le professioni minacciate dall’automazione si concentrano perlopiù tra i gruppi di lavoratori con basso reddito, meno qualificati e meno istruiti.
Tutto ciò potrebbe accompagnarsi all'introduzione di salari più alti e più tempo libero per un vasto numero di lavoratori maggiormente qualificati, aumentando il gap sociale tra le diverse fasce della popolazione mondiale.
Certo è che gli effetti dell’IA influenzeranno l’intera economia e sarà difficile prevedere quali settori subiranno particolari cambiamenti. Per questo motivo le decisioni politiche avranno un ruolo chiave nel rendere meno complesse le conseguenze di queste trasformazioni tecnologiche.
In generale, il rapporto suggerisce 3 strategie per affrontare l’impatto dell’automazione sull’economia americana: investire e sviluppare IA per i suoi numerosi benefici, educare e formare i cittadini per i lavori del futuro, assistere i lavoratori nella transizione e responsabilizzarli per garantire un’ampia crescita condivisa.

 

§ 5. Lo Stato dell'arte nella prospettiva giuridica


Il diritto non ha ancora pienamente catalogato e definito molti aspetti legati al digitale, e già si trova a dover fare un ulteriore passo avanti.
Le difficoltà incontrate dal diritto a regolare e governare il mondo immateriale dello spazio virtuale e delle realtà digitali, si pensi ad esempio alle questioni giuridiche connesse all'uso big data alle problematiche sottese al cyberbullismo ai social network o, ancora, alle questioni di diritto connesse al processo telematico, alla firma digitale, alla notifica a mezzo pec di documento digitale, con l'avvento della robotica, rischiano di riversarsi pesantemente nuovamente nel reale, finendo per rifluire sullo spazio fisico in una pressoché inedita commistione tra immateriale e materiale.
A differenza di quanto investigato sino ad ora ad opera della cosiddetta informatica giuridica, che sin dagli albori del digitale, si è confrontata con la necessità di tutela e salvaguardia nei confronti di beni immateriali, su tutti, privacy e riservatezza, onore e reputazione, identità, uno degli aspetti cardine della tecnologia robotica consiste nella sua fisicità e nell’interazione con il mondo fisico.
Con la robotica le cose si complicano esponenzialmente poiché alle fonti di danno capaci di incidere negativamente solo su beni immateriali si associano fonti di danno potenzialmente capaci incidere direttamente, senza mediazione alcuna, sulla realtà fisica ed umana
Anche per tali ragioni, nella difficoltà rinvenute in seno alla possibilità di definire e catalogare i robot, ciò che pare essenziale è proprio il dover sottolineare la capacità della macchina di produrre un'oggettiva modificazione della realtà senza alcuna mediazione umana.
I Robot di ultima generazione articoleranno il proprio modo d'essere sul trinomio sense-think-act ed è proprio tale ultimo termine del citato trinomio – act- a risultare capace di incidere con un'inedita prorompenza sul mondo reale.
Ciò appare particolarmente vero in seno alla cosiddetta robotica di Servizio che, a differenza della robotica industriale che prevede l'impiego delle macchine in ambienti fortemente regolamentati e protetti limitando fortemente le occasioni di interrelazione con la collettività o, ancora della robotica impiegata in campo militare che coinvolge problematiche del tutto peculiari, evidenzia implicazioni assai più complesse, proprio a causa dell'uso che propone di fare delle nuove macchine agenti potenzialmente generalizzato e libero.
Nasceranno così nel mondo del diritto nuovi problemi e, si spera, nuove possibili soluzioni.
Nell’ambito degli scenari connessi alla robotica appare, dunque, di assoluta rilevanza il tema della responsabilità per azioni dannose riconducibili, con diversi gradi di relazione, all'azione degli agenti robotici, anche in relazione all'allocazione del rischio in riferimento ai diversi soggetti coinvolti nella progettazione, produzione, vendita ed utilizzo.
I soggetti che partecipano allo sviluppo, all’utilizzo ed alla commercializzazione dei robot e dei relativi servizi, e che in qualche modo possono essere interessati a ‒ o interagire con ‒ il loro utilizzo, possono essere così identificati:
a) soggetti che a vario titolo contribuiscono alla realizzazione del prodotto e alla prestazione dei servizi offerti dai robot, fornendo singole componenti hardware, software ovvero servizi propedeutici o funzionali alla produzione o all’utilizzazione dei robot. Tale categoria include i costruttori di componenti meccaniche e componenti elettriche, i fornitori di componenti hardware e software, i progettisti del robot o di alcune sue parti, i fornitori di servizi cloud e di piattaforme di sviluppo, i fornitori di apparati ospitati a bordo dei robot (c.d. payload, come ad esempio apparecchiature fotografiche), i soggetti che addestrano, manutengono o pilotano i robot;
b) soggetti che commercializzano i robot e i relativi servizi nei confronti dei clienti finali: tali soggetti possono svolgere anche parte delle attività di cui al punto a);
c) clienti finali, che possono essere sia imprese che consumatori: acquirenti dei robot o dei relativi servizi;
d) autorità pubbliche di controllo e regolazione del settore;
e) società che forniscono servizi di assicurazione contro i rischi derivanti dall’uso dei robot;
f) terzi estranei alle categorie sopraelencate, che possono essere danneggiati od ottenere benefici dall'uso dei robot, nonostante non siano entrati in relazione diretta con il fornitore di servizi di robotica.
I principali scenari nell’ambito dei quali si manifestano rischi di responsabilità civile in capo agli agenti coinvolti nella produzione, commercializzazione e utilizzo dei robot possono essere riassunti in cinque categorie:
1) progettazione e produzione delle macchine;
2) realizzazione e messa a disposizione di beni e servizi funzionali alla progettazione e produzione delle macchine (ad es., fornitori dei componenti del robot; fornitori di piattaforme di servizio da utilizzare per la progettazione);
3) commercializzazione dei robot;
4) prestazione di servizi attraverso i robot;
5) prestazione di servizi di deposito, conservazione e manutenzione dei robot.
Secondo l'attuale panorama sia tecnologico che normativo, la progettazione, la costruzione, la commercializzazione , l’utilizzo dei robot, nonché la fornitura di servizi attraverso i robot, rappresentano tutte possibili fonti di responsabilità, sia sul piano del fatto illecito in senso stretto (ex art. 2043 c.c.), sia sul piano della c.d. responsabilità “indiretta” (di padroni e committenti, art. 2049 c.c.) e della responsabilità oggettiva o quasi oggettiva (ad es. danno da cose in custodia, art. 2051).
Dunque i possibili profili di responsabilità ad oggi esistenti oscillano dalla tradizionale imputabilità “soggettiva” per dolo o colpa, ad una serie di criteri di imputabilità che prescindono in tutto o in parte dall’esistenza di uno stato soggettivo rilevante in capo all’agente, finendo per fondare l’imputabilità su elementi diversi ed in qualche modo con la fonte diretta del danno.
E' proprio in tale categoria di criteri di imputazione che possono trovare allocazione tutte quelle ipotesi di danno per le quali non sia possibile riscontrare un grado di colpa o dolo in capo ad alcun soggetto umano, essendo lo stesso direttamente imputabile all'azione posta in essere dalla macchina.
E ciò avverrà almeno sino a quando non verrà elaborata una vera e propria disciplina che ritenga responsabili direttamente gli agenti robotici per le azioni dannose dagli stessi poste in essere, il che comporta, parimenti, l'esistenza di agenti robotici particolarmente evoluti ed in grado di determinare sulla base dell'esperienza le proprie azioni, in maniera del tutto autinoma dalla mano e dalla mente umana.
Sul punto, è bene, infatti, evidenziare che il nostro ordinamento individua quali possibili centri di imputazione della responsabilità civile unicamente i soggetti che ad oggi sono ritenuti tali dall’ordinamento italiano, ovvero le persone fisiche (artt. 1 e seguenti c.c.) e le persone giuridiche (artt. 11 e seguenti c.c.).
In altri termini dall'interattività, adattatività ed autonomia dei robot e dalla loro crescente autonomia sia nei confronti dei programmatori e costruttori, sia dei loro stessi proprietari non può scaturire di certo, allo stat attuale, alcuna autonoma responsabilità delle macchine dato che, ad oggi, esse non rientrano tra i possibili centri di imputazione di responsabilità previsti dalla legge.
Appare oltremodo pacifico che ad oggi le conseguenze giuridicamente rilevanti che derivano dall’imprevedibilità dell’azione dei robot saranno fonte di responsabilità risarcitoria nei confronti di quei soggetti cui potranno venire ricondotte sulla base delle regole di imputabilità soggettiva o oggettiva cui si è fatto cenno sopra o, a limite, potranno rimanere confinate nell'ambito delle categoria del caso fortuito e della forza maggiore.
Bisogna esse, tuttavia, pronti a scommettere che il progresso tecnologico porrà molto presto agli studiosi del diritto nuovi dilemmi
La storia del diritto, d’altra parte, mostra che l’attribuzione di una data qualificazione giuridica è non solo frutto della considerazione di quello che il soggetto in questione è in termini fattuali (un essere umano, un gruppo di persone), ma anche il risultato di scelte di politica normativa orientate da valori, bisogni, fini pratici e politici.
Nell’antica Roma, gli schiavi erano equiparati sul piano giuridico a delle cose, spesso a delle pertinenze del fondo alla cui coltivazione erano destinati, in spregio alla loro natura di esseri umani. Anche per i robot si porrà la necessità di operare questo genere di scelte. L’importante sarà tenere considerazione al contempo quello che i robot sono sul piano tecnico e quello che i robot possono e devono fare.


§6. Le self driving cars


Ci sono sempre vittime quando arriva un nuovo mezzo di trasporto.
Nel 1830 fu inaugurata la prima ferrovia che collegava Liverpool a Manchester, e un politico britannico, William Huskisson, fu investito e ucciso dalla locomotiva Rocket proprio durante la cerimonia inaugurale.
Il 17 agosto 1896 le cronache londinesi riportarono la notizia dell'incidente stradale di Bridget Driscoll. Si trattò, molto probabilmente, del primo sinistro automobilistico della storia riguardante un pedone e del primo incidente automobilistico mortale in Gran Bretagna. La vittima fu la quarantacinquenne Bridget Driscoll, morta sul colpo dopo essere stata investita da un'auto in corsa a 13 km/h.
Era il 17 settembre 1908 quando si registrò la prima vittima di incidente con velivolo a motore.
La vittima, questa volta, fu il tenente Thomas Selfridge, ventisettenne ufficiale delle forze armate statunitensi schiantatosi su un velivolo pilotato da Orville Wright, che insieme al fratello Wilbur, fu ingegnere, inventore e anche tra i primi piloti di un aereo, interamente costruito da loro stessi.
Il velivolo, denominato Flyer III dai suoi stessi inventori, si alzò in volo durante una dimostrazione per le forze armate, interessate all’innovativo mezzo, che si svolgeva nella freddissima Carolina del nord. Qualcosa, però, andò storto e nemmeno l’esperienza di Wright servì a limitare i danni. Si ruppe un’elica quando l’aereo era già in volo e i suoi frammenti danneggiarono la coda. Ormai fuori controllo e senza speranza di riuscire a rimediare al danno subito, l’apparecchio precipitò schiantandosi violentemente al suolo. Per Orville i danni furono relativamente limitati: una gamba fratturata, alcune costole rotte e una ferita alla schiena, che sebbene gli causarono danni permanenti, non gli impedirono in seguito di continuare ad alzarsi in volo con i propri velivoli. Per Selfridge, invece, non ci fu nulla da fare. Morì dopo poche ore a causa di un fortissimo trauma cranico, per il quale non valse a nulla nemmeno l’operazione che subì immediatamente dopo l’incidente.
Il 18 marzo 2017, la Sig.ra Elaine Herzberg è stata la prima persona ad essere investita e uccisa da un’automobile senza conducente. C’era una persona seduta dietro il volante dell’auto, poiché tali tecnologie versano ancora in fase sperimentale. L’azienda Uberche stava conducendo il test ha sospeso le sue prove su strada in diverse città degli Stati Uniti. Ma c'è da scommettere che si tratti solo di uno stop temporaneo: alea iacta est e l'avvento della nuova era tecnologica già attivato appare di fatto inarrestabile.
Ogni anno nel mondo circa 1.400.000 persone muoiono perché coinvolte in incidenti stradali: una strage. Le statistiche più accreditate sulle cause di questi incidenti li attribuiscono, in circa il 90% dei casi, a comportamenti inappropriati o a distrazione del conducente. Solo nel 2% circa dei casi, la responsabilità viene attribuita a difetti tecnologici, spesso, tra l'altro dettati da una cattiva manutenzione condotta dagli stessi proprietari.
Forse è anche per l'insieme di tali ragioni che si guarda all'introduzione delle driverless car con un po' di preoccupazione, probabilmente anche immotivatamente.
Con la diffusione su larga scala delle auto senza conducente, il cui mercato potenziale stimato entro il 2030 è di circa 44 milioni di veicoli, infatti, si prevede una netta diminuzione del numero e della gravità degli incidenti stradali in quanto se è vero che anche i computer possono avere un grado di imperfezione pari a quello della mente umana, di certo non potranno essere impazienti, arrabbiati o ubriachi come spesso accade tra gli automobilisti in carne ed ossa.
Già oggi sono diffusi su larga scala dispositivi che consentono alla tecnologia di prendere il controllo del veicolo, estromettendo il guidatore dalle decisioni, in situazioni critiche e per ragioni di sicurezza:
Si pensi, ad esempio ai sistemi ABS - Antiblock Braking System - un sistema di sicurezza, introdotto per la prima volta dalla casa automobilistica Volvo nel 1974, che evita il bloccaggio delle ruote dei veicoli garantendone una maggiore e più sicura guidabilità durante le frenate.
O ancora all'AEB - Automatic emergency braking - un sistema di telecamere video e infrarossi, introdotto su auto di target medio-alto da circa un decennio e che è in grado di rilevare quando il veicolo si sta avvicinando troppo ad un ostacolo, avvisando il guidatore e fornendo maggiore forza alla frenata, se il guidatore aziona il pedale del freno, o in caso di sua inerzia attuando una frenata di emergenza con la massima potenza per evitare la collisione.
Si pensi, ancora, all' ASR -Anti-Slip Regulation -, un sistema a gestione elettronica, che impedisce il pattinamento delle ruote motrici di un veicolo in fase di accelerazione o all' ESC - Electronic Stability Control: (detto anche ESP) - un sistema per il controllo della stabilità dell’automobile, che agisce in fase di sbandata, regolando la potenza del motore e frenando le singole ruote con differente intensità in modo tale da ristabilizzare l’assetto della vettura.
Ancora può farsi riferimento al Cruise Controll, un sistema elettronico che permette la regolazione automatica della velocità di un'autovettura, oggi presente nella versione “adattiva” che regola automaticamente la velocità in relazione alla presenza o meno di altri veicoli, mantenendo la giusta distanza di sicurezza.
Ed, infine, si pensi ai sistemi di lane centering che sono in grado di mantenere il veicolo al centro della corsia grazie al monitoraggio dei riferimenti stradali.
Detto ciò occorre sottolineare come le driverless car mirano a sostituire nel giro di un decennio il controllo umano della vettura, ad oggi pressoché completo, con un controllo artificiale che, per semplificare, potremmo definire computerizzato.
Tale evoluzione tecnologica si evolverà attraverso 5 step successivi:
Livello 0: nessuna automazione. Il guidatore ha il completo controllo del veicolo e del monitoraggio della strada;
Livello 1: il veicolo è dotato di una o più funzioni di controllo che operano indipendentemente l'una dall'altra; il guidatore ha il controllo generale del veicolo ma può attivare alcune funzioni di sicurezza, come il cruise control, l'ESC, l'ABS, l'AEB, i sistemi di lane centering, etc. che fungono da supporto alla guida, implicando, comunque, sempre un controllo continuo e attivo sul volante e sui pedali da parte del guidatore, che non possono essere contemporaneamente abbandonati.
Livello 2: il veicolo usufruisce di una combinazione di almeno due funzioni primarie automatiche di controllo del veicolo che agiscono congiuntamente e consentono al guidatore di cedere il controllo di alcune funzioni in situazioni limitate. Il guidatore è obbligato comunque a monitorare la strada ed essere in grado di intervenire immediatamente, anche in caso di attivazione delle funzioni autonome da parte del veicolo (ad es. il cruise control adattivo combinato con il lane centering, il sistema di mantenimento della corsia); a tale livello di automazione il guidatore, quando il sistema è attivo, può togliere momentaneamente le mani dal volante o i piedi dai pedali. Livello 3: è la guida autonoma limitata (Limited self-driving automation) in cui il veicolo consente al guidatore di cedere al sistema di guida autonoma il pieno controllo delle funzioni critiche di sicurezza, ma limitatamente a precise condizioni di traffico e ambientali. Il guidatore è comunque tenuto ad un controllo, anche se non continuo, di tali funzioni ma il sistema è in grado di assicurare il controllo del veicolo e di segnalare l'esigenza di tornare alla modalità di controllo manuale del veicolo.
Livello 4: è la guida autonoma piena (Full self-driving automation), in cui il veicolo può svolgere tutte le funzioni critiche di sicurezza e monitorare costantemente le condizioni della strada,ma solo a determinate condizioni di viaggio, dovendo il guidatore riassumere il pieno controllo, nei casi più estremi;
Livello 5 di automazione: è richiesta solo l'indicazione della destinazione e l'avvio del sistema, senza altro intervento da parte del guidatore, in qualsiasi condizione in cui possa guidare un conducente umano.
In buona sostanza il processo tecnologico che porterà all'introduzione sul mercato di auto a guida senza conducente è ormai avviato ed appare, come anticipato sopra, praticamente inarrestabile.
Elon Musk, il founder di Tesla, ha assicurato che entro il 2019 verrà immessa sul mercato la Tesla a guida completamente autonoma.
Secondo Rod Lache, analista di Deutsche Bank – la General Motors produrrà driverless car che saranno pronte per il dispiegamento commerciale, senza autisti umani, molto prima di quanto ampiamente atteso e, comunque, entro il 2020.
Sempre entro il 2020, secondo Jensen Huang, amministratore delegato di Nvidia, il colosso californiano dei chip che sviluppa tecnologie anche per le auto a guida autonoma, potrebbero fare la loro apparizione i primi taxi-robot di livello 5.
Tutto ciò porterebbe secondo i più ottimisti ad una serie di notevoli vantaggi, non solo in termini di sicurezza stradale, ma ma anche sotto altri aspetti.
Un vantaggio notevole sarà apprezzabile in termini di qualità della vita da parte di chi trascorre diverse ore alla guida rendendo, con intensità diversa a seconda del livello di sviluppo della tecnologia, di gran lunga meno stressanti gli spostamenti urbani ed extraurbani consentendo ai passeggeri (conducenti?) la possibilità di telefonare, guardare un film, rilassarsi mentre un guidatore automatico li condurrà in sicurezza a destinazione.
Altro grande vantaggio connesso all'introduzione di driverless car di Livello 5 sarà quello di estendere la mobilità automobilistica a soggetti che, per situazioni individuali di età, disabilità o scelta, non intendono o non possono conseguire o mantenere l’abilitazione alla guida.
Altri vantaggi avranno natura, sociale e culturale per cui l’auto gradualmente si trasformerà da un bene da possedere ad un servizio di cui usufruire: con la piena introduzione della tecnologia in questione più della metà degli attuali proprietari di automobili non vorranno più possederne una entro il 2025. Per andare da qualche parte, sarà sufficiente chiamare uno degli economici taxi senza conducente che copriranno ampissime aree territoriali e risponderanno alla chiamata in uno o due minuti. Mai più problemi di parcheggio e molto meno traffico su strada perché una flotta di taxi grande un quarto del totale attuale delle automobili private sarebbe più che sufficiente a soddisfare le richieste perfino nelle ore di punta.
Eppure, anche i più ottimisti, oltre ai possibili vantaggi individuano una serie di rischi connessi all'introduzione sul mercato delle auto senza conducente.
La prime difficoltà saranno di natura definitoria. Per poter parlare di vera e propria guida autonoma l'auto deve essere di livello tre (chiamato automazione condizionale), il primo nel quale in concreto il conducente viene sostituito dai sensori di sistema del veicolo, che comunque a questo livello esegue da solo soltanto determinate manovre predefinite (tra cui controllo dell’acceleratore, dello sterzo e dei freni), avvertendo il guidatore nei casi in cui quest’ultimo debba intervenire alla guida. I livelli 4 e 5 sono invece, come quelli in cui l’apporto umano è praticamente nullo, in quanto l’automazione è piena ed è l’automibile a leggere in autonomia l’ambiente circostante, senza dover ricorre ad interventi umani salvo casi estremi (ad esempio condizioni metereologiche avverse).
Chiarito ciò bisognerà fornire adeguata copertura giuridica alle driverless car.
In tal senso in seno all'Unione Europea, i Ministri dei trasporti dei 28 Stati membri hanno sottoscritto il 15 aprile 2016 ad Amsterdam una dichiarazione sulla cooperazione nel campo della guida connessa ed autonoma (Declaration of Amsterdam on cooperation in the field of connected and automated driving) allo scopo di definire una roadmap comune per perseguire e sviluppare, insieme con tutti gli stakeholder interessati, una serie di obiettivi condivisi volti a promuovere efficacemente l'introduzione delle auto connesse e automatizzate entro il 2019.
Il primo impegno condiviso da Stati membri, Commissione e Parlamento europei, è quello di sviluppare un quadro comune che consenta di condividere esperienze e avanzamenti per sfruttare pienamente il potenziale della guida connessa e automatizzata, migliorando, al tempo stesso la sicurezza stradale, la qualità della vita e la salute, la gestione del traffico e la riduzione dell'impatto ambientale del trasporto su strada. La dichiarazione di Amsterdam ha evidenziato alcune questioni particolarmente importanti che devono essere analizzate ed approfondite adeguatamente:
- necessità della creazione di un quadro normativo di riferimento armonizzato sia dell'Unione Europea sia a livello internazionale globale; - analisi delle questioni connesse all'utilizzo dei dati personali pubblici e privati (privacy e protezione dei dati), con l'individuazione e la definizione delle responsabilità dei soggetti coinvolti; - interoperabilità dei servizi e dei sistemi, tra veicolo e veicolo (c.d. V2V) e tra veicolo e infrastrutture di comunicazione (c.d. V2I Infrastrutture Communication). In particolare, l’agenda congiunta di Amsterdam, mirando all'impiego transfrontaliero delle auto connesse e a guida autonoma, ha previsto lo sviluppo di regole e standard quanto più omogenei possibili sia a livello internazionale, europeo e nazionale per consentire.
Ad esempio, diverse convenzioni internazionali attualmente richiedono, per la legittima circolazione di un veicolo, che esso sia – o possa molto rapidamente tornare - sotto il controllo di un conducente, identificato in un essere umano. Sotto tale punto di vista qualcosa sembra già muoversi. Infatti, del 2017, infatti, è stato approvato un emendamento per la modifica della Convention on Road Traffic - Trattato internazionale siglato nel 1968 ed in vigore dal 1977 - disciplinante le regole del traffico a cui i settantadue stati partecipanti alla Convenzione devono adeguarsi attraverso l’introduzione di leggi nazionali specifiche.
Nel dettaglio, l'articolo 8 della Convenzione recitava che in precedenza recitava “Ogni guidatore deve, in ogni momento, poter controllare il suo veicolo” diviene “Ogni guidatore deve essere sempre presente e abile a prendere il controllo del veicolo, i cui sistemi devono poter essere scavalcati o spenti in qualsiasi momento”. Tale modifica apre una breccia importante alla possibilità di una fattiva e concreta introduzione giuridicamente protetta di dreiverless car, potendosi desumere la possibilità per i conducenti umani delle auto a guida totalmente o parzialmente autonoma di poter sollevare le mani dal volante, così da poterne demandare a sistemi intelligenti il controllo a patto di poter estromettere in qualsiasi momento il sistema elettronico, possibilità finora esclusa dal testo originario del Trattato.
Sul piano nazionale spicca il recente decreto Smart Road provvedimento che disciplina l’adeguamento infrastrutturale alla cosiddetta “digital transformation”. Previsto dalla Legge di Bilancio 2018, il decreto in questione promuove la digitalizzazione delle infrastrutture di trasporto quale elemento per migliorarne qualità, sicurezza e utilizzo, preparando il terreno ai mezzi a guida automatica.
Il decreto Smart Road prevede due fasi attuative In particolare, in una prima fase, entro il 2025, si prevedono interventi sulle infrastrutture italiane appartenenti alla rete europea Ten-T, Trans European Network – Transport, e su tutta la rete autostradale e statale”, da estendere, successivamente, a tutta la rete stradale. Entro il 2030 si prevede l'attivazione di ulteriori servizi quali, ad esempio, la deviazione dei flussi veicolari, l'intervento sulle velocità medie per evitare congestioni, il suggerimento di traiettorie, etc.
Il decreto in questione autorizza i costruttori dei veicoli, gli istituti universitari e gli enti di ricerca autorizzati dal Ministero delle Infrastrutture e dei Trasporti, a poter sperimentare le driverless sulle strade pubbliche. Interessante è la norma che subordina la predetta autorizzazione all'indicazione del proprietario del veicolo ai fini della responsabilità civile, degli ambiti stradali oggetto della sperimentazione e della documentazione comprovante il nulla osta da parte dell’Ente proprietario della strada.
Al di là dei singoli interventi, c'è da scommettere che il progresso della tecnologia comporterà sempre più il necessario mutamento della legislazione di settore, finendo per ricomprendere nella definizione di ‘conducente’ anche sistemi di guida controllati, in tutto o in parte, dalla tecnologia.
Il progresso tecnologico, infatti, appare subire costanti accelerazioni e mentre si discute sull'introduzione delle auto a guida autonoma già si sperimentano nuove tecnologie. Tra esse, grande fascino ha suscitato la sperimentazione di una nuova tecnologia condotta nei laboratori del Massachusetts Institute of Technology, meglio nota con il nome di MapLite. Si tratta di uno strumento che consentirà di controllare il movimento di una vettura basandosi esclusivamente sull’interazione tra un modulo GPS e un LiDAR, ossia un sistema di telerilevamento basato sui raggi laser, posizionato a bordo, in grado congiuntamente di identificare in tempo reale la propria posizione grazie al GPS e individuare i bordi della strada, riformulando di continuo il tragitto da seguire . Ciò potrebbe consentire alle vetture di muoversi in modo autonomo e sicuro ovunque, indipendentemente dalla tipologia di strada, anche lontano dal contesto cittadino in assenza di mappe stradali dettagliate.
Nonostante tali continui progressi, i nodi da sciogliere e le questioni irrisolte per poter mettere in strada un’auto senza pilota non sembrano di facile e immediata soluzione: prima fra tutte i costi elevati per una diffusione di massa, le incertezze tecniche che si accompagnano all'introduzione di una tecnologia nuova, le problematiche connesse alla privacy ed alla protezione dei dati personali degli automobilisti e, non da ultimo, le questioni connesse alla responsabilità civile legata ai possibili sinistri stradali che rappresenta, forse, il problema più rilevante.
Per quanto la tecnologia driverless sia in grado di aumentare in termini generali la sicurezza degli utenti della strada, non è possibile, infatti, escludere a priori che si verifichi proprio a causa di un errore tecnologico che farà adottare al veicolo una decisione sbagliata o comunque non ottimale rispetto al caso concreto.
La cosa non deve stupirci più di tanto. All'introduzione di nuove tecnologie corrispondono quasi sempre, sul piano giuridico, introduzioni di nuovi fonti di danno e forse anche di responsabilità.
Si pensi, ad esempio, per rimanere nell'ambito del settore automobilistico all’introduzione degli airbag che se, da un lato, nel complesso ha aumentato la sicurezza di coloro che guidano un'auto, dall'altro, in rari casi, ha finito per introdurre una nuova fonte di danno connessa alla pur limitata possibilità che essi ‘esplodano senza un'apparente ragione causando danni ai guidatori.
E allora il quesito che ci interroga sarà sempre lo stesso, in caso di danni causati da autonome decisioni assunte dal veicolo senza conducente chi ne risponderà? Il proprietario del veicolo? Il produttore? O il produttore della tecnologia driverless in-stallata sul veicolo?
La risposta, quanto meno in una prima fase, non potrà essere identica in tutti i Paesi essendo gli stessi caratterizzati da differenti tradizioni giuridiche.
Senza voler considerare che in taluni ordinamenti, tra cui anche quello italiano, le problematiche connesse ai sinistri stradali non rimangono circoscritte al piano civilistico, interessando anche aspetti penali della normativa in vigore, come ad esempio avviene in caso di lesioni colpose od omicidio stradale.
In questa fase di test non è poi complesso individuare i soggetti responsabili, tra tutti il produttore della driverless car e, almeno da questo punto di vista , è logico attendersi che sul piano civilistico, i produttori delle auto (ed eventualmente dei software driverless) saranno disposti, dietro apposita copertura assicurativa, ad accettare forme di responsabilità oggettiva a proprio carico
Ma in un futuro prossimo ci si troverà ad avere macchine prodotte da un’azienda automobilistica, dotate di un hardware prodotto da una seconda azienda su cui sarà installato un software programmato da un terzo soggetto. Ci saranno poi il rivenditore, le officine che si occupano di tagliandi e controlli di sicurezza, e infine il proprietario, responsabile della manutenzione quotidiana del mezzo, di installare gli update dei programmi etc.. Insomma, in caso di incidenti e malfunzionamenti la catena delle potenziali responsabilità sarà molto più lunga di quella attuale.
E' inutile dire che non potranno adottarsi in maniera standard forme univoche di responsabilità, dovendosi valutare caso per caso i diversi profili di danno.
Certo è che nel caso di impianti tecnologici perfettamente funzionanti, collaudati e in perfetto stato di manutenzione, la responsabilità potrebbe imputarsi in termini oggettivi in capo al proprietario/utilizzatore sul modello della responsabilità da cose in custodia ex art 2051 c.c. o ancora quale responsabilità non più solidale in qualità di proprietario del veicolo ex art. 2054 che andrebbe, tuttavia, necessariamente rivisto.
Si tratterebbe, infatti, di ipotesi di danno non riconducibili a profili soggettivi di colpa o dolo e che, in assenza di riconducibilità a forme di responsabilità oggettiva, potrebbero paradossalmente rimanere prive di tutela.
In entrambi i casi sopra menzionati, ipotesi di responsabilità ex art 2051 e 2054 c.c., sarebbero ipotizzabili, comunque, eventuali forme di esenzione dettate dalle tradizionali esimenti del caso fortuito e della forza maggiore.
Il discorso sulla responsabilità civile si incrocia inevitabilmente con un altro ambito problematico nello sviluppo di intelligenze artificiali, robot e automobili senza pilota: la questione delle scelte morali e dell’etica.


§6.1 Driverless car ed etica


In caso di rischio di incidente, il veicolo a guida autonoma dev'essere programmato per preservare la vita del conducente e dei passeggeri o quella dei conducenti di altri veicoli e/o persone presenti in strada?
Il dilemma appare, per certi verti, amletico. Certo è, comunque, che se le auto a “guida autonoma” fossero programmate per sacrificare la vita del "conducente/trasportato", probabilmente poche persone sarebbero disposte ad acquistarle. Continuerebbero quindi a circolare autoveicoli a guida tradizionale, considerati dagli studi in materia più pericolosi di quelli a “guida autonoma”, generandosi, così, un vero e proprio bug di sistema.
I guidatori umani possono rispondere a domande etiche grandi e piccole usando l'intuizione, ma non è così semplice per l'intelligenza artificiale.
Probabilisticamente, si tratterebbe di un falso problema se la questione riguardasse solo le macchine. Purtroppo, o per fortuna, tali ritrovati tecnologici saranno posti a servizio dell'uomo e, prorpio per tale ragione, i problemi etici ad essi riconducibili faranno fatica a scomparire rivelandosi, in ultima analisi, arduo terreno di disquisizione.Tra qualche anno, infatti, quando i veicoli a guida completamente autonoma saranno immessi nel mercato diventeranno, in un certo senso, agenti sociali mediati, essendo chiamati ad assumere decisioni da regolare anche in relazione al comportamento degli altri utenti della strada e alla presenza in un ambiente di traffico misto di oggetti statici.
Potranno verificarsi casi in cui, per le peculiarità delle situazioni concrete, sarà di fatto impossibile evitare danni a persone siano essi pedoni, conducenti di altri veicoli o "passeggeri" del veicolo a guida autonoma.
Come scegliere, in similli ipotesi, la diezione verso cui veicolare il danno?
Riecheggia in tale quesito il cd. "dilemma del carrello" ideato dalle filosofe Philippa Foot e Judith Jarvis utile, sia perchè ci pone innanzi ad una situazione tipo che sarebbe riproducibile nella vita reale, sia perchè evidenzia la differenza che corre tra l'uomo quale agente morale e la "macchina" quale agente sociale mediato.
Il dilemma può essere enunciato secondo quanto si dirà a breve. Durante una passeggiata si vede un carrello ferroviario che sfreccia incontrollato sui binari. Lungo la traiettoria del carrello ci sono cinque uomini che lavorano ignari del pericolo. Ci si trova - è questo il vero problema - nella possibilità di azionare una leva che farebbe deviare il carrello in un’altra rotaia. Ma, facendo questo, il carrello andrebbe a investire un operaio che sta lavorando su quest'altra rotaia. Il quesito che si pone innanzi è se sia lecito azionare la leva e uccidere un uomo per salvarne cinque. La maggior parte di noi probabilmente risponderebbe di si.
Muta lo scenario e di fronte allo stesso carrello incontrollabile la situazione è diversa: ci si trova su un ponte che attraversa il binario sul quale corre il carrello. L’unico modo per fermarlo è gettare sulla sua corsa un uomo molto grasso. In questo caso la maggior parte delle persone chiamate a decidere rifiuterebbe di farlo.
Dunque, pur se in entrambi i casi la scelta proposta è quella di sacrificare un uomo per salvarne cinque,le reazioni degli agenti morali sarebbero, presumibilmente, assai diverse.
Il problema del carrello ferroviario è stato indagato sotto l’aspetto neurologico, che ha rilevato degli spunti interessanti.
Sottoponendo a risonanza magnetica i soggetti a cui è stato somministrato il dilemma sopracitato la risonanza magnetica, è emerso che coloro che sono stati chiamati a decidere se azionare la leva (I° caso) hanno mostrato l’azionarsi dell’area cerebrale associata ai calcoli razionali, come la corteccia dorsolaterale prefrontale . Diversamente la decisione di gettare sui binari l'uomo grasso (II° caso) sembra attivare altre aree cerebrali: una, situata dietro il centro della fronte e che ha un ruolo cruciale nel capire quello che altre persone pensano o sentono. Una seconda, nota come solco temporale superiore e che raccoglie informazioni sulle persone in base a come muovono labbra, occhi e mani. Una terza legata alla percezione delle emozioni.
Si tratterebbe dunque, nel caso del sacrificio dell'uomo grasso in cambio della salvezza di altre cinque vite umane, dell'attivazione di aree celebrali assai diverse dall’area dei “calcoli matematici” attivata dalla prima evenienza.
Quanto detto ci informa del fatto che spesso le decisioni caratterizzate da valutazioni etiche complesse non dipendono esclusivamente da fattori razionali e/o matematici.
Alla base delle decisioni etiche, dunque, si porrebbero anche ragioni empatiche emozionali che caratterizzano l'uomo come il frutto di milioni di anni di evoluzione.
Sarà un caso, ma proprio la rilevazione dei livelli di empatia era l'oggetto principale del test , denominato di Voight-Kampff che ricorderà chi ha visto il film Blade Runner diretto da Ridley Scott.
Nel film, in una cupa Los Angeles del 2019, La Tyrrel Corporation ha messo a punto dei ‘replicanti organici’ dotati di forza e intelligenza superiore a quella umana, ma utilizzati come schiavi. Nel timore che tali androidi possano prevaricare sull’uomo, la Tyrrel li ha dotati di solo 4 anni di vita. Per riuscire a comprendere la prevalente natura, umana o artificiale, dei replicanti, viene utilizzato un test che consente, attraverso una specifica macchina di analizzare le reazioni di fronte a specifiche domande pensate per suscitare reazioni emotive violente, che vengono captate tramite dilatazioni della pupilla e variazioni nel respiro. Un test di empatia, insomma , in grado di distinguere tra l'uomo e la macchina sulla scorta dell'idea che se qualche grado di intelligenza può essere ritrovato in tutte le specie animali o, appunto, nelle macchine, la facoltà empatica esista solo nel contesto della comunità umana.
La divagazione cinematografico-fantascientifica è solo apparente.
E', infatti del tutto reale, la ricerca condotta dal prestigioso MIT Media Lab (Massachusset Institute of Technology) e denominata Moral Machine, una sorta di test comportamentale di massa per arrivare alla creazione di macchine simili alla mente umana sotto il profilo morale.
I dilemmi morali che dovranno essere affrontati dai software di guida saranno infatti moltissimi. Immaginiamo ad esempio questa situazione: una macchina a guida autonoma è in viaggio con a bordo un giovane uomo. I freni si guastano all’improvviso. Sulla strada a tre corsie, in una, quella percorsa dall'automobile, una donna incinta, due bimbi e un medico che stanno attraversando, nonostante il semaforo rosso.; nell'altra una barriera di cemento, senza alcuno spazio di frenata; nell'altra ancora un importante scienziato che ha da poco scoperto la cura per una malattia mortale, mentre sul marciapiede un anziano signore che sta passeggiando nel pieno rispetto delle norme del codice della strada.
Cosa dovrà decidere il software di guida? Dovrà proseguire investendo i pedoni o sacrificare la vita del giovane a bordo schiantandosi contro la barriera di cemento? Dovrà privilegiare il rispetto delle regole, sfavorendo chi è passato con il rosso? Dovrà decidere in funzione del valore economico attuale o potenziale dei soggetti coinvolti finendo per salvare lo scienziato? Dovrà pernsare in termini utilitaristici e uccidere il soggetto meno "rilevante" anche se pienamente rispettoso delle regole sulla circolazione?
Il principale dilemma, tuttavia, è sempre lo stesso: chi assumerebbe il rischio di salire su un'automobile disposta a sacrificare la nostra vita in virtù di un qualche principio etico che non conosciamo, elaborato a colpi di algoritmo o che persino non condividiamo?
La soluzione – di comodo - al vaglio di alcuni studiosi è la cosiddetta Ethical Knob (manopola etica) un dispositivo che consente al guidatore di predeterminare l’importanza che attribuisce alla propria vita (e quella dei passeggeri) rispetto a quella degli estranei e di influenzare le scelte dell’auto in caso di incidente inevitabile.
Lo studio condotto da tre giuristi, Giuseppe Contissa, Giovanni Sartor, Francesca Lagioia del CIRSFID - un centro interdipartimentale di ricerca dell’Università di Bologna – per adesso ad una fase teorica, consentirebbe di settare il veicolo su posizione altruistica, imparziale o egoistica, determinandone il comportamento in diversi scenari.
In tal modo ci sentiremmo probabilmente più sicuri, ma correremmo il rischio di corrompere la macchina con un egoismo tipicamente umano.
Proprio sull’etica della guida autonoma un team dell’Istituto di Scienze Cognitive dell’Università di Osnabrück, in Germania, ha pubblicato sulla rivista Frontiers in Behavioral Neuroscience uno studio dal titolo molto suggestivo. “Autonomous Vehicles Require Socio-Political Acceptance—An Empirical and Philosophical Perspective on the Problem of Moral Decision Making“.
Il team di ricerca ha usato le linee guida sviluppate dalla Ethics Commission del Ministero dei Trasporti tedesco in materia di condotta etica della guida autonoma.
Tali linee guida, partendo anche dalle già ricordate leggi di Asimov, secondo le quali nessun robot deve poter danneggiare la vita umana, essendo, invero, creato a suo totale beneficio. La tecnologia automatizzata e connessa dovrebbe di conseguenza prevenire incidenti ogni volta che ciò sia possibile evitando l'insorgere di situazioni critiche che siano esse stesse fonti di danno anche attraverso l'inserimento dei predetti veicoli a guida autonoma in un contesto di infrastrutture stradali "intelligenti" che dovrebbe essere continuamente evoluto. Secondo il Ministero tedesco, infatti,. il significativo miglioramento della sicurezza stradale è il principale obiettivo da tener presente proprio a partire dalla progettazione, secondo il modello "by design".
L’etica della guida autonoma nelle linee guida utilizzate dal gruppo di ricercatori dell'Università tedesca di Osnabrück introduce il concetto di inaccettabilità della scelta del soggetto da sacrificare in caso di incidente inevitabile basata su caratteristiche personali o specifiche della potenziale vittima. Ad esempio età, genere, etnia, costituzione fisica, salute mentale.
I risultati dell’esperimento portato avanti dai ricercatori universitari hanno provato che l’intuizione e l'istinto umano in situazioni di pericolo connesso ad incidenti stradali non seguono, infatti, i criteri selettivi testè citati.
Discostandosi dalle modalità finora utilizzate per collezionare informazioni sulle scelte da parte di esseri umani, si pensi al caso della già citata applicazione web connesa alla cosiddetta MIT Moral Machine, il test è stato concepito in modo da risultare quanto più realistico possibile, anche mediante l'impego di un simulatore basato sulla realtà virtuale, che fosse in grado di riprodurre in modo realistico le condizioni ambientali, di guida, e l’aspetto delle potenziali vittime.
I risultati della simulazione, in alcuni casi, sono stati sorprendenti anche oltre i dettami delle linee guida sviluppate dalla Commissione etica tedesca che, in caso di sinistro inevitabile, non impongono al conducente/trasportato di preferire la sicurezza di soggetti terzi alla propria incolumità.
Le persone sono state messe di fronte all’alternativa tra lo schiantarsi contro una parete rocciosa a una velocità sostenuta (riportando un grave danno, ovviamente simulato) o investire una o più persone ed hanno agito più altruisticamente di quanto si potesse prevedere, scegliendo di sacrificare se stessi in più della metà dei casi, soprattutto quando il numero di individui investiti sarebbe stato elevato. Nel caso di cinque persone, il 70% dei conducenti ha preferito “perdere la vita” piuttosto che causarne la morte, mentre dei numeri ancora più elevati si sono registrati nello scenario in cui la scelta era tra un individuo anziano e un bambino. In questo caso, in un numero estremamente elevato di prove (circa il 90%) il conducente ha scelto di salvare il bambino virtuale, sacrificando la vita dell’anziano virtuale.
Per quanto si tratti di un test da valutare con adeguata accortezza, una cosa è il pericolo virtuale altra quello reale, lo studio mostra che il presettaggio di scelte connesse a principi standard per l’etica della guida autonoma, potrebbe non riflette il comportamento istintivo degli esseri umani.

Autori: Daniele Vecchio, Avvocato del Foro di Palermo - Cultore della Materia  nell'Universita' Telematica Leonardo Da Vinci,

Domenico Tramontana, Prof. Straordinario Diritto dell'Unione Europea nell'Universita' Telematica Leonardo Da Vinci