Quando il robot e' la vittima
Si immagini un robot che svolge compiti assistenziali in un ospedale: somministra farmaci, dà primi consigli, chiama i medici e gli assistenti umani se necessario, controlla che gli impianti di supporto respiratorio e alimentazione dei pazienti siano connessi e provvede alle riparazioni e riattivazioni necessarie, e altro ancora. Un malintenzionato s’introduce nell’ospedale e sta per disconnettere un tubo respiratorio. Il robot rileva l’anomalia e interviene per evitare che accada o per ripararla. Il malintenzionato aggredisce il robot. Il robot reagisce attivando il sistema di allarme e, intanto, oppone resistenza all’umano aggressore. Alla fine il malintenzionato riporta lesioni personali.
La domanda in termini giuridici è la seguente: vi è responsabilità per le lesioni riportate dal malintenzionato? E di chi?
Per rispondere dobbiamo presupporre alcune cose, come, per esempio, che il robot sia stato progettato incorporando alcune regole etiche, come le leggi di Asimov: 1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. 2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. 3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non con-trasti con la Prima o con la Seconda Legge.
La condotta del robot del nostro esempio, che viola prima facie la prima legge, avendo arrecato danno a un umano, si presta però a diversa considerazione alla luce delle altre "leggi". Infatti, il secondo inciso della prima legge impone al robot di "non permettere che, a causa del proprio mancato intervento, un essere umano riceva danno", tanto che si potrebbe dire che il robot, che fosse rimasto inerte di fronte all’aggressore (che, si badi bene, in prima battuta aggrediva un impianto medico e non il robot direttamente) e non avesse tentato di conservare quella funzionalità a garanzia del paziente, avrebbe violato proprio quella legge. In più, si è visto che la condotta del malintenzionato, in prima battuta indirizzata al tubo per la respirazione, si volge poi contro il robot, che quel tubo vuole preservare. Se, nel corso della colluttazione che segue tra uomo e robot, l’umano ha la peggio, il robot può invocare la terza legge di Asimov, secondo la quale il robot "deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge". Come si è detto la condotta del nostro robot non contrasta né con la prima, né con la seconda legge di Asimov, secondo la quale il robot "deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge", che abbiamo visto essere rispettata.
Nell’analisi di questo caso, alla luce delle "leggi di Asimov", si ode l’eco di ragionamenti di diritto positivo:
sembra potersi escludere la responsabilità del produttore, perché quanto accaduto non può dirsi conseguenza di un difetto di progettazione o di fabbricazione;
sembra potersi escludere anche la responsabilità dell’utilizzatore (l’ospedale), perché l’accaduto è conseguenza di una condotta sicuramente anomala dell’aggressore. L’utilizzatore ha evidentemente impostato correttamente le opzioni del robot, mentre sarebbe stato diverso se, ad esempio, il robot avesse aggredito un familiare in visita o un addetto alle pulizie. Il robot ha reagito a un malintenzionato che stava per arrecare danno a un terzo indifeso;
si può dire che il robot era nello svolgimento di un compito assistenziale, e che quindi stava adempiendo a un dovere;
in questa prospettiva la sua condotta è scusata, secondo le categorie civilistiche e… anche penalistiche (art. 51 c.p.).
L’aggressore dovrà, dunque, subire le conseguenze delle proprie azioni senza poter invocare la responsabilità di chicchessia, robot incluso.
(Fonte: Santosuosso A., Diritto, scienza, nuove tecnologie, Cedam, Padova 2011, pp. 276-277)