Tecnoscienza e diritto ai tempi del coronavirus

L'editoriale di Giorgia Guerra, ricercatrice in Diritto privato comparato nel dipartimento di Scienze giuridiche

Oggi la convergenza di scienza e tecnologia stimola la ricerca verso obiettivi pratici che forniscono risposte tempestive per contrastare la pandemia: cellulari che tramettono informazioni sullo stato di salute di chi si ha accanto; mappe satellitari che controllano i movimenti dei contagiati; robot che aiutano la famiglia a salutare il proprio parente isolato in ospedale; app che in base all’utilizzo dei Big Data intensificano il sistema di sorveglianza; software di rilevamento della temperatura “contactless”, sistemi AI di diagnosi precoce del Covid-19 che tramite scansioni tomografiche computerizzate rivelano, in pochi minuti, lo stadio della malattia. Internet diventa, dunque, uno spazio pubblico fondamentale, e non un semplice mezzo di comunicazione.

La via attraverso la quale il diritto attua le politiche cosiddette data driven, sfruttando le tecnologie per la raccolta e l’interpretazione di grandi volumi di dati, contempera la tensione tra libertà individuali e interessi collettivi, nonché la potenziale contrapposizione tra protezione dei dati e salute pubblica. Compiti resi ancor più impervi dall’assenza di un sistema sanitario a carattere globale.

Tra le tante forme del progresso, due sono attualmente preziose alleate dell’essere umano: il data tracing e la robotica collaborativa. 

Che cos’è il data tracing?

Secondo la definizione dell’Oms, il data tracing è uno strumento utilizzato per rintracciare, il prima possibile, tutte le persone venute in contatto con il contagiato e arrestare, così, il focolaio. Negli ultimi mesi, in alcuni paesi asiatici (Corea del Sud, Taiwan, Hong Kong e Singapore) sono state sperimentate applicazioni per il contact tracing, il tracciamento degli spostamenti e dei contatti delle persone, in modo da ricostruire più velocemente le catene del contagio con la geolocalizzazione. I risultati sono incoraggianti e benché anonimi, i dati forniti dal governo sono piuttosto dettagliati.  

Non ancora in uso in Italia, il governo ha lanciato una fast call per individuare le migliori soluzioni informatiche e di connettività per la teleassistenza, per il tracciamento continuo, l’alerting ed il controllo tempestivo del rischio, “al fine di agire in modo coordinato a livello nazionale”. Ad oggi, le proposte (ready to use) differiscono per scopo, funzionalità, tipologie di strumenti, collocazione e trasmissione dei dati, anche personali. Le potenziali soluzioni sarebbero, quindi, nelle mani di Pubbliche Amministrazioni, aziende e organizzazioni.

Le questioni giuridiche del data tracing

Le preoccupazioni dei giuristi sulle iniziative di contact tracing riguardano, in primis, la tutela dei dati personali (meta-dati; dati impliciti; dati sensibilissimi). Posto che il quadro normativo vigente in materia stabilisce standard elevati compatibili con un’efficace tutela di altri diritti, durante un’emergenza sono previste deroghe.

Pur tuttavia, la “privacy non va sospesa”: così si è espresso pochi giorni fa il Consiglio d’Europa, ribadendo l’importanza di bilanciare gli interessi, la centralità del principio di proporzionalità e gradualità delle misure da adottare, e la valutazione preventiva dei rischi connessi all’impiego dei dati personali. Ciò si traduce nel rispetto dei principi di necessità, temporaneità e trasparenza delle misure adottate. Tutti principi ribaditi dalle Linee guida, adottate dal Comitato europeo per la protezione dei dati nel 2019 e richiamati nella Dichiarazione sul trattamento dei dati personali nel contesto dell’epidemia.

A queste condizioni, il Consiglio non esclude l’impiego di altre forme di tracciamento non aggregate, ma sulle singole persone.

La possibilità, poi, che le applicazioni di data tracing acquisiscano i dati sugli spostamenti delle persone in forma anonima ben può fondarsi sull’art. 9 della direttiva e-privacy (applicabile in ragione della tipologia di dati in esame) che legittima l’acquisizione, anche in assenza del consenso dell’interessato, dei dati di ubicazione, purché appunto anonimi.  

Gli interventi ad hoc sul diritto alla protezione dei dati si sono, sinora, limitati alle previsioni del d.l. 14/2020 e a quelle delle primissime ordinanze di Protezione civile sullo stato di emergenza, sottoposte peraltro al vaglio del Garante. Si è trattato, in estrema sintesi, di alcune deroghe al regime ordinario di gestione dei dati personali, con prevalente riferimento all’ambito di comunicazione dei dati sanitari, senza tuttavia legittimare raccolte di dati particolarmente “innovative”.

L’impatto dell’emergenza coronavirus sulla strategia digitale europea.

Con il Libro Bianco del 19 febbraio 2020, la Commissione europea promuove un approccio antropocentrico all’intelligenza artificiale, volto ad incoraggiarne uno sviluppo affidabile, a promuovere l’eccellenza in una società aperta e un’economia dinamica e sostenibile.

L’emergenza coronavirus ha indotto la Commissione europea a ripensare la sua strategia digitale: alcune azioni legislative, considerate prioritarie prima della pandemia, potrebbero essere rinviate o modificate. In particolare, sebbene la Commissione non abbia ancora deciso se aprire le porte all’uso di dati globali negli algoritmi, ha già sottolineato l’importanza di disporre di dati di qualità in tempi rapidi per le applicazioni più critiche dell’intelligenza artificiale.

La robotica collaborativa e la sua disciplina

Detta anche “malattia della solitudine” per l’isolamento cui sono obbligati i malati Covid-19, la pandemia fa emergere l’utilità dei robot in situazioni di elevato pericolo per l’uomo. In un reparto di Wuhan, i robot, controllati da remoto, hanno svolto le più varie funzioni infermieristiche e collaterali (es. pulizia dei locali) per pazienti che necessitavano di cure basilari.

Sebbene, soprattutto nel caso di umanoidi, alcune ricerche psicologiche rilevino che queste macchine innescano nell’uomo un attaccamento emotivo sorprendentemente forte,essi rimangono pur sempre prodotti, e le loro azioni il risultato di operazioni algoritmiche. Come tali, ad essi, in via generale, si applica la disciplina prevista per la sicurezza dei prodotti e delle macchine. I potenziali rischi e pericoli associati ai robot dipendono dal tipo di intelligenza artificiale “embedded”. Dal punto di vista giuridico, le criticità che possono sorgere sono numerose con riferimento alle forme di AI più evolute, le machine learning: la definizione ex ante dello standard di sicurezza; la valutazione di un malfunzionamento da algoritmo; la disciplina dell’azione risultante dall’esecuzione della sequenza algoritmica, quando essa implica una scelta etica; la gestione delle questioni derivanti dall’area di intersezione tra cybersecurity e product safety.

Questi sono solo alcuni dei problemi al vaglio della Commissione europea al fine di adattare la regolamentazione vigente e accogliere, in modo responsabile, i benefici del progresso di cui la società – riconfigurata dalla pandemia – avrà sempre più bisogno.

Giorgia Guerra, ricercatrice in Diritto privato comparato

Allegati