Viviamo in tempi in cui la tecnologia ci mette di fronte a situazioni nuove ed  estremamente interessanti. Soprattutto l’intelligenza artificiale (IA) ci spinge a esplorare nuovi territori nel campo dell’etica, della morale e della giustizia.

Se le questioni sulla ipotetica personalità giuridica delle IA, con i diritti che ne deriverebbero, saranno ancora per un bel po’ appannaggio degli scrittori di fantascienza, già oggi la tecnologia è arrivata al punto da generare situazioni nuove, che devono essere adeguatamente considerate dagli organi di governance aziendale e dai responsabili delle valutazioni dei rischi.

Prendiamo ad esempio alcuni casi, in parte già verificatisi e in parte ipotetici, ma tutti basati su tecnologie disponibili allo stato attuale.

Il diritto d’autore dell’intelligenza artificiale

Ogni giorno, migliaia di notizie su finanza, sport, meteo e altre materie in cui le informazioni principali si possono esprimere con dati numerici, vengono scritte non da giornalisti, ma da algoritmi di Natural Language Processing, branca dell’intelligenza artificiale. Un esempio:

“La Colliverdi ha battuto il Mareblu per tre reti a zero, grazie a un gol di Tizio e una doppietta di Caio, che con cinque gol segnati nelle ultime quattro partite si porta a una sola posizione dal capocannoniere Sempronio, che guida la classifica con 14 reti”. 

Notizie come questa (o anche più lunghe) si possono scrivere automaticamente a partire dal semplice dato del risultato della partita. Viene a questo punto da chiedersi: può l’intelligenza artificiale che ha generato quei testi  esercitare su di essi il diritto d’autore? La risposta più ovvia è: no, perché solo un umano può essere autore. In questo caso, però, come farebbe a tale diritto a trasferirsi all’editore che pubblica le notizie, e come farebbe questo a cederlo in licenza ad altri, o difenderlo nei confronti di terzi che volessero copiare le notizie?

Per un editore, la capacità di difendere il copyright delle proprie opere in un tribunale è strategica, e gli organi di controllo aziendali dovrebbero essere informati se fosse in qualche modo compromessa o limitata. Allo stesso modo, board e investitori delle società tecnologiche che stanno sviluppando questi sistemi, così come altri nel campo della musica e della grafica, dovrebbero sapere che potrebbe non essere possibile commercializzare i loro prodotti in modo efficace.

Tay, il bot razzista di Microsoft

Nel 2016 Microsoft ha lanciato Tay.ai, un chatbot programmato grossomodo con la personalità di una teenager americana, in grado di imparare dalle interazioni con gli umani e modificare le proprie risposte di conseguenza. Tay aveva un suo account Twitter, preso d’assalto da troll e bontemponi che, con un misto di messaggi creati ad arte e di stupidità spontanea, hanno trasformato in 24 ore Tay in una teenager razzista, misogina e sboccata. L’account è stato chiuso poco dopo.

Se un bot intelligente insultasse o diffamasse una persona, l’azienda che ne pubblica i messaggi sarebbe senz’altro la prima a essere chiamata – letteralmente – in causa. Ma potrebbe questa azienda rivalersi sul produttore dell’algoritmo, e questo sulle persone che hanno interagito con il bot alterandone la personalità? E in questo caso, quale reato avrebbero commesso queste persone? Corruzione di IA, forse?

Chi butteresti dalla torre?

Le auto a guida autonoma o assistita sono già state coinvolte in incidenti stradali. Il più grave è costato la vita al guidatore di una Tesla (guidatore che, va detto, ha usato le funzioni di guida assistita su strade in cui non avrebbe dovuto, ignorando ben sette avvisi di sicurezza). Non avevamo bisogno di questo per sapere che un’automobile è un mezzo potenzialmente mortale, per chi la occupa e per chi la incrocia per strada, in situazioni talvolta così complesse e poco governabili che scelte rigidamente codificate potrebbero portare a risultati nefasti, immorali o comunque poco desiderabili.

Nel caso in cui un’invasione di corsia servisse a evitare di investire un pedone, un’auto a guida autonoma non dovrebbe farsi troppi problemi nell’infrangere il codice della strada. Che fare però se la scelta fosse tra uccidere un pedone o ucciderne due, investire un’anziano o un bambino, mettere a rischio la vita di un altro automobilista o quella del conducente? Il MIT ha varato il progetto Moral Machine, con l’intento di raccogliere feedback umani sulle infinite varianti di scelte come queste, da usare eventualmente come base per istruire sistemi di IA.

Sono scelte con implicazioni morali e giuridiche enormi, su cui giustamente i governi si stanno interrogando. Il Dipartimento dei Trasporti americano ha rilasciato già nel 2016 delle direttive per le auto a guida autonoma, e il Governo Tedesco ha adottato un piano d’azione sulla guida autonoma che l’industria automobilistica dovrà seguire.

Complessivamente, si stima che – rimuovendo l’errore umano – la guida automatica ridurrà il numero degli incidenti mortali, ma non li eliminerà di sicuro. Per le vittime rimanenti, e per la società intera, è fondamentale che si chiariscano le eventuali responsabilità, si richiedano adeguate coperture assicurative e si stabiliscano regole chiare che permettano a chi produce, acquista e utilizza auto a guida autonoma di valutare adeguatamente i propri rischi.