L’etica è una questione controversa per l’industria tecnologica, soprattutto se si parla di settori in rapida evoluzione come l’intelligenza artificiale (IA), l’apprendimento automatico e i sistemi decisionali automatizzati.

Ma perché è così importante per le imprese? Perché il disinteresse verso questa tematica comporta diversi rischi. Eccone alcuni:

  • i clienti potrebbero scegliere fornitori più attenti ai principi etici;
  • le risorse potrebbero migrare verso aziende più responsabili;
  • l’azienda potrebbe esacerbare, anche in modo involontario, le disuguaglianze sistemiche e causare danni alla collettività;
  • l’azienda potrebbe perdere il vantaggio competitivo nei confronti di aziende o paesi con un’etica mette a rischio i tuoi dipendenti, i clienti e la società.

 

Consumatori e impiegati del settore tech vogliono far sentire la propria voce per influenzare quali sistemi decisionali automatizzati vengono progettati, quali decisioni tali sistemi sono autorizzati a prendere e quali set di dati usare per i modelli che li alimentano.

Google ha promesso un investimento di 25 milioni di dollari statunitensi per il progetto “AI for Social Good”; eppure molti giudicano con sospetto questo impegno guidato dal gigante della tecnologia, che potrebbe spingere verso un unico modello di pensiero a detrimento di altri gruppi. Per esempio, un recente sondaggio internazionale sull’etica della guida autonoma, i cui risultati serviranno a definire gli algoritmi decisionali delle auto senza conducente, è stato criticato per l’insufficienza dei dati raccolti nei paesi in via di sviluppo.

L’industria tecnologica continua a introdurre nuove politiche per la sicurezza e la protezione dei dati con lo scopo di mitigare un senso di insoddisfazione diffuso.  Tra le strategie emergenti, l’introduzione del chief ethical officer come meccanismo di autoregolamentazione . Una figura che potrebbe finire per assomigliare al protagonista del romanzo di Lois Lowry, The Giver, unico custode della memoria in un mondo ignaro delle lezioni del passato.

Navigare il mare dell’etica

I discorsi sull’etica dell’IA rispecchiano la più ampia polarizzazione sociale tra chi beneficia dei sistemi di potere e chi invece è sottorappresentato, escluso, lasciato indietro. Le piattaforme tecnologiche, inclusi i sistemi decisionali automatizzati, possono inasprire questa spaccatura, ma non ne sono unicamente responsabili. Come si può costruire un’etica dell’IA se non si è d’accordo neppure sull’etica della tecnologia o anche solo dei comportamenti umani?

Malgrado la mancanza di consenso, esistono diversi approcci volti a creare un’IA e una tecnologia più etiche: dalle campagne di cultura dei dati alle liste di controllo, dai codici di pratica ai recenti sistemi di auditing degli algoritmi.

Quis custodiet ipsos custodes? Chi sorveglierà i sorveglianti?

È opportuno, o anche soltanto possibile, che l’industria tecnologica sia il motore della discussione sull’etica? In altri settori si è preferito costituire organi di regolamentazione esterni in risposta a eventuali pericoli sociali e ambientali (si pensi a enti statunitensi come l’Agenzia per la protezione dell’ambiente e la Food and Drug Administration). I chief ethics officers o i comitati etici interni delle aziende tecnologiche saranno sufficienti per disciplinare le questioni etiche?

Secondo Palmer Luckey, fondatore di Oculus, cofondatore di Anduril e relatore al Web Summit 2018, i tecnologi hanno l’imperativo morale di costruire tecnologie responsabili e così dettare il passo nell’etica, ancor prima dei legislatori.

Il Regno Unito sta cercando di stimolare la discussione attraverso organizzazioni come Open Data Institute, CognitionX e Doteveryone, che chiedono una più profonda evoluzione dell’etica per l’intelligenza artificiale. Con la fondazione del Centre for Data Ethics and Innovation, il paese sta cercando chiaramente di sfruttare le proprie capacità in materia. Ma il Centre è solo un organo consultivo. Avrà gli strumenti necessari per lasciare il segno?

E adesso?

In che modo devono procedere i leader di settore per sviluppare un’etica dell’intelligenza artificiale?

  • Audit sull’etica. Come viene percepita l’etica all’interno della tua azienda? I manager e i loro team si sentono autorizzati a prendere decisioni su temi etici e ad assumersene la responsabilità? All’interno della tua organizzazione alcuni reparti basano già il loro processo decisionale su un quadro di riferimento etico?
  • Etica aziendale. Prepara un quadro di riferimento etico di largo consenso basato sui principi guida dell’organizzazione. In che modo questi principi si collegano ai valori dell’azienda? Quali risorse puoi sfruttare per realizzare un quadro di riferimento che possa proteggere dipendenti e clienti? Quali sono le tue considerazioni in merito a etica dell’obbedienza, dovere di diligenza ed etica della ragione?
  • Discussioni etiche per ogni progetto. Bisogna coinvolgere i team con un approccio basato sulla discussione, anche attraverso l’introduzione di liste di responsabilità. Durante la fase di design e sperimentazione di un prodotto, ad esempio, questo modello può incoraggiare il team a chiedersi “Cosa succederebbe se… ?” e quindi anticipare eventuali segnali d’allarme.
  • I piani d’azione. Se l’azienda ha un piano in caso di incendio o disastro naturale, deve averne uno per proteggersi da possibili scandali legati all’IA. Pensa a quali strumenti usare in caso di violazioni e rischi etici.

Per conoscere nel dettaglio gli ultimi sviluppi sull’etica degli algoritmi, leggi il commento completo allo studio del Leading Edge Forum (LEF) a questo indirizzo.