Da decenni la fantascienza propone scenari in cui le intelligenze artificiali si ribellano all’uomo, o semplicemente agiscono fuori dai confini previsti dal loro creatore, con esiti catastrofici. Più recentemente, alcuni osservatori mettono in guardia sull’impatto che l’automazione, potenziata dall’intelligenza artificiale, può avere per il mercato del lavoro. Dopo che i robot hanno preso il posto degli operai nelle fabbriche, toccherà agli impiegati perdere il lavoro, sostituiti da bot e intelligenze artificiali, sostengono alcuni.

Entrambi gli argomenti meritano una considerazione, e se ne sta giustamente discutendo a vari livelli.

C’è però un terzo aspetto nei recenti sviluppi dell’intelligenza artificiale, e in particolare nella disciplina del deep learning, che mi inquieta e di cui si discute poco. Oltre a usare algoritmi costruiti dall’uomo, i moderni sistemi di apprendimento automatico utilizzano enormi moli di dati per ricavare autonomamente regole e prendere decisioni che, sottoposte a verifica e feedback positivo o negativo, permettono loro di imparare a risolvere un problema.

Questi sistemi funzionano e sono ormai impiegati in applicazioni che sono entrate nell’uso quotidiano di molte persone, come dettatura, comprensione del linguaggio naturale, traduzione automatica, riconoscimento di oggetti e situazioni nelle fotografie, riconoscimento facciale eccetera.

Nel mondo aziendale, il deep learning viene impiegato per l’identificazione di non conformità in produzione, prevenzione delle frodi, marketing comportamentale, rilevazione presenze, valutazioni di affidabilità nel credito e molto altro.

Il mio problema con la IA

Come dicevo, questi sistemi funzionano bene, e migliorano col tempo. In una frazione di secondo, sono in grado di rispondere correttamente al problema che sono stati istruiti per risolvere. Il mio problema è che, in molti casi, nessun umano è in grado di capire perché hanno dato la risposta corretta. Capire qual è stato il procedimento che li ha portati a prendere una certa decisione. Talvolta è solo una questione di tempo a disposizione (il set di dati in base a cui è stata data la risposta è troppo vasto per poter essere analizzato da una persona in una vita intera). In altri casi, la IA potrebbe aver trovato connessioni improbabili a cui non solo non avremmo mai pensato, ma che potremmo non essere in grado di riconoscere nemmeno quando ci vengono messe davanti agli occhi.

AlphaGo, il giocatore “marziano”

È accaduto qualcosa di simile con le diverse generazioni di AlphaGo, il sistema di deep learning ideato da DeepMind (azienda acquisita da Google) per il gioco da tavolo cinese Go. Pur con regole più semplici degli scacchi, il Go è ritenuto forse il gioco più complesso al mondo, perché prevede molte più posizioni e i pezzi non si muovono sulla tastiera. Le due cose richiedono grandi doti di strategia e pianificazione. Fino a pochi anni fa, si riteneva impossibile che un programma potesse battere un campione di Go. Alimentando un algoritmo di deep learning con i dati di migliaia di partite giocate dai migliori campioni di Go, AlphaGo è riuscito nell’intento di battere il diciotto volte campione mondiale di Go Lee Sedol nel marzo 2016.

DeepMind ha in seguito creato nuove versioni sempre più potenti, e le cose hanno preso una piega curiosa. Quando hanno potuto osservare le partite giocate da AlphaGo, i più forti giocatori di Go al mondo si sono detti strabiliati: AlphaGo sembrava non seguire alcuna logica o strategia e faceva mosse che sembravano “aliene”. Pareva di guardare un altro gioco, o una serie di mosse casuali. Ma alla fine vinceva. Sempre, o quasi.

Siamo quindi alle porte di un mondo in cui non riusciremo più a comprendere il motivo per cui vengono prese certe decisioni, e ci fideremo ciecamente della supposta infallibilità di un’intelligenza dai poteri superumani? Forse, ma c’è anche una possibilità molto più allettante.

A ottobre 2017 è stato rilasciata la versione AlphaGo Zero, a cui sono state fornite le regole di base del Go, ma nessuna altra informazione proveniente dall’uomo. Due sistemi di intelligenza artificiale sono stati messi a giocare l’uno contro l’altro, ricavando da soli le proprie strategie. Il risultato è stato strabiliante: in soli tre giorni di training, AlphaGo Zero ha potuto battere la versione del 2016 per 100 vittorie a zero e battuto tutte le precedenti versioni di AlphaGo in quaranta giorni.

Paradossalmente, secondo l’allenatore della nazionale Sud Coreana di Go Mok Jin-seok ha affermato che le partite di AlphaGo Zero sembrano più comprensibili e “umane” di quelle dei predecessori. Soprattutto, ha detto che i diversi AlphaGo stanno avendo un impatto positivo sulla comunità del Go, in particolare sui giocatori più giovani, che stanno cominciando ad assimilarne lo stile di gioco. Serve ovviamente molta esperienza per ricavare nuovi modelli e strategie, ma sembra possibile che l’uomo possa migliorarsi attraverso la macchina. E chissà che un giorno non otterremo la rivincita.

La lezione importante per le aziende

Con il giusto approccio e dati corretti, le intelligenze artificiali sono ormai in grado di auto istruirsi e risolvere problemi inavvicinabili per l’uomo, per complessità o tempi di risposta. È possibile analizzare le soluzioni per ricavarne nuova conoscenza, difficilmente ottenibile con i mezzi normalmente a disposizione, ma servono persone con grandi competenze nel campo della IA, ma anche nel campo del problema specifico.

È indubbiamente vero: alcuni lavori facilmente automatizzabili saranno prima o poi fatti da computer. Si aprono però nuove mansioni e nuove posizioni. Il personale attuale può evitare i compiti ripetitivi e noiosi ed elevare la propria mansione assumendo un ruolo di controllore delle pratiche gestite dal computer, “addestrare” nuovi sistemi di IA o, al contrario, analizzarne l’output per ricavarne nuovi insight per ottimizzare i processi. Accanto a loro, in ogni azienda dovrebbero entrare data scientist ed esperti di intelligenza artificiale per sfruttare appieno le possibilità offerte dal machine learning.

Solo così sarà possibile dotare la propria azienda di poteri superumani senza il rischio di generare effetti indesiderati per una mancata comprensione delle scelte e delle operazioni fatte dalle IA.