Una volta trovato il suo posto nell’ambiente aziendale, è necessario rendere l’Intelligenza Artificiale (IA) il più chiara possibile, in particolare riguardo agli aspetti etici che derivano dal suo uso quotidiano. Alcuni esperti infatti avvertono del suo possibile impatto sul modo di prendere decisioni arbitrarie in azienda, e inizia a formarsi un’opinione generale sulla necessità di dover introdurre aspetti etici all’interno dello sviluppo ed evoluzione di questo tipo di tecnologie.

Come avvertono alcuni studiosi del settore, l’Intelligenza Artificiale è in grado di fornire conclusioni banali, come il prossimo film che un utente di TV via cavo potrebbe voler vedere, ma, allo stesso tempo, prendere decisioni chiave in ambito lavorativo, circa i conti e la gestione di un’azienda, includendo il futuro professionale delle persone che ne fanno parte.

Esistono già voci volte a denunciare qualsiasi tipo di decisione basata esclusivamente sui risultati dell’apprendimento automatico, perché considerata distorta e non sicura, proponendo quindi che tale tecnologia venga precedentemente testata e autorizzata da enti pubblici o internazionali, come succede, ad esempio, con l’approvazione dei farmaci.

Un recente studio in merito mette in guardia sull’importanza che questi aspetti etici potrebbero causare alla reputazione aziendale di molte compagnie, che rischierebbero di essere tacciate di negligenza e cattiva condotta. I loro risultati indicano che, sebbene l’etica dell’apprendimento automatico e la capacità di spiegarne l’uso siano questioni diverse, risultino comunque essere collegate tra loro.

In entrambi i casi è necessario educare le imprese, spiegando impatto e risultati dei vari modelli di intelligenza artificiale. Lungo queste linee, ci sono già una serie di tecniche che aiutano a chiarire il funzionamento dell’apprendimento automatico.

Ad esempio, LIME, una tecnica che cerca di comprendere l’IA introducendo diversi tipi di dati, sta iniziando a capire come le previsioni cambino proprio in base a questi ultimi. Un’altra è la tecnica dei valori di Shapley, che utilizza la teoria dei giochi per assegnare importanza alle funzioni di apprendimento automatico che portano a una decisione. Una terza è la cosiddetta dipendenza parziale, che descrive l’impatto marginale di una caratteristica nella previsione del modello, mantenendo costanti le altre condizioni.

Molte società tecnologiche stanno già sviluppando strumenti con algoritmi in grado di supportare l’interpretazione e la spiegazione delle conclusioni derivate dai dati, per poter offrire una visione dell’Intelligenza Artificiale di cui i consumatori possano fidarsi. Tutto ciò sembra però essere qualcosa di tanto ragionevole quanto difficile da mettere in pratica.

Infine, esiste un approccio basato sul concetto di “spiegazione comprovata”, che consente di identificare gli elementi mancanti per avere una visione completa. Ad esempio, i medici diagnosticano una possibile malattia sia in base ai sintomi presenti nel paziente, che in altri che non si manifestano. E se mancasse qualcosa, quel “qualcosa” potrebbe essere più rilevante di ciò che è presente.

Ma la sfida di creare un processo decisionale per l’IA che le aziende siano in grado di comprendere, non è solo una questione di tecnologie, ma soprattutto di persone. Molti specialisti IT non ritengono che questa capacità possa infatti essere spiegata come un valore in sé, consigliando quindi che sia la compagnia stessa, e i suoi standard governativi, ad intervenire su questo determinato problema.

Tale è il crescente interesse per l’imparzialità del processo decisionale, basato sull’intelligenza artificiale, che una spiegazione del suo scopo e delle sue aspettative risulta essere sempre più interessante. Pertanto, non sarà sorprendente che, nei prossimi anni, venga sviluppata un’intera disciplina in grado di diffondere benefici, conseguenze e risultati della sua applicazione, con particolare attenzione ai suoi aspetti etici.