Una vez que la Inteligencia Artificial (IA) ha comenzado a encontrar su espacio en el entorno empresarial, surge la necesidad de hacerla explicable, en especial los aspectos éticos que se derivan de su uso cotidiano. Algunos expertos alertan ya sobre su posible impacto en la forma de tomar decisiones arbitrarias y comienza a crearse una opinión general sobre la necesidad de introducir aspectos éticos, propios de las personas, en el futuro desarrollo y evolución de estas tecnologías.

Como alertan algunos estudiosos en la materia, la Inteligencia Artificial puede proporcionar conclusiones banales, tales como la siguiente película que un usuario de TV por cable puede querer ver o tomar decisiones clave para el empleo, las cuentas y la forma de gestionar una empresa, incluso sobre el futuro profesional de las personas y sus gobiernos.

Ya hay voces que denuncian cualquier decisión que esté exclusivamente basada en los resultados del aprendizaje automático, porque estará sesgada y no resultará segura, por lo que proponen que cualquier tecnología de este tipo sea previamente comprobada y autorizada por organismos públicos o entidades internacionales, como se hace por ejemplo con la aprobación de los medicamentos.

En un reciente estudio al respecto se alerta sobre la importancia que estos aspectos éticos van a provocar en la reputación corporativa de muchas empresas, que puede verse amenazada por una mala praxis en este terreno. Sus resultados indican que, aunque la ética del aprendizaje automático y la capacidad de explicar su uso son cuestiones diferentes, están vinculadas entre sí.

En ambos casos es necesario hacer pedagogía y explicar los resultados de los modelos de IA, su impacto y resultados. En esta línea, ya existe una serie de técnicas que ayudan a explicar el funcionamiento del aprendizaje automático.

Por ejemplo, LIME (explicación agnóstica del modelo propio de interpretación), una técnica que trata de entender el modelo de aprendizaje, introduciendo diferentes tipos de datos y entendiendo cómo cambian las predicciones en función de ello. Otra es la técnica de los valores de Shapley, que emplea la teoría de juegos para asignar importancia a las funciones de aprendizaje automático que conduzcan a una decisión. Una tercera es la llamada dependencia parcial, que describe el impacto marginal de una característica en la predicción del modelo, manteniendo constantes otras condiciones.

Muchas tecnológicas ya están desarrollando herramientas con algoritmos que admiten la interpretación y explicación de las conclusiones que se derivan de los datos, para ofrecer una visión de la Inteligencia Artificial en la que los consumidores puedan confiar. Algo tan razonable como difícil de llevar a la práctica.

Por último, existe un enfoque basado en el concepto de “explicación contrastada”, que permite identificar elementos que faltan para tener una visión completa. Por ejemplo, los médicos diagnostican una posible enfermedad, en función de síntomas presentes en el paciente, pero también en otros que no aparecen. Si falta algo puede ser más relevante que lo que sí está presente.

Pero el desafío de crear una toma de decisiones de IA que las empresas puedan explicar no es solo una cuestión de tecnologías, también de personas. Muchos especialistas en TI no consideran esta capacidad de explicarse como un valor en sí mismo, por lo que algunos recomiendan que sea la propia organización y sus normas de gobierno las que tomen cartas en este asunto.

Tal es el creciente interés en la imparcialidad de la toma de decisiones, a partir de la Inteligencia Artificial, que una explicación inicial de su propósito y expectativas resulta cada vez más interesante. Por ello, no extrañará que, en los próximos años, se desarrolle toda una disciplina capaz de divulgar los beneficios, consecuencias y resultados de su aplicación, con especial atención a los aspectos éticos de la misma.