Ética en la Inteligencia Artificial, los sesgos y su impacto

01/07/2020 60

La inteligencia artificial (IA) está cambiando radicalmente el mundo en el que vivimos. Aunque no seamos conscientes de ello, a nuestro alrededor ya existen numerosas aplicaciones dirigidas a hacernos la vida más fácil con este tipo de tecnología, tendencia que, sin lugar a duda, irá en aumento en los próximos años.

Junto a este desarrollo exponencial y entusiasta de la IA, no debemos dejar de lado los aspectos éticos de su explotación y en concreto, los sesgos que pueden formar parte de estas futuras aplicaciones.

Pero ¿qué son los sesgos? En nuestro día a día tomamos muchas decisiones, la marca de cerveza que bebemos, el coche que conducimos, las películas que vemos, los libros que elegimos… y la mayoría de las veces, sin saberlo, esas decisiones están sesgadas.

Si consultamos la definición de “sesgo” en el diccionario de la RAE, este lo define de la siguiente manera: “Error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras”.

En el caso de las personases nuestro cerebro quien elige la respuesta y la mayoría de las veces se basa en nuestra experiencia, educación o creencias, que son las responsables de ese pensamiento sesgado.

¿Qué ocurre cuando las decisiones las toman las máquinas?

Con los avances de la tecnología, el surgimiento de Big Data y sobre todo de la Inteligencia Artificial, cada vez más, son esos algoritmos los que toman decisiones. Esas elecciones pueden ser irrelevantes como las que se mencionan anteriormente, pero mucho más a menudo los sistemas inteligentes empiezan a poder determinar si me contratarán para un trabajo, me concederán un crédito o me ampliarán el límite de una tarjeta de crédito.

En nuestro día a día tomamos muchas decisiones, y la mayoría de veces, sin saberlo, esas decisiones están sesgadas.

Dentro de la IA, es en el aprendizaje automático o machine learning donde pueden presentarse estos sesgos, dado que este se basa en información histórica. En lo que respecta a este aprendizaje, los sesgos pueden presentarse en varias partes de este proceso y no solamente en los datos, como parecería lógico pensar.

En primer lugar, hay que definir y precisar cuál es el problema de negocio que queremos resolver. Imaginemos que una compañía quiere hacer un proceso de selección para encontrar al mejor empleado. Esta persona podría ser la que más facturación obtiene, la que progresa más rápidamente en la compañía o la que tiene más conocimientos.  Este primer paso, que a veces no tenemos en cuenta a la hora de estimar sesgos, tiene que ser suficientemente preciso.

El segundo paso son los datos que vamos a seleccionar. Puede ocurrir que no sean suficientemente representativos para el problema que queremos solucionar o que incluyan ya su propio sesgo. Un ejemplo podría ser el algoritmo de Amazon, que sólo proponía hombres para la contratación de determinados puestos porque sus datos de entrenamiento contenían una mayoría de personal masculino.

El caso de COMPAS es otro gran ejemplo. La aplicación americana que predice qué personas podrían ser susceptibles de ser culpables de un delito. Se descubrió que el error estaba introducido en la muestra de datos de género y raza. Más hombres que mujeres y más personas de color que caucásicas. Como consecuencia, la predicción del algoritmo daba una probabilidad mayor de reincidir a los hombres de color.

Por último, es muy importante el cómo elijo la información para construir el algoritmo, es decir, qué variables van a ser las relevantes en cada uno de los casos. Si tomamos el ejemplo de la selección de empleados se podría seleccionar la edad, años de experiencia, cursos realizados, méritos y demás. La precisión del modelo dependerá de la elección de atributos y no siempre será fácil entender el sesgo implícito incluido en esos datos.

Dada la importancia de los sesgos en lo que a Machine Learning se refiere, en los últimos cinco años se han incrementado la cantidad de artículos, investigaciones y herramientas para mitigarlos.

La precisión del modelo dependerá de la elección de atributos y no siempre será fácil entender el sesgo implícito incluido en esos datos.

En cuanto al plano investigador, cientos de artículos científicos relacionados y muchas otras empresas desarrolladoras de IA están empezando a crear herramientas para medir estos sesgos y buscar la manera de explicar las decisiones tomadas por sus algoritmos.

En el caso de IBM, no solamente ha desarrollado un producto comercial (Openscale, lanzado en 2018) sino que además ha donado un framework opensource, basado en Python, AI Fairness 360 para poder ser usado por cualquier organización.

Amazon está trabajando con la NSF (National Science Foundation) en investigaciones relacionadas con los sesgos y está aplicando el resultado a sus desarrollos.

Google ya tiene algoritmos en beta para mejorar el análisis de sesgos y la explicabilidad.

Es importante que las personas implicadas en el desarrollo de estos algoritmos, así como las empresas que los utilizan, se pregunten si están teniendo en cuenta estos sesgos y si son capaces de explicar las decisiones tomadas por sus algoritmos.

Si bien es cierto que la mayoría de las grandes empresas tecnológicas tienen publicados sus códigos éticos, y a nivel europeo hay definidas unas recomendaciones con siete puntos clave Trustworthy AI, todavía hay mucho camino por recorrer en lo que a la ética se refiere.

Un reciente informe de Capgemini sobre ética en las organizaciones mostraba entre otros resultados, que las compañías que tenían en cuenta la ética, tenían 44 puntos más de ventaja con el NPS (Net Promoter Score),  índice más usado para medir la fidelidad de los clientes y su tendencia a recomendar a esa compañía o ese producto a otros. Es una buena noticia que la ética en las compañías pueda ser un motivo para incrementar los compradores y por ende las ventas, de manera que las compañías pondrán mucho más interés en este apartado.

Gracias a la transformación digital, ahora más que nunca los clientes tenemos mucha más influencia en las compañías, pudiendo ser prescriptores o detractores en las redes sociales de productos o empresas. Usemos ese poder para que la evolución de la IA no deje de lado la ética y así nos beneficie a todos.

Usemos nuestro poder de influencia sobre las compañías para que la evolución de la IA no deje de lado la ética.