El valor de las emociones y el aprendizaje profundo

02/12/2020 19

El valor del tiempo

En el año 1973, Michael Ende publicaba “Momo”, nombre de una niña que vive en un pueblo de una tierra lejana, de la que nadie ni siquiera ella sabe nada de su vida. Un día, llegan unos hombres extraños, vestidos de gris, con sombreros y portafolios, son agentes que convencen a las personas de invertir su tiempo en los que sería un banco de tiempo, un intercambio desigual fuera el que fuera el punto de vista.

El autor nos hace reflexionar sobre la importancia de percibir cómo estamos viviendo nuestro tiempo, el tiempo que ocurre y que decimos que nos pertenece, responder a preguntas sobre si el tiempo se puede ahorrar, y para que lo ahorramos, y luego como usamos el tiempo que hemos ahorrado.

Hace pocos días un ser muy querido, me hacía reflexionar sobre la contabilidad del valor tiempo y el equilibrio en la balanza personal, en la que ponemos por un lado nuestros segundos, minutos, horas, años y ciclos vitales, acompañados de las personas que nos quieren bien, las que nos proporcionan momentos de vitalidad y energía, respecto a estos segundos, minutos, horas, años y ciclos vitales que otorgamos a nuestros propósitos o proyectos de vida, a nuestra actividad profesional y la intersección entre los dos tipos de vivencias.

Los conceptos de alcanzar metas o de tener calidad de vida, los momentos que parecen horas y son minutos, o los momentos que parecen segundos y son días, son personales, dependientes del contexto que va variando y difíciles de medir matemáticamente, así cuando consideramos, en la matemática, si una hora de trabajo o de ocio ha sido eficiente o gratificante, ha tenido un valor, o ha sido un desafortunado momento, lo hacemos desde una perspectiva individual, humana y dependiendo de cada uno, más o menos emocional.

En el año 2020, considerando el desarrollo en software de Inteligencia Artificial sabemos que el siguiente paso en la hoja de ruta evolutiva del desarrollo del software es el reconocimiento de emociones y su aplicabilidad.

AlexNet y el aprendizaje profundo

En el 2012, comenzó la era moderna del DEEP LEARNING “aprendizaje profundo”. Tres años antes, en el 2009, la investigadora de Inteligencia Artificial Fei-Fei Li publicaba la base de datos llamada ImageNet, que contenía más de 3 millones de imágenes organizadas con etiquetas de lo que había adentro. Li pensó que, si estos algoritmos tuvieran más ejemplos del mundo para encontrar patrones entre ellos, podría ayudarlos a comprender ideas más complejas.

Así en el 2012, una red neuronal artificial diseñada por Alex Krizhevsky, que era un estudiante de posgrado de la Universidad de Toronto junto a su compañero de estudios Ilya Sutskever (ahora director de investigación en OpenAI) y con el asesoramiento de Geoff Hinton (psicólogo cognitivo e informático canadiense, premio Turing 2018, junto con Yoshua Bengio y Yann LeCun), dominó el concurso ImageNet, superando a todos los demás laboratorios de investigación por el enorme margen en la precisión del 10,8%.

La destreza de la tecnología para tomar decisiones pronto puso las palabras «aprendizaje profundo» en los labios de todos los fundadores y ejecutivos de Silicon Valley y arrancó lo que llamamos el boom del desarrollo de la Inteligencia Artificial. Los tres acabaron trabajando en Google, y otras de las grandes empresas de tecnología como Facebook, Amazon y Microsoft comenzaron a posicionar sus negocios en torno a la tecnología.

Como había predicho Li, los datos eran la clave. Pero Hinton, Krizhevsky y Sutskever también habían apilado redes neuronales una encima de otra: una solo encontraba formas, mientras que otra miraba texturas, y así sucesivamente. Estas se denominan redes neuronales profundas o aprendizaje profundo. El marco de la red neuronal que resultó, ahora se conoce coloquialmente como AlexNet y es considerado uno de los artículos más influyentes publicados en visión por computación, habiendo inspirado muchos más artículos publicados para acelerar el aprendizaje profundo, actualmente ha sido citado más de 70.000 veces según Google Scholar.

Krizhevsky trabajó en Google Photos y luego se afianzó profundamente en el proyecto de vehículos autónomos de la empresa, dejó la empresa en septiembre del 2017 para trabajar en Dessa (anteriormente conocida como DeepLearni.ng), y que el pasado febrero del 2020 fue adquirida por la empresa de servicios financieros Square. Square y Dessa indicaron que se asociaban para «crear aplicaciones de aprendizaje automático que permitan a las personas hacer más con su dinero que nunca y, en general, ampliar los límites de lo que es posible con la IA».

Hablamos de DEEP LEARNING o “aprendizaje profundo” cuando nos referimos a un campo en el que las redes neuronales se superponen para comprender patrones y relaciones complejas dentro de los datos. Cuando la salida de una red neuronal se alimenta a la entrada de otra, «apilándolas» de manera efectiva, la red neuronal resultante es «profunda».

Establecer el estado emocional

En este 2020, la encuesta global de McKinsey sobre Inteligencia Artificial (IA) ha incluido preguntas sobre la adopción del aprendizaje profundo con el resultado de que el 16 por ciento de los encuestados dice que sus empresas han llevado el aprendizaje profundo más allá de la etapa piloto. Una vez más, las empresas de alta tecnología y telecomunicaciones lideran la carga, y el 30 por ciento de los encuestados de esos sectores dicen que sus empresas tienen capacidades integradas de aprendizaje profundo.

Uno de los usos del aprendizaje profundo es el de reconocer formas básicas de expresión afectiva que aparece en los rostros de las personas. Igualmente, los métodos de comunicación no verbal como los movimientos corporales, la expresión facial, los gestos y los movimientos oculares se pueden captar, y se debe considerar que los movimientos corporales pueden transmitir estados emocionales con más fuerza y ser captados con cámaras que no precisan estar cercanas a la persona. Desde el 2018 vemos publicados artículos en los que, utilizando una arquitectura de red neuronal con diferentes parámetros, explican cómo se puede llegar a establecer que el estado emocional se reconoce en los patrones de movimiento de todo el cuerpo.

En el 2016 surgió el AI Now Institute de un simposio encabezado por la Oficina de Política Científica y Tecnológica de la Casa Blanca de Obama, dirigido por Meredith Whittaker, fundadora del Open Research Group de Google, y Kate Crawford, investigadora principal de Microsoft Research. El AI Now Institute profundiza en las implicaciones a corto plazo de la IA en los dominios sociales: desigualdad, trabajo, ética y asistencia sanitaria. En su informe del 2019, el AI Now Institute alertó de que la tecnología de reconocimiento de emociones no debe usarse en decisiones que «impactan la vida de las personas y el acceso a oportunidades», como decisiones de contratación o evaluaciones del dolor, porque no es lo suficientemente precisa y puede conducir a decisiones sesgadas.

Y tal y como nos hace reflexionar Michael Ende en “Momo”, el AI Now Institute en el 2018 nos hace reflexionar sobre el impacto del avance en IA. Y como herramienta lanzó un marco para evaluaciones de impacto algorítmicas (Informe AIA), para que los gobiernos evalúen el uso de la IA en agencias públicas. Esta evaluación es similar a una evaluación de impacto ambiental, en el sentido de que requiere la divulgación pública y el acceso de expertos externos para evaluar los efectos de un sistema de IA y cualquier consecuencia no deseada.

Aplicar un AIA permitiría examinar los sistemas para detectar problemas como resultados sesgados o datos de entrenamiento sesgados. Y si además conseguimos que estos resultados y medidas se registren en una red descentralizada Blockchain quizás en los próximos años con mucha más formación, desarrollo, y atención se podría llegar a este modelo de contabilidad personal, único, intransferible y privado para trabajar en el crecimiento personal y alcanzar y globalmente un mayor bienestar.