El sentido común, el razonamiento eficiente y la salud digital

30/06/2021 60

Dartmount, la relevancia del intercambio de conocimiento.

El término «Inteligencia Artificial» y su consideración como parte de la ciencia, nació a raíz del taller realizado en Dartmounth en julio y agosto del 1956. Convocado por John McCarthy (Dartmouth College), Marvin Minsky (Universidad de Harvard), Nathaniel Rochester (IBM) y Claude Shannon (Bell Telephone Laboratories) reunió a 20 de las voces más respetadas de la informática y la ciencia cognitiva para realizar un avance significativo en una conjetura:

 Tratar todos los aspectos del aprendizaje o cualquier otra característica de la inteligencia, que, en principio, podrían describirse con tanta precisión como para programarlos en una máquina que la simulara. Allen Newell y Herbert A. Simon, presentaron la máquina de teoría lógica (“Logic Theorist”) 2, el primer programa diseñado deliberadamente para realizar un razonamiento automatizado. Raymond Solomonoff realizó su presentación sobre información algorítmica, o como conseguir utilizar el cálculo de probabilidades para ir más allá de los problemas matemáticos muy específicos que en ese momento realizaban los ordenadores.

Se trató el desarrollo adicional de E. F. Moore en autómatas, estuvo así presente la relevante máquina de Moore, comúnmente utilizada hoy en día. Y Minsky presentó su idea de prueba de sólo declaraciones que eran ciertas en un diagrama para el teorema de geometría plana. Esta última idea se la llevó Nat Rochester, con él, a IBM y contrató a Herbert Gelernter, que con John McCarthy como consultor, permitió a Gelernter el desarrollo del lenguaje de procesamiento de listas de Fortran. Con esta base en 1958, John McCarthy propuso el lenguaje LISP, «LISt Processor» (Procesamiento de listas).

En LISP han nacido muchas ideas de la informática, como la estructura de dato de árbol, los condicionales, la recursividad, etc. La ubicua estructura “IF THEN ELSE”, ahora admitida como un elemento esencial de cualquier lenguaje de programación, fue inventada por McCarthy para el uso en LISP, donde vio su primera apariencia en una forma más general (la estructura cond). Esta estructura es la base de la programación de los “Smart Contracts” en los desarrollos Blockchain, que mediante la creación de declaraciones condicionales en las que ambas partes deben ponerse de acuerdo de antemano, nace una estructura digital para controlar la gestión y ejecución de las cláusulas contractuales.

Así la evolución en IA se multiplicó gracias a que claramente los participantes de la reunión intercambiaron y generaron conocimiento abiertamente alrededor de las matemáticas y más en concreto el cálculo y la lógica en un modelo de investigación aplicada, demostrada en la programación de las ideas, teorías y teoremas, abriendo grandes posibilidades futuras al bienestar global.

Exactitud en el grado de la verosimilitud, matemática, cálculos, lógica y lenguaje.

Con la perspectiva del tiempo, en el 2006, John McCarthy 3, indicaba que en la evolución que se había y se estaba realizando en muchos de los sistemas estaba restringiendo el trabajo en la lógica para hacer que el cálculo fuera más eficiente. Si, el desarrollo de la programación estaba despuntando en la realización de cálculos más complejos, McCarthy por su lado sigue impulsando el trabajo en el marco de la lógica completa para así poder continuar con la búsqueda para la creación de sistemas que puedan razonar sobre sus propios métodos de razonamiento, con el objetivo de decidir sobre el razonamiento eficiente.

La lógica, sistematizada por Aristóteles se fundamenta en la necesidad de articular un pensamiento según criterios estrictamente racionales. Los criterios lógicos en el mundo de las matemáticas y en los razonamientos de la vida cotidiana tal y como se trataron siglos más tarde en Dartmount nos llevan al diseño de los programas de IA que necesitan de la lógica binaria.

En el 1308, Ramón Llull escribe el documento “Ars generalis ultima”, en el que perfecciona su método de utilizar medios mecánicos basados en papel para crear nuevos conocimientos a partir de combinaciones de conceptos. Nos habla de un nuevo “Método de la Característica”, que debe dar a los humanos una posibilidad de calcular en todos los dominios que sean accesibles a los razonamientos con independencia de que estos sean exactos, la probabilidad puede apreciar el grado de verosimilitud del razonamiento.

En el 1666, Gottfried Wilhelm Leibniz publica “Dissertatio de arte combinatorio”, siguiendo a Llull y proponiendo un alfabeto de pensamiento humano, argumentando que todas las ideas no son más que combinaciones de un número relativamente pequeño de conceptos simples. Leibniz se formó con Christiaan Huygens, quien resultó ser fundamental para su desarrollo posterior de teorías sobre cálculo diferencial e integral.

Leibniz defendió que la complejidad del razonamiento humano podría traducirse al lenguaje de los cálculos, y que, una vez comprendiéndolos, podían ser la solución para resolver diferencias de opinión y argumentaciones. Entre otras cosas describió las propiedades y el método de recursos lingüísticos como la conjunción, la disyunción, la negación, el conjunto, la inclusión, la identidad y el conjunto vacío. Todos ellos útiles para comprender y realizar razonamientos válidos y diferenciarlos de otros no válidos. Su lógica es uno de los eslabones más importantes en el proceso de mecanización del pensamiento según modelo matemático.

En el siglo XXI se ha avanzado exponencialmente en la programación de las máquinas resolviendo de forma sencilla problemas complejos. Existen cada vez más especialistas trabajando en el Aprendizaje Automático (Machine Learning) para detectar patrones automáticamente en un conjunto de datos y usarlos para predecir datos futuros, o para llevar a cabo otro tipo de decisiones en entornos de incertidumbre.

Se sigue con el avance en el sistema de probabilidad (Deep Learning) que permite a modelos computacionales que están compuestos de múltiples capas de procesamiento, aprender sobre datos con múltiples niveles de abstracción. Y el campo de la investigación y desarrollo científico en neurociencia puede llegar a lograr una forma más resiliente, consistente y flexible de Inteligencia Artificial.4

Los avances de alto impacto ocurren cuando un propósito común reúne a pensadores muy diversos que consiguen colaborar como equipo uniendo conocimiento histórico, fondos únicos, disciplinas, experiencia, perspectivas y un margen para la serendipia.

El foco del taller de Dartmount era compartir conocimiento y establecer si un “cómo” sobre un “qué” bien definido. La respuesta al “para qué” parece que debe llegar aceleradamente después de un año de pandemia y con la urgencia en alcanzar los 17 Objetivos de Desarrollo Sostenible propuestos por La ONU, ganar conocimiento en el desarrollo de IA holístico integrador y ético podría ser la respuesta inmediata para el 2030.

  1.  “Una propuesta para el Dartmouth Summer Research Project on Artificial Intelligence (McCarthy et al, 1955)”).
  2. McCorduck, Pamela (2004), Máquinas que piensan (2a ed.), Natick, MA: AK Peters, Ltd., ISBN 1-56881-205-1, págs. 161-170.
  3. “AI PAST AND FUTURE”, John McCarthy. The Dartmouth Workshop–as planned and as it happened (stanford.edu)
  4. Towards the end of deep learning and the beginning of AGI | Towards Data Science