lunes, 11 de junio de 2018

La historia de las redes neuronales y la IA: Parte I

Todos ya hemos escuchado el vocablo "Inteligencia Artificial", sus abreviaturas en inglés o en español (AI e IA respectivamente) y qué decir de las promesas utópicas y distópicas de esta tecnología, que aunque se hablaba de ella desde hace décadas, es la Transformación Digital quien la trae con cierto grado de madurez, verosimilitud y usos prácticos.

Hablando de los usos prácticos, es bien sabido que una inteligencia (humana o artificial) requiere del análisis para poder realmente ser útil. Es por eso que ahora se les ve muy de la mano a las Redes Neuronales y a la Inteligencia Artificial.

A pesar de que el aprendizaje automático se ha convertido en la corriente principal en la última década, hay muchos contribuyentes esenciales en el campo que se remontan a la década de 1940. Para comprender las posibilidades infinitas que se presentan hoy en el campo de la IA, el Aprendizaje Profundo y más, es importante comprender las intenciones originales de los científicos responsables de abrir el camino hacia donde nos encontramos actualmente. Es fascinante ver cómo los modelos de Aprendizaje Automático comenzaron como artilugios mecánicos basados en teorías hechas de cajas de fósforos y restos de aviones, antes de implementarse en un software complejo, rápido y moderno.

La historia comienza en 1943 cuando Warren Sturgis McCulloch, un neurofisiólogo y cibernético estadounidense publicó: "Un cálculo lógico de las ideas inmanentes en la actividad nerviosa" con Walter Pitts. El documento sentó las bases de las redes neuronales artificiales e intentó demostrar que un programa para la máquina de Turing, podría implementarse en una red finita de neuronas formales.

La idea de que un simple programa o conjunto de reglas podría representarse en un formato menos explícito, una red de neuronas, es el principio fundamental de la inteligencia artificial en la actualidad. Estas teorías no se implementaron hasta 1951, cuando la primera máquina de red neuronal fue diseñada por Marvin Minsky y uno de los estudiantes graduados de Minsky, Dean Edmonds. Esta primera máquina de red neuronal se conocía como SNARC (Calculadora de Refuerzo Analógico Neuronal Estocástico). Una neuro-computadora que contenía 40 "neuronas" informáticas que imitaban a una rata que se abría paso por un laberinto.

Minsky en realidad se inspiró en el documento de McCulloch de 1943 para construir la SNARC, que se consideraba una de las primeras máquinas electrónicas de aprendizaje. Utilizando componentes de un bombardero B-24 y unos pocos miles de dólares de la Oficina de Investigación Naval, Minsky dio uno de los primeros pasos iniciales para desarrollar capacidades de aprendizaje automático.

La máquina de Minsky dependía de estar informada de sus éxitos (todos ellos muy básicos), mientras que contenía una memoria básica para comprender y aprender de sus errores del pasado. Con esta estructura, la máquina podría ajustarse con unos pocos motores y tubos de vacío (bulbos). También se conectó al azar, al igual que los pesos en un modelo de red neuronal moderna. Esto significaba que podría "descomponerse" en ciertos lugares, pero seguir funcionando debido a su naturaleza de seguridad. Nuevamente, al igual que una red neuronal actual, si elimina una neurona, el modelo podría seguir funcionando de forma efectiva.

Solo seis años más tarde, Frank Rosenblatt inventó el Perceptron, que era un dispositivo electrónico real que seguía los principios neurológicos. Hoy en día, las redes neuronales están formadas por perceptrones que se basan completamente en el dispositivo de Rosenblatt. Los perceptrones se probaron primero en una computadora IBM 704 en el Cornell Aeronautical Laboratory. Las pruebas revelaron que la computadora IBM 704 fue capaz de reconocer la imagen básica de un triángulo. Esta fue una de las creaciones más importantes en la historia de la IA, porque insinuaba lo útil que la IA tenía el potencial de ser. Recibió un gran reconocimiento internacional, incluido un artículo en The New York Times titulado "New Navy Device Learns By Doing".

La emoción entre la comunidad fue enorme, y tal vez fue demasiado-demasiado rápido. En 1969, Minsky escribió un libro titulado "Perceptrons", que destacó las muchas limitaciones que el Perceptron realmente tenía. Por ejemplo, un único perceptrón no pudo aprender la función "XOR" (OR exclusiva o disyunción exclusiva), que se solucionó fácilmente creando una red de ellos.

Las intenciones de verdaderamente "descubrir" y desarrollar la inteligencia artificial han estado en la mente de los investigadores y científicos, pero fue el desarrollo esencial de los primeros modelos de redes neuronales que formuló la verdadera oportunidad para la creación de AI. Las empresas que van desde el papel fundacional de McCulloch hasta el Perceptron de Rosenblatt en los años 40, 50 y 60 marcaron los años fundamentales en los que AI pasó de ser una mera idea a una realidad.

No es la primera vez que uno o varios visionarios, se encuentran con esa pared natural representada por el éxito prematuro. A esto último lo conocemos como "adelantarse a su tiempo". Pero definitivamente (y como siempre) no podríamos estar en este momento espacio-temporal de la Inteligencia Artificial, sin los trabajos e hitos de estos adustos visionarios.

Hoy puede resultar "cómodo" y cruel criticar o hacer menos estos "pininus" en algo que hoy ya representa cientos de miles de dólares a corto y mediano plazo. Pero más vale ser juiciosos y aprender de los aciertos y errores de estos próceres de la Inteligencia Artificial.

En la siguiente entrega, "El inicio del aprendizaje automático en el juego".

No hay comentarios:

Publicar un comentario

Todos los derechos reservados.
Copyright © 2025.