miércoles, 13 de junio de 2018

La historia de las redes neuronales y la IA: Parte 3

Este artículo es el tercero y último de la seri sobre la historia de las redes neuronales y la inteligencia artificial. Para ver el primer artículo que se sumerge en los primeros desarrollos de inteligencia artificial, haga clic aquí. Para obtener una mejor idea de cómo las redes neuronales y las tecnologías de inteligencia artificial se extendieron durante las décadas de 1960 y 1970, consulte la segunda parte aquí.

La historia de las redes neuronales y la inteligencia artificial puede revelar bastante sobre los entornos tecnológicos actuales. Aunque los desarrollos más antiguos en redes neuronales e inteligencia artificial se produjeron hace más de 60 años, no descartemos su impacto e influencia a largo plazo en los avances de hoy en ambos campos . En esta sección final sobre la historia de las redes neuronales y la IA, revisaremos algunos de los desarrollos y tecnologías más importantes que han ocurrido desde finales de los años ochenta y principios de los noventa, hasta este Siglo XXI.

Deep Blue de IBM: una prueba de hombre frente a máquina en ajedrez

Habiendo discutido MENACE, uno de los primeros modelos inteligentes para jugar un juego humano, en la parte II de esta serie, el siguiente gran avance vino en la forma de Deep Blue de IBM en 1997. Deep Blue fue originalmente derivado de una máquina de ajedrez que comenzó como el proyecto de disertación de dos estudiantes graduados de Carnegie Mellon en 1985, conocido como el proyecto ChipTest. Ambos estudiantes de posgrado continuaron trabajando en IBM Research y continuaron su trabajo desde sus días de posgrado para mejorar las capacidades de la máquina de ajedrez.

IBM finalmente nombró sus esfuerzos como "Deep Blue". Debe notarse que Deep Blue fue específicamente diseñado para jugar ajedrez contra un oponente ya que su algoritmo esencialmente puede buscar miles de movimientos de ajedrez por segundo, sopesando las mejores opciones y luego ejecutando.

Deep Blue ganó su primer juego de ajedrez el 10 de febrero de 1996 contra un campeón mundial de ajedrez, Garry Kasparov, en el primer juego de una serie de juegos de seis rondas. Kasparov pasó a ganar la serie 4-2.

Basado en el resultado del juego de ajedrez de 1996, IBM Deep Blue realizó mejoras dramáticas en Deep Blue y estableció una revancha contra Kasparov en mayo de 1997. Deep Blue ganó el juego seis de esta serie venciendo a Kasparov en general con un puntaje de 3 ½ - 2 ½. .

Las máquinas ya habían sido capaces de vencer a los humanos en el ajedrez antes, pero Deep Blue representaba el primer sistema que venció a un campeón mundial de ajedrez en un entorno de competición de ajedrez estándar.

Uno de los resultados del resultado del partido de mayo de 1997 fue que Kasparov creía que IBM estaba haciendo trampas durante el partido porque Deep Blue hizo ciertos movimientos que él consideraba demasiado creativos para una máquina, o simplemente por la fuerza bruta. Kasparov exigió una revancha, pero IBM no cooperó con estas acusaciones. IBM se negó a publicar los archivos de registro de la máquina hasta mucho más tarde y denegó a Kasparov una revancha. Después del partido de 1997, IBM retiró a Deep Blue.

MNIST: un punto de referencia para los algoritmos de clasificación

Poco después de los logros de IBM con Deep Blue, en 1999, se publicó uno de los conjuntos de datos más famosos, el conjunto de datos del Instituto Nacional de Estándares y Tecnología Modificado o el conjunto de datos MNIST (por sus siglas en inglés). El conjunto de datos MNIST es una colección de decenas de miles de dígitos escritos a mano, compilados de estudiantes de secundaria y empleados de la Oficina del Censo de los Estados Unidos.

Este conjunto de datos no solo se destaca como uno de los conjuntos de datos más utilizados para capacitar sistemas de procesamiento de imágenes, sino que también es un famoso conjunto de datos de muestra educativa que a menudo se utiliza en la comunidad de Aprendizaje Automático. Muchos tutoriales de Aprendizaje Automático en línea usan el conjunto de datos MNIST como un ejemplo de capacidades de aprendizaje automático. Además, ha sido la fuente de muchas competencias en línea en las que los investigadores intentan producir la mejor precisión posible al reconocer dígitos en los diversos sistemas de procesamiento de imágenes que prueban.

Varios grupos han publicado documentos de Aprendizaje Automático que analizan posibles formas de lograr la tasa de error más baja, obteniendo los mejores resultados utilizando el conjunto de datos de MNIST. En 2013, se alcanzó la tasa de error más baja registrada hasta el momento en el conjunto de datos MNIST. Dividido entre 60,000 muestras de entrenamiento y 10,000 muestras de prueba, Li Wan, Matthew Zeiler, Sixin Zhang, Yann LeCun y Rob Fergus lograron el mejor resultado utilizando un método que denominaron "DropConnect". El método, basado en el trabajo de G. E. Hinton sobre Dropout, logró una tasa de error de 0.21% (sobre las 10,000 muestras).

MNIST continúa actuando como una base de datos fundamental para el entrenamiento de sistemas de procesamiento de imágenes, y el campo se mejora constantemente con nuevas iteraciones del conjunto de datos. En 2017, se lanzó un conjunto de datos ampliado de MNIST llamado EMNIST, que contiene 240,000 imágenes de dígitos de entrenamiento y 40,000 imágenes de dígitos de prueba.

Mejoras adicionales a la visión por computadora: DeepFace de Facebook

Siguiendo los pasos de MNIST vinieron los esfuerzos de Facebook en el procesamiento de imágenes. El lanzamiento de Facebook de su sistema de verificación facial "DeepFace", mejoró significativamente las capacidades de programación de visión por computadora.

"DeepFace" tiene una precisión del 97,35% en el reconocimiento de rostros humanos, que se considera una tasa increíblemente alta de precisión en el campo. La razón por la que logró una tasa de precisión tan alta se debe en parte al acceso obvio y masivo de Facebook a las imágenes de los rostros de las personas en función de las imágenes cargadas en la plataforma de redes sociales.

Con el fin de probar las capacidades de "DeepFace", el equipo de Facebook entrenó el Modelo de Red Neuronal Profunda de 9 capas en un conjunto de datos de 4 millones de imágenes faciales pertenecientes a 4.000 personas. El modelo contenía más de 120 millones de referencias utilizando varias capas conectadas localmente, en lugar de capas convolucionales estándar.

Antes de DeepFace, el sistema de identificación de próxima generación del FBI, se consideraba el más preciso en el campo con una tasa de precisión del 85%. El algoritmo original de DeepFace se adquirió en realidad mediante la adquisición de Facebook de Face.com en 2007. Debido a la alta tasa de precisión obtenida a través del modelo DeepFace, el problema del reconocimiento de rostros se ha considerado esencialmente resuelto.

Avances notables de hoy en el Aprendizaje Automático y la IA

A partir de 2004, ha habido un auge en el desarrollo de productos y creaciones que implementan el Aprendizaje Automático y la Inteligencia Artificial, en formas que conocemos (por ejemplo, asistente de voz, reconocimiento de imágenes, etc.).

Algunos ejemplos clave a tener en cuenta:

  • El automóvil autónomo de Google (Waymo) se lanzó en 2009, utilizando modelos de redes neuronales para interpretar y dar sentido a imágenes tridimensionales de entornos y condiciones de manejo.
  • El software controlado por voz de Apple, Siri, se introdujo en 2011. Siri cambió la forma en que podemos interactuar con nuestros productos electrónicos, teléfonos y computadoras por igual, ya que proporciona soluciones tecnológicas a los problemas reales de sus usuarios.

    A diferencia del software anterior controlado por voz, Siri ingresó al mercado con un profundo conocimiento de las necesidades de dispositivos de sus usuarios y soluciones de inteligencia artificial y voz implementadas, que ayudaron a los usuarios a satisfacer estas necesidades. Siri no fue tecnología desplegada por el bien de la tecnología; se implementó por el bien del usuario.
  • Google DeepMind fue noticia en 2016 cuando su interfaz AlphaGo venció a un jugador Go profesional por primera vez en la historia. Con base en las técnicas de aprendizaje de refuerzo, los diversos programas de DeepMind buscan "resolver la inteligencia" e implementar algoritmos que fomenten la comprensión a través de la experiencia.

El Aprendizaje Automático sigue creciendo a una velocidad fantástica, como lo demuestra la historia de las Redes Neuronales y la IA, pero algunos piensan que esto puede ralentizarse. Una de las personas líderes en esta escuela de pensamiento es Gary Marcus, autor de "Aprendizaje profundo: una evaluación crítica", en al que describe las posibles barreras que el aprendizaje automático puede tener en el futuro. A pesar de este futuro potencial, Marcus se une al resto de la comunidad de Científicos de Datos en su entusiasmo por ver qué hay a continuación en los campos del Aprendizaje Automático y la Inteligencia Artificial.

Desde el comienzo del núcleo en la década de 1940, la historia de las Redes Neuronales y la Inteligencia Artificial continúan creciendo en su influencia e impacto exponencial en diversos aspectos de la sociedad, que van desde los autos sin conductor hasta los asistentes de voz "inteligentes".

La vida tal como la conocemos hoy no sería lo mismo sin estas tecnologías dinámicas. Sobre una base diaria, la historia se hace en el campo de la IA debido a los diferentes proyectos de investigación y desarrollos que florecen en todo el mundo. Cuando revisemos nuevamente la historia de la IA en el futuro cercano, el curso del desarrollo solo se habrá acelerado más. ¿A donde? Esa pregunta aún no ha sido respondida. Las posibilidades son infinitas.

No hay comentarios:

Publicar un comentario

Todos los derechos reservados.
Copyright © 2025.