Mostrando entradas con la etiqueta Analysis. Mostrar todas las entradas
Mostrando entradas con la etiqueta Analysis. Mostrar todas las entradas

jueves, 21 de marzo de 2024

La Inteligencia Artificial: Preguntas y Respuestas

Hace ya tiempo y cursando la educación primaria, nos sorprendimos cuando la maestra nos explicó el hecho evidente de que nosotros, los así llamados Seres Humanos (o "seres humanos" por desgracia) eramos animales. Parte de su exposición y para calmar las aguas (pues algunos compañeros se sintieron algo ofendidos) consistió en mencionar cuáles eran esos diferenciadores que separaban a los Seres Humanos de los demás animales. Ahí ella mencionó La Inteligencia.

¿Y qué es La Inteligencia?

Es la capacidad de entender, asimilar, procesar y utilizar la información para resolver problemas, aprender de la experiencia, adaptarse a nuevas situaciones, comprender y manejar ideas abstractas, y utilizar el conocimiento para manipular el entorno.

¿Desde hace cuánto existe el término Inteligencia Artificial?

En el año de 1956 John McCarthy utilizó este término en su propuesta para la Conferencia de Dartmouth, un evento que tuvo lugar en ese año y que a menudo este acontecimiento es citado como el nacimiento oficial de la inteligencia artificial como campo de investigación. En dicha reunión asistieron investigadores interesados en la idea de que "cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, ser tan precisamente descrito que una máquina puede ser creada para simularlo". Entonces podemos decir que la Inteligencia Artificial (IA) es la simulación de procesos de inteligencia humana por parte de sistemas informáticos." Estos procesos incluyen el aprendizaje (la adquisición de información y reglas para usar la información), el razonamiento (usar las reglas para alcanzar conclusiones aproximadas o definitivas) y la autocorrección.
Para entender mejor, ¿qué es y qué no es la Inteligencia Artificial?

Para comprender qué es y qué no es inteligencia artificial (IA), es útil definir primero qué se entiende por inteligencia. La inteligencia implica la capacidad de comprender, aprender, razonar, planificar, resolver problemas, percibir y adaptarse a nuevas situaciones de manera eficiente. Con esta premisa en mente, aquí hay una descripción de lo que sí es y lo que no es IA: Lo que SÍ es Inteligencia Artificial (IA): Sistemas que imitan la inteligencia humana: La IA se refiere a sistemas informáticos diseñados para realizar tareas que normalmente requieren inteligencia humana, como el reconocimiento de voz, la toma de decisiones, la resolución de problemas, el aprendizaje y la comprensión del lenguaje natural. Aprendizaje y adaptación: Los sistemas de IA pueden aprender de datos, experiencias anteriores y retroalimentación para mejorar su desempeño en tareas específicas con el tiempo, adaptándose a nuevas situaciones y cambiando su comportamiento en función de la información disponible. Toma de decisiones autónoma: En algunos casos, la IA puede tomar decisiones autónomas sin intervención humana directa, basándose en algoritmos y modelos predefinidos para seleccionar la mejor opción en una determinada situación. Análisis y procesamiento de grandes volúmenes de datos: La IA puede analizar y procesar grandes cantidades de datos estructurados y no estructurados mucho más rápido y con mayor precisión que los seres humanos, identificando patrones y tendencias que pueden ser difíciles de detectar manualmente. Aplicaciones en una amplia gama de campos: La IA se utiliza en campos tan diversos como la salud, finanzas, educación, transporte, seguridad, entretenimiento, agricultura, manufactura y muchos otros, transformando la forma en que se realizan las tareas y se toman decisiones en estos ámbitos. Lo que NO es Inteligencia Artificial (IA): Automatización básica: La automatización de tareas repetitivas y simples no se considera IA a menos que el sistema pueda aprender y adaptarse con el tiempo para mejorar su desempeño. Programas sin capacidad de aprendizaje: Los programas de software convencionales que realizan tareas específicas según instrucciones predefinidas no se consideran IA, a menos que incorporen capacidades de aprendizaje automático o procesamiento de lenguaje natural para mejorar su funcionalidad. Simplemente procesamiento de datos: El procesamiento de grandes volúmenes de datos por sí solo no constituye IA, a menos que el sistema también pueda analizar, comprender y extraer conocimientos significativos de esos datos para realizar tareas específicas. Tecnología mágica o omnisciente: La IA no es una solución mágica que pueda resolver todos los problemas o responder a todas las preguntas. Tiene limitaciones y puede cometer errores, especialmente si no se diseña o entrena correctamente. Por sobre todas las cosas debemos entender que Es una herramienta poderosa que está transformando una amplia gama de campos, pero es importante entender sus capacidades y limitaciones para su aplicación efectiva y ética. ¿Limitaciones para una aplicación ética?
Actualmente, no existe un organismo centralizado a nivel mundial que establezca directamente los lineamientos en el desarrollo y aplicación de la inteligencia artificial (IA). Sin embargo, hay varias organizaciones, instituciones y grupos de interés que están involucrados en la formulación de estándares, principios éticos y directrices relacionadas con la IA. Algunos de estos son: Organización de las Naciones Unidas (ONU): La ONU ha abordado la IA en varios foros, incluido el Grupo de Expertos en IA y la Comisión Económica de las Naciones Unidas para Europa (UNECE). La ONU ha promovido discusiones sobre el impacto social, económico y ético de la IA, así como la necesidad de principios éticos y de gobernanza. Unión Europea (UE): La UE ha adoptado una estrategia de inteligencia artificial que incluye la creación de un marco ético y legal para la IA. La Comisión Europea ha propuesto regulaciones y directrices para promover el desarrollo y la implementación de la IA de manera ética y segura. Organizaciones de estándares: Organizaciones como el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), la Organización Internacional de Normalización (ISO) y el Instituto Nacional de Estándares y Tecnología (NIST) están desarrollando estándares y guías relacionadas con la IA en áreas como la ética, la seguridad y la interoperabilidad. Iniciativas de la industria: Grandes empresas de tecnología como Google, Microsoft, IBM y otros han establecido sus propios principios éticos y directrices para el desarrollo y uso de la IA. Además, hay iniciativas de colaboración entre empresas, como el Consorcio para la IA Responsable (Partnership on AI), que trabajan en la promoción de prácticas éticas y responsables en la industria de la IA. Grupos de expertos y organizaciones de la sociedad civil: Hay numerosos grupos de expertos, organizaciones no gubernamentales y grupos de la sociedad civil que abogan por una IA ética y responsable. Estos incluyen organizaciones como el Centro para la Ética de la Inteligencia Artificial, el Centro Berkman Klein para Internet y la Sociedad de Harvard, y el Instituto de Futuros Abiertos. Aunque no existe un organismo centralizado único que marque los lineamientos en el desarrollo y aplicación de la IA, hay una creciente conciencia y colaboración a nivel mundial para abordar los desafíos éticos, sociales y técnicos asociados con esta tecnología emergente. La colaboración entre múltiples partes interesadas, incluidos gobiernos, empresas, organizaciones internacionales, académicos y la sociedad civil, será crucial para garantizar que la IA se desarrolle y utilice de manera ética y responsable.

¿Qué personas son actualmente los más importantes e influyentes exponentes de la Inteligencia Artificial? Varios individuos son reconocidos como líderes influyentes en el campo de la inteligencia artificial (IA), contribuyendo a través de investigaciones, innovaciones, aplicaciones prácticas o discursos públicos sobre el impacto social de la IA. Aquí hay algunos de los más destacados:

Geoffrey Hinton: Conocido como uno de los "padrinos de la inteligencia artificial", Hinton ha realizado contribuciones fundamentales al desarrollo de redes neuronales y al aprendizaje profundo, que son piedras angulares de la IA moderna. Yoshua Bengio: Otro "padrino de la IA", Bengio ha sido pionero en el campo del aprendizaje profundo y ha contribuido significativamente a la comprensión de las redes neuronales. Yann LeCun: Como el tercer "padrino de la IA", LeCun ha sido influyente en el desarrollo de la visión por computadora y el aprendizaje profundo, especialmente a través de su trabajo en redes neuronales convolucionales (CNNs). Demis Hassabis: Cofundador y CEO de DeepMind, Hassabis ha liderado algunos de los avances más notables en IA, incluida la creación de AlphaGo, el programa de computadora que derrotó a un campeón mundial de Go. Fei-Fei Li: Profesora de Ciencias de la Computación en Stanford, y cofundadora de AI4ALL, Li ha realizado importantes contribuciones en visión por computadora y es una defensora de la inclusión y diversidad en el campo de la IA.

Andrew Ng: Cofundador de Google Brain, profesor en Stanford University, y cofundador de Coursera, Ng es un educador influyente en IA y ha sido pionero en cursos masivos en línea abiertos (MOOCs) sobre aprendizaje profundo y machine learning. Ian Goodfellow: Conocido por inventar las redes generativas antagónicas (GANs), Goodfellow ha sido influyente en el desarrollo de métodos que permiten a las máquinas generar imágenes realistas y otros datos sintéticos. Daphne Koller: Cofundadora de Coursera y una pionera en la aplicación de la IA en la educación y la biología, Koller ha sido instrumental en promover la educación en línea y el uso de la IA para el análisis de grandes conjuntos de datos biológicos. Kate Crawford: Investigadora principal que se enfoca en los impactos sociales y políticos de la IA, Crawford ha sido vocal sobre las implicaciones éticas de la IA y el análisis de datos masivos. Timnit Gebru: Cofundadora del Grupo de Investigación de Ética en la IA de Black in AI, Gebru es conocida por su trabajo en la ética de la IA, la justicia algorítmica, y los sesgos en los sistemas de aprendizaje automático. Los arriba mencionados, entre otros, han moldeado la dirección y la percepción de la inteligencia artificial en la sociedad moderna, cada uno desde su área de especialización, ya sea a través de avances técnicos, liderazgo en pensamiento, o activismo en política de tecnología. ¿Qué liboros y/o guías básicas hay ya disponibles para el entendimiento y aprendizaje de la Inteligencia Artificial? Para quienes deseen adentrarse en el mundo de la inteligencia artificial (IA) con una comprensión básica pero sólida, existen varios libros y recursos que ofrecen una introducción accesible y condensada al tema. Aquí hay algunas recomendaciones:
"IA para todos" (AI for Everyone) por Andrew Ng:
Este libro escrito por uno de los líderes en el campo de la IA, Andrew Ng, ofrece una introducción accesible y práctica a los conceptos básicos de la IA, sin necesidad de conocimientos técnicos previos. Ng explica cómo funciona la IA, sus aplicaciones en la vida cotidiana y cómo las empresas pueden aprovecharla. "IA: Un enfoque moderno" (Artificial Intelligence: A Modern Approach) por Stuart Russell y Peter Norvig: Aunque este libro es más técnico que otros, sigue siendo una excelente opción para aquellos que desean una introducción completa pero accesible a la IA. Cubre una amplia gama de temas, incluidos los fundamentos del aprendizaje automático, la representación del conocimiento, la planificación y mucho más. "Inteligencia Artificial: Fundamentos, práctica y aplicaciones" (Artificial Intelligence: Foundations of Computational Agents) por David L. Poole y Alan K. Mackworth: Este libro proporciona una visión general de la IA desde una perspectiva de agente computacional, que es útil para comprender cómo los sistemas de IA interactúan con su entorno. "Inteligencia Artificial: Una guía para pensar en la ciencia de la mente y la tecnología" (Artificial Intelligence: A Guide to Thinking About the Science of the Mind and Technology) por Margaret A. Boden: Este libro ofrece una introducción filosófica a la IA, explorando preguntas fundamentales sobre la naturaleza de la mente y la inteligencia, así como las implicaciones éticas y sociales de la IA. "IA en la vida cotidiana: ¿cómo aplicar la inteligencia artificial en tu vida diaria?" por Tony R. Kuphaldt: Este libro está diseñado para personas que no tienen experiencia técnica en IA, pero que desean comprender cómo la IA afecta sus vidas y cómo pueden aprovecharla de manera efectiva. "Guía para principiantes de IA: Una introducción fácil de seguir a la inteligencia artificial, el aprendizaje automático y la automatización de procesos" por Jeff McCall: Este libro proporciona una introducción clara y práctica a los conceptos básicos de la IA, el aprendizaje automático y la automatización, con ejemplos y explicaciones fáciles de entender. Estos libros ofrecen una variedad de enfoques para comprender la inteligencia artificial, desde introducciones prácticas hasta exploraciones más filosóficas y técnicas. Dependiendo de tus intereses y nivel de familiaridad con el tema, puedes elegir el libro que mejor se adapte a tus necesidades. ¿Qué debe de incluír un programa de estudios para una carrera a nivel licenciatura relativa a la Inteligencia Artificial? Un programa de estudios para una carrera a nivel licenciatura en Inteligencia Artificial debe proporcionar a los estudiantes una base sólida en áreas clave de la IA, así como una comprensión profunda de los conceptos teóricos y las aplicaciones prácticas. Aquí hay una propuesta de los elementos que podrían incluirse en dicho programa: Fundamentos de la Computación:

  • Introducción a la programación y algoritmos.
  • Estructuras de datos y algoritmos.
  • Teoría de la computación.
  • Arquitectura de computadoras.

Matemáticas y Estadística:

  • Álgebra lineal.
  • Cálculo diferencial e integral.
  • Probabilidad y estadística.
Fundamentos de la Inteligencia Artificial:
  • Introducción a la inteligencia artificial.
  • Lógica y razonamiento.
  • Aprendizaje automático (Machine Learning).
  • Redes neuronales artificiales.
  • Procesamiento de lenguaje natural.
  • Visión por computadora.
  • Robótica.
  • Agentes inteligentes y sistemas expertos.
  • Ética y aspectos legales de la inteligencia artificial.

Programación y Herramientas:

  • Lenguajes de programación relevantes (por ejemplo, Python, Java).
  • Bibliotecas y frameworks de IA (por ejemplo, TensorFlow, PyTorch).
  • Desarrollo de aplicaciones de IA.
Aplicaciones Prácticas:
  • Proyectos prácticos de IA.
  • Prácticas en empresas o laboratorios de investigación.
  • Seminarios y conferencias sobre aplicaciones actuales de IA en diferentes campos (salud, finanzas, transporte, etc.).

Trabajo en Equipo y Habilidades Interpersonales:

  • Colaboración en proyectos grupales.
  • Comunicación efectiva y presentación de resultados.
  • Resolución de problemas y toma de decisiones.

Trabajo de Investigación:

  • Seminarios de investigación.
  • Proyectos de investigación dirigidos por profesores o investigadores.

Electivas Especializadas:

  • Electivas que permitan a los estudiantes profundizar en áreas específicas de la IA según sus intereses (por ejemplo, robótica, visión por computadora, procesamiento de lenguaje natural, aprendizaje profundo, etc.).

Prácticas Profesionales:

  • Oportunidades para realizar prácticas en empresas u organizaciones relacionadas con la IA.
Proyecto de Tesis o Trabajo Final:
  • Desarrollo de un proyecto de investigación o aplicación de IA bajo la supervisión de un profesor.
Este es solo un ejemplo de cómo podría estructurarse un programa de estudios para una carrera de licenciatura en Inteligencia Artificial. Los detalles específicos pueden variar dependiendo de la institución educativa y de los avances en el campo de la IA. Es importante que el programa se mantenga actualizado con los últimos desarrollos y avances en la inteligencia artificial para garantizar que los graduados estén bien preparados para enfrentar los desafíos del mundo real en este campo en constante evolución. ¿Qué universidades en México y América Latina ya están ofreciendo la carrera (a nivel licenciatura, maestría o doctorado) en Inteligencia Artificial? En México, varias universidades están incorporando programas relacionados con la inteligencia artificial (IA) en sus ofertas académicas a nivel de licenciatura, maestría y doctorado. Estos programas están diseñados para preparar a los estudiantes en las diversas aplicaciones de la IA, desde el aprendizaje automático y la visión por computadora hasta el procesamiento de lenguaje natural. A continuación, se mencionan algunas universidades que ofrecen estos programas:
Universidad Nacional Autónoma de México (UNAM):
Ofrece programas de posgrado relacionados con la inteligencia artificial a través de su Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) y la Facultad de Ingeniería. Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM): Ofrece programas de maestría y especialidades en inteligencia artificial y ciencia de datos, disponibles en varios campus a lo largo del país. Instituto Politécnico Nacional (IPN): A través de su Centro de Investigación en Computación (CIC), el IPN ofrece programas de maestría y doctorado que incluyen áreas de inteligencia artificial. Universidad Autónoma Metropolitana (UAM): Cuenta con programas de posgrado en ciencias de la computación y tecnologías de la información donde se abordan temas de inteligencia artificial. Centro de Investigación en Matemáticas (CIMAT): Aunque no es una universidad, CIMAT ofrece programas de maestría y doctorado en ciencias de la computación e inteligencia artificial en colaboración con varias universidades del país. Tecnológico Nacional de México (TecNM) / Instituto Tecnológico de Monterrey: Ofrece programas en áreas de ingeniería y tecnologías de la información que incluyen cursos de inteligencia artificial. En América Latina, varias universidades están comenzando a ofrecer programas académicos relacionados con la inteligencia artificial en diferentes niveles, aunque aún no son tan comunes como en otras regiones más desarrolladas en este campo. Aquí algunas de ellas: Universidad de São Paulo (USP) - Brasil: Ofrece programas de posgrado en inteligencia artificial y ciencia de la computación. Universidad de Buenos Aires (UBA) - Argentina: Tiene programas de posgrado y cursos relacionados con la inteligencia artificial en áreas como la informática y la ingeniería de sistemas. Universidad de Chile - Chile: Ofrece programas de maestría y doctorado en ciencias de la computación con enfoque en la inteligencia artificial y el aprendizaje automático. Universidad de los Andes - Colombia: Tiene programas de maestría y doctorado en ciencias de la computación y áreas relacionadas que incluyen la inteligencia artificial. Universidad Nacional de Córdoba (UNC) - Argentina: Ofrece programas de posgrado en inteligencia artificial y aprendizaje automático. Universidad de la República (UDELAR) - Uruguay: Ofrece cursos de posgrado en inteligencia artificial y áreas afines.
¿Cómo y cuándo comenzar?
Sin pretender ser una guía máxima o las tablas de la ley, recomendamos comenzar con la lectura de alguno de los libros arriba recomendados. Una excelente alternativa adicional pudiese ser el libro "Artificial Intelligence For Dummies" escrito por John Paul Mueller. Al momento de escribir estas líneas sólo está disponible en inglés, pero vale la pena leerlo. Hay mucho material en la red. Pero a modo de guía, recomendamos material que haya sido escrito y/o publicado por quienes actualmente son los más importantes e influyentes exponentes de la Inteligencia Artificial (mencionados párrafor arriba en esta entrada). Enseguida y si está Usted completamente convencido de que la Inteligencia Artificial es lo suyo, proceda con cursos y seminarios ofrecidos por Universidades y/o insituciones educativas como las que incluímos en esta entrada, para entonces y con el pleno convencimiento, pueda inscribirse o matricularse en una licenciatura, maestría o doctorado afín a la Inteligencia Artificial. De otra manera y si lo que desea es incluír en su currícula temas relacionados con la Inteligencia Artificial, existen excelentes cursos y diplomados afines que puede aprovechar. Nuevamente recomendamos que esos cursos y diplomados sean impartidos por Universidades e Institutos Tecnológicos como los arriba mencionados.
Conclusión
La IA se refiere a sistemas informáticos diseñados para realizar tareas que normalmente requieren inteligencia humana, como el reconocimiento de voz, la toma de decisiones, la resolución de problemas, el aprendizaje y la comprensión del lenguaje natural. La Inteligencia Artificial es una herramienta al servicio de los Seres Humanos y no algo que reemplazará a los Seres Humanos. ¿Está Usted listo para comenzar con la Inteligencia Artificial?

viernes, 30 de noviembre de 2018

La transformación del Cómputo de Alto Rendimiento

Mientras la conferencia anual de Super Cómputo celebró su cumpleaños número 30 en Dallas la semana pasada, recordamos que ha llegado el Super Cómputo y lo emocionante que es la industria de Cómputo de Alto Rendimiento en este momento.

Con el auge de Big Data, esta inmensa cantidad de información representa una gran oportunidad para los investigadores que tienen nuevo combustible para sus proyectos. Pero también proporciona un nuevo conjunto de desafíos, ya que la gran cantidad de información requiere nuevas operaciones para maximizar y crear conocimiento.

Hoy no solo se están explorando nuevas formas de infundir Cómputo de Alto Rendimiento con prácticas de Inteligencia Artificial para descubrir esas nuevas ideas, sino también para crear mejores herramientas para casi todas las etapas del flujo de trabajo moderno de Cómputo de Alto Rendimiento, para capacitar a los investigadores con la capacidad de comprender lo que parece insondable, poniendo orden en el caos que ha creado el diluvio de datos.

Simulación inteligente

Los saltos que la informática de alto rendimiento ha logrado en el poder de la computación, no siempre se correlacionan con conocimientos mejorados, por lo que se están examinando formas para que los investigadores apliquen análisis avanzados para diseñar mejores experimentos. Una de esas herramientas es la metodología bayesiana, un principio comprobado de las matemáticas que analiza lo que sabe y sugiriendo lo que se debe hacer a continuación, ayudando así a eliminar las simulaciones que probablemente no den los resultados deseados de los diseños de experimentos.

Se ha trabajado con clientes en productos farmacéuticos, química y ciencia de los materiales y se han observado que la aplicación de los principios bayesianos ha reducido el número de las simulaciones hasta en un 75%, al ​​tiempo que aumenta la precisión de las respuestas. En una era en la que la Ley de Moore ya está quedando obsoleta, estas técnicas podrían ser el camino para reducir radicalmente el costo del hardware y una visión más profunda, mediante una combinación de técnicas clásicas de HPC y análisis modernos.

Actualmente se trabaja para encapsular esta capacidad en un dispositivo que se puede instalar adyacente a un clúster existente de cualquier arquitectura, para mejorar su capacidad de procesamiento. En su forma actual, el dispositivo estaría preprogramado, por lo que los investigadores solo necesitan decirle a los sistemas que intercambien datos y el dispositivo Bayesiano diseñará instrucciones de simulación más inteligentes para el grupo primario. Pero este es solo el primer paso para hacer que la simulación sea más inteligente, y ya se está viendo un fuerte respaldo de los ecosistemas en la creación de soluciones de simulación inteligentes.

-"Penguin e IBM, ambos miembros de la Fundación OpenPOWER, han estado trabajando juntos para brindar a nuestros clientes de HPC soluciones de alto valor"-, dijo Phil Pokorny, CTO de Penguin Computing. -"La simulación inteligente es algo que creemos que tiene un gran potencial para mejorar la capacidad de nuestras soluciones y esperamos trabajar con IBM para evaluar áreas de aplicación"-.

-"Cray e IBM han colaborado en varias oportunidades de HPC en los últimos años combinando tecnologías de ambas compañías para brindar a nuestros clientes el mejor valor posible"-, agrega Joseph George, Director Ejecutivo de Alianzas de Cray. -"Esperamos trabajar con IBM para evaluar oportunidades para la inclusión de herramientas de simulación inteligente en soluciones de colaboración en una variedad de dominios de aplicaciones"-.

Descubrimiento cognitivo para HPC

Si bien los métodos de análisis avanzados como la Optimización Bayesiana pueden diseñar experimentos más inteligentes, aún dependen de las técnicas tradicionales de HPC para realizar el trabajo. Además, es un hecho aceptado que la preparación y la ingestión de datos no estructurados pueden tomar hasta el 80% del tiempo de un investigador y la Optimización Bayesiana no aborda ese problema principal.

A través de colaboraciones con muchos clientes en petróleo y gas, materiales, fabricación y más, IBM está investigando nuevas herramientas para ayudarles con la ingesta de datos a gran escala. Estas herramientas integradas están siendo diseñadas para ayudar a reunir mejor un catálogo de datos científicos, convirtiéndolos  automáticamente en un "gráfico de conocimiento", una representación visual de las relaciones de los datos.

Los investigadores de IBM han documentado que han utilizado estas herramientas inéditas para construir un gráfico de conocimiento de 40 millones de documentos científicos en solo 80 horas, una tasa de 500,000 documentos por hora. Las herramientas de investigación pueden ingerir e interpretar datos en formato PDF, cuadernos escritos a mano, hojas de cálculo, imágenes y más. La herramienta se está diseñando para ayudar a poner en orden los datos caóticos y contribuir al establecimiento de una memoria corporativa para todo el trabajo de HPC que una organización haya realizado. Algo de importancia crítica cuando los empleados se jubilan o se van.

Tiene capacidades de búsqueda profunda incorporadas que permiten la exploración de consultas muy complicadas en relación con el gráfico de conocimiento, junto con los materiales de resultados de búsqueda de clasificación de relevancia para la consulta deseada.

Para ayudar a que estas herramientas se apliquen en una amplia variedad de casos de uso empresarial, se pueden usar para crear aplicaciones verticales, específicas de dominio. Por ejemplo, en el La American Chemical Society (ACS) en Boston a principios de este año, presentaron una herramienta llamada IBM RXN que predice el resultado de reacciones químicas orgánicas. Esta herramienta está disponible en la web sin costo alguno a través del sistema IBM Zurich. En el contexto de HPC, esta tecnología presenta un enfoque unificado para complementar las simulaciones existentes con análisis inspirados en datos. Y puede, en algunos casos, incluso desplazar el mod-sim clásico por completo.


Comience a explorar el HPC cognitivo con los sistemas IBM

Se está ya examinando formas de incorporar estas capacidades al conjunto existente de productos controlados por Inteligencia Artificial, incluidos el servidor IBM Power Systems AC922 y el almacenamiento IBM ESS, el componente básico de Summit y Sierra, y el kit de herramientas de aprendizaje profundo para empresas líder en la industria: PowerAI. Los usuarios interesados en ponerse en marcha rápidamente también pueden explorar la nueva oferta de Plataforma de Cómputo Acelerada, que combina el cómputo, el almacenamiento y las redes con el software precargado en un rack plug-and-play.

En conclusión, ya no es necesario esperar mucho para ver y obtener los beneficios de todo lo que ya está aquí con el Cómputo de Alto Rendimiento, acelerado gracias a la Transformación Digital, la Convergencia Informática, la Tercera Plataforma y la Cuarta Revolución Industrial.

¿En qué puede apoyarle el Cómputo de Alto Rendimiento?

viernes, 1 de junio de 2018

La Inteligencia Artificial facturará $ 8 mil millones de dólares para el mercado minorista en 2024

La Inteligencia Artificial (IA) en el tamaño del Mercado Minorista superará los USD 8 mil millones para el 2024; según un nuevo informe de investigación de Global Market Insights, Inc.

La IA en el mercado minorista está impulsada por las crecientes inversiones en ella en todo el mundo. La creciente inversión en la tecnología se atribuye a las amplias aplicaciones de la tecnología de Inteligencia Artificial, junto con Análisis Avanzados y Aprendizaje Automático. La IA está listo para desencadenar la próxima fase de la disrrupción digital y los participantes del mercado se están preparando para ello.

La inversión en la tecnología está creciendo rápidamente, dominada por los gigantes tecnológicos como Google, Microsoft, IBM, AWS y Baidu. En 2016, se ha visto una inversión de aproximadamente de 30 mil millones de dólares en la tecnología, con más del 90% de las actividades de Investigación y Desarrollo, y el 10% restante en las actividades de fusión y adquisición. Además, el financiamiento de capital privado, la inversión de capital semilla y la inversión de capital de riesgo, también crecieron significativamente, lo que representa un total acumulado de más de 6 mil millones de dólares.

El avance tecnológico y el desarrollo de algoritmos avanzados de Aprendizaje Automático son también las principales fuerzas motrices de la IA en el mercado minorista. Se estima que el aprendizaje automático crece de forma destacada en la Inteligencia Artificial en el mercado minorista con más del 42% de Tasa de Crecimiento Anual Compuesto (TCAC o también CAGR, Compound annual growth rate, en inglés). El crecimiento está impulsado por la creciente adopción de la tecnología por parte de los minoristas para proporcionar una mejor experiencia al cliente y ofrecer una experiencia de compra personalizada a los clientes. ¿Experiencia del Cliente? ¿Todo al rededor del Cliente? ¿Todo orientado hacia el cliente? Sí. Se llama Transformación Digital.

Se estima que el segmento de solución de búsqueda visual en IA en el mercado minorista crecerá a una Tasa de Crecimiento Anual Compuesto de más del 45% durante la línea de tiempo del pronóstico, debido a la tendencia creciente de las compras en línea y el comercio móvil (¿Tercera Plataforma?). La solución permite a los clientes buscar productos utilizando imágenes en lugar de texto o voz. También se prevé el aprovechamiento de la tecnología de reconocimiento de imágenes, para analizarlas y con ello recomendar productos relevantes para mejorar la experiencia de compra de los clientes. Se estima que la demanda de estas soluciones crecerá significativamente en el futuro, debido a la creciente popularidad entre los minoristas y compradores en línea.

La publicidad programada es una de las aplicaciones más destacadas de la IA en el mercado minorista. A medida que la competencia entre los minoristas aumenta rápidamente, las empresas buscan nuevas formas de ganar clientes mediante la implementación de estrategias publicitarias avanzadas. Las compañías están poniendo mucha atención en la "focalización de precisión", para entregar los mensajes correctos a la audiencia adecuada para y con esto maximizar las ventas y reducir el gasto publicitario. Además, la demanda de publicidad programada también está impulsada por las crecientes inversiones de los minoristas en Marketing Digital.

Se prevé que para el segmento geográfico Asia Pacífico, la IA en el mercado minorista crezca a una Tasa de Crecimiento Anual Compuesto de más del 45% durante el período de pronóstico. El crecimiento del mercado se atribuye a las crecientes inversiones en tecnología de Inteligencia Artificial y al aumento de la digitalización en la región. China lidera las inversiones y representa el 17% de las inversiones externas globales en IA. El aumento de las inversiones de los jugadores chinos también impulsa la IA en el crecimiento del mercado minorista en la región. Por ejemplo, Baidu ha invertido más de 1.500 millones de dólares en la investigación de IA en los últimos dos años, además de la inversión de 200 millones de dólares ya realizada por la empresa para el desarrollo de una nueva instalación de Investigación y Desarrollo.

Algunos de los vendedores destacados de IA en el mercado minorista son AWS, Baidu, BloomReach., CognitiveScale., Google, Inbenta Technologies, Intel, Interactions, Lexalytics, Microsoft, NEXT IT, Nvidia, Oracle, RetailNext, Salesforce.com, SAP, Sentient Technologies y Visenze.

El 2024 parece lejano, pero estamos a sólo cinco años y medio de alcanzarlo. El tiempo pasa volando y como ya se ha demostrado en lo que respecta a Tecnologías de la Información, diez años pasan volando.

martes, 22 de mayo de 2018

Debajo del capó de los Chatbots

Esta es la segunda entrega en nuestra serie que habla de los chatbots. Aquí exploramos Reconocimiento del Lenguaje Natural (Natural Language Understanding o NLU), que es la parte frontal de todos los chatbots. Analizaremos la programación necesaria para crear reglas basadas en chatbots, y luego analizaremos el uso de algoritmos de Aprendizaje Profundo que son la base de los chatbots habilitados para Inteligencia Artificial.

En la entrada anterior: "Chatbots. Guía para principiantes", cubrimos los conceptos básicos, incluida su breve historia tecnológica, usos, opciones de diseño básico y donde entra en juego el Aprendizaje Profundo.

En esta entrada, exploraremos con más profundidad cómo la Comprensión del Lenguaje Natural (NLU) basada en redes neuronales profundas RNN/LSTM permite tanto el chatb basado en reglas como el AI. Veremos el método, la lógica, las elecciones de diseño y los componentes programáticos que están en funcionamiento en chatbots basados en reglas. Finalmente, veremos el uso de las Redes Neuronales Recurrentes (RNN) y loas Grandes Memorias a Corto Plazo (LSTM) para generar respuestas largas, e incluso llevar a cabo conversaciones aparentemente sofisticadas que cruzan el umbral de la Prueba de Turing.

Comprensión del lenguaje natural: el front-end para todos los chatbots

Puede que esté más acostumbrado a escuchar sobre NLP (Procesamiento de Lenguaje Natural), pero con chatbots estamos mucho más interesados ​​en el subconjunto dentro de NLP llamada NLU (Natural Language Understanding). Es la capacidad de la máquina para comprender el texto o el habla humanos, extrayendo el significado correcto a pesar de los problemas de acentos, errores de ortografía, pronunciación o simplemente una forma extraña de frasear la entrada.

Afortunadamente, no tiene que construir la NLU desde cero, ya que todas las principales plataformas de desarrollo tienen una integrada. Pueden ser modelos propietarios de alto nivel como Amazon o IBM, o la variedad de código abierto que se encuentra en las bibliotecas de máquina, como la Core NLP Suite de Stanford, Natural Language Toolkit (NLTK), Apache Open NLP, o spaCy entre otros.

Si bien las rutinas de NLU hacen muchas cosas, las que son particularmente importantes en el soporte de chatbots son las siguientes:

Reconocimiento de entidades nombradas: identificación de categorías de palabras como el nombre de una persona, un producto, una fecha o una dirección.

Normalización: intenta dar cuenta de errores de ortografía, errores tipográficos o pronunciaciones diferentes.

Etiquetado de partes del habla: identifica las partes del habla como sustantivos, verbos y adjetivos como la base para comprender la estructura de la oración y cómo afectará el significado.

Análisis de dependencias: identificación de sujetos, objetos, acciones y similares para encontrar frases dependientes.

Los paquetes de NLU no habrán sido entrenados en los nombres propios, eventos, lugares o incluso acrónimos que sean únicos para diferentes negocios. En algunos casos, puede ser necesario agregar diccionarios y ontologías específicas del dominio, para permitir que la NLU interprete correctamente cómo deben entenderse estas palabras y frases únicas.

Sin embargo, muchas NLU se pueden capacitar o adiestrar sobre la marcha con una tecnología incorporada llamada Comunicación en Foco (CIF). CIF desarrolla lo que se denomina Discriminadores de Contexto (CD) al reducir las oraciones complejas o aquellas que contienen palabras desconocidas, en grupos de palabras cortas comparándolas con "vecinos semánticos" compuestos por contexto y puntos de vista sobre los sujetos en las oraciones.

La comparación de los nuevos CD con los anteriores, produce derivados de orden superior que le permiten a la NLU interpretar las relaciones de entidad entre sujetos previamente desconocidos.

Hay otras cosas útiles que la NLU puede agregar al proceso como el Análisis de Sentimientos. Una NLU previamente capacitada generalmente puede detectar lo suficiente sobre el tono de la conversación, para saber si el usuario está teniendo una buena experiencia o si el chatbot debe reenviar la conversación a un operador de respaldo humano.

Construyendo un chatbot basado en reglas de respuesta programada

El objetivo del diseño en la construcción de un chatbot basado en reglas, es describir en detalle todas las preguntas posibles, información aclaratoria y respuestas o acciones que pretenda que su chatbot pueda manejar. Eso puede ser un montón de detalles y una buena razón para mantener su dominio de conocimiento estrecho. NLU se encargará de las palabras con significados similares o diferentes formas de expresar la solicitud, pero eso aún deja mucho trabajo por hacer.

A pesar de este trabajo inicial, las reglas siguen siendo la forma más rápida y fácil de crear un chatbot. Para el desarrollador que claramente necesita un equipo que incluya una o más PYMES, el proceso no es particularmente rápido ni fácil, pero es menos complejo que construir un robot con Inteligencia Artificial.

Esta categoría de chatbot está creciendo tan rápidamente que Gartner pronosticó recientemente que para 2020, un 10% de los nuevos empleados de TI estarían escribiendo estos "scripts".

Este tipo de scripting comúnmente se llama "cascada", ya que es un proceso de diseño secuencial en el cual las fases más altas (anteriores) de la cascada, llenan piscinas de nivel inferior de la que también pueden fluir una dentro de la otra. La descripción preferida de este proceso es "árbol de decisión", que es más descriptivo y más familiar para las audiencias que vienen de Ciencia de Datos.

Podemos construir un chatbot desde cualquier código en bruto de nuestra preferencia, pero el curso de acción mucho más fácil es usar una de las muchas plataformas de chatbot que han surgido. Estas ofrecen marcos paso a paso para todos los componentes necesarios que deberá definir.

Es posible que aún necesitemos agregar líneas de código en estas plataformas, por ejemplo, para describir la fuente de datos externos y cómo acceder a esa información. Otra alternativa es seguir y ejecutar los pasos necesarios para una acción como 'hacer una cita'. Muchas plataformas tienen módulos preconstruidos para acciones como "concertar una cita" que pueden personalizarse. Aunque esto no es exactamente arrastrar y soltar, no tendrá que aprender los pormenores de NLP. Estas plataformas lo guían a través de un proceso paso a paso para recopilar la información NLU necesaria, a medida que avanza y luego proporciona un entorno para las pruebas antes de la implementación.

Agentes - Propósitos - Entidades - Flujos de Diálogo

Agentes, propósitos, entidades y flujos de diálogo son los componentes básicos de su chatbot. Esto no pretende ser una inmersión profunda en el tema, sino algo para entender estos términos y cómo se relacionan.

Agente: Es tu chatbot que puede tener múltiples Agentes subyacentes con diferentes objetivos, pero un solo Agente principal que refleja solo las tareas específicas y el conocimiento limitado que tiene previsto. Es posible que tenga un agente que le proporcione datos del clima, otro que programe una cita u otro que responda a una queja de servicio al cliente. Si bien es posible poner estos tres objetivos en un solo agente, sería difícil de manejar en el mejor de los casos. Entonces su agente define pormenorizadamente todas las cosas que quiere que este chatbot específico pueda hacer.

Las definiciones que componen el chatbot se basan en Propósitos (Intents), Entidades (Entities) y Flujo de Diálogo (Dialog Flow).

Propósito: Asignar algo "dicho por el Usuario" a una "Acción" determinada.

Lo primero que le pedirá su plataforma son Propósitos (Intents). Los propósitos son un relacionamiento uno a uno, entre la solicitud de idioma natural del usuario VS las acciones que debe tomar su robot de conversación.

Piense en esto como detección de intención. El primer paso es, por lo general, asignar "Usuario dice" a una "Acción".

Si su chatbot es bastante limitado, por ejemplo, informando sobre el clima en una ciudad en particular en un día en particular, la lista de posibles afirmaciones de "Usuario dice" también es bastante estrecha. Por ejempo: ¿Cuál es el clima en (ciudad x) (el próximo viernes)?

Sin embargo, si está creando un chatbot de servicio al cliente, es probable que las solicitudes de lenguaje natural del usuario sean mucho más variadas. Debe completar un conjunto de ejemplos que represente lo que el usuario podría decir. No es necesario pensar en todos ellos ya que la NLU usará sus ejemplos para entrenarse para declaraciones de usuario similares, pero cuantas más, mejor.

Supongamos que en su proceso de servicio al cliente, generalmente reconoce tres tipos de solicitudes: quejas, devoluciones y todo lo demás. (Los siguientes ejemplos se extraen del blog de IBM "Watson Build-a-chatbot").

Entonces, para las quejas, puede ingresar ejemplos como:

  • ¿Puedo obtener ayuda?
  • Necesito esto arreglado
  • Tengo un problema.
  • Deseo registrar una queja.
  • Por favor, ayúdame.
  • Algo esta mal.

Para las devoluciones, puede ingresar ejemplos como:

  • Intercambiar.
  • Ya no quiero esto.
  • Quisiera regresar esto.
  • Necesito que retires esto.
  • Quiero mi dinero de vuelta.
  • Por favor tome esto de vuelta.
  • Este loro está muerto. Necesito devolverlo.

Para la categoría "todo lo demás", puede dejar volar su imaginación ya que está entrenando a la NLU para que reconozca que no es una queja o devolución. Puede divertirse con esta categoría.

  • Un poco de esto, un poco de aquello.
  • Plátano.
  • Paseador de perros.
  • El fútbol es bueno.
  • Desearía ser un pez.
  • ¿Dónde estoy?

De hecho, los usuarios pueden hacer solicitudes que contengan múltiples intenciones en el mismo mensaje, por lo que es posible asignar prioridades a diferentes intenciones así como a intentos de retroceso.

Se podría utilizar un intento de "repliegue" si su chatbot no puede identificar el intento y es posible que deba solicitar una aclaración como: "No lo entendí. ¿Podría aclarar su solicitud?". Otra opción sería la de diseñar su chatbot para simplemente referir al cliente a una Corporate Social Responsibility (CSR) humana, si el chatbot no puede entender la intención: -"...déjeme transferirlo a un agente."-

Acciones

Basado en el relacionamiento de intención, su chatbot ahora comprenderá que es necesario tomar una o más acciones. Si son simples como el ejemplo del clima o "concierte una cita", es posible que pueda personalizar los módulos preconstruidos. Sin embargo, sus acciones pueden ser tan complejas como desee, lo que requerirá una codificación personalizada.

Por ejemplo, una queja puede ser respondida por un mensaje de texto o una respuesta verbal en la que se requiere buscar el pedido del cliente e incluirlo como parte del detalle de la respuesta.
También puede proporcionar directamente o por correo electrónico un formulario de devolución prellenado, ofreciendo algunas instrucciones sobre el procedimiento y la política de devolución.
En un caso mucho más complejo, podría buscar inventario disponible para ver si un artículo de reemplazo (por ejemplo de diferente tamaño o color) está disponible de inmediato y ofrecerlo como reemplazo para evitar una devolución.

Contextos

Las plataformas de chatbot también ofrecen un método de grabación de información previa, que podría ser necesaria para comprender mejor el propósito real de la solicitud actual.

Por ejemplo, si un usuario está escuchando música y encuentra una canción que le gusta, puede ingresar "muéstrame más canciones semejantes". El contexto habrá almacenado el título de la canción, género, categoría, artista y otra información para que pueda interpretar la solicitud en relación con la última canción escuchada.

Del mismo modo, si se trata de un dispositivo doméstico inteligente y el primer comando de voz fue "encender las luces de la sala de estar", seguido de "apagarlas", el contexto permitirá que el chatbot comprenda que son las luces de la sala las que están siendo operadas.

Entidades

Las entidades son objetos del mundo real como productos, personas, lugares, fechas, horas, distancia y nombres de categoría, entre otros. Las NLU pueden extraer los valores de los parámetros de la solicitud del usuario buscando entidades, algunas de las cuales serán definidas por el sistema, pero muchas de las cuales serán definidas por nosotros durante el proceso de programación.

Las entidades también pueden ser condicionales para definir un filtro como "precio más bajo" o "abierto ahora". Algunas entidades, como la fecha, hora o la distancia, generalmente están integradas en el sistema y no necesitan ser definidas por separado. Sin embargo, nombres y tipos de productos tendrían que ser ingresados y actualizados.

Flujo de Diálogo

El flujo de diálogo es el área de la lógica y el arte. ¿Desea que el diálogo de Chabot parezca natural y coloquial? ¿También que el diálogo del Chabot sea lógico, que conduzca a la satisfacción del usuario en los pocos pasos posibles?

Muchos chatbots se pueden construir con diálogos lineales simples, pero muchos requerirán diálogos no lineales o ramificados. Los no lineales pueden ser necesarios en muchos casos, por ejemplo:

  • Si su chatbot está realizando una encuesta de satisfacción del cliente y le pide al usuario que califique su experiencia como excelente, buena, regular o deficiente, es probable que las siguientes preguntas que plantee sean diferentes para cada categoría y se requiere una bifurcación.
  • Si su chatbot no entendió la solicitud, puede tener varios bucles de conversación diferentes que planteará el chatbot, para aclarar el intento del usuario y la acción requerida.

Una rama que casi siempre está presente es la referencia a un agente en vivo. Esto sucede cuando el chatbot no puede entender la intención o no tiene suficiente información para responder, así como si el usuario dice una palabra clave como 'agente'. En algunos casos, el análisis del sentimiento de NLU puede detectar que el usuario se está frustrando o enfadado y puede crear una salida a un agente humano cuando se detecta esto.

Construyendo Chatbots basados en Aprendizaje Profundo, derivado de Inteligencia Artificial

En nuestro primer artículo describimos cómo los Chatbots generados por Inteligencia Artificial se están introduciendo basados ​​en arquitecturas RNN/LSTM, que pueden incorporar oraciones complejas y largas, retener el contexto y proporcionar respuestas largas o en varias partes. Todo esto ocurre sin que un programador tenga que definir intenciones, acciones, respuestas, entidades o flujo de diálogo. ¿Qué no hay Inteligencia Artificial de por medio?

Esta puede ser la ola del futuro, pero recién ahora está comenzando. Mencionamos el reciente anuncio de Andrew Ng de Woebot, un chatbot capaz de consejería psicológica para la depresión.

Otro ejemplo instructivo fue discutido en un documento de investigación: "Un modelo conversacional neural" por dos investigadores de Google el año pasado. Su objetivo era crear un chatbot que pudiera conversar con los usuarios para resolver preguntas difíciles de soporte de TI. Dos puntos importantes provienen de esta experiencia.

Al igual que todos los modelos de Redes Neuronales Convolucionales (CNN) y Redes Neuronales Recurrentes (RNN), necesita una gran cantidad de datos para entrenar. Afortunadamente, había una gran cantidad de registros de la mesa de ayuda de la computadora en los que se podía entrenar y que contenían años de historia sobre diferentes problemas y sus soluciones.

Recuerde que dijimos que todos los chatbots requerían un dominio razonablemente cerrado. Los problemas de la mesa de ayuda de computadora pueden ser un dominio muy grande, pero esencialmente está cerrado y la base de conocimiento podría definirse mediante los registros de soporte anteriores.

La segunda y más divertida característica es que los investigadores necesitaron enseñar a su Generador de Chatbots a hablar inglés coloquial. Por lo tanto, además de capacitarse en la base de conocimientos técnicos, también lo capacitaron en un conjunto de datos públicos de 2.000 reproducciones de pantalla, de las cuales aprendió inglés coloquial moderno.

El resultado fue reportado como bastante exitoso con el sistema capaz de asimilar el lenguaje hablado complejo de varias partes, determinando correctamente la intención y la causa. También podría responder en una conversación compleja y de varias partes para que el usuario pueda hacer interjecciones, o pedir aclaraciones si un paso correctivo particular no se entendió o si fue demasiado complejo.

Sí. Hoy hay ejemplos de chatbots generativos, pero este es principalmente el dominio de los chatbots por venir. Mientras tanto, el camino hacia los chatbots basados ​​en reglas está bien desarrollado, aunque sea nuevo y esté listo para su proyecto.

¿Seguimos? Espere la siguiente entrada del tema.

miércoles, 16 de mayo de 2018

Internet de las cosas (IoT) y Analytics al límite

El Internet of Things (IoT) promete cambiar todo al permitir ambientes "inteligentes" (hogares, ciudades, hospitales, escuelas, tiendas, etc.) y productos inteligentes (automóviles, camiones, aviones, trenes, turbinas eólicas, cortadoras de césped, etc.)

Recientemente escribimos sobre la importancia de ir más allá de "conectado" a "inteligente" en un blog titulado "Internet de las cosas: Conectado no es lo mismo que Inteligente".

El artículo analiza la importancia de ir más allá de la simple recopilación de datos, pasar a aprovechar esta nueva riqueza de datos de IoT para mejorar las decisiones que estos entornos inteligentes y productos deben tomar: ayudar a estos entornos y productos a autocontrolarse, autoorganizarse diagnosticar y eventualmente, autodirigirse.

Pero uno de los conceptos clave para permitir esta transición de conectado a inteligente, es la capacidad de realizar "análisis al límite". Shawn Rogers, director de investigaciones de Dell Statistica, hizo la siguiente cita en un artículo en Information Management titulado "¿Los Científicos de Datos heredarán el mundo? ":

"Las organizaciones se están dando cuenta rápidamente de que las implementaciones de Internet de las Cosas serán cada vez más extensas y omnipresentes, y que mientras eso sucede, el modelo analítico tradicional de extraer todos los datos a una fuente centralizada como un almacén de datos o un entorno de prueba analítico, va a tener cada vez menos sentido.

Por lo tanto, la mayoría de las conversaciones que estamos teniendo sobre Analíticos para Internet de las Cosas, hoy giran en torno a cómo las empresas pueden darle la vuelta al modelo y descubrir formas de llevar la analítica al límite. Si puede ejecutar analíticas al límite, no solo puede eliminar el tiempo, el ancho de banda y los gastos necesarios para transportar los datos, sino que también permite tomar medidas inmediatas en respuesta a la información. Se agiliza y simplifica el proceso analítico de una manera que nunca se había hecho antes".

Para ayudarnos a entender qué es exactamente "análisis al límite", creemos que todo se reduce a la respuesta de estas preguntas:

  • ¿Realmente estamos desarrollando analíticas al límite?
  • Si no, ¿qué tipo de análisis estamos realizando al límite?
  • ¿Dónde se están construyendo realmente los modelos analíticos?
  • Y, finalmente, ¿qué diablos significa "en el límite" en realidad?
  • Así que empecemos con la última pregunta: ¿qué significa realmente "en el límite"?

Pregunta No. 1: ¿Qué es "Al Límite (At The Edge)"?

"En el borde" o "al límite" se refiere a la multitud de dispositivos o sensores dispersos por cualquier red o integrados en un producto (automóvil, motor a reacción, escáner CT), que genera datos sobre las operaciones y el rendimiento de ese dispositivo o sensores específicos.

Por ejemplo, el actual modelo Airbus A350 tiene cerca de 6.000 sensores y genera 2.5 Tb de datos por día, mientras que un modelo aún más nuevo, que se espera estará disponible en 2020, capturará más del triple de esa cantidad de datos. Cada vez es más común que los productos comunes de todos los días no tengan cientos, sino miles de sensores incorporados que generan lecturas cada dos segundos, sobre las operaciones y el rendimiento de ese producto en particular.


Pero la recopilación de estos enormes volúmenes de datos en tiempo real no hace nada para crear directamente una ventaja comercial. Más bien es lo que haces con esos datos lo que impulsa el valor del negocio, lo que nos lleva a...

Pregunta No. 2: ¿Estamos realmente desarrollando Analíticos "Al Límite"?

¿Estamos realmente "realizando análisis" (recopilando los datos, almacenando los datos, preparando los datos, ejecutando algoritmos analíticos, validando la bondad analítica del ajuste y luego actuando sobre los resultados) en los límites, o simplemente estamos "ejecutando los modelos analíticos en éstos? Una cosa es "ejecutar los modelos analíticos" (por ejemplo, puntajes, reglas, recomendaciones) en los límites, pero algo completamente diferente para "realizar análisis" en los límites.

Podemos entregar modelos analíticos a cualquier punto final. Podemos ejecutar los modelos analíticos en cualquier entorno, grande o pequeño. Podemos ejecutar todos los pasos para realizar análisis en una amplia gama de entornos, pero existen limitaciones para estos límites. Las limitaciones están en la solidez del entorno (es decir, no puede entregar un ejecutable a un entorno que no tiene la memoria o la capacidad de procesamiento para almacenarlo o ejecutarlo. No podemos cambiar las leyes de la física.

Pregunta No. 3: ¿Qué tipos de análisis estamos realizando en Los Límites?

En nuestro ejemplo del Aibus A350 con 6.000 sensores que generan más de 2.5 Tb de datos por día, ¿cómo estamos realizando los análisis al final?

Si el motor a reacción tiene un lugar para albergar una Máquina Virtual Java (JVM) y un modelo analítico (es decir, un modelo basado en reglas ligeras), entonces podemos ejecutar el modelo en el propio motor. Si el modelo transmite los datos a una red, podemos ejecutar el modelo analítico en una puerta de enlace (gateway) o servidor intermedio.


Piense en una red con anillos concéntricos. Cada anillo puede tener muchos servidores. Cada servidor puede hacer cualquiera de los dos: ejecutando un modelo analítico o construyendo los modelos analíticos. Ahora piense en muchas redes de redes con anillos concéntricos que se entrelazan en varias intersecciones. Los análisis pueden realizarse en cualquiera o todos los niveles, incluso en el núcleo, en un centro de datos o en la nube.

Al trabajar en conjunto con Dell Boomi, los usuarios ahora tienen la capacidad de implementar JVM con los modelos analíticos en cualquier dispositivo de borde o puerta de enlace en cualquier lugar de la red o dispositivo. Esta capacidad de puntaje permite a las organizaciones abordar casi cualquier caso de uso de análisis de IoT al ejecutar los modelos analíticos en el borde de la red donde se crean los datos.

Pregunta No. 4: ¿Dónde se están construyendo realmente los modelos analíticos?

De acuerdo, entonces "ejecutamos" los modos preconstruidos en el límite, pero realmente se construyen (prueban, refinan, prueban, refinan) los modelos analíticos, al volver a poner los datos detallados del sensor en un entorno central de datos y análisis (también conocido como Lago de Datos). La siguiente figura muestra el flujo de datos y la ejecución analítica de soporte.


A modo de punto final, incluso si está haciendo todo el análisis de sensor/IoT en los límites, es probable que todavía desee volver a poner los datos de Internet de las Cosas sin procesar, en el lago de datos para un análisis más exhaustivo con el fin de albergar el historial detallado de Internet de las Cosas.

Por ejemplo, tenemos ciclos económicos importantes cada 4 a 7 años. Es posible que desee cuantificar el impacto de estos cambios económicos en la demanda y el rendimiento de su red. Eso eventualmente requerirá de 8 a 14 años de datos. Y es por eso que va a querer un lago de datos como base de la transición de un mundo de Internet de las Cosas "conectado" a un mundo de Internet de las Cosas que sea "inteligente".