Mostrando entradas con la etiqueta Big Data. Mostrar todas las entradas
Mostrando entradas con la etiqueta Big Data. Mostrar todas las entradas

lunes, 12 de febrero de 2024

La Transformación Digital: Un Viaje hacia el Futuro de las Organizaciones

En una entrada anterior: "Convergencia Digital. A siete años de que dio inicio", esperamos haber dejado cierta claridad sobre el que consideramos es el concepto eje al rededor del cual gira todo lo que ahora son las Tecnologías de la Información. En dicha entrada también habíamos mencionado que la Convergencia Digital había metamorfoseado en la Transformación Digital. Es por eso que ahora creemos prudente tocar este segundo tema en particular, de una manera muy semejante.

Introducción

En el mundo contemporáneo, caracterizado por una evolución tecnológica sin precedentes, la transformación digital se ha convertido en un imperativo estratégico para organizaciones de todos los tamaños y sectores. Este proceso va más allá de la simple adopción de tecnologías digitales; implica una reinvención fundamental de cómo las empresas operan, entregan valor a sus clientes y se posicionan en un mercado globalmente interconectado. En este artículo, exploraremos los pilares, desafíos y estrategias clave para navegar con éxito la transformación digital.

Definición y Alcance

La transformación digital se refiere a la integración de tecnologías digitales en todas las áreas de una empresa, cambiando fundamentalmente la forma en que opera y brinda valor a sus clientes. También implica un cambio cultural que requiere que las organizaciones desafíen constantemente el status quo, experimenten y se adapten a fallos rápidos.

A modo de paréntesis, cabe también mencionar cuáles son las tecnologías que vinieron dentro de la Transformación Digital.

Las primeras doce tecnologías con impacto a corto plazo son:

  • Cómputo en La Nube (de la Tercera Plataforma)
  • Big Data (de la Tercera Plataforma)
  • Blockchain (de la Cuarta Revolución Industrial)
  • Realidad Virtual (de la Cuarta Revolución Industrial)
  • Realidad Aumentada (de la Cuarta Revolución Industrial)
  • Internet de las Cosas (de la Cuarta Revolución Industrial)
  • Inteligencia Artificial (de la Cuarta Revolución Industrial)
  • Vehículos Autónomos (de la Cuarta Revolución Industrial)
  • Robots (desde la Tercera Revolución Industrial)
  • Fábricas Oscuras  (de la Cuarta Revolución Industrial)
  • Impresión 3D (de la Cuarta Revolución Industrial)
  • Biología Sintética (de la Cuarta Revolución Industrial)

Otras cuatro tecnologías con impacto a largo plazo son:

  • Auto Ensamble Molecular 
  • Cómputo Cuántico
  • Cómputo Orgánico
  • Interfaces Cibernéticas

Pilares de la Transformación Digital

Tecnología Digital: La adopción de tecnologías como la nube, big data, inteligencia artificial (IA), Internet de las Cosas (IoT) y la automatización son fundamentales para habilitar nuevas formas de trabajo y crear nuevos modelos de negocio.

Cambio Organizacional y Cultural: La transformación digital requiere no solo de cambios tecnológicos sino también de un cambio en la mentalidad organizacional. Promover una cultura de innovación, flexibilidad y adaptabilidad es esencial.

Experiencia del Cliente: Centrarse en la experiencia del cliente es vital. La digitalización ofrece nuevas oportunidades para entender y satisfacer las necesidades de los clientes de manera más efectiva y personalizada.

Modelos de Negocio: La transformación digital puede conducir a la creación de nuevos modelos de negocio, desde la monetización de datos hasta servicios basados en suscripción y economías de plataforma.

Desafíos y Estrategias

Resistencia al Cambio: Superar la resistencia al cambio es uno de los mayores desafíos. La capacitación y la comunicación efectiva son claves para alinear al equipo con la visión digital.

Seguridad de la Información: A medida que las empresas se vuelven más digitales, también aumentan los riesgos relacionados con la seguridad de la información. Adoptar un enfoque proactivo en ciberseguridad es fundamental.

Integración de Tecnologías: La integración de nuevas tecnologías con sistemas existentes puede ser compleja. Elegir las plataformas y herramientas adecuadas que ofrezcan escalabilidad y flexibilidad es crucial.

Talento Digital: La demanda de habilidades digitales supera la oferta. Desarrollar talento interno y atraer nuevo talento con capacidades digitales es esencial para el éxito.

Estrategias para una Transformación Digital Exitosa

Visión y Liderazgo Claros: La transformación digital debe ser impulsada desde la cúpula de la organización, con una visión clara y un compromiso firme.

Enfoque en el Cliente: Diseñar estrategias digitales con un enfoque centrado en el cliente para satisfacer sus expectativas cambiantes.

Agilidad y Flexibilidad: Adoptar metodologías ágiles para acelerar la entrega de proyectos digitales, permitiendo adaptaciones rápidas a los cambios del mercado.

Cultura de Innovación: Fomentar una cultura que valore la experimentación, el aprendizaje continuo y la tolerancia al fracaso.

Conclusión

La transformación digital no es un destino, sino un viaje continuo de reinvención. En este paisaje dinámico, las organizaciones que se adaptan rápidamente, adoptan tecnologías emergentes y centran sus estrategias en el cliente no solo sobrevivirán sino que prosperarán. A medida que avanzamos hacia un futuro cada vez más digital, la capacidad de una organización para evolucionar y transformarse determinará su éxito a largo plazo.

¿Usted y su organización ya están gozando los beneficios de la Transformación Digital?

martes, 16 de febrero de 2021

Cloud Paks de IBM. Microservicios en Multi Nube Híbrida

Parte esencial de la Tercera Plataforma. Tecnología fundamental dentro de las doce tecnologías con impacto a corto plazo de la Transformación Digital y uno de los cimientos fundamentales para la Cuarta Revolución Industrial, el Cómputo en La Nube ha sido pues de lo más revolucionario que se tiene ahora en lo referente a las Tecnologías de la Información.

Cómo recordamos y con mucho afecto esos días en los que el Cómputo, los Sistemas, la Informática se llevaba a cabo programando sobre un hardware, para poder obtener un Sistema de Cómputo que pudiese subsanar las necesidades de administración, contabilidad, producción, etc. en una empresa u organización.

El "boom" que vino de la mano de la Segunda Plataforma, o la Arquitectura Cliente-Servidor, hizo que sin darnos cuenta y sin previo aviso, fuésemos responsables de programas de cómputo monolíticos, enormes,  con millones de líneas de código y que cada que fuese necesario realizar un cambio, una actualización, arreglar un desperfecto (por más pequeño que este fuera), requeríamos abrir una ventana de mantenimiento y la operación podía durar un par de meses.

Los negocios, la gestión de empresas y/o entidades de gobierno y todas esas actividades para las que se había creado o comprado una aplicación, evolucionaron por su cuenta y ahora los cambios suceden con una frecuencia inusitada e inverosímil para aquellos tiempos en los que muchas aplicaciones se habían creado. Ahora los usuarios (no decenas ni cientos, sino miles o millones) no estaban detrás de una Terminal "tonta" (en una estación de trabajo fija). Tampoco estaban en Computadoras Personales de Escritorio (Desktops). Mínimo los usuarios están detrás de una Computadora con Monitor Abatible (LapTop), una Tableta con tecnología "touch" y servicio de red inalámbrica o con un Dispositivo Personal Móvil en su mano, y éstos pueden estar en su casa, en un ciber-café, en la calle, en un vehículo de transporte público o inclusive en la Estación Espacial Internacional. Sí. Literalmente donde quieran y utilizando el dispositivo que en ese momento pueden o quieren utilizar. Todo un reto.

Las Redes de Cómputo son ese aparato circulatorio por el cual los datos fluyen en todos los sentidos. Los riesgos de seguridad se han multiplicado y literalmente, los usuarios no pueden esperar más de tres segundos por su información. Para desgracia de muchos negocios, existen muchas opciones para los usuarios quienes no dudarán en abandonar una opción e inmediatamente tomar otra distinta que les ofrezca lo que necesitan, cuando lo necesitan, en donde quiera que estén y sin esperar tres segundos.

¿Se imaginan estar en la época de los Mainframe (Primera Plataforma), o incluso de la Arquitectura Cliente-Servidor (Segunda Plataforma), con los tiempos y procedimientos para crear, actualizar, reparar aplicaciones en estos tiempos tan vertiginosos con usuarios tan exigentes y voraces?

La Nube (pública, híbrida o privada) representó un considerable ahorro para los Costos de Capital (CapEx) y un uso más eficiente en lo que se refiere al Costo Operativo (OpEx). Pero aún así el seguir "montando" inmensas aplicaciones monolíticas (aunque fuese en modalidad Multi-Capa) seguía siendo un enorme reto.

¿Y qué pasó entonces? Nació la Arquitectura de Microservicios (en inglés, Micro Services Architecture, MSA).

Ésta es una aproximación para el Desarrollo de Software que consiste en construir una aplicación como un conjunto de pequeños servicios, los cuales se ejecutan en su propio proceso y se comunican con mecanismos ligeros (normalmente una API de recursos HTTP).

En esta Arquitectura, cada servicio se encarga de implementar una funcionalidad completa del negocio. Cada servicio es instalado, configurado y aprovisionado de forma independiente y puede estar programado en distintos lenguajes, usando diferentes tecnologías de almacenamiento de datos.

¿Cuáles son las características principales de los Microservicios?

  • Los componentes son servicios: Los servicios son componentes separados que se comunican mediante mecanismos como los servicios web o los RPC en lugar de usar llamadas a funciones en memoria como hacen las bibliotecas.

  • Organización en torno a las funcionalidades del negocio: El sistema se divide en distintos servicios donde cada uno está organizado en torno a una capacidad del negocio. Es muy importante limitar la responsabilidad de cada servicio. Cada servicio implementa toda la funcionalidad del negocio que agrupa desde la interfaz de usuario, la persistencia en el almacenamiento y cualquiera de las colaboraciones externas.

  • Productos, no proyectos: En esta arquitectura normalmente se sigue la idea de que un equipo debe estar a cargo de un componente (servicio) durante todo el ciclo de vida del mismo, desde la etapa de diseño y construcción, la fase de producción y hasta la de mantenimiento. Esta mentalidad se acopla bien con la vinculación a una capacidad del negocio. En lugar de ver el software como un conjunto de funcionalidades terminadas se ve como una relación continua, donde la pregunta es cómo puede el software ayudar a sus usuarios a mejorar la funcionalidad del negocio que implementa. Esto es facilitado por el bajo nivel de granularidad que ofrecen los microservicios.

  • Extremos inteligentes, tuberías bobas: Las aplicaciones creadas desde microservicios pretenden ser tan disociadas y cohesivas como sea posible, ellas poseen su propia lógica de dominio y actúan como filtros en el clásico sentido UNIX: recibe una solicitud, aplica la lógica apropiada y produce una respuesta. Estos pasos son coreografiados usando protocolos simples (típicamente HTTP con REST o mensajería liviana como RabbitMQ o ZeroMQ) en lugar de protocolos complejos como WS-BPEL.

  • Tener gobernabilidad descentralizada: Con el sistema con múltiples servicios colaborativos, podemos decidir utilizar diferentes lenguajes de programación y tecnologías dentro de cada servicio. De esta forma podemos elegir la herramienta adecuada para cada tipo de trabajo en lugar de tener una estandarizada. Por ejemplo si una parte del sistema necesita mejorar su rendimiento es posible usar una tecnología, quizás más complicada, que permita alcanzar el nivel de rendimiento requerido.

  • Gestión de datos descentralizada: Los microservicios prefieren dejar a cada servicio que gestione su propia base de datos, sean estos diferentes instancias de la misma tecnología de base de datos o sistemas de base de datos completamente diferentes.

  • Diseño tolerante a fallos: Las aplicaciones necesitan ser diseñadas de modo que puedan tolerar las fallas de los distintos servicios. Cualquier llamada de servicio puede fallar y el cliente tiene que ser capaz de responder a esto con la mayor facilidad y eficacia posible, evitando los muy habituales fallos en cascada de las arquitecturas distribuidas.

  • Automatización de la infraestructura: La mayoría de los productos y sistemas desarrollados con el enfoque de microservicios han sido construidos por equipo que usan entrega continua y su precursor la integración continua. Para conseguir esto es necesario:
    • Automatizar todo el proceso, desde el chequeo del código, pruebas, despliegue.
    • Control de versiones y gestión de configuración.
    • Arquitectura (hardware-software-sistema operativo) adecuada. Tiene que permitir realizar cambios sin que afecten al resto del sistema.

  • Diseño evolutivo: Cuando se divide el sistema en servicios hay que tener en cuenta que cada uno tiene que poder ser reemplazado o actualizado de forma independiente.

Todo esto se lee y suena fantástico. ¿Pero cómo es posible lograr todo esto de manera concreta, completa y cabal? La respuesta a esta pregunta de llaman Contenedores de Cómputo.

Los Contenedores son elementos que contienen (valga la redundancia) están centrados en las aplicaciones, para que estas sean escalables de alto rendimiento, pudiéndose ejecutar en cualquier infraestructura que se elija. Los Contenedores son los más adecuados para ofrecer microservicios, al proporcionar entornos virtuales portátiles y aislados para que las aplicaciones se ejecuten sin interferencia de otras aplicaciones en ejecución.

Un contenedor es una unidad estándar de software que empaqueta el código y todas sus dependencias para que la aplicación se ejecute de forma rápida y confiable de un entorno informático a otro. Una imagen de contenedor en la plataforma de ejecución para contenedores Docker, es un paquete de software ligero, independiente y ejecutable que incluye todo lo necesario para ejecutar una aplicación: código, tiempo de ejecución, herramientas del sistema, bibliotecas del sistema y configuraciones.

Aquí ya comenzamos a tocar un tema dentro de esto que es los Contenedores, y aquí vale la pena hacer una aclaración: Los Contenedores NO SON Máquinas Virtuales, y aunque suene a todo un "cliché" o un pleonasmo, las Máquinas Virtuales NO SON tampoco Contenedores. Lo que es más, es posible ejecutar Contenedores DENTRO de Máquinas Virtuales, pero nunca una Máquina Virtual podrá ejecutarse en un ambiente de ejecución para Contenedores, pues la máquina virtual necesita de un Hipervisor.

Vale la pena entonces también hacer un paréntesis para mencionar que, los Micro Servicios (y por ende los Contenedores), nada tienen que ver con la Arquitectura Orientada a Servicios o Service Oriented Architecture (SOA). Un ejemplo de implementación de esta Arquitectura son los Web Services.

La Arquitectura Orientada a Servicios es un estilo de arquitectura de TI que se apoya en la orientación a servicios y se deriva de la Web 2.0 en lo concerniente a relación Negocio a Negocio. La orientación a servicios es una forma de pensar en servicios, su construcción y sus resultados. Aquí un servicio es una representación lógica de una actividad de negocio que tiene un resultado de negocio específico (ejemplo: comprobar el crédito de un cliente, obtener datos de clima, consolidar reportes de perforación).

El estilo de arquitectura SOA se caracteriza por:

  • Estar basado en el diseño de servicios que reflejan las actividades del negocio en el mundo real, estas actividades forman parte de los procesos de negocio de la compañía.
  • Representar los servicios utilizando descripciones de negocio para asignarles un contexto de negocio.
  • Tener requerimientos de infraestructura específicos y únicos para este tipo de arquitectura, en general se recomienda el uso de estándares abiertos para la interoperabilidad y transparencia en la ubicación de servicios.
  • Estar implementada de acuerdo con las condiciones específicas de la arquitectura de TI en cada compañía.
  • Requerir un gobierno fuerte sobre las representación e implementación de servicios.
  • Requerir un conjunto de pruebas que determinen que es un buen servicio.

El desarrollo e implementación de una arquitectura SOA se rige por los principios descritos en el manifiesto SOA. Por otra parte la aplicación de la orientación a servicios se divide en 2 grandes etapas:

  • Análisis orientado a servicios (Modelado de servicios)
  • Diseño orientado a servicios

Volviendo ahora al tema, para hacer más simple el entendimiento de el concepto de lo que es el Contenedor, imagine por un momento que Usted necesita ejecutar, en su computadora de escritorio un par de aplicaciones. Estas aplicaciones NO es posible instalarlas sobre el mismo Sistema Operativo que actualmente se ejecuta en su equipo de cómputo, pues ambas tienen en común "bibliotecas" (libraries) y recursos informáticos que no pueden compartir. Una evita que la otra se ejecute en el mismo ambiente de ejecución (valgan las redundancias).

¿Qué hacer entonces? Si esto nos lo hubiesen preguntado hace dos años, la respuesta sería: -"...instala VMware WorkStation Player o Virtual Box sobre tu Sistema Operativo, crea dos máquinas virtuales y sobre los respectivos Sistemas Operativos, instala en cada una su aplicación correspondiente."- Hoy y si esta aplicación viene "contenerizada", no necesitas hipervisor alguno. Mientras que el "Kernel" del Sistema Operativo sea compatible a ambas aplicaciones, usando un ambiente de ejecución de contenedores (como el ya mencionado Doker), no es necesaria ninguna Máquina Virtual. Ambas aplicaciones pueden convivir en el mismo Hardware.

Queda entonces claro que, para poder ejecutar contenedores es necesario:

  • Un Sistema Operativo (Linux) en el que se pueda instalar el ambiente de ejecución de contenedores
  • Un ambiente de ejecución de contenedores (Doker)
  • Los contenedores

Sí. Así de sencillo. Huelga decir que estos contenedores pudiesen trabajar completamente independientes uno del otro o trabajar en conjunto para conformar una Aplicación. También podemos inferir de todo esto, que con tan solo un modesto equipo de cómputo (pudiese ser incluso a nivel de escritorio) es posible comenzar con nuestra aventura con los Contenedores.

Todo esto ha estado funcionando tan bien y ha tenido tanto sentido para las empresas y organizaciones, que se disparó una tremenda proliferación de aplicaciones contenerizadas. Esto comenzó entonces a presentar sendos retos para la administración de los Contenedores.

Sólo para comenzar, éstos ya no se instalaban en equipos pequeños, sino que ahora se tenían Clusters de Servidores que proveen todo lo necesario en cuanto a ambiente de ejecución se requiere. Dichos Clusters en su mayoría son basados en plataformas de Virtualización y esto también fue lo que hizo que cada vez se tuviesen ambientes más y más complejos para controlar los Contenedores. Fue entonces que se hizo necesaria una herramienta que permitiese orquestar, administrar de manera centralizada y automatizar la operación de los Contenedores. Nace Kubernetes.

Kubernetes (referido en inglés comúnmente como “K8s”) es una herramienta de Código Abierto creada para la automatización del despliegue, escalabilidad y administración de aplicaciones en contenedores,​ que fue originalmente diseñado por Google y donado a la Cloud Native Computing Foundation (parte de la Linux Foundation). Soporta diferentes entornos para la ejecución de contenedores, incluido Docker.

Ahora los Desarrolladores y el personal de Operación de las empresas y organizaciones, encontraron un muy valioso aliado para poner bajo control desde pequeñas y hasta inmensas cantidades de contenedores.

No vamos a ahondar en el tema de Kubernetes, pues merece un tratamiento aparte. Lo que sí vale la pena mencionar es que aunque es posible ejecutar Contenedores contando tan sólo con Doker (la plataforma o ambiente de ejecución), Kubernetes ha demostrado ser indispensable.

Para muchas áreas de Tecnologías dela Información de empresas y organizaciones, ya en la práctica, poder armar todo lo referente al ambiente de ejecución, automatización, orquestación, administración, etc. para los Contenedores, no resultó tan fácil como se escuchaba o leía. ¿Qué hacer para aprovechar todas las bondades de los Contenedores y no tener que lidiar con todo lo que implica poner a punto toda esa estructura necesaria). Llegó al rescate Red Hat® OpenShift®.

OpenShift® es una familia de productos de software de contenedorización desarrollados por Red Hat®. Su producto estrella es OpenShift® Container Platform, una plataforma local como servicio construido alrededor de contenedores Docker orquestados y administrados por Kubernetes sobre la base de Red Hat® Enterprise Linux. 

La familia de productos OpenShift® proporciona la ten necesaria plataforma a través de diferentes entornos: OKD (Origin Community Distribution) que sirve como el upstream impulsado por la comunidad (similar a la forma en que Fedora está upstream de Red Hat® Enterprise Linux). OpenShift® Online, la plataforma que se ofrece como software como servicio y OpenShift® Dedicated, la plataforma que se ofrece como servicio gestionado.

Hasta el momento hemos mencionado que los Contenedores son ideales para crear un ambiente de Plataforma como un Servicio, sobre nuestra Infraestructura como un Servicio, en nuestros Centros de Datos Definidos por Software. Digamos que ahora tenemos nuestra Nube Privada ejecutando nuestros Contenedores.

¿Y qué sucede cuando queremos incorporar Servicios de Infraestructura en Nubes Públicas? Cierto. La evolución a entornos de ejecución fuera de la empresa, da soporte y es esencial para esa necesidad de proveer a nuestros Usuarios de sus aplicaciones que se puedan ejecutar donde sea, cuando sea, a través del dispositivo que sea.

Leyes, normatividades, regulaciones pusieron un freno a la migración total desde La Nube Privada (o los ambientes On Premise) hacia La Nube Pública. Por lo que las empresas y organizaciones optaron por un mitad-y-mitad naciendo con esto La Nube Híbrida. En esta modalidad se aprovecha lo mejor de La Nube Privada y La Nube Pública, dando como resultado un ambiente de ejecución homogéneo (o idealmente homogéneo) en donde los Usuarios "ni se enteran" de a dónde se están ejecutando sus Servicios. Ellos simplemente disfrutan de estos.

El nuevo reto entonces era elegir en qué proveedor de Nube Pública ejecutar nuestros Contenedores. Pues en un principio y aunque los ambientes de ejecución de Contenedores no requieren de bastos recursos informáticos, sí es indispensable el armar toda la estructura (física y/o virtual) que de sustento dicho ambiente de ejecución.

Aquí es entonces a donde entra el concepto de los Cloud Paks de IBM. Son software con tecnología de Inteligencia Artificial para La Nube (o Multi Nube) Híbrida , que nos permite implementar por completo flujos de trabajo inteligentes la empresa u organización, para acelerar el camino a la transformación digital en lo que a Contenedores se refiere.

IBM Cloud Paks aprovecha el poder de IBM Watson® para aplicar Inteligencia Artificial a su negocio, predecir y dar forma a resultados futuros, automatizar procesos complejos, optimizar el tiempo de administradores de T.I. y crear ambientes más ágiles y seguros.

Basados en Red Hat® OpenShift®, es posible desarrollar o instalar aplicaciones contenerizadas una vez, e implementarlas en cualquier lugar de cualquier Nube Pública o Privada. Además, puede integrar la seguridad y automatizar las operaciones con visibilidad de gestión. IBM Cloud Paks tiene una base común de componentes empresariales que aceleran el desarrollo, brindan una integración perfecta y ayudan a mejorar la colaboración y la eficiencia.

Los flancos en los que tenemos por el momento los Cloud Paks son:

  • Datos
  • Automatización del Negocio
  • Operaciones con Inteligencia Artificial provista por Watson
  • Integración
  • Automatización de la Red
  • Seguridad

En entregas posteriores abordaremos cada uno de estos Cloud Paks. Por el momento baste decir que si dentro de los requerimientos de su empresa u organización ya se está trabajando y/o se requiere implementar a corto plazo la contenerización de sus aplicaciones, Cloud Paks de IBM son la mejor alternativa Multi Nube.

¿Su empresa u organización ya está trabajando con Contenedores?

lunes, 6 de enero de 2020

Para comenzar el 2020, desde el CES 2020

Feliz año nuevo. Este es nuestro primer "post" de el año que a nuestro juicio cierra la segunda década del Siglo XXI.

Aunque en ocasiones anteriores cerrábamos con broche de oro el año en curso con unas predicciones para el año inmediato posterior, preferimos comenzar el año con las predicciones y que mejor para ello, que el motivador, el disparador de esos vaticinios fuese el Consumer Electronics Show en Las Vegas, Nevada (EEUU).

Ya en materia mencionamos que estuvimos en el "Keynote" que ofreció hace unos minutos Steve Koenig, Vicepresidente de Investigación en la Asociación de Tecnología del Consumidor, para dar la bienvenida oficial a quienes ya estamos en lo que es el CES 2020.

¿Qué es lo que en palabras de Steve Koenig debemos esperar del CES 2020? Para comenzar, Internet de las Cosas evoluciona a Inteligencia de las Cosas (ambas abreviadas como IoT). -"Cuando estamos hablando de la influencia de la tecnología en la cultura, estamos hablando en cambios en el comportamiento del consumidor. Esto va a ser muy interesante de observar en los próximos diez años"- menciona Koenig.

La Inteligencia de las Cosas es primordialmente una nueva dinámica, y ya que estamos agregando inteligencia a la industria y a toda la economía en general,  estamos obligados a pensar en cómo la industria seguirá presionando en la agenda de conectividad y, si de conectividad se trata, por supuesto es imprescindible hablar sobre el 5G. Es precisamente la quinta generación de la conectividad a través de redes otrora reservadas para la Telefonía Celular, una de las narrativas principales de el CES 2020.

Algo que caracterizó al 2019 en este rubro fue la aparición cuasi espontánea de 50 diferentes redes al rededor del mundo. En la imagen que se anexa a la izquierda de este párrafo, estamos precisamente incluyendo las más importantes tomando en cuenta de dónde son.

Cabe agregar que esto sigue siendo sólo el comienzo de las redes 5G o de quinta generación, por lo que para muchas de estas redes tempranas su iniciativa principal está muy centrada en el empleo por parte del consumidor final. Tomemos también en cuenta que el paso de las redes 4G a las 5G no será (ni debe de ser) abrupto. Se prevé por parte de todas las empresas que ofrecen redes de datos inalámbricas que se de un traslape entre ellas que permita en un inicio, seguir usando 4G y que sólo cuando sea necesario utilizar la red 5G. Será pues un período de coexistencia entre las dos tecnologías.

Resultados de las investigaciones realizadas por el Consumer Technology Association (CTA) Research Center, muestran (ver gráfica anexa a la derecha del presente párrafo) como ha sido este avance de la tecnología 5G, por sobre la ahora poco a poco más obsoleta tecnología 4G.

En la gráfica mencionada podemos ver, tomando en cuenta los envíos y ventas de equipos 5G al mercado global de Dispositivos Personales Móviles del año 2018 al 2023, cómo al principio de manera muy tímida (casi nula) en el año 2019 comenzaron realmente a ser fabricados y entregados estos equipos (1.6 millones de equipos 5G contra 160.9 millones en 4G sólo en Estados Unidos), para alcanzar un crecimiento esperado de poco más de doce veces y media en este 2020 (20.2 millones de equipos 5G contra 145.6 millones en 4G).

Siguiendo con la misma gráfica, vemos como para el año 2023 (en tan sólo tres años) la tecnología 5G sobrepasará por poco más de tres veces y media a la tecnología 4G. Extrapolando entonces parece que para el 2024 la tecnología 5G será la única existente.

Cierto. Tener la tecnología 5G disponible no servirá de nada si no tenemos claro el cómo, cuándo y dónde emplearla, así como el para qué. Pero si de algo están seguros los proveedores/operadores de esta tecnología de comunicación inalámbrica, es que ésta será empleada primordialmente en el mercado de consumo.

Lo que sí también está claro es que conforme estas redes de datos son más y más utilizadas y aceptadas por el mercado de consumo, las empresas verán en ellas cada vez más potencial. Lo interesante de todo esto es que, aunque las redes 5G son precisamente la quinta generación de redes públicas inalámbricas, esta será las primera tecnología de red inalámbrica en las que las empresas, la industria tomará el liderazgo en lo que se refiere a su uso, evolución y todo lo que esté al rededor de éstas. Por sobre todas las cosas, la aplicación de las redes 5G en las líneas de producción, en el área de logística, la distribución y prácticamente en cada rincón del quehacer de la industria.

Dos campos en los que la red 5G encontrará un uso más crítico es como complemento de Internet de las Cosas Masivo y el Internet de las Cosas crítico. Las aplicaciones que aprovecharán el IoT Masivo es el que involucra una inmensa cantidad de puntos finales (end points) y pequeñas porciones de datos. Traduciendo esto en términos prácticos, estamos hablando de sensores de temperatura, actuadores para encendido o apagado.

Las aplicaciones que involucran al IoT Crítico, por otro lado, tienen características diametralmente opuestas. Al contrario que las IoT Masivas aquí son solo algunos puntos finales (end points), pero maneja una mucho mayor cantidad de datos. Un ejemplo pudiese ser la cirugía practicada a pacientes vía remota, en donde el o los cirujanos están en locaciones completamente distintas de donde está el paciente. También otro ejemplo puede ser aquel que involucra a la robótica y Comunicaciones Ultra Confiables de Baja Latencia (URLLC por sus siglas en inglés).

Aquí vale la pena entonces hablar de aplicaciones prácticas o más bien campos del quehacer económico e industrial, en donde se pueden o ya mas bien deben aplicar estos conceptos. Uno de ellos es la Agricultura. El objetivo final es la habilitación de tecnologías digitales para resolver la escasez de alimento.

Ya en la edición de 2019 del Consumer Electronic Show, la empresa John Deere mostró una "Cosechadora Conectada". Este año la misma empresa presenta toda una solución en la que, con apego a la Cuarta Revolución Industrial, involucra Inteligencia Artificial aplicada a actividades que van desde equipo liviano, semipesado y pesado  para barbecho, siembra y cosecha de cultivos, sensores de humedad, analizadores de suelo (para dosificación inteligente de abonos, herbicidas y fungicidas), drones que pueden realizar actividades de siembra y monitoreo de cultivos, así como pequeñas estaciones meteorológicas estratégicamente colocadas, para sensar la humedad, temperatura y variables del ambiente para efecto de riego inteligente. Aquí también de nada sirven todos estos elementos que hemos mencionado, sin una red de datos lo suficientemente rápida, confiable, segura y escalable como la que las redes de datos 5g ofrecen.

También vale la pena mencionar que, por si solo, una red 5G, los sensores y la Inteligencia Artificial no tienen sustento alguno sin una solución de Analíticos dentro de la ecuación. De manera muy semejante a cuando los seres humanos tomamos nota, registramos y/o revisamos los reportes de los datos generados por los sensores de nuestra solución de IoT, sistemas de cómputo (instalados in situ, hiper convergentes,  físicos, virtuales y/o en La Nube) que sustenten una solución de Análisis de Datos es vital para que todo esto que hemos mencionado vaya más allá de instalar y conectar muchas cosas.

En una entrada anterior que compartimos a través de este mismo Blog Tecnológico intitulado "Internet de las Cosas, no es conectarlo todo contra todo", mencionamos que Internet de las Cosas no debe venir desarticulada, aislada o sola. Debe de ser parte de toda una estrategia que involucra íntimamente a Siete Capas, que a saber son (de arriba hacia abajo):

7.- Colaboración y Procesos.- En donde se involucra directamente a personas y los ciclos del negocio.
6.- Aplicaciones.- Todo lo relativo a Reportes, Análisis, Control.
5.- Abstracción de los Datos.- Adición y acceso a datos generados por capas inferiores.
4.- Acumulación de los Datos.- Almacenamiento de datos generados por capas inferiores.
3.- Edge Computing.- Análisis y Transformación de los datos generados por la capa 1.
2.- Conectividad.- Unidades para comunicación y pre-procesamiento de los datos.
1.- Dispositivos y Controladores Físicos.- Las "Cosas" (sensores y actuadores).

Hay muchas cosas más que ya están siendo presentadas dentro del Consumer Electronics Show 2020. Más delante en sucesivas entradas en este mismo Blog las estaremos compartiendo. A modo de conclusión entonces deseamos agregar que, nuevamente, la Electrónica de Consumo (ya desde hace dos décadas o más) está intrínsecamente ligada con las Tecnologías de la Información de manera que, nuestras vidas, todas y cada una de las ramas de la industria, así como toda actividad humana (productiva, educativa, de gobierno, etc.) requiere tanto de los artilugios de consumo como de esa maravillosa Convergencia Informática y Transformación Digital que ya están moviendo al mundo.

¿Está Usted preparado para el Consumer Electronics Show 2020?

miércoles, 20 de marzo de 2019

Internet de las Cosas desde abajo: Acumulación y Abstracción de Datos

En entradas anteriores hemos hablado de las primeras tres capas inferiores, en lo que respecta a una solución de Internet de las Cosas. Más concretamente:

1.- Dispositivos y Controladores Físicos
2.- Conectividad
3.- Edge Computing

Para continuar entonces, mencionaremos que para esta entrada decidimos unir la cuarta y quinta capas, pues ambas tienen una intrínseca y muy cercana relación no solo por el sufijo "de los Datos", sino porque una sin la otra no tienen sentido.

Sí. ¿De qué sirve acumular Datos generados por los sensores, actuadores y por la capa de Cómputo Perimetral, sin poder tener herramientas que permitan convertirlos en Información útil? Aunque no lo parezca, existe una diferencia abismal entro los Datos y la Información pues la segunda definitivamente no pueden vivir sin los primeros.

Lo primero que nos puede venir a la mente para poder responder a las muy posiblemente inmensas necesidades demandantes por Acumulación y Abstracción de los datos generados por Internet de las Cosas, es sin duda Big Data. ¿Es necesario entonces apuntar hacia esa y solo alternativa? Nuestra respuesta es no.

No queremos decir que Big Data no puede tener cabida. Cierto que de ella, las primeras cuatro de sus primeras cinco "Vs" pueden ayudarnos mucho:

  • Velocidad
  • Volumen
  • Valor
  • Veracidad

¿Qué hay de la Variedad? Como ya lo hemos hablado en las entradas anteriores, para poder tener éxito en una solución de Internet de las Cosas, es poder llegar a la estandarización. Sin ese proceso de ajustar o adaptar características en todas las capas y procedimiento de la solución, con el objetivo de que se apeguen a un modelo en común, simplemente el proyecto y sus objetivos parciales y totales, no puede llegar a buen termino.

Por ende, aquí la variedad no cuenta mucho, pues al final e insistimos, la estandarización manda.

La Acumulación perfectamente emparenta con el "Volumen", mientras que la "Velocidad" es muy valiosa, sobre todo en procesos en los que se requiere captar mucha información en tiempo real.

Obviamente esta información debe de pasar por un proceso que permita validar su "Veracidad" y por ende, dicha información podrá agregar "Valor al negocio.

Pensando con más detalle todo esto, tal parece entonces que más que un proyecto que involucra a Big Data, una solución de Internet de las Cosas requiere de Analíticos.

Las soluciones y Software para Analíticos no son cosa nueva. Desde inicios del siglo XXI, empresas como IBM, Oracle y otras tantas comenzaron a ofertar productos y servicios que se adaptan a necesidades de la micro, pegueña, mediana y gran empresa.

El objetivo de incorporar Analíticos es simple. Más allá de que nuestros dispositivos sensores sean tan inteligentes como para comportarse al más puro estilo del Cómputo Periférico o de Frontera, es necesario registrar esa información.

De manera similar a cuando nosotros aprendemos por la experiencia, haciendo, de manera semejante una solución de Internet de las Cosas debe de tener la capacidad y las herramientas suficientes y necesarias para lo mismo: aprender.

Esto entonces permitirá que, con algoritmos de Inteligencia Artificial, Aprendizaje de Máquina, etc. la Internet de las Cosas agregue valores agregados que redunden no solo en el éxito de la solución per se, sino el negocio en lo general.

Es precisamente con la Acumulación y Abstracción de datos, como las empresas, organizaciones o instituciones que integren la Internet de las Cosas a su "día a día", podrán integrar capas superiores como son las Aplicaciones (de cualquier índole) y esa cereza del pastel que es la Colaboración y Procesos hacia con el negocio.

¿Qué es y cuáles serían las consecuencias a corto, mediano y/o largo plazo, por no contar con Acumulación y Abstracción de Datos en una solución de Internet de las Coasas?

Es, solo para comenzar, como tener a un genio trabajando en nuestra empresa, pero que todo su trabajo se fuese por el drenaje. Estaríamos simplemente siendo reactivos (como ya de por sí lo son el 90% de las empresas en el mundo), dejando ir información y datos tan valiosos y variados, que nos permitirían ser mas proactivos, para con esto poder reaccionar más velozmente a los cambios cada vez más rápidos del ambiente productivo y de negocios.

¿Qué soluciones o productos de Analíticos son los mejores para nuestro proyecto de Internet de las Cosas? Cualquiera que permita entradas de datos de las fuentes citadas en entradas anteriores, sobre todo en lo que concierne a la capa de el Cómputo Periférico o de Frontera.

Vale la pena revisar cómo la capa arriba mencionada entrega los datos, así como también cómo "interfacear" con estos desde el punto de vista de la capa que permita realizar la Acumulación de los Datos. Será entonces que la capa de Abstracción de los Datos, permita que estos sean aprovechados por las Aplicaciones y la capa de Colaboración y Procesos, que estamos seguros que ya existe en la empresa, organización y/o institución que interesada en la solución de Internet de las Cosas.

Brevemente entonces podemos concluir que, la Acumulación y la Abstracción de Datos, son las capas que dan sustento y factibilidad a un proyecto de Internet de las Cosas, asegurando además su trascendencia y siendo la interfaz "de facto", para las capas superiores como lo son:

  • Las Aplicaciones.- Todo lo relativo a Reportes, Análisis, Control.
  • Colaboración y Procesos.- En donde se involucra directamente a personas y los ciclos del negocio.

En entradas posteriores hablaremos más a detalle de estas dos capas, que son (insistimos y perdón por ser tan reiterativos) lo que coronará el éxito de nuestro proyecto de Internet de las Cosas.

lunes, 31 de diciembre de 2018

¿Qué nos dejó el 2018?

La letra de una canción popular con ritmo afro-caribeño intitulada "El Año Viejo" (compuesta por Antonio Camargo), nos dice que el año que se despide: "nos dejó una chiva, una burra negra, una yegua blanca y una buena suegra..."-

En lo que respecta a las Tecnologías de la Información, nos ha dejado claro que:

1.-  La Nube Híbrida es lo de hoy y lo que estará vigente, hasta que otra tecnología semejante pero aún mejor, la sustituya. Las empresas, organizaciones e instituciones de todo el planeta ya están convencidas de lo positivo y las enormes ventajas del Cómputo en La Nube, predominantemente en lo que respecta a la Infraestructura como un Servicio (IaaS).

También quedó claro que para que una empresa, una organización y/o una institución pueda ostentar que cuenta con su Nube Privada para lo que respecta como Infraestructura como un Servicio, no basta con implementar una solución de Virtualización solamente.

Cierto es que sin la Virtualización, no se crea esa muy necesaria Capa de Abstracción, que permite aislar el componente Hardware de lo que es el servicio en sí que proporciona dicho componente. ¿Cómo es esto? Precisamente la Virtualización, con Administración basada en Política y Automatización, permite que se tenga Cómputo Definido por Software (procesador y memoria).

Con productos como VMware NSX (Redes Definidas por Software) y VMware Virtual SAN (Almacenamiento Hiperconvergente Definido por Software), se obtiene así un Centro de Datos Definido por Software, que no es otra cosa que una Nube Privada en la modalidad Infraestructura como un Servicio.

2.- La Hiperconvergencia no es más una opción. Es una necesidad. Sí. Las empresas que ya han probado la hiperconvergencia no están dispuestas a dejarla de lado ni por todo el oro del mundo. Una vez que se viven las ventajas de ésta, simplemente no se puede más regresar a el cómputo "de antaño".

Proveedores como Nutanix han sabido hacer crecer y evolucionar este concepto, al grado de convertirse en la opción número uno dentro y fuera del "cuadrante mágico de Gartner".

Cierto es que existen más opciones por parte de otros proveedores, pero la verdad y siendo honestos, no es lo mismo nacer, crecer y desarrollar todo un concepto, que simplemente "subirse" al tiovivo de una tendencia tecnológica para intentar decir: -"...yo también lo tengo."-

¿Dudoso aún por implementar Hiperconvergencia en su empresa, su organización, su institución? Piénselo bien, pero no tarde demasiado. Muchas empresas, organizaciones e instituciones ya lo hicieron, con excelentes resultados.

3.- Inteligencia Artificial, con nosotros, sin nosotros y/o a pesar de nosotros. La evolución y el éxito no esperan por nada ni por nadie. Desde una humilde aplicación en un dispositivo de cómputo portátil (smartphone), hasta el complejo cerebro que permita administrar más fácilmente una Ciudad Inteligente, todo esto necesita de una Inteligencia Artificial.

Bien sabido es que, tanto en organismos biológicos como en Tecnologías de la Información, de nada sirve tener enormes cerebros llenos de neuronas, si no se cuenta con sentidos (sensores) y un buen algoritmo que permita ese razonamiento y análisis. Por ello el Aprendizaje de Máquina, el Análisis de Datos, Big Data e Internet de las Cosas, forman parte fundamental de esta tecnología que viene dentro de la Transformación Digital.

4.- Internet de las Cosas aquí, allá y en todo lugar. Como versa la letra de el grupo británico The Beatles en una ya icónica canción publicada en el año de 1966 incluida en su álbum "Revolver", ahora no podemos concebir un mundo sin la Internet de las Cosas.

Aunque para todos pueda resultar anónima, elusiva o incluso desconocida, ésta tecnología que nos trajo la Transformación Digital, vehículos automotores, electrodomésticos, juguetes, instrumental quirúrgico, equipos para hospitales, nuestros dispositivos de cómputo portátil (smart phones) y prácticamente todo lo que nos rodea, ya cuenta con elementos que aportan o son parte de la Internet de las cosas.

Se espera que para el ya muy cercano año 2020, habrá ocho dispositivos conectados a la Internet por cada habitante del planeta tierra. Baste considerar que hasta el mes de Julio del año 2018, éramos ya Siete Mil Seiscientos Treinta y Cuatro millones de seres humanos y contando. Si extrapolamos la cifra antes mencionada para el mes de Julio de 2020 (aproximadamente Siete Mil Seiscientos Noventa millones de habitantes), el resultado de esa operación aritmética resulta en asombrosos SESENTA Y UN MIL QUINIENTOS VEINTE MILLONES DE DISPOSITIVOS CONECTADOS A LA INTERNET.

El reto para 2019 y más allá, será proporcionar conexiones seguras, eficientes, confiables a todos y cada uno de estos dispositivos que ya está contribuyendo (aún de manera algo modesta) a que nuestro mundo sea cada vez más predecible, seguro, controlable.

5.- La Cuarta Revolución Industrial, la Convergencia Informática y la Transformación digital, han sentado las bases para más y mejores empleos. Esto ya comenzó a ser visible y evidente en diversos rubros del quehacer humano, la industria, el comercio, el entretenimiento y la educación. Como ya ha sucedido en el devenir de la historia de la humanidad, cada Revolución Industrial crea nuevas oportunidades para quienes realmente están dispuestos y dispuestas a aprovecharlas.

¿Recuerdan cómo se hacían las cosas antes de las Computadoras Personales? ¿Recuerdan cómo nos comunicábamos antes de la telefonía celular? ¿Recuerdan cómo trabajábamos antes de los dispositivos inteligentes? ¿Recuerdan cómo jugábamos antes de las consolas de video juegos?

La vida como la conocemos, ha sido una maravillosa consecución de revoluciones industriales, creación y ruptura de paradigmas. No podemos ni debemos quedarnos al margen de toda esta vertiginosa evolución, pues ésta no va a esperar por nada ni por nadie.

6.- Estándares mejorados de comunicación inalámbrica. 5G. Cinco Ge. Son los dos caracteres que juntos dan nombre a la nueva generación (obviamente la quinta generación) para la red de telefonía celular, que en 2018 terminó de madurar y que para 2019 se abrirá paso de manera rápida y brutal.

Cierto es que "per se" plantea inmensos retos a las empresas que ya están pre-anunciando que ofrecerán este servicio en todos los rincones del planeta.

Dentro de los retos a resolver están:


  • La longitud de las ondas que requiere el estándar 4G de telefonía celular, es de 14.2857143 centímetros. La longitud de las ondas que requiere el estándar 5G de telefonía celular, es de 3 milímetros. Esto se traduce en que el mayor obstáculo que tendrá la telefonía 5G, es lo altamente perturbables que son las ondas milimétricas.
  • Las ondas milimétricas que manejará el estándar 5G, podrían ser interrumpidas hasta por una tormenta intensa. En términos reales hay otro impedimento en México. Que es la conectividad a la señal celular. Hoy fines del año 2018 con la red 4G, el 62% de la red se conecta entre sí por micro-ondas no por fibra óptica como sucede en USA, Canadá y parte de Europa.
  • Por todo esto, el estándar 5G de telefonía celular, requerirá más transmisores por kilómetro cuadrado en las ciudades. Más inversión.

Lo que sí es innegable es que dentro de las enormes ventajas de las Redes 5G, está la que promete transmitir 131,072 caracteres alfanuméricos por segundo o lo que es lo mismo, transmitir la novela "La Guerra y La Paz" de Piotr Dostoievski completita, en sólo 14.88 segundos.

Esto es sólo una pequeña parte de lo que el ya casi extinto 2018 nos dejó, en lo que a Tecnologías de la Información se refiere. Del Martes 8 al Viernes 11 de Enero de 2019, se celebra en Las Vegas, nevada (EEUU) el Consumer Electronics Show 2019. Desde ese preciso instante, sabremos cómo pinta el panorama para la Electrónica de Consumo y obviamente, las repercusiones de la Internet de las Cosas en el hogar (Domótica), la Industria Automotriz y el mundo del trabajo en la oficina. Vale la pena estar pendientes.

De parte de nosotros, quienes colaboramos en Tech Data México, queremos terminar esta nota con nuestros mejores deseos para todos y cada uno de Ustedes, deseándoles con toda sinceridad que el ya por nacer año 2019 esté lleno de oportunidades de negocio, salud y disfrutando de todos los parabienes en lo personal, lo familiar.

Feliz año nuevo, 2019.

miércoles, 19 de diciembre de 2018

Visualización de Internet de las Cosas

Como parte de las tecnologías que incluye la Transdormación Digital, Internet de las Cosas (IoT por sus siglas en inglés) consiste en capturar digitalmente y dar sentido a los datos del mundo físico-analógico. Muy pronto, cada dispositivo físico será una fuente de datos y estos datos pueden potencialmente convertirse en una fuente de valor comercial, que de seguir con su tendencia actual, puede ser incalculable.

Todos hemos escuchado (y hemos hecho) predicciones sobre la explosión de datos de Internet de las Cosas y del diluvio de datos que esta tecnología conlleva. Todos estos datos generados por la Internet de las Cosas pueden ser inútiles, a menos que se recopilen, comprendan y utilicen para tomar decisiones inteligentes.

En esta publicación, describiremos cómo las nuevas plataformas avanzadas de visualización en tiempo real, pueden crear conciencia de cualquier situación y apoyar la toma de decisiones en tiempo real, especialmente para entornos físicos complejos. También abordaremos cómo la plataforma de visualización de Live Earth se integra con VMware Pulse IoT Center, para presentar datos en tiempo real sobre el estado y el rendimiento de la infraestructura de IoT.

Integrar las fuentes de datos. Romper los silos organizacionales. Contratar personas inteligentes.

Tengamos en cuenta la complejidad operativa de los grandes estadios y eventos deportivos de hoy. Gestionar eventos deportivos a gran escala como fútbol, béisbol y otros espectáculos similares garantizando la seguridad de los visitantes, crea desafíos únicos. El clima severo, los retrasos en el tránsito masivo, la congestión de tráfico en y alrededor del lugar del evento, pueden impactar significativamente la experiencia del evento. Además, manejar grandes multitudes con niveles de emoción que cambian rápidamente crea desafíos para enfrentar accidentes, daños a la propiedad o emergencias médicas.

La visualización en tiempo real ayuda a mejorar la respuesta y la administración de eventos al agregar numerosos flujos de datos de Internet de las Cosas que son generados en diversos sistemas, sensores, vehículos y video, proporcionando una vista operativa integrada en grandes entornos físicos, como un estadio deportivo. Live Earth no es solo una plataforma. Es La Plataforma.

Los equipos de operaciones de los estadios pueden beneficiarse enormemente de un sistema confiable de visualización en tiempo real, que muestra el tráfico de vehículos y peatonal. Esto es particularmente importante en situaciones de emergencia, donde los gerentes de operaciones necesitan garantizar una entrada y salida sin problemas para los asistentes al evento. Los equipos de operaciones pueden recibir notificaciones instantáneas sobre los cambios en los patrones de tráfico o el estacionamiento, como cuando un lote de estacionamiento se acerca a su capacidad total o cuando están a punto de producirse embotellamientos. El personal puede responder a los problemas graves en cuanto ocurren y responder de manera proactiva para evitar que las situaciones problemáticas empeoren.

Además, Live Earth se integra con el Centro "Pulse IoT" de VMware para presentar datos operativos de la infraestructura de Internet de las Cosas, capturada por el "Centro Pulse IoT". Esto agrega datos de infraestructura de los IoT Gateways, sensores, dispositivos de vigilancia y otros componentes de infraestructura a la visualización de Live Earth, para brindar a los operadores visibilidad del rendimiento y el estado de la infraestructura de Internet de las Cosas.

Hoy más que nunca tener la certeza de que la infraestructura de Internet de las Cosas esté funcionando correctamente es crítico, porque si un componente de la infraestructura falla o se manipula indebidamente, el caudal de datos puede interrumpirse. La presentación de los datos de la infraestructura de IoT junto con los datos de tráfico y peatones permite que las operaciones del estadio comprendan completamente lo que está sucediendo en un lugar determinado en un momento dado.

La visualización libera el valor de los datos

Para que los flujos de datos de IoT sean útiles y productivos, los sistemas de visualización deben ejecutar lo siguiente:

  • Desarrollo de la conciencia situacional, presentando flujos de datos en contexto dentro de un entorno físico haciendo que los datos sean procesables.
  • Creación de inteligencia basada en la ubicación presentando múltiples flujos de datos concurrentes.
  • Habilitación la toma de decisiones en tiempo real, mediante la combinación de múltiples fuentes de datos en una única pantalla de visualización de múltiples capas.
  • Que permita ver y analizar múltiples correlaciones de datos en tiempo real.
  • Que combine nuevos datos de IoT con datos existentes, para descubrir nuevos patrones de negocios y tendencias.
  • Supervisión de los dispositivos y la infraestructura de IoT, para garantizar un funcionamiento estable y adecuado, Propiciando que los datos de IoT fluyan continuamente sin interrupción.


Una clave para tomar muy en cuenta: al combinar múltiples fuentes de datos con una plataforma de visualización en tiempo real, las organizaciones pueden consolidar información nueva y procesable para mejorar su negocio y sus operaciones.

Estas herramientas son particularmente aplicables a situaciones que pueden beneficiarse de la toma de decisiones en tiempo real. Con todos los datos presentados en una ubicación central, las organizaciones pueden evaluar amenazas, reconocer alertas y visualizar todos los sistemas en contexto, sin perder momentos críticos que podrían perderse en el caos natural de los eventos en tiempo real.

En resumen


La visualización en tiempo real, combinada con tecnologías avanzadas de mapeo 3D y la infraestructura avanzada de Internet de las Cosas, así como la administración de dispositivos, se convierten en herramientas nuevas y poderosas que traen el contexto y la conciencia situacional a los datos de Internet de las Cosas.

Live Earth y VMware se han asociado para hacer que la tecnología sea inteligente al integrar la visualización en tiempo real de Live Earth con la ventaja empresarial de VMware y la solución de gestión de infraestructura IoT - VMware Pulse IoT Center.

Con la solución Live Earth y VMware, puede implementar una gestión y visualización integrales en tiempo real a través de una infraestructura de IoT y un borde distribuido.

¿Cómo está visualizando su solución de Internet de las Cosas?

viernes, 30 de noviembre de 2018

La transformación del Cómputo de Alto Rendimiento

Mientras la conferencia anual de Super Cómputo celebró su cumpleaños número 30 en Dallas la semana pasada, recordamos que ha llegado el Super Cómputo y lo emocionante que es la industria de Cómputo de Alto Rendimiento en este momento.

Con el auge de Big Data, esta inmensa cantidad de información representa una gran oportunidad para los investigadores que tienen nuevo combustible para sus proyectos. Pero también proporciona un nuevo conjunto de desafíos, ya que la gran cantidad de información requiere nuevas operaciones para maximizar y crear conocimiento.

Hoy no solo se están explorando nuevas formas de infundir Cómputo de Alto Rendimiento con prácticas de Inteligencia Artificial para descubrir esas nuevas ideas, sino también para crear mejores herramientas para casi todas las etapas del flujo de trabajo moderno de Cómputo de Alto Rendimiento, para capacitar a los investigadores con la capacidad de comprender lo que parece insondable, poniendo orden en el caos que ha creado el diluvio de datos.

Simulación inteligente

Los saltos que la informática de alto rendimiento ha logrado en el poder de la computación, no siempre se correlacionan con conocimientos mejorados, por lo que se están examinando formas para que los investigadores apliquen análisis avanzados para diseñar mejores experimentos. Una de esas herramientas es la metodología bayesiana, un principio comprobado de las matemáticas que analiza lo que sabe y sugiriendo lo que se debe hacer a continuación, ayudando así a eliminar las simulaciones que probablemente no den los resultados deseados de los diseños de experimentos.

Se ha trabajado con clientes en productos farmacéuticos, química y ciencia de los materiales y se han observado que la aplicación de los principios bayesianos ha reducido el número de las simulaciones hasta en un 75%, al ​​tiempo que aumenta la precisión de las respuestas. En una era en la que la Ley de Moore ya está quedando obsoleta, estas técnicas podrían ser el camino para reducir radicalmente el costo del hardware y una visión más profunda, mediante una combinación de técnicas clásicas de HPC y análisis modernos.

Actualmente se trabaja para encapsular esta capacidad en un dispositivo que se puede instalar adyacente a un clúster existente de cualquier arquitectura, para mejorar su capacidad de procesamiento. En su forma actual, el dispositivo estaría preprogramado, por lo que los investigadores solo necesitan decirle a los sistemas que intercambien datos y el dispositivo Bayesiano diseñará instrucciones de simulación más inteligentes para el grupo primario. Pero este es solo el primer paso para hacer que la simulación sea más inteligente, y ya se está viendo un fuerte respaldo de los ecosistemas en la creación de soluciones de simulación inteligentes.

-"Penguin e IBM, ambos miembros de la Fundación OpenPOWER, han estado trabajando juntos para brindar a nuestros clientes de HPC soluciones de alto valor"-, dijo Phil Pokorny, CTO de Penguin Computing. -"La simulación inteligente es algo que creemos que tiene un gran potencial para mejorar la capacidad de nuestras soluciones y esperamos trabajar con IBM para evaluar áreas de aplicación"-.

-"Cray e IBM han colaborado en varias oportunidades de HPC en los últimos años combinando tecnologías de ambas compañías para brindar a nuestros clientes el mejor valor posible"-, agrega Joseph George, Director Ejecutivo de Alianzas de Cray. -"Esperamos trabajar con IBM para evaluar oportunidades para la inclusión de herramientas de simulación inteligente en soluciones de colaboración en una variedad de dominios de aplicaciones"-.

Descubrimiento cognitivo para HPC

Si bien los métodos de análisis avanzados como la Optimización Bayesiana pueden diseñar experimentos más inteligentes, aún dependen de las técnicas tradicionales de HPC para realizar el trabajo. Además, es un hecho aceptado que la preparación y la ingestión de datos no estructurados pueden tomar hasta el 80% del tiempo de un investigador y la Optimización Bayesiana no aborda ese problema principal.

A través de colaboraciones con muchos clientes en petróleo y gas, materiales, fabricación y más, IBM está investigando nuevas herramientas para ayudarles con la ingesta de datos a gran escala. Estas herramientas integradas están siendo diseñadas para ayudar a reunir mejor un catálogo de datos científicos, convirtiéndolos  automáticamente en un "gráfico de conocimiento", una representación visual de las relaciones de los datos.

Los investigadores de IBM han documentado que han utilizado estas herramientas inéditas para construir un gráfico de conocimiento de 40 millones de documentos científicos en solo 80 horas, una tasa de 500,000 documentos por hora. Las herramientas de investigación pueden ingerir e interpretar datos en formato PDF, cuadernos escritos a mano, hojas de cálculo, imágenes y más. La herramienta se está diseñando para ayudar a poner en orden los datos caóticos y contribuir al establecimiento de una memoria corporativa para todo el trabajo de HPC que una organización haya realizado. Algo de importancia crítica cuando los empleados se jubilan o se van.

Tiene capacidades de búsqueda profunda incorporadas que permiten la exploración de consultas muy complicadas en relación con el gráfico de conocimiento, junto con los materiales de resultados de búsqueda de clasificación de relevancia para la consulta deseada.

Para ayudar a que estas herramientas se apliquen en una amplia variedad de casos de uso empresarial, se pueden usar para crear aplicaciones verticales, específicas de dominio. Por ejemplo, en el La American Chemical Society (ACS) en Boston a principios de este año, presentaron una herramienta llamada IBM RXN que predice el resultado de reacciones químicas orgánicas. Esta herramienta está disponible en la web sin costo alguno a través del sistema IBM Zurich. En el contexto de HPC, esta tecnología presenta un enfoque unificado para complementar las simulaciones existentes con análisis inspirados en datos. Y puede, en algunos casos, incluso desplazar el mod-sim clásico por completo.


Comience a explorar el HPC cognitivo con los sistemas IBM

Se está ya examinando formas de incorporar estas capacidades al conjunto existente de productos controlados por Inteligencia Artificial, incluidos el servidor IBM Power Systems AC922 y el almacenamiento IBM ESS, el componente básico de Summit y Sierra, y el kit de herramientas de aprendizaje profundo para empresas líder en la industria: PowerAI. Los usuarios interesados en ponerse en marcha rápidamente también pueden explorar la nueva oferta de Plataforma de Cómputo Acelerada, que combina el cómputo, el almacenamiento y las redes con el software precargado en un rack plug-and-play.

En conclusión, ya no es necesario esperar mucho para ver y obtener los beneficios de todo lo que ya está aquí con el Cómputo de Alto Rendimiento, acelerado gracias a la Transformación Digital, la Convergencia Informática, la Tercera Plataforma y la Cuarta Revolución Industrial.

¿En qué puede apoyarle el Cómputo de Alto Rendimiento?

jueves, 2 de agosto de 2018

Cómo Big Data e IA impulsarán la innovación empresarial en 2018

Los avances tecnológicos que ya hemos aceptado como norma, sobre todo el costo y otros beneficios de migrar la infraestructura a la nube, han impulsado el negocio y han impulsado una migración hacia las Interacciones Digitales.

El crecimiento de los dispositivos móviles conectados a Internet es uno de los factores que aumentan la cantidad de productos que están conectados simultáneamente a Internet.

En resumen, gracias a la infraestructura de nube barata hay más fuentes de datos que nunca creando mercados de datos, convirtiéndose en el combustible para la Inteligencia Artificial (IA) y cuando se usan correctamente, para impulsar la innovación empresarial.

La innovación siempre ha desempeñado un papel en el crecimiento y desarrollo de cualquier corporación, pero nunca ha sido más importante de lo que es hoy. Ahora Big Data e IA, junto con Market Research, se pueden combinar para llevar a la empresa a nuevos derroteros.

Las siguientes son algunas de las formas en que Big Data y AI se han integrado en los procesos comerciales para impulsar la innovación.

Cómo la IA y Big Data ayudan a la Investigación de Mercado

Forrester lo deja bastante claro. Mientras mejor entienda a su cliente, más dinero ganará. (Vea el cuadro a continuación).


En realidad, hay dos conjuntos de información disponibles, que pueden usar en la búsqueda de la comprensión del cliente.

En primer lugar, está la información que tienen internamente en sus sistemas acerca de sus clientes. Recopiladas en un volumen suficiente, estos datos constituyen 'Big Data' y brindan la oportunidad de establecer un bucle de retroalimentación, que puede provenir de fuentes tales como el uso de un servicio o producto por parte del cliente.

Las nuevas herramientas de informes y análisis ahora permiten a las organizaciones obtener acceso a los datos de tendencias, así como contenidos dentro de estos conjuntos de datos que pueden usarse para evaluar los requisitos en evolución de los clientes.

El segundo tipo de información que las empresas pueden utilizar para comprender a sus clientes es la Investigación de Mercado. En este contexto, la investigación de mercado podría describirse como "datos pequeños" o extremadamente pequeños en términos de tamaño de datos, pero los conocimientos que proporciona son importantes.

La investigación de mercado es lo que se hace además de analizar la información interna. Estudia todo el mercado e idealmente, le brinda una perspectiva accionable que le permite convencer a algunas personas que todavía no compran su producto o servicio para que se conviertan en clientes.

Inteligencia Artificial en innovación de desarrollo de productos y servicios

La digitalización ha hecho que el proceso de recopilación de información interna y externa sea extremadamente rápido y eficiente, lo que brinda a las organizaciones la capacidad de realizar cambios constantes en sus procesos comerciales, para que sean más eficientes.

Las herramientas de inteligencia artificial se utilizan para permitir que las organizaciones clasifiquen grandes volúmenes de datos, creen información significativa sobre sus productos y servicios, además de automatizar la personalización de las recomendaciones y características de los productos, de manera dirigida hacia usuarios particulares.

La Inteligencia Artificial utiliza Big Data como combustible detectando automáticamente las tendencias y asociaciones entre las fuentes de datos internas, usándolas para mejorar las experiencias de los clientes. Todo esto funciona mejor cuando involucra e incluye interacciones digitales.

Cada que Usted está realizando el proceso de pago en Amazon y ve una lista de productos complementarios recomendados para "personas como usted", cuando comienza a escribir una consulta de búsqueda y ve su consulta autocompletada, cuando ve un anuncio publicitario en un sitio web que está visitando, en cada una de estas situaciones, la Inteligencia Artificial ha procesado los números para mostrarle lo que para ésta le resulta más útil en ese momento para Usted.

Las empresas deben satisfacer las necesidades siempre cambiantes de sus consumidores y también deben crear un equilibrio entre la entrega del servicio y la generación de ingresos. Big Data e Inteligencia Artificial proporcionan una plataforma donde pueden hacerse ambas cosas, lo que aumenta la productividad y la calidad de la prestación del servicio haciéndolo de forma más económica.

Inteligencia Artificial y Big Data: impulsar la innovación en la automatización de tareas

Dondequiera que se discute Inteligencia Artificial, se habla de automatización y miedo a recortes de empleos.


Sin embargo, desde una perspectiva empresarial e incluso desde el punto de vista de que cada trabajador, éste también es un consumidor. La innovación en automatización es excelente para la economía.

La automatización no solo reduce el costo de administrar una empresa al eliminar los salarios innecesarios, sino que también permite a la empresa aumentar la calidad de sus productos, estandarizar esa calidad a niveles más altos y hacer llegar las cosas a sus clientes en un período de tiempo más corto.

Tomemos por ejemplo el segmento de "Hospitalidad". En este caso específico el análisis automatizado de los registros de datos de los clientes, significa que se han terminado esos tediosos días en que los huéspedes tuvieron que pasar por la misma insoportable verificación en el proceso al intentar reservar una habitación en su hotel favorito.

Ahora las organizaciones en este sector han podido mantener registros de clientes anteriores para facilitar el proceso de verificación. El hotel comprende las preferencias de los visitantes incluso antes de solicitar información de sus visitas anteriores.

El impacto de Big Data y la Inteligencia Artificial recién está comenzando

Big Data y la Inteligencia Artificial son enormes avances tecnológicos, cuyos beneficios pueden tardar una generación o más en involucrarse por completo a través de la economía. Ambas tecnologías están evolucionando y aún se están desarrollando, por lo que podemos afirmar que esta es una industria está en sus inicios. Es difícil predecir dónde terminarán los costos o beneficios de la Inteligencia Artificial en los negocios.

Hasta ahora, Big Data e Inteligencia Artificial han podido proporcionar potentes herramientas que han permitido a las empresas simplificar sus procesos comerciales, deshacerse de los sistemas redundantes, innovar en los productos que entregan y comprender mejor a sus clientes.

El futuro tiene más disrupciones provocadas por Big Data e Inteligencia Artificial. El Internet de las cosas está casi sobre nosotros. Pronto habrá cientos de dispositivos conectados para cada persona en el planeta. Cada uno de ellos generará una secuencia de datos y la almacenará en la nube. Cada una de esas tiendas de datos es un depósito de Big Data que se puede analizar con herramientas de Inteligencia Artificial.

Va a ser interesante ver qué más se puede hacer en el futuro con la ayuda de Big Data y la Inteligencia Artificial, ya que se añaden muchas cosas más a la web.



Fuentes:

1. https://sloanreview.mit.edu/article/how-big-data-and-ai-are-driving-business-innovation-in-2018/
"Cómo Big Data y AI impulsan la innovación empresarial en 2018"

2. https://greenbookblog.org/2016/04/06/big-data-and-marketing-research/
"Cómo Big Data aumenta la investigación de marketing"

3. https://www.technologyreview.com/s/611013/the-growing-impact-of-ai-on-business/
"El creciente impacto de la inteligencia artificial en los negocios"