Mostrando entradas con la etiqueta ML. Mostrar todas las entradas
Mostrando entradas con la etiqueta ML. Mostrar todas las entradas

viernes, 2 de septiembre de 2022

VMware vSphere 8: la plataforma de carga de trabajo empresarial

 Las cargas de trabajo están creciendo en todas partes

A medida que las organizaciones adoptan la nube, comienzan a abrir un nuevo capítulo en la era de las nubes híbridas múltiples o multinubes. Las multinube se ha convertido rápidamente en el modelo de implementación dominante. 

Según un estudio de 451 Research, el 75 % de todas las empresas tienen huellas de múltiples nubes. Muchas empresas eligen ejecutar cargas de trabajo de misión crítica en sus propios "sites" (on-premise) para aprovechar la ubicación de los datos, el rendimiento predecible de la carga de trabajo y la baja latencia de la red. 

A medida que se acumulan grandes cantidades de datos en la empresa, tienden a atraer más servicios y aplicaciones locales para minimizar la latencia, aumentar el rendimiento y maximizar el rendimiento de la carga de trabajo.


Las preferencias del modelo de consumo están evolucionando

IDC predice que para 2025, el 60 % de las empresas financiará proyectos a través de presupuestos "Operational Expenses" (OpEx). Esta tendencia es evidente en las organizaciones de Tecnologías de la Información que continúan adoptando modelos de consumo basados en la nube para servicios de infraestructura. 

Cada vez más, las líneas de negocio toman sus propias decisiones de infraestructura y servicios en función de sus necesidades únicas. El software como servicio está emergiendo rápidamente como una estrategia central que las empresas están adoptando para ahorrar tiempo y lograr objetivos más rápido. De hecho, Gartner espera que el gasto mundial en SaaS alcance los $208 mil millones de dílares para el año 2023.

Crece la demanda de servicios de infraestructura

El volumen y la complejidad de las cargas de trabajo modernas están aumentando, lo que genera una mayor demanda de servicios de infraestructura que proporcionen una funcionalidad clave subyacente para estas cargas de trabajo. La creciente demanda de servicios de infraestructura definidos por software ejerce más presión sobre los CPU, lo que deja menos ciclos de cómputo para las cargas de trabajo. 

Las clases más nuevas de aceleradores de hardware como las unidades de procesamiento de datos (Data Processing Units DPU), también conocidas como SmartNIC han sido utilizadas con éxito por los hiperescaladores para descargar y acelerar las funciones de infraestructura, liberando ciclos de CPU para ejecutar cargas de trabajo. 

A medida que las DPU se vuelven más comunes en la infraestructura, hay un número cada vez mayor de opciones de hardware de proveedores con diferentes conjuntos de capacidades. Los equipos de infraestructura de Tecnologías de la Información se enfrentan al desafío de abstraer las diferencias de hardware y presentar una interfaz de consumo uniforme a los usuarios.

Van en aumento amenazas de seguridad en el tráfico del centro de datos

Las aplicaciones modernas también se basan cada vez más en microservicios y aumentan el tráfico de red Este-Oeste dentro del centro de datos. Cuando se trata de proteger la red empresarial, los firewalls tradicionales se enfocan únicamente en el perímetro de la red, con una comprensión limitada de las topologías y los comportamientos de las aplicaciones. 

Los enfoques tradicionales de cortafuegos distribuidos requieren agentes basados en host para asegurar la red dentro del centro de datos y dan como resultado arquitecturas y operaciones de seguridad complejas. Con las cargas de trabajo y los servicios de infraestructura compartiendo un dominio, las posibilidades de que los actores malintencionados penetren en el perímetro de la red y persistan en la red son mayores.

Yo no funcionan los enfoques tradicionales para satisfacer las necesidades de la infraestructura de última generación

Agregar nueva capacidad de servidor para satisfacer la creciente demanda de infraestructura da como resultado un mayor costo total de propiedad. Los silos específicos de aplicaciones, como los servidores basados ​​en GPU para ejecutar cargas de trabajo de Inteligencia Artificial y Aprendizaje de Máquina (IA/ML), no presentan una buena escalabilidad para ejecutar cargas de trabajo de TI tradicionales. Esto da como resultado una arquitectura inflexible que conduce a complejidades operativas adicionales.

En un dominio convergente donde las cargas de trabajo se ejecutan junto con los servicios de infraestructura, la complejidad de las CPU se convierte en un único punto de falla, como lo demostraron las vulnerabilidades de seguridad de bajo nivel en el pasado reciente.

Además se espera que las organizaciones de TI brinden experiencias uniformes de consumo de infraestructura en múltiples nubes para desarrollar, implementar y mantener aplicaciones de alto rendimiento de manera rentable y segura.

¿Qué pasaría si pudiera potenciar el rendimiento de la carga de trabajo mientras escala los servicios de infraestructura en toda la empresa y reduce el costo total de la infraestructura?

¿Qué pasaría si pudiera permitir que los equipos de desarrollo aceleren su innovación y entreguen servicios IaaS directamente a sus entornos de desarrollo?

¿Qué pasaría si los beneficios de la nube estuvieran disponibles para las cargas de trabajo locales sin necesidad de levantar y cambiar?

¿Qué pasaría si pudiera administrar de manera centralizada la infraestructura local y reducir la carga operativa del mantenimiento?

Bueno, el momento de preguntarse "qué pasaría si" se acabó.

Presentamos VMware vSphere 8

VMware vSphere 8, la plataforma de carga de trabajo empresarial, brinda los beneficios de la nube a las cargas de trabajo locales, aumenta el rendimiento a través de Unidades de Procesamiento de Datos (DPU) y Unidades de Procesamiento Grádico (GPU), aceleramdo la innovación con un tiempo de ejecución integrado de Kubernetes listo para la empresa. Entremos en más detalles.

vSphere 8 marca el comienzo de una nueva era de computación heterogénea al presentar unidades de procesamiento de datos a las empresas a través de VMware vSphere Distributed Services Engine. vSphere Distributed Services Engine es el siguiente paso en la evolución de la infraestructura de la nube para las aplicaciones modernas, en el que la administración para ejecutar los servicios de infraestructura se distribuye entre la CPU y la DPU.

"vSphere Distributed Services Engine" moderniza la infraestructura de la nube en una arquitectura distribuida habilitada por las DPU para:

  • Satisfaga las necesidades de rendimiento y latencia de las cargas de trabajo distribuidas modernas acelerando las funciones de red

  • Ofrezca la mejor relación precio-rendimiento de la infraestructura proporcionando más recursos de CPU a las cargas de trabajo

  • Reduzca la sobrecarga operativa de la administración del ciclo de vida de la DPU con flujos de trabajo integrados de vSphere

"vSphere Distributed Services Engine" conserva la experiencia existente de vSphere "Day-0", "Day-1" y "Day-2", con la que los clientes están familiarizados. Es compatible con una amplia variedad de DPU de los principales proveedores (NVIDIA y AMD) así como diseños de servidor OEM (Dell, HPE).

"Distributed Services Engine" descarga y acelera los Switches Distribuidos vSphere y redes con NSX en la DPU, con servicios adicionales a seguir en el futuro. Así que, de inmediato, esto beneficiará a los clientes que ejecutan aplicaciones que demandan un gran ancho de banda de red y un rápido acceso a la memoria caché, como las bases de datos en memoria.

En estudios de evaluación comparativa interno que ejecuta Redis en un host habilitado para DPU, logró un 36 % más de rendimiento junto con una reducción del 27 % en la latencia de las transacciones. En otro escenario, un host habilitado para DPU logró un rendimiento similar al de un sistema sin DPU, con un 20 % menos de núcleos de CPU. Estos potentes resultados muestran cómo vSphere 8 permite a los clientes reducir el costo total de la informática y mejorar el rendimiento de la carga de trabajo.


Además, con vSphere 8, los administradores de TI pueden reducir la sobrecarga de las DPU operativas en la infraestructura al aprovechar los flujos de trabajo integrados de vSphere para administrar el ciclo de vida y monitorear el rendimiento.

Estamos asombrados al notar que los socios tecnológicos de VMware han producido soluciones integrales listas para el mercado. Hoy, Dell Technologies anunció el lanzamiento de soluciones de software SmartDPU en la plataforma VxRailTM con una selección de DPU de AMD Pensando y NVIDIA. HPE anunció el lanzamiento de HPE ProLiant con VMware vSphere® Distributed Services Engine™, basado en DPU de AMD Pensando. También estamos entusiasmados con el rápido progreso que nuestros otros socios, como Lenovo e Intel, están logrando para traer más soluciones al mercado, brindando aún más opciones para nuestros clientes.


Cuando se trata de mejorar el rendimiento de la carga de trabajo, vSphere 8 no se detiene aquí. vSphere 8 mejora los tiempos de entrenamiento del modelo AI/ML y logra niveles de rendimiento sin precedentes para los modelos más exigentes y complejos al agregar soporte para hasta 32 dispositivos NVIDIA GPU en modo Passthrough, un aumento de 4 veces en comparación con vSphere 7.

Además, los equipos de desarrollo de AI/ML ahora pueden lograr niveles más altos de escalabilidad de los recursos de GPU disponibles con soporte para hasta 8 vGPU por VM, un aumento de 2 veces en comparación con vSphere 7.


Si bien Kubernetes ha obtenido una adopción generalizada como la tecnología de orquestación de contenedores de facto, las organizaciones de TI necesitan una forma simple y fácil de administrar contenedores junto con máquinas virtuales. Es por eso que VMware creó una experiencia de administración de Kubernetes optimizada que está integrada de forma nativa en vSphere. Con vSphere 8, VMware ofrece VMware Tanzu Kubernetes Grid 2.0, diseñado para ayudar a los equipos y desarrolladores de TI a abordar la creciente complejidad de los entornos de desarrollo ágiles. Esta última versión de Tanzu Kubernetes Grid agrega nueva flexibilidad y control para la creación de clústeres, la alineación de API de código abierto y capacidades mejoradas de administración del ciclo de vida de las aplicaciones.

Los equipos de DevOps dedican una cantidad significativa de tiempo a configurar los clústeres de Kubernetes. Incluso en los casos en que los servicios de infraestructura son fácilmente accesibles, están diseñados para satisfacer las necesidades de los administradores de TI y no están necesariamente integrados con el entorno de desarrollo. 

Como resultado, los desarrolladores confían en los administradores de TI para proporcionar servicios de desarrollador o silos de infraestructura stand up para abordar sus necesidades. Con vSphere 8, los equipos de DevOps ahora pueden acceder fácilmente a los servicios de IaaS (como el aprovisionamiento de máquinas virtuales, redes, configuración de clústeres de Tanzu Kubernetes Grid) desde el nuevo servicio de interfaz de consumo de nube. 

La interfaz de consumo de la nube simplifica la configuración de la infraestructura en todo el estado de vSphere a través de interfaces de usuario intuitivas y API fáciles de usar para desarrolladores, lo que libera tiempo que se puede dedicar a esfuerzos de desarrollo reales.


Aprovisionando Infraestructura a través de la interfaz de consumo de la nube

Con vSphere 8, las zonas de disponibilidad de Tanzu Kubernetes Grid (TKG) se pueden implementar en 3 clústeres, lo que aumenta la resiliencia general de las cargas de trabajo en contenedores ante fallas de infraestructura. La creación simplificada de clústeres ha sido posible gracias a una nueva función de API de clúster llamada Clase de clúster. Los usuarios ahora pueden crear, escalar, actualizar y eliminar clústeres, todo desde un solo lugar. El aprovisionamiento, la actualización y el funcionamiento de varios clústeres de Kubernetes ahora es un proceso declarativo simplificado. Se han introducido herramientas basadas en Carvel para permitir que los desarrolladores de aplicaciones y los operadores de plataformas desarrollen Kubernetes con confianza.


En junio de este año, VMware lanzó vSphere+, una nueva oferta de la familia vSphere, que combina tecnología de infraestructura en la nube líder en la industria, un entorno de Kubernetes listo para la empresa y servicios en la nube de alto valor para transformar las implementaciones locales existentes en Software como un Servicio (SaaS). vSphere 8 lleva estos beneficios varios pasos más allá.


Con vSphere 8, los administradores de TI pueden implementar los siguientes servicios en la nube complementarios que protegen las cargas de trabajo y optimizan la infraestructura, con más en camino.

El servicio complementario VMware Cloud Disaster Recovery impulsa la resiliencia de las cargas de trabajo de misión crítica al protegerlas de desastres y ransomware.

Protect workloads with VMware Cloud Disaster Recovery


El servicio complementario VMware vRealize Operations proporciona planificación y optimización de la capacidad para su infraestructura con el tamaño adecuado para satisfacer las necesidades actuales y futuras de sus cargas de trabajo.

Obtenga fácilmente detalles sobre el consumo de CPU, memoria y almacenamiento



Los administradores de TI dedican mucho tiempo a actualizar y mantener la infraestructura. Aunque las operaciones regulares de mantenimiento ayudan a garantizar el tiempo de actividad y la disponibilidad, le quitan tiempo a la ejecución de aplicaciones críticas para el negocio. vSphere 8 optimiza las ventanas de mantenimiento al preparar previamente las descargas de imágenes de ESXi y realizar actualizaciones simultáneas en los hosts, lo que permite que los equipos regresen más rápido a las operaciones regulares.

Con el crecimiento de las cargas de trabajo locales y perimetrales, la ubicación inicial y la migración son aspectos críticos que ayudan a los equipos de infraestructura a maximizar la disponibilidad del servicio, equilibrar la utilización y minimizar el tiempo de inactividad. vSphere 8 ofrece una importante actualización de vSphere Distributed Resource Scheduler y vMotion. Distributed Resources Scheduler ahora tiene en cuenta el uso de la memoria de la carga de trabajo en las decisiones de ubicación. Ahora puede colocar las cargas de trabajo de manera más óptima al tener en cuenta las necesidades de memoria de las cargas de trabajo.

vMotion ahora es compatible con la migración de máquinas virtuales que se ejecutan en hosts compatibles con Intel Scalable I/O Virtualization (Intel SIOV). Las cargas de trabajo ahora pueden disfrutar simultáneamente de los beneficios del rendimiento y la movilidad de transferencia SIOV en toda la infraestructura de vSphere.

Según un estudio de IDC, el 65 % del PIB mundial estará digitalizado para 2022. El estudio de IDC señala que se espera que Global Data Sphere se duplique entre 2022 y 2026. A medida que la huella de la informática sigue creciendo, muchas empresas están empezando a pensar en formas sostenibles de operar la infraestructura. VMware ha dado el primer paso para ayudar a las empresas a desarrollar estrategias informáticas sostenibles. vSphere 8 presenta Green Metrics, que lo ayudan a rastrear la energía consumida por las cargas de trabajo y las operaciones de infraestructura. Este es solo el primer paso para ayudar a los clientes a darse cuenta del potencial y las oportunidades para reducir su huella de carbono mientras cumplen los objetivos comerciales.

vSphere 8 Green Metrics


viernes, 5 de abril de 2019

Inteligencia Artificial, Aprendizaje Automático y Aprendizaje Profundo

En entradas anteriores, hemos platicado ampliamente que existen identificadas diez y seis tecnologías que apuntalan la Transformación Digital. Doce de ellas ya están impactando nuestras vidas a corto y mediano plazo, mientras que las restantes doce lo harán en un largo plazo no mayor a doce años.

Las primeras doce tecnologías con impacto a corto plazo son:

  • Cómputo en La Nube (de la Tercera Plataforma)
  • Big Data (de la Tercera Plataforma)
  • Blockchain (de la Cuarta Revolución Industrial)
  • Realidad Virtual (de la Cuarta Revolución Industrial)
  • Realidad Aumentada (de la Cuarta Revolución Industrial)
  • Internet de las Cosas (de la Cuarta Revolución Industrial)
  • Inteligencia Artificial (de la Cuarta Revolución Industrial)
  • Vehículos Autónomos (de la Cuarta Revolución Industrial)
  • Robots (desde la Tercera Revolución Industrial)
  • Fábricas Oscuras  (de la Cuarta Revolución Industrial)
  • Impresión 3D (de la Cuarta Revolución Industrial)
  • Biología Sintética (de la Cuarta Revolución Industrial)

Las otras cuatro tecnologías con impacto a largo plazo son:

  • Auto Ensamble Molecular 
  • Cómputo Cuántico
  • Cómputo Orgánico
  • Interfaces Cibernéticas

Junto con la Inteligencia Artificial, vienen aparejadas Aprendizaje Automático y Aprendizaje profundo. Pero, ¿Qué es lo que son, cuáles son sus semejanzas y diferencias? Comencemos pues con un poquito de historia.

Un artículo de McKinsey de 1969, afirmaba que -"...las computadoras eran tan tontas que no eran capaces de tomar ninguna decisión."-. -"De hecho... (agregó) ...es la inteligencia humana la que impulsa la máquina tonta."- Esta afirmación se ha convertido en una broma a lo largo de los años, ya que las computadoras modernas están reemplazando gradualmente a los profesionales calificados en campos de muchas industrias como la arquitectura, la medicina, la geología y la educación. La Inteligencia Artificial, el Aprendizaje Automático, la Ciencia de Datos y el Aprendizaje Profundo están impulsando estos cambios en formas que solo se están entendiendo.

En el escenario actual, se están poniendo de moda o en tendencia, muchas palabras en la industria de las Tecnologías de la Información, ahora en franca evolución, más especialmente en las diversas áreas de investigación alrededor y dentro del Data Science.

Durante muchos años el mundo ha sabido acerca de experimentos (con diferentes grados de éxito) en Inteligencia Artificial (IA), pero recientemente se realizaron avances rápidos en este campo de estudio, lo que condujo a áreas de investigación relacionadas con Inteligencia Artificial, Aprendizaje Automático y ahora Aprendizaje Profundo. Entonces, ¿cómo son estos subdominios especializados en Inteligencia Artificial similares o diferentes entre sí? Echemos un vistazo.


  • Inteligencia artificial: Este término abarca y engloba todas estas áreas de investigación. Según los expertos de campo, la definición de Inteligencia Artificial ha sufrido muchos desvíos, lo que hace que el término sea casi inútil a lo largo de los años.

    El Informe 2015 de McKinsey titulado "Tecnologías disruptivas: los avances que transformarán la vida, los negocios y la economía global", sugieren que aproximadamente doce tecnologías disruptivas crearán un gran impacto global dentro de 10 años.

    Entre estas doce, se ha determinado que al menos cinco están relacionados con la Inteligencia Artificial y la Robótica, que incluyen tareas automatizadas de "Conocimiento", Robótica, Internet de las Cosas, Tecnología de Impresión 3D y autos que conducen por sí mismos. ¡Se estima que el impacto económico total de estas tecnologías combinadas alcanzará entre 50 y 99.5 miles de millones de dólares para el ya no tan lejano 2025!
  • Inteligencia de la Máquina (MI): Muchos científicos de datos creen que la Inteligencia de la Máquina y la Inteligencia Artificial son términos intercambiables. El término "Inteligencia de Máquinas" ha sido popular en Europa, mientras que el término "Inteligencia Artificial" con su inclinación científica, ha sido más popular en los Estados Unidos.

    Inteligencia de la Máquina se refiere a la participación de una neurona biológica en el proceso de investigación, con un enfoque más superior que el empleado normalmente en las redes neuronales simples.
  • Aprendizaje Automático (Machine Learning): Como parte intrínseca de la Inteligencia Artificial, el aprendizaje automático se refiere al área de investigación de software, que permite que los algoritmos mejoren a través del auto-aprendizaje de datos sin ninguna intervención humana. La "Guía para Ejecutivos sobre Aprendizaje Automático" de McKinsey, afirma que la fortaleza del Aprendizaje Automático reside en su capacidad para aprender de los datos.

    El Aprendizaje Automático asumió el estado de una disciplina separada a fines de la década de 1990, cuando las tecnologías avanzadas y las computadoras baratas permitieron a los científicos de datos, capacitar a las computadoras para generar algoritmos. El volumen explosivo y la variedad de datos ha aumentado la importancia del aprendizaje automático. En el artículo "Serán obsoletos los Científicos de Datos", podemos encuentra un debate interesante sobre si el Aprendizaje Automático puede reemplazar a los científicos de datos.

    Si algo hemos aprendido a lo largo y ancho de las Tecnologías de la Información, es que por más acertada, práctica, útil o vanguardista que parezca una tendencia, avance, idea o concepto, no trascenderá a menos que encuentre aplicación práctica y mejor aún genere ingresos en cualquier campo del quehacer de la industria, el comercio, etc.

    Podemos constatar esto en el mundo real, pues una buena aplicación de mercado del Aprendizaje Automático ya la ofrece Second Spectrum, una empresa emergente con sede en California que preparó modelos predictivos de juegos de baloncesto, para la NBA de Estados Unidos. En Europa, el sector bancario utiliza técnicas de Aprendizaje Automático para diversas funciones bancarias, que les ayudaron a alcanzar el crecimiento y el ahorro empresarial objetivo.
  • Aprendizaje Profundo (Deep Learning): el aprendizaje profundo es realmente una rama del aprendizaje automático, que se relaciona con el estudio de las "redes neuronales profundas" en el cerebro humano. Aprendizaje Profundo intenta emular las funciones de las capas internas del cerebro humano y sus aplicaciones exitosas se encuentran en el reconocimiento de imágenes, la traducción de idiomas o la seguridad del correo electrónico.

    El aprendizaje profundo crea conocimiento a partir de múltiples capas de procesamiento de información. La tecnología de Aprendizaje Profundo se basa en el cerebro humano, y cada vez que se ingresan nuevos datos, sus capacidades mejoran.

Las áreas de investigación en la práctica.

De acuerdo con un artículo reciente en Information Week, la Inteligencia Artificial y al Aprendizaje Automático están evolucionando gradualmente desde la era de la ciencia ficción a la realidad en el terreno. Más de la mitad de las empresas globales están experimentando con Aprendizaje Automático, mientras que las principales empresas como IBM, Google y Facebook han invertido en proyectos de código abierto en este rubro. En dicho artículo se informa que las empresas globales están experimentando con la "Computación Inteligente" y están investigando seriamente si la Inteligencia Artificial se puede aplicar a las soluciones empresariales.

Un blog de Numenta presenta un estudio comparativo detallado de estas diversas tecnologías. La percepción común es que no hay definiciones estandarizadas para los cuatro términos, más sin embargo las personas todavía usamos los términos sin entender la importancia científica de cada uno.

Aunado a lo anterior, se ha producido una evolución significativa en el significado de los términos. Lo que la gente quiso decir con Inteligencia Artificial en 1960, resulta muy distinto de lo que significa hoy en día. En el artículo "Cómo Aprenden las Máquinas"de Datanami, que aborda el tema de cómo se está consumiendo datos e información, explica que la mayoría de las aplicaciones inteligentes de la actualidad dependen de Aprendizaje Automático para interpretar los resultados en el mundo real.

En la una guía para ejecutivos sobre Aprendizaje Automático, "Aprendizaje Automático 1, 2 y 3", se han descrito adecuadamente cuáles son las etapas descriptivas, predictivas y prescriptivas de las aplicaciones. La etapa predictiva está ocurriendo en este momento, pero el Aprendizaje Automático V. 3.0, proporciona un análisis claro de esta preparación tecnológica de las empresas globales. La etapa de desarrollo ofrece una gran oportunidad para el futuro.

En conclusión, por entregar resultados y ser un acelerador para el negocio y un catalizador para las utilidades de las empresas, Inteligencia Artificial, Aprendizaje Automático y Aprendizaje Profundo ya están aquí, son materia prima de los Departamentos de Tecnologías de la Información de hoy en día y ya presentan síntomas de su evidente evolución.

Empresas, organizaciones e instituciones que ya han aplicado y/o implementado exitosamente las tres, dos de ellas o al menos una de estas tecnologías derivadas de la Transformación Digital, no están dispuestas a dejarlas ir. Más aún, están trabajando muy duro y colaborando con su evolución natural.

lunes, 14 de enero de 2019

Los consumidores demandan más Inteligencia Artificial

Cuando se toca el tema de la Inteligencia Artificial, vemos como aún existe mucho desconocimiento del tema incluso por personas y empresas que operan (y desde hace mucho tiempo) en círculos afines o dentro del ámbito de las Tecnologías de la Información.

Que decir de quienes recordando viejas (y nuevas) películas en donde incluso sólo se nombran las dos palabras: Inteligencia y Artificial, en un 80% de ellas se menciona como sinónimo de un demonio, el enemigo a vencer.

Cuando a esto se suma La Cuarta Revolución Industrial y una multitud que (en la mayoría de los casos) con tal de publicar una "noticia" sensacionalista tocan el tema como -"...aquello que nos quitará el trabajo a todos"-, creemos que entonces vale la pena aclarar algunos puntos importantes.

Para empezar, ¿qué es eso de la inteligencia? -"Facultad de la mente que permite aprender, entender, razonar, tomar decisiones y formarse una idea determinada de la realidad."- Concisa y directa, esta es nuestra definición favorita y la tomamos del diccionario que ofrece Google.

Desde siempre, se ha considerado desde muchos puntos de vista, que la Inteligencia es una cualidad exclusiva y hasta privativa de los Seres Humanos. Pero el día a día y estudios muy serios que se han llevado a cabo en prestigiosas Universidades de todo el mundo, han concluido que hasta los organismos más sencillos, poseen (en su correcta proporción, alcances y limitaciones) inteligencia.

Apegándonos a la definición que incluimos hace dos párrafos, para poder considerar que una entidad biológica (un animal, una persona, cualquier organismo viviente pues) tiene inteligencia, debe de poder (de manera intrínseca y natural) contar con:

Capacidad para aprender.- Adquirir conocimiento de algo por medio del estudio, el ejercicio o la experiencia, en especial de los conocimientos necesarios para poder realizar correctamente cualquier actividad, como algún arte u oficio.

Entendimiento.- Facultad de la mente que permite aprender, razonar, tomar decisiones y formarse una idea determinada de la realidad.

Razonamiento.- Establecer relación entre ideas o conceptos distintos para obtener conclusiones o formar un juicio.

Tomar decisiones.- Elección de una opción de un asunto, después de analizar toda la información que se tiene sobre el tema.

Formarse una idea de la realidad.- Con todo lo aprendido, entendido, con el razonamiento y la experiencia previa y los resultados de tomar ciertas decisiones, tener conocimiento de dónde, cuándo, cómo y bajo qué condiciones se está.

Bien. Ahora aplicando esto a un ser humano, podemos entonces decir que se puede considerar inteligente a quien puede aprender, entender, razonar, decide y tiene idea de su realidad. ¿Y esto se puede aplicar a organismos no vivientes como las máquinas?

Una máquina no es otra cosa que un ingenio ideado, creado y operado por nosotros, los Seres Humanos para subsanar una necesidad, realizar un trabajo  de manera rápida, segura y precisa. Así pues y por defecto, algo tan simple como un polipasto, una palanca, un mecanismo cualquiera que este sea, requiere ser operado por una persona que se considera inteligente.

La Primer Revolución Industrial, consistió en sustituir los músculos y la energía humana, por el flujo del agua en estado líquido o en estado gaseoso (vapor). Pero aún era necesario alguien inteligente para operarla, aunque ya bajo las nuevas condiciones, sin una musculatura desarrollada.

En la Segunda Revolución Industrial, se sustituyó el flujo de moléculas de agua en estado líquido o gaseoso, por un flujo de electrones: Electricidad. Más confiable, más predecible, más precisa la electricidad mostró ser un excelente aliado de fábricas, oficinas e incluso los hogares. Pero aún era necesario una persona que tuviese cierto entrenamiento, experiencia, supiese tomar decisiones y actuar en consecuencia, para poder operar estas máquinas.

Es en la Tercera Revolución Industrial y tras la invención del Transistor y posteriormente micro-controladores y procesadores (encapsulados en Circuitos Integrados), los que comenzaron a dotar a las máquinas con la habilidad de tomar decisiones dependiendo de las variables del entorno, dando la impresión de ciertas dotes de inteligencia, pero realmente estos ingenios electrónico-mecánicos aún no podían aprender o tener consciencia de su lugar en el tiempo y/o el espacio.

Es ahora con la Cuarta Revolución Industrial, que gracias a los inmensos avances de la informática que podemos afirmar que, la Inteligencia Artificial ha nacido.

Cierto que todo se reduce a la aplicación de algoritmos complejos, que pueden hacer aprender, entender, tomar decisiones y todo esto por contar con sensores que dotan a la máquina con algo parecido a los cinco sentidos humanos, amén de contar con una unidad de procesamiento que hace las veces de un cerebro y obviamente, poder actuar de manera independiente a esas condiciones de su entorno (ver Internet de las cosas).

Pero, ¿las máquinas pueden comenzar a razonar, tomar consciencia de su entorno y/o formarse una idea de su propia realidad? Pues tal parece que en estos dos últimos años, empresas como Google, Facebook, IBM y otras tantas que han apostado seriamente por la Inteligencia Artificial, afirman que sus respectivos proyectos ya cuentan con ello.

No ponemos en duda tan osadas afirmaciones. Pero entonces la pregunta a hacerse es: ¿En qué podríamos aplicar una Inteligencia Artificial desde el punto de vista práctico? Hoy en día y valga la redundancia, prácticamente en todo.

¿En dónde podemos afirmar que se puede aplicar con éxito cualquier tendencia tecnológica, y que si ésta resulta exitosa puede trascender a otras áreas del quehacer humano? Nada más y nada menos que la Electrónica de Consumo. Sí.

En el Consumer Electronics Show 2019 que culminó al pasado Viernes 11 de Enero de 2019, quedó claro que para todos los proveedores y fabricantes de dispositivos electrónicos orientados al consumo, que si no incluyen incluyen Inteligencia Artificial intrínsecamente o como complemento a sus funciones que ofrece por diseño, simplemente quedarán fuera del mercado.

También quedó claro que, ese valor agregado que todo consumidor espera de sus dispositivos, es precisamente la inclusión de Inteligencia Artificial.

Y no estamos hablando exclusivamente de los asistentes electrónicos como Alexa de Amazon, Siri de Apple, Google Assistant, Microsoft Cortana o las funcionalidades "Smart" de pantallas de video, dispositivos de cómputo personales, tabletas, laptops, etc. Los electrodomésticos, prendas de ropa (con fines deportivo-recreativos o incluso médicos), calzado, accesorios personales, vehículos, etc.

-"¿No viene de fábrica con Inteligencia Artificial? entonces no lo comrpo"- Ese es el "moto" que ahora el consumidor trae muy instalado en la mente.

El reto entonces es, no solamente la inclusión de esas funcionalidades en una lógica digital, un programa de cómputo, así como actuadores y sensores en lavadoras, secadoras, refrigeradores, etc. es suficiente. Ahora todo esto debe de estar intrínsecamente interconectado con una inteligencia local o vía La Nube.

Así como lo mencionamos en la entrada "Internet de las Cosas, no es conectarlo todo contra todo" del pasado día 7 de Enero de 2019, la Internet de las Cosas y ahora la Inteligencia Artificial (ambas tecnologías derivadas de la Transformación Digital), no pueden ir solas. Requieren de otras tecnologías para poder agregar un verdadero valor a una solución.

Hoy pues, si no viene con su "AI Inside", ya no es atractivo incluso para el Consumidor Final.

miércoles, 15 de agosto de 2018

Y de Nubes, ¿cómo vamos?

Ya se fue la primera mitad de este 2018. La Tercera Plataforma consolidada y siendo aprovechada por empresas líderes en su ramo. La Cuarta Revolución Industrial haciendo que las Tecnologías de la Información sigan involucrándose cada vez más en cualquier actividad humana, mientras que la Transformación Digital marchando a todo vapor en favor de quienes realmente la han entendido y ya implementaron al menos una de sus tecnologías.

Retomando a uno de los elementos de la Tercera Plataforma, ¿cómo va hasta el momento el Cómputo en La Nube? ¿Para qué se está implementando? ¿Cómo ha sido la adopción? ¿Aún vale la pena seguir adoptándolo?

Para responder estas y otras preguntas, ponemos a su consideración este estudio-análisis que la empresa Nutanix realizó con datos estadísticos recientes.

Comencemos entonces diciendo que hay una tendencia creciente por parte de las empresas a utilizar más de una nube, incluyendo nubes privadas, públicas y distribuidas. Esto es impulsado por la necesidad de gestionar la complejidad de TI de la empresa, la ubicación de la aplicación, la soberanía de los datos, la distribución geográfica y el bloqueo del vendedor.

De los tres pilares principales de La Nube: Infraestructura como un Servicio (IaaS), Plataforma como un Servicio (PaaS) y Software como un Servicio (SaaS), es el primer pilar (IaaS) el más implementado por parte de empresas y organizaciones de todo el mundo.

Sólo por mencionar un dato que ejemplifica perfectamente lo dicho en el párrafo anterior, el uso de Amazon Web Services y Microsoft Azure se centra principalmente en las ofertas básicas de IaaS. Esto representa más del 85% de la inversión en La Nube y más específicamente lo que toca al cómputo, almacenamiento, redes y la implementación de bases de datos en la mencionada Infraestructura.

Muchos clientes (actuales y potenciales) están experimentando, evaluando o han comenzado a utilizar diversas formas de tecnologías nativas de la nube, como los Contenedores y la Informática Sin Servidor, como parte de su estrategia general de TI. Esperamos ver una mayor adopción en las tecnologías nativas de la nube en 2018.

Clasificación de las Empresas y Organizaciones

Para entender mejor esto, hemos clasificado a los Clientes por su experiencia en la adopción de IaaS, en cuatro categorías principales:

01 PRINCIPIANTE.- Inversión anual en la nube: menos de $ 250,000 de dólares. Uso de nivel básico de servicios como máquinas virtuales, EC2, bases de datos, RDS, red, almacenamiento de objetos y almacenamiento en bloques.

02 COMPETENTE.- Inversión  anual en la nube: entre $ 250K y $ 500K  de dólares. Posee una comprensión decente de la arquitectura en la nube y utiliza los servicios de PaaS para la implementación y los servicios de datos nativos en la nube de AWS y Azure junto con los servicios básicos de IaaS.

03 AVANZADO.- Inversión  anual en la nube: entre $ 500K y $ 1 millón de dólares. La brecha técnica se reduce aquí. El usuario está familiarizado con la nube y puede aprovechar los servicios avanzados en la nube para las necesidades empresariales y el uso intensivo de IaaS con una combinación de servicios PaaS.

04 EXPERTO.- Inversión anual en la nube: más de $ 1 millón de dólares. Conjuntos de habilidades extremadamente avanzados para utilizar y aprovechar un conjunto más amplio de servicios como las soluciones Serverless, API Gateways, Data Streaming, Enterprise Network Connects, Analytics, Internet de las Cosas, Inteligencia Artificial y/o Aprendizaje Automático.

En lo que respecta a la clasificación de las empresas y organizaciones por su nivel de ingreso, se crearon tres niveles:

SMB.- $50,000.00 de dólares al año.

MID-SIZE.- Desde $50,001.00 a $1,000'000,000.00 de dólares anuales.

ENTERPRISE.- Más de  $1,000'000,000.00 de dólares anuales.



Índice de Madurez en La Nube

Las empresas consideradas como startups encuentran que la nube pública es más fácil de iniciar, pero los desafíos de control de costos y de gestión impiden una adopción más amplia.

Las empresas medianas tienen la adopción de la nube pública más profunda. Realmente aprovechan la agilidad de la nube y utilizan herramientas para administrar mejor sus negocios.

Una vez en la nube, las empresas medianas y grandes tienden a administrar mejor el uso de la nube, gracias a un mejor enfoque, herramientas y procesos.


Imlementación de Servicios para Administrar La Nube

Tiempo promedio de adopción de las Herramientas de Administración

Empresas Pequeñas-Medianas (SMB): 9 meses de tiempo promedio de adopción, aproximadamente. La mayoría de los usuarios de empresas SMB experimentan pérdidas de costos significativas debido a configuraciones incorrectas. ¿Falta de información, capacitación, una guía adecuada?

Empresas Medianas (MID MARKET): 5 meses de tiempo promedio de adopción, aproximadamente. La mayoría de las empresas medianas entienden la importancia de usar herramientas inteligentes en entornos de nube dinámicos. Por su tamaño y por lo que representa una Solución en La Nube, además de no subestimar los alcances y limitaciones de la misma, son las que hasta el momento cuentan con los mejores tiempos.

Empresas Grandes y Muy Grandes (ENTERPRISE): 15 meses de tiempo promedio de adopción, aproximadamente. Estas empresas toma más tiempo para evaluar herramientas de gestión de la nube. La mayoría de las optimizaciones manuales no son escalables y las herramientas de optimización aumentan la efectividad.



El 96% de los clientes reconoce que la administración de la nube es mejor con herramientas y servicios de administración.


¿En qué se está empleando principalmente La Nube?

Madurez aplicada a DevOps

La mayoría de las empresas en la nube pública persiguen activamente las prácticas de DevOps.

Las PYMEs son más lentas en la adopción de DevOps, excepto las nuevas empresas en el espacio tecnológico.



DevOps están cambiando la forma en que la nube y las T.I. son operadas por ingenieros.

Análisis de la inversión en La Nube

La tasa promedio de crecimiento de los gastos en la nube empresarial se ha duplicado desde 2016 y todo el 2017.

  • Las empresas invierten en promedio más de $ 2 millones en la nube
  • SMB tiene la mayor relación de ingresos a la nube


Los principales motivadores para ahorro de costos:


El 85% de los usuarios de Amazon Web Services, justifican su inversión en La Nube, indicando que el objetivo principal es -"...eliminar recursos físicos no utilizados, para ahorrar en los gastos."-


El 60% de los usuarios de Azure, incurrieron en ahorros directos en Azure Cloud eliminando con ello instantáneas (respaldos) antiguas.


Patrones del Consumo de La Nube

  • La inversión en cómputo empresarial por el lanzamiento continuo de aplicaciones que requieren un mayor uso del procesador, ha sido el principal motivador para la adopción de La Nube.
  • Las empresas medianas que aprovechan el análisis avanzado y las aplicaciones de big data, utilizan los servicios de almacenamiento de manera exhaustiva.
  • Las empresas de nueva creación y aquellas consideradas como grandes o muy grandes, encuentran la optimización de costos de la base de datos el reto más desafiante.


Prioridades


Una vez que la empresa llega a un punto óptimo de madurez, se pasa a la administración de costos y la optimización de la nube.

Los equipos de finanzas empresariales están siendo entrenados en el gasto en la nube y la gestión del presupuesto.

Para las organizaciones más pequeñas, la gobernanza y la seguridad son las principales prioridades.


Distribución de las Cargas de Trabajo en La Nube

Las empresas con una importante adopción pública de nubes parecen centrarse en casos de uso no productivos.

Las organizaciones de mercado medio y empresariales utilizan la nube de forma exhaustiva para entornos de investigación y desarrollo.



Las Cargas de Trabajo más Populares

No nos sorprende que las aplicaciones web y digitales habitan la mayor parte de la nube.

Las empresas medianas están adoptando el aprendizaje automático con más enfoque en casos de uso específicos.

Los clientes empresariales están aprovechando la nube híbrida para necesidades de análisis, como Inteligencia de Negocio y Aprendizaje Automático.

Las PYME y los clientes Medianos son los que abanderan los servicios avanzados en la nube, como contenedores y los servidores.


Utilización de Servicios Especializados

Tecnologías altamente especializadas todavía en su infancia, pero en crecimiento

Solo el 6% de las empresas empresariales ejecutan desarrollo/pruebas o investigación y desarrollo relacionados con IOT











La inteligencia artificial todavía no es común, la adopción está impulsada por las pymes y las medianas empresas.











Tanto empresas medianas como empresas están comenzando a adoptar ML para análisis de BI











Utilización de Instancias Amazon Web Services Elastic Cloud Computing (EC2)

"M4" es la opción más popular para las instancias de producción

La mayoría de las cargas de trabajo no de producción se ejecutan en la familia "T" debido a los menores costos

34% usa una familia "T" que se adapta a las cargas de trabajo de microservicios

El 46% de la mayoría del uso de "EC2" es de uso general familia "M"



El Software más popular en La Nube

Ubuntu es el Sistema Operativo más utilizado, pero CentOs está en aumento.

CentOS obtuvo Amazon Linux creció significativamente en 2017, gracias a la facilidad de configurarlo para EBS, ECS y EMR



43% de los usuarios de Oracle están explorando PostgreSQL.

Open Source PostgreSQL está ganando popularidad como una alternativa a Oracle.



Principales preocupaciones de la Administración de La Nube

La "Inyección SQL" es el ataque más popular contra "webapps" y la mayoría de los balanceadores de carga en la nube no están protegidos.

Se ha informado que las claves expuestas en la base de código son una razón importante para el robo de identidad en 2017 al usar servicios en la nube.

Los eventos de seguridad para Base de Datos y tiendas de objetos como "S3", casi se han triplicado en 2017.

El 64% de los ataques de seguridad en la nube se derivan de interfaces de red inseguras


Alertas de Seguridad

No seguir el diseño de red de VPC recomendado por Amazon Web Services es la causa principal de las alertas de red.

La configuración incorrecta de los controles de acceso a la red es el factor que más contribuye a las alertas de gobierno de datos.

Los clientes necesitan una vista centralizada para sus políticas de acceso a datos para mitigar los riesgos de robo de datos.



Principales Preocupaciones en Administración y Seguridad

PCI-DSS sigue siendo el control de seguridad más solicitado

29% de los usuarios crean auditorías de seguridad personalizadas

La mayoría de los clientes de la UE están luchando con la adopción de GDPR

23% de las auditorías están relacionadas con PCI-DSS



Principales acciones para la Administración y Seguridad

La mayoría de las empresas bloquea puertos públicamente abiertos que se cree que son la primera superficie de ataque

17% de los clientes protegen los datos con protección de terminación

36% redujo los ataques al bloquear los puertos públicos abiertos

miércoles, 21 de marzo de 2018

IBM presenta su plataforma para Deep Learning as a Service

Watson Studio es el servicio de IBM para la construcción de flujos de trabajo de Aprendizaje Automático y modelos de capacitación; hoy se le agrega una nueva incorporación con el lanzamiento de Deep Learning as a Service (DLaaS).

La idea general aquí, que es similar a la de los servicios de la competencia, es permitir a una gama más amplia de empresas, poner disponible a los usuarios los avances recientes en el Aprendizaje Automático (ML por sus siglas en inglés) mediante la reducción de la barrera de entrada.

Con estas nuevas herramientas, los desarrolladores pueden crear sus modelos con los mismos marcos de código abierto que probablemente ya estén usando: TensorFlow, Caffe, PyTorch, Keras, etc.

De hecho el nuevo servicio de IBM esencialmente ofrece estas herramientas, ya que los desarrolladores y servicios nativos de la nube pueden usar una REST API estándar, para capacitar a sus modelos con los recursos que deseen, o dentro del presupuesto que tienen.

Para este servicio que ofrece tanto una interfaz de línea de comandos, como una biblioteca de Python o una interfaz de usuario interactiva, los desarrolladores tienen la opción de elegir entre diferentes GPU de Nvidia, sólo por poner un ejemplo.

La idea de un entorno administrado para el Aprendizaje Profundo no es necesariamente nueva. Con Azure ML Studio, Microsoft ofrece una experiencia altamente gráfica para construir modelos de Aprendizaje Automático.

Sin embargo, IBM argumenta que su servicio ofrece una serie de ventajas distintas. Entre otras cosas, el servicio ofrece un generador de redes neuronales con modalidad "arrastrar y soltar", que permite incluso a los que no son programadores puedan configurar y diseñar sus redes neuronales.

Además y para tomar en cuenta, las herramientas de IBM también ajustan automáticamente los hiperparámetros para sus usuarios. Tradicionalmente se trata de un proceso que lleva mucho tiempo si se hace manualmente. Un procedimiento que se encuentra en algún lugar entre el arte y la ciencia.

martes, 27 de febrero de 2018

¿Por qué Internet de las Cosas está en un punto de inflexión?

Los proyectos de IoT están en el punto donde necesitan entregar resultados

En nuestra opinión, la mayor ocurrencia en 2017 fue que Internet de las Cosas (IoT por sus siglas en inglés) alcanzó un pico publicitario, dando paso a nuevos elementos hiperactivos para aprendizaje automático (en realidad, una rama de IoT) y para Inteligencia Artificial (un área temática familiar, y que requiere datos de IoT como combustible para su inteligencia). Vimos una combinación de varias compañías que realizan grandes inversiones en IoT, mientras que otras están reduciendo o reorganizando sus equipos de IoT.

Esta combinación de inversión (empujar y tirar) significa que estamos en un punto de inflexión. Para IoT, esto significa que ahora estamos en un punto donde los proyectos tienen que entregar resultados. Los proveedores de IoT invirtieron antes de la demanda, con todo tipo de reclamos hacia IoT de ventanilla única. Con más capacidad en la industria que en la demanda, es de esperarse que los jugadores abandonen o cambien el enfoque.

Esperar resultados cuantificables

En 2018 escucharemos a las organizaciones que implementaron IoT (los primeros en adoptarla) sobre proyectos reales y Retorno de Inversión (ROI por sus siglas en inglés) demostrable. Hablará resultados comerciales exitosos y mejoras de procesos. Hasta ahora, la mayoría de los beneficios expresados han sido teóricos, basados en los resultados deseados más que en el éxito mensurable.

Se necesita un ecosistema

Los usuarios están aprendiendo que IoT no es una tecnología; es una solución compleja de varias partes que no puede ser entregada por un único proveedor. Los proveedores con ofertas de IoT que han tratado de ir solos y no se han comprometido con socios complementarios, están teniendo problemas. Es de esperarse que los usuarios con proyectos que dependen de un solo proveedor, continúen experimentando los efectos negativos del bloqueo del proveedor.

Tenemos los datos

Ahora necesitamos el conocimiento. Ahora que las organizaciones han comenzado proyectos de IoT, muchos descubren que no están seguros de cómo obtener valor de los datos que están recopilando. Han construido la infraestructura y están recopilando datos, pero no tienen la tecnología adecuada, las habilidades (científicos de datos, por ejemplo) o el conocimiento para completar todo el ciclo de vida de la información.

Siga las necesidades del negocio

En el horizonte, veremos un interés en el aumento del IoT, especialmente en las industrias que necesitan reducir el costo de operación de su negocio. Por ejemplo, los precios más altos por concepto de energía, están impulsando la mayor demanda de soluciones IoT de la industria del petróleo y el gas. Además, los negocios tradicionalmente de bajo margen, como los minoristas, seguirán buscando formas de aumentar la eficiencia y reinventar la experiencia del cliente para aumentar la demanda. Las empresas con grandes activos de capital que requieren mantenimiento (como la fabricación) también buscan mejoras en los procesos mediante el mantenimiento predictivo de IoT y las soluciones de Aprendizaje Automático (ML por sus siglas en inglés).

Nuevos modelos económicos

La entrega de los servicios de IoT tendrá una nueva dimensión, a medida que cambien las expectativas de seguimiento, facturación, pago y contabilidad de las transacciones, a medida que crezca la cantidad de dispositivos conectados.

Seguridad y privacidad

Con cada nuevo dispositivo IoT agregado, los vectores de ataque aumentan. Deje de buscar la bala mágica de seguridad (ningún proveedor ofrece una solución única) y adopte una defensa en profundidad, una estrategia de seguridad en capas para enfrentar las amenazas. Los problemas de privacidad, como el uso de tecnología de reconocimiento facial por parte de los minoristas para identificar y orientar las ofertas, seguirán aumentando.

Transferencia de conocimiento humano al aprendizaje automático

Veremos cada vez más casos de uso en los que el conocimiento humano se utiliza para crear modelos predictivos. Por ejemplo, un maquinista que ha sido responsable de los equipos durante muchos años, puede identificar el sonido único generado por cada parte de la maquinaria. Esos identificadores de audio pueden agregarse a los modelos predictivos y usarse para activar alertas de que una parte está a punto de fallar.

¿En qué fase de implementación de IoT, está su empresa u organización?