Mostrando entradas con la etiqueta HPC. Mostrar todas las entradas
Mostrando entradas con la etiqueta HPC. Mostrar todas las entradas

jueves, 30 de junio de 2022

Cómo van las Top500 después del primer semestre de 2022

"Citius, Altius, Fortius" es una locución latina que significa Más rápido, más alto, más fuerte. Es el lema de los Juegos Olímpicos de la era moderna desde sus inicios en 1896 hasta la actualidad, con los cinco anillos de diferentes colores entrelazados y con la antorcha, simbolizando el espíritu olímpico. La frase fue pronunciada por Pierre de Coubertin en la inauguración de los primeros Juegos de la Edad Moderna, de Atenas en 1896.

Desde que los seres humanos comenzamos a utilizar más nuestro cerebro, además de otras habilidades, nos gusta saber qué o quién es el número uno en algo. Lo que sea. Que mejor ejemplo de las competencias en los ya mencionados Juegos Olímpicos, las competencias de bólidos en los circuitos de la Fórmula 1 y un interminable etcétera.

Las tecnologías de la información no son la excepción y e por lo que desde el año 1993 nace el proyecto Top500 con el claro objetivo de mejorar y renovar las estadísticas de la supercomputadora de Mannheim en Alemania, que había estado en uso durante siete años.

El enfoque que aporta TOP500 no define "supercomputadora" como tal, pero usan un punto de referencia para clasificar los sistemas y decidir si califican o no para la lista TOP500. El punto de referencia que decidimos fue Linpack, lo que significa que los sistemas se clasifican solo por su capacidad para resolver un conjunto de ecuaciones lineales, A x = b, utilizando una matriz aleatoria densa A. Por lo tanto, cualquier supercomputadora, sin importar cuál sea su arquitectura, puede entrar en la lista TOP500, siempre que sea capaz de resolver un conjunto de ecuaciones lineales utilizando la aritmética de punto o coma flotante. 

Top500 ha sido criticado por esta elección desde el principio, pero ahora, después de 20 años, podemos decir que fue exactamente esta elección la que hizo que TOP500 tuviera tanto éxito; por lo tanto, Linpack fue una buena elección, amén que no había, y aún no hay, alternativa a Linpack. Cualquier otro punto de referencia habría sido igualmente específico, pero no habría estado disponible tan fácilmente para todos los sistemas, un factor muy importante, ya que compilar las listas TOP500 dos veces al año es un proceso muy complejo.

El éxito de las listas TOP500 radica en recopilar y analizar datos a lo largo del tiempo. A pesar de depender únicamente en Linpack, hemos podido identificar y rastrear correctamente TODOS los desarrollos y tendencias durante los últimos 20 años, cubriendo fabricantes y usuarios de sistemas de Cómputo de Alto Desempeño (High Performance Computing o HPC), arquitecturas, interconexiones, procesadores, sistemas operativos, etc. Y, sobre todo, la fortaleza de TOP500 es que ha demostrado ser una herramienta excepcionalmente fiable para pronosticar la evolución del rendimiento.

La 59.ª edición del TOP500 reveló que el sistema Frontier es la máquina a exaescala real Número 1, con una puntuación HPL de 1.102 exaflop/s (1,102,000,000,000,000,000 o un trillon ciento dos mil millones de operaciones de punto flotante por segundo).

El puesto Número 1 ahora lo ocupa el sistema Frontier en el Laboratorio Nacional de Oak Ridge (ORNL) en los Estados Unidos. Está basado en la última arquitectura HPE Cray EX235a y equipado con procesadores AMD EPYC 64C de 2 GHz, el sistema tiene un total de 8'730,112 núcleos, una calificación de eficiencia energética de 52.23 gigaflops/Watt y depende de Gigabit Ethernet para la transferencia de datos.

Sin embargo, un desarrollo reciente del sistema Frontier ha permitido que la máquina supere la barrera de 1 exaflop. Con una puntuación HPL exacta de 1.102 Exaflop/s, Frontier no solo es la supercomputadora más poderosa que jamás haya existido, sino que también es la primera máquina a exaescala real.

La primera posición la ocupó previamente durante dos años consecutivos el sistema Fugaku en el Centro RIKEN para Ciencias Computacionales (R-CCS) en Kobe, Japón. Siguiendo con su puntaje de referencia HPL anterior de 442 PFlop/s, Fugaku ahora ha caído al Número 2. Teniendo en cuenta el hecho de que el pico teórico de Fugaku está por encima de la barrera de 1 exaflop, hay motivos para llamar a este sistema también una máquina de exaescala. Sin embargo, Frontier es el único sistema capaz de demostrar esto en la prueba comparativa de HPL.

Otro cambio dentro del TOP10 es la introducción del sistema LUMI en EUROHPC/CSC en Finlandia. Ahora ocupando el tercer puesto, este nuevo sistema tiene 1,110,144 núcleos y tiene un punto de referencia HPL de casi 152 PFlop/s. LUMI también destaca por ser el sistema más grande de Europa

Finalmente, otro cambio dentro del TOP10 ocurrió en el puesto No. 10 con la nueva incorporación del sistema Adastra en GENCI-CINES en Francia. Logró una puntuación de referencia de HPL de 46,1 Pflop/s y es la segunda máquina más potente de Europa, detrás de LUMI.



Gráficas Comparativas



En conclusión, ya se ha sobrepasado la barrera de los trillones de operaciones de punto flotante por segundo. Esto augura que, si continúa el crecimiento del poder de cómputo siguiendo la Ley de Moore, romperemos más y más límites y expectativas con el Cómputo de Alto Rendimiento, utilizando procesadores binarios.

miércoles, 30 de diciembre de 2020

Computadoras en Una Sola Tarjeta (SBC) ¿Son una buena opción?

Si es Usted una persona que se dedica directa o indirectamente a las Tecnologías de la Información y ha estado completamente aislado o aislada por completo, entonces no se ha dado cuenta de los inmensos avances que las Computadoras en Una Sola Tarjeta (Single Board Computers - SBC).

Todo comenzó con la Raspbery Pi. Wikipedia la define como: "Una serie de Computadoras de Placa Reducida, Computadoras de Placa Única o Computadoras en Una Sola Tarjeta de bajo coste desarrollado en el Reino Unido por la Raspberry Pi Foundation, con el objetivo de poner en manos de las personas de todo el mundo el poder de la informática y la creación digital".

A partir de ahí otras fundaciones y empresas han querido igualar o superar a este fenómeno informático (algunas con resultados muy prometedores), que al igual que las Tarjetas Microcontroladoras italianas Arduino, pusieron delante de todos nosotros el concepto Open Source Hardware.

En sus inicios, la idea era que quien utilizara esta opción de equipo de cómputo, fuesen más allá que simplemente instalarle un Sistema Operativo, ejecutar OpenOffice, acceder a Internet y/o realizar lo que se considera hoy las funciones más básicas de una computadora de escritorio. La idea era que esta maravilla fuese la piedra angular de una solución de Domótica, una solución de Internet de las Cosas, fuese el cimiento de toda una estrategia de aprendizaje para el desarrollo, la automatización, etc. a nivel universitario. Hoy ya se le ve como una opción más que seria para sustituir a las pesadas y en ocasiones muy costosas y sobradas computadoras de escritorio.

El objetivo de esta entrada la Blog Tecnológico es mostrar cuál es el estado actual de esta muy seria opción para oficinistas, estudiantes, "hobistas", amas de casa, etc. Comencemos entonces con una descripción general de las propiedades físicas e informáticas de este artilugio.

La Raspberry Pi 4B al desnudo

Esta es la versión más reciente del equipo y sus características son:

  • Procesador Broadcom BCM2711, Quad core Cortex-A72 (ARM v8) 64-bit "SoC" @ 1.5GHz
  • 8GB LPDDR4-3200 de memoria SDRAM
  • Conexión a red inalámbrica 2.4 GHz y 5.0 GHz IEEE 802.11ac
  • Bluetooth 5.0, BLE
  • Puerto RJ45 Gigabit Ethernet alámbrico
  • 2 puertos USB 3.0 y otros 2 puertos USB 2.0.
  • Conector de 40 pines GPIO completamente compatible con todas las versiones de tarjeta.
  • 2 puertos de video micro-HDMI con soporte a resolución 4K p60
  • Puerto para monitor touch integrado 2-lane MIPI DSI
  • Puerto para cámara 2-lane MIPI CSI
  • Puerto a 4-polos audio stereofónico y video compuesto
  • Decodificador H.265 (4kp60) y H264 (1080p60)
  • Codificador 1080p30
  • Soporte para gráficos OpenGL ES 3.0
  • Puerto para tarjeta Micro-SD para carga de sistema operativo y almacenamiento no volátil
  • Conector para alimentación 5V DC USB-C (mínimo 3A)
  • Alimentación 5V DC vía GPIO (mínimo 3A)
  • Habilitado para Power over Ethernet (PoE) 
  • Puede operar en ambientes con temperaturas desde los 0°C y hasta 50°C

En la siguiente figura, se muestra la vista superior de la tarjeta:

El precio unitario promedio aquí en México, a través de el portal de Comercio Electrónico más famosa en América Latina es de $2,750.00 MXN con entrega a domicilio sin costo (dependiendo del proveedor y el comprador). Este precio no incluye nada más que la tarjeta, siendo necesario comprar (por separado) la fuente de alimentación, el teclado, el monitor, el dispositivo puntero (mouse) y la "carcasa". De manera muy recomendable y opcional, están los disipadores y el ventilador. Todo el "kit" sin incluir monitor, teclado y mouse, puede costar $3,200.00 a través del mismo portal de Comercio Electrónico.

El Sistema Operativo de la Raspberry Pi

Estos dispositivos pueden ejecutar sin problema Sistemas Operativos Linux (Ubuntu, Mint, Raspbian principalmente), aunque también la empresa de Redmond, Washington ya liberó una versión del Sistema Operativo Windows 10 para procesadores de Arquitectura ARM.

También es posible ejecutar versiones del Sistema Operativo Android y Google Chrome OS.

VMware ya liberó también (para respaldar dispositivos orientados a su proyecto Monterey) una versión de su afamado hipervisor ESXi, mientras que por su parte la empresa Oracle publico oficialmente haber creado y puesto a trabajar exitosamente un Cluster para Cómputo de Alto Desempeño (High Performance Computing - HPC) conformado por 1,060 dispositivos Raspberry Pi.

Raspberry Pi 400. El todo en uno listo para usarse

Para los que no desean lidiar con la preparación desde cero de todo lo necesario para trabajar, existe una opción lista para usar, que el fabricante pone disponible con el nombre "Raspberry Pi 400".

Esta opción viene con 4 GB de memoria RAM y lo único que se requiere añadir es el monitor. El formato del producto ha sido comparado con opciones de computadoras caseras como la legendaria Commodore 64, ya que el teclado y el equipo de cómputo están integrados.

Lo importante a destacar es el hecho de que no se pierden características que han hecho tan popular a la Raspberry Pi, como lo es el acceso completo a los puertos de entrada y salida que permiten la interacción con sensores y actuadores. 

Raspberry Pi 4B como equipo para Aulas

¿Qué es lo que se busca cuando vamos a impartir un curso teórico práctico? Que cada estudiante tenga acceso al portal de laboratorios, de manera eficiente, rápida, segura, confiable y sin tener que invertir mucho en el equipo de cómputo.

En este rubro Raspberry Pi 4B tiene mucha ventaja contra otras opciones en las que se incluyen Laptops, Desktops y equipamientos semejantes.

Aquí estamos dando por hecho de que estamos utilizando Infraestructura de Escritorios Virtuales (Virtual Desktop Infrastructure - VDI) para cada alumno. Este esquema ya se ha venido llevando a cabo con éxito en los últimos tres o cuatro años. Con éste tenemos todo lo necesario para cada estudiante ejecutándose en servidores y computadoras virtuales, siendo necesario en un 90% de los casos de tan solo un navegador que soporte HTML V5 (Chrome, Firefox, Chromium).

Raspberry Pi 4B como equipo para Usuarios Básicos y Desarrolladores

¿Qué es un Usuario Básico? Todo aquel usuario que sólo requiere encender el equipo, esperar lo más poco posible para poder utilizarlo y tenerlo todo listo para realizar actividades como abrir el navegador para acceder a aplicaciones, abrir, crear, modificar documentos con un Procesador de Texto, Hoja de Cálculo y/o una herramienta para Presentaciones. Tal vez como una aplicación más, aquella que permita fuera del navegador, descargar, leer, contestar correos electrónicos.

Estos son los usuarios más comunes en las empresas, instituciones y organizaciones como lo son recepcionistas, personal de telemercadeo, ejecutivos de venta, etc.

Para los desarrolladores el ambiente es bastante distinto, pues aquí es necesario interactuar con plataformas de desarrollo, acceso a servidores de prueba y desarrollo, así como ya cada vez menos ocasiones, realizar un trabajo muy intenso para ejecución de código a nivel local.

Raspberry Pi 4B como equipo para Diseñadores

Quienes realizan labores orientadas al diseño gráfico, diseño industrial, diseño arquitectónico, etc. saben perfectamente que es necesario contar, para realizar correcta y cabalmente sus labores, con equipos de cómputo de muy alto desempeño equipados con muchos recursos informáticos como lo son procesadores multi núcleo, memoria de acceso aleatorio, tarjetas de aceleración gráfica, etc.

Obviamente la Raspberry Pi 4B no cuenta con esos recursos, pero si en la empresa, la organización se cuenta con una solución de Infraestructura de Escritorios Virtuales (Virtual Desktop Infrastructure - VDI), será posible que usuarios que realizan tareas de Diseño Gráfico, Diseño Industrial, etc. podrán ejecutar sin problemas sus muy "pesadas" aplicaciones como AutoCAD, Photoshop, etc. sin necesidad de agregar más recursos informáticos al equipo de usuario.

Raspberry Pi 4B como equipo para Kioscos de Autoservicio y Paneles Informativos

¿Han estado en una plaza comercial y requieren saber a dónde está una tienda, un servicio en particular? Cuando vamos a un banco, a un hospital, a un restaurante, es muy importante conocer, tener certeza del estatus de nuestra orden, el turno con el que me nos a atender, si la persona o pariente que ingresamos al hospital se encuentra estable o va mejorando. 

Existe desde hace más de una década, la tendencia a utilizar de kioscos interactivos para propiciar la cultura del autoservicio, así como también para sustituir a personal que sólo se dedicaba a dar información en escritorios estratégicamente ubicados.

Aquí también Raspberry Pi 4B entra en acción como una muy seria opción para ser el cerebro de los kioscos interactivos. Sea que estén conectados a una red de datos en un esquema 24x7 o con actualizaciones a cada cierto tiempo. Recuerden que es posible conectar a este dispositivos cámaras y monitores "touch". 

Raspberry Pi 4B como piedra angular de Domótica, Vehículos Inteligentes, etc.

Como consecuencia de La Cuarta Revolución Industrial, la Tercera Plataforma y la Transformación Digital, ahora es posible automatizar no solamente procesos industriales, sino también vehículos y casas habitación.

Estamos hablando de no solamente poder automatizar o mejorar la automatización ya existente en electrodomésticos. Sino también involucrar Inteligencia Artificial (algoritmos informáticos que permiten respuesta rápida en caso de cambios no previstos en el entorno), Aprendizaje de Máquina y otros beneficios que ya son una realidad dentro de las Tecnologías de la Información.

Dentro de los objetivos, en el caso de la Domótica o automatización del hogar, están el realizar un consumo más racional e inteligente del suministro de energía eléctrica, revisión 24x7 de todos y cada uno de los dispositivos para garantizar su funcionamiento continuo, monitoreo "in situ" de la salud de quienes se encuentran en casa con posibilidad de interacción con servicios de ambulancia y hospitalarios, etc.

En la industria del automóvil, ya no es suficiente para el conductor tener un sistema de audio que pueda interactuar con el Dispositivo Personal Móvil del conductor. Ahora se requiere un monitoreo más estricto de todos y cada uno de los sistemas que componen el vehículo, interacción con el Sistema de Posicionamiento Global para la elección de mejores rutas, vigilar en todo momento (predominantemente cuando el vehículo está andando) la proximidad de otros vehículos, así como te el súbito cruce de peatones.

¿Qué dicen de vehículos automotores que se pueden conducir solos, permitiendo que todos sus ocupantes puedan relajarse, utilizar su tiempo en algo más que no sea estar pendiente de la operación y conducción del vehículo? Esto no es algo que viva en ese mundo de la fantasía que ofrece Hollywood, sino que gracias a dispositivos como Raspberry Pi 4B ya es posible y algunas empresas fabricantes y entusiastas ya lo están haciendo.

Conclusión

Ya no hay que esperar años para poder realizar a modo personal o a nivel empresarial, soluciones y dispositivos que aprovechen lo mejor de las Tecnologías de la Información, para mejorar el funcionamiento de electrodomésticos, vehículos, etc.

Tampoco es necesario invertir grandes sumas de dinero en equipamiento para el alumnado o para quienes realizan laboras de oficina típicas. Lo que es más, también es posible que no sea necesario asignar caros equipos de cómputo cargados de recursos informáticos, para personal de diseño.

Las Computadoras en Una Sola Tarjeta permiten todo esto y mucho más, permitiendo que nuestra creatividad no tenga límites.

NOTA AL CALCE

Esta entrada al Blog Tecnológico Tech Data se realizó completamente utilizando una RaspberryPi 4B, con sistema operativo Raspbian y navegador Chromium.

jueves, 9 de julio de 2020

Los 10 mejores sistemas de infraestructura hiperconvergente

En el año 2015, cuando tocamos el tema de la Tercera Plataforma, hablábamos de los Sistemas Expertos Integrados. En ese entonces IBM y ORACLE eran los principales actores y conforme se fueron incorporando más tecnologías y conceptos (hijas e hijos de la Cuarta Revolución Industrial y la Transformación Digital), dieron por resultado lo que a la postre se conocería formalmente como Hiperconvergencia.

¿Y qué es hiperconvergencia? Es un marco de TI que combina almacenamiento, computación y redes en un único sistema en un esfuerzo por reducir la complejidad del centro de datos y aumentar la escalabilidad. Las plataformas hiperconvertidas incluyen un hipervisor para la computación virtualizada, almacenamiento definido por software y redes virtualizadas, y normalmente se ejecutan en servidores estándar.

Ahora bien, los sistemas hiperconvergentes han asumido oficialmente el control del mercado global de sistemas convergentes, representando el 51 por ciento de todas las ventas de sistemas convergentes en todo el mundo en el primer trimestre de 2020.

El mercado mundial de sistemas hiperconvergentes generó casi $2,000 millones de dólares en el primer trimestre, un aumento de más del 8 por ciento año tras año, en comparación con $1,800 millones en el primer trimestre de 2019, según datos de la firma de investigación de TI IDC. El mercado de infraestructura hiperconvergente (HCI) continúa creciendo trimestre tras trimestre a medida que la arquitectura resuelve las necesidades de varios clientes, desde simplificar los entornos de TI a través de una plataforma preconfigurada y estrechamente integrada de redes, almacenamiento, cómputo y software para cumplir mejor los requisitos reglamentarios.

Los gigantes de hardware y software de TI Cisco, Dell Technologies, Hewlett Packard Enterprise, Nutanix y VMware continúan dominando el mercado, y las cinco compañías combinadas poseen aproximadamente el 80% del mercado mundial de HCI.

Aquí están las 10 mejores soluciones de infraestructura hiperconvergente de 2020 hasta el momento, las cuales se presentan en orden alfabético:

Azure Stack HCI

Está diseñado para clientes que desean ejecutar aplicaciones virtualizadas en infraestructura hiperconvergente. Se introdujo en la edición Datacenter de Windows Server 2019, que sigue a la oferta inicial de Hiperconvergencia de Microsoft en la edición Datacenter 2016 de Windows Server de Microsoft. El software y el titán de la nube pública ofrece Azure Stack en varios hardware, incluidos ASUS, Axellio, Cisco, Dell EMC, Fujitsu, HPE, Inspur, NEC y Western Digital.

Incluye el hipervisor Hyper-V de Microsoft, Storage Spaces Direct para la virtualización del almacenamiento y Azure Monitor para obtener una visión global del estado del sistema. Los clientes pueden utilizar Azure Monitor para contenedores para comprender mejor el rendimiento y el estado de los clústeres desde la infraestructura hasta la aplicación. Las nuevas mejoras de Azure Stack HCI incluyen una capacidad de administración mejorada a través del Centro de administración de Windows, integración con seguridad mejorada y compatibilidad con el Día 1 para los Z-SSD de Samsung, Intel Optane, EPYC de AMD y los procesadores escalables Xeon de Intel.

Cisco HyperFlex

La línea de productos HCI HyperFlex de Cisco incluye nodos híbridos HyperFlex para cargas de trabajo de uso general, nodos HyperFlex all-flash y NVMe para cargas de trabajo de misión crítica, HyperFlex Edge para oficinas remotas y sucursales, y nodos HyperFlex solo para computación. HyperFlex combina su plataforma de datos HX de software con su cartera de servidores UCS junto con redes de tejido integradas. Es un dispositivo totalmente integrado que es compatible con los hipervisores VMware vSphere y Microsoft Hyper-V, mientras que los usuarios pueden escalar el cómputo y el almacenamiento independientemente uno del otro.

Para mejorar las capacidades de HyperFlex para soportar cargas de trabajo, Cisco lanzó soporte para los últimos procesadores escalables Xeon de Intel y un dispositivo hiperconvergente NVMe que utiliza tecnología 3-D XPoint en niveles de almacenamiento en caché y capacidad. Otras mejoras incluyen el motor de aceleración de HyperFlex, una tarjeta de aceleración que descarga la compresión en línea de la CPU para permitir la escalabilidad de petabytes y el soporte mejorado de Kubernetes.

HPE SimpliVity

HPE mejoró su juego de precio/rendimiento hiperconvergente al equipar tanto SimpliVity como sus plataformas dHCI Nimble Storage con los procesadores EPYC Rome de AMD. Las actualizaciones están dirigidas a los mercados de infraestructura de escritorio virtual (VDI), incluidos los servicios de trabajo en el hogar y médicos y de emergencia, que han experimentado un aumento significativo en la demanda en medio de la pandemia de coronavirus. HPE agregó recientemente su software de análisis predictivo de inteligencia artificial InfoSight a HPE SimpliVity, al tiempo que lanzó un ataque contra el mercado medio.

HPE SimpliVity se entrega como un dispositivo que integra servidores HPE, hipervisores, almacenamiento definido por software, respaldo y servicios de datos. HPE ofrece una garantía en sus servicios de datos resaltada por la eficiencia y confiabilidad de los datos. La compañía ha agregado el diseño validado SimpliVity para Anthos de Google Cloud para la nube privada o híbrida basada en contenedores, así como también ha lanzado una oferta HPE SimpliVity 325 de socket único basada en AMD para oficinas remotas, sucursales y edge.

Nodo HCI 2 de NetApp

Este año, NetApp comenzó a enviar una nueva versión de su línea de infraestructura hiperconvergente dirigida a oficinas remotas y despliegues de frontera o "edge". El nuevo nodo de NetApp HCI 2 tiene la misma arquitectura y capacidades de administración que la línea de productos original de NetApp HCI. NetApp HCI 2 Node es la versión empresarial distribuida de NetApp HCI optimizada para el trabajo remoto y la infraestructura de frontera.

La arquitectura HCI de NetApp permite a los clientes consumir servicios de nube pública en las instalaciones con la capacidad de escalar nodos de cómputo o almacenamiento de forma independiente. La plataforma se basa en SolidFire y su software Element para permitir la protección de la carga de trabajo para las aplicaciones. La infraestructura hiperconvergente de NetApp incluye su conjunto unificado de servicios de datos Data Fabric que proporciona servicios de datos consistentes en plataformas locales, privadas y públicas como AWS, Google Cloud y Microsoft Azure. El servicio Kubernetes de NetApp en Infraestructura Hiperconvergente no solo automatiza la implementación de Kubernetes, sino que también incluye una herramienta de orquestación de aplicaciones y acceso al mercado de aplicaciones de la compañía.

Nutanix Hiper Convergence Infrastructure

La infraestructura hiperconvergente que ejecuta el software para Infraestructura Hiperconvergente de Nutanix, representó el 28% del mercado mundial de sistemas hiperconvergentes en el primer trimestre de 2020. Nutanix HCI se compone de su paquete de software, que incluye almacenamiento definido por software: Acropolis Operating System; un plano de control de infraestructura, Prism; y su hipervisor Acropolis Hipervisor.

En el mes de Junio, Nutanix agregó Foundation Central para permitir que los equipos de Tecnologías de la Información implementen infraestructura de nube privada a escala global, desde una única interfaz, nuevas funciones de gestión del ciclo de vida, así como Nutanix Insights para proporcionar servicios predictivos de salud y soporte automatizado para ayudar a agilizar las operaciones.

Nutanix ofrece licencias de software basadas en términos y suscripción que son portátiles en todas las plataformas de hardware, incluidas Dell, IBM, Fujitsu, Lenovo, HPE e Inspur, así como las más importantes nubes públicas.

Aunque Nutanix está centrando su atención en los servicios en la nube, la compañía actualiza constantemente su plataforma Enterprise Cloud con nuevos productos como Cloud Application Lifecycle Management (CALM) para la orquestación de aplicaciones, archivos para datos no estructurados y Xi Beam para el gobierno de múltiples nubes y el control de costos.

Pivot3 Acuity

La infraestructura hiperconvergente Acuity de Pivot3 se centró en videovigilancia, análisis de video, infraestructura de escritorio virtual (VDI) y cargas de trabajo mixtas, dirigidas a aplicaciones a gran escala en los mercados federales, de salud y educación. Pivot3 ha incorporado características de gestión de políticas de seguridad, que incluyen cifrado de datos en reposo basado en políticas y descarga de algoritmos, al tiempo que ofrece un Centro de operaciones de seguridad virtual para permitir a los clientes reemplazar costosas estaciones de trabajo habilitadas para gráficos con una oferta de Infraestructura Hiperconvergente que ofrece escritorios de clientes seguros. Las implementaciones de defensa e inteligencia más grandes de Pivot3 son casos avanzados de uso de Virtual Desktop Infrastructure.

La plataforma Acuity presenta protección de datos, seguridad de datos, almacenamiento en caché flash NVMe que puede ejecutar cargas de trabajo múltiples y mixtas, así como lo que denomina "HCI All Flash" que consolida cargas de trabajo pesadas que necesitan las velocidades de almacenamiento "flash" más altas. Las capacidades de Pivot3 permiten a los clientes obtener una plataforma de video altamente escalable y confiable que también puede operar cargas de trabajo de frontera. El motor de inteligencia de la compañía prioriza los recursos para las cargas de trabajo de misión crítica.

Scale Computing HC3

Scale Computing recientemente puso su solución hiperconvergente HC3 completa en productos ultra pequeños Lenovo M90n Nano e Intel NUC, para ejecutar aplicaciones completas de misión crítica en frontera. El nuevo HE150 es un dispositivo basado en almacenamiento NVMe todo flash que consume menos de un gigabyte de memoria en la RAM de dispositivo pequeño, que una persona puede "llevar literalmente en una mano", dijo Jeff Ready, CEO de Scale. El HE150 incluye HC3 Edge Fabric que elimina la necesidad de contar con un switch de red de plano posterior para reducir el TCO.

La plataforma de virtualización HC3 insignia de Scale Computing aprovecha su propio hipervisor basado en Kernel-based Virtual Machine (KVM) junto con sus capacidades de gestión, cómputo, agrupación de almacenamiento y virtualización de red. HC3 se utiliza principalmente en implementaciones de sucursales, oficinas remotas y periféricas, así como en los centros de datos primarios de pequeñas y medianas empresas para cargas de trabajo críticas y de consolidación. La compañía ofrece ofertas de muy bajo costo que requieren una inversión limitada en hardware para ubicaciones de frontera.

VxRail Serie D

El mes pasado, Dell Technologies lanzó su primer VxRail D-Series resistente, el sistema hiperconvergente más pequeño y ligero de la compañía que está disponible a un precio inicial de aproximadamente $20,000 dólares, por clúster de 3 nodos con ProSupport por un año. La nueva serie D compacta y duradera tiene solo 20 pulgadas de profundidad y está diseñada para resistir temperaturas extremas, soportar 40G de choque operativo y operar hasta 15,000 pies.

La serie VxRail D es ideal para industrias como la fabricación, entornos industriales y de petróleo y gas donde las condiciones pueden crear un desafío técnico o el espacio es limitado, como barcos en el mar o equipamiento en aviones. VxRail, el sistema HCI líder en el mundo, es una solución de ingeniería conjunta entre Dell y VMware. Dell Technologies posee un tercio del mercado mundial de sistemas hiperconvergentes, generando $666 millones de dólares en ventas en el primer trimestre de 2020, un aumento de más del 13% año tras año.

VxRail E-Series

Por primera vez, VxRail ha sido equipado con procesadores basados ​​en AMD con el lanzamiento el mes pasado de la serie E de Dell Technologies VxRail. La nueva serie VxRail E incluye profesores AMD EPYC de segunda generación que ofrecen a los clientes hasta 64 núcleos de alto rendimiento y soporte para PCIe 4. Junto con una fuente de alimentación de alta eficiencia, los sistemas compactos de Una sola Unidad de Rack, son ideales para clientes que necesitan potencia informática de alto rendimiento en una sola plataforma para entornos de frontera. Antes de la Serie E, VxRail tradicionalmente aprovechaba los procesadores basados ​​en Intel.

El nuevo sistema VxRail E665 está disponible en configuraciones NVMe, todo flash o almacenamiento híbrido. Ofrece un alto rendimiento en un modelo de socket único y es una opción ideal para bases de datos, datos no estructurados, infraestructura de escritorio virtual (VDI) y cargas de trabajo de computación de alto rendimiento o High Performance Computing (HPC). Dell también presentó recientemente el VxRail Analytical Consulting Engine (ACE), una plataforma de análisis y recopilación de datos centralizada basada en la nube para simplificar la administración de los clústeres de VxRail.

VMware vSAN

VSAN de VMware es el software hiperconvergente más utilizado en el mundo con vSAN ReadyNodes certificado en sistemas como VxRail, Fujitsu PRIMEFLEX, HPE Integrated ReadyNodes, Hitachi UCP y Lenovo ThinkAgile VX.

El producto vSAN de VMware se integra de forma nativa con su hipervisor vSphere y se incluye en VMware Cloud Foundation (VCF), disponible tanto en las instalaciones como en todas las principales nubes públicas, incluidas AWS, Microsoft Azure y Google Cloud Platform. vSAN ReadyNodes están certificados conjuntamente por VMware y más de 15 proveedores OEM.

VMware reina en el mercado de software hiperconvergente en el primer trimestre de 2020 al capturar una enorme cuota de mercado del 42.4%, frente al 41.5% año tras año. Los sistemas que ejecutan el software VMware representaron $841 millones de dólares en el primer trimestre, un aumento de ingresos de casi el 10% año tras año. VMware ha expandido la Infraestructura Hiperconvergente localmente a través de VMware Cloud Foundation, que consiste en vSphere, vSAN, NSX, vRealize y la automatización del ciclo de vida para acelerar las implementaciones de la nube privada.

En conclusión y a modo de corolario, ya no existe pretexto o motivo alguno para no incorporar la Hiperconvergencia, como cimiento para la Nube Privada y, con la incorporación de la Nube Pública, propiciar las Nubes Híbridas. Qué decir con la inclusión de microservicios basados en contenedores gracias a la incorporación de Docker y Kubernetes.

¿Ya cuenta con Infraestructura Hiperconvergente en su organización?

viernes, 30 de noviembre de 2018

La transformación del Cómputo de Alto Rendimiento

Mientras la conferencia anual de Super Cómputo celebró su cumpleaños número 30 en Dallas la semana pasada, recordamos que ha llegado el Super Cómputo y lo emocionante que es la industria de Cómputo de Alto Rendimiento en este momento.

Con el auge de Big Data, esta inmensa cantidad de información representa una gran oportunidad para los investigadores que tienen nuevo combustible para sus proyectos. Pero también proporciona un nuevo conjunto de desafíos, ya que la gran cantidad de información requiere nuevas operaciones para maximizar y crear conocimiento.

Hoy no solo se están explorando nuevas formas de infundir Cómputo de Alto Rendimiento con prácticas de Inteligencia Artificial para descubrir esas nuevas ideas, sino también para crear mejores herramientas para casi todas las etapas del flujo de trabajo moderno de Cómputo de Alto Rendimiento, para capacitar a los investigadores con la capacidad de comprender lo que parece insondable, poniendo orden en el caos que ha creado el diluvio de datos.

Simulación inteligente

Los saltos que la informática de alto rendimiento ha logrado en el poder de la computación, no siempre se correlacionan con conocimientos mejorados, por lo que se están examinando formas para que los investigadores apliquen análisis avanzados para diseñar mejores experimentos. Una de esas herramientas es la metodología bayesiana, un principio comprobado de las matemáticas que analiza lo que sabe y sugiriendo lo que se debe hacer a continuación, ayudando así a eliminar las simulaciones que probablemente no den los resultados deseados de los diseños de experimentos.

Se ha trabajado con clientes en productos farmacéuticos, química y ciencia de los materiales y se han observado que la aplicación de los principios bayesianos ha reducido el número de las simulaciones hasta en un 75%, al ​​tiempo que aumenta la precisión de las respuestas. En una era en la que la Ley de Moore ya está quedando obsoleta, estas técnicas podrían ser el camino para reducir radicalmente el costo del hardware y una visión más profunda, mediante una combinación de técnicas clásicas de HPC y análisis modernos.

Actualmente se trabaja para encapsular esta capacidad en un dispositivo que se puede instalar adyacente a un clúster existente de cualquier arquitectura, para mejorar su capacidad de procesamiento. En su forma actual, el dispositivo estaría preprogramado, por lo que los investigadores solo necesitan decirle a los sistemas que intercambien datos y el dispositivo Bayesiano diseñará instrucciones de simulación más inteligentes para el grupo primario. Pero este es solo el primer paso para hacer que la simulación sea más inteligente, y ya se está viendo un fuerte respaldo de los ecosistemas en la creación de soluciones de simulación inteligentes.

-"Penguin e IBM, ambos miembros de la Fundación OpenPOWER, han estado trabajando juntos para brindar a nuestros clientes de HPC soluciones de alto valor"-, dijo Phil Pokorny, CTO de Penguin Computing. -"La simulación inteligente es algo que creemos que tiene un gran potencial para mejorar la capacidad de nuestras soluciones y esperamos trabajar con IBM para evaluar áreas de aplicación"-.

-"Cray e IBM han colaborado en varias oportunidades de HPC en los últimos años combinando tecnologías de ambas compañías para brindar a nuestros clientes el mejor valor posible"-, agrega Joseph George, Director Ejecutivo de Alianzas de Cray. -"Esperamos trabajar con IBM para evaluar oportunidades para la inclusión de herramientas de simulación inteligente en soluciones de colaboración en una variedad de dominios de aplicaciones"-.

Descubrimiento cognitivo para HPC

Si bien los métodos de análisis avanzados como la Optimización Bayesiana pueden diseñar experimentos más inteligentes, aún dependen de las técnicas tradicionales de HPC para realizar el trabajo. Además, es un hecho aceptado que la preparación y la ingestión de datos no estructurados pueden tomar hasta el 80% del tiempo de un investigador y la Optimización Bayesiana no aborda ese problema principal.

A través de colaboraciones con muchos clientes en petróleo y gas, materiales, fabricación y más, IBM está investigando nuevas herramientas para ayudarles con la ingesta de datos a gran escala. Estas herramientas integradas están siendo diseñadas para ayudar a reunir mejor un catálogo de datos científicos, convirtiéndolos  automáticamente en un "gráfico de conocimiento", una representación visual de las relaciones de los datos.

Los investigadores de IBM han documentado que han utilizado estas herramientas inéditas para construir un gráfico de conocimiento de 40 millones de documentos científicos en solo 80 horas, una tasa de 500,000 documentos por hora. Las herramientas de investigación pueden ingerir e interpretar datos en formato PDF, cuadernos escritos a mano, hojas de cálculo, imágenes y más. La herramienta se está diseñando para ayudar a poner en orden los datos caóticos y contribuir al establecimiento de una memoria corporativa para todo el trabajo de HPC que una organización haya realizado. Algo de importancia crítica cuando los empleados se jubilan o se van.

Tiene capacidades de búsqueda profunda incorporadas que permiten la exploración de consultas muy complicadas en relación con el gráfico de conocimiento, junto con los materiales de resultados de búsqueda de clasificación de relevancia para la consulta deseada.

Para ayudar a que estas herramientas se apliquen en una amplia variedad de casos de uso empresarial, se pueden usar para crear aplicaciones verticales, específicas de dominio. Por ejemplo, en el La American Chemical Society (ACS) en Boston a principios de este año, presentaron una herramienta llamada IBM RXN que predice el resultado de reacciones químicas orgánicas. Esta herramienta está disponible en la web sin costo alguno a través del sistema IBM Zurich. En el contexto de HPC, esta tecnología presenta un enfoque unificado para complementar las simulaciones existentes con análisis inspirados en datos. Y puede, en algunos casos, incluso desplazar el mod-sim clásico por completo.


Comience a explorar el HPC cognitivo con los sistemas IBM

Se está ya examinando formas de incorporar estas capacidades al conjunto existente de productos controlados por Inteligencia Artificial, incluidos el servidor IBM Power Systems AC922 y el almacenamiento IBM ESS, el componente básico de Summit y Sierra, y el kit de herramientas de aprendizaje profundo para empresas líder en la industria: PowerAI. Los usuarios interesados en ponerse en marcha rápidamente también pueden explorar la nueva oferta de Plataforma de Cómputo Acelerada, que combina el cómputo, el almacenamiento y las redes con el software precargado en un rack plug-and-play.

En conclusión, ya no es necesario esperar mucho para ver y obtener los beneficios de todo lo que ya está aquí con el Cómputo de Alto Rendimiento, acelerado gracias a la Transformación Digital, la Convergencia Informática, la Tercera Plataforma y la Cuarta Revolución Industrial.

¿En qué puede apoyarle el Cómputo de Alto Rendimiento?

miércoles, 5 de septiembre de 2018

Suse Linux + Microsoft en alianza para La Nube

Parece que fue ayer cuando, en el programa nocturno de Larry King, un muy sonriente y hasta humilde William Gates, prácticamente suplicaba al público que -"...no utilizaran Linux, como sustituto de su incipiente Windows 2003 Server."-

También parece que fue ayer cuando el soberbio Steve Ballmer mencionaba que -"...Linux es un cancer."-

SUSE ha anunció ayer Martes 4 de Septiembre de 2018, la disponibilidad del primer Kernel de Linux empresarial, especialmente diseñado para Microsoft Azure. ¿Microsoft Azure? Sí. Ahora, las instancias bajo demanda de SUSE Linux Enterprise Server 15 se ejecutarán en un kernel personalizado para cargas de trabajo en Microsoft Azure, con un rendimiento mejorado y velocidades de arranque más rápidas, junto con un menor consumo de memoria.

El kernel optimizado para Azure permite un acceso más rápido tanto a las nuevas como a las futuras características de Azure, ayudando a los clientes a ser más ágiles. SUSE trabaja con Microsoft y otros socios para adaptar y garantizar soluciones de código abierto que permitan a los clientes, gestionar la complejidad, reducir los costes y ofrecer servicios críticos para la empresa que impulsen la transformación digital.

-“La colaboración de SUSE con Microsoft se basa en satisfacer las necesidades en constante evolución de los clientes, lo que permite la innovación y minimiza las interrupciones de su negocio”-, señala Gerald Pfeifer, vicepresidente de productos y programas tecnológicos de SUSE, quien añade: -“SUSE Linux Enterprise Server optimizado para usuarios de la nube pública de Azure es el resultado directo del compromiso de SUSE con el código abierto para resolver los retos reales de los clientes."-

KY Srinivasan, general manager del Enterprise Open Source Group en Microsoft Corp., comenta: -“Hemos estado trabajando estrechamente con SUSE para garantizar que los clientes que utilizan SUSE Linux Enterprise Server tengan una experiencia de primera categoría con Microsoft Azure. El nuevo kernel optimizado para Azure permite a esos clientes beneficiarse rápidamente de los nuevos servicios de Azure, como Accelerated Networking con Single Root I/O Virtualization (SR-IOV), Write Accelerator y otras funcionalidades a un ritmo acorde al ciclo de lanzamientos del equipo de ingeniería de Azure”.

SUSE Linux Enterprise Server 15 ofrece grandes ventajas en rendimiento, entre las que se incluyen un aumento potencial del 25 % en el rendimiento de red y una reducción del 23 % en la latencia media.

Por defecto, las instancias de SUSE Linux Enterprise Server 15 en Azure se ejecutarán en este núcleo personalizado, aunque los clientes tienen la flexibilidad de volver a cambiar fácilmente al kernel estándar mediante el gestor de paquetes Zypper.

Además del kernel diseñado para Azure, los clientes que utilicen SUSE Linux Enterprise Server en Azure se beneficiarán de una serie de herramientas y recursos para implementaciones nativas de cloud computing integradas en SUSE Public Cloud Module, como la capacidad de gestionar recursos Azure a través de una línea de comandos de Linux.

SUSE Linux Enterprise Server con kernel optimizado para Microsoft Azure ya está disponible en el Azure Marketplace con soporte y precio estándar.

Aunado al hecho de que el 98% de los equipos de cómputo que componen La Nube Pública están basados en Linix, que un 87% de las los Sites On-Premise, La Nube Privada y los Centros de Datos Definidos por Software también son Linux, amén de que el 100% de los quinientos más importantes equipos de Cómputo de Alto Rendimiento (HPC) tienen Sistema Operativo Linux, el otrora "mayor" enemigo y presuntos "haters" del Pingüino Tux dobla las manos y se rinde ante la abrumadora evidencia.

martes, 12 de junio de 2018

Vuelve Estados Unidos al No.1 en el Cómputo de Alto Desempeño

Una cantidad descomunal de personas alrededor del mundo obtuvieron nuevos aparatos el viernes, pero uno en el este de Tennessee se destaca Summit, una nueva supercomputadora presentada en Oak Ridge National Lab que es, extraoficialmente por ahora, la computadora más poderosa del planeta. Fue diseñado en parte para ampliar las técnicas de inteligencia artificial que alimentan algunos de los trucos recientes en su teléfono inteligente.

Estados Unidos no posee la supercomputadora más poderosa del mundo desde junio de 2013, cuando una máquina china reclamó el título por primera vez. Se espera que Summit termine esa racha cuando la clasificación oficial de supercomputadores, de una organización llamada Top500, se actualice a fines de este mes de Junio de 2018.

Los supercomputadores han perdido algo de su atractivo en la era de la computación en la nube y los enormes centros de datos. Pero muchos problemas computacionales espinosos requieren las máquinas gigantes. El año pasado, un informe del gobierno de Estados Unidos dijo que la nación debería invertir más en supercomputación, para mantenerse al día igualando o incluso superando a China en proyectos de defensa, como armas nucleares y aviones hipersónicos, así como innovaciones en el sector aeroespacial, descubrimiento de petróleo y productos farmacéuticos.

Summit, construida por IBM, ocupa un espacio equivalente a dos canchas de tenis y requiere más de 4,000 galones (15,141.65 litros) de agua por minuto alrededor de un sistema circulatorio, para enfriar sus 37,000 (treinta y siente mil) procesadores.

Oak Ridge dice que su nuevo bebé puede ofrecer un rendimiento máximo de 200 cuatrillones de cálculos por segundo (esto es el número 200,000,000,000,000,000 o 200 seguido de 15 ceros) usando una medida estándar utilizada para evaluar los supercomputadores, conocida como los petaflops, estamos hablando de doscientos mil millones de billones de operaciones de punto flotante por segundo. Eso es aproximadamente un millón de veces más rápido que una computadora portátil típica, y casi el doble del rendimiento máximo de Sunway TaihuLight de alto rango de China.

Durante las primeras pruebas, los investigadores de Oak Ridge utilizaron Summit para realizar más de un billón de cálculos por segundo en un proyecto que analiza la variación entre las secuencias del genoma humano. Afirman que es la primera vez que un cálculo científico ha alcanzado esa escala computacional.

La nueva mejor computadora de Estados Unidos es importante para algo más que la geopolítica de la fuerza computacional. Está diseñado para ser más adecuado que las supercomputadoras anteriores para ejecutar las técnicas de Aprendizaje Automático que son populares entre compañías tecnológicas como Google y Apple.

Una razón por la que las computadoras últimamente han mejorado mucho para reconocer nuestras voces y superarnos en los juegos de mesa es que los investigadores descubrieron que las Unidades Gráficas de Procesamiento (chips gráficos o GPUs) podrían poner más poder detrás de una vieja técnica de Aprendizaje Automático conocida como Redes Neuronales profundas. Facebook reveló recientemente que un único experimento de Inteligencia Artificial con miles de millones de fotos de Instagram, requirió cientos de chips gráficos durante casi un mes.

Summit tiene casi 28,000 Unidades de Procesamiento Grafico fabricados por la empresa Nvidia, junto con más de 9,000 procesadores convencionales Power de IBM. -"Tal uso intensivo de chips gráficos es inusual para una supercomputadora, lo que debería permitir avances en la implementación del Aprendizaje Automático en problemas científicos difíciles"-, dice Thomas Zacharia, director del Oak Ridge National Lab. -"Nos propusimos construir la supercomputadora más poderosa del mundo"-, dice, -"pero también es la supercomputadora más inteligente del mundo"-.

Eliu Huerta, investigador del Centro Nacional de Aplicaciones de Supercomputación de la Universidad de Illinois en Urbana-Champaign, describe el conjunto gigante de GPUs de Summit como -"...un país de los sueños"-. Huerta utilizó anteriormente el Aprendizaje Automático en una supercomputadora llamada Blue Waters para detectar signos de ondas gravitacionales en los datos del observatorio LIGO, que hizo ganar a sus fundadores el Premio Nobel 2017 en física. Se espera que el poder de Summit ayude a analizar los aproximadamente 15 Terabytes (16,106,127,360 bytes) de imágenes que se espera que lleguen todas las noches desde el Gran Telescopio de Muestreo Sinóptico (Large Synoptic Survey Telescope), que comenzará a operar en el 2019.

Summit también se usará para aplicar el Aprendizaje Profundo a problemas en química y biología. Zacharia dice que podría contribuir a un proyecto del Departamento de Energía usando registros médicos de 22 millones de veteranos, de los cuales aproximadamente un cuarto de millón incluye secuencias completas del genoma.

Algunas personas preocupadas por la competitividad de los EE. UU. En las super computadoras esperan que el alboroto en torno a SUMMIT inspire más interés en la construcción de sus sucesores.

Estados Unidos, China, Japón y la Unión Europea han declarado la primera computadora "exascale" (con más de 1.000 petaflops de potencia informática) como el próximo gran hito en la informática a gran escala. China afirma que alcanzará ese hito en 2020, dice Stephen Ezell, vicepresidente de política de innovación global de la Fundación de Tecnología e Innovación de la Información. Por su parte los Estados Unidos Puede llegar allí en 2021 si el sucesor de Summit, conocido como Aurora, se completa a tiempo, pero el programa ya presenta retrasos.

Se han solicitado ya  $ 376 millones de dólares de fondos federales estadounidenses, para ayudar a cumplir con el objetivo en el año 2021. Ahora le toca a los legisladores de la nación aprobarlo. -"La informática de alto rendimiento es absolutamente esencial para la seguridad nacional de un país, su competitividad económica y su capacidad para asumir desafíos científicos"-, dice Ezell.

¿Cree Usted que los Estados Unidos podrán mantenerse en el número uno de los equipos de cómputo de alto rendimiento, por más de tres años?

jueves, 24 de mayo de 2018

IBM hace un llamamiento a las empresas, para cumplir sus principios de IA y Datos Responsables

IBM anunció varias iniciativas nuevas, incluyendo un llamado para que las compañías tecnológicas cumplan con los Principios de Datos e Inteligencia Artificial responsables de IBM, y una Convocatoria de códigos en la conferencia de VivaTech en París.

En la conferencia, Ginni Rometty, Presidente y CEO de IBM, hizo un llamado a todas las empresas tecnológicas para adherirse a los Principios de Información e Inteligencia Artificial Responsable que IBM publicó hace dos años.

La compañía explicó que si bien es oportuna con los eventos actuales, no es en respuesta a la reciente reacción violenta contra los gigantes tecnológicos.

Los Principios Responsables de Inteligencia Artificial y Datos establecen que los datos pertenecen a su creador, y que los datos de una empresa y los conocimientos adquiridos pertenecen a esa empresa.

También establece que la Inteligencia Artificial debe ser transparente, explicable y debe usarse como una herramienta que apoye y aumente la inteligencia humana, no para reemplazarla. Las empresas deben ser abiertas acerca de quién formó un modelo y con qué datos. También deberían ser capaces de explicar cómo la Inteligencia Artificial llega a una decisión y mostrar pruebas de ello.

Según la compañía, esos principios están integrados en Watson. IBM cree que cualquier compañía que ponga AI en el mercado debería adherirse a esos principios también.

Rometty también anunció la iniciativa "Call for Code", que les asigna a los desarrolladores la posibilidad de encontrar soluciones que ayuden a aliviar las consecuencias de los desastres naturales.

-"En IBM creemos fundamentalmente en el poder de la tecnología, para hacer que nuestro mundo sea un mejor lugar para vivir, y para beneficiar las vidas de muchos, no solo de unos pocos"-, dijo Ginni Rometty, presidente, CEO y presidente de IBM. -"Todos tenemos la responsabilidad de utilizar la innovación para marcar la diferencia y, a través de esta iniciativa, nuestro objetivo colectivo es ayudar a las personas necesitadas y construir un futuro mejor"-.

IBM está comprometiendo su tecnología además de $ 30 millones de Dólares en cinco años. Los fondos proporcionarán acceso a herramientas de desarrollo, tecnologías, código gratuito y capacitación con expertos. IBM quiere que los desarrolladores exploren áreas relacionadas con los datos y las tecnologías de Inteligencia Artificial, Blockchain, La Nube e Internet de las Cosas para abordar los problemas que enfrenta nuestro mundo.

La compañía se asociará con la causa David Clark para esta iniciativa, contando con el apoyo de las Naciones Unidas y la Cruz Roja Americana.

Ejemplos de los tipos de aplicaciones son aquellas que reducen la vulnerabilidad al pronosticar amenazas, mejorar las medidas de precaución, responder a emergencias médicas durante un desastre y mejorar la resiliencia general de las comunidades para reconstruir después de un desastre.

Por ejemplo, se puede crear una aplicación que advierta a las farmacias que aumenten las existencias de antibióticos, insulina, agua embotellada y vacunas en función del pronóstico del tiempo.

Un panel de eminentes tecnólogos anunciados juzgará la aplicación ganadora, explicó Angel Díaz, vicepresidente de tecnología de desarrollo e incidencia en IBM. La aplicación ganadora pasará rápidamente al uso en el mundo real a través de Corporate Service Corps de IBM, que envía expertos de IBM a comunidades desatendidas para aplicar la tecnología a problemas locales.

viernes, 26 de enero de 2018

Alto rendimiento en "Deep Learning"

¿Ha notado que el interés en la inteligencia artificial (IA) realmente ha despegado más o menos en el último año? Mucho de ese interés es alimentado por el aprendizaje profundo. El Aprendizaje Profundo (Deep Learning) ha revolucionado la forma en que usamos nuestros teléfonos, trayendo nuevas aplicaciones como Google Voice y Siri de Apple, que se basan en modelos de inteligencia artificial entrenados utilizando aprendizaje profundo.

Aprendiendo la forma en que un ser humano aprende

El Aprendizaje Profundo es un nuevo método de aprendizaje automático basado en redes neuronales, que aprende y se vuelve más preciso a medida que proporcionamos más datos al modelo.


En el lado izquierdo del cuadro mostrado aquí arriba, se muestra un principio de Aprendizaje Profundo ampliamente aceptado: los modelos de inteligencia artificial basados en el Aprendizaje Profundo tienen una precisión mucho mayor que los métodos tradicionales de Aprendizaje Automático, pero requieren mucha más información para entrenar y lograr esa precisión. A la derecha mostramos los resultados de una búsqueda de Google Trends sobre "Aprendizaje Profundo", para demostrar cómo las personas buscan más información para el aprendizaje profundo en los últimos años.

El Aprendizaje Profundo permite que los modelos de inteligencia artificial aprendan de forma muy similar a cómo aprende un ser humano, lo que se logra a través de la experiencia y la percepción de forma continua. Así como enseñamos a un bebé cómo reconocer perros y gatos mostrándoles muchas imágenes y mascotas reales, podemos enseñarle a un modelo de IA basado en el Aprendizaje Profundo cómo reconocer imágenes y patrones al alimentar muchos datos del modelo.

Del mismo modo, los bancos de hoy en día en su mayoría utilizan sistemas basados ​​en reglas para la detección de fraudes, donde una regla puede especificar un conjunto de condiciones que desencadenará una alerta de fraude. En su lugar, pueden usar los últimos años de uso de tarjetas de crédito para capacitar a un modelo de aprendizaje profundo que aprenda cuantos más datos le proporcione.

De hecho, incluso después de implementar el modelo AI en producción, puede aprender continuamente de los millones de transacciones de tarjetas de crédito que el banco procesa todos los días. La ventaja de este enfoque es que el modelo de IA está aprendiendo automáticamente nuevas situaciones que pueden ser fraudulentas en función de la experiencia, en lugar de que un científico de datos escriba nuevas reglas para cada tipo de situación.

El Aprendizaje Profundo tiene docenas de usos en todas las industrias, que van desde análisis comerciales hasta análisis de video de drones hasta análisis de imágenes médicas para ayudar a los médicos con diagnósticos. Las empresas ahora pueden utilizar este tipo de métodos avanzados de aprendizaje automático para extraer información de los datos que han estado recopilando en sus lagos de datos en los últimos años. Pero para utilizar estos métodos de IA, una empresa necesita procesar grandes cantidades de datos, y ese enfoque requiere una infraestructura de TI que esté a la altura de la tarea.

Combinando el hardware y el software adecuados para el Aprendizaje Profundo

¿Qué requiere cumplir con las demandas de rendimiento del Aprendizaje Profundo? Primero, no creemos que puedas hacerlo sin aceleradores. Por ejemplo, el servidor IBM Power System AC922 viene con cuatro aceleradores NVIDIA Tesla V100 GPU específicamente para este propósito. IBM se asoció con NVIDIA para incorporar una interconexión de autopistas en nuestros procesadores que conectan la CPU del servidor y las GPU para manejar todo el movimiento de datos que implica el aprendizaje profundo. Llamada NVIDIA NVLink, esta superautopista transfiere datos hasta 5,6 veces más rápido que el ancho de banda del dispositivo host CUDA de las plataformas x86 probadas.

Gran parte de nuestra "magia" detrás del aprendizaje profundo también proviene del marco de referencia de software llamado PowerAI, que está diseñado para su implementación en IBM Power Systems. PowerAI es una distribución de software empresarial de algunos de los entornos de aprendizaje automático y de aprendizaje automático de código abierto más populares que se han seleccionado, probado y empaquetado para una fácil implementación. Se ajustaron estos marcos de código abierto para el hardware Power Systems, con miras para proporcionar el rendimiento y la velocidad de implementación optimizados para el Aprendizaje Profundo. PowerAI también facilita el uso del Aprendizaje Profundo al ayudar a los científicos de datos a preparar los datos y gestionar mejor el proceso de aprendizaje profundo.

Rompiendo el muro de la infraestructura de TI

Hemos descubierto que la mayoría de los marcos de referencia para el software de Aprendizaje Profundo de Código Abierto populares, se escala muy bien con aceleradores gráficos (GPU) dentro de un servidor, pero escalan mal en varios servidores en un centro de datos. Como resultado, el proceso de capacitación para el aprendizaje profundo puede tardar semanas en ejecutarse.

Debido a que el entrenamiento de los modelos de IA es un proceso iterativo, los científicos de datos pierden un valioso tiempo esperando que los experimentos se ejecuten. En IBM crearon una biblioteca de software innovadora llamada la "Biblioteca de Aprendizaje Profundo Distribuido (DDL por sus siglas en inglés), que puede aprovechar cientos de servidores.

IBM POWER9 con NVIDIA Tesla V100 ofrece una reducción de 3.7 veces en el entrenamiento del modelo AI en comparación con los sistemas x86 probados. Esto es clave porque la capacitación en aplicaciones de IA es extremadamente exigente y requiere infraestructuras optimizadas para ayudar a las organizaciones de todos los tamaños a alcanzar el éxito en la era de la inteligencia artificial.

Con estas optimizaciones de hardware y software, se democratizó el acceso a los métodos modernos de IA como el Aprendizaje Profundo, para permitir que una gran variedad de organizaciones comiencen con IA.

¿Qué aplicación práctica pudiese encontrar dentro de su Organización, para aplicar el Aprendizaje Profundo?


jueves, 18 de enero de 2018

Parada técnica. ¿A dónde estamos en este momento?

Tercera Plataforma, Cuarta Revolución Industrial, Transformación Digital, La Nube, Big Data, Movilidad, Internet de las Cosas... ¿Qué es todo esto? ¿Cómo llegamos a esto? ¿A dónde estamos?

El párrafo anterior pudiese asemejarse a Rip van Winkle. Un cuento corto de Washington Irving y que relata el acontecer de un personaje que se queda dormido a la sombra de un árbol, para despertar hecho un anciano y observar que todo ha cambiado radicalmente.

Cierto. Muchos de nosotros no nos hemos quedado dormidos o -"...hemos vivido dentro de una caverna o bajo una roca."- Pero la evolución de las Tecnologías de la Información ha sido tan vertiginosa, que vale la pena (como lo dice el título de esta entrada) hacer una parada técnica para verificar a dónde estamos.

Antecedentes

Las Tecnologías de la Información siguen teniendo como cuatro recursos principales:
  • Procesador
  • Memoria
  • Red
  • Almacenamiento


Cada uno de estos, sea en modalidad física o virtual, es indispensable para poder ejecutar Servicios o Cargas de Trabajo.

Ahora, el Quid del asunto

Respiremos profundo, retiremos esas lagañas de nuestros ojos, abramos nuestras mentes y comencemos con nuestro tema.

Los Centros de Datos ahora son Definidos por Software. Esto significa que no es necesario ingresar al Bios (o UEFI) del Hardware Físico, el programa de configuración o utilería ad-hoc para realizar cambios en cualquiera de estos cuatro recursos. Gracias a la capa de abstracción que genera la Virtualización,  es posible pues realizar una Administración Basada en Políticas, así como gracias a la Automatización poder ofrecer un marco de trabajo (framework) dinámico y resiliente.

El esquema informático que recientemente adoptamos y que actualmente está en tendencia se llama Tercera Plataforma. Esta plataforma nos permite ofrecer la Infraestructura, Plataforma y Software como un Servicio (La Nube); poder aprovechar la inmensa cantidad de datos (de toda posible fuente y en cualquier formato), que a diario se generan y que no es posible analizar con herramientas de análisis convencionales (Big Data); aprovechar para nuestro beneficio y primordialmente de nuestro negocio las Redes Sociales (Social Business) y la Movilidad.

Para poder -"...organizar los medios de producción, para lograr una mayor adaptabilidad a las necesidades y a los procesos de producción (y de negocio), así como a una asignación más eficaz de los recursos”-, ahora contamos con un Paradigma denominado la Cuarta Revolución Industrial.

En esta, conceptos clave como los Centros de Datos Definidos por Software, la Intenet de las Cosas (y su nueva hija la Localización de las Cosas), el Cómputo Cognitivo, la Inteligencia Artificial, la Domótica, la Robótica trabajan en conjunto y dentro del marco de la Tercera Plataforma, para precisamente y teniendo como centro de toda la actividad comercial y febril, dar más Valor al Cliente Final.

Como evolución natural y como una hija que tuvieron la Tercera Plataforma y la Cuarta Revolución Industrial, nace la Transformación Digital. Ésta busca realzar la aplicación de capacidades digitales a
procesos, productos y activos para mejorar la eficiencia, mejorar el valor del cliente, gestionar los riesgos y descubrir nuevas oportunidades de generar ingresos.

Como lo mencionamos en la Entrada de este Blog intitulada "¿Cuál es el estatus actual de las Tecnologías de la Información?", existen pues ya identificadas diez y seis tecnologías que apuntalan la Transformación Digital. Doce de ellas ya están impactando nuestras vidas a corto y mediano plazo, mientras que las restantes doce lo harán en un largo plazo no mayor a doce años.

Las primeras doce tecnologías con impacto a corto plazo son:

  • Cómputo en La Nube (de la Tercera Plataforma)
  • Big Data (de la Tercera Plataforma)
  • Blockchain (de la Cuarta Revolución Industrial)
  • Realidad Virtual (de la Cuarta Revolución Industrial)
  • Realidad Aumentada (de la Cuarta Revolución Industrial)
  • Internet de las Cosas (de la Cuarta Revolución Industrial)
  • Inteligencia Artificial (de la Cuarta Revolución Industrial)
  • Vehículos Autónomos (de la Cuarta Revolución Industrial)
  • Robots (desde la Tercera Revolución Industrial)
  • Fábricas Oscuras  (de la Cuarta Revolución Industrial)
  • Impresión 3D (de la Cuarta Revolución Industrial)
  • Biología Sintética (de la Cuarta Revolución Industrial)

Las otras cuatro tecnologías con impacto a largo plazo son:

  • Auto Ensamble Molecular 
  • Cómputo Cuántico
  • Cómputo Orgánico
  • Interfaces Cibernéticas

¿Demasiado para muy corto tiempo? Sí. Así de rápido han sucedido las cosas en los últimos dos años. Y todo apunta a que todo acelera un "poco" más, pues la Convergencia Informática (prima hermana de la Tercera Plataforma) llegó para quedarse y no es otra cosa que ver a la abuelita La Informática, "metiendo la nariz" en múltiples y otrora independientes disciplinas científicas y tecnológicas, acelerando su crecimiento y alcances.

En conclusión, nos encontramos dentro del marco de la Tercera Plataforma, orientando nuestros esfuerzos a ofrecer más valor agregado a nuestros clientes gracias a la Cuarta Revolución Industrial, realizando una evolución radical en nuestro Recurso Rnformático, nuestras Tecnologías de la Información, el Recurso Humano y en general el nuestra forma de producir y hacer negocio, gracias a la Transformación Digital y la Convergencia Informática.

Desglosándolo y parafraseando a "Shrek" con su analogía de las capas de la cebolla, la capa más exterior es la Tercera Plataforma que sirve a su vez de cimiento a la Cuarta Revolución Industrial. Nuestra segunda capa de afuera hacia adentro.

Como siguiente capa (hacia adentro) tenemos a la Transformación Digital que se ha nutrido de las dos capas anteriores y que conjuntamente con la Convergencia Informática, permiten que en el centro de todo y de todos, esté el Valor Agregado hacia nuestros Clientes y/o Usuarios Finales.

¿Habrá más capas hacia adentro? No lo dudemos. Pero las siguientes capas tendrán como base, sustento y "nutrientes" a las capas ahora existentes. Siempre teniendo al centro el Valor Agregado hacia nuestros Clientes y/o Usuarios Finales.

¿Y en qué momento suena la maquinita registradora? ¿Cómo es que llega dinero a los bolsillos de todos en esta cebolla? En cada capa, siempre y cuando ese centro de ésta no se pudra. Mientras podamos dar más Valor Agregado a nuestros Clientes y/o Usuarios Finales, estos nos honrarán con su preferencia, confiarán más en nosotros, nos premiarán consumiendo más de nuestros productos y servicios.

¿Ya te diste cuenta dónde estamos?