Mostrando entradas con la etiqueta Virtualization. Mostrar todas las entradas
Mostrando entradas con la etiqueta Virtualization. Mostrar todas las entradas

viernes, 5 de abril de 2024

Hiperconvergencia: Preguntas y Respuestas

Todos quienes nos dedicamos directamente a lo que ahora le llamamos Tecnologías de la Información, usábamos palabras como "Cómputo", "Sistemas", "Informática". Si a eso le anexábamos a modo de prefijo un cargo o puesto, entonces leíamos y escuchábamos a alguien mencionar que era el "Jefe de Sistemas", el "Gerente de Informática", el "Encargado de Cómputo", etc. Todos esos términos y los prefijos correspondientes nos hacían abrir los ojos y creíamos que estábamos delante de un semidios o una deidad del olimpo. Era impresionante.

Una constante de todo aquello que trasciende es La Evolución. Y Cómputo, Sistemas, Informática, etc. no son la excepción. Es entonces y gracias a la Convergencia Informática que ahora existen las Tecnologías de la Información. Vale la pena entonces para comenzar y ubicarnos dentro de un contexto, revisar:

¿Cómo ha sido la evolución de lo que ahora conocemos como Tecnologías de la Información?

La evolución de las Tecnologías de la Información (TI) ha sido un camino bastante interesante que abarca desde los mainframes hasta la infraestructura hiperconvergente. Esto ha sido un proceso marcado por avances significativos en hardware, software y paradigmas de diseño. Aquí te presento una visión general de esta evolución:

Mainframes (1950-1970):

Los mainframes representaron la primera generación de computadoras de gran escala. Eran máquinas enormes y costosas diseñadas para procesar grandes volúmenes de datos y ejecutar aplicaciones empresariales críticas.

Los sistemas operativos como IBM OS/360 dominaron este período y fueron diseñados para soportar múltiples usuarios y aplicaciones simultáneamente.

Era de la Computadora Personal (PC) y Cliente-Servidor (1980-1990):

La introducción de las PC permitió una computación más accesible y distribuida. La arquitectura cliente-servidor surgió, donde los recursos de cómputo se dividían entre los clientes (PC) y los servidores dedicados.

Los sistemas operativos como Linux y Windows ganaron popularidad en este período, permitiendo una interfaz gráfica de usuario y una mayor flexibilidad en el software.

Virtualización y Consolidación (2000-2010):

La virtualización se convirtió en una tecnología clave, permitiendo la ejecución de múltiples Máquinas Virtuales independientes sobre un solo Servidor Físico, cada una con su sistema operativo y aplicaciones.

Surgieron soluciones de almacenamiento y redes definidas por software para aumentar la flexibilidad y la eficiencia de los recursos.

La consolidación de servidores y la optimización de recursos se convirtieron en objetivos clave para reducir costos y mejorar la utilización de recursos.

Nube y Computación Distribuida (2010 en adelante):

La computación en la nube transformó la forma en que se consumen los recursos informáticos, permitiendo el acceso bajo demanda a recursos escalables y compartidos a través de Internet.

Los servicios de infraestructura como servicio (IaaS), plataforma como servicio (PaaS) y software como servicio (SaaS) se convirtieron en modelos populares de implementación de aplicaciones.

La automatización y la orquestación de la infraestructura se volvieron esenciales para la gestión eficiente de los entornos en la nube.

Hiperconvergencia (2010 en adelante):

La hiperconvergencia integra cómputo, almacenamiento, redes y virtualización en una única plataforma definida por software.

Esta arquitectura simplifica la gestión y el despliegue de infraestructura, reduciendo la complejidad y los costos operativos.

La hiperconvergencia permite una mayor flexibilidad y escalabilidad al tiempo que mejora el rendimiento y la eficiencia de los recursos.

En resumen, la evolución de las TI desde los mainframes hasta la infraestructura hiperconvergente ha sido impulsada por la necesidad de mejorar la eficiencia, la flexibilidad y la escalabilidad de los recursos informáticos, adaptándose a los cambios en las demandas empresariales y tecnológicas. Cada etapa ha traído consigo avances significativos que han dado forma al panorama actual de la tecnología de la información.

¿Quién y cúando acuñó por primera vez la palabra "Hiperconvergencia"?

La palabra "hiperconvergencia" comenzó a ganar popularidad en la industria de la tecnología a principios del siglo XXI, especialmente con el surgimiento de soluciones de infraestructura convergente y virtualización avanzada. Sin embargo, no hay un único individuo o evento específico que pueda atribuirse como el origen exacto de la palabra "hiperconvergencia".

En general, el término "hiperconvergencia" evolucionó de la convergencia de múltiples tecnologías de infraestructura en una sola plataforma integrada, y comenzó a ser utilizado por empresas de tecnología y expertos en la industria para describir este enfoque. Se puede decir que surgió gradualmente a medida que los proveedores de soluciones y los profesionales de TI buscaban términos para describir la convergencia de recursos de cómputo, almacenamiento y redes en una sola infraestructura.

Si bien no hay una fecha o persona específica que haya acuñado por primera vez la palabra "hiperconvergencia", su popularidad y adopción se han acelerado en los últimos años a medida que las organizaciones buscan simplificar la gestión de la infraestructura de TI y mejorar la eficiencia operativa.

¿Qué es la Hiperconvergencia?

Es un enfoque en la infraestructura de Tecnología de la Información (TI) que integra todos los elementos necesarios para la computación en un único sistema modular. Estos elementos incluyen 

  • Almacenamiento 
  • Redes
  • Virtualización
  • Administración de datos y seguridad 

Algo muy importante y que hace la gran diferencia gracias a la Hiperconvergencia, es que en lugar de tener componentes separados y silos de recursos, combina todo en una sola plataforma, generalmente basada en software "ad hoc" y hardware estándar. Esto simplifica la gestión, reduce la complejidad y los costos operativos, permitiendo una mayor flexibilidad y escalabilidad en entornos de centro de datos. La hiperconvergencia requiere y está orientada a la virtualización, lo que le profiere la capacidad de escalar recursos de manera eficiente y rápida es fundamental.

¿Qué SÍ es y qué NO es la Hiperconvergencia?

Qué SÍ es la Hiperconvergencia:

  • Integración de Recursos: La hiperconvergencia es un enfoque de infraestructura de TI que integra computación, almacenamiento, redes y virtualización en una sola plataforma unificada.
  • Software Definido por Usuario: Utiliza software definido por usuario para gestionar y orquestar todos los recursos de infraestructura desde una interfaz centralizada.
  • Permite Escalabilidad Horizontal: La adición de nodos permite escalar horizontalmente, proporcionando una mayor capacidad de procesamiento, almacenamiento y red según sea necesario.
  • Simplicidad Operativa: Simplifica la gestión y administración de la infraestructura de TI al consolidar recursos en una sola plataforma y proporcionar una interfaz unificada para la gestión.
  • Eficiencia y Flexibilidad: Mejora la eficiencia operativa y la flexibilidad al permitir la asignación dinámica de recursos según las necesidades del negocio.

Qué NO es la Hiperconvergencia:

  • NO se apega a la Arquitectura Tradicional de Centro de Datos: No se trata de la arquitectura tradicional de centro de datos donde los recursos de cómputo, almacenamiento y red son gestionados por separado.
  • NO es una Solución de Almacenamiento Convergente: Aunque la hiperconvergencia incluye almacenamiento como uno de sus componentes, no se limita a ser simplemente una solución de almacenamiento convergente, ya que integra múltiples recursos en una plataforma unificada.
  • NO está Limitada a un Proveedor Específico: Aunque varios proveedores de tecnología ofrecen soluciones hiperconvergentes, no está restringida a un solo proveedor. Puede haber múltiples opciones disponibles en el mercado, cada una con sus propias características y beneficios.
  • NO es una Solución Única para Todos los Escenarios: Aunque la hiperconvergencia puede ser una opción viable para muchos casos de uso, puede no ser la solución óptima para todos los entornos de TI, especialmente aquellos que requieren configuraciones muy personalizadas o específicas.

¿Qué debe componer una solución Hiperconvergente?

Una solución hiperconvergente típicamente está compuesta por varios componentes que se integran en una plataforma unificada para proporcionar cómputo, almacenamiento, redes y virtualización. Aquí están los componentes clave que suelen componer una solución hiperconvergente:

Nodos Hiperconvergentes:

  • Son servidores estándar equipados con recursos de cómputo, almacenamiento y redes.
  • Estos nodos están preconfigurados y optimizados para trabajar juntos en un clúster hiperconvergente.

Hipervisor:

  • El software de virtualización que permite ejecutar múltiples máquinas virtuales en los nodos hiperconvergentes.
  • Los hipervisores comunes incluyen VMware vSphere, Nutanix Acropolis Hypervisor, Microsoft Hyper-V, KVM, etc.

Software de Gestión y Orquestación:

  • Proporciona una interfaz centralizada para la gestión y administración de la infraestructura hiperconvergente.
  • Permite la implementación, configuración, monitoreo y automatización de recursos.

Almacenamiento Distribuido:

  • Utiliza el almacenamiento local de cada nodo para crear un único pool de almacenamiento distribuido.
  • Las técnicas de replicación y redundancia garantizan la alta disponibilidad y la protección de los datos.

Redes Definidas por Software (SDN):

  • Abstrae la capa de red para simplificar la configuración y gestión de redes en la infraestructura hiperconvergente.
  • Proporciona funciones como enrutamiento, conmutación y segmentación de red de manera programática.

Recursos de Cómputo:

  • Procesadores (CPU), memoria (RAM) y otros recursos de cómputo necesarios para ejecutar máquinas virtuales y aplicaciones.

Interconexión de Red:

  • Conectividad de red entre los nodos hiperconvergentes para facilitar la comunicación y el acceso a los recursos.
  • Puede incluir switches Ethernet y tecnologías de interconexión de alta velocidad como 10GbE, 25GbE, o 100GbE.

Capacidad de Escalabilidad:

  • La capacidad de agregar nodos adicionales a medida que aumentan las demandas de recursos, permitiendo una escalabilidad horizontal.

¿Qué empresa inventó la Hiperconvergencia?

La hiperconvergencia no es una tecnología inventada por una sola empresa, sino más bien un enfoque arquitectónico que ha evolucionado a partir de diversas innovaciones en la industria de la tecnología de la información. Varios proveedores de tecnología han contribuido al desarrollo y la popularización de soluciones hiperconvergentes a lo largo del tiempo.

Algunas de las empresas más influyentes en el espacio de la hiperconvergencia incluyen:

  • Nutanix: Empresa pionera en el desarrollo de soluciones hiperconvergentes. Introdujeron una plataforma que combina cómputo, almacenamiento y virtualización en una sola solución escalable.
  • VMware: Ha sido un líder en virtualización y ha desarrollado soluciones como VMware vSAN y VMware vSphere, que forman la base de muchas plataformas hiperconvergentes.
  • Dell EMC: Ofrece una amplia gama de soluciones hiperconvergentes bajo la marca Dell EMC VxRail, que integran hardware de servidor Dell EMC con software de VMware vSAN.
  • Cisco: Ofrece soluciones hiperconvergentes a través de su plataforma HyperFlex, que combina hardware Cisco UCS con software de VMware o Hyper-V.

¿Qué libros hay disponibles para entender y aprender la Hyperconvergencia?

Hay varios libros disponibles que pueden ayudarte a comprender y aprender más sobre la hiperconvergencia y su implementación en entornos de tecnología de la información. Aquí hay algunos libros recomendados:

"Hyperconverged Infrastructure Data Centers: Demystifying the Black Box" de Sam Halabi y Faraz Shamim: Este libro ofrece una introducción detallada a la hiperconvergencia, cubriendo los conceptos básicos, la arquitectura, las ventajas y los desafíos de esta tecnología.

"Hyperconverged Infrastructure For Dummies" de Stefan Renner, René Koch y Lisa Person: Parte de la popular serie "For Dummies", este libro proporciona una visión general accesible de la hiperconvergencia, explicando cómo funciona y cómo puede beneficiar a las organizaciones.

"Hyperconverged Infrastructure Explained" de the Nutanix team: Nutanix es uno de los principales proveedores de soluciones hiperconvergentes, y este libro ofrece una visión detallada de su enfoque de la hiperconvergencia, sus productos y su impacto en la infraestructura de TI.

"VMware Hyper-Converged Infrastructure (HCI) Solutions" de Gurusimran Khalsa y Pete Flecha: Este libro se centra en las soluciones hiperconvergentes de VMware, como VMware vSAN y VMware Cloud Foundation, proporcionando una guía práctica para su implementación y gestión.

"Building a Future-Proof Cloud Infrastructure: A Guide to Hypeconverged Cloud Solutions" de Michael van Horenbeeck: Este libro explora cómo la hiperconvergencia puede ser utilizada como base para la construcción de infraestructuras de nube futuras, cubriendo aspectos como la seguridad, la escalabilidad y la eficiencia operativa.

¿Cuáles requerimientos de Tecnologías de la Información SÍ cuáles NO pueden satisfacerse con la Hiperconvergencia?

La hiperconvergencia puede ser una solución adecuada para una variedad de requerimientos de Tecnologías de la Información (TI), pero también hay casos en los que puede no ser la opción óptima. Aquí hay una descripción de los requerimientos que pueden y no pueden satisfacerse con la hiperconvergencia:

Qué requerimientos de TI SÍ pueden satisfacerse con la Hiperconvergencia:

Consolidación de Infraestructura: La hiperconvergencia puede satisfacer la necesidad de consolidar múltiples recursos de TI, incluyendo cómputo, almacenamiento y redes, en una sola plataforma unificada.

Escalabilidad y Flexibilidad: Permite escalar recursos fácilmente agregando nodos adicionales a medida que crecen las demandas de TI, proporcionando una mayor flexibilidad para adaptarse a las necesidades cambiantes del negocio.

Simplicidad Operativa: Simplifica la gestión y administración de la infraestructura de TI al proporcionar una interfaz unificada para gestionar todos los recursos desde un solo lugar.

Alta Disponibilidad y Tolerancia a Fallos: Ofrece capacidades integradas de alta disponibilidad y tolerancia a fallos, asegurando la continuidad del negocio y la protección de los datos críticos.

Implementación Rápida: Facilita la implementación rápida de nuevos recursos de TI mediante la automatización y la configuración predefinida, lo que acelera el tiempo de entrega de servicios.

Qué requerimientos de TI NO pueden satisfacerse con la Hiperconvergencia:

Requisitos de Rendimiento Demasiado Específicos: En algunos casos, los requerimientos de rendimiento extremadamente altos pueden no ser óptimamente atendidos por una infraestructura hiperconvergente, especialmente cuando se necesitan recursos altamente especializados o dedicados.

Personalización Extrema: Para casos en los que se requiere una alta personalización y configuración específica de los recursos de TI, la hiperconvergencia puede limitar las opciones en comparación con soluciones más tradicionales.

Compatibilidad con Todas las Tecnologías Existentes: Puede haber desafíos de compatibilidad con tecnologías existentes en el entorno de TI, especialmente si se utilizan sistemas heredados que no son fácilmente integrables en una infraestructura hiperconvergente.

Aplicaciones de Cómputo de Alto Desempeño: Aplicaciones que requieren Infraestructura de Cómputo de Alto Desempeño tienen requisitos que pueden no ser completamente satisfechos por una solución hiperconvergente.

Conclusión

La Hiperconvergencia es un enfoque de infraestructura de TI que integra múltiples recursos en una plataforma unificada, simplificando la gestión, mejorando la eficiencia y proporcionando una mayor flexibilidad. Sin embargo, no debe confundirse con arquitecturas tradicionales de centro de datos, soluciones de almacenamiento convergente o ser considerada como la única solución para todos los escenarios de TI.

La Hiperconvergencia es una opción viable para una amplia gama de requerimientos de TI, especialmente aquellos relacionados con la consolidación, escalabilidad, simplicidad operativa y alta disponibilidad. Sin embargo, puede no ser la solución óptima para casos que requieran personalización extrema, requisitos de rendimiento muy específicos o integración con tecnologías heredadas complejas.

Una solución hiperconvergente combina hardware estándar con software "ad hoc" o "ex profeso" para crear una infraestructura unificada y altamente integrada. Esta arquitectura simplifica la gestión, mejora la eficiencia y proporciona una mayor flexibilidad y escalabilidad en comparación con enfoques tradicionales de centro de datos.

¿Ahora sí está convencido de los inmensos beneficios que puede ofrecer la Hiperconvergencia para su Empresa u Organización?

viernes, 30 de octubre de 2020

SDS o HCI ¿Cuál es la tecnología adecuada para las cargas de trabajo adecuadas?

Los datos son tan esenciales para las empresas como el agua para la vida. Pero a medida que las aplicaciones modernas generan y consumen cada vez más datos, es posible que sus enfoques tradicionales para capturarlos, almacenarlos y hacerlos circular necesiten un replanteamiento radical.

Durante la última década, el Almacenamiento Definido por Software (Software Defined Storage - SDS) y la Infraestructura Hiperconvergente (Hyper Converged Infrastructure - HCI) han encontrado un lugar en el almacenamiento empresarial junto con los sistemas de Arreglos Redundante de Discos Independientes (Redundant Array of Independent Disks - RAID) tradicionales. 

Antes de considerar cómo podrían encajar en su flujo de trabajo de datos, recapitulemos por qué los Arreglos Redundante de Discos Independientes (Redundant Array of Independent Disks - RAID) sigue siendo el núcleo de la infraestructura de datos de muchas empresas. La arquitectura ofrece un rendimiento absoluto para aplicaciones heredadas y específicas, al mismo tiempo que puede admitir una amplia gama de cargas de trabajo. Con un "pedigrí" que se remonta a más de 30 años, se comprenden bien la confiabilidad y la resistencia de los Arreglos Redundante de Discos Independientes (Redundant Array of Independent Disks - RAID), así como sus limitaciones.

Pero la Transformación Digital también arrojará sorpresas y obligará a las empresas a analizar sus datos de diferentes maneras. Las nuevas aplicaciones, que a menudo utilizan Contenedores o Microservicios, pueden significar necesidades de datos muy diferentes. 

El Aprendizaje Automático y la Inteligencia Artificial (IA), o las simulaciones a gran escala, pueden exigir, y generar, grandes cantidades de datos muy rápidamente. La analítica en tiempo real puede presentar desafíos para las arquitecturas de almacenamiento cuando se trata de alimentar el hambre de datos de la informática. Y si bien alguna vez pudo haber sido el caso de que a medida que los datos envejecían su valor disminuía, hoy el refinamiento de los datos históricos brinda a las empresas la oportunidad de desarrollar nuevos conocimientos sobre sus clientes, así como también la oportunidad de perfeccionar los modelos de Inteligencia Artificial o también el Aprendizaje Automático.

Como ya lo hemos constatado quienes tenemos cierta experiencia en las Tecnologías de la Información, uno de los beneficios de los Arreglos Redundante de Discos Independientes (Redundant Array of Independent Disks - RAID) es su previsibilidad. Los datos en una economía digital, en particular el crecimiento de los datos, pueden ser impredecibles sobre todo cuando se trata de datos no estructurados. Esta imprevisibilidad se ve impulsada aún más por La Nube o más bien la facilidad con la que las empresas operan tanto dentro como fuera de la nube. De nuevo esto plantea el desafío de administrar entornos distribuidos y heterogéneos.

Con estos desafíos en mente, podemos considerar las características del Almacenamiento Definido por Software (Software Defined Storage - SDS) y la Infraestructura Hiperconvergente (Hyper Converged Infrastructure - HCI), así como también cómo pueden ayudar a abordar algunos o todos estos desafíos.

El Almacenamiento Definido por Software reúne varios servidores de almacenamiento estándar de la industria, pero no necesariamente idénticos en un solo grupo, bajo el control de una capa de administración y abstracción de los datos. El almacenamiento físico y los servicios de almacenamiento están lógicamente separados, mientras que la capacidad de almacenamiento se administra y se sirve como un solo grupo. Si bien la primera capa de administración de Almacenamiento Definido por Software que ganó un alto perfil fue Ceph de código abierto (que existe desde 2006), desde entonces se le han unido plataformas alternativas, que a menudo se ofrecen como parte de un dispositivo dedicado.

Por su naturaleza, el Almacenamiento Definido por Software puede abarcar cualquier tipo de medio de almacenamiento (flash o disco) distribuido en una variedad de dispositivos. Estos se pueden abordar como almacenamiento de bloques, archivos u objetos, aunque las plataformas Almacenamiento Definido por Software generalmente se centrarán en uno u otro. Se puede agregar almacenamiento adicional sobre la marcha. Los beneficios de la flexibilidad y la escalabilidad son bastante claros. 

El enfoque de los Almacenamientos Definidos por Software son particularmente adecuados para el almacenamiento de segundo nivel para datos no estructurados, y el enfoque de la capa de administración en la recuperación automática y la automatización puede ser útil cuando se admiten aplicaciones nativas de La Nube, que dependen de Microservicios y Contenedores. Del mismo modo, la naturaleza intrínsecamente distribuida del Almacenamiento Definido por Software podría ser una buena opción para configuraciones donde los datos están dispersos en ubicaciones, particularmente en el Cómputo de Frontera o donde la Internet de las Cosas o dispositivos móviles pueden generar grandes cantidades de datos.

En términos más generales, los Almacenamientos Definidos por Software se prestan a entornos menos homogéneos. La abstracción significa que se pueden usar potencialmente múltiples sistemas de almacenamiento diferentes. Si hay una necesidad repentina de más almacenamiento, se pueden agregar más dispositivos, o se puede aprovechar La Nube. La capa de administración se encarga de los detalles, dentro de lo razonable. Dependiendo de la aplicación, nuevamente dentro de lo razonable, el enfoque de los Almacenamientos Definidos por Software puede estirar el ciclo de vida de la infraestructura de almacenamiento existente.

Pero esta fluidez también insinúa algunas de las posibles preocupaciones sobre los Almacenamientos Definidos por Software. Las manos experimentadas detectarán de inmediato que este enfoque podría significar poner mucho esfuerzo en la integración y las pruebas antes de que el sistema esté en funcionamiento. Luego, habrá un trabajo continuo para administrar el sistema y garantizar que se cuiden las actualizaciones y los parches. 

La sincronización de datos entre nodos puede significar un golpe de Latencia. Aquí es donde los beneficios del Almacenamiento Definido por Software dedicado se vuelven más evidentes, ya que los componentes de hardware y la capa de software se prueban y certifican previamente, asegurando con esto el servicio y el mantenimiento. Esto puede significar una penalización teórica en términos de flexibilidad en comparación con los enfoques de bricolaje, pero la ventaja es una solución empresarial más predecible.

La Infraestructura Hiperconvergente (Hyper Converged Infrastructure - HCI) lleva el enfoque de dispositivos un paso más allá, ya que se basa en dispositivos estandarizados que integran Cómputo (microprocesador y memoria), Redes y Almacenamiento. El almacenamiento en bruto está virtualizado y distribuido, siendo Nutanix y VMware los líderes indiscutibles.

Esto implica una gama de hardware mucho menos diversa, pero debido a que el diseñador del dispositivo ha integrado cuidadosamente el Almacenamiento, la Red y el Cómputo, los tres se escalan juntos y en sincronía, a medida que se agregan nuevos dispositivos. El hecho de que se trate de un enfoque basado en servidor desde una perspectiva pura de hardware, también podría ser un beneficio ya que un especialista en servidores puede duplicar la gestión del almacenamiento de manera nativa.

El beneficio de este alto grado de integración dependerá de la carga de trabajo. La Infraestructura Hiperconvergente (Hyper Converged Infrastructure - HCI) se centró inicialmente en admitir la infraestructura de escritorio virtual y alojar máquinas virtuales. Sin embargo, ahora se usa ampliamente para admitir una amplia gama de aplicaciones empresariales.

Al mismo tiempo, la naturaleza básica de la Infraestructura Hiperconvergente (Hyper Converged Infrastructure - HCI) se traduce en la necesidad indiscutible de considerar cuidadosamente las configuraciones con las que se iniciará con ésta. Debido a que el enfoque asume que el dispositivo es la unidad básica de escalado, las cargas de trabajo que pueden resultar en saltos repentinos en el volumen de datos, pero no en Cómputo u otros componentes, pudiendo ser menos adecuadas para configuraciones orientadas a la Infraestructura Hiperconvergente (Hyper Converged Infrastructure - HCI). Asimismo, deberá tenerse en cuenta la latencia potencial de la red entre los componentes distribuidos, especialmente para instalaciones más grandes. Cada enfoque tiene su atractivo, incluso para el fan los Arreglos Redundante de Discos Independientes (Redundant Array of Independent Disks - RAID) más acérrimo, siendo capaz de admitir aplicaciones empresariales en ambientes productivos.

El Almacenamiento Definido por Software promete a las organizaciones una forma de construir un grupo de almacenamiento formidable y flexible que pueda manejar diversas cargas de trabajo con patrones de datos impredecibles. La Infraestructura Hiperconvergente (Hyper Converged Infrastructure - HCI) ofrece una forma de escalar la infraestructura de manera predecible, incluido el Almacenamiento, utilizando bloques de construcción sencillos.

Pero, como hemos visto, hay complicaciones con cada uno, lo que significa que un socio potencial debe ofrecerle una perspectiva que va más allá de simplemente dirigirlo a su paradigma favorito. La capa de software que caracteriza al Almacenamiento Definido por Software puede prometer autocuración y automatización, pero debe asegurarse de que se hayan resuelto los aspectos básicos de las pruebas y la evaluación del hardware subyacente.

Asimismo, la Infraestructura Hiperconvergente (Hyper Converged Infrastructure - HCI) puede ser perfecta para cargas de trabajo específicas, pero será indispensable un socio que reconozca la diversidad de sus necesidades. Deben comprender que, si bien la unidad de la Infraestructura Hiperconvergente (Hyper Converged Infrastructure - HCI) ofrece un alto nivel garantizado de integración, también debe integrarse con el resto de su organización. No desea que una fila de dispositivos de Infraestructura Hiperconvergente (Hyper Converged Infrastructure - HCI) en un centro de datos remoto se desacelere y se convierta en un silo propio, especialmente a medida que cambian las necesidades de aplicaciones y datos de la organización en general.

A pesar de estas explicaciones y advertencias generales, eso no quiere decir que un enfoque basado en el Almacenamiento Definido por Software o la Infraestructura Hiperconvergente (Hyper Converged Infrastructure - HCI) no sea adecuado para una situación que se ha llenado con los Arreglos Redundante de Discos Independientes (Redundant Array of Independent Disks - RAID) tradicionales. Es muy posible que las Redes Definidas por Software (Software Defined Networks - SDN), la Infraestructura Hiperconvergente (Hyper Converged Infrastructure - HCI) y los Arreglos Redundante de Discos Independientes (Redundant Array of Independent Disks - RAID) puedan tener un papel que desempeñar en su organización.

¿En conclusión? El punto de partida es comprender el flujo de trabajo de datos (aún sin procesar) de su organización, así cómo las nuevas arquitecturas para poder garantizar que el Almacenamiento esté siempre disponible, donde y cuando lo necesite.

viernes, 23 de octubre de 2020

Qué es el Edge Computing, cuáles son sus ventajas y cuáles sus desafíos.

Edge Computing (cómputo en frontera) es un paradigma de computación distribuida que acerca la computación y el almacenamiento de datos, a la ubicación en donde se necesita para mejorar los tiempos de respuesta y ahorrar ancho de banda.

Los orígenes del Edge Computing se encuentran en las redes de entrega de contenido que se crearon a fines de la década de 1990 para servir contenido web y de video, desde servidores que se implementaron cerca de los usuarios. 

A principios de la primera década del Siglo XXI, estas redes evolucionaron para albergar aplicaciones y componentes en los servidores "Edge", dando como resultado los primeros servicios Edge Computing comercial que hospedaban aplicaciones como: localizadores de distribuidores, carritos de compras, agregadores de datos en tiempo real, motores de inserción de anuncios, etc.

La desde ese momento conocida como Informática Perimetral moderna, permitió ampliar significativamente este enfoque a través de la tecnología de virtualización, que facilitaron (y aún lo hacen) la implementación y ejecución de una gama más amplia de aplicaciones.

Aterrizando el tema y abordándolo con mayor detalle, podemos afirmar entonces que el Edge Computing es un tipo de informática que ocurre en la ubicación física del usuario, de la fuente de datos, o cerca de ellas. Al establecer servicios de computación cerca de esas ubicaciones, los usuarios obtienen servicios más rápidos y confiables, y las empresas aprovechan la flexibilidad del cloud computing híbrido. Con el edge computing, una empresa puede usar y distribuir un conjunto común de recursos en una gran cantidad de ubicaciones.

¿Por qué es importante el edge computing?

Se puede observar un ejemplo real de Edge Computing en el uso de la realidad virtual y aumentada. Por lo general, la realidad virtual y aumentada se ve afectada por un ancho de banda insuficiente y una latencia alta. Quienes utilizan esas tecnologías tienen problemas frecuentes con las velocidades bajas o la potencia informática, lo cual interrumpe la capacidad de lograr una experiencia envolvente. 

Para evitar estos problemas, el Edge Computing permite que se descarguen a la nube las partes del proceso que consumen muchos recursos informáticos. Otro ejemplo es la implementación de esos mismos procesos en el Internet de las cosas (IoT), como los automóviles inteligentes. Sólo imaginemos que hubiese latencia mientras su vehículo procesa la información sobre las direcciones. Al igual que el resto de los dispositivos del Internet de las cosas (IoT), su automóvil debe procesar los datos y tomar decisiones en tiempo real o lo más rápido posible.

Los beneficios del edge computing incluyen la capacidad para agregar y analizar datos masivos in situ, lo cual permite tomar decisiones casi en tiempo real. El edge computing reduce aún más el riesgo de exponer los datos confidenciales, ya que mantiene toda esa potencia informática en un lugar cercano. Esto permite que las empresas controlen mejor la proliferación de la información, como los secretos comerciales del sector, o que cumplan con las políticas normativas, como el Reglamento General de Protección de Datos (General Data Protection Regulation - GDPR).

Por último, los clientes empresariales disfrutan de la flexibilidad y los costos relacionados con el Edge Computing. Al mantener la potencia informática más cerca de su fuente, los sitios regionales pueden seguir funcionando independientemente del sitio central, incluso si este último deja de funcionar. Además, esto permite reducir considerablemente el costo que debe pagar por el ancho de banda para trasladar los datos entre los sitios regionales y centrales.

¿Cuáles son las ventajas del edge computing?

El Cómputo en La Nube se ha enfocado en centralizar los servicios en un grupo de centros de datos grandes. Este proceso permitió que se pudieran ampliar y compartir los recursos con mayor eficiencia, sin perder el control ni la seguridad empresarial.

El Edge Computing se encarga de aquellos casos prácticos que el enfoque de centralización del Cómputo en La Nube no puede abordar de forma adecuada, generalmente debido a los requisitos de red u otras restricciones. Se centra en varios sitios informáticos pequeños que disminuyen el costo de red, evitan las restricciones de ancho de banda, reducen las demoras en la transmisión, limitan las fallas del servicio y controlan mejor el movimiento de los datos confidenciales. Los tiempos de carga se reducen en cientos de milisegundos, y los servicios en línea implementados más cerca de los usuarios habilitan las capacidades de almacenamiento en caché dinámico y estático.

Para los usuarios finales, esto significa una experiencia de uso más rápida y uniforme. Para las empresas y los proveedores de servicios, se traduce en aplicaciones de baja latencia y alta disponibilidad con supervisión en tiempo real.

¿Cuáles son los desafíos del edge computing?

El problema principal del edge computing no solo es la escalabilidad, sino también la distribución:

  • El escalamiento horizontal hacia varios sitios pequeños puede resultar más complicado que agregar la capacidad equivalente a un centro de datos principal. Las empresas más pequeñas pueden tener dificultades a la hora de gestionar el aumento de los costos generales de las ubicaciones físicas.

  • Por lo general, los sitios de Edge Computing se encuentran en lugares remotos y no cuentan con la experiencia técnica suficiente. Si se produce alguna falla in situ, debemos tener una infraestructura disponible para que personal sin experiencia técnica o que un pequeño grupo de especialistas ubicados en otro lugar, puedan reparar y/o gestionar de manera centralizada.

  • Es necesario que las operaciones de gestión del sitio se puedan reproducir en todos los sitios de Edge Computing para simplificar la gestión, facilitar la resolución de problemas y evitar que la configuración de software presente pequeñas diferencias entre los sitios, lo que se conoce comúnmente como "desajuste en la configuración".

  • Si bien el Edge Computing ofrece un mayor control sobre los flujos de información al restringir los datos geográficamente, la seguridad física del sitio suele ser mucho menor. Esto puede dar como resultado un mayor riesgo de situaciones maliciosas o accidentales, por ejemplo la desconexión de un cable por error.

Con todo esto planteado, es entonces que ahora se vuelve cada vez más necesario el contar con una Solución para Edge Computing que sea confiable, segura, escalable y que de inicio se ajuste a las necesidades del negocio.

¿Ya está Usted decidido de implementar Edge Computing? Lo primero entonces es asumir el compromiso de promover estrategias de nube híbrida abierta. ¿Qué significa exactamente? Esta estrategia incorpora la interoperabilidad, la portabilidad de las cargas de trabajo y la flexibilidad del software open source a los entornos empresariales. 

Se hace imperativo que todos los entornos y las aplicaciones que rodean al sistema operativo se abstraen para brindar una interacción constante con cualquier aplicación en prácticamente todos los entornos, sin tener que renovarla, volver a capacitar al personal, dividir la gestión ni sacrificar la seguridad. Además, vale la pena tener en cuenta el asegurarse que todo funcione con la tecnología Open Source, para asegurar que podrá llevar sus datos con usted, sin importar dónde se encuentre mañana.

Edge Computing es una parte importante de la visión de la nube híbrida, que permite lograr una experiencia uniforme con las operaciones y las aplicaciones. Queda pues entendido que ya se tienen varias cargas de trabajo diferentes, con distintas clases de entornos (virtualizados, sin sistema operativo, de nube pública o privada). El objetivo con el Edge Computing debe ser principalmente ayudar a llevar ese trabajo a distintas ubicaciones físicas (ya sea su centro de datos principal, docenas de sitios pequeños de edge computing, borde de dispositivo o todos los anteriores), para que pueda aprovechar al máximo la potencia informática.

El objetivo La Solución de Edge Computing debe ser primordialmente simplificar las operaciones con la implementación, la gestión y la coordinación automatizadas. Establecer una infraestructura común que abarque todas sus necesidades informáticas, de almacenamiento y de red. Con frecuencia los sitios de Edge Computing no tienen personal de TI, o lo tienen muy limitado. Por eso es un "deber ser" que una buena solución será aquella que se gestione de manera centralizada para reducir la complejidad operativa.

El consejo que le damos para diseñar un entorno nuevo de edge computing es muy sencillo: centralice todo lo que se pueda y distribuya lo que haga falta. Para ello, debe tener en cuenta su infraestructura actual para asignar los recursos informáticos disponibles al problema que desea resolver.

¿Qué se necesita para el edge computing?

En términos generales, con las soluciones integrales de edge computing se deben poder realizar las siguientes tareas:

  • Automatizar y gestionar la infraestructura desde su centro de datos principal hasta sus sitios remotos

  • Implementar, actualizar y mantener el firmware y el software en toda la infraestructura

  • Admitir cargas de trabajo híbridas, que incluyan las máquinas virtuales, los contenedores, las aplicaciones y los microservicios, entre otros

  • Permanecer en funcionamiento, aunque con capacidades reducidas, incluso cuando la conexión a Internet no sea confiable

  • Incluir una plataforma de software sólida que se pueda expandir de manera horizontal y vertical

  • Ejecutar un modelo de implementación uniforme tanto en las instalaciones pequeñas como en las grandes

¿Cuál es una posible Arquitectura recomendada para Edge Computing?

Sin entrar en marcas y nombres de procucto, quí compartimos una Arquitectura Ideal (o que al menos la consideramos ideal) que aborda los desafíos del edge computing en conjunto, y que pueden ayudarlo a diseñar una solución integral adecuada para usted.

Una base sólida que realmente funcione

Todo comienza con un seguro, escalable, confiable Sistema Operativo (de preferencia Linux). Dicho Sistema Operativo deberá ofrecer un gran ecosistema de herramientas, aplicaciones, marcos de trabajo y bibliotecas para diseñar y ejecutar aplicaciones y Contenedores. Sí. Contenedores.

Cargas de trabajo informáticas de alto rendimiento y de máquinas virtuales

Una plataforma de cloud computing que virtualice los recursos del hardware estándar, organice esos recursos en las nubes (públicas y privadas) y que los gestione para que los usuarios puedan acceder a lo que necesitan, en el momento en que lo necesitan. Los nodos informáticos distribuidos deberán admitir las cargas de trabajo informáticas de alto rendimiento y las de máquinas virtuales más exigentes, así como la virtualización de las funciones de red. Debe de ser una solución de Infraestructura como servicio confiable y escalable, que incluya las API estándares con una arquitectura multiempresa sólida.

Cargas de trabajo en contenedores

La plataforma descrita en el párrafo anterior, deberá poder sin problemas implementar y gestionar las aplicaciones basadas en contenedores en cualquier sitio compatible con el Sistema Operativo, incluso en los centros de datos públicos y privados o las ubicaciones del Edge Computing. Aquí entra la necesidad de incluir un entorno de "Kubernetes" de nivel empresarial de alto rendimiento.

Reducción del entorno

Para las situaciones en las que se requieren Clústeres independientes, con alta disponibilidad y con un entorno reducido, un Hipervisor confiable, seguro y escalable combina elementos informáticos integrando el cómputo (procesador y memoria), el almacenamiento, etc. en un solo entorno operativo.

Almacenamiento

El almacenamiento cumple una función importante en el edge computing. Almacenamiento Definido por Software (Software Defined Storage - SDS) nos permite obtener los beneficios de una solución de almacenamiento abierto y con gran capacidad de expansión para las cargas de trabajo, como la infraestructura de nube, el análisis de datos, los repositorios multimedia y los sistemas de copia de seguridad y restauración.

Mensajería y comunicación

En entornos altamente distribuidos, la comunicación entre los servicios que se ejecutan en la nube y los sitios del borde requiere mucha atención. Para responder a las demandas empresariales de forma rápida y eficiente, se necesita poder integrar las aplicaciones y los datos que se encuentran distribuidos. Se vuelve entonces indispensable contar con algún mecanismo de Mensajería de Datos que admita todos los patrones de comunicación necesarios para los casos prácticos del Edge Computing y que pueda resolver hasta los desafíos más exigentes.

Conclusión

Edge Computing no es algo nuevo que parece un experimento, o que se trate de esos ilusorios juegos de palabras inventados por algún fabricante o proveedor de productos y/o soluciones informáticas.

Se trata de un paradigma que, si decidimos implementar en nuestra empresa, negocio, organización, etc. debemos de tomarlo en serio y, tomando en cuenta la Arquitectura Sugerida líneas arriba, estar de alguna manera prevenidos para tomar en cuenta cuáles serán los retos inherentes y cómo podremos afrontarlos.

jueves, 24 de septiembre de 2020

Novedades en vSphere 7 Update 1: vSphere Clustering Service (vCLS)

Virtualización. El cimiento de los Centros de Datos Definidos por Software (SDDC). La piedra angular de la Hiperconvergencia.

Iniciando ya formalmente esta que es la tercera década del Siglo XXI, ninguna de las áreas de Tecnologías de la Información en empresa, organización y/o institución, tiene siquiera un atisbo o una sombra de duda de la efectividad de la Virtualización.

Sí. Existen ya varias opciones en lo que a plataformas para la Virtualización de nuestros Centros de Datos se refiere, pero es VMware vSphere quien por merito propio se ha convertido "de facto" en La Solución para Virtualización de Centros de Datos.

A principios del mes de Agosto de 2020, se liberó la Versión 7 de vSphere, que ya tenía tremendas sorpresas principalmente en lo que respecta a Microservicios y Contenedores. Pero hace apenas un par de días se liberó la primer actualización de esta nueva versión.

VSphere Clustering Service (vCLS) es una nueva capacidad que se presenta en esta nueva versión vSphere 7 Update 1. La primera versión que proporciona la base para trabajar en la creación de un plano de control distribuido y desacoplado, para los servicios de agrupación en clústeres en vSphere.

El desafío es que los servicios de clúster, como vSphere Distributed Resource Scheduler (DRS), dependen de la disponibilidad de vCenter Server para su configuración y operación. Y si bien existen formas de aumentar la disponibilidad para vCenter Server, piense en vSphere High Availability (HA) y vCenter Server High Availability (VCHA), su dependencia no es ideal. Además, cuando pensamos en la escalabilidad de vCenter Server en grandes nubes públicas y locales, necesitamos una mejor solución para admitir los servicios de agrupación en clústeres. Por eso se presenta vCLS. En la primera versión, un subconjunto de capacidades de DRS ya está utilizando la nueva función vCLS.

Arquitectura básica

La arquitectura básica para el Plano de Control del VSphere Clustering Service consta de un máximo de 3 Máquinas Virtuales (VM), también denominadas Máquinas Virtuales e sistema o agente, que se colocan en un Hosts separados en un clúster. Se trata de máquinas virtuales ligeras con agentes que en conjunto conforman un quórum de Clúster. En Clústeres más pequeños con menos de 3 Hosts, el número de Máquinas Virtuales agente es igual a la cantidad de hosts ESXi. 

Las Máquinas Virtuales agente son administradas por vSphere Cluster Services. No se espera que sean los usuarios quienes mantengan el ciclo de vida o el estado de las Máquinas Virtuales agente y no deben ser vistas o tratadas como las típicas Máquinas Virtuales creadas y administradas por los Usuarios, en donde se ejecutan las aplicaciones de éstos últimos.

Estado de Salud de los Clústers de Servicio

Las Máquinas Virtuales agente que conforman el quórum del clúster, son autocorregibles. Esto significa que cuando las Máquinas Virtuales agente no están disponibles, VSphere Clustering Service intentará crear una instancia o encender las máquinas virtuales automáticamente.


Entrando más a detalle, hay 3 posibles estados de salud para los Clúster de Servicio:

Healthy (Saludable): En la Interface Gráfica de Usuario (vSphere Client), el estado del vSphere Cluster Services aparece en color verde cuando al menos 1 Máquina Virtual agente se está ejecutando. Para mantener la disponibilidad de la Máquina Virtual agente, debe de haber al menos un quórum de 3 (tres) Máquinas Virtuales agente implementadas y en ejecución.

Degraded (Degradado): este es un estado transitorio cuando al menos una de las Máquinas Virutales  agente no está disponible, pero la funcionalidad Distributed Resource Scheduler (DRS) no ha omitido su lógica debido a la falta de disponibilidad de las Máquinas VIrtuales agente. El Clúster podría estar en este estado cuando las Máquinas Virtuales del VSphere Clustering Service se estén volviendo a implementar o se enciendan después de algún impacto las Máquinas Virtuales que estén en ejecución.

Unhealthy (En mal estado): se produce cuando se omite la siguiente ejecución de la lógica del Distributed Resource Scheduler (DRS)  como un "Inicial Placement (colocación de carga de trabajo) o un Load Balancing (equilibrio o balanceo de carga) debido a que en el plano de control del VSphere Clustering Service no está disponible (que no hay al menos 1 Máquina Virtual agente).

Recursos Informáticos para la Máquina Virtual Agente

Las Máquinas Virtuales agente del VSphere Clustering Service son livianas, lo que significa que el consumo de recursos se mantiene al mínimo. El VSphere Clustering Service crea automáticamente un máximo de 3 Máquinas Virtuales agente por Clúster en una implementación existente, cuando vCenter Server se actualiza a la Versión 7 Update 1

Si se trata de un escenario en el que se está realizando un aprovisionamiento totalmente nuevo, se crean cuando los Hosts ESXi se agregan a un nuevo clúster. Si no hay almacenamiento compartido disponible, las Máquinas Virtuales agente se colocarán en el almacenamiento local. Si el aprovisionamiento y conformación un clúster se realiza antes de configurar el almacenamiento compartido en los hosts ESXi, como sería el caso cuando si se us vSAN, se recomienda encarecidamente mover las Máquinas Virtuales agente del VSphere Clustering Service, al almacenamiento compartido.

Las Máquinas Virtuales agente ejecutan un sistema operativo VMware Photon personalizado. La especificación de recursos por máquina virtual de agente se muestra en la siguiente tabla:

El disco virtual de 2 GB se crea en modalidad "Thin Provisioned". Además, no hay redes involucradas, por lo que no se requiere ningún adaptador de red virtual configurado. Las Máquinas Virtuales agente no se muestran en la Vista de Inventario "Hosts y Clústeres" en vSphere Client. La Vista "Virtual Machines and Templates" contiendrá una nueva carpeta con el nombre "vCLS", en las que estarán todas las Máquinas Virtuales agente del VSphere Clustering Service. En escenarios en las que se tengan varios Clústeres, se mostrarán todas las Máquinas Virtuales agente del VSphere Clustering Service, numeradas consecutivamente, dentro de un paréntesis:

vSphere Client contiene mensajes y notas para mostrar información sobre las Máquinas Virtuales agente del VSphere Clustering Service, indicando que el estado de energía y los recursos de estas Máquinas Virtuales son administrados por el VSphere Clustering Service.

Operaciones

Como se indicó anteriormente, VSphere Clustering Service mantiene las Máquinas Virtuales agente. No es necesario que los administradores de la Infraestructura Virtual apaguen las Máquinas Virtuales. De hecho, vSphere Client muestra una advertencia cuando se desea apagar una de estas Máquinas Virtuales:

Cuando un Host se coloca en Modo de Mantenimiento, las Máquinas Virtuales agente del VSphere Clustering Service se migrarán a otros hosts dentro del Clúster, como cualquier Máquina Virtual bajo esta circunstancia. Los Usuarios deben abstenerse de eliminar o cambiar el nombre de las Máquinas Virtuales agente o la carpeta, para mantener los servicios del Clúster en buen estado.

El ciclo de vida de las Máquinas Virtuales agente del VSphere Clustering Service lo mantiene vSphere ESX Agent Manager (EAM). El Administrador de agentes creará las Máquinas Virtuales automáticamente o las volverá a crear/encender cuando los Usuarios intentan apagarlas o eliminarlas. En el siguiente ejemplo, verá una operación de apagado y eliminación. Ambos de los cuales el ESX Agent Manager (EAM) recupera la Máquina Virtual agente, automáticamente.


Automatización y VSphere Clustering Service

Para los usuarios administradores que usan scripts para automatizar tareas, es importante crear conciencia para ignorar las Máquinas Virtuales agente, por ejemplo, scripts de limpieza para eliminar Máquinas Virtuales obsoletas. La identificación de las Máquinas Virtuales agente VSphere Clustering Service se realiza rápidamente a través de vSphere Client, donde las Máquinas Virtuales agente se enumeran en la carpeta "vCLS". Además, al examinar la pestaña "VM" en "Administration > vCenter Server Extensions > vSphere ESX Agent Manager", se enumeran las Máquinas Virtuales agente de todos los Clústeres administrados por esa instancia de vCenter Server.

Cada Máquina Virtual agente tiene propiedades adicionales, por lo que se pueden ignorar con tareas automatizadas específicas. Estas propiedades también se pueden encontrar utilizando el Managed Object Browser (MOB). Las propiedades específicas incluyen:

  • ManagedByInfo
    • extensionKey == “com.vmware.vim.eam”
    • type == “cluster-agent”

  • ExtraConfig keys
    • “eam.agent.ovfPackageUrl”
    • “eam.agent.agencyMoId”
    • “eam.agent.agentMoId”
Las Máquinas Virtuales agente VSphere Clustering Service tienen una clave de propiedad de datos adicional "HDCS.agent" establecida con valor Booleano "true". Esta propiedad se envía automáticamente al host ESXi junto con las otras propiedades de VM ExtraConfig establecidas explícitamente por ESX Agent Manager (EAM).

jueves, 30 de julio de 2020

Contenedores e Hiperconvergencia

En las entradas intituladas "Antes de entender Contenedores, entendamos Microservicios", "Guía esencial de contenedores" y "Pronóstico de Crecimiento en Ingresos para Software y Servicios de Gestión de Contenedores" ya abordamos con cierto detalle todo lo que es y las expectativas económicas de este hijo dilecto de la Transformación Digital. Ahora abordamos un tema que, a petición de algunos de nuestros seguidores en redes sociales, así como también lectores de este Blog Tecnológico, nos han solicitado.

También en este Blog Tecnológico hemos hablado acerca de la Virtualización, la Hiperconvergencia, cómo ambas son un cimiento para la implementación de los Centros de Datos Definidos por Software y por ende, la Nube Privada en lo que respecta a Infraestructura como un Servicio. Ahora compartimos cómo Nutanix ha resuelto entrar por la puerta grande en los Microservicios y los Contenedores.

Descripción general de Nutanix Enterprise Cloud

Nutanix ofrece una solución de infraestructura hiperconvergente a escala web especialmente diseñada para entornos de virtualización y nube (privada y pública). Esta solución brinda a las empresas, organizaciones e instituciones la escalabilidad, la capacidad de recuperación y los beneficios económicos de la arquitectura que se requiere hoy, a través de Nutanix Enterprise Cloud Platform, constituida por tres familias de productos: Nutanix Acropolis, Nutanix Prism y Nutanix Calm.



Los atributos de este sistema operativo Enterprise Cloud incluyen:

• Optimización de almacenamiento y recursos informáticos (procesador, memoria y red).
• Aprendizaje automático para planificar y adaptarse automáticamente a las condiciones cambiantes.
• Autorreparación para tolerar y adaptarse a fallas de componentes.
• Automatización basada en APIs y análisis exhaustivos.
• Actualización simplificada "a un clic".
• Servicios de archivos nativos para datos de usuarios y aplicaciones.
• Soluciones nativas de respaldo y recuperación ante desastres.
• Virtualización potente y rica en funciones.
• Redes flexibles definidas por software, para garantizar visualización, automatización y seguridad.
• Automatización en la nube y gestión del ciclo de vida.

Para comenzar es menester mencionar que Nutanix Acropolis proporciona servicios de datos, que utiliza para ello a tres pilares fundamentales que son: Distributed Storage Fabric (DSF), Application Mobility Fabric (AMF) y Acrópolis Hipervisor (AHV).

Prism (la Interfaz Gráfica de Usuario) proporciona todo lo necesario para la tener visibilidad y administración de infraestructura "a un solo clic" para entornos virtuales que se ejecutan en Acropolis. Acropolis es holístico del hipervisor y admite dos hipervisores de terceros como son: VMware ESXi, Microsoft Hyper-V y Xen, además del hipervisor nativo de Nutanix. Acropolis Hipervisor (AHV).

Arquitectura de la Acrópolis de Nutanix

Acropolis no depende del almacenamiento en red como son SAN o NAS, ni de las costosas infraestructura e interconexiones de red de almacenamiento. Combina almacenamiento altamente denso y cómputo del servidor (CPU y RAM) en un solo bloque de construcción de la plataforma. Cada bloque de construcción ofrece una arquitectura unificada, escalable, nada compartido y sin puntos únicos de falla.


La solución de Nutanix no requiere elementos típicos de una SAN como LUNs, arreglos RAID o caros switches para almacenamiento. Toda la gestión de almacenamiento está centrada en las Máquinas Virtuales (VMs) y la E/S está optimizada en el nivel de disco virtual de las VMs. La solución de software se ejecuta en nodos que pueden ser de una variedad de fabricantes, que son que pueden ser totalmente flash (SSD) para un rendimiento óptimo o una combinación híbrida de SSD y HDD que proporciona una combinación de rendimiento y capacidad adicional. El almacenamiento se basa en el Distributed Storage Fabric (DSF) que clasifica automáticamente los datos a través del clúster a diferentes clases de dispositivos de almacenamiento, utilizando algoritmos inteligentes de colocación de datos. Para obtener el mejor rendimiento, los algoritmos aseguran que los datos utilizados con más frecuencia estén disponibles en la memoria o en la memoria flash en el nodo local de la VM.

Tecnología de contenedores Docker

Es muy fácil comenzar en Docker. La instalación de un solo paquete de Linux proporciona tanto el programa cliente Docker como el demonio Docker. La arquitectura de dos niveles, que se muestra en la figura siguiente, utiliza una utilidad de cliente de línea de comandos de Docker que se comunica directamente con un proceso de demonio de Docker que puede ser local o remoto. El demonio Docker a su vez se comunica con el índice Docker ascendente.

Docker proporciona un índice público o repositorio, llamado Docker Hub, que le brinda acceso a imágenes base estándar para una variedad de distribuciones de Sistema Operativo y aplicaciones comunes.

La tecnología Docker se basa en un ciclo de vida de construcción-distribución-ejecución:
  • Imágenes de Docker (componente de compilación)

    Un contenedor Docker consta de cualquier número de capas de aplicación de solo lectura, superpuestas en una capa de imagen del sistema operativo base utilizando un sistema de archivos de unión (union fliesystem). Una vez incluidas, estas capas forman una nueva imagen. La disposición del sistema de archivos de unión permite a Docker compartir archivos binarios y bibliotecas entre múltiples contenedores.

  • Registros de Docker (componente de distribución)

    Los usuarios pueden optar por implementar registros privados o públicos para almacenar imágenes. Estas imágenes pueden ser imágenes preexistentes de Docker Hub o las imágenes internas específicas de compilación del usuario.

    Alternativamente, puede descargar imágenes que otros usuarios han creado. El cliente Docker puede buscar repositorios de imágenes y enviar imágenes a cualquier combinación de repositorios públicos o privados seguros.

  •  Contenedores Docker (componente de ejecución)

    Un contenedor se ejecuta desde su imagen subyacente de solo lectura. Esta imagen reutilizable contiene datos sobre los detalles de configuración, la aplicación que debe iniciar, etc. Cuando Docker agrega la capa del sistema de archivos de unión de lectura-escritura a la imagen que forma el contenedor, la aplicación puede ejecutarse en ese contenedor.
Los contenedores Docker proporcionan virtualización a nivel de sistema operativo utilizando API expuestas por las bibliotecas de contenedores "containerd" y "runC". "Containerd" es en sí mismo un "tiempo de ejecución" de contenedor liviano, utiliza "runC", que es un formato de contenedor compatible con "Open Container Project" que se ha convertido en el estándar de facto de Open Container Initiative (OCI). Estas API proporcionan una interfaz estándar para las características de contención del kernel de Linux, como espacios de nombres y cgroups (grupos de control).

Por ejemplo, puede usar dichas funciones para crear un entorno aislado, y administrar los derechos de CPU y RAM de los contenedores respectivamente. Los contenedores son livianos y pueden compartir recursos como los binarios y bibliotecas del sistema, pero también están protegidos para que no interfieran entre sí.

Beneficios de Docker en Acropolis Hipervisor (AHV)

La pila de contenedores Docker y AHV se complementan entre sí para proporcionar una solución informática flexible y eficiente, para ejecutar arquitecturas de contenedores de microservicios. Esta combinación reduce tiempos de valor, al proporcionar una facilidad de uso sin igual, liberando a los clientes para centrarse en las aplicaciones e impulsando la innovación en sus organizaciones. La implementación de aplicaciones en el cómputo y el almacenamiento convergentes en una solución "llave en mano" de Nutanix, garantiza que su infraestructura se vuelva realmente invisible: no más recursos desperdiciados, planificación y mantenimiento de la infraestructura.


Algunos de los principales beneficios de ejecutar contenedores Docker en AHV incluyen:
  • Flujos de trabajo de aprovisionamiento similares a la nube para soportar la escala elástica. Fundamos la plataforma de computación Nutanix en principios de escala web que proporcionan escalabilidad fácil y rendimiento lineal predecible. La plataforma habilita la escala horizontal, lo que le permite expandir el clúster Nutanix de un nodo a la vez. Los clientes desean escalar y aprovisionar a la misma velocidad a la que implementan contenedores. Con este fin, Nutanix Prism optimiza las operaciones de administración de VM de nivel de consumidor para que sean operaciones de un solo clic.
  • Soporte para ciclos de vida de aplicaciones híbridas.

    La capacidad de ejecutar la imagen final en entornos de nube híbrida es la característica clave del ensamblaje y la implementación de la aplicación que admite tanto el desarrollo continuo como la integración. Nutanix App Mobility Fabric permite a todos los interesados ​​en la cadena de entrega de DevOps ubicar aplicaciones basadas en un requisito de elasticidad o previsibilidad. App Mobility Fabric reduce los costos operativos asociados a medida que las organizaciones avanzan hacia infraestructuras adaptativas mientras utilizan un enfoque de software más ágil para comprimir los tiempos de los ciclos de lanzamiento.

  • Agrupación de almacenamiento en niveles y localidad de datos

    Al mantener los conjuntos de trabajo de VM en los niveles de almacenamiento respaldados por SSD más eficaces, la plataforma Nutanix puede ofrecer E / S de alto rendimiento en todas las cargas de trabajo de aplicaciones basadas en contenedores. Los CVM de Nutanix proporcionan la localidad de datos utilizando ILM. Las lecturas se satisfacen desde la memoria o SSD; las escrituras van a SSD y luego se drenan en discos giratorios. Todas las operaciones se realizan con preferencia por los datos que provienen del almacenamiento local, en el mismo sistema físico donde se encuentra la VM que accede a él.

  • Los servicios de datos proporcionan la funcionalidad de clonación e instantánea.

    Nutanix Acropolis ofrece una variedad de niveles de servicio granular VM con copias de seguridad, recuperación eficiente ante desastres y actualizaciones no disruptivas. Estas características mejoran la disponibilidad de la aplicación al proporcionar copias de seguridad casi instantáneas consistentes en bloqueos utilizando capacidades de instantáneas. Las instantáneas también permiten que la ingeniería y el control de calidad implementen entornos de prueba de alto rendimiento rápidamente con copias clonadas completas de conjuntos de datos de producción.

  • Reducción de la complejidad operativa de la infraestructura.

    Reduzca la sobrecarga administrativa en cientos de horas por año al eliminar prácticamente la necesidad de administración de almacenamiento mediante una administración intuitiva, centralizada, centrada en VM y API REST o kits de herramientas PowerShell.

  • Conocimiento profundo del rendimiento

    Simplifique la resolución de problemas de rendimiento, resolviendo problemas en minutos a horas versus días y semanas con visibilidad detallada de extremo a extremo de las máquinas virtuales y la infraestructura de la aplicación.
Ejecutando Docker en AHV

Mejores prácticas para la instalación de Docker

La lista completa de procedimientos de instalación para Docker Engine y los componentes del ecosistema asociados está disponible en el sitio web de Docker. Recomendamos pues consultar la documentación de Docker para el flujo de trabajo de instalación, basado en yum para CentOS (distribución de Linux basada en Red Hat Enterprise Linux) que utilizamos para instalar Docker Enterprise Edition (Docker EE).

Aprovisionamiento de máquinas virtuales "dockerizadas"

Nutanix Enterprise Cloud es una plataforma de "back-end" totalmente certificado y compatible, que puede alojar máquinas virtuales que ejecutan "Docker Engine". Al usar "Docker CLI"en un cliente remoto, puede aprovisionar máquinas virtuales de una manera similar a la nube. Estas máquinas virtuales se ajustan al formato Acropolis Hipervisor (AHV), teniendo instalado, habilitado y listo para el arranque el motor Docker necesario. Luego podemos implementar contenedores en la "Máquina Virtual Dockerizeada".

Para obtener más detalles sobre cómo descargar, configurar e instalar el software requerido, consulte la información de Docker en "Nutanix Docker Volume Plugin (DVP)".

Consideraciones de almacenamiento de Docker

El rendimiento de disco de volúmenes lógicos de instantáneas en modalidad "copia en escritura" Docker, recae en los servicios del "sistema de archivos de unión" para combinar varias capas de imágenes de solo lectura, en una sola imagen. Docker luego agrega una capa de lectura y escritura después de haber creado el contenedor a partir de la imagen base. Esta estratificación hace que los contenedores sean muy livianos para correr y rápidos para crear. AUFS, btrfs, zfs, vfs, overlay2 y devicemapper son los controladores de almacenamiento backend actualmente compatibles, que proporcionan servicios de sistema de archivos de unión.

Para esta entrada en el Blog, hemos consideramos el backend de "devicemapper", ya que utiliza el módulo de aprovisionamiento delgado de devicemapper (dm-thinp) para implementar las capas. Su caso de uso determina qué controlador de almacenamiento debe elegir. Nutanix recomienda el modo "directo-lvm" de devicemapper para la mayoría de las implementaciones de producción. Este modo utiliza dispositivos de almacenamiento basados en bloque, para crear el grupo de aprovisionamiento delgado requerido. Sin embargo, dependiendo de las relaciones de lectura y escritura, los tamaños de transferencia de datos, etc., su carga de trabajo de E/S puede beneficiarse al usar uno de los controladores de almacenamiento alternativo mencionados anteriormente.


Asignar bajo demanda

A medida que se escriben nuevos datos en un contenedor respaldado por los volúmenes de aprovisionamiento delgado del backend del "devicemapper", esos datos deben tener un nuevo bloque asignado y asignado al contenedor. En la configuración "directa-lvm", el tamaño de bloque predeterminado es de 64 KB, por lo que una escritura más pequeña que eso todavía asigna un bloque de 64 KB. Podría ver un impacto en el rendimiento si sus contenedores realizan muchas escrituras pequeñas.

Procedimiento de copia en escritura

Al sobrescribir datos en un contenedor, el procedimiento de copia en escritura de mapeador de dispositivos copia los datos de la imagen (o la instantánea de la imagen) al contenedor (o la instantánea del contenedor). Este proceso tiene la misma granularidad de 64 KB que el esquema de asignación de bloques descrito anteriormente. Por ejemplo, las actualizaciones de 32 KB a un archivo de 1 GB dan como resultado la copia de un bloque de 64 KB hasta la capa del contenedor o la instantánea de esa capa. Por el contrario, con los controladores de "almacenamiento basados en el sistema de archivos" (AUFS, btrfs, ZFS), el mismo procedimiento de copia en escritura copiaría todo el archivo de 1 GB hasta la capa del contenedor.

Almacenamiento persistente para contenedores con estado

Para que un contenedor conserve datos, debe configurar un volumen de datos como parte de la especificación de tiempo de ejecución del contenedor. El volumen de datos es un directorio especialmente designado que omite el sistema de archivos de unión en uno o más contenedores.

Los volúmenes se inicializan cuando se crea un contenedor. Si la imagen base del contenedor contiene datos en el punto de montaje especificado, los datos existentes se copian en el nuevo volumen en la inicialización del volumen. Los volúmenes de datos proporcionan varias características útiles para datos persistentes o compartidos:
  • Los volúmenes de datos se pueden compartir y reutilizar entre contenedores.
  • Los cambios en un volumen de datos se realizan directamente.
  • Los cambios en un volumen de datos no se incluyen cuando actualiza una imagen.
  • Los volúmenes de datos persisten incluso si elimina el contenedor en sí.
Los volúmenes de datos están diseñados para conservar datos, independientemente del ciclo de vida del contenedor. Docker, por lo tanto, nunca elimina automáticamente los volúmenes cuando elimina un contenedor, ni recolecta basura los volúmenes a los que un contenedor ya no hace referencia.
Para integrar una implementación de Docker Engine con el "Distributed Storage Fabric (DSF)", Nutanix proporciona un complemento de controlador de volumen. Este complemento se implementa en un contenedor separado en un patrón de "sidekick" o "sidecar".

El complemento del controlador de volumen Nutanix, implementa un servidor HTTP que el "daemon o demonio" de Docker Engine puede descubrir. Este servidor expone un conjunto de "Llamadas de Procedimiento Remoto (RPC)" emitidos como solicitudes "HTTP POST" con cargas "Java Script Open Notation (JSON)". Al registrarse en "Docker Engine", el complemento atiende todas las solicitudes de otros contenedores para la creación, montaje, eliminación, etc. de volúmenes. Para crear un volumen persistente, el controlador llama al DSF y proporciona al contenedor solicitante un punto de montaje, o una ruta de escritura hecha del almacenamiento en bloque iSCSI expuesto con un "Nutanix Volume Group (VG)".

Implementación de Nutanix Volume Driver y Nutanix Docker Volume Plug-In

"Nutanix Volume Driver" recibió el estado de "Docker’s Enterprise Technology Partner (ETP)". Para usar el Nutanix Volume Driver para contenedores Docker, asegúrese de haber creado un contenedor de almacenamiento Nutanix en Prism o usando el "Nutanix Command Line Interface (nCLI)". Nutanix recomienda crear un contenedor separado para Imágenes ISOs e imágenes de Disco y ejecutar máquinas virtuales en otro contenedor.
Nutanix también ofrece un controlador de volumen basado en "Docker Volume API v2". Junto con las instrucciones de instalación y configuración, este controlador está disponible en la "tienda Docker" como "Nutanix Docker Volume Plug-In (DVP)". Puede usar el DVP con o sin el controlador de la máquina acoplable. Recomendamos usar el DVP (que tiene certificación Docker) cuando se ejecutan contenedores que requieren almacenamiento persistente en Nutanix.

Conclusión

Nutanix Enterprise Cloud y Acropolis Hipervisor proporcionan los más poderosos cimientos para las capacidades comprobadas de la pila de tecnología Docker. Nutanix agiliza y mejora tanto la configuración de la infraestructura de almacenamiento, como la implementación general. La solución Docker en Nutanix proporciona una plataforma única y distribuida que permite que las implementaciones se escalen linealmente, de forma modular, con un rendimiento predecible. Nutanix elimina la necesidad de entornos complejos de "Redes de Almacenamiento (SAN)" o "Dispositivos de Almacenamiento Conectados a la Red (NAS)".

La integración de Nutanix Docker para el almacenamiento persistente garantiza la seguridad y el aislamiento al ejecutar sus contenedores en máquinas virtuales, protegiendo su base instalada. Nutanix ahora es un objetivo reconocido para Docker Machine, y cada Máquina Virtual está habilitada con Docker Engine para la implementación inmediata de contenedores. 
Los contenedores con estado que se ejecutan en Máquinas Virtuales conservan la persistencia y movilidad de los datos, ya que el "Distributed Storage Fabric (DSF)" se convierte en la fuente de todos los volúmenes de datos de Docker. El almacenamiento persistente en el DSF permite que los volúmenes de datos existan independientemente de la especificación de tiempo de ejecución del contenedor, por lo que puede usarlos como recursos de primera clase. 

Asegurarse de que siempre acceda a los conjuntos de trabajo de Máquinas Virtuales desde los niveles de almacenamiento de mayor rendimiento, logra la mejor taza de Entradas/Salidas. Un nivel dinámico de toda la plataforma mantiene una baja latencia de Entradas/Salidas y un perfil de respuesta para sus implementaciones de contenedores de microservicios.

La gestión de máquinas virtuales anfitrionas de Docker en Prism, agiliza las instantáneas y los clones para crear entornos de prueba y control de calidad con datos de estilo de producción de forma rápida y sencilla. La Interface Gráfica de Usuario "Nutanix Prism" también proporciona descripciones generales del estado del clúster, análisis de rendimiento de la pila completa, alertas de hardware y software, utilización del almacenamiento y soporte remoto automatizado.

Juntos, Nutanix y Acropolis Hipervisor proporcionan una infraestructura invisible de "toque cero", lo que le permite aprovechar al máximo las aplicaciones comerciales críticas, al implementarlas como microservicios en contenedores a través de Máquinas Virtuales Dockerizadas. De esta manera, los departamentos de Tecnologías de la Información pasan menos tiempo en el centro de datos y más tiempo innovando para ayudar al negocio.

¿Qué sigue?

Posteriormente en otra entrada hablaremos de Nutanix Karbon. Una distribución certificada por Kubernetes de nivel empresarial que simplifica el aprovisionamiento, las operaciones y la gestión del ciclo de vida de Kubernetes, con una experiencia nativa de Kubernetes y que simplifica la implementación de un clúster de Kubernetes de alta disponibilidad, así como la operación de cargas de trabajo a escala web.