También mencionamos que la solución Nutanix ofrece potentes capacidades de virtualización, incluidas las operaciones centrales de Máquinas Virtuales (VMs por sus siglas en inglés), migración en vivo, alta disponibilidad de Máquinas Virtuales y administración de redes virtuales, como características totalmente integradas de la infraestructura en lugar de productos independientes que requieren una implementación y administración separadas.
En esta entrada abordaremos el tema:
Capacidades de gestión integrada
Nutanix prioriza la simplificación de la administración y las operaciones de la infraestructura. La plataforma Nutanix converge de forma nativa en lo que respecta a cómputo (procesador, memoria y redes), almacenamiento y virtualización en un producto listo para usar que se puede administrar desde un solo Panel de Control (Dashboard): Nutanix Prism.
Prism ofrece capacidades integradas para la gestión de clústeres y la gestión de Máquinas Virtuales que están disponibles a través de la Interfaz Gráfica de Usuario (GUI) Prism, la Interfaz de Línea de Comando (CLI), Windows PowerShell y la REpresentational State Transfer-Application Programable Interface (REST-API) de Acropolis.
Administración del Cluster Nutanix
La administración de clusters en Acropolis Hypervisor se enfoca en la creación, actualización, eliminación y monitoreo de los recursos del clúster. Estos recursos incluyen nodos (que aportan procesador y memoria), almacenamiento y redes.
Prism proporciona una ubicación central para que los administradores actualicen la configuración de sus nodos, en lo que respecta a las redes virtuales y la alta disponibilidad en todos los nodos de un clúster con Acropolis Hypervisor. Controlar la configuración en a nivel de clúster elimina la necesidad de verificaciones manuales de cumplimiento, reduciendo el riesgo de tener un clúster que no está configurado de manera uniforme.
Configuración de almacenamiento
Nutanix Acropolis se basa en la Capa de Almacenamiento Distribuido (Distributed Storage Fabric o DSF) independiente del hipervisor, para entregar servicios de datos como el aprovisionamiento de almacenamiento, instantáneas para respaldo y recuperación, clones y protección de datos para Máquinas Virtuales directamente, en lugar de usar la pila de almacenamiento del hipervisor. En cada nodo de Acropolis Hypervisor, un servicio de redireccionamiento de almacenamiento con es estándar iSCSI establece una ruta de almacenamiento altamente flexible, desde cada Máquina Virtual hasta el almacenamiento en el clúster de Nutanix.
Redes virtuales
Acropolis Hypervisor aprovecha a Open vSwitch (OVS), para todo lo que respecta a las redes de Máquinas Virtuales. Al crear un nuevo clúster con AHV, las rutas de acceso a la red de la Máquina Virtual de Control (CVM por sus siglas en inglés) son creadas automáticamente.
Los administradores pueden crear fácilmente nuevas redes Capa 2 (L2) respaldadas por Redes Virtuales (VLANs) a través de Prism. Una vez que haya creado una red, puede asignar la red para las Máquinas Virtuales ya existentes y de nueva creación.
Junto con la optimización de la creación de la red para Máquinas Virtuales, Acropolis puede proporcionar administración de direcciones mediante Direct Host Connection Protocol (DHCP), independientes para cada red que se crea. Esta funcionalidad permite a los administradores configurar grupos de direcciones para cada red que pueden asignar automáticamente a las máquinas virtuales.
Actualizaciones continuas
Nutanix ofrece un proceso de actualización "a un clic" increíblemente simple y confiable, para todo el software dentro de la plataforma Nutanix. Esta característica incluye actualizaciones para el Sistema Operativo Acropolis (AOS), el hipervisor Acropolis Hypervisor (AHV), firmware y la herramienta Nutanix Cluster Check (NCC).
Las actualizaciones no son disruptivas y permiten que el clúster se ejecute continuamente mientras que los nodos se actualizan de forma continua en segundo plano, garantizando así el funcionamiento del clúster siempre activo, durante el mantenimiento del software. Nutanix califica las actualizaciones de firmware de los fabricantes de unidades de disco duro (HDD) o de estado sólido (SSD) en el clúster, poniéndolas a disposición mediante el mismo proceso de actualización.
Modo de mantenimiento de los nodos
Los administradores pueden colocar nodos Acropolis Hypervisor en modo de mantenimiento, durante las actualizaciones y las operaciones relacionadas con el mantenimiento físico de los nodos. El modo de mantenimiento en vivo, migra todas las máquinas virtuales que se ejecutan en el nodo a intervenir a otros nodos dentro del clúster del Acropolis Hypervisor, pudiéndose cerrar de manera segura la Máquina Virtual de Control (CVM) si esto fuera necesario. Una vez que el proceso de mantenimiento ha completado todos los pasos para el nodo, devuelve el CVM al servicio y se sincroniza con otros CVM en el clúster. El modo de mantenimiento permite una suspensión elegante de los nodos para el mantenimiento rutinario del clúster.
Escalabilidad
La arquitectura de escalabilidad horizontal de la solución Nutanix, permite escalar de forma incremental y predecible la capacidad y el rendimiento en un clúster de Nutanix que ejecuta cualquier hipervisor, incluido Acropolis Hypervisor. Los administradores pueden comenzar con tan solo tres nodos y escalar sin límites.
El sistema descubre automáticamente nuevos nodos y los pone a disposición para su uso. La expansión de clusters es tan simple como seleccionar los nodos descubiertos que desea agregar y proporcionar detalles de configuración de red. A través de Prism, los administradores pueden crear imágenes o actualizar nuevos nodos para que coincidan con la versión de Acropolis Hypervisor de sus nodos preexistentes, permitiendo así la integración perfecta de nodos, sin importar qué versión se instaló originalmente.
Gestión de las Máquinas Virtuales
La gestión de Máquinas Virtuales en AHV se centra en la creación, las actualizaciones, la eliminación, la protección de datos, la supervisión de máquinas virtuales y sus recursos. Estos servicios y características del clúster están disponibles a través de la interfaz Prism, una capa de administración distribuida que está disponible en a través de la Máquina Virtual de Control (CVM) en cada host de AHV.
Gestión de imágenes
El servicio de administración de imágenes dentro de Acropolis Hypervisor es un repositorio centralizado que brinda acceso a medios virtuales e imágenes de disco, así como la capacidad de importar estos elementos desde fuentes externas. Permite almacenar máquinas virtuales como templates, plantillas o imágenes maestras, que luego puede usar para crear nuevas máquinas virtuales rápidamente a partir de una buena imagen base conocida.
El servicio de administración de imágenes puede almacenar los archivos del disco virtual, que se utilizan para crear máquinas virtuales o medios de instalación del sistema operativo en pleno funcionamiento como un archivo ".iso", que puede montar para proporcionar una fuente para la instalación del sistema operativo.
Incorporado en Prism, el servicio de imágenes puede importar y convertir formatos de discos virtuales existentes, incluyendo archivos ".raw", ".vhd", ".vmdk", ".vdi" y ".qcow2". La configuración de hardware virtual anterior no restringe un disco virtual importado, lo que permite a los administradores la flexibilidad de configurar por completo la CPU, la memoria, los discos virtuales y la configuración de red en el momento del aprovisionamiento de las Máquinas Virtuales.
Acropolis Dynamic Scheduling
Acropolis Dynamic Scheduling (ADS) es una función automática habilitada en cada grupo de Acropolis Hypervisor para evitar alta contención entre de los nodos del clúster. Acropolis Dynamic Scheduling supervisa continuamente el puntaje de datos de almacenamiento, memoria y CPU, para tomar decisiones de migración y colocación inicial para Máquinas Virtuales y volúmenes de los Acropolis Block Services (ABS).
Comenzando con los datos estadísticos existentes generados por el clúster, Acropolis Dynamic Scheduling vigila las anomalías, respeta los controles de afinidad y solo toma decisiones de movimiento para evitar los puntos conflictivos. Mediante el aprendizaje automático, Acropolis Dynamic Scheduling puede ajustar los umbrales de movimiento a lo largo del tiempo desde sus valores fijos iniciales, para lograr la mayor eficiencia sin sacrificar el rendimiento.
Acropolis Dynamic Scheduling rastrea la utilización de memoria y CPU de cada nodo individual. Cuando la asignación de CPU de un nodo supera su umbral (85% del CPU de la Máquina Virtual de Control), Nutanix migrará las Máquinas Virtuales o los volúmenes de Acropolis Block Services según sea necesario, para reequilibrar las cargas de trabajo.
Ubicación inteligente de Máquinas Virtuales
Cuando crea, restaura o recupera máquinas virtuales, Acropolis las asigna a un host Acropolis Hypervisor dentro del clúster según la recomendación del Acropolis Dynamic Scheduling. Este proceso de ubicación de Máquinas Virtuales también tiene en cuenta la configuración de Alta Disponibilidad (High Availability o HA) del clúster de Acropolis Hypervisor, por lo que no infringe ningúna conmutación por error (failover) o reservas de segmentos del host. Explicamos estos constructos de Alta Disponibilidad más adelante en la sección de alta disponibilidad a continuación.
Afinidad y Antiafinidad
Los controles de afinidad proporcionan la capacidad de gobernar el dónde se ejecutan las Máquinas Virtuales. AHV tiene dos tipos de controles de afinidad:
1. La afinidad Máquina Virtual-Nodo que vincula estrictamente una Máquina Virtual un nodo o grupo de nodos, por lo que la Máquina Virtual solo se ejecuta en ese nodo individual o grupo de éstos. Afinidad es particularmente aplicable para casos de uso que involucran licencias de software o dispositivos virtuales. En tales casos, a menudo necesitaremos limitar el número de nodos en los que se puede ejecutar una aplicación o vincular un dispositivo virtual a un solo nodo.
2. Anti-afinidad le permite declarar que una lista determinada de Máquinas Virtuales, no debe ejecutarse en los mismos nodos. Anti-afinidad le brinda un mecanismo para permitir que las Máquinas Virtuales que ejecutan una aplicación distribuida o las Máquinas Virtuales en clúster, se ejecuten en diferentes nodos, lo que aumenta la disponibilidad y la flexibilidad de la aplicación. Para preferir la disponibilidad de Máquinas Virtuales sobre la separación de éstas en el sistema, se anulará este tipo de regla cuando un clúster se vuelve limitado.
Migración en vivo
La migración en vivo permite que el sistema mueva Máquinas Virtuales de un nodo Acropolis a otro, mientras la Máquina Virtual está encendida. Ya sea que el movimiento se inicie manualmente o mediante un proceso automático. La migración en vivo también puede ocurrir cuando un nodo se coloca en modo de mantenimiento, evacuando todas las máquinas virtuales que se ejecutan en el nodo.
Migración entre Hipervisores
Acropolis Application Mobility Fabric (AMF) simplifica el proceso de migración de máquinas virtuales existentes, entre un clúster con hipervisor ESXi y un clúster con hipervisor Acropolis Hypervisor, con capacidades de protección de datos incorporadas. Puede crear uno o más dominios de protección en el clúster de origen y establecer el clúster de Acropolis Hypervisor como el clúster remoto de destino. A continuación, se crea una instantánea de las máquinas virtuales en el clúster origen ESXi repitiéndolas en el clúster destino Acropolis Hypervisor, donde puede restaurarlas y ponerlas en línea como cualquier máquinas virtual Acropolis Hypervisor.
Alta disponibilidad automatizada
Acropolis ofrece Alta Disponibilidad de Máquinas Virtuales (VMHA) para garantizar la disponibilidad de éstas en caso de interrupción de sólo un nodo o de todo un bloque. Si un nodo falla, las máquinas virtuales que se ejecutan previamente en ese nodo reinician en nodos saludables en todo el clúster. Hay múltiples opciones de configuración de HA disponibles para tener en cuenta diferentes escenarios de clúster.
1. De forma predeterminada, todos los clusters de Acropolis proporcionan Alta Disponibilidad basada en el mejor esfuerzo, incluso cuando el clúster no está configurado para Alta Disponibilidad. La estrategia del mejor esfuerzo funciona sin reservar ningún recurso. El control de admisión no se aplica, por lo que es posible que no haya suficiente capacidad disponible para iniciar todas las máquinas virtuales desde el nodo fallido.
2. También puede configurar un clúster de Acropolis para Alta Disponibilidad con la reserva de recursos, para garantizar que los recursos necesarios para reiniciar las máquinas virtuales siempre estén disponibles. Acropolis ofrece dos modos de reserva de recursos: reservas por nodo y reservas por segmentos. Los clústeres con configuraciones de nodos uniformes (por ejemplo, la misma cantidad de RAM en cada nodo) utilizan la reserva por nodo, mientras que los clústeres con configuraciones heterogéneas usan la reserva por segmentos.
Reserva por nodo
Este método reserva un nodo completo para la protección contra fallas. Acropolis selecciona el nodo menos utilizado en el clúster como nodo de reserva, y todas las máquinas virtuales de ese nodo se migran a otros nodos en el clúster para que la capacidad total del nodo de reserva esté disponible para la migración. Prism determina la cantidad de nodos de conmutación por falla necesarios, para que coincida con el número de fallas que el clúster tolerará para el factor de replicación configurado.
Reserva por segmentos
Este método divide el clúster en segmentos de tamaño fijo de CPU y memoria. Cada segmento corresponde a la Máquina Virtual más grande que se garantiza que se reiniciará después de una falla en el nodo. El programador de actividades del clúster, también teniendo en cuenta la cantidad de fallas del nodo que se pueden tolerar, implementa el control de admisión para garantizar que haya suficientes recursos reservados, para reiniciar las máquinas virtuales ante la falla de cualquier nodo en el clúster.
La Máquina Virtual de Control Principal o Master del Clúster Acropolis, reiniciará las Máquinas Virtuales en los nodos saludables. La Acropolis Master realiza entonces un seguimiento del estado del nodo supervisando las conexiones a la Biblioteca de la API para Virtualización "libvirt", en todos los nodos del clúster. Si el Acropolis Master se particiona, se aísla o falla, la parte saludable del clúster elige un nuevo Acropolis Master.
Nuevamente entonces: ¿Cuál es la solución de Hiperconvergencia que ya está instalada y en ejecución, en su empresa u organización?