Las cargas de trabajo están creciendo en todas partes
A medida que las organizaciones adoptan la nube, comienzan a abrir un nuevo capítulo en la era de las nubes híbridas múltiples o multinubes. Las multinube se ha convertido rápidamente en el modelo de implementación dominante.
Según un estudio de 451 Research, el 75 % de todas las empresas tienen huellas de múltiples nubes. Muchas empresas eligen ejecutar cargas de trabajo de misión crítica en sus propios "sites" (on-premise) para aprovechar la ubicación de los datos, el rendimiento predecible de la carga de trabajo y la baja latencia de la red.
A medida que se acumulan grandes cantidades de datos en la empresa, tienden a atraer más servicios y aplicaciones locales para minimizar la latencia, aumentar el rendimiento y maximizar el rendimiento de la carga de trabajo.
Las preferencias del modelo de consumo están evolucionando
IDC predice que para 2025, el 60 % de las empresas financiará proyectos a través de presupuestos "Operational Expenses" (OpEx). Esta tendencia es evidente en las organizaciones de Tecnologías de la Información que continúan adoptando modelos de consumo basados en la nube para servicios de infraestructura.
Cada vez más, las líneas de negocio toman sus propias decisiones de infraestructura y servicios en función de sus necesidades únicas. El software como servicio está emergiendo rápidamente como una estrategia central que las empresas están adoptando para ahorrar tiempo y lograr objetivos más rápido. De hecho, Gartner espera que el gasto mundial en SaaS alcance los $208 mil millones de dílares para el año 2023.
Crece la demanda de servicios de infraestructura
El volumen y la complejidad de las cargas de trabajo modernas están aumentando, lo que genera una mayor demanda de servicios de infraestructura que proporcionen una funcionalidad clave subyacente para estas cargas de trabajo. La creciente demanda de servicios de infraestructura definidos por software ejerce más presión sobre los CPU, lo que deja menos ciclos de cómputo para las cargas de trabajo.Las clases más nuevas de aceleradores de hardware como las unidades de procesamiento de datos (Data Processing Units DPU), también conocidas como SmartNIC han sido utilizadas con éxito por los hiperescaladores para descargar y acelerar las funciones de infraestructura, liberando ciclos de CPU para ejecutar cargas de trabajo.
A medida que las DPU se vuelven más comunes en la infraestructura, hay un número cada vez mayor de opciones de hardware de proveedores con diferentes conjuntos de capacidades. Los equipos de infraestructura de Tecnologías de la Información se enfrentan al desafío de abstraer las diferencias de hardware y presentar una interfaz de consumo uniforme a los usuarios.
Van en aumento amenazas de seguridad en el tráfico del centro de datos
Las aplicaciones modernas también se basan cada vez más en microservicios y aumentan el tráfico de red Este-Oeste dentro del centro de datos. Cuando se trata de proteger la red empresarial, los firewalls tradicionales se enfocan únicamente en el perímetro de la red, con una comprensión limitada de las topologías y los comportamientos de las aplicaciones.
Los enfoques tradicionales de cortafuegos distribuidos requieren agentes basados en host para asegurar la red dentro del centro de datos y dan como resultado arquitecturas y operaciones de seguridad complejas. Con las cargas de trabajo y los servicios de infraestructura compartiendo un dominio, las posibilidades de que los actores malintencionados penetren en el perímetro de la red y persistan en la red son mayores.
Yo no funcionan los enfoques tradicionales para satisfacer las necesidades de la infraestructura de última generación
Agregar nueva capacidad de servidor para satisfacer la creciente demanda de infraestructura da como resultado un mayor costo total de propiedad. Los silos específicos de aplicaciones, como los servidores basados en GPU para ejecutar cargas de trabajo de Inteligencia Artificial y Aprendizaje de Máquina (IA/ML), no presentan una buena escalabilidad para ejecutar cargas de trabajo de TI tradicionales. Esto da como resultado una arquitectura inflexible que conduce a complejidades operativas adicionales.
En un dominio convergente donde las cargas de trabajo se ejecutan junto con los servicios de infraestructura, la complejidad de las CPU se convierte en un único punto de falla, como lo demostraron las vulnerabilidades de seguridad de bajo nivel en el pasado reciente.
Además se espera que las organizaciones de TI brinden experiencias uniformes de consumo de infraestructura en múltiples nubes para desarrollar, implementar y mantener aplicaciones de alto rendimiento de manera rentable y segura.
¿Qué pasaría si pudiera potenciar el rendimiento de la carga de trabajo mientras escala los servicios de infraestructura en toda la empresa y reduce el costo total de la infraestructura?
¿Qué pasaría si pudiera permitir que los equipos de desarrollo aceleren su innovación y entreguen servicios IaaS directamente a sus entornos de desarrollo?
¿Qué pasaría si los beneficios de la nube estuvieran disponibles para las cargas de trabajo locales sin necesidad de levantar y cambiar?
¿Qué pasaría si pudiera administrar de manera centralizada la infraestructura local y reducir la carga operativa del mantenimiento?
Bueno, el momento de preguntarse "qué pasaría si" se acabó.
Presentamos VMware vSphere 8
VMware vSphere 8, la plataforma de carga de trabajo empresarial, brinda los beneficios de la nube a las cargas de trabajo locales, aumenta el rendimiento a través de Unidades de Procesamiento de Datos (DPU) y Unidades de Procesamiento Grádico (GPU), aceleramdo la innovación con un tiempo de ejecución integrado de Kubernetes listo para la empresa. Entremos en más detalles.
vSphere 8 marca el comienzo de una nueva era de computación heterogénea al presentar unidades de procesamiento de datos a las empresas a través de VMware vSphere Distributed Services Engine. vSphere Distributed Services Engine es el siguiente paso en la evolución de la infraestructura de la nube para las aplicaciones modernas, en el que la administración para ejecutar los servicios de infraestructura se distribuye entre la CPU y la DPU.
"vSphere Distributed Services Engine" moderniza la infraestructura de la nube en una arquitectura distribuida habilitada por las DPU para:
- Satisfaga las necesidades de rendimiento y latencia de las cargas de trabajo distribuidas modernas acelerando las funciones de red
- Ofrezca la mejor relación precio-rendimiento de la infraestructura proporcionando más recursos de CPU a las cargas de trabajo
- Reduzca la sobrecarga operativa de la administración del ciclo de vida de la DPU con flujos de trabajo integrados de vSphere
"vSphere Distributed Services Engine" conserva la experiencia existente de vSphere "Day-0", "Day-1" y "Day-2", con la que los clientes están familiarizados. Es compatible con una amplia variedad de DPU de los principales proveedores (NVIDIA y AMD) así como diseños de servidor OEM (Dell, HPE).
"Distributed Services Engine" descarga y acelera los Switches Distribuidos vSphere y redes con NSX en la DPU, con servicios adicionales a seguir en el futuro. Así que, de inmediato, esto beneficiará a los clientes que ejecutan aplicaciones que demandan un gran ancho de banda de red y un rápido acceso a la memoria caché, como las bases de datos en memoria.
En estudios de evaluación comparativa interno que ejecuta Redis en un host habilitado para DPU, logró un 36 % más de rendimiento junto con una reducción del 27 % en la latencia de las transacciones. En otro escenario, un host habilitado para DPU logró un rendimiento similar al de un sistema sin DPU, con un 20 % menos de núcleos de CPU. Estos potentes resultados muestran cómo vSphere 8 permite a los clientes reducir el costo total de la informática y mejorar el rendimiento de la carga de trabajo.
Además, con vSphere 8, los administradores de TI pueden reducir la sobrecarga de las DPU operativas en la infraestructura al aprovechar los flujos de trabajo integrados de vSphere para administrar el ciclo de vida y monitorear el rendimiento.
Estamos asombrados al notar que los socios tecnológicos de VMware han producido soluciones integrales listas para el mercado. Hoy, Dell Technologies anunció el lanzamiento de soluciones de software SmartDPU en la plataforma VxRailTM con una selección de DPU de AMD Pensando y NVIDIA. HPE anunció el lanzamiento de HPE ProLiant con VMware vSphere® Distributed Services Engine™, basado en DPU de AMD Pensando. También estamos entusiasmados con el rápido progreso que nuestros otros socios, como Lenovo e Intel, están logrando para traer más soluciones al mercado, brindando aún más opciones para nuestros clientes.
Cuando se trata de mejorar el rendimiento de la carga de trabajo, vSphere 8 no se detiene aquí. vSphere 8 mejora los tiempos de entrenamiento del modelo AI/ML y logra niveles de rendimiento sin precedentes para los modelos más exigentes y complejos al agregar soporte para hasta 32 dispositivos NVIDIA GPU en modo Passthrough, un aumento de 4 veces en comparación con vSphere 7.Además, los equipos de desarrollo de AI/ML ahora pueden lograr niveles más altos de escalabilidad de los recursos de GPU disponibles con soporte para hasta 8 vGPU por VM, un aumento de 2 veces en comparación con vSphere 7.
Si bien Kubernetes ha obtenido una adopción generalizada como la tecnología de orquestación de contenedores de facto, las organizaciones de TI necesitan una forma simple y fácil de administrar contenedores junto con máquinas virtuales. Es por eso que VMware creó una experiencia de administración de Kubernetes optimizada que está integrada de forma nativa en vSphere. Con vSphere 8, VMware ofrece VMware Tanzu Kubernetes Grid 2.0, diseñado para ayudar a los equipos y desarrolladores de TI a abordar la creciente complejidad de los entornos de desarrollo ágiles. Esta última versión de Tanzu Kubernetes Grid agrega nueva flexibilidad y control para la creación de clústeres, la alineación de API de código abierto y capacidades mejoradas de administración del ciclo de vida de las aplicaciones.
Los equipos de DevOps dedican una cantidad significativa de tiempo a configurar los clústeres de Kubernetes. Incluso en los casos en que los servicios de infraestructura son fácilmente accesibles, están diseñados para satisfacer las necesidades de los administradores de TI y no están necesariamente integrados con el entorno de desarrollo.
Como resultado, los desarrolladores confían en los administradores de TI para proporcionar servicios de desarrollador o silos de infraestructura stand up para abordar sus necesidades. Con vSphere 8, los equipos de DevOps ahora pueden acceder fácilmente a los servicios de IaaS (como el aprovisionamiento de máquinas virtuales, redes, configuración de clústeres de Tanzu Kubernetes Grid) desde el nuevo servicio de interfaz de consumo de nube.
La interfaz de consumo de la nube simplifica la configuración de la infraestructura en todo el estado de vSphere a través de interfaces de usuario intuitivas y API fáciles de usar para desarrolladores, lo que libera tiempo que se puede dedicar a esfuerzos de desarrollo reales.
Aprovisionando Infraestructura a través de la interfaz de consumo de la nube
Con vSphere 8, las zonas de disponibilidad de Tanzu Kubernetes Grid (TKG) se pueden implementar en 3 clústeres, lo que aumenta la resiliencia general de las cargas de trabajo en contenedores ante fallas de infraestructura. La creación simplificada de clústeres ha sido posible gracias a una nueva función de API de clúster llamada Clase de clúster. Los usuarios ahora pueden crear, escalar, actualizar y eliminar clústeres, todo desde un solo lugar. El aprovisionamiento, la actualización y el funcionamiento de varios clústeres de Kubernetes ahora es un proceso declarativo simplificado. Se han introducido herramientas basadas en Carvel para permitir que los desarrolladores de aplicaciones y los operadores de plataformas desarrollen Kubernetes con confianza.
En junio de este año, VMware lanzó vSphere+, una nueva oferta de la familia vSphere, que combina tecnología de infraestructura en la nube líder en la industria, un entorno de Kubernetes listo para la empresa y servicios en la nube de alto valor para transformar las implementaciones locales existentes en Software como un Servicio (SaaS). vSphere 8 lleva estos beneficios varios pasos más allá.
Con vSphere 8, los administradores de TI pueden implementar los siguientes servicios en la nube complementarios que protegen las cargas de trabajo y optimizan la infraestructura, con más en camino.
El servicio complementario VMware Cloud Disaster Recovery impulsa la resiliencia de las cargas de trabajo de misión crítica al protegerlas de desastres y ransomware.
Protect workloads with VMware Cloud Disaster Recovery
El servicio complementario VMware vRealize Operations proporciona planificación y optimización de la capacidad para su infraestructura con el tamaño adecuado para satisfacer las necesidades actuales y futuras de sus cargas de trabajo.
Obtenga fácilmente detalles sobre el consumo de CPU, memoria y almacenamiento
vSphere 8 Green Metrics
No hay comentarios:
Publicar un comentario
Todos los derechos reservados.
Copyright © 2025.