Mostrando entradas con la etiqueta Capex. Mostrar todas las entradas
Mostrando entradas con la etiqueta Capex. Mostrar todas las entradas

viernes, 2 de septiembre de 2022

VMware vSphere 8: la plataforma de carga de trabajo empresarial

 Las cargas de trabajo están creciendo en todas partes

A medida que las organizaciones adoptan la nube, comienzan a abrir un nuevo capítulo en la era de las nubes híbridas múltiples o multinubes. Las multinube se ha convertido rápidamente en el modelo de implementación dominante. 

Según un estudio de 451 Research, el 75 % de todas las empresas tienen huellas de múltiples nubes. Muchas empresas eligen ejecutar cargas de trabajo de misión crítica en sus propios "sites" (on-premise) para aprovechar la ubicación de los datos, el rendimiento predecible de la carga de trabajo y la baja latencia de la red. 

A medida que se acumulan grandes cantidades de datos en la empresa, tienden a atraer más servicios y aplicaciones locales para minimizar la latencia, aumentar el rendimiento y maximizar el rendimiento de la carga de trabajo.


Las preferencias del modelo de consumo están evolucionando

IDC predice que para 2025, el 60 % de las empresas financiará proyectos a través de presupuestos "Operational Expenses" (OpEx). Esta tendencia es evidente en las organizaciones de Tecnologías de la Información que continúan adoptando modelos de consumo basados en la nube para servicios de infraestructura. 

Cada vez más, las líneas de negocio toman sus propias decisiones de infraestructura y servicios en función de sus necesidades únicas. El software como servicio está emergiendo rápidamente como una estrategia central que las empresas están adoptando para ahorrar tiempo y lograr objetivos más rápido. De hecho, Gartner espera que el gasto mundial en SaaS alcance los $208 mil millones de dílares para el año 2023.

Crece la demanda de servicios de infraestructura

El volumen y la complejidad de las cargas de trabajo modernas están aumentando, lo que genera una mayor demanda de servicios de infraestructura que proporcionen una funcionalidad clave subyacente para estas cargas de trabajo. La creciente demanda de servicios de infraestructura definidos por software ejerce más presión sobre los CPU, lo que deja menos ciclos de cómputo para las cargas de trabajo. 

Las clases más nuevas de aceleradores de hardware como las unidades de procesamiento de datos (Data Processing Units DPU), también conocidas como SmartNIC han sido utilizadas con éxito por los hiperescaladores para descargar y acelerar las funciones de infraestructura, liberando ciclos de CPU para ejecutar cargas de trabajo. 

A medida que las DPU se vuelven más comunes en la infraestructura, hay un número cada vez mayor de opciones de hardware de proveedores con diferentes conjuntos de capacidades. Los equipos de infraestructura de Tecnologías de la Información se enfrentan al desafío de abstraer las diferencias de hardware y presentar una interfaz de consumo uniforme a los usuarios.

Van en aumento amenazas de seguridad en el tráfico del centro de datos

Las aplicaciones modernas también se basan cada vez más en microservicios y aumentan el tráfico de red Este-Oeste dentro del centro de datos. Cuando se trata de proteger la red empresarial, los firewalls tradicionales se enfocan únicamente en el perímetro de la red, con una comprensión limitada de las topologías y los comportamientos de las aplicaciones. 

Los enfoques tradicionales de cortafuegos distribuidos requieren agentes basados en host para asegurar la red dentro del centro de datos y dan como resultado arquitecturas y operaciones de seguridad complejas. Con las cargas de trabajo y los servicios de infraestructura compartiendo un dominio, las posibilidades de que los actores malintencionados penetren en el perímetro de la red y persistan en la red son mayores.

Yo no funcionan los enfoques tradicionales para satisfacer las necesidades de la infraestructura de última generación

Agregar nueva capacidad de servidor para satisfacer la creciente demanda de infraestructura da como resultado un mayor costo total de propiedad. Los silos específicos de aplicaciones, como los servidores basados ​​en GPU para ejecutar cargas de trabajo de Inteligencia Artificial y Aprendizaje de Máquina (IA/ML), no presentan una buena escalabilidad para ejecutar cargas de trabajo de TI tradicionales. Esto da como resultado una arquitectura inflexible que conduce a complejidades operativas adicionales.

En un dominio convergente donde las cargas de trabajo se ejecutan junto con los servicios de infraestructura, la complejidad de las CPU se convierte en un único punto de falla, como lo demostraron las vulnerabilidades de seguridad de bajo nivel en el pasado reciente.

Además se espera que las organizaciones de TI brinden experiencias uniformes de consumo de infraestructura en múltiples nubes para desarrollar, implementar y mantener aplicaciones de alto rendimiento de manera rentable y segura.

¿Qué pasaría si pudiera potenciar el rendimiento de la carga de trabajo mientras escala los servicios de infraestructura en toda la empresa y reduce el costo total de la infraestructura?

¿Qué pasaría si pudiera permitir que los equipos de desarrollo aceleren su innovación y entreguen servicios IaaS directamente a sus entornos de desarrollo?

¿Qué pasaría si los beneficios de la nube estuvieran disponibles para las cargas de trabajo locales sin necesidad de levantar y cambiar?

¿Qué pasaría si pudiera administrar de manera centralizada la infraestructura local y reducir la carga operativa del mantenimiento?

Bueno, el momento de preguntarse "qué pasaría si" se acabó.

Presentamos VMware vSphere 8

VMware vSphere 8, la plataforma de carga de trabajo empresarial, brinda los beneficios de la nube a las cargas de trabajo locales, aumenta el rendimiento a través de Unidades de Procesamiento de Datos (DPU) y Unidades de Procesamiento Grádico (GPU), aceleramdo la innovación con un tiempo de ejecución integrado de Kubernetes listo para la empresa. Entremos en más detalles.

vSphere 8 marca el comienzo de una nueva era de computación heterogénea al presentar unidades de procesamiento de datos a las empresas a través de VMware vSphere Distributed Services Engine. vSphere Distributed Services Engine es el siguiente paso en la evolución de la infraestructura de la nube para las aplicaciones modernas, en el que la administración para ejecutar los servicios de infraestructura se distribuye entre la CPU y la DPU.

"vSphere Distributed Services Engine" moderniza la infraestructura de la nube en una arquitectura distribuida habilitada por las DPU para:

  • Satisfaga las necesidades de rendimiento y latencia de las cargas de trabajo distribuidas modernas acelerando las funciones de red

  • Ofrezca la mejor relación precio-rendimiento de la infraestructura proporcionando más recursos de CPU a las cargas de trabajo

  • Reduzca la sobrecarga operativa de la administración del ciclo de vida de la DPU con flujos de trabajo integrados de vSphere

"vSphere Distributed Services Engine" conserva la experiencia existente de vSphere "Day-0", "Day-1" y "Day-2", con la que los clientes están familiarizados. Es compatible con una amplia variedad de DPU de los principales proveedores (NVIDIA y AMD) así como diseños de servidor OEM (Dell, HPE).

"Distributed Services Engine" descarga y acelera los Switches Distribuidos vSphere y redes con NSX en la DPU, con servicios adicionales a seguir en el futuro. Así que, de inmediato, esto beneficiará a los clientes que ejecutan aplicaciones que demandan un gran ancho de banda de red y un rápido acceso a la memoria caché, como las bases de datos en memoria.

En estudios de evaluación comparativa interno que ejecuta Redis en un host habilitado para DPU, logró un 36 % más de rendimiento junto con una reducción del 27 % en la latencia de las transacciones. En otro escenario, un host habilitado para DPU logró un rendimiento similar al de un sistema sin DPU, con un 20 % menos de núcleos de CPU. Estos potentes resultados muestran cómo vSphere 8 permite a los clientes reducir el costo total de la informática y mejorar el rendimiento de la carga de trabajo.


Además, con vSphere 8, los administradores de TI pueden reducir la sobrecarga de las DPU operativas en la infraestructura al aprovechar los flujos de trabajo integrados de vSphere para administrar el ciclo de vida y monitorear el rendimiento.

Estamos asombrados al notar que los socios tecnológicos de VMware han producido soluciones integrales listas para el mercado. Hoy, Dell Technologies anunció el lanzamiento de soluciones de software SmartDPU en la plataforma VxRailTM con una selección de DPU de AMD Pensando y NVIDIA. HPE anunció el lanzamiento de HPE ProLiant con VMware vSphere® Distributed Services Engine™, basado en DPU de AMD Pensando. También estamos entusiasmados con el rápido progreso que nuestros otros socios, como Lenovo e Intel, están logrando para traer más soluciones al mercado, brindando aún más opciones para nuestros clientes.


Cuando se trata de mejorar el rendimiento de la carga de trabajo, vSphere 8 no se detiene aquí. vSphere 8 mejora los tiempos de entrenamiento del modelo AI/ML y logra niveles de rendimiento sin precedentes para los modelos más exigentes y complejos al agregar soporte para hasta 32 dispositivos NVIDIA GPU en modo Passthrough, un aumento de 4 veces en comparación con vSphere 7.

Además, los equipos de desarrollo de AI/ML ahora pueden lograr niveles más altos de escalabilidad de los recursos de GPU disponibles con soporte para hasta 8 vGPU por VM, un aumento de 2 veces en comparación con vSphere 7.


Si bien Kubernetes ha obtenido una adopción generalizada como la tecnología de orquestación de contenedores de facto, las organizaciones de TI necesitan una forma simple y fácil de administrar contenedores junto con máquinas virtuales. Es por eso que VMware creó una experiencia de administración de Kubernetes optimizada que está integrada de forma nativa en vSphere. Con vSphere 8, VMware ofrece VMware Tanzu Kubernetes Grid 2.0, diseñado para ayudar a los equipos y desarrolladores de TI a abordar la creciente complejidad de los entornos de desarrollo ágiles. Esta última versión de Tanzu Kubernetes Grid agrega nueva flexibilidad y control para la creación de clústeres, la alineación de API de código abierto y capacidades mejoradas de administración del ciclo de vida de las aplicaciones.

Los equipos de DevOps dedican una cantidad significativa de tiempo a configurar los clústeres de Kubernetes. Incluso en los casos en que los servicios de infraestructura son fácilmente accesibles, están diseñados para satisfacer las necesidades de los administradores de TI y no están necesariamente integrados con el entorno de desarrollo. 

Como resultado, los desarrolladores confían en los administradores de TI para proporcionar servicios de desarrollador o silos de infraestructura stand up para abordar sus necesidades. Con vSphere 8, los equipos de DevOps ahora pueden acceder fácilmente a los servicios de IaaS (como el aprovisionamiento de máquinas virtuales, redes, configuración de clústeres de Tanzu Kubernetes Grid) desde el nuevo servicio de interfaz de consumo de nube. 

La interfaz de consumo de la nube simplifica la configuración de la infraestructura en todo el estado de vSphere a través de interfaces de usuario intuitivas y API fáciles de usar para desarrolladores, lo que libera tiempo que se puede dedicar a esfuerzos de desarrollo reales.


Aprovisionando Infraestructura a través de la interfaz de consumo de la nube

Con vSphere 8, las zonas de disponibilidad de Tanzu Kubernetes Grid (TKG) se pueden implementar en 3 clústeres, lo que aumenta la resiliencia general de las cargas de trabajo en contenedores ante fallas de infraestructura. La creación simplificada de clústeres ha sido posible gracias a una nueva función de API de clúster llamada Clase de clúster. Los usuarios ahora pueden crear, escalar, actualizar y eliminar clústeres, todo desde un solo lugar. El aprovisionamiento, la actualización y el funcionamiento de varios clústeres de Kubernetes ahora es un proceso declarativo simplificado. Se han introducido herramientas basadas en Carvel para permitir que los desarrolladores de aplicaciones y los operadores de plataformas desarrollen Kubernetes con confianza.


En junio de este año, VMware lanzó vSphere+, una nueva oferta de la familia vSphere, que combina tecnología de infraestructura en la nube líder en la industria, un entorno de Kubernetes listo para la empresa y servicios en la nube de alto valor para transformar las implementaciones locales existentes en Software como un Servicio (SaaS). vSphere 8 lleva estos beneficios varios pasos más allá.


Con vSphere 8, los administradores de TI pueden implementar los siguientes servicios en la nube complementarios que protegen las cargas de trabajo y optimizan la infraestructura, con más en camino.

El servicio complementario VMware Cloud Disaster Recovery impulsa la resiliencia de las cargas de trabajo de misión crítica al protegerlas de desastres y ransomware.

Protect workloads with VMware Cloud Disaster Recovery


El servicio complementario VMware vRealize Operations proporciona planificación y optimización de la capacidad para su infraestructura con el tamaño adecuado para satisfacer las necesidades actuales y futuras de sus cargas de trabajo.

Obtenga fácilmente detalles sobre el consumo de CPU, memoria y almacenamiento



Los administradores de TI dedican mucho tiempo a actualizar y mantener la infraestructura. Aunque las operaciones regulares de mantenimiento ayudan a garantizar el tiempo de actividad y la disponibilidad, le quitan tiempo a la ejecución de aplicaciones críticas para el negocio. vSphere 8 optimiza las ventanas de mantenimiento al preparar previamente las descargas de imágenes de ESXi y realizar actualizaciones simultáneas en los hosts, lo que permite que los equipos regresen más rápido a las operaciones regulares.

Con el crecimiento de las cargas de trabajo locales y perimetrales, la ubicación inicial y la migración son aspectos críticos que ayudan a los equipos de infraestructura a maximizar la disponibilidad del servicio, equilibrar la utilización y minimizar el tiempo de inactividad. vSphere 8 ofrece una importante actualización de vSphere Distributed Resource Scheduler y vMotion. Distributed Resources Scheduler ahora tiene en cuenta el uso de la memoria de la carga de trabajo en las decisiones de ubicación. Ahora puede colocar las cargas de trabajo de manera más óptima al tener en cuenta las necesidades de memoria de las cargas de trabajo.

vMotion ahora es compatible con la migración de máquinas virtuales que se ejecutan en hosts compatibles con Intel Scalable I/O Virtualization (Intel SIOV). Las cargas de trabajo ahora pueden disfrutar simultáneamente de los beneficios del rendimiento y la movilidad de transferencia SIOV en toda la infraestructura de vSphere.

Según un estudio de IDC, el 65 % del PIB mundial estará digitalizado para 2022. El estudio de IDC señala que se espera que Global Data Sphere se duplique entre 2022 y 2026. A medida que la huella de la informática sigue creciendo, muchas empresas están empezando a pensar en formas sostenibles de operar la infraestructura. VMware ha dado el primer paso para ayudar a las empresas a desarrollar estrategias informáticas sostenibles. vSphere 8 presenta Green Metrics, que lo ayudan a rastrear la energía consumida por las cargas de trabajo y las operaciones de infraestructura. Este es solo el primer paso para ayudar a los clientes a darse cuenta del potencial y las oportunidades para reducir su huella de carbono mientras cumplen los objetivos comerciales.

vSphere 8 Green Metrics


martes, 15 de enero de 2019

Juego de Nubes: Se acerca un desenlace

Las cargas de trabajo "Nacido en La Nube" pudieron haber sido diseñadas para ser agnósticas de la plataforma, pero eso no significa que siempre será así ya que los "hiperescaladores" como Amazon Web Services y Microsoft Azure continúan agregando funcionalidades específicas y únicas a sus respectivos servicios.

En 2013 y 2014 discutíamos acerca del "Juego de servicios" y cómo, al igual que en la serie de fantasía épica de HBO "Juego de Tronos" que se ha desarrollado durante varias temporadas, han habido distintos capítulos en la evolución de La Nube del consumidor.

Para resumir: la evolución de La Nube del consumidor ha ido de la mano y se ha vinculado a los servicios que los principales actores de la industria (Apple, Google, Microsoft y Amazon) ofrecen para quien deciden alojar sus cargas de trabajo en ellos, creando diferenciadores entre sí.

El Primer  Capítulo de "Game of Services" fue sobre las plataformas de sistemas operativos móviles y que quedaría en pie. Ahora sabemos quienes ganaron: Apple y Google.

El Segundo Capítulo versaba sobre los servicios en sí mismos, lo que "Las Casas" tenían que ofrecer en términos de almacenamiento en La Nube, aplicaciones, mensajería, contenido (música/video/libros) y cómo estos continuarían evolucionando.

El Tercer Capítulo trata acerca de la contienda de las Interfaces de Programación para las Aplicaciones (API), hacia los servicios en La Nube pública de los consumidores. Google y Facebook en su mayor parte, siguen siendo Las Nubes para consumidores más importantes y el acceso a esas API, sigue siendo un objetivo en constante movimiento.

¿Cuál es el cuarto capítulo? La evolución de la empresa/nube comercial. Estamos hablando de "hiperscaladores" de La Nube pública como Amazon Web Services, Microsoft Azure, Google Cloud Platform y en menor medida, IBM Cloud.

Hasta ahora, las cargas de trabajo de La Nube empresarial se clasifican como IaaS (Infraestructura como servicio), PaaS (Plataforma como servicio), SaaS (Software como servicio) o una mezcla de los tres. Las cargas de trabajo que están diseñadas para ejecutarse en La Nube desde el primer día a menudo se denominan cargas de trabajo "Nacidas en La Nube", mientras que las cargas de trabajo cliente-servidor tradicionales (segunda plataforma) que se originan en los centros de datos locales que se trasladan a La Nube, son cargas de trabajo migradas a La Nube.

Mientras que cuando combinamos La Nube Pública y la Privada, dividiendo así entre La Nube y las instalaciones locales, tenemos lo que se llama una Arquitectura de Nube Híbrida.

En su mayor parte, Las Nubes empresariales/comerciales han alojado servicios que podrían considerarse productos básicos o intercambiables. Las máquinas virtuales, el almacenamiento y las redes son servicios fundamentales de IaaS que en esencia son efectivamente los mismos entre los principales "hiperescaladores", así como entre los principales actores a los que se ha valorado igual, y que ahora van en carrera descendente.

Los contenedores que se ejecutan en estándares de empaquetado de aplicaciones de código abierto como Docker, y que usan sistemas de orquestación como Kubernetes, son la próxima generación de cómputo y eso también se está convirtiendo en un producto básico, además de que han resultado ser más baratos y mucho más fáciles de escalar que las máquinas virtuales. Si tiene una aplicación basada en Docker en una Nube Pública, es bastante trivial portarla a otra Nube Pública con servicios de hosting de "contenedorización" similares.

Los "hiperscaladores" pueden intentar diferenciarse en rendimiento y algunas otras cosas, pero a un nivel fundamental, IaaS es IaaS y los Contenedores son Contenedores. Ya sea que lo ejecute en AWS, Azure o Google Cloud.

SaaS y PaaS es donde realmente ocurre la diferenciación en La Nube comercial. Para una empresa como Microsoft, sus SaaS como Office 365, PowerBI, Dynamics, SharePoint, Teams y Skype for Business son cosas que lo diferencian del resto de la industria. Estas son plataformas de aplicaciones que ya tienen una importante cuota de mercado con las instalaciones locales, por lo que mover a los clientes a versiones alojadas de estas basadas en La Nube no representa un gran reto. Podemos decir pues que SaaS es un negocio natural para la transición desde sus instalaciones heredadas.

Estas cargas de trabajo ya son muy rígidas porque están vinculadas al mecanismo de autenticación de Active Directory de Microsoft, que es una tecnología fundamental para los entornos basados ​​en Microsoft. Estos clientes ya están bloqueados, pero no es como si estuvieran tratando de salir de estas plataformas de aplicaciones de todos modos, porque realmente no hay muchas alternativas buenas para ellos.

Platform as a Service tiene todo tipo de servicios de aplicaciones terminadas, como bases de datos alojadas y sistemas de aprendizaje automático que se facturan de forma transaccional. Estos sistemas, cuando se combinan con PaaS basado en contenedores, permiten a los clientes empresariales construir sistemas altamente escalables que de otro modo serían de costo prohibitivo implementar en IaaS y se pueden aprovisionar a pedido.

Hasta ahora, muchos de estos sistemas se han construido en plataformas de código abierto como Hadoop o MongoDB. Pero ahora estamos empezando a ver a los proveedores de Nube de hiperescala, construir sus propios servicios back-end altamente escalables que son compatibles pero que no son lo mismo que sus homólogos de código abierto.

Un ejemplo de ello es DocumentDB, un servicio de base de datos alojado que es compatible con la API de MongoDB pero que no utiliza ningún código real de MongoDB, que Amazon lanzó esta semana en AWS.

Por ahora uno puede crear aplicaciones en AWS, utilizando IaaS y sistemas basados ​​en contenedor y respaldarlas en DocumentDB, para que en una fecha posterior devolverlas a las instalaciones locales o incluso a otra Nube de hiperescala que compita, como Microsoft Azure o Google. Esto es Plataforma en la Nube, pero este puede no ser el caso por tiempo indefinido.

Hoy en día muchos de estos servicios alojados usan APIs que son compatibles con sus contrapartes de código abierto. Por lo tanto, el código es portátil; no está atascado en ese proveedor de Nube.

Esto no es completamente diferente de, por ejemplo, el problema clásico de la transferencia de una base de datos basada en SQL a otra, siempre que estén codificadas según las especificaciones ANSI SQL. En ese nivel de compatibilidad, no importa si una base de datos comenzó en Oracle, luego puede moverla a IBM DB2 o incluso a Microsoft SQL Server.

Pero a medida que estos servicios se convierten en productos básicos, como lo hicieron IaaS para el cómputo y el almacenamiento. Los proveedores de La Nube agregarán sus propias mejoras de características que inevitablemente, se diferenciarán de las contrapartes de código abierto. Es bien sabido que a los desarrolladores de software les encanta aprovechar las nuevas funciones, especialmente si pueden aumentar el rendimiento, mejorar la escalabilidad y ahorrar dinero en costos transaccionales o computacionales.

Esa es una de las razones por las que se están moviendo a PaaS, en "contenedorización" y microservicios en La Nube. En primer lugar, para crear verdaderas aplicaciones "Nacido en La Nube". Además pueden centrarse en ejecutar una plataforma de aplicaciones y su código en lugar de preocuparse por la infraestructura subyacente. IaaS es realmente solo un paso intermedio hacia La Nube para transformar las cargas de trabajo, ya que aún debe preocuparse por mantener al sistema operativo.

Pero como hemos observado a menudo con los clientes, si se termina poniendo lógica empresarial en procedimientos almacenados y activadores en una plataforma de base de datos, en particular para aprovechar las optimizaciones de rendimiento, puede terminar teniendo verdaderos dolores de cabeza de compatibilidad.

En esos casos ya no es tan fácil pasar, por ejemplo, de Oracle a IBM DB2. Podría terminar costándonos una gran cantidad de tiempo de desarrollo de software (y dinero) para mover esa lógica de negocios fuera de la base de datos, de modo que pueda trasladarse de una plataforma a otra.

A modo de ejemplo, nos viene a la mente un cliente bancario de IBM tenía 800 procedimientos almacenados y activadores en Oracle, lo que les habría costado millones eliminarlos y mover la lógica a middleware en J2EE. Aunque DB2 hubiera sido más barato que Oracle en términos de licencias, los costos de desarrollo de software hubieran sido mucho más caros. Terminaron simplemente apegándose a Oracle, pero cambiándolo a un sistema operativo y plataforma de hardware diferentes (IBM AIX y POWER) para obtener el rendimiento que necesitaban. Al final se vieron atados y encerrados a esa base de datos.

Podríamos ver muy bien que esto suceda con Nubes de "hiperescala". Claro que DocumentDB es compatible con MongoDB ahora. Pero, ¿quién puede decir que dentro de cinco años las API serán idénticas? Y DocumentDB es solo un servicio en La Nube. Una aplicación altamente escalable, nacida en La Nube podría estar diseñada para aprovechar una docena o más de servicios de Nube que son específicos de ese proveedor de Nube. Todo lo cual está en constante evolución y obteniendo nuevos conjuntos de características.

¿Cuántos servicios tiene, digamos, Microsoft Azure en su cartera? Dejamos de contar hace mucho tiempo. Claro, muchos de ellos utilizan estándares de código abierto, pero ¿cuántos de ellos no lo hacen? ¿Por cuánto tiempo estos servicios compatibles con Open Source permanecerán completamente de esa manera? A medida que AWS, Microsoft y Google Cloud e IBM se vuelven mucho más competitivos entre sí, es probable que no lo sean.

Cuanto más se pierda el control de la infraestructura, mueva su enfoque en ejecutar estrictamente el código de su aplicación y tenga que depender de una plataforma de alojamiento, mayor será la posibilidad de que esa plataforma se vuelva pegajosa, que es precisamente lo que desean los proveedores de "hiperescala" como AWS y Microsoft.

Ellos quieren que te quedes. Quieren que continúes comprando ciclos y transacciones. No quieren que te muevas de sus Nubes. Los sistemas SaaS como Office 365, Workday y Salesforce son, obviamente, de lo mas pegajosos.

Esto realmente no es diferente de tener plataformas de software locales, que son propietarias y utilizan código que no se puede trasladar fácilmente a otra plataforma. La diferencia es que, en lugar de otorgar licencias a estas plataformas, usted está alquilando tiempo en ellas, lo que prefieren los contadores en su organización, porque es un gasto operativo (OPEX) y no un gasto de capital (CAPEX).

Por lo tanto, ciertamente puede diseñar sistemas basados ​​en La Nube que sean bastante autónomos y portátiles. Pero puede que no sea financieramente viable hacerlo a largo plazo. Los servicios en La Nube terminados serán más económicos de lo que puede alojar en máquinas virtuales de IaaS o incluso en contenedores. Con PaaS, la compensación será en última instancia el rendimiento, las características y el costo en comparación con la portabilidad.

¿Es inevitable el bloqueo de La Nube, a medida que dependemos más de los servicios en La Nube terminados? Usted tiene la respuesta y la última palabra.

viernes, 16 de febrero de 2018

Conoce a INFINIDAT

Incluso después de décadas de avances industriales y tecnológicos, todavía no existe una solución de almacenamiento universal e integrada que pueda reducir el riesgo, permitir la rentabilidad, eliminar la complejidad e integrarse sin problemas en la forma en que las empresas operan y administran los datos a gran escala.

Para alcanzar estos objetivos, existen capacidades que se requieren para lograr los mejores resultados al menor costo. Estas capacidades incluyen disponibilidad, confiabilidad, rendimiento, densidad, capacidad de administración e integración del ecosistema con las aplicaciones.

La huella de datos de la humanidad ha explotado. Big Data, Analíticos, La Nube, Internet de las Cosas, las Redes Sociales y más, impulsan el crecimiento exponencial de los datos. Hoy capturar, almacenar y analizar datos a esta escala presenta un conjunto único de desafíos para las organizaciones. Por mejores esfuerzos que se lleven a cabo, sigue resultando demasiado costoso, fundamentalmente no confiable, difícil mantener un rendimiento óptimo, amén de consumir demasiada superficie y energía. Como resultado, las modernas infraestructuras de almacenamiento se han convertido en un mosaico de soluciones puntuales, concesiones y compromisos.

INFINIDAT supera estos desafíos al proporcionar un rendimiento excepcional y confiabilidad extremadamente alta. INFINIDAT ofrece la mayor densidad de almacenamiento y está diseñado para almacenar grandes cantidades de datos en una metro cuadrado, a un precio disruptivo que permite a las empresas ser más competitivas.

La arquitectura importa

Las organizaciones tienen conflictos sobre la mejor manera de lograr una alta confiabilidad y un rendimiento óptimo en lo que respecta a sus datos. INFINIDAT ha desarrollado una arquitectura de almacenamiento que cuenta con más de 100 innovaciones patentadas y pendientes de patente. No es suficiente simplemente ofrecer el mejor rendimiento, confiabilidad, escalabilidad o capacidad de administración.

La arquitectura del sistema debe maximizar estas características y permitir a las empresas alcanzar todos sus objetivos, sin verse comprometidas por el almacenamiento. INFINIDAT ofrece estas capacidades en su Matriz de Almacenamiento probada para la empresa, InfiniBox™. InfiniBox™ ofrece más de un millón de operaciones de Entrada y Salida por segundo (1M IOPS), 99.99999% de confiabilidad, así como una escalabilidad a múltiples petabytes de capacidad efectiva, en un solo rack.

INFINIDAT ha desarrollado una revolucionaria arquitectura de almacenamiento. InfiniBox™ está diseñado pensando en la potencia de tres, con redundancia N+2 para todos los componentes y una arquitectura de red que permite un rendimiento y fiabilidad superiores. InfiniBox™ consta de componentes estándar de la industria que se combinan con un software probado.

La arquitectura del software de almacenamiento central presenta un innovador algoritmo similar a RAID, que es escalable y ofrece un esquema RAID de doble paridad, que resuelve los desafíos tanto de rendimiento como de reconstrucción de las unidades de alta capacidad. Además, esta arquitectura ofrece una eficiente administración de datos en memoria, SSD optimizado para flash y dispersión automática de datos sin "hotspots". Estas capacidades permiten a InfiniBox™ ofrecer rendimiento, confiabilidad y escalabilidad.

La arquitectura INFINIDAT ofrece la única solución de almacenamiento verdadera, unificada y altamente disponible, sin complementos complejos y costosos incluido el soporte para SAN, NAS y protocolos de mainframe.

Esta arquitectura es compatible con los objetivos de la organización, incluido el acceso a los datos y la disponibilidad bajo demanda, el aumento de la capacidad y el rendimiento de escalabilidad, todo al mismo tiempo en que se reducen los gastos de capital (CAPEX) y los gastos de funcionamiento (OPEX).

La energía, la refrigeración y la huella del centro de datos son variables adicionales que continúan siendo una pérdida de costos, independientemente de la llegada de tecnologías de consumo más densas y de menor consumo como NL-SAS y SSD. Los centros de datos de las organizaciones se están quedando literalmente sin espacio ni energía, lo que hace imperativo que se construyan nuevas instalaciones a un gran costo.

Los proveedores de abolengo en el mercado, prometen una reducción en el espacio físico a través de la consolidación, pero en realidad nunca se llega a los números prometidos. InfiniBox™ ofrece tanto como una consolidación de 30:1 para los clientes, garantizando la consolidación en el centro de datos y espacio para crecer en el futuro.

El InfiniBox también ayuda a los clientes a promover sus iniciativas ecológicas al permitir reducciones en el consumo de energía del centro de datos, otro resultado prometido a menudo, pero que nunca suministran los proveedores tradicionales de almacenamiento. InfiniBox™ hace posible estos ahorros mediante la consolidación, debido a su escala y su bajo consumo de energía de 8kW de potencia (o tan solo 4 watts por TB utilizable).

Desempeño

Cada matriz InfiniBox™ ofrece un rendimiento consistente y excepcional con baja latencia a través del uso de una serie de principios de diseño patentados. En primer lugar, todos los nodos InfiniBox™ están activos y las cargas de trabajo de servicio se realizan en paralelo. En segundo lugar, InfiniBox™ emplea tanto como 3TB de DRAM y una gran cantidad de SSD. Todos los datos se dividen en objetos granulares y los objetos más populares, se guardan en caché para un rendimiento rápido. El objetivo es servir todas las lecturas de la memoria caché mientras se reserva el ancho de banda de fondo para las operaciones secuenciales de transmisión. Finalmente los datos se dispersan ampliamente de forma secuencial en todas las unidades del sistema, paralelizando eficazmente las Entradas/Salidas en una gran cantidad de componentes.

Disponibilidad y confiabilidad

La disponibilidad de los datos es esencial para nuestro diseño. InfiniBox está diseñado para instalarse una vez y nunca dejar de servir datos durante su vida útil. Todas las actualizaciones de código se realizan de forma no disruptiva en línea y no hay operaciones de mantenimiento que requieran desconectar el sistema. Como tal, InfiniBox proporciona 99.99999% de disponibilidad (solo tres segundos de tiempo de inactividad por año) frente a 99.999% para las tecnologías existentes, lo que hace que InfiniBox sea 100 veces más confiable.

Si bien la redundancia N+1 en las tecnologías existentes puede haber sido apropiada para algunas aplicaciones de grupos de trabajo, es fundamentalmente inaceptable para aplicaciones empresariales modernas, en las que una interrupción del servicio puede tener un impacto profundamente negativo en las operaciones comerciales. InfiniBox™ evita el hardware personalizado, la ruta de datos de doble controlador y las protecciones RAID dataunaware, a favor del hardware estándar de la industria y la potencia de triple redundancia.

Las patentes exclusivas incluyen formas de emplear una amplia dispersión de datos y protección de doble paridad, un enfoque de escritura estructurada de registro, uso masivo paralelo de recursos y bloques de datos de 64 KB, permitiendo a InfiniBox™ escribir siempre secuencialmente en un disco giratorio, maximizando el rendimiento y la longevidad del disco giratorio, independientemente de los patrones de datos de Entrada/Salida del host. La plataforma central INFINIDAT elimina los puntos calientes del disco y cualquier necesidad de políticas de datos escalonadas o ajuste del rendimiento, que generalmente se ven en las plataformas de almacenamiento convencionales. La plataforma proporciona la base para manejar petabytes de capacidad utilizable, bajo cargas de trabajo de producción pesadas, ofrece mecanismos de autocuración ridículamente rápidos (15 minutos o menos) para escenarios simultáneos de fallas de doble disco y produce un rendimiento consistente bajo cualquier condición.

La plataforma de software de almacenamiento de INFINIDAT también incluye una instantánea de latencia cero y un motor de replicación. Esta capacidad permite instantáneas virtualmente ilimitadas por volumen a través de cualquier protocolo, sin afectar el rendimiento, incluso cuando el sistema está 100% cargado. A diferencia de los sistemas tradicionales que tardan cientos de milisegundos en tomar una instantánea, lo que ralentiza temporalmente el rendimiento, INFINIDAT con su mecanismo patentado de snapshot basado en timestamp, admite tasas de instantáneas muy altas sin bloqueo de memoria caché compartida y, por lo tanto, no afecta el rendimiento. Además, la replicación remota de InfiniBox™ utiliza diferenciales en la instantánea para escribir los cambios en una plataforma InfiniBox™ remota. Como las instantáneas de INFINIDAT son realmente instantáneas, los objetivos del punto de recuperación y del tiempo de recuperación son algunos de los más bajos de la industria: 4 segundos de RPO.

Eficiencia

Los sistemas INFINIDAT tienen un 72% de capacidad eficiente y no utiliza la tradicional técnica del repuesto dinámico, entregando siempre el rendimiento disponible y la confiabilidad al usar el 2% de cada unidad como espacio libre. El espacio restante se usa para objetos de paridad y objetos de metadatos.

INFINIDAT también ha desarrollado una arquitectura de compresión que le permite almacenar más datos en el InfiniBox™, sin ningún impacto en la latencia de Entrada/Salida. Como resultado, la plataforma InfiniBox™ se encuentra entre las plataformas más eficientes del mercado hoy en día, siempre ofreciendo capacidad y rendimiento incluso cuando está 100% cargado, frente a los sistemas de almacenamiento tradicional que no pueden ofrecer rendimiento y funciones avanzadas, cuando se carga al 70-80%.

Calidad

Todos los componentes de InfiniBox™ se prueban y se graban durante tres semanas en el laboratorio automatizado de control de calidad de 120PB de INFINIDAT, antes de su entrega a un cliente. INFINIDAT invirtió en la construcción de uno de los laboratorios de QA más grandes y avanzados de la industria, para garantizar el más alto nivel de calidad del producto. El laboratorio de control de calidad de INFINIDAT utiliza hardware disponible en el mercado, que ahorra validación de hardware específica y aumenta la calidad, a medida que se utilizan componentes estándar ampliamente implementados.

El laboratorio permite la prueba de componentes a escala y proporciona comentarios significativos. Esto es cada vez más importante a medida que los datos continúan creciendo. Mediante el uso de pruebas y hardware estándar de la industria, INFINIDAT puede ofrecer la mejor economía y soporte global, asegurando que los clientes obtengan las plataformas probadas y rentables, más recientes disponibles.

Simplicidad y administrabilidad

InfiniBox™ ofrece una REST API completa, lo que permite a los clientes administrar de manera rápida y eficiente los sistemas InfiniBox™. La API de InfiniBox™ permite a los clientes tener acceso completo a las características y funciones tales como una interfaz gráfica de usuario basada en HTML-5, que es fácil de usar y una interfaz de línea de comandos de plataforma cruzada.

InfiniBox™ es impulsado por la simplicidad, lo que permite una administración de almacenamiento intuitiva, sin entrenamiento y eficiente. InfiniBox™ puede configurar de forma nativa volúmenes de thin provisioned y tamaños de sistema de archivos que comienzan desde 1 GB, hasta un máximo de más de un exabyte con thin provisioning o cualquier otro medio.

Ecosistema de aplicación e integración

El equipo de INFINIDAT sabe que las aplicaciones crean las soluciones que impulsan el éxito de una organización. La integración del almacenamiento y las aplicaciones para proporcionar aprovisionamiento y administración de datos, permite que las eficiencias se realicen en todo el negocio.

Los administradores de aplicaciones pueden administrar sus entornos dentro de sus plataformas de aplicaciones existentes, reduciendo el tiempo para entregar soluciones dentro de sus entornos. Por ejemplo, con la integración de INFINIDAT VMware, el aprovisionamiento de una Máquina Virtual directamente desde vCenter o la recuperación de una sola de éstas a partir de una instantánea, es simple y se puede hacer sin tener que utilizar herramientas complejas y costosas de terceros. Nuestro soporte certificado se extiende desde plataformas de virtualización como VMware, a algunos de los entornos de Big Data más grandes con SAP HANA y soluciones de protección de datos, como CommVault.

Resumen

El mundo está cambiando a un ritmo extremadamente rápido en estos días y uno de los principales impulsores de ese cambio son los datos. Las organizaciones lo necesitan no solo para prosperar, sino para sobrevivir. Se requiere que los datos sean leídos más rápidos y cuantas más veces se leen, más valiosos se vuelven. Eso significa que los datos ya no pueden descartarse. Las empresas de hoy en día deben pensar en almacenar datos a gran escala.

Los sistemas tradicionales tienden a descomponerse a medida que aumentan de escala, lo que requiere compras no planificadas y lo que es más importante, no presupuestadas. Las soluciones de nicho están surgiendo y creando silos adicionales de costo, complejidad y administración dentro del centros de datos, que se suman a los desafíos del personal y la economía de la organización. Se necesita una plataforma de almacenamiento única para manejar los datos a escala.

La innovación en las compañías de almacenamiento ha resultado difícil en las mejores circunstancias, porque el margen de error es muy pequeño, por lo que para asegurar el éxito las compañías de abolengo han estado entregando las mismas plataformas durante décadas. A lo largo de los años, el equipo de INFINIDAT, que consta de tres generaciones de desarrolladores de almacenamiento, ha establecido un historial de creación de tecnologías de almacenamiento de que han cambiado el curso de la industria del almacenamiento, generando un enorme valor para los clientes. De hecho es probable que el equipo haya desarrollado la mayoría de las soluciones de almacenamiento que se encuentran actualmente en los centros de datos de las organizaciones.

INFINIDAT rodea la organización de desarrollo central con QA automatizado y un
excepcional equipo de atención al cliente, para que antes y después de la venta se brinde el soporte y los servicios profesionales que los clientes empresariales exigentes, esperan de sus socios tecnológicos.

INFINIDAT hace posibles nuevas cosas con el poder de los datos. Cuando TI aprovecha la tecnología de INFINIDAT, puede aprovechar cantidades de información que anteriormente no eran prácticas. Hoy nuestros Clientes han eliminado una función de limitaba a TI, restringiendo a las demás áreas en cuanto a capacidad de almacenamiento de información y costo de éstas. Al aprovechar la solución INFINIDAT, las organizaciones pueden habilitar nuevos modelos comerciales, la mayoría de los cuales aún no se han soñado.

¿Su empresa u Organización aún se ven limitadas por la cantidad y/o la velocidad de lectura/escritura de sus datos?