Mostrando entradas con la etiqueta Infrastructure. Mostrar todas las entradas
Mostrando entradas con la etiqueta Infrastructure. Mostrar todas las entradas

miércoles, 13 de junio de 2018

Suse no es solo un Sistema Operativo...

Cierto. Para muchos de nosotros desde los ya algo lejanos fines de los años noventa, Suse Linux es sinónimo de un Sistema Operativo seguro, confiable, escalable y digno de ser la plataforma para nuestros sistemas físicos o virtuales.

Pero con la evolución de las Tecnologías de la Información, Suse añadió más y muy poderosos productos y opciones para que nuestro Centro de Datos evolucione y que nos transporte de manera segura, confiable y escalable a la Transformación Digital.

Vamos a comenzar entonces con la Evolución de los Ambientes de Ejecución para Aplicaciones. Por definición, los contenedores son paquetes de elementos que permiten ejecutar una aplicación determinada en cualquier Sistema Operativo. ¿Cualquier Sistema Operativo? Hoy sí. Cierto que el concepto de Contenedor comenzó en Linux, pero por su versatilidad y por su comprobada efectividad, sistemas operativos como Microsof Windows se han dado a la tarea de entrar a esta tendencia.

Se utilizan para garantizar que una determinada aplicación se ejecute correctamente cuando cambie su entorno, sin dar fallos de ningún tipo. En cierto modo se asemeja a la tecnología de virtualización, aunque se puede decir que funcionan en un plano menor.

El uso de contenedores de software ha proliferado en los últimos años porque resultan útiles y ágiles para migrar cualquier desarrollo de una plataforma a otra. Si se desarrolla software y se desea pasarlo de un servidor instalado en un centro de datos a una máquina virtual que funciona en una nube pública, tal vez el código no termine de funcionar del todo bien en su nuevo entorno. Lo mismo ocurre al migrar una aplicación del sistema operativo "A" a producción, en el sistema "B".

Si ese software desarrollado se coloca en un contenedor, es posible llevarlo al sistema que más convenga. Las diferencias que tienen los sistemas operativos y que hacen que la aplicación no funcione del todo bien al cambiar de entorno desaparecen. El contenedor actúa como una funda para el software que lo habilita para funcionar dentro del nuevo entorno. Solo hay que empaquetar el código y las herramientas que lo acompañen dentro de un contenedor.

Mientras que una Máquina Virtual, que contiene un Sistema Operativo completo, así como los aplicativos ejecutándose sobre éste requiere de un Hipervisor para poder ejecutarse, en el caso de los contenedores cada uno de éstos sólo requiere de un elemento que genere una capa de abstracción en contacto directo con el Kernel, para que entonces el contenedor pueda ejecutarse.

Ese software, como es el caso de Docker, automatiza el despliegue de aplicaciones dentro de contenedores de software, proporcionando una capa adicional de abstracción y automatización a nivel de sistema operativo en Linux.​ Docker utiliza características de aislamiento de recursos del kernel Linux, tales como cgroups y espacios de nombres (namespaces) para permitir que "contenedores" independientes se ejecuten dentro de una sola instancia de Linux, evitando la sobrecarga de iniciar y mantener máquinas virtuales.​

El Cómputo en La Nube nos ha dejado a todos y cada uno de nosotros una enorme lección, sea en su modalidad Privada o Pública. Al final todo es mejor cuando lo ofrecemos a nuestros Usuarios o Clientes Finales, como un Servicio.

Infraestructura como un Servicio (IaaS), Plataforma como un Servicio (PaaS) y Software como un Servicio (SaaS) son los tres pilares fundamentales para la Nube, pero nuevamente, con la rápida adopción de La Nube y la aún más rápida evolución de las Tecnologías de la Información, ahora también se hizo necesario y útil, contar con Contenedores como un Servicio.

La plataforma CaaS de SUSE es una solución de gestión de contenedores de clase empresarial que permite a profesionales de DevOps y TI implantar, gestionar y ampliar con más facilidad aplicaciones y servicios basados en contenedores. Como resultado, las empresas pueden reducir los tiempos del ciclo de entrega de aplicaciones y mejorar la agilidad del negocio.

La plataforma CaaS de SUSE le ayuda a lograr un plazo de rentabilización más rápido, así como a simplificar la gestión y el control de su plataforma de contenedores, y a maximizar la rentabilidad de su inversión.

La plataforma CaaS de SUSE se implanta como un clúster de nodos de servidor, cada uno de los cuales se ha diseñado para alojar varios contenedores como cargas de trabajo. Cada nodo debe, por lo tanto, reunir los requisitos mínimos para ejecutar el software de la plataforma CaaS, y también debe cumplir con los requisitos de disco y memoria adicionales de los contenedores que se ejecutarán simultáneamente en el nodo.

Como mínimo, cada servidor físico que se incluya en el clúster de la plataforma CaaS debe cumplir los siguientes requisitos del sistema:

Procesador:
  • Cualquier procesador AMD64/Intel* EM64T
    Se recomiendan procesadores de cuatro núcleos
    Los procesadores de 32 bits no son compatibles

Memoria:
  • 8 GB de memoria RAM física por nodo
    Los requisitos de memoria adicional están determinados por los contenedores que se ejecutan en el nodo
Disco:
  • 40 GB de espacio en disco por nodo
  • Los requisitos de espacio en disco adicional están determinados por el número y el tamaño de las imágenes de contenedor que se ejecutan en el nodo

La plataforma CaaS de SUSE puede ejecutarse en servidores a bajo nivel, en máquinas virtuales gestionadas de forma privada, y en los recursos de infraestructura de nube privada y pública. También es compatible con el uso de una amplia gama de opciones de almacenamiento populares.

En resumen, la plataforma CaaS de SUSE es la más segura, confiable, escalable y versátil para ejecutar sus Contenedores con las aplicaciones de misión crítica que su negocio requiere.

La Nube. Ese concepto que muy al principio resultó algo confuso (gracias a que muchos "proveedores" de Tecnologías de la Información a cualquier cosa la disfrazaban de Nube), hoy ya nos es muy familiar y ya podemos afirmar quiénes o qué ofrecen realmente Infraestructura, Plataforma, Software, Escritorios de Trabajo y cualquier otro elemento de las Tecnologías de la Información, como un Servicio.

Revisando nuevamente, recordemos que los tres pilares básicos de La Nube son:

Infraestructura como un Servicio (IaaS)
Plataforma como un Servicio (PaaS)
Software como un Servicio (SaaS)

También mencionamos que existen dos maneras básicas en las que podemos ofrecer y/o consumir La Nube:

Nube Privada: en donde todos los elementos necesarios de Hardware y Software para construir y entregar los Servicios, son de nuestra propiedad y están físicamente instalados en un Sitio de Cómputo en nuestras instalaciones.

Nube Pública: en donde todos los Servicios son ofertados a través de una Red de Computo, de manera dinámica, bajo demanda y que de manera muy parecida al Suministro de Energía Eléctrica, simplemente pagamos por lo que consumimos y no existe necesidad alguna de administrar un Sitio de Cómputo físico.

En un punto medio y aprovechando todas las bondades y ventajas de ambos esquemas de Nube de Cómputo, existe lo que se le denomina como Nube Híbrida. Para que este esquema sea exitoso, se requiere de un Software que sea el intermediario que permita un consumo equitativo, equilibrado, flexible de recursos que se ejecuten sobre una Nube Privada o una Nube Pública.

Regresando a La Nube Privada, muchas empresas, organizaciones e inclusive empresas proveedoras de Tecnologías de la Información, creen que con contar con una excelente plataforma de Virtualización, automáticamente ya cuentan con una Nube Privada. Lamentamos decepcionarlos. Pero aunque la Virtualización es la piedra angular y el cimiento para una Nube Privada, Virtualizar no lo es todo.

Por eso Suse creo SUSE Openstack Cloud. Una solución de código abierto en La Nube con tecnología openstack, diseñada para que pueda ofrecer a sus clientes, usuarios y asociados una nube privada y lista para producción que Usted necesita.

Proporciona una infraestructura en la nube heterogénea y fácil de implementar y gestionar, perfecta para aprovisionar las cargas de trabajo de producción, prueba y desarrollo de forma que sean compatibles, fiables y seguras. Nuestro servicio de asistencia técnica y mantenimiento, en combinación con otras ofertas de SUSE probadas y compatibles, equipadas con tecnología de Ceph y Kubernetes, ofrece a nuestros clientes la flexibilidad y facilidad de uso que demandan.

Dentro de sus principales funcionalidades se destacan:

La posibilidad de elegir entre una amplia gama de hipervisores, incluidos KVM, Xen y VMware, junto con la provisión de cero a través de Ironic, facilitan la modernización o la transición de las cargas de trabajo existentes.

Las certificaciones de hardware más amplias que le permiten aprovechar al máximo el valor de las inversiones y la infraestructura de TI actual.

La implementación automatizada de alta disponibilidad avanzada para servicios esenciales de la nube, y la copia de seguridad y recuperación de datos automatizada (Freezer) le ayudan a evitar los problemas derivados de un tiempo de inactividad imprevisto.

La forma más rápida de implementar, configurar y administrar le ayudará a aprovechar ventajas empresariales reales en menos tiempo.

La supervisión, gestión y optimización de su entorno de OpenStack en la nube, con SUSE OpenStack Cloud Monitoring basado en Monasca.

Aquí compartimos una típica Arquitectura de Referencia, para que pueda tener una mejor idea de una implementación de SUSE Openstack Cloud:


Cierto. Sabemos que OpenStack se oferta de manera libre y gratuita a través de la red. Pero el poder implementar una solución completa de OpenStack como viene por defecto, consume tiempo, dinero, esfuerzo y demás recursos.

Suse Openstack Cloud SUSE incluye los siguientes servicios de OpenStack:
  • Sistema informático (Nova)
  • Consola de autoservicio (Horizon)
  • Almacenamiento de objetos (Swift)
  • Almacenamiento en bloques (Cinder)
  • Conectividad definida por software (Neutron)
  • Plantilla y repositorio de imágenes (Glance)
  • Servicio de gestión de identidades (Keystone)
  • Orquestación (Heat)
  • Provisión desde cero (Ironic)
  • Motor de orquestación y aprovisionamiento de contenedor (Magnum)
  • Supervisión (Monasca)
  • Gestión de claves (Barbican)
  • Medición y recopilación de datos (Ceilometer)
  • Sistemas de archivos compartidos (Manila)
  • Copia de seguridad, restauración y recuperación tras fallos (Freezer)
  • Servicio DNS (Designate)
  • Equilibrador de carga (Octavia)
Requisitos de hardware mínimos

SUSE OpenStack Cloud es totalmente compatible con cualquier plataforma de servidor con certificación YES de SUSE, válida para las versiones de SUSE Linux Enterprise Server (SLES) enumeradas en la sección de requisitos de la documentación.

Ahora toca el turno de los Centros de Datos Definidos por Software (SDDC por sus siglas en inglés). Párrafos arriba mencionamos que más allá de contar con Virtualización, ésta no era suficiente para poder ofertar Infraestructura como un Servicio.

Los Centros de Datos Definidos por Software, son precisamente lo que se necesita para ofertar la Infraestructura como un Servicio más completa, segura, confiable y escalable.

Para contar con Centros de Datos Definidos por Software, quiere decir que nuestros recursos de ejecución (procesadores y memorias de acceso aleatorio o RAM). la red y el almacenamiento, deben de estar capacitados, listos para configurarse y administrarse en un esquema Definido por Software.

En lo que toca al Almacenamiento Definido por Software, Suse ofrece el SUSE Enterprise Storage (basado en CEPH).

Para la mayoría de empresas, la demanda de almacenamiento de datos está creciendo mucho más rápido de lo que se reduce el precio medio de almacenamiento. Esto provoca que se vean obligadas a aumentar drásticamente el presupuesto para satisfacer su demanda de datos. Pero hay otra alternativa: SUSE Enterprise Storage.

SUSE Enterprise Storage es una solución de gestión del almacenamiento inteligente definida por software, con tecnología CEPH, que le permite transformar la infraestructura de almacenamiento de su empresa para adaptarse perfectamente las cambiantes necesidades empresariales y de datos, ya que proporciona un sistema de almacenamiento asequible, con gran capacidad de ampliación y recuperación mediante unidades de disco y servidores integrados.

Esta solución de almacenamiento inteligente definida por software, con tecnología CEPH, le permite transformar la infraestructura de almacenamiento de su empresa para reducir los gastos y proporcionar, al mismo tiempo una capacidad de ampliación ilimitada.

Dentro de las principales ventajas de SUSE Enterprise Storage se destaca:

  • Contar con un entorno de almacenamiento con gran capacidad de ampliación y recuperación diseñado para pasar de terabytes a petabytes
  • Reducir los gastos de TI con una solución de gestión de almacenamiento inteligente definida por software que utiliza unidades de disco y servidores integrados y genéricos
  • Adaptarse sin problemas a las cambiantes necesidades empresariales y de datos con la capacidad de optimizar, actualizar o añadir automáticamente almacenamiento cuando sea necesario
  • Una solución optimizada para los requisitos de almacenamiento de cargas de datos grandes y pesadas
Las soluciones de almacenamiento de SUSE Enterprise Storage ofrecen un único clúster de almacenamiento unificado definido por software, que proporciona aplicaciones con almacenamiento unificado de objetos, bloques y archivos diseñado con una capacidad de ampliación ilimitada, de terabytes a petabytes y sin puntos únicos de error para maximizar la recuperación del sistema y la disponibilidad de las aplicaciones tras un fallo del hardware.

El enorme poder y el gran éxito de SUSE Enterprise Storage radica precisamente en CEPH File Sistem: un sistema de archivos distribuido libre, diseñado para el uso con gran cantidad de datos y en su forma más libre, muy enfocado para el uso con Big Data. Ceph tiene como objetivo ser "POSIX-compatible y completamente distribuido, sin ningún punto de fallo. Los datos tienen replicación libre de errores, haciéndolo tolerante a fallos.​

Ceph incluye un orquestador (ceph-deploy) para la instalación y la configuración de los monitores y osd. Los clientes tienen la capacidad de montar el sistema de archivos utilizando el módulo cliente del Linux kernel.

SUSE Enterprise Storage basado en CEPH utiliza un Nodo de Almacenamiento y un Nodo de Control, que permiten tener máxima seguridad, desempeño, confiabilidad y escalabilidad para lo más valioso de su empresa u organización: sus datos.

Los requisitos típicos de sistema para el Nodo de Almacenamiento son:

  • 2 GB de RAM por dispositivo de almacenamiento de objetos (OSD)
    1,5 GHz de un núcleo de CPU por OSD
  • Puertos de Redes a 10 GbE independientes (públicas/de cliente y secundarias)
  • Discos OSD en configuraciones JBOD o RAID local
  • Los discos OSD debe utilizarlos exclusivamente SUSE Enterprise Storage
    SSD/disco dedicado para el sistema operativo, preferiblemente en una configuración RAID 1
  • 4 GB de RAM adicionales si se utiliza el archivado de caché
Los requisitos típicos de sistema para el Nodo de Control son (se recomienda usar 3 nodos de control de SUSE Enterprise Storage)

  • 2 GB de RAM por nodo de control
  • SSD o HDD rápida en una configuración RAID 1
  • En instalaciones con menos de siete nodos de control, estos pueden alojarse en el disco del sistema de los nodos de OSD
  • Los nodos de control deben ser de bajo nivel y no deben estar virtualizados por motivos de rendimiento
  • No se pueden combinar los OSD o los nodos de control con la carga de trabajo real
  • Las configuraciones pueden variar e incluso, con bastante frecuencia, exceder estas recomendaciones en función de las necesidades de tamaño y rendimiento específicas de cada caso
  • Interfaces de red vinculadas para redundancia
¿Se ha dado cuenta qué maravillosos y poderosos productos ofrece Suse para su empresa u organización? Y eso que no hemos mencionado otras que por el momento dejaremos que Usted se entere de ellas, ya sea a través del sitio oficial de Suse "https://www.suse.com/", o en entregas posteriores de esta serie.

martes, 29 de mayo de 2018

Las cinco etapas de la Disrupción Tecnológica

El momento Kodak

La mayoría de las personas ya saben cómo Kodak fue demasiado lento para reconocer el rápido cambio del mercado de la cámara a digital. El golpe fatal para Kodak fue la destrucción rápida y completa de su negocio de consumibles: película. Perder terreno en las ventas de cámaras ciertamente aceleró el final, pero fue el colapso de la película y el procesamiento lo que causó su estrepitosa caída.

Infraestructura de Internet

Desde finales de los años 90 en adelante, enormes cantidades de dinero se destinaron a la construcción de infraestructura de Internet. Pero a finales de la década de los noventa, el mercado comenzó a preguntarse: ¿dónde estaban los ingresos? (y mucho menos los beneficios). La respuesta fue un "¡no sé!" tan contundente que estalló la burbuja y la valoración del mercado se redujo enormemente. En otras palabras, la disrrupción se interrumpió.

La tecnología cumple con los modelos comerciales disruptivos

Echemos un vistazo a Uber, una fabulosa tecnología de usuario que combina conductores con pasajeros. En sí mismo, eso no es particularmente innovador... hasta que se encuentra el beneficio de "costo marginal cero". Esto le permite a Uber usar los controladores en un modelo de "entrega para todo" sin costos incrementales notables para sí mismo. Cuesta lo mismo entregar cualquier cosa, desde clientes y comida rápida hasta parcelas e incluso ataques de gripe.

Por sí solo, tal vez esto sea suficiente para dar a Fedex y UPS un momento Kodak, pero ha ido más allá de eso. Uber recientemente compró una API que permite a otras empresas utilizar los servicios de Uber. Actualmente en Estados Unidos, Opentable, una aplicación para reservar mesas de restaurantes, incluye Uber como parte del servicio, por lo que la reserva de una mesa incluye automáticamente un viaje en Uber ida y vuelta. Es integración horizontal sin costo marginal. Así entonces tenemos:

tecnología + costo marginal cero = disrrupción escalable


Internet de las cosas e inteligencia artificial

Imagine un mundo de negocios donde todo está conectado. Todo. Son materias primas para el transporte, la fabricación, la distribución, el comercio minorista, el consumidor, y más allá de eso para la participación del consumidor.

El Internet de las cosas permitirá todo eso, proporcionando una vista de principio a fin de todo el proceso en tiempo real. Por lo menos, eso provocará ahorros en cada paso del camino. El mundo desperdicia mil millones de dólares en alimentos cada año, pero con análisis en tiempo real de la producción, el transporte y el consumo, que podrían reducirse a unas pocas decenas de millones. Todo fue posible gracias a la comprensión avanzada de los datos en tiempo real a través de análisis de inteligencia artificial.

La curva de adopción

Los autos de la marca Tesla ahora pueden usar una actualización de software para proporcionar un 'modo ridículo': de 0 a 60 millas por hora en 2.9 segundos. Es un automóvil eléctrico que ofrece el mismo rendimiento que un Ferrari 488. La actualización de Tesla demora 20 minutos en instalarse y cuesta $ 10,000. Actualizar a un Ferrari 488 llevará a un cliente dos años en lista de espera y costará al norte de $ 300,000. ¿Hai capito tutto?

Las curvas de adopción se están volviendo más empinadas. Tomemos la realidad virtual, que hace diez años prácticamente no tenía usuarios. Luego viene Oculus Rift, que entusiasma a los usuarios lo suficiente como para pensar brevemente en gastar $ 300.00 USD, pero no lo suficiente para que muchos lo hagan.

Google, descubriendo la oportunidad, saca Google Cardboard: una caja de cartón de sólo $ 5.00 USD con el objetivo de sacar al mercado a los primeros usuarios. Simplemente agregue un teléfono inteligente a la caja y tendrá un auricular con Realidad Virtual para el que los responsables del contenido están felices de diseñar. Por lo tanto, la curva de adopción se agudiza porque, por supuesto, Google ya tendrá disponible un producto más exclusivo (y profesional) más adelante.

Estos mismos cinco principios se pueden ver en numerosos sectores empresariales. El valor y el beneficio se afianzan en los conjuntos de datos de los líderes de la industria, lo que aleja los ingresos de donde tradicionalmente se ha hecho. Un cambio tan profundo puede crear (y lo está haciendo) un cambio social, ya que la Inteligencia Artificial ha generado y seguirá creando desempleo en sectores previamente considerados como "seguros".

A esto último, vale la pena tomar en cuenta la entrada intitulada: "¿Cómo te preparas cuando el 85% de los trabajos de 2030 aún no se han creado?". Lo peor es convertirse en un pesimista consumado, encegueciéndose y dejando pasar las oportunidades que ya son visibles, para las siguientes dos o tres décadas de este Siglo XXI.

La disrrupción de la disrrupción aún no ha terminado...


lunes, 22 de enero de 2018

IBM y Salesforce duplican su apuesta para la Inteligencia Artificial con Watson + Einstein...

Sinergia. Una relación de negocios, tecnológica, empresarial y/o de cualquier otra índole, en la que el resultado final es mayor que la suma de sus partes.

¿Qué sucede cuando dos gigantes del Cómputo en La Nube como IBM y Salesforce, se conjugan en un "joint venture" en lo que respecta a Plataforma y Software como un Servicio?

Salesforce e IBM anunciaron una expansión de su asociación estratégica, el pasado viernes 19 de Enero de 2018. Las empresas hicieron el anuncio a través de un comunicado conjunto, en el que resalta la combinación del poder de los servicios de IBM Cloud y Watson, con Salesforce Quip y Salesforce Service Cloud Einstein.

Dos firmas de tecnología de punta como Salesforce e IBM que conectan sus plataformas de Inteligencia Artificial (AI por sus siglas en inglés) refuerzan el creciente valor de la Inteligencia Artificial (de la Cuarta Revolución Industrial) y el Big Data en la empresa (de la Tercera Plataforma). AI especialmente está tomando el centro de la escena, como una de las tecnologías de campo de batalla para los negocios. Este es un claro ejemplo de dos directores ejecutivos que hacen un esfuerzo para reforzar esta estrategia con su asociación.

En el comunicado el CEO de IBM, Ginni Rometty, dijo que la combinación de Watson y Einstein -"...ayudará a las empresas a tomar decisiones empresariales más inteligentes"-. El gerente general de Salesforce, Marc Benioff, se hizo eco de este sentimiento y dijo en el comunicado que el combo -"...ofrecerá aún más innovación para ayudar a las empresas a conectarse con sus clientes de una forma completamente nueva, aprovechando el poder de la nube y la AI".

Específicamente la combinación de Watson/Einstein proporcionará los siguientes pasos en algún proceso en particular, agrega el comunicado. Esto podría ayudar a los usuarios a fortalecer las relaciones con los clientes, automatizar más procesos con acciones personalizadas, basadas en cómo la AI interpreta una llamada reciente, o una experiencia de chat.

Además del hecho en el que las empresas que conectan sus plataformas de inteligencia artificial, compartirán el estado del proveedor preferido entre sí en áreas específicas. Para Salesforce, IBM se convertirá en un proveedor preferido de servicios en la nube, mientras que para IBM, Salesforce se convertirá en una plataforma preferida de interacción con el cliente, destaca el comunicado.

Otro resultado de la asociación será el desarrollo de algunas aplicaciones de IBM Watson Quip Live. Con estas aplicaciones que pueden integrarse en un documento Salesforce Quip, los usuarios tendrán acceso a la computación cognitiva de Watson cuando trabajen en la plataforma de creación y edición de documentos.

Si ya de por sí ambas empresas son referente y lideran sus ámbitos correspondientes: IBM en Infraestructura y Plataforma como un Servicio, mientras que Salesforce en lo tocante a Software como un Servicio, con esta aventura en común lo único que se puede esperar es una avasalladora y abrumadora ventaja sobre sus respectivos competidores.

No dudamos nada de que muy pronto, otros de los jugadores principales de La Nube, la Inteligencia Artificial y el Cómputo Cognitivo, se unan en un esfuerzo semejante para no quedarse a la zaga.

martes, 30 de mayo de 2017

VMware y Código Abierto son innovación y colaboración

Para estas fechas, la Virtualización no algo que pueda considerarse novedoso. Totalmente consolidada en los Centros de Datos y piedra angular de los Centros de Datos Definidos por Software, ahora se involucra más con el Código Abierto (Open Source) ofrecen una plataforma de Infraestrucura como un Servicio, que permite toda la libertad que requiere el Código Abierto amén de que de esta combinación se puede obtener una interesante Plataforma como un Servicio.

En todas las verticales de la industria más importantes, el software de código abierto está cada vez más involucrado en el tejido empresarial de las Tecnologías de la Información. Hoy se encuentra en las herramientas de infraestructura como Docker, OpenStack y Kubernetes. También está en los
frameworks de administración de carga de trabajo, las herramientas de gestión y una serie de tecnologías de código abierto que están profundamente integradas en funciones críticas de arriba a abajo en la cadena de valor. Cuando los consumidores reservan vuelos o publican en Facebook, por ejemplo, están utilizando herramientas de código abierto, lo sepan o no.


VMware y la Comunidad de Código Abierto

Desde hace tiempo, VMware ha contribuido a proyectos de código abierto, incluyendo el kernel de Linux, Cloud Foundry y OpenStack. La compañía sigue activa en el proyecto Open vSwitch, una popular herramienta de código abierto para redes virtuales, actualmente bajo la dirección de la Fundación Linux.

Open source ha sido parte de VMware a lo largo de su historia, pero recientemente la compañía ha puesto un renovado énfasis en su importancia al contratar a Dirk Hohndel, un conocido líder en el campo del Código Abierto. Además, VMware actualizó su estatus en la Fundación Linux a oro, un nivel que refleja con mayor precisión las actividades, la inversión y el compromiso de la compañía con el código abierto. Después de ese cambio de membresía, la Fundación Linux anunció el 18 de abril que Dirk Hohndel es ahora un miembro electo del Consejo.

"En el pasado, VMware ha sido activo apoyando, impulsando y siendo parte del software de Código Abierto, pero hoy tenemos metas mucho mayores y aspiraciones más altas", dice Hohndel. "Este es un compromiso a largo plazo, y comienza con cada vez más activo, siendo humilde, y creando un impacto positivo en la comunidad".


Porque es gratis

Como el interés en el software de código abierto de los CIOs de la empresa sigue creciendo, Hohndel señala que abordar conceptos erróneos es parte de su papel. "Escucho a la gente decir, 'Estoy haciendo software de código abierto porque es gratis', lo cual no es cierto", dice Hohndel. "Sí, usted puede obtener recursos gratuitos, pero la ampliación a la producción es un proceso costoso que requiere capital y conocimientos técnicos significativos.

Con el desarrollo de código abierto, a menudo se está intercambiando los gastos de capital con los gastos operativos, pero de cualquier manera, hay un costo."

A medida que las empresas ganan experiencia en herramientas de código abierto, pueden crecer más independientes y confiar en tomar decisiones tecnológicas. Apresurarse en proyectos de código abierto, sin embargo, puede resultar costoso.

"Yo he advierido a los CIOs que tengan cuidado con las tecnologías "calientes" a menos que tengan un plan completo. Sólo por mencionar un ejemplo, los Contenedores son fantásticos si quieren ejecutar 12 en una sola máquina, pero si están ejecutando 10.000 de ellos en el mismo equipo y con redundancia, dentro de una gran área geográfica, eso es un asunto muy distinto a resolver ", explica Hohndel.

En otro ejemplo, menciona "un cliente que adoptó OpenStack como una solución, suponiendo que sería rápido y fácil. El proyecto comenzó con tres personas, pero al cabo de cinco meses aumentó a 12 empleados a tiempo completo y aún no estaban cerca de una beta interna.


Innovación y Colaboración

Los proyectos de código abierto son, por naturaleza, innovadores y colaborativos. No es raro que las empresas utilicen el software de código abierto como cimiento para construir encima de él. "La
innovación es parte del ADN de VMware, por lo que es emocionante para nosotros participar con la comunidad de código abierto, no sólo para aprender, sino también para aportar nuestra experiencia y crear valor. La forma de ser influyente y relevante en la comunidad de código abierto es hacer contribuciones significativas que beneficien a todos ".

Hoy en día, el software de código abierto desempeña un papel importante en VMware. Al igual que muchas grandes empresas, los productos de la compañía se basan en cientos de componentes de código abierto. Garantizar que estas tecnologías se utilicen en conformidad con sus licencias, están al día, e integrarse perfectamente con otros sistemas es fundamental. La empresa no sólo utiliza estos componentes, sino que también aporta código, convirtiéndose en parte de la comunidad de innovación que mantiene los proyectos de código abierto sanos y prósperos.

"A medida que usamos estos componentes, también estamos liberando cada vez más nuestros propios proyectos de código abierto de los que dependen otras empresas", dice Hohndel. "Esto amplía nuestro
compromiso con las tecnologías que están transformando el centro de datos de la empresa, dándonos un asiento en la mesa cuando la gente quiere discutir la infraestructura de TI del futuro".


Compromiso a largo plazo

Para que VMware siga siendo un socio clave para sus clientes, la compañía está comprometida con los proyectos de código abierto. Hohndel señala que este compromiso está respaldado por altos directivos y ha sido bien recibido en toda la compañía.

"Necesitamos involucrarnos con un amplio conjunto de perspectivas sobre VMware y software de código abierto. Eso significa conectar con la gente donde están, si son escépticos y preocupados o
entusiasta y de apoyo ", dice Hohndel. "Si lo hacemos bien, proporcionaremos un mejor valor a nuestros clientes y a la comunidad de código abierto como un todo".

Nuevamente el Código Abierto hace acto de presencia, pero esta vez como un protagonista principal como piedra angular de los Centros de Datos definidos por Software y La Nube privada.

¿Confía Usted en el Código Abierto como piedra angular de su Centro de Datos Definido por Software?

jueves, 8 de diciembre de 2016

Según VMware, ¿Qué hay para 2017?

La Hiper-Convergencia ya no es una novedad. Somos testigos de que ahora todo aquello que aporta valor, está siendo adoptado con una velocidad sin precedentes y por ello la Infraestructura Hiper-Convergente (HCI por sus siglas en inglés) ha ganado terreno a pasos agigantados.

En esta ocasión deseamos compartir un texto original de Lee Caswell, vicepresidente de Producto de la Unidad de Almacenamiento y Disponibilidad de VMware, quien ha publicado a través del Blog público de la empresa lo que a su juicio serán las

"Cinco cosas que vendrán para el 2017, para la Infraestructura Hiper-Convergente"

Comienza la cita:

A lo largo de 2016, hemos visto la rápida adopción de la infraestructura hiper-convergente (HCI), accionada por la última versión de VMware VSAN ™ 6.5 y VMware vSphere Ⓡ 6.5 en forma de visión de VMware de la "Arquitectura de Nube Cruzada"™ y servir como un bloque de construcción para los centros de datos definidos por software (SDDC). En 2017, predecimos que la HCl tendrá un lugar central, en particular en la expansión de datos en La Nube, influyendo en nuestra gestión del día a día de los centros de datos, nuestras expectativas y nuestra paciencia.

A continuación compartimos cinco cosas que esperamos que la HCI nos entregará en el muy próximo año 2017:

1.- El ascenso del Administrador General de TI en el mundo de almacenamiento

La llegada de la HCl y herramientas de administración unificadas para medios de almacenamiento de hoy, puede ser fácilmente implementado y gestionado por los Administradores Generales de TI en lugar de Especialistas. HCI permite gestionar toda la infraestructura con un solo conjunto o familia de herramientas. Dado que las responsabilidades de centros de datos globales cambiarán a un Administrador General o un equipo convergente de Administradores Generales, los Profesionales tradicionales de Almacenamiento Empresarial se expandirán cada vez más sus conocimientos más allá del almacenamiento, o se centrarán en proyectos estratégicos en los que el rendimiento del almacenamiento es crítico. Más importante aún, dedo que HCI permite que el personal y los recursos sean asignados de manera más eficiente, esperamos que la conversación alrededor de ella en 2017 se alejará del mantenimiento del día a día de la infraestructura, hacia una conversión de cómo aportar un Valor para el Negocio.

2.- Entra Ethernet, sale la Fibra Canal

Analistas de la industria han pronosticado desde hace tiempo la muerte lenta del almacenamiento basado en Fibra Canal. En 2017, esperamos que decaiga más rápido que nunca con el aumento constante de velocidad de Ethernet, eliminando la necesidad de conexiones propietarias SAN y la costosa infraestructura de la Fibra Canal que viene junto con ella. Esperamos que este cambio suceda finalmente incluso entre los clientes empresariales que son bastión tradicional de la Fibra Canal.
La adquisición de Brocade, el último jugador "pure-play" de la Fibre Canal por parte de Broadcom, es sólo el último indicador de que la especialización de almacenamiento se está convirtiendo en una parte más pequeña del mercado. De hecho los tres jugadores clásicos de la Fibra Canal, Brocade, Emulex, y Q-Logic ya no son empresas independientes. Conforme el almacenamiento escalabile e Hiper-Convergente se convierte en la norma, servidores y dispositivos de almacenamiento residirán cada vez más en la misma red Ethernet, dejando a las redes de Fibre Canal como una tecnología heredada.

3.- Dispositivos de almacenamiento costosos y de propósito específico, ceden el mercado a soluciones basadas en servidor

En el pasado, la adquisición de almacenamiento empresarial, a menudo significaba invertir cientos de miles o incluso millones de dólares en dispositivos de almacenamiento propietarios, que eran difíciles de configurar y de soportar. La HCI está cambiando todo eso. Los verdaderos operadores de centros de datos a hiper-escala (los Amazon, Baidus y Alibabás del mundo) nos mostraron el camino. Cada uno de ellos construyó la infraestructura masiva de cómputo y almacenamiento, utilizando un modelo de escalabilidad basado en servidores x86.

Del mismo modo que veremos que La Fibra Canal está cediendo paso a Ethernet, esperamos que un número creciente de organizaciones, incluidas las grandes empresas, vean la sabiduría que plantea el modelo escalable basado en servidores x86 de bajo costo y alto rendimiento. También pensamos que 2017 será el año en que la industria tradicional de almacenamiento empresarial, realmente comience a sentir el calor, ya que un número creciente de organizaciones empiezan a aprovechar la agilidad, la escalabilidad, facilidad y ahorros en costos que ofrece HCI.

4.- La actualización de los servidor se convierte en la actualización principal para el almacenamiento

Los vendedores de servidores han estado luchando últimamente contra la caída en las ventas en 2016. Pero esperamos que la tendencia se invierta en el Año Nuevo. De hecho, la llegada a mediados de 2017 de los chips de servidor Skylake de Intel de próxima generación, es probable que desencadenen un ciclo de actualización de centros de datos no visto desde hace mucho tiempo. Muchas organizaciones en todo el mundo probablemente verán esto como una oportunidad para modernizar su centro de datos y dar el salto a La HCI.

Incluso las organizaciones en mercados emergentes que nunca habían invertido en el almacenamiento empresarial tradicional, comenzarán a analizar sus opciones de infraestructura y aplicaciones bajo una nueva luz. Debido a que La HCI aprovecha las habilidades de TI existentes de los 500.000 clientes de VMware, quienes ya conocen las bondades de nuestros productos en servidores, redes Ethernet y aplicaciones, creemos que 2017 verá el inicio de una evolución radical de las operaciones de centros de datos, en organizaciones de todos los tamaños.

5.- El almacenamiento "All Flash" es la nueva norma

La economía de los almacenamientos flash de hoy es tal, que el rendimiento, la flexibilidad y el ahorro de gestión que ofrece el almacenamiento en "Estado Sólido", no debe ser ignorado incluso por las organizaciones con los presupuestos más apretados. Con los precios cayendo en picado, podemos predecir que las ventas flash alcanzarán un punto de inflexión más temprano que tarde en 2017.


Incluso los clientes con presupuestos de TI limitados tendrán que justificar su decisión de comprar almacenamiento clásico de disco duro, en lugar de soluciones totalmente flash. En particular los dispositivos construidos este antaño, darán paso a soluciones hiper-convergentes basadas en plataformas de servidores estándar. La estandarización en el almacenamiento "todo flash" sólo tiene un buen sentido económico, tanto desde una perspectiva de escalabilidad como de gestión.

Fin de la cita

En resumen, según el área de Almacenamiento y Disponibilidad de VMware predicen un escenario convergente, con dispositivos de almacenamiento (discos duros) cien por ciento en estado sólido, así como también un incremento en los alcances de los Administradores de Virtualización y Servidores, para permitir que los Administradores de Almacenamiento clásicos, pasen a tomar nuevas responsabilidades o se añadan a las filas de los primeros.

De manera particular y subjetiva, puedo mencionar que aquí en México veremos que esta predicción cumplirse hasta en un setenta o setenta y cinco por ciento, por las muy particulares condiciones de la economía, amén de los cambios socio-políticos de el último trimestre.

Lo que si es cien por ciento seguro es que la Infraestructura Hiper Convergente, sea "in situ" (on premise) o en La Nube, no es el futuro sino el presente.

¿Cuenta Usted ya con un plan de implementación para Infraestructura Hiper Convergente?

jueves, 2 de enero de 2014

Comenzando 2014

Tras la tempestad siempre viene la calma. Tras las fiestas "decembrinas" siempre viene "la cuesta de Enero" y no solamente a nivel personal sino también a nivel empresarial.

Para las empresas de Distribución y Asociados de Negocio que tienen su Cierre Anual el 31 de Diciembre de cada año, así como para las que es un cierre trimestral como cualquier otro, es una fecha que marca un antes y un después en lo comercial y en muchos otros aspectos.

Parafraseando a un personaje prominente dentro del medio de la Distribución de Soluciones de T.I.: -"...solamente nos podemos dar el lujo de celebrar quince minutos los resultados de un buen cierre, pues a partir de las 0:00 horas con un segundo, comienza un nueve trimestre y hay que empezar desde cero nuevamente"-.

Mucho es lo que dicen los agoreros, consultores y demás personajes que tras concienzudos análisis (o de manera empírica como si se tratase de la lectura del las runas), ya emitieron su opinión y lanzaron sus apuestas a lo que será el 2014 desde el punto de vista de las T.I.

Lo que sí es seguro es que 2014, como todos los años, el éxito será de quienes SÍ agreguen Valor a su propuesta de Soluciones, amén de aquellos quienes SÍ pongan empeño y el sudor de su frente persiguiendo cada Oportunidad de Negocios.

De manera más concreta aquí en México, el empresario buscará toda alternativa que le permita ahorrar aún más en los Costos Operativos (OPEX por sus siglas en inglés), mientras que buscarán ser muy precavidos en lo que se refiere a los Gastos en Capital de Trabajo (CAPEX por sus siglas en inglés).

Esto se traduce entonces que más que la búsqueda de acrecentar la infraestructura existente, más bien el empresario buscará renovar aquellos activos que estén a punto de la obsolescencia, así como aquellos que por razones de vencimiento del arrendamiento "les toque" el ser cambiados por nuevos equipos.

Aquí entonces salta la primer oportunidad de negocio que está directamente vinculada con la Virtualización. Una tecnología más que probada y comprobada que ha demostrado permitir hacer un uso más eficiente, racional e inteligente de la plataforma Hardware.

También La Nube se verá beneficiada con esto, pues ésta permitirá a los pequeños y pequeño-medianos empresarios el poder contar con servicios de clase mundial sin tener que invertir mucho en capital, siempre y cuando se demuestren bajos Costos Totales de Propiedad (TCO por sus siglas en inglés) y un rápido Retorno de la Inversión (ROI por sus siglas en inglés).

Las empresas medianas, mediano-grandes y muy grandes buscarán además de lo anterior, el poder contar con mecanismos que permitan hacer aún más eficiente e inteligente el uso de sus activos, con soluciones que incluyan herramientas que les permitan controlar cada pequeño detalle de los Costos Operativos y poder buscar disminuirlos (si no es que hasta anular algunos de ellos) en la medida de lo posible.

Aquí entonces hace su aparición los Centros de Datos Administrados por Software. En este apartado no solamente será necesario complementar y/o terminar de implementar una plataforma de Virtualización robusta, confiable y escalable, sino que además ésta deberá contar con mecanismos que permitan balanceo de cargas, tolerancia a fallos, alta disponibilidad y administración del consumo de la energía eléctrica de manera automática.

También aquí cabe incluir a los Sistemas Expertos Integrados que permitan la implementación de Nubes Privadas, interacción con Nubes Públicas y ahorros sustanciales en consumos de espacio, energía eléctrica, enfriamiento, etc.

La Virtualización de Escritorios de Trabajo será también una excelente alternativa para empresas de todas las verticales y de todos los tamaños, pues ya sea aprovechando la infraestructura de estaciones de trabajo existente (desktops y laptops), como también implementando nuevas alternativas libres de disco duro (clientes ligeros, equipos de cómputo fijos o portátiles sin disco duro, teléfonos inteligentes, etc.) las empresas podrán ofrecer a sus Usuarios Finales una plataforma de trabajo segura, confiable, con alta disponibilidad, tolerancia a fallos y con los máximos estándares de Calidad de Servicio.

En lo que respecta a este último punto, ya hemos constatado de primera mano como testigos muy cercanos con casos de éxito en México, los grandes beneficios que la Infraestructura de Escritorios Virtuales (VDI por sus siglas en inglés) trae consigo. Vale la pena mencionar que aunque la inversión inicial que se requiere es de tomarse en cuenta, el descenso dramático en el Costo Total de Propiedad y el rápido y sólido Retorno de la Infersión son solo parte de los beneficios que a mediano y largo plazo se obtienen con esta Solución.

Pasando a otro punto, no obstante toda la pompa y boato con lo que se ha presentado y acompañado al concepto BigData, este concepto aún no ha quedado claro para la gran mayoría de los Clientes Finales, así como tampoco para muchas empresas proveedoras de productos y servicios de Tecnologías de la Información en México. Es evidente que tampoco les queda claro a empresas de todas las verticales de manera más concreta el dónde aplicaría, cómo y para qué una implementación de BigData, por lo que definitivamente queda mucho trabajo por hacer para evangelización, prospección y posible venta e implementación.

Si de algo estamos completamente seguros es el abaratamiento en tecnologías de almacenamiento, principalmente en el rubro de Discos de Estado Sólido (SSD por sus siglas en inglés), así como la posibilidad de llegar e niveles promedio de 250 Gigabytes de Memoria de Acceso Aleatorio (RAM por sus siglas en inglés) en Servidores X86. Esto dará por resultado un mayor Radio de Consolidación en lo que a Virtualización de Servidores y Estaciones de Trabajo se refiere.

Por último y nunca menos importante está el logarítmico y rampante asenso en la potencia y capacidades de dispositivos móviles, así como su abaratamiento y su facilidad de uso. Esto permitirá que existan mayores posibilidades para que los Usuarios y Clientes Finales puedan ejecutar con seguridad, confianza y alta disponibilidad sus aplicaciones móviles, así como a través de estos dispositivos poder trabajar con Escritorios Virtuales gracias a una solución VDI.

En conclusión 2014 nos recibe con los brazos abiertos, retos muy desafiantes y oportunidades de negocio bastante atractivas. Reiterando lo dicho al principio de esta entrada, serán entonces quienes ofrezcan Soluciones que aporten verdadero Valor los que trascenderán, y por qué no decirlo, tendrán éxito al final de este nuevo año.

¿Ya está Usted y su empresa trabajando para el Éxito en este 2014?

martes, 14 de mayo de 2013

Razones que las PYME deben tener en cuenta para implementar la virtualización...


Cada vez son más las empresas pequeñas y medianas (PyMEs) que deciden avanzar hacia la virtualización y las iniciativas de Cómputo en La Nube para sacar el máximo provecho a su presupuesto y, a la vez, dotar a su personal con herramientas eficientes que les permitirán un crecimiento y desarrollo significativo.
La virtualización posibilita la ejecución de una o más máquinas virtuales sobre una única máquina física. Ya sea una computadora o un servidor, al virtualizar es posible ejecutar más de un sistema operativo en una sola máquina, lo cual genera ahorros de costos en adquisición y mantenimiento de hardware. La capa de software que permite separar el ámbito virtual de la infraestructura física se denomina hipervisor.
Una vez que una organización ha obtenido los beneficios de la virtualización, el siguiente paso es la nube. El Cómputo en La Nube es un servicio que facilita el acceso a información y aplicaciones desde Internet. "Entre sus principales beneficios, se encuentra la alta disponibilidad en cualquier momento y lugar de los programas y los datos, la baja de precios al pagar sólo lo que se consume y no tener que costear actualizaciones y mantenimiento adicional,” explica Fernando Mollón, director general de VMware América Latina.
Los retos a los que normalmente se enfrentan las PyMEs son: mejorar la eficiencia, proteger los datos y tener alta disponibilidad de aplicaciones que funcionen en todo momento y lugar con una escalabilidad sencilla y rápida; es decir, que pueda aumentar su capacidad de procesar información de acuerdo con las necesidades de la empresa sin que ello resulte en un dolor de cabeza y, por si fuera poco, solventar todo esto con recursos a veces muy limitados.
La firma de investigación Forrester predice que 2020, el gasto en Cómputo en La Nube llegará a los USD $241,000 millones a nivel global. Esto indica a la nube como la mejor oportunidad para la prestación de servicios de TI, ya que promete eficiencia superior y reducción de costos, así como agilidad en el negocio.
A continuación, cuatro de las muchas buenas razones para no aplazar más la virtualización en las PyMEs:

1. Aprovechar la tecnología ahora disponible.
La virtualización de servidores no sólo es una de las tecnologías más eficaces disponibles en el mercado de TI, sino que permite un mejor aprovechamiento de recursos, tanto de infraestructura como del personal, al hacer más eficientes tanto los espacios físicos como la disponibilidad de datos y aplicaciones. La mayoría de las organizaciones ya han comenzado este proceso, el tema es definir si se ha logrado explotar esta tecnología a su máximo potencial.
Y es que el impacto inicial de la virtualización conlleva un efecto sorprendente al consolidar de inmediato las múltiples cargas de trabajo de aplicaciones en un menor número de servidores físicos (computadoras conectadas a una red), reducir los costos y permitir una mayor eficiencia.
La virtualización es un primer y significativo paso, pero es sólo el principio de un proceso. Es el punto de partida para un nuevo estilo de trabajo y una metodología diferente que abrirá oportunidades de crecimiento comercial y una mayor competitividad para las PyMEs.

2. La automatización hace más proactivas a las empresas
Automatizar las tareas de infraestructura beneficia de manera importante a las PyMEs principalmente porque, por regla general, estas organizaciones no cuentan con gran cantidad de personal. En lugar de gestionar individualmente servidores físicos, muchas de las operaciones y procesos pueden ser administrados de manera centralizada, al igual que las aplicaciones agregadas. Con ello se logra más velocidad en las tareas de gestión, se reducen costos y adicionalmente permite una visión más centralizada de los negocios.
Además de un mayor control, la automatización aporta una mayor capacidad de análisis y la generación de informes asociados con el uso de la infraestructura de sistemas, permitiendo tomar decisiones sobre las necesidades actuales y futuras. Esto dota a las PyMEs de mayor proactividad para el aprovechamiento de recursos y la planificación de TI. Del mismo modo, el personal puede aprender a identificar patrones, avizorar problemas e intervenir para remediar situaciones imprevistas.

3. Mejor control de la explosión de dispositivos móviles y aplicaciones
Las opciones para entregar las aplicaciones a los usuarios finales han cambiado dramáticamente en los últimos años. La virtualización de escritorio, por ejemplo, permite crear plantillas de TI a las que se accede a través de un servidor central. Las ventajas son enormes: no sólo se mantiene el control del uso de aplicaciones y de acceso a datos, sino que las empresas pueden además reducir costos de gestión y dispositivos con BYOD (Bring Your Own Device). Los usuarios pueden ahora acceder a las aplicaciones desde cualquier sitio a través de cualquiera de sus dispositivos móviles o sus computadoras.

4. La virtualización es el primer paso en el camino hacia la nube
La virtualización permite la computación en nube pública y privada. De este modo las pequeñas y medianas empresas pueden implementar opciones de Software como un Servicio (SaaS) y de Infraestructura como Servicio (IaaS). Al aprovechar la virtualización para utilizar los recursos basados ​​en la nube, las PyMEs tienen un espectro más amplio de productos o servicios disponibles para sus usuarios, así como una mayor accesibilidad, lo cual las coloca en una posición más ventajosa y mitiga el hecho de que tanto sus recursos como su personal pueden ser escasos.

Algunas consideraciones sobre la virtualización para PyMEs,
La implementación de tecnologías como la virtualización y la nube les permitirá ampliar su potencial comercial y crecer sin necesidad de una mayor inversión en recursos y esfuerzos. Para hacer viable el proceso, de acuerdo con Fernando Mollón de VMware, es importante tener en cuenta ciertas consideraciones:
  • Evite catástrofes: Si todas las máquinas virtuales se consolidan en un único servidor físico sin alta disponibilidad y protección de desastres, un fallo en la máquina tendrá consecuencias devastadoras para la empresa.
  • ¿Está su personal de TI preparado para el cambio de roles? La virtualización puede cambiar la forma en que TI realiza sus tareas y por lo general implica convergencia de funciones. Las fronteras definidas entre servidores, almacenamiento, redes y tareas con frecuencia desaparecen. Los empleados tienen la oportunidad de aprender nuevas habilidades y cambiar sus trayectorias profesionales.
  • No asuma que los gerentes de negocios van a entender el valor de la inversión en virtualización; es recomendable que les demuestre claramente las ventajas que representa, tanto por el potencial de ahorro como la agilidad que le otorga a los negocios. Y sobre todo, proyecte más allá del simple ahorro de costos, proceda al siguiente nivel y al uso de las tecnologías como herramientas avanzadas de gestión y Cómputo en La Nube para transformar sus procesos de negocio enfocados a aumentar la satisfacción del cliente, mitigar los riesgos y proteger su información.
En conclusión, la Virtualización ya no es un "lujo" o una tecnología que es privativa de las grandes empresas, universidades y/o entidades gubernamentales. Ahora la virtualización ya es todo un "deber ser" para las PyMEs si estas desean hacer descender sus costos de operación, capital e infraestructura.

¿Su PyME ya está aprovechando las bondades de la Virtualización?