miércoles, 3 de noviembre de 2010

Virtualización es El Motor !!!

No es ajeno para nadie el escuchar en todos los foros y de parte de todos los proveedores de Tecnologías de la Información, así como de aquellos que indirectamente tienen que ver con este segmento productivo y empresarial, que hoy nada escapa da la Virtualización.

Como sucede con todo adelanto tecnológico, existen esos grupos puristas (algunos que rayan en un cuasi fundamentalismo radical) que afirman que la Virtualización no es nada nuevo y que, gracias a ciertas marcas y mucha mercadotecnia, es que hoy todos hablan de lo mismo y se pretenden montar en lo mismo.

Para el beneplácito de estas personas, efectivamente la Virtualización no es un fenómeno, tecnología o tendencia nueva. Efectivamente es menester admitir que en la década de los 60's la empresa IBM lanzaba este concepto, así como muchísima de la jerga tecnológica que acompaña a ésta.

Comencemos entonces por el principio describiendo el contexto en el que se da dicha creación. Por aquellos entonces poseer una computadora era cuestión muy seria, elitista y costosa. Solamente entidades gubernamentales de países hiper desarrollados, universidades de altísimo nivel y empresas tras nacionales con ingresos anuales multimillonarios, podían costear estos artilugios.

Solo para darnos una idea de lo enorme que eran en tamaño y monto de la inversión, se requería utilizar edificios que contaran con superficies de varios cientos de metros cuadrados, millones de Watts de energía eléctrica al mes, sueldos para un ejército de personal al servicio del "aparatito", así como cantidades descomunales de British Thermal Units (BTUs) para poder compensar las temperaturas que éste generaba.

Para desgracia de los multi millonarios compradores, estas primigenias maravillas digitales tenían menos poder de cómputo que el que ahora posee un celular moderno y solo podían ejecutar un programa a la vez, siendo necesaria una reprogramación si es que se quería dar una utilidad diferente al "animalito", corregir y/o añadir alguna funcionalidad a lo ya existente.

Ante este escenario y con los adelantos que en los años cincuentas proporcionó el transistor, ahora estos "Main Frames" o computadoras principales, proporcionaban mucho más poder de cómputo pero todo él solo ejecutando una aplicación a la vez.

Los propietarios entonces manifestaron al fabricante su descontento ante tal limitación, pues no era nada rentable comprar un megaordenador para cada aplicación, o peor aún tener que detenerlo, reprogramarlo y re ejecutar todo un nuevo proceso cada que se requiriese otra aplicación.

Personal de la empresa IBM entonces trabajó arduamente y por fin pudieron lanzar al mundo un concepto que ellos llamaron "Hipervisor". Ahora el programador no trabajaba directamente con la computadora, sino que más bien ahora dicha capa de abstracción que se ejecutaba entre el Hardware y las aplicaciones, tenía el control de los recursos pudiendo ofrecer "particiones" de procesador, memoria, almacenamiento y demás recursos al mismo tiempo.

Ese fue entonces el nacimiento de lo que ahora conocemos como Virtualización, respondiendo con ello de manera más que exitosa a la necesidad que los clientes tenían de poder obtener mucho más, por esa costosa inversión que representaba una Computadora.

Cabe mencionar que la "empresa de las tres letras" aplicó esta misma tecnología a todas las arquitecturas y tecnologías subsiguientes como fueron el Sistema 32, Sistema 36, el Sistema 390 y el épico Advanced System 400 (AS/400). Todos ellos con excelentes resultados.

Con la creación de la tecnología "RISC" (Reduced Instruction Set Computing) en el aquel entonces Sistema RISC 6000 (RS/6000) también se consideró el tema de la Virtualización, pues es posible instalar en estos el "System Virtual I/O" que no es otra cosa que añadir este Hipervisor como capa intermedia entre toda la plataforma de Hardware, y lo que posteriormente se denominó como "Máquinas Virtuales".

Es a fines de los años 1990s que un conjunto de entusiastas estudiantes de la Universidad de California en Berkley, ante el creciente y vertiginoso aumento del poder de cómputo de la insipiente plataforma x86, decidieron seguir los pasos de aquellos ingenieros visionarios que crearon el concepto del Hipervisor para los ya arcáicos "Main Frames".

En este nuevo concepto y muy en sus inicios, el Hipervisor no era tal, sino mas bien una aplicación más que corría sobre un Sistema Operativo "anfitrión" (Windows o Linux), que permitía la creación de algo parecido a las "Máquinas Virtuales".

No obstante lo primitivo del nuevo "inventito", esto es un hito para las Tecnologías de la Información, pues ahora podía uno "montar" un laboratorio para desarrollo y pruebas sobre un solo equipo físico.

Este grupo de personas se graduó y con visión clara del futuro de la plataforma x86 y su Hipervisor, fundaron una compañia pequeña en Palo Alto, California (EEUU) a la cual darían el nombre de VMware.

El nombre era un indicativo de que así como existía el Hardware (elementos físicos sobre los que se ejecutan los procesos), un Software (que se ejecutaba sobre el Hardware para dar servicio a uno o más usuarios), ahora esta capa intermedia era un "ware" o cosa que proporcionaría esa capa intermedia para obtener la Virtualización.

La evolución de todo esto no es materia de la presente "entrada", pero baste decir que ahora el ESX y el ESXi (como se le conoce al Hipervisor de la marca VMware) permite obtener Virtualización Natica (o cuasi metálica), prescindiendo de el sistema operativo "anfitrión" que antes requería su VMware Server, ejecutándose las máquinas virtuales directamente sobre el Hipervisor, que a su vez es el responsable de controlar todo el Hardware Físico.

Tal es la aceptación de la Virtualización en las Empresas, Entidades Gubernamentales y Universidades del mundo, que ahora prácticamente el 100% de ellas ejecuta todos sus procesos en modalidad de producción sobre una plataforma de Virtualización. Qué decir de los ambientes de desarrollo y prueba en donde esto es ya una tendencia desde hace ya media década.

Gracias a las ventajas económicas y tecnológicas que proporciona la Virtualización como son Particionamiento, Aislamiento, Encapsulamiento e Independencia de Hardware (las cuales no trataremos aquí a profundidad), es posible pensar ahora si en:

  • Soluciones llave en mano
  • Cómputo en la Nube
  • Software como Servicio
  • Hardware como Servicio
  • Tolerancia a Fallas (Zero Down Time)
  • Balanceo de Cargas
  • Tiempos record en Recuperación de Desastres

Todo lo anterior permitiendo además acortar muy considerablemente los tiempos de aprovisionamiento, los costos operativos y administrativos.

En conclusión, la Virtualización presenta múltiples y muy valiosas ventajas para quienes trabajamos directamente con las Tecnologías de la Información, para aquellos que reciben los beneficios de éstas y quienes invierten su dinero para obtener Servicios Informáticos funcionando en todo momento y en todo lugar.

La Virtualización, llegó para quedarse.

No hay comentarios:

Publicar un comentario

Todos los derechos reservados.
Copyright © 2024.