Mostrando entradas con la etiqueta Mainframe. Mostrar todas las entradas
Mostrando entradas con la etiqueta Mainframe. Mostrar todas las entradas

lunes, 12 de febrero de 2024

Las Plataformas de las Tecnologías de la Información: Evolución y Revolución

En la entrada anterior intitulada "La Transformación Digital: Un Viaje hacia el Futuro de las Organizaciones", en el párrafo en donde se enumeran las primeras doce tecnologías con impacto a corto plazo, aparecen entre paréntesis unos sufijos que vale la pena mencionar qué son.

En algunos casos menciona a la Cuarta Revolución Industrial, en otros a la Tercera Revolución Industrial y muchos de ellos aparecen como que se enmarcan dentro de en la Tercera Plataforma. De las Revoluciones Industriales luego platicaremos largo y tendido, pero de la Tercera Plataforma comenzaremos a abordarla como lo hemos hecho en las otras dos entradas anteriores.

Introducción

El mundo de las Tecnologías de la Información (TI) ha experimentado una evolución significativa a lo largo de las últimas décadas, marcada por la aparición de tres plataformas fundamentales que han revolucionado la forma en que las organizaciones y los individuos utilizan y se benefician de la tecnología. Cada una de estas plataformas ha establecido nuevas bases para el desarrollo y la implementación de soluciones tecnológicas, impulsando cambios profundos en los modelos de negocio, las operaciones y la sociedad en general. Este artículo ofrece una visión detallada de la primera, segunda y tercera plataforma de las TI, destacando sus características, diferencias y el impacto que han tenido en el mundo digital.

Primera Plataforma: Mainframes y Terminales "Tontas"

La primera plataforma de las Tecnologías de la Información está centrada en los mainframes y las terminales "tontas" (terminales sin capacidad de procesamiento propia). Esta era, que dominó el panorama tecnológico desde los años 60 hasta finales de los 70, se caracterizó por el uso de grandes computadoras centrales que realizaban todo el procesamiento de datos, mientras que las terminales conectadas a estos mainframes se utilizaban principalmente para la entrada y salida de información.

Los mainframes eran costosos y requerían de entornos controlados y personal especializado para su mantenimiento, lo que limitaba su acceso a grandes corporaciones, instituciones gubernamentales y universidades. A pesar de estas limitaciones, la primera plataforma sentó las bases para la automatización de procesos y la gestión de grandes volúmenes de datos, abriendo camino a la era digital.

Es menester agregar que muchas empresas alrededor del mundo, aún utilizan mainframes, por seguir siendo para muchos casos de uso la mejor alternativa.

Segunda Plataforma: La Era del PC y la Internet

El advenimiento de la segunda plataforma se dio con la proliferación de los ordenadores personales (PC) en los años 80 y la expansión de Internet en los 90. Esta plataforma se distingue por la descentralización del procesamiento de datos, permitiendo a los usuarios finales mayor control y capacidad de cómputo directamente desde sus propios dispositivos. Hay quienes a esta Segunda Plataforma también le llaman "la plataforma de la arquitectura Cliente-Servidor".

La segunda plataforma democratizó el acceso a la tecnología, facilitando la entrada de las pequeñas y medianas empresas al mundo digital y propiciando la creación de software de aplicación, sistemas operativos más avanzados y la popularización de la interfaz gráfica de usuario (GUI). La expansión de Internet, por su parte, revolucionó la comunicación, el acceso a la información y el comercio electrónico, sentando las bases para la globalización de la economía digital.

Tercera Plataforma: Cloud Computing, Big Data, Movilidad y Redes Sociales

La tercera plataforma emerge en el siglo XXI, caracterizada por cuatro pilares tecnológicos: cloud computing (computación en la nube), big data, movilidad y las redes sociales. Estas tecnologías han permitido un acceso aún más democratizado y ubicuo a los recursos de TI, ofreciendo a las empresas y a los usuarios finales flexibilidad, escalabilidad y nuevas formas de interacción social y comercial.

El cloud computing ha eliminado las barreras de entrada para pequeñas empresas y startups, proporcionando acceso a infraestructura y plataformas de desarrollo sin necesidad de inversiones iniciales significativas. Big data y analítica avanzada han abierto nuevas posibilidades en la toma de decisiones basada en datos, mientras que la movilidad y las redes sociales han transformado las expectativas y comportamientos de los consumidores, fomentando modelos de negocio centrados en el usuario y experiencias personalizadas.

Conclusión

La evolución de las plataformas de las Tecnologías de la Información refleja la constante innovación y adaptación del sector a las necesidades cambiantes de las organizaciones y la sociedad. Mientras que la primera y segunda plataforma establecieron las bases tecnológicas y de infraestructura, la tercera plataforma ha abierto un mundo de posibilidades en términos de conectividad, análisis de datos y experiencias personalizadas. A medida que nos adentramos en el futuro, es probable que veamos la emergencia de una cuarta plataforma, impulsada por avances como la inteligencia artificial, el Internet de las Cosas (IoT) y tecnologías aún por descubrir, marcando el inicio de un nuevo capítulo en la historia de la tecnología.

¿Su empresa u organización ya disfrutan de los beneficios de la Tercera Plataforma?

jueves, 27 de agosto de 2020

La evolución de las Tecnologías de la Información hacia la hiperconvergencia

Las tecnologías avanzadas alteran continuamente el panorama de nuestro mundo y cada paso es una evolución incremental que lo impulsa hacia adelante. Las empresas modernas dependen en gran medida de esta disrupción positiva cíclica e iterativa para ser competitivas en el mercado e innovar, brindando nuevos servicios y productos a sus clientes más rápido que nunca.

Las empresas también exigen flexibilidad, posibilidad de elegir, agilidad y rentabilidad de estas tecnologías habilitadoras, para garantizar que las capacidades comerciales puedan cambiar con la demanda, el mercado, la misión comercial, etc.

En la última década, el auge de los servicios en la nube satisfizo la demanda de más Tecnologías de la Información y agilidad empresarial, lo que permitió que nuevas aplicaciones y servicios estuvieran en línea casi de la noche a la mañana. Sin embargo, esta capacidad creó problemas secundarios de expansión de datos y sistemas, gobernanza y estratificación del cumplimiento, costando a las empresas más que los modelos tradicionales de centros de datos, ya que carecía de controles de costos maduros.

Entonces, por estas razones y más, las empresas se dieron cuenta de que ciertas cargas de trabajo y conjuntos de datos eran más adecuados para sus centros de datos, mientras que otras requerían una arquitectura a escala "web" que llegara a una audiencia global, sin fricciones ni resistencia alguna. Así nació el modelo de nube híbrida. Ésta combina control, flexibilidad, seguridad, escalabilidad y rentabilidad, satisfaciendo las necesidades tanto de las empresas como de los clientes. Pero para comprender realmente los impulsores comerciales que llevaron a la nube híbrida, debemos analizar brevemente dónde comenzó todo esto. Y todo empezó con El Mainframe (la Primera Plataforma).

Mainframes (nace la Primera Plataforma)

Comenzando con la computación basada en Mainframes u Computadoras Centrales, los usuarios tenían la capacidad de crear estructuras de código monolíticas masivas, que residían en equipos en gran parte aislados y hechos a la medida. La potencia de procesamiento y el diseño centralizado de este sistema lo hacían muy costoso e inflexible. Utilizaban tecnología propietaria y el mantenimiento de cada sistema requería capacitación especializada y una coordinación cuidadosa, para garantizar interrupciones comerciales mínimas.

En caso de falla, se requiere forzosamente de un Mainframe Secundario, y la restauración desde las cintas de respaldo puede tardar días en completarse (Recovery Time Objective prolongado). Hablando de las aplicaciones, éstas tenían que ser escritas a medida para cada plataforma, lo que requería mucho tiempo y dinero.

Servidores Unix (nace la Segunda Plataforma)

La creación de los sistemas operativos Unix impulsó una estandarización de hardware y software en sistemas más enfocados y manejables. Esta homogeneidad permitió a los operadores de computadoras estandarizar sus habilidades y mantener los sistemas de manera similar en cualquier rubro de negocio o empresas. Sin embargo, el hardware del sistema Unix todavía está especializado por el proveedor (IBM POWER, IA64, SUN SPARC y otros), al igual que los distintos Sistemas Operativos Unix. 

Las aplicaciones (ahora en modalidad Cliente-Servidor) se desarrollan pero aún no se transfieren entre proveedores dispares, creando un bloqueo y requiriendo conjuntos de habilidades personalizados para los operadores de computadoras. Creación de Silos de Cómputo.

Arquitecturas Intel-AMD x86/X64 (se consolida la Segunda Plataforma)

En los años noventa hace acto de presencia la plataforma Intel-AMD x86/X64: un conjunto de hardware comercializado que se entrega de manera rápida, económica y estandarizada de la forma en la que se crean los sistemas de hardware en la actualidad. Al optimizar la arquitectura de hardware subyacente, los siguientes sistemas operativos en sistemas Intel-AMD x86/X64 se administran más fácilmente que sus contrapartes. Los componentes y los sistemas completos son intercambiables, las imágenes del Sistema Operativo se transfiere con relativa facilidad y las aplicaciones se desarrollan y migran más rápidamente a nuevos sistemas.

El avance de los sistemas Intel-AMD x86/X64 también hizo que la innovación de hardware supere la demanda de software, donde los sistemas multinúcleo con abundante memoria y almacenamiento quedarían inactivos o subutilizados en algunos momentos, debido a la naturaleza estática del tamaño del sistema. Los servidores Intel-AMD x86/X64 sufrieron su propio éxito y requirieron más innovación a nivel de software para desbloquear la próxima innovación: La Virtualización.

Virtualización de la Arquitectura Intel-AMD x86/X64 (cimientos de la Tercera Plataforma)

Aquí es menester hacer un paréntesis, pues el concepto de "Hipervisor" y por ende "Virtualización", ya había sido creado desde la era de los Mainframes. Pues gracias a ambos era posible poder ejecutar múltiples Cargas de Trabajo en el mismo Hardware.

La Virtualización de la Arquitectura Intel-AMD x86/X64 (como en cualquier otra plataforma) abstrae un sistema operativo de su hardware subyacente, lo que permite que cualquier sistema operativo que ya de por sí se podía ejecutar sobre la Arquitectura Intel-AMD x86/X64, ahora se pueda ejecutar simultáneamente con otros sistemas operativos en el mismo servidor "Bare Metal" (de manera nativa o a metal desnudo). Esto permitió aún más flexibilidad, ahorro de costos y eficiencia, así como portabilidad; ahora las aplicaciones se envían preinstaladas dentro de los “archivos” o imágenes de la máquina virtual. Estos sistemas virtualizados maximizan la densidad del sistema operativo al hardware, reduciendo los costos en el centro de datos y habilitando nuevas formas programáticas para implementar rápidamente nuevas Cargas de Trabajo.

Los sistemas virtualizados aún requerían cierta sobrecarga de mantenimiento y un conjunto de habilidades especializadas para operar y mantener. Con frecuencia las empresas sufrían la complejidad operativa de mantener cientos o incluso miles de máquinas virtuales a escala. Las mejoras, actualizaciones y el mantenimiento del sistema aún requerían una coordinación y planificación cuidadosas y a menudo, interrumpían las operaciones comerciales. Este modelo volvió a cambiar positivamente cuando se introdujeron "Los Contenedores".

Contenedores (consolidación de la Tercera Plataforma)

Los Contenedores son imágenes preempaquetadas de software (Microservicios), que utilizan fracciones de la capacidad informática y de almacenamiento de las máquinas virtuales, que se pueden implementar instantáneamente en cualquier ambiente de ejecución preparado para contenedores (Docker), a través de la automatización y la orquestación (Kubernetes).

Estas pequeñas unidades de cómputo (Microservicios) permitieron a los desarrolladores probar e implementar código rápidamente en cuestión de minutos en lugar de revisar los cambios de software en un repositorio en días, habilitando un ciclo de prueba y compilación de software automatizado que podría simplemente monitorearse, sin requerir grandes esfuerzos para su administración.

Los Contenedores también permitieron subdividir las aplicaciones en "Microservicios" más pequeños, donde no es necesario que una aplicación completa resida en la misma instancia o sistema operativo, sino solo una fracción que podría satisfacer una demanda comercial conocida. Esta capacidad combinada con el modelo operativo de La Nube "paga por lo que usa", permitió a las empresas pagar realmente solo por los servicios que necesitaban, cuando los necesitaban.

Arquitectura Sin Servidor (Serverless)

Atomizando las aplicaciones aún más, la computación Sin Servidor o la “Función como un Servicio” minimizó aún más la huella de los servicios de aplicaciones, al ejecutar solo pequeñas secciones de código a la vez. La computación Sin Servidor permitió a las empresas consumir fracciones de tiempo computacional y almacenamiento mínimo, simplemente ejecutando su código "bajo demanda" y sin la necesidad de poseer, administrar y dar mantenimiento al resto de la infraestructura subyacente.

En cada paso del camino, la potencia informática se mejoró, se hizo más eficiente y acercó las aplicaciones a su entorno operativo deseado siempre procurando obtener el desempeño y rendimiento correcto, satisfaciendo la demanda correcta del cliente, exactamente al costo y escala correctos.

Sin embargo, la informática Sin Servidor no es la única opción para obtener el mejor rendimiento, al menor costo y con la más óptima escalabilidad. Como ya hemos mencionado en este Blog Tecnológico, existe un riesgo inherente al entregar el control completo del hardware a un tercero y simplemente consumir recursos como un servicio. Una organización que pierde el control de sus datos no es un escenario ideal, por lo que existe una clara necesidad de una solución local que brinde los mismos beneficios que ofrece la computación sin servidor, pero sin los riesgos de seguridad y gobernabilidad.

Esa solución alternativa local es la Hiperconvergencia.

Infraestructura Hiperconvergente

La Infraestructura Hiperconvergente es aquella que gracias a La Virtualización de todos los elementos de los sistemas convencionales otrora "definidos por hardware", ahora son definidos por software. La Infraestructura Hiperconvergente (HCI por sus siglas en inglés) incluye como mínimo, recursos de cómputo (procesador y memoria) , almacenamiento y redes definidos por software . 

La Infraestructura Hiperconvergente normalmente se ejecuta en servidores comerciales listos para usar, dando como resultado los Centros de Datos Definidos por Software (SDDC por sus siglas en inglés) que permiten ofrecer a los Usuarios una Infraestructura como un Servicio (IaaS), en modalidad de Nube Privada. 

Algo muy importante a tomar en cuenta en este momento, es que la Infraestructura Hiperconvergente no sustituye ni a La Virtualización ni mucho menos a los Microservicios que vienen aparejados con Los Contenedores. Digamos que más bien aquí gracias a La Virtualización puede existir la Infraestructura Hiperconvergente, mientras que sobre una Infraestructura Hiperconvergente es posible el ejecutar Microservicios en formato de Contenedores.

Aunque se antoja pensar que la Infraestructura Hiperconvergente es el pináculo de las Tecnologías de la Información, recordemos que ésta permite que las empresas puedan gozar de Infraestructura como un Servicio en Nube Privada y Nube Híbrida (en conjunción con la Núbe Pública). Pero estamos muy seguros de que este es un escalón más a ambientes de cómputo cada vez más eficientes, flexibles y bajo demanda.

¿En qué estado se encuentran actualmente sus Tecnologías de la Información?

jueves, 5 de abril de 2018

¿Dónde estarán los mainframes en diez años?

Parece mentira que en plena era de la Tercera Plataforma, aún se sigan teniendo noticias de la ya vetusta Primera Plataforma, lo que es lo mismo la era de los Mainframes.

¿Qué son los Mainframes? Es una computadora grande, potente y costosa, usada principalmente por una gran compañía para el procesamiento de una gran cantidad de datos, como por ejemplo, para el procesamiento de transacciones bancarias.

¿Cómo cambiará la industria mainframe en la próxima década? ¿Los mainframes aún estarán disponibles? Las respuestas cortas a esas preguntas son "muchas" y "casi con certeza".

El futuro de los Mainframes

Si bien predecir el futuro siempre es un negocio arriesgado, es bastante fácil observar las tendencias actuales en la industria Mainframe y extrapolarlas para comprender cómo podrían cambiar los Mainframes en los próximos diez años. Las observaciones clave en esa veta incluyen:

Los mainframes siguen vivos y en buenas condiciones

La gente ha estado prediciendo la "inminente desaparición" de los Mainframes durante años, y hasta el momento han estado equivocados. Aunque los roles de los Mainframes ciertamente han cambiado algo con el tiempo, los Mainframes siguen siendo esenciales en una serie de industrias importantes.

Parece una apuesta segura, entonces, que los Mainframes continuarán prosperando dentro de diez años. También puede ser una apuesta segura que los detractores continúen dudando del futuro de los Mainframes a una década en el futuro, pero creemos que seguirán estando equivocados.

Modernización de COBOL

COBOL es uno de los lenguajes de programación más antiguos que sigue siendo ampliamente utilizado. A pesar de su edad, es probable que no vaya a ningún lado pronto. Sin embargo,COBOL está pasando por un proceso de modernización. Mejor rendimiento, código más fácilmente reutilizable y otras innovaciones sobre la mesa para COBOL ya están en el presente y para el futuro.

Los Mainframes se hacen más pequeños

Cuando la mayoría de la gente escucha Mainframe, piensan en las computadoras gigantes de antaño. Los Mainframes modernos, por supuesto, pueden ser tan pequeños como un refrigerador. Es probable que los Mainframes sigan reduciéndose en tamaño físico a medida que evolucionan en la próxima década.

Los Mainframes se vuelven más potentes

Uno de los factores que impulsa la popularidad continua de los Mainframes es su capacidad para procesar grandes cantidades de datos. A este respecto, los Mainframes llevan mucho tiempo por delante de los servidores Cloud y Commodity (x86 y x64).

A pesar de que los servidores convencionales x86 y x64 también obtienen más poder de cómputo, los Mainframes probablemente retendrán su ventaja, porque la potencia de computación masiva es, después de todo, una de las características definitorias hacia los Mainframes.

Los Mainframes soportan múltiples sistemas operativos

La capacidad de los Mainframes para admitir sistemas operativos nativos como z/OS y Linux, es otra característica poderosa, pues con esto permiten alojar diversas cargas de trabajo. Con el tiempo creemos que los Mainframes podrán asumir conjuntos de sistemas operativos aún más diversos.

Más distribuciones de Linux pueden ofrecer soporte de Mainframe y hay señales de que incluso Microsoft Windows, podría convertirse en un contendiente de sistema operativo en el mundo de Mainframe. Esto último ya se vio hace tiempo con "IBM System i" o AS/400.

Los mainframes se adaptan a las nuevas tendencias de TI

A medida que innovaciones como la entrega continua y Docker, han cambiado la forma en que las organizaciones desarrollan e implementan el software y los mainframes han mantenido el ritmo. Si bien es difícil saber exactamente qué nuevas tendencias pueden llegar a la industria de TI en la próxima década, es una buena apuesta que los Mainframes también se adapten a ellas.

Una integración más fácil

La industria Mainframe ya ha avanzado mucho en la integración de éstos con otros tipos de infraestructura, pero los problemas persisten. La descarga de datos de Mainframe a entornos como Hadoop puede ser un desafío.

También puede integrar COBOL con otros tipos de idiomas. Espere a que estos desafíos continúen suavizándose, a medida que los proveedores trabajan para hacer que los Mainframes interactúen de forma más fluida con otras infraestructuras y aplicaciones.

En resumen, es probable que los Mainframes se vuelvan más rápidos y más flexibles, al tiempo que disminuyan en tamaño físico en los próximos diez años. Todo apunta a que se están preparados para conservar su nicho único, como soluciones de cómputo masivamente poderosas que pueden vencer a la nube convencional, así como atender casos de uso que los servidores básicos simplemente no pueden manejar.