Mostrando entradas con la etiqueta Web. Mostrar todas las entradas
Mostrando entradas con la etiqueta Web. Mostrar todas las entradas

miércoles, 17 de abril de 2024

Evolución de las Plataformas Informáticas y de la Internet

Cuando éramos niños quienes nacimos a mediados de la década de los sesenta del siglo veinte, atestiguamos como la televisión, el cine, los periódicos, la radio y los libros nos presentaban a las Computadoras como la octava maravilla, as[i como también hubo autores y directores que las presentaban como frías y calculadoras asesinas (la ya icónica HAL9000 de la novela y película "2001: Una Odisea en el Espacio"). Personalmente quiero decir que me decepcioné la primera vez que estuve delante de un monstruo de la marca BULL, pues a diferencia de las que había visto, me habían contado, de las que había leído, éste montón de cosas atornilladas al piso no me respondía cuando le hablaba.

Para colmo de males, tras leer un libro en el que se explicaban las distintas partes de una computador, una frase del autor retumbó en mi cabeza (y aún sigue retumbando de vez en cuando): -"Las computadoras son máquinas muy brillantes, pero a la vez muy estúpidas."- En pocas palabras se habían caído al suelo y roto en pedazos muchas de mis ilusiones. Pues posteriormente pude comprobar la frase. ¿Qué es una computadora sin un software? Nada. ¿Quiénes somos los responsables de programar ese softuare (programas de cómputo)? Nosotros los seres humanos. ¿Qué sucede si en uns "línea de código" tecleamos algo que resulte incorrecto o inentendible para el cacharrote informático? Se detiene y en el mejor de los casos nos dirá en dónde nos equivocamos pero al final, simplemente se detendrá y será tanto o más inutil que ese trapeador y esa escoba que estaban cerca de nuestro escritorio.

Pero es entonces cuando un libro que llegó a mis manos en los años ochenta: "Aprenda Divirtiéndose Computación" de Larry Gonick (Editorial EDIGONVILL 1985) o por su título en inglés "The Cartoon Guide to Computer Science" (1983) que me dejó perfectamente claro que, como todo artilugio que deriva de una tecnología tiene sus alcances y limitaciones. El amor por las Computadoras (y todo lo que derivaba de ellas) no solo regresó sino que se vió logarítmicamente incrementado.

Todo este preámbulo lo incluí para dar un contexto personalizado y así presentar, desde el punto de vista de alguien que estuvo en contacto con las Tecnologías de la Información desde hace ya décadas, cual ha sido La Evolución de las Plataformas Informáticas y de la Internet, todo esto en el formato de preguntas y respuestas.

¿Cómo podemos definir las ahora así llamadas Tecnologías de la Información?

Las Tecnologías de la Información (TI) se pueden definir como un conjunto de recursos, herramientas, métodos y sistemas utilizados para recopilar, procesar, almacenar, transmitir y gestionar información de manera eficiente y efectiva. Estas tecnologías abarcan una amplia gama de áreas y disciplinas relacionadas con la informática y la comunicación, y tienen un impacto significativo en prácticamente todos los aspectos de la sociedad moderna. Aquí hay una definición más detallada de las Tecnologías de la Información:

  • Recursos y herramientas: Las TI incluyen una variedad de recursos y herramientas tecnológicas, como computadoras, software, redes, dispositivos móviles, servidores, sistemas de almacenamiento, bases de datos y más. Estos recursos y herramientas son utilizados para realizar una amplia gama de tareas relacionadas con la gestión y el procesamiento de la información.

  • Recopilación y procesamiento de información: Las TI facilitan la recopilación y el procesamiento de datos e información de diversas fuentes, como sensores, dispositivos, sistemas de información y usuarios. Esto incluye actividades como la captura de datos, la transformación de datos en información útil y la generación de conocimiento a partir de la información procesada.

  • Almacenamiento y gestión de información: Las TI proporcionan herramientas y sistemas para almacenar y gestionar grandes volúmenes de información de manera eficiente y segura. Esto incluye sistemas de gestión de bases de datos, sistemas de almacenamiento en la nube, sistemas de archivos, y más, que permiten organizar, acceder y recuperar información de manera rápida y efectiva.

  • Transmisión y comunicación de información: Las TI permiten la transmisión y comunicación de información a través de una variedad de medios y canales, como redes de computadoras, Internet, correo electrónico, mensajería instantánea, videoconferencias, entre otros. Esto facilita la colaboración, la comunicación y el intercambio de información entre individuos, organizaciones y sistemas.

  • Automatización y optimización de procesos: Las TI se utilizan para automatizar y optimizar una amplia gama de procesos y actividades, tanto en el ámbito empresarial como en otros sectores. Esto incluye la automatización de tareas repetitivas, la optimización de flujos de trabajo, la gestión de recursos y la toma de decisiones basada en datos.

En general, ¿Cómo ha sido la Evolución de las Tecnologías de la Información?

Una manera en la que se puede ver y entender con facilidad esa evolución de las Tecnologías de la Información, es revisando las ahora denominadas Plataformas Informáticas. Hasta el momento podemos afirmar categóricamente que son tres las Plataformas Informáticas que han marcado esta evolción.

¿Cuáles son las características de la Primera Plataforma Informática?

La Primera Plataforma Informática, que abarca la primera generación de computadoras utilizadas en las décadas de 1950, 1960 y parte de la de 1970, se caracteriza por una serie de aspectos distintivos que marcaron el comienzo de la era informática moderna. Aquí tienes algunas de las características principales:

  • Mainframes: La Primera Plataforma estaba dominada por mainframes, que eran grandes computadoras centralizadas diseñadas para manejar grandes volúmenes de procesamiento de datos y cálculos complejos. Estos mainframes eran extremadamente costosos y se encontraban principalmente en instituciones gubernamentales, grandes corporaciones y universidades.

  • Batch Processing: El procesamiento por lotes era el método predominante para procesar datos en la Primera Plataforma. Los programas y datos se agrupaban en lotes y se procesaban secuencialmente por el mainframe, con una entrada de datos en un extremo y una salida de resultados en el otro. Este enfoque era eficiente para tareas repetitivas y de alta carga de datos.

  • Terminal Access: Los usuarios interactuaban con los mainframes a través de terminales, que eran dispositivos simples de entrada/salida de datos. Estos terminales podían ser tanto unidades físicas como software que emulaba la funcionalidad de una terminal. La interacción era a menudo a través de líneas de comandos y no había interfaces gráficas de usuario como las que conocemos hoy.

  • Alta fiabilidad y disponibilidad: Los mainframes estaban diseñados para ofrecer un alto nivel de fiabilidad y disponibilidad. Se utilizaron redundancias en hardware y software para minimizar el tiempo de inactividad y garantizar la integridad de los datos, ya que se consideraba crucial para las operaciones empresariales críticas y los cálculos científicos.

  • Lenguajes de programación: Surgieron varios lenguajes de programación en esta época, incluidos FORTRAN (para cálculos científicos), COBOL (para aplicaciones empresariales) y assembly language (para programación de bajo nivel directamente en el hardware).

  • Limitaciones de almacenamiento y velocidad: Aunque los mainframes de la Primera Plataforma eran poderosos para su época, tenían limitaciones significativas en términos de capacidad de almacenamiento y velocidad de procesamiento en comparación con las computadoras modernas.

¿Cuáles son las características de la Segunda Plataforma Informática?

La Segunda Plataforma Informática marcó una evolución significativa en la computación, abarcando principalmente las décadas de 1980 y 1990. Aquí tienes algunas de sus características principales:

Ordenadores Personales (PCs): La Segunda Plataforma Informática se caracterizó por la proliferación de los ordenadores personales (PCs). Los PCs eran más asequibles, más pequeños y más accesibles para los consumidores y las empresas que los mainframes de la Primera Plataforma. Esto llevó a una descentralización de la computación, con PCs siendo utilizados en hogares, oficinas y escuelas.

Sistemas Operativos Gráficos: Los sistemas operativos gráficos se convirtieron en la norma durante esta época. Ejemplos notables incluyen el sistema operativo Windows de Microsoft y el sistema operativo MacOS de Apple. Estos sistemas operativos permitían a los usuarios interactuar con la computadora a través de una interfaz gráfica de usuario (GUI) en lugar de depender exclusivamente de comandos de texto.

Redes Locales (LANs): La proliferación de las redes locales (LANs) permitió la interconexión de PCs en entornos de trabajo y hogares. Esto facilitó la colaboración y el intercambio de recursos como impresoras y archivos entre usuarios conectados en una misma red.

Internet: Aunque la Internet ya existía en la Primera Plataforma Informática (como ARPANET), fue durante la Segunda Plataforma cuando comenzó a popularizarse entre el público en general. El surgimiento de la World Wide Web y los navegadores web como Netscape Navigator y Internet Explorer permitieron a los usuarios acceder fácilmente a información y servicios en línea.

Multimedia: Los avances en hardware y software durante la Segunda Plataforma permitieron la proliferación de contenido multimedia. Se desarrollaron formatos de archivo como JPEG para imágenes, MP3 para música y MPEG para video, lo que permitió a los usuarios crear, compartir y consumir una amplia gama de contenido multimedia en sus PCs.

Aplicaciones de Productividad: Surgieron numerosas aplicaciones de productividad durante esta época, incluyendo suites de oficina como Microsoft Office y aplicaciones de diseño gráfico como Adobe Photoshop. Estas aplicaciones permitieron a los usuarios realizar una variedad de tareas, desde procesamiento de texto hasta diseño gráfico, en sus PCs.

¿Cuáles son las características de la Tercera Plataforma Informática?

La Tercera Plataforma Informática es una evolución que abarca desde finales del siglo XX hasta la actualidad, y se caracteriza por una serie de avances tecnológicos que han transformado significativamente la forma en que interactuamos con la información y la tecnología. Aquí tienes algunas de sus características principales:

  • Computación en la nube (Cloud Computing): La computación en la nube permite el acceso a recursos informáticos, como almacenamiento, servidores y aplicaciones, a través de Internet. Esto proporciona una mayor flexibilidad, escalabilidad y eficiencia en comparación con la infraestructura tradicional de TI basada en servidores locales.

  • Big Data: El término "Big Data" se refiere al manejo y análisis de grandes volúmenes de datos, tanto estructurados como no estructurados. La Tercera Plataforma ha visto un explosivo crecimiento en la generación y el almacenamiento de datos, y las tecnologías de Big Data permiten extraer información valiosa de estos datos para tomar decisiones informadas.

  • Movilidad: La proliferación de dispositivos móviles, como teléfonos inteligentes y tabletas, ha cambiado la forma en que accedemos a la información y realizamos tareas diarias. La movilidad permite a los usuarios acceder a servicios y aplicaciones desde cualquier lugar y en cualquier momento, lo que ha impulsado la demanda de experiencias de usuario móviles y optimizadas para dispositivos móviles.

  • Redes Sociales: Las redes sociales han transformado la forma en que nos conectamos, interactuamos y compartimos información en línea. Plataformas como Facebook, Twitter, Instagram y LinkedIn han creado comunidades en línea y han facilitado la colaboración, la comunicación y el intercambio de contenido entre usuarios de todo el mundo.

  • Internet de las Cosas (IoT): El Internet de las Cosas se refiere a la interconexión de dispositivos físicos a través de Internet, permitiendo la recopilación y el intercambio de datos en tiempo real. Esto ha dado lugar a una amplia gama de aplicaciones en áreas como la domótica, la salud, la agricultura, la industria y más.

  • Inteligencia Artificial (IA) y Aprendizaje Automático (Machine Learning): La IA y el aprendizaje automático están revolucionando diversos campos, desde la atención médica hasta la publicidad en línea. Estas tecnologías permiten a las máquinas aprender de datos y realizar tareas que tradicionalmente requerían la intervención humana, como el reconocimiento de voz, la clasificación de imágenes y la toma de decisiones automatizadas.

¿Existe una Cuarta Plataforma?

La noción de una "Cuarta Plataforma Informática" aún no es tan establecida como las anteriores, pero se refiere a un conjunto de tecnologías emergentes que están moldeando el futuro de la computación y la sociedad digital. Aunque no existe un consenso definitivo sobre cuáles serán todas sus características, hay ciertas tendencias y tecnologías clave que están comenzando a definir esta nueva fase. Aquí hay algunas posibles características de la Cuarta Plataforma Informática:

  • Computación Cuántica: La computación cuántica tiene el potencial de revolucionar la forma en que procesamos y analizamos datos. Basada en los principios de la mecánica cuántica, esta tecnología podría resolver problemas extremadamente complejos de manera mucho más eficiente que las computadoras clásicas.

  • Inteligencia Artificial Generalizada: La Cuarta Plataforma podría estar marcada por el avance hacia una inteligencia artificial más generalizada, que puede abordar una variedad más amplia de tareas cognitivas y adaptarse a diferentes contextos de manera más efectiva. Esto podría incluir sistemas que pueden razonar, comprender el lenguaje natural y aprender de manera más flexible.

  • Blockchain y Criptomonedas: La tecnología blockchain, conocida por su uso en criptomonedas como Bitcoin y Ethereum, está siendo explorada para una variedad de aplicaciones más allá de las transacciones financieras. Esto incluye contratos inteligentes, gestión de identidad, votación electrónica, trazabilidad de la cadena de suministro y más.

  • Realidad Aumentada y Virtual: La realidad aumentada (AR) y la realidad virtual (VR) están ganando terreno en la Cuarta Plataforma, ofreciendo experiencias inmersivas que combinan el mundo físico con el digital. Esto tiene aplicaciones en áreas como el entretenimiento, la educación, la capacitación y la colaboración.

  • Edge Computing: Con el aumento de dispositivos conectados y la generación de datos en el borde de la red, el edge computing se está convirtiendo en una parte importante de la infraestructura de la Cuarta Plataforma. Esto implica procesar datos cerca de donde se generan, lo que reduce la latencia y la carga en las redes centrales.

  • Biotecnología y Computación Bioinspirada: La Cuarta Plataforma podría ver una mayor integración entre la tecnología y la biología, con avances en áreas como la ingeniería genética, la medicina personalizada y la computación bioinspirada, que se inspira en los procesos biológicos para resolver problemas de manera eficiente.

Ahora llegó el turno de hablar de manera específica acerca de la Internet. Que como vimos aunque formalmente nace dentro de la Primera Plataforma Informática (como ARPANET), es en la Segunda Plataforma Informática (sobre todo por apegarse a la Arquitectura Cliente-Servidor y ser altamente popular).

Es precisamente la Internet, la World Wide Web o simplemente Web, la que también ha evolucionado en varias versiones. Comencemos entonces preguntándonos

¿Qué es la Web?

Es un sistema de información basado principalmente en hipertexto, que permite acceder y consultar recursos informáticos. Fue concebida por Tim Berners-Lee en 1989 y se desarrolló en el Centro Europeo de Investigación Nuclear (CERN) a principios de la década de 1990.

En términos simples, la Web es una vasta colección de documentos interconectados entre sí mediante enlaces (también conocidos como hipervínculos), que permiten a los usuarios navegar de un documento a otro con solo hacer clic en estos enlaces. Estos documentos pueden incluir páginas web, imágenes, videos, archivos de audio, aplicaciones en línea y más.

La Web se basa en varios protocolos y estándares, siendo el más notable el Protocolo de Transferencia de Hipertexto (HTTP), que permite la transmisión de datos entre servidores web y navegadores de Internet. Otro estándar clave es el Lenguaje de Marcado de Hipertexto (HTML), que se utiliza para crear y formatear documentos web.

Además de HTTP y HTML, la Web también se apoya en otros estándares y tecnologías, como los navegadores web (por ejemplo, Chrome, Firefox, Safari), los servidores web (como Apache, Nginx), los lenguajes de programación del lado del servidor (como PHP, Python, Ruby), las hojas de estilo en cascada (CSS), JavaScript, y más.

¿Cuáles han sido, son y se tiene ya previsto que a mediano plazo serán las generaciones de la Web? 

La Web 1.0, la Web 2.0 y la Web 3.0 son términos que se utilizan para describir diferentes etapas en la evolución de Internet y la World Wide Web. Aquí tienes una breve descripción de cada una:

Web 1.0: Esta es la primera fase de la web, que se desarrolló principalmente en la década de 1990. En esta etapa, la web era estática y principalmente unidireccional, con un énfasis en el consumo de contenido. Los sitios web eran principalmente informativos y no permitían mucha interacción por parte de los usuarios. Las páginas web se construían con HTML básico y eran estáticas en su diseño.

Web 2.0: La Web 2.0 emergió a principios de los años 2000 y representa una evolución significativa de la Web 1.0. En esta etapa, los sitios web se volvieron más dinámicos y colaborativos, permitiendo una mayor interacción entre los usuarios. Se introdujeron aplicaciones web interactivas, redes sociales, blogs, wikis y otras plataformas que fomentaban la participación activa de los usuarios. La Web 2.0 se caracteriza por la creación y el intercambio de contenido generado por el usuario, así como por la colaboración en línea.

Web 3.0: La Web 3.0 es una fase de desarrollo más reciente y aún en evolución. Se refiere a una web más inteligente, descentralizada y personalizada. La Web 3.0 está impulsada por tecnologías como la inteligencia artificial, el aprendizaje automático, la blockchain y el Internet de las cosas (IoT). Se espera que la Web 3.0 permita experiencias en línea más personalizadas, seguras y eficientes, así como una mayor autonomía y control por parte de los usuarios sobre sus datos y actividades en línea.

¿Que SÍ y qué NO son la Web 1.0, la Web 2.0 y la Web 3.0?

Web 1.0:

SÍ es:

  • Estática y principalmente unidireccional.
  • Principalmente informativa, con énfasis en el consumo de contenido.
  • Construida con HTML básico y diseño estático.
  • Caracterizada por la presencia de sitios web como portales de información estática y páginas corporativas.

NO es:

  • Interactiva ni colaborativa.
  • Centrada en la participación activa de los usuarios.
  • Dinámica en términos de contenido y diseño.
  • Impulsada por aplicaciones web avanzadas o redes sociales.

Web 2.0:

SÍ es:

  • Dinámica y colaborativa.
  • Interactiva, permitiendo una mayor participación de los usuarios.
  • Caracterizada por la creación y el intercambio de contenido generado por el usuario.
  • Impulsada por aplicaciones web interactivas, redes sociales, blogs y wikis.

NO es:

  • Estática ni unidireccional.
  • Exclusivamente informativa, aunque aún contiene elementos de información.
  • Restringida a la participación pasiva de los usuarios.
  • Limitada a tecnologías y plataformas web básicas.

Web 3.0:

SÍ es:

  • Inteligente, descentralizada y personalizada.
  • Basada en tecnologías como inteligencia artificial, blockchain, IoT, entre otras.
  • Proporciona experiencias en línea más seguras, eficientes y personalizadas.
  • Da mayor autonomía y control a los usuarios sobre sus datos y actividades en línea.

NO es:

  • Limitada a tecnologías web tradicionales.
  • Una simple extensión de la Web 2.0, sino una evolución significativa.
  • Totalmente definida ni estática, ya que aún está en evolución y desarrollo.
  • Exclusivamente centrada en la interacción humana, sino que también puede involucrar sistemas y dispositivos autónomos.

¿Cuáles serían las aplicaciones prácticas de la Web 1.0, la Web 2.0 y la Web 3.0?

Web 1.0:

Sitios web estáticos: En la Web 1.0, los sitios web eran principalmente estáticos y proporcionaban información básica sobre empresas, organizaciones, productos y servicios. Estos sitios eran útiles para la presentación de información y recursos, pero carecían de interactividad significativa.

Portales unidireccionales de información: Muchos de los sitios web prominentes en la Web 1.0 eran portales de información que ofrecían contenido estático, como noticias, artículos y recursos de referencia. Ejemplos incluyen sitios web de noticias, enciclopedias en línea y directorios de empresas.

Web 2.0:

Redes sociales: Las redes sociales como Facebook, Twitter, Instagram y LinkedIn son ejemplos prominentes de aplicaciones de la Web 2.0. Estas plataformas permiten a los usuarios crear perfiles, conectarse con otros usuarios, compartir contenido, participar en conversaciones y colaborar en línea.

Blogs y wikis: Los blogs permiten a los usuarios publicar contenido en línea de manera regular, mientras que los wikis permiten la edición colaborativa de contenido por parte de múltiples usuarios. Ejemplos populares incluyen WordPress para blogs y Wikipedia para wikis.

Aplicaciones web interactivas: Las aplicaciones web como Google Maps, Gmail, YouTube y Dropbox son ejemplos de aplicaciones interactivas de la Web 2.0 que permiten a los usuarios realizar acciones específicas en línea, como visualizar mapas, enviar correos electrónicos, ver videos y almacenar archivos.

Web 3.0:

Contratos inteligentes: En la Web 3.0, la tecnología blockchain permite la ejecución de contratos inteligentes, que son acuerdos digitales autoejecutables que se ejecutan automáticamente cuando se cumplen ciertas condiciones predefinidas. Estos contratos tienen aplicaciones prácticas en áreas como finanzas, bienes raíces y logística.

Personalización de contenido: La Web 3.0 utiliza tecnologías de inteligencia artificial y aprendizaje automático para ofrecer experiencias en línea más personalizadas. Esto se ve en plataformas como Netflix, que recomienda contenido basado en el historial de visualización del usuario, y Spotify, que crea listas de reproducción personalizadas según los gustos musicales del usuario.

Internet de las cosas (IoT): En la Web 3.0, los dispositivos conectados a Internet, como sensores, cámaras y dispositivos domésticos inteligentes, pueden comunicarse entre sí y con los usuarios para proporcionar información en tiempo real y automatizar tareas. Ejemplos incluyen termostatos inteligentes, sistemas de seguridad doméstica y dispositivos de seguimiento de fitness.

¿Cuál sería el tiempo de vida y/o vigencia de la Web 1.0, la Web 2.0 y la Web 3.0?

El concepto de "tiempo de vida" en el contexto de las diferentes etapas de la web puede ser un tanto subjetivo y depende de varios factores, incluyendo la evolución tecnológica, las tendencias del mercado y las necesidades de los usuarios. Sin embargo, puedo ofrecerte algunas observaciones sobre cómo ha evolucionado y podría evolucionar cada etapa:

Web 1.0:

La Web 1.0 podría considerarse como una etapa inicial en la evolución de Internet y la web.

En términos de tiempo de vida, aunque la Web 1.0 como concepto ya no es predominante en la actualidad, muchas de las tecnologías y prácticas asociadas aún persisten en la web moderna.

Sitios web estáticos y portales de información todavía existen, aunque han evolucionado para incorporar elementos de interactividad y participación del usuario.

Web 2.0:

La Web 2.0 marcó un cambio significativo hacia la interactividad y la participación del usuario en la web.

En términos de tiempo de vida, la Web 2.0 ha tenido una influencia duradera y sigue siendo relevante en la actualidad.

Muchas de las plataformas y tecnologías asociadas con la Web 2.0, como las redes sociales, los blogs y las aplicaciones web interactivas, continúan siendo fundamentales en el panorama de Internet y se han convertido en parte integral de la vida cotidiana en línea para millones de personas en todo el mundo.

Web 3.0:

La Web 3.0 es una fase de desarrollo más reciente y aún en evolución, que se centra en aspectos como la inteligencia artificial, la descentralización y la personalización.

En términos de tiempo de vida, la Web 3.0 está emergiendo y se espera que continúe evolucionando en los próximos años.

A medida que tecnologías como la inteligencia artificial, la blockchain y el Internet de las cosas maduran y se integran más en nuestras vidas y en la infraestructura de Internet, la Web 3.0 probablemente seguirá expandiéndose y transformando la forma en que interactuamos con la web y con el mundo digital en general.

Conclusión

Las Tecnologías de la Información engloban una variedad de recursos, herramientas y sistemas utilizados para recopilar, procesar, almacenar, transmitir y gestionar información de manera efectiva, lo que tiene un impacto significativo en la forma en que vivimos, trabajamos y nos relacionamos en la era digital.

La Primera Plataforma Informática sentó las bases para el desarrollo posterior de la informática, estableciendo principios fundamentales en términos de arquitectura de computadoras, procesamiento de datos y desarrollo de software.

La Segunda Plataforma Informática estuvo marcada por la descentralización de la computación, la proliferación de PCs y redes locales, el desarrollo de sistemas operativos gráficos, la popularización de Internet y el surgimiento de contenido multimedia y aplicaciones de productividad. Estas características sentaron las bases para la era digital moderna y continuaron influyendo en la evolución de la tecnología de la información en las décadas siguientes.

La Tercera Plataforma Informática se caracteriza por la adopción generalizada de la computación en la nube, el análisis de Big Data, la movilidad, las redes sociales, el Internet de las Cosas y la inteligencia artificial. Estos avances tecnológicos están impulsando la innovación en una amplia gama de industrias y están transformando la forma en que vivimos, trabajamos y nos relacionamos en la era digital.

La Web es un sistema de información global que permite a los usuarios acceder y compartir una amplia gama de recursos en línea, facilitando la comunicación, la colaboración, el entretenimiento, el comercio y mucho más en la era digital.

Estamos seguros que en un lustro hacia el futuro, veremos más cambios y nuevas etapas evolutivas para nuestras Tecnologías de la información en general, así como para la Web en lo particular.

¿Está Usted preparado para todo lo ya hay y todo lo que está por venir?

martes, 29 de mayo de 2018

Las cinco etapas de la Disrupción Tecnológica

El momento Kodak

La mayoría de las personas ya saben cómo Kodak fue demasiado lento para reconocer el rápido cambio del mercado de la cámara a digital. El golpe fatal para Kodak fue la destrucción rápida y completa de su negocio de consumibles: película. Perder terreno en las ventas de cámaras ciertamente aceleró el final, pero fue el colapso de la película y el procesamiento lo que causó su estrepitosa caída.

Infraestructura de Internet

Desde finales de los años 90 en adelante, enormes cantidades de dinero se destinaron a la construcción de infraestructura de Internet. Pero a finales de la década de los noventa, el mercado comenzó a preguntarse: ¿dónde estaban los ingresos? (y mucho menos los beneficios). La respuesta fue un "¡no sé!" tan contundente que estalló la burbuja y la valoración del mercado se redujo enormemente. En otras palabras, la disrrupción se interrumpió.

La tecnología cumple con los modelos comerciales disruptivos

Echemos un vistazo a Uber, una fabulosa tecnología de usuario que combina conductores con pasajeros. En sí mismo, eso no es particularmente innovador... hasta que se encuentra el beneficio de "costo marginal cero". Esto le permite a Uber usar los controladores en un modelo de "entrega para todo" sin costos incrementales notables para sí mismo. Cuesta lo mismo entregar cualquier cosa, desde clientes y comida rápida hasta parcelas e incluso ataques de gripe.

Por sí solo, tal vez esto sea suficiente para dar a Fedex y UPS un momento Kodak, pero ha ido más allá de eso. Uber recientemente compró una API que permite a otras empresas utilizar los servicios de Uber. Actualmente en Estados Unidos, Opentable, una aplicación para reservar mesas de restaurantes, incluye Uber como parte del servicio, por lo que la reserva de una mesa incluye automáticamente un viaje en Uber ida y vuelta. Es integración horizontal sin costo marginal. Así entonces tenemos:

tecnología + costo marginal cero = disrrupción escalable


Internet de las cosas e inteligencia artificial

Imagine un mundo de negocios donde todo está conectado. Todo. Son materias primas para el transporte, la fabricación, la distribución, el comercio minorista, el consumidor, y más allá de eso para la participación del consumidor.

El Internet de las cosas permitirá todo eso, proporcionando una vista de principio a fin de todo el proceso en tiempo real. Por lo menos, eso provocará ahorros en cada paso del camino. El mundo desperdicia mil millones de dólares en alimentos cada año, pero con análisis en tiempo real de la producción, el transporte y el consumo, que podrían reducirse a unas pocas decenas de millones. Todo fue posible gracias a la comprensión avanzada de los datos en tiempo real a través de análisis de inteligencia artificial.

La curva de adopción

Los autos de la marca Tesla ahora pueden usar una actualización de software para proporcionar un 'modo ridículo': de 0 a 60 millas por hora en 2.9 segundos. Es un automóvil eléctrico que ofrece el mismo rendimiento que un Ferrari 488. La actualización de Tesla demora 20 minutos en instalarse y cuesta $ 10,000. Actualizar a un Ferrari 488 llevará a un cliente dos años en lista de espera y costará al norte de $ 300,000. ¿Hai capito tutto?

Las curvas de adopción se están volviendo más empinadas. Tomemos la realidad virtual, que hace diez años prácticamente no tenía usuarios. Luego viene Oculus Rift, que entusiasma a los usuarios lo suficiente como para pensar brevemente en gastar $ 300.00 USD, pero no lo suficiente para que muchos lo hagan.

Google, descubriendo la oportunidad, saca Google Cardboard: una caja de cartón de sólo $ 5.00 USD con el objetivo de sacar al mercado a los primeros usuarios. Simplemente agregue un teléfono inteligente a la caja y tendrá un auricular con Realidad Virtual para el que los responsables del contenido están felices de diseñar. Por lo tanto, la curva de adopción se agudiza porque, por supuesto, Google ya tendrá disponible un producto más exclusivo (y profesional) más adelante.

Estos mismos cinco principios se pueden ver en numerosos sectores empresariales. El valor y el beneficio se afianzan en los conjuntos de datos de los líderes de la industria, lo que aleja los ingresos de donde tradicionalmente se ha hecho. Un cambio tan profundo puede crear (y lo está haciendo) un cambio social, ya que la Inteligencia Artificial ha generado y seguirá creando desempleo en sectores previamente considerados como "seguros".

A esto último, vale la pena tomar en cuenta la entrada intitulada: "¿Cómo te preparas cuando el 85% de los trabajos de 2030 aún no se han creado?". Lo peor es convertirse en un pesimista consumado, encegueciéndose y dejando pasar las oportunidades que ya son visibles, para las siguientes dos o tres décadas de este Siglo XXI.

La disrrupción de la disrrupción aún no ha terminado...


lunes, 9 de abril de 2018

Los 10 principales lenguajes de programación

Hace tiempo que no echábamos una mirada a los Lenguajes de Programación, para tener una idea de cuáles son los más populares y útiles. Aquí hay un vistazo a 10 lenguajes de programación que lo harán rico, popular e increíblemente atractivo. O tal vez solo lo ayuden a conseguir o conservar un trabajo, que de todos modos es mejor.

Las preguntas sobre los lenguajes de programación simplemente no desaparecerán. Los argumentos sobre cuál es el más popular, el más útil, el de más rápido crecimiento o el más insanamente diseñado son tan comunes en ciertos rincones del mundo tecnológico, ya que los argumentos sobre la importancia de las fases lunares son para los fanáticos de las estadísticas del béisbol.

Para los programadores, sin embargo, los argumentos se reducen a una simple pregunta: ¿Qué idioma me ayudará a ganar más dinero por el período más largo de tiempo? En el lenguaje de la economía, ¿en qué idioma la inversión de tiempo y aprendizaje traerá el mayor rendimiento?

No pretendemos ser asesores de inversiones, pero invertimos más que nuestro tiempo mirando diferentes sitios web que clasifican la popularidad y el uso (tanto relativo como absoluto) de los lenguajes de programación.

Ahora podemos observar las listas con cierto desapego. Ya no nos ganamos la vida como programadores, y los lenguajes que una vez utilizamos hace tiempo que han desaparecido de todas las listas menos esotéricas. Pero estamos muy interesado en lo que dicen las listas, porque creemos que los idiomas que importan dicen mucho sobre hacia dónde van la tecnología y los profesionales de las Tecnologías de la Información (TI).

La lista que hemos reunido aquí, se creó al observar más de media docena de listas separadas en la Web. Incluyendo el índice TIOBE, que calcula las calificaciones basadas en 25 motores de búsqueda; General Assembly, una empresa de educación de TI; PYPL, que analiza la frecuencia con la que se buscan los tutoriales en Google; CodeEval, que analiza cientos de miles de puntos de datos recopilados mediante el procesamiento de más de 1,2 millones de presentaciones de desafíos; y Tech.co, que es el lenguaje de programación más popular en GitHub; entre otros.

Algunas de las listas examinaban los anuncios de trabajo, otras en las búsquedas de capacitación y otras más, sobre la frecuencia con la que se enviaban programas en determinados idiomas para las ejecuciones de control de calidad. Eso significa que algunas de las listas eran todas de hoy, algunas sobre el mañana y algunas sobre lo que sucederá un año o más en el futuro. Lo fascinante es la cantidad de idiomas que eran comunes a todas las listas.

Así que ahí es donde dibujamos nuestra lista. Si apareció un idioma en todas las listas, entonces lo incluimos en nuestra lista. Hay algunos en la lista que no aparecían en todas las listas de fuentes, y hay algunas cosas que necesitamos saber en base a esa información.

Primero, la lista no tiene ninguna clasificación. Los primeros siete idiomas son tratados por igual, aparecieron en casi todas las listas que vimos. Los últimos tres son diferentes. Son más visionarios, por lo que tendían a provenir de listas que analizaban los idiomas que crecían rápidamente en uso o los idiomas que la gente quería aprender.

Ah, y una cosa más: aquí no nos estamos metiendo en todos los lenguajes de "scripting" versus el artículo de lenguajes "reales". Estos son todos los idiomas que hacen que los sistemas hagan cosas. Eso es suficiente. Tendremos el argumento del lenguaje de scripting más tarde.

Java

Nos encanta, lo odiamos, o ambas, Java no va a desaparecer pronto. Java tiene más de 20 años y ha sido uno de los lenguajes de programación más populares, si no el más, en Universidades Empresas en los últimos años.

La promesa de -"escribir una vez, correr a cualquier parte"- es poderosa y la mayoría de las aplicaciones comerciales, no se verán obstaculizadas por la debilidad relativa de Java al alcanzar la capa "Bare Metal" para el control. Si está buscando actualizar su estado económico y aún no tiene Java en su conjunto de habilidades, ciertamente debe estar en su lista de los "lenguajes a aprender".

Structured Query Language o SQL

SQL ha existido de una forma u otra, desde la década de los 70's y no va a ningún lado en el corto plazo. A pesar de que los grandes volúmenes de datos (Big Data), con todos sus lagos de datos no estructurados y muy diversos tipos de datos se están volviendo más importantes, la mayoría de los datos del mundo empresarial aún se almacenan en Bases de Datos Relacionales muy estructuradas. Y el lenguaje para realizar altas, bajas, cambios y consultas de la base de datos estructurada, es Structured Query Language o SQL.

No va a utilizar SQL fuera del ámbito de la base de datos, pero eso aún deja muchos desarrollos que las compañías pagarán. Incluso si nunca se convierte en un Administrador de Bases de Datos (DBA) importante, saber SQL dará sus frutos cuando necesite acceder a una base de datos en busca de información, para una aplicación más grande escrita en otro lenguaje.

Python

Python es uno de los lenguajes que muchos desarrolladores adoran y muchos otros adoran odiar. Es un lenguaje muy similar a un script, que tiene la gran ventaja de ser bastante compacto y en general, rápido de escribir. Con eso viene la desventaja de ser un lenguaje interpretado, con todos los problemas de seguridad y rendimiento potencial que conlleva. Muchas empresas ven la velocidad (y la ubicuidad) como razones para superar las preocupaciones de seguridad, y hay marcos muy sólidos que se ocupan de muchos problemas.

Dado que Python no es tan complejo como algunos de los lenguajes de programación "superiores", generalmente puede ser competente con una menor inversión de tiempo. Es una inversión que puede dar grandes dividendos a la hora de buscar el próximo desarrollo.

Javascript

Si confía en que nunca se le pedirá que escriba una aplicación basada en la Web, entonces puede ignorar Javascript de forma segura. Si existe la posibilidad de que una aplicación web (o, para ser honestos, una aplicación móvil) esté en su futuro, entonces tomarse el tiempo para aprender Javascript podría ser una inversión muy inteligente.

Javascript no es el tipo de lenguaje que utilizará para la programación del sistema o para escribir aplicaciones de análisis de dinámica de fluidos en una supercomputadora, pero es increíblemente popular y útil para lo que hace para agregar peso e interactividad al HTML. Es un lenguaje que no muestra ningún signo de desvanecimiento en la próxima media década.

C++

Cuando llega el momento de la programación del sistema o aplicaciones avanzadas de cualquier tipo, C++ sigue siendo el lenguaje que con más frecuencia se necesita para el trabajo. Este lenguaje que surgió de un preprocesador orientado a objetos para C, ha existido por más de 30 años y tiene la distinción de ser un idioma heredado y un idioma que todavía se enseña en una enorme cantidad de programas de informática en todo el mundo.

No es tan fácil de aprender como algunos de los lenguajes de scripting en la lista, pero hay poco que no puedas hacer con eso. Si la programación empresarial "seria" está en su lista de carrera, entonces C++ realmente debe estar en su lista de lenguages para aprender.

C#

Antes de que Microsoft se convirtiera en un promotor corporativo de estándares abiertos y software de código abierto, siguió su propio camino para muchas cosas. Una de esas cosas era C#, un lenguaje basado en C pero optimizado para el mundo Microsoft .NET. El marco de Microsoft todavía es utilizado por cientos de miles de aplicaciones y empresas en todo el mundo.

C# sigue siendo una forma efectiva y eficiente de escribir aplicaciones en ese marco. Hay suficientes similitudes entre C++ y C# para hacer que el cambio de uno a otro sea un esfuerzo moderado (en lugar de un re-aprendizaje completo), y la adherencia de C # a la Common Language Infrastructure lo hace flexible. Si su mundo de aplicaciones incluye una infraestructura de Microsoft, vale la pena agregar C# a su conjunto de habilidades.

PHP

No hay dudas al respecto, PHP es un lenguaje de scripting. De hecho, es un lenguaje de scripting muy ligado a las aplicaciones basadas en navegador. La cuestión es que hay muchas aplicaciones basadas en navegador y la historia indica que habrá muchas más en el futuro. PHP no es un lenguaje hermoso y elegante.

Es una cosa en expansión que creció de manera orgánica a lo largo de los años. Sin embargo, el hecho de que es complicado, no hay razón para que no puedas escribir un código efectivo y poder escribir ese tipo de código en PHP, puede hacerte muy, muy atractivo.

Swift

Swift es el lenguaje de programación de Apple para iOS y OSX, un lenguaje que recientemente (en la versión 2.2) ha convertido en código abierto. Ahora hay versiones de Swift disponibles para plataformas Linux y Microsoft, e IBM ha puesto Swift disponible en su Swift Sandbox.

Swift surgió de Objective-C, lo que significa que si has pasado algún tiempo en cualquiera de las variantes del lenguaje C, deberías poder elegir Swift bastante rápido. Incluso si no eres fanático de Apple, el soporte de IBM debería hacer que Swift se utilice en más y más entornos empresariales. Tener a Swift en su cartera debería ser una de esas cosas que rinde frutos en los años venideros.

Go

Go es uno de los idiomas más nuevos en esta lista, solo tiene una década de antigüedad en este momento. Lo que hace que Go sea un candidato para un idioma que debes aprender es que salió de Google, y es un poderoso aliado para cualquier idioma.

En cierto modo, Go es un lenguaje "clásico". Está compilado y con tecleo estático, y se remonta a idiomas como Fortran y C. Go está disponible en una amplia variedad de plataformas y muestra signos de crecimiento.

Este es un poco más accesible en comparación con la mayoría de los otros idiomas en la lista, porque invertir en aprender Go es dar un salto de fe de que va a ser adoptado por más empresas. Sin embargo, dada la trayectoria de crecimiento que ha seguido Google, ese no es el salto más riesgoso del mundo. Si tiene una caja de herramientas llena de los idiomas básicos, Go podría ser una adición muy interesante.

R

Si bien la mayoría de los otros idiomas en esta lista son lenguajes de propósito general, R está diseñado para el análisis de datos. La cuestión es que el análisis empresarial y Big Data están creciendo exponencialmente, por lo que si desea prepararse para aprovechar el crecimiento, entonces R es un lenguaje que debe aprender.

R no es nuevo, ya que ha existido por más de 20 años. Durante la mayor parte de ese tiempo, sin embargo, solo se conocía dentro de los mundos de estadística y análisis numérico. El crecimiento del mercado de inteligencia empresarial impulsó el crecimiento de R y ahora aparece con frecuencia en listas de idiomas en rápido crecimiento.

Si tiene los ojos puestos en los puestos de trabajo como "científico de datos", entonces podría hacer mucho peor que agregar R a su conjunto de habilidades de programación.

Entonces, esta es nuestra lista. Diez idiomas que son grandes, están creciendo, o ambos. ¿Cuántos de estos conoce? Más importante, ¿cuántos le gustaría saber (o le gustaría que los desarrolladores que contrata lo sepan)? Durante mucho tiempo creí que los programadores completos deberían tener más de un idioma en sus manos.

Al final es cierto que debemos ser expertos en al menos un lenguaje, pero en estos días la versatilidad es algo que resulta imperativo en las áreas de desarrollo de hoy.

martes, 27 de febrero de 2018

Contenedores: Historias de éxito de tres organizaciones clave

Como parte de las tecnologías que aporta la Cuarta Revolución Industrial, la Tercera Plataforma y la Transformación Digital, la Micro-Segmentación y los Contenedores, se han convertido en el cimiento y la piedra angular de la estrategia de DevOps, para muchas empresas y organizaciones en el mundo.

Hablando concretamente de los Contenedores, en 2016, vimos que los contenedores entraron en el ámbito de las Tecnologías de la Información de muchas empresas, sumergiendo los dedos de los pies en el prometedor mar de contenedores.

En 2017, vimos incluso más ejemplos de organizaciones que lograron resultados reales con proyectos piloto. Tenemos referencia de varias organizaciones líderes en la industria, que se esfuerzan por resolver problemas y mejorar la eficiencia mediante el uso de contenedores. Aquí veremos el caso de tres compañías líderes y cómo los contenedores les ayudan a mantenerse en la cima.

1. ADP (Automatic Data Processing)

ADP es un gigante cuando se trata de soluciones de gestión de capital humano basadas en la nube, con más de 630,000 clientes, 35 millones de usuarios y 5 millones de inicios de sesión al día en todo el mundo. Brindan una gama de servicios desde el "outsourcing" hasta la jubilación. Solo en el último año han movido aproximadamente $ 1.8 trillones de dólares estadounidenses a través de sus sistemas y administran, en más de 80 millones de registros de Seguridad Social. No es de extrañar que el gobierno de los EE. UU. Considere al ADP como una infraestructura crítica.

Ahora que entendemos el tamaño, la influencia y las apremiantes inquietudes de seguridad de ADP, ¿por qué una empresa así adoptaría tecnología tan nueva como los Contenedores? Bueno, en pocas palabras, es debido a los diversos desafíos que enfrentan:

Impulso para el desarrollador

Al igual que la mayoría de los líderes de la industria, uno de los desafíos a los que ADP se enfrenta es cómo obtener más código en producción, más rápido. Una de las desventajas de intentar ciclos de vida de desarrollo más rápidos, es que se hace más difícil dar seguimiento a los problemas. El beneficio de trabajar con Contenedores es que permite a los desarrolladores, tener una retroalimentación y trazabilidad mucho más rápida, lo que permite encontrar errores de manera más expedita.

Esto ayuda a corregir el código que está más fresco en las mentes de los desarrolladores, en lugar de descubrirlo semanas o meses después, lo que resulta en una búsqueda de brujas intensiva en recursos sobre qué cambio lo causó y cuándo. También ayuda a los desarrolladores a enfocarse en el problema en lugar de utilizar diferentes funciones de programador, administrador de sistemas y solución de problemas, intercambiandolos entre ellos para llegar al meollo del problema.

Mantenerse por encima y por delante de la competencia

Una de las ventajas de los contenedores que ADP aprovechó, es la compatibilidad relativa y los buenos estándares que permiten. Si Docker Swarm no era su "taza de té", siempre pueden cambiar de carril y usar los mismos contenedores en Mesosphere, Kubernetes o Triton, siendo Kubernetes el favorito del público hoy en día. Tampoco los encierra en el uso de una plataforma específica, pudiendo elegir aquella que funcione para sus necesidades.

Otro desafío al que ADP se enfrenta, es que el mundo está cada vez más centrado en dispositivos móviles y tienen numerosas aplicaciones en varios clientes, por lo que necesitan tener estándares que permitan un breve tiempo de desarrollo, desde el diseño hasta la implementación para ser relevantes y mantenerse a la cabeza de la competencia. Como se discutió anteriormente, el flujo de trabajo del Contenedor permite una retroalimentación más rápida, pero también permite microservicios ágiles.

En su mayoría, éstos se ejecutan en la parte posterior de las API y permiten que un servicio sea más relevante durante más tiempo, ya que el reempaquetado de la interfaz y la adición de más API para lograr nuevas características y funcionalidad, es mucho más rápido que lanzar una nueva versión de una aplicación.

A partir de abril de 2017, ADP tenía 469 motores Docker y 3771 contenedores en Máquinas Virtuales, Mainframes, Bare Metal Cloud Servers y Amazon Web Services. En su repertorio también han construido más de 9,000 imágenes únicas.

2. PayPal

Al ser un líder global en soluciones de pago en línea, PayPal tiene más de 210 millones de usuarios activos, 200 mercados internacionales, más de $ 100 mil millones de dólares americanos en transacciones de pago por trimestre, operando con 24 monedas en todo el mundo. Este gran éxito, sin embargo, viene con sus propios desafíos.

Veamos cómo PayPal realizó una modernización exitosa y muy necesaria del centro de datos con Docker, y cómo ellos integraron Docker en su ciclo de vida de desarrollo de software. Esta revisión fue necesaria para que PayPal logre nuevas eficiencias operativas y aumente la disponibilidad de las aplicaciones. La disponibilidad de aplicaciones es particularmente crucial para PayPal, ya que algunos de sus clientes utilizan PayPal como La Solución exclusiva de procesamiento de pagos.

Como premisa principal, PayPal quería mantener su agilidad y concentrarse en ofrecer sistemas financieros en tiempo real, de alto rendimiento. Veamos lo que hicieron para asegurar una transición exitosa:

Aplicaciones en contenedores

PayPal lanzó su primer Contenedor en Aseguramiento de la Calidad (QA por sus siglas en inglés) y producción en abril de 2016, imitándolo a solo un equipo central dedicado para conducir esta transición a los contenedores Docker, con el objetivo de evitar la interrupción de su ecosistema actual.

En el transcurso de unos meses, comenzaron a experimentar las ventajas del enfoque de Contenedor, siendo una de las más importantes aquella en la quelas aplicaciones se estaban desacoplando del Sistema Operativo, pudiendo con esto modernizar su infraestructura sin necesidad de actualizar la aplicación. Además de que, dado un Sistema Operativo y kernel modernos podrían utilizarse fácilmente sin impacto para la aplicación, PayPal notó que algunas de sus aplicaciones recibieron un aumento de eficiencia de entre un 10% al 20%, sin experimentar o realizar cambios en el código. ¡Una consecuencia bienvenida!

Empoderamiento del desarrollador

Las herramientas de productividad para que los desarrolladores aprovechen los contenedores comenzaron a implementarse a principios de 2017.

Una estrategia que utilizó PayPal fue que habilitó las computadoras portátiles de sus desarrolladores con un conjunto completo de herramientas que les permite construir, implementar y depurar localmente, para posteriormente fomentar la adopción masiva.

Esto también provocó un aumento del 50% en la construcción por parte de los desarrolladores para implementar ciclos de vida, al desarrollar y probar localmente. Una de las recompensas de las que se dieron cuenta, fue que los sistemas de implementación patentados podrían descartarse, ya que Docker permite desasociar la implementación de las pilas de marcos de trabajo, simplificando así el desarrollo.

Contenedores como un Servicio (CaaS)

A finales de 2017, las primeras aplicaciones se lanzaron en una plataforma de Contenedor como un Servicio (CaaS por sus siglas en inglés) y esto trajo consigo una notable caída del 50% en el uso de vCPU en QA, así como un claro descenso del uso de vCPU del 25% en producción.

La escalabilidad de sus aplicaciones se mejoró al eliminar la sobrecarga de las Máquinas Virtuales. Ahora es un hecho universalmente reconocido, que los contenedores son más rápidos y livianos que las máquinas virtuales y esto trae consigo muchas ventajas.

El principal cambio del uso de CaaS fue que una plataforma se podía usar en todos los entornos con monitoreo y alertas consistentes, evitando la necesidad de construir nueva infraestructura cada vez que se necesita una nueva experiencia.

PayPal ahora tiene más de 700 aplicaciones que se han migrado a Docker y actualmente tiene en producción 45,000 hosts de Máquinas Virtuales con contenedores, así como más de 150,000 contenedores. PayPal garantiza que cualquier aplicación nueva, será ejecutada dentro de un contenedor, sin excepciones.

3. Metlife

MetLife es uno de los mayores proveedores mundiales de seguros, con 145 años de historia y más de 100 millones de clientes en 50 países. Este peso pesado tiene más de 400 sistemas de registros con aplicaciones que tienen más de 30 años.

Metlife está utilizando contenedores para transformar y mejorar sus ofertas de productos y gestión de la información a sus clientes. MetLife, al ser una empresa tan antigua, tiene muchos sistemas heredados. Tanto es así que todavía tienen un código que fue escrito en 1982 y todavía en producción.

Estas aplicaciones heredadas son difíciles de mantener, difíciles de integrar y una molestia para brindar soporte. Entonces emplearon un enfoque de tres pasos usando contenedores para revisar completamente sus aplicaciones antiguas:

Microservicios

Uno de los primeros pasos que dieron fue envolver sus aplicaciones heredadas en microservicios, es decir, modernizar los sistemas heredados con una capa de microservicios. El enfoque consistió en dividir varias piezas de la lógica comercial en partes modulares que se pueden escalar de forma diferente y administrar con facilidad. Utilizaron Docker Datacenter para resolver los diversos microservicios que derivaban en severas complejidades.

Convertirse en un agnóstico de datos

La mayoría de estos sistemas usan sistemas arcaicos de almacenamiento y son de difícil acceso. MetLife tuvo que reemplazarlos con varias tecnologías modernas como API, herramientas de Big Data y NoSQL para proporcionar acceso a esta información en múltiples aplicaciones. Esto permitió a los desarrolladores tener sus aplicaciones accediendo a los datos de una manera moderna y segura, sin preocuparse si está alojado en un mainframe arcaico o una versión obsoleta de una tecnología de base de datos en particular.

Retirar aplicaciones heredadas

Una vez que los microservicios y los datos están conectados, partes completas de estas aplicaciones heredadas pueden desactivarse. Estos microservicios ahora alojados en contenedores ágiles permiten el uso de interfaces de usuario modernas y ofrece a los clientes aplicaciones modernas en línea en línea con ofertas más actuales.

Usando este enfoque, MetLife ha logrado una consolidación de casi el 70 por ciento en su infraestructura de Máquinas Virtuales, así como también ha permitido la escalabilidad de estas aplicaciones usando Docker a través de la nube Azure.

Lo que es más sorprendente es que esta compañía tradicional de Fortune 40, ha implementado de manera impresionante este entorno Docker con aplicaciones para clientes en tan solo cinco meses.

2018: cargamentos de contenedores

No tenemos dudas de que habrá mucho más por venir en términos de características, seguridad y variedad de soluciones de contenedores este año. Los contenedores definitivamente han llegado para quedarse y nos complace ver su adopción en 2017 por parte de las grandes compañías, hasta llegar a nuevas empresas emergentes.

jueves, 22 de febrero de 2018

Redes de Área Amplia Definidas por Ssoftware, indispensables para el éxito del Internet de las Cosas

Una vez más ponemos foco en este elemento ineludible de la Cuarta Revolución Industrial y la Transformación Digital: la Internet de las Cosas (IoT por sus siglas en inglés).

Como antecedente para el tema de esta entrada en particular, vale la pena recordar entradas de este Blog Tecnológico como: "Cuando las Redes son el Problema" y "La Transformación Digital comienza por la Transformación de la Red"

Ahora entonces, es menester recordar el nada lejano año 2017 como un punto de inflexión para el Internet de las cosas (IoT). IoT ciertamente ha sido algo de lo que hablan la mayoría de los líderes empresariales y de Tecnologías de la Información (TI) pero hasta la fecha, las implementaciones se han limitado a verticales clave que han estado conectando cosas durante años, aunque antes le llamábamos conexiones máquina a máquina (M2M).

Durante mucho tiempo hemos sentido que podemos percatarnos cuándo está sucediendo un punto de inflexión tecnológico, en el momento en el que ya no parece ser un gran problema. ¿Recuerdas los primeros días de la virtualización? Los líderes de TI tuvieron que explicar por qué era mejor ejecutar cargas de trabajo en máquinas virtuales, demostrando que no perjudicaría el rendimiento de las aplicaciones. Hoy nadie piensa más en estos problemas porque ahora es la norma. En el mundo de los consumidores, la gente solía exclamar un "ooh" o un "ahh" cuando veían un iPhone. Ahora nadie llama la atención, ya que son omnipresentes.

La Internet de las Cosas se está convirtiendo en parte de nuestra vida

Lo que hemos notado recientemente con IoT, es que las empresas que ya tienen en marcha proyectos o iniciativas relativos a IoT, a menudo nunca usan el éste término. Por ejemplo, hace poco recorrímos el Bell Centre en Montreal, sede de los Canadiens de la NHL en un estadio literalmente conectado todo, incluidos detectores de metales, letreros digitales, sistemas de puntos de venta y casi cualquier otra cosa que se te ocurra. ¿La razón? La conectividad mejora la experiencia del fanático.

Por ejemplo, los detectores de metales conectados permiten que los equipos de operación se reinicien y se sintonicen centralmente, en lugar de tener que retrasar miles de fanáticos mientras se envía a los técnicos para abordar el problema en esa ubicación. Cuando entrevisté al director de TI en la pista, nunca pronunció las palabras "IoT". Él solo conectó las cosas porque era lo correcto para garantizar una gran experiencia para el público y los admiradores.

El aumento de IoT también significa que las empresas deben replantearse sus estrategias en Redes de Área Amplia (WAN por sus siglas en inglés). Estamos seguros de que algunos de ustedes están leyendo esto y pensando -"¿eh?"-, esto porque el vínculo entre la arquitectura WAN e IoT puede no parecer inmediatamente obvio.

¿Cuál es el vínculo entre IoT y la WAN?

El primer y más evidente vínculo es que los dispositivos IoT a menudo se encuentran en ubicaciones remotas, donde sería prohibitivo implementar cualquier combinación de un recurso de Ingeniería de Red "in situ", mucho menos un enrutador, circuitos Multi Protoco label Swithing (MPLS por sus siglas en inglés) y un enlace de respaldo tradicional.

Una Red de Área Ámlia Definida por Software (SD-WAN por sus siglas en inglés) está diseñada para ejecutarse sobre cualquier tipo de conectividad de red, incluidas las redes de banda ancha, celulares o incluso dispositivos IoT, como los circuitos de Baja Potencia de Área Amplia (LPWA por sus siglas en inglés). Con una SD-WAN se pueden conectar dispositivos, o incluso un solo punto final y luego los servicios de red se pueden aplicar en un centro regional. Además una SD-WAN facilita la construcción de la capacidad de recuperación en la red sin grandes afectaciones.

Otro problema es que las implementaciones de IoT suelen ser de tres niveles (dispositivos/sensores, puertas de enlace, nubes) por naturaleza, lo que significa que todos estos componentes deben estar continuamente conectados para que el servicio IoT funcione correctamente. Además del costo, el mayor problema con las WAN existentes es la complejidad. Sin embargo, si crees que las WAN son complicadas, todo lo que puedo hacer es citar a Bachman Turner Overdrive: "B-b-b-baby, aún no te has visto na-na-nada". Todas estas nuevas conexiones llevarán la complejidad a grandes alturas, hasta el punto en que las empresas encontrarán que IoT simplemente no se puede lograr con una arquitecturas de WAN heredadas.

SD-WAN ayuda a habilitar la seguridad de IoT

Por último y nunca menos importante, cuando se trata de IoT el elefante en la habitación es la seguridad,y aquí es donde las WAN tradicionales e IoT, se mezclan tan bien (perdonando el sarcasmo) como el petróleo y el agua. Se han producido y localizado vulnerabilidades e infracciones muy publicitadas, debido a que se ha puesto en peligro un punto final de IoT, creando acceso de puerta trasera a datos confidenciales de los clientes, incluida la información de la tarjeta de crédito.

Las arquitecturas WAN actuales no tienen forma de crear fácilmente zonas seguras donde los puntos finales IoT, puedan aislarse de otros puntos finales de la empresa o la organización. Uno de los casos de uso más comunes de una SD-WAN es extender la microsegmentación a la WAN, permitiendo a las organizaciones crear redes superpuestas que pueden ser tan gruesas o finas como se requiera. Por ejemplo, un hospital puede querer crear segmentos discretos para equipos de rayos X, equipos de Resonancia Magnética (MRI por sus siglas en inglés), aparatos para electrocardiogramas y registros de pacientes, con todos los endpoints de IoT colocados en la misma zona. Una SD-WAN puede acomodar fácilmente una amplia gama de casos de uso.

La era de IoT está aquí y recomendamos encarecidamente a los líderes empresariales y de TI, que consideren cómo evolucionará el negocio una vez que todo esté conectado. IoT es inevitable. Sin embargo, antes de seguir ese camino, retroceda un paso e implemente una SD-WAN para simplificar su arquitectura de WAN, de modo que sus iniciativas de IoT puedan escalar de forma rápida, segura y de acuerdo con los cambiantes requisitos comerciales.

En conclusión, nuevamente queda de manifiesto que sin una implementación de red que considere seguridad, ancho de banda, alcance geográfico y la posibilidad de interconectar dispositivos que pueden crecer exponencialmente, los proyectos que involucren a la Internet de las Cosas no podrán cumplir ni con las mínimas expectativas.