Mostrando entradas con la etiqueta OpenSource. Mostrar todas las entradas
Mostrando entradas con la etiqueta OpenSource. Mostrar todas las entradas

lunes, 27 de julio de 2020

Guía esencial de contenedores

En la entrada anterior intitulada "Antes de entender Contenedores, entendamos Microservicios", ya mencionamos cuál es el motivador para que los Contenedores se convirtiesen en la tendencia tecnológica actual. Tanto desde el punto de vista como Desarrollo como desde Operaciones.

Queremos hacer hincapié de que esto no pretende ser las tablas de la ley, en lo que respecta a los Contenedores. Sino que más bien el objetivo es dar una guía introductoria al Desarrollo Orientado a Microservicios, utilizando Contenedores. Hecha la aclaración, comenzamos.

Los contenedores están explotando en la escena del desarrollo de aplicaciones, especialmente cuando se trata de La Computación en La Nube. Esto se debe principalmente a que la portabilidad ha sido un gran abismo en esta área, dada la naturaleza patentada de algunas nubes públicas, y esta tecnología abstrae las aplicaciones en contenedores virtuales que se pueden mover de una nube a otra.

La arquitectura de Los Contenedores es el otro gran beneficio. Ahora hay una forma estándar de dividir las aplicaciones en objetos distribuidos o contenedores. Seccionar las aplicaciones de esta manera ofrece la posibilidad de ubicarlas en diferentes máquinas físicas y/o virtuales, en La Nube Privada, La Nube Pública o La Nube Híbrida. Esta flexibilidad ofrece más ventajas en torno a la gestión de la carga de trabajo, proporcionando la capacidad de crear fácilmente sistemas tolerantes a fallos.

Además, con el uso de la tecnología de agrupación, programación y orquestación, los desarrolladores pueden garantizar que las aplicaciones que existen dentro de los contenedores, puedan escalar y ser resistentes. Estas herramientas pueden administrar grupos de contenedores utilizando una capa de administración de contenedores bien definida, que proporciona estas capacidades. A medida que el mundo de los contenedores continúa evolucionando y creciendo, se está volviendo difícil construir aplicaciones "contenerizadas" sin estas capas de administración.

Finalmente, la popularidad de los contenedores ha llevado a muchas grandes empresas, como AWS, HP, IBM y otras a jurar lealtad a ellos. Esto proporciona soporte directamente desde las herramientas y tecnología empresariales existentes. También están apareciendo numerosas startups bien financiadas, con soluciones innovadoras para hacer que el desarrollo de contenedores sea mucho más interesante y productivo.

¿Qué significa todo esto para los ingenieros de software? Para responder a esta pregunta, aquí hay una "Guía para Aprovechar los Contenedores de Software" para gerentes y personal dedicado a desarrollo de aplicaciones, lo más centrada en lo que es más importante.

Lo Básico

Docker, el estándar de plataforma de ejecución para contenedores más popular, es un proyecto de código abierto que proporciona una manera de automatizar la implementación de aplicaciones dentro de contenedores de software. Docker es el que realmente comenzó el movimiento del contenedores. Sin embargo, no es el único juego en la ciudad. Empresas como CoreOS tienen su propio estándar de contenedor llamado Rocket, y muchos estándares y productos se están construyendo alrededor de estas tecnologías.

No deje que los contenedores le asusten. Este tipo de enfoque no es nada nuevo: los contenedores se han utilizado durante años como un enfoque para componentes de sistemas completos, abstrayéndolos de la plataforma física, permitiéndole moverlos de una plataforma a otra (o de una nube a otra).

Por ser ya prácticamente un "estándar de facto", centrémonos en Docker por ahora. El kernel de Linux, que está en el contenedor, permite el aislamiento de recursos (CPU, memoria, E/S, red, etc.) y no requiere iniciar ninguna máquina virtual. ¿Cómo? Aquí las palabras clave son "no requiere".

Docker extiende un formato de contenedor común llamado Linux Containers (LXC), con una API de alto nivel que proporciona una solución de virtualización ligera que ejecuta procesos de forma aislada. Docker también proporciona espacios de nombres para aislar por completo la vista de una aplicación del entorno operativo, incluidos los árboles de procesos, la red, las ID de usuario y los sistemas de archivos.

El uso de esta tecnología es bastante emocionante, ya que resuelve un problema obvio y expansivo: ¿cómo proporcionar una verdadera portabilidad de aplicaciones entre plataformas en la nube? Ese sueño tan antiguo de quienes alguna vez programamos que se basaba en la frase "programar una vez, ejecutar donde sea".

Si bien las cargas de trabajo ciertamente se pueden colocar en máquinas virtuales, el uso de contenedores es un enfoque mucho mejor y debería tener una mayor probabilidad de éxito a medida que la computación en la nube pasa de arquitecturas simples a complejas.

La capacidad de proporcionar una abstracción de plataforma liviana dentro del la plataforma para contenedores Docker, sin usar la virtualización, es mucho más eficiente para crear paquetes de carga de trabajo que sean transportables entre nubes. En muchos casos, la virtualización puede resultar demasiado engorrosa y/o pesada para la migración de la carga de trabajo. Por lo tanto, los contenedores proporcionan una base real para mover las cargas de trabajo dentro de entornos híbridos o de múltiples nubes sin tener que alterar gran parte de la aplicación.

Aquí un mantra que puede ayudar: -"Es posible ejecutar Contenedores sobre Máquinas Virtuales, pero no es posible ejecutar Máquinas Virtuales sobre Contenedores"-

Qué es importante

Los contenedores tienen algunas características y ventajas básicas, incluida la capacidad de:

  • Reducir la complejidad a través de abstracciones de contenedores. Los contenedores no requieren dependencias de la infraestructura de la aplicación. Por lo tanto, no necesita una interfaz nativa compleja para manejar los servicios de la plataforma.
  • Aprovechan la automatización para maximizar la portabilidad. La automatización reemplazó las secuencias de comandos manuales. En estos días, es mucho más difícil garantizar la portabilidad cuando se usa la automatización.
  • Proporcionan una mejor seguridad y gobernanza, externas a los contenedores. Los servicios de seguridad y gobernanza son específicos de la plataforma, no específicos de la aplicación. Colocar los servicios de seguridad y gobierno fuera del contenedor reduce significativamente la complejidad.
  • Proporcionan capacidades mejoradas de computación distribuida. Esto se debe al hecho de que una aplicación se puede dividir en muchos dominios, todos los cuales residen en contenedores. El aspecto de portabilidad de los contenedores significa que pueden ejecutarse en varias plataformas diferentes en la nube. Esto permite a los ingenieros elegir y elegir las plataformas en las que se ejecutan, en función de los costos y la eficiencia del rendimiento.
  • Proporcionan servicios de automatización que aprovechen la optimización basada en políticas. Es necesario que haya una capa de automatización que pueda localizar la mejor plataforma para ejecutar y migrar automáticamente a esa plataforma. Al mismo tiempo, debe lidiar automáticamente con los cambios de configuración necesarios.


Cómo escalar aplicaciones basadas en contenedores

La mayoría de los que buscan escalar contenedores toman uno de dos enfoques básicos. El primer enfoque es crear un sistema personalizado para administrar los contenedores. Esto significa un sistema único que crea para lanzar automáticamente nuevas instancias de contenedor según sea necesario para manejar una carga de procesamiento cada vez mayor. Pero recuerde que si lo construye, lo posee. Al igual que con muchos enfoques de bricolaje, el mantenimiento requerirá mano de obra y costos.

El segundo enfoque es aprovechar una de las tecnologías de organización, programación y agrupación de contenedores que proporcionarán los mecanismos básicos para permitir la escalabilidad. Esta es normalmente la mejor de las dos opciones.

Hay algunas opciones para el segundo enfoque:

Primero, Kubernetes de Google es un administrador de clúster de contenedores de código abierto, muy parecido a Docker Swarm (se trata a continuación). Kubernetes puede programar cualquier cantidad de réplicas de contenedor en un grupo de instancias de nodo. Este truco de replicación y distribución de contenedores suele ser suficiente para que la mayoría de las aplicaciones grandes basadas en contenedores se escalen según sea necesario. Este es prácticamente el mismo enfoque para escalar contenedores que las otras herramientas.

En segundo lugar, Cloudify proporciona una herramienta de orquestación de Docker que se superpone con Docker Compose y Docker Swarm. Sus planos basados ​​en YAML permiten a los desarrolladores describir topologías complejas, incluidas la infraestructura, el nivel de middleware y las capas de aplicaciones. Está más orientado a la orquestación y, por lo tanto, debe tenerse en cuenta al mirar las herramientas de orquestación y automatización cuando no es necesario agrupar.

Finalmente, la herramienta más nueva, Docker Swarm proporciona capacidades de agrupamiento, programación e integración. Esta herramienta permite a los desarrolladores crear y enviar aplicaciones distribuidas de múltiples contenedores/hosts que incluyen el escalado y la gestión necesarios para sistemas basados ​​en contenedores. Obviamente, Swarm está diseñado para competir con Kubernetes, que tiene una mayor participación en el mercado. Considere ambas herramientas cuando sea necesario escalar masivamente los contenedores. Sugeriría una prueba de concepto con cada tecnología, utilizando cargas de trabajo del mundo real.

Aquí un mantra que puede ayudar: -"Docker es el navío, Kubernetes es el timonel."- La palabra Kubernetes viene del griego κυβερνήτης, que significa "timonel", "piloto" o "gobernador".

Las mejores prácticas continúan surgiendo en torno a los contenedores de escala, que incluyen:

  • Dedique tiempo a la arquitectura de sus aplicaciones basadas en contenedores. La mayoría de los problemas de escalado se remontan a diseños pobres, no a tecnología deficiente.
  • Siempre haga una prueba de concepto para determinar las capacidades reales de escalado de las soluciones que está considerando. Utilice herramientas de prueba automatizadas para simular las cargas de trabajo y cantidades masivas de datos para las pruebas.
  • Considere sus propios requisitos. Lo que funciona para otras grandes empresas puede no ser adecuado para sus aplicaciones basadas en contenedores.
  • No se olvide de la seguridad y la gobernanza. Tienen que escalar también.
  • Escalar contenedores será un poco complicado hasta que se entienda más sobre cómo se comportan los contenedores a escala. Sin embargo, con una buena comprensión del uso adecuado de los contenedores y la tecnología adecuada, podrá escalar de inmediato.

Comprenda los pasos

Si ya está ejecutando Linux, entonces instalar Docker no será tan complejo. Sin embargo, instalar Docker en una Mac o Windows requerirá algunos pasos más. Simplemente siga las instrucciones apropiadas del sistema operativo.

El siguiente paso es intentar ejecutar una aplicación "Dockerizeda". Docker ha compilado un registro público de aplicaciones disponibles como imágenes de Docker, y esta comunidad proporciona muchos puntos de partida para crear y ejecutar sus propias aplicaciones basadas en contenedores.

Una vez que Docker esté instalado y en línea, ejecute una imagen de la aplicación Docker ingresando:

sudo docker run --rm -p 3000: 3000 <nombre_imagen>

Hay algunos detalles más, pero por simplicidad los dejaremos fuera de esta discusión. Tenga en cuenta que el comando "docker run" anterior ejecuta una imagen llamada <image_name>. Si no puede encontrar la imagen en su sistema local, comprobará el registro público e invocará allí, si se encuentra.

El contenedor Docker es simplemente una instancia de una imagen Docker, al igual que las aplicaciones son instancias de ejecutables que existen en la memoria. Por lo tanto, puede iniciar varias instancias aisladas de la aplicación como contenedores en un solo host. Al agregar "-rm" al comando, como se mostró líneas arriba, Docker recibe instrucciones de eliminar el contenedor de la memoria una vez que completa su tarea. Esto tiene el efecto de eliminar cualquier cambio en el entorno local que la aplicación haya realizado, pero mantiene la imagen en caché.

La creación de una imagen Docker para una aplicación requiere comenzar con una imagen base para el sistema operativo central, que se ejecuta en Docker. Instale y configure las herramientas necesarias, y luego use el comando "commit" de Docker para guardar el contenedor como una imagen. Finalmente, póngalo en el registro público de imágenes de Docker o manténgalo en privado.

Otra forma de crear una imagen es tener en cuenta los pasos necesarios para construir la imagen en un archivo Dockerfile bien formado. Esto automatiza el proceso de instalación y configuración de la aplicación, creando un proceso repetible.

Al igual que con cualquier proceso de desarrollo, hay más detalles que debe comprender para dominar la construcción y ejecución de imágenes y contenedores de Docker. En muchos aspectos, el éxito de los contenedores y Docker se ha basado en la facilidad de desarrollo. A medida que avanza el estándar y el producto, las cosas probablemente se volverán aún más fáciles.

Un contenedor en cada ambiente de ejecución.

La tendencia es pensar que nuevas formas de construir sistemas serán la forma en que construiremos sistemas en los años venideros. Si bien ese no ha sido el caso en el pasado, podría ser el caso de los contenedores.

Los contenedores ofrecen una tecnología habilitadora útil y estándar y proporcionan un camino hacia la arquitectura de la aplicación que ofrece distribución gestionada y orientación al servicio. Hemos estado tratando de alcanzar este estado durante años, pero aún no hemos tenido éxito.

Quizás lo más convincente es la ventaja de portabilidad de los contenedores, y ese sigue siendo el grito de batalla de los proveedores de tecnología de contenedores en estos días. Sin embargo, pasarán años antes de que comprendamos realmente el verdadero valor de los contenedores, a medida que traslademos las aplicaciones basadas en contenedores de una nube a otra.

Si este impulso continúa, los contenedores formarán parte de la mayoría de los ambientes de ejecución de TI en el futuro, ya sea que se trasladen a la nube o no. La viabilidad y versatilidad de esta tecnología será algo que continuaremos explorando y explotando en los próximos años. Cuente con el hecho de que se cometerán algunos errores, pero el impacto general de los contenedores es una conclusión inevitable.

Aquí dimos una MUY ligera semblanza de cómo comenzar con los Contenedores, "a pie". No estamos involucrando nada más allá que no sea Docker y Kubernetes. De estos dos, los que se pueden descargar libre y gratuitamente de la Internet y para ejecutarse sobre Linux.

En entregas posteriores, platicaremos cómo resuelven las principales marcas de Sistemas Operativos, Nubes Públicas y Plataformas de Virtualización, todo lo necesario para instalar, monitorear y ejecutar aplicaciones "contenerizadas".

¿Ya tiene más o menos claro el "cómo" y "con qué" de los Contenedores?

jueves, 16 de agosto de 2018

5 razones por qué la certificación de código abierto es más importante que nunca

En el panorama tecnológico actual, el código abierto es la nueva norma, con componentes y plataformas de código abierto que impulsan procesos de misión crítica y tareas cotidianas en organizaciones de todos los tamaños. A medida que el código abierto se ha generalizado, también ha tenido un impacto profundo en el mercado de trabajo. En todas las industrias, la brecha de habilidades se está ampliando, por lo que es cada vez más difícil contratar personas con habilidades laborales muy necesarias. En respuesta, la demanda de capacitación y certificación está creciendo.

En un seminario web reciente, Clyde Seepersad, Gerente General de Capacitación y Certificación en The Linux Foundation, discutió la creciente necesidad de certificación y algunos de los beneficios de obtener credenciales de código abierto. -"Como el código abierto se ha convertido en la nueva norma en todo, desde startups hasta compañías Fortune 2000, es importante comenzar a pensar en el plan de carrera, los caminos que puede tomar y cómo Linux y el código abierto en general pueden ayudarlo a alcanzar su carrera. objetivos"-, dijo Seepersad.

Con todo esto en mente, este es el primer artículo de una serie semanal que cubrirá: por qué es importante obtener la certificación; qué esperar de las opciones de capacitación que conducen a la certificación; y cómo prepararse para los exámenes y comprender cuáles son sus opciones si no las pasa inicialmente.

Seepersad señaló estas cinco razones para buscar la certificación:

  • Demanda de Linux y talento de código abierto. -"Año tras año, hacemos el informe de trabajos de Linux, y año tras año vemos la misma historia, que es que la demanda de profesionales Linux excede el suministro. Esto es cierto para el mercado de código abierto en general"-, dijo Seepersad. Por ejemplo, certificaciones como LFCE, LFCS y el examen de administrador de OpenStack han marcado la diferencia para muchas personas.
  • Obteniendo la entrevista. -"Uno de los desafíos a los que los reclutadores siempre hacen referencia, especialmente en la era del código abierto, es que puede ser difícil decidir a quién quiere asistir en la entrevista"-, dijo Seepersad. -"No todos tienen tiempo para hacer verificaciones de referencia. Una de las cosas más bonitas de la certificación es que verifica de forma independiente tus habilidades"-.
  • Confirmando tus habilidades -"Los programas de certificación le permiten dar un paso atrás, mirar a través de lo que llamamos los dominios y temas, y encontrar esas áreas donde podría estar un poco oxidado"-, dijo Seepersad. -"Pasar por ese proceso y luego demostrar habilidades en el examen muestra que tienes un conjunto de habilidades muy amplio, no solo un conjunto profundo de habilidades en ciertas áreas"-.
  • Confianza. -"Esta es la belleza de los exámenes basados en el rendimiento"-, dijo Seepersad. -"Estás trabajando en nuestro sistema en vivo. Usted está siendo monitoreado y registrado. Tu temporizador está regresando. Esto realmente lo pone en el lugar para demostrar que puede solucionar los problemas"-. El resultado inevitable de navegar con éxito el proceso es la confianza.
  • Tomando decisiones de contratación. -"A medida que vayas adquiriendo una posición más avanzada en tu carrera, verás que las cosas cambian y tienes la función de tomar una decisión de contratación"-, dijo Seepersad. -"Vas a querer tener candidatos que estén certificados, porque reconoces lo que eso significa en términos de los conjuntos de habilidades"-.


Aunque Linux ha existido por más de 25 años, -"es solo en los últimos años que la certificación se ha convertido en una característica más destacada"-, señaló Seepersad. Como cuestión de hecho, el 87 por ciento de los directores de recursos humanos encuestados para el Reporte de Trabajos relacionados al Código Abierto en 2018 cita la dificultad para encontrar las habilidades y la experiencia de código abierto adecuadas. The Jobs Report también descubrió que la contratación de talento de código abierto es una prioridad para el 83% de los gerentes de contratación, y la mitad busca candidatos con certificaciones.

Con la certificación desempeñando un papel más importante para asegurar una carrera gratificante a largo plazo, ¿está interesado en conocer las opciones para obtener credenciales? Si es así, estad atentos para más información en esta serie.

Obtenga más información sobre capacitación y certificación de Linux.

martes, 3 de abril de 2018

Partner Spotlight: NetApp

OpenShift Partner Spotlight es una serie recurrente que destaca el trabajo de integración que socios han hecho con OpenShift. El socio destacado en esta ocación: NetApp. NetApp ha participado en varias integraciones diferentes con OpenShift, incluido Trident, su orquestador de almacenamiento de código abierto para contenedores.

"NetApp ofrece una amplia variedad de hardware, software y servicios que lo ayudan a aprovechar al máximo sus datos. Proporciona una persistencia altamente automatizada, flexible, segura, eficaz y rentable que se integra de forma nativa en las plataformas de contenedores, y que admite aplicaciones en contenedores que abarcan el núcleo, la nube y todo el camino hasta el límite." Dice Garrett Mueller, Director Técnico de NetApp, responsable de la tecnología forjada en comunidades abiertas con 15 años de experiencia.

En el corazón de la solución estriba en la promesa y ahora rápida adopción, de contenedores y orquestación de contenedores. El cambio a los contenedores está tomando la industria por sorpresa, y las empresas, tanto grandes como pequeñas, están buscando la mejor manera de darse cuenta de las ventajas inherentes.

Durante el año pasado, Kubernetes se ha convertido en un destacado claro en la orquestación de contenedores, un componente necesario de cualquier plataforma de contenedores seria. Los clientes están buscando una distribución compatible de Kubernetes que puedan poner en producción de forma segura, y OpenShift ofrece eso y más. Para poner eso en juego, necesitan construirlo en una plataforma confiable con persistencia en la que puedan confiar, y ahí es donde entra en juego NetApp.

En este caso, la integración principal se realizó a través del proyecto Trident, un proyecto de código abierto totalmente compatible y mantenido de NetApp que fue el primer proveedor dinámico externo para Kubernetes y OpenShift.


Trident está diseñado para proporcionar a los desarrolladores la capacidad de aprovisionar y administrar sus propios volúmenes a pedido, lo que les brinda la gratificación instantánea por la que se conoce a la nube en cualquier entorno.

Lo hace de una manera completamente automatizada que se adapta naturalmente a la plataforma del contenedor y se alinea con las políticas definidas por los administradores. Recientemente, se ha habilitado la clonación auto-ejecutable (copias de volumen instantáneas y eficientes) a través de construcciones de Kubernetes, y aún queda mucho por venir.

Se está trabajando con Red Hat y la comunidad de contenedores, para exponer más capacidades de almacenamiento y administración de datos a los desarrolladores para las aplicaciones que se ejecutan en OpenShift, como copias de seguridad y restauración nativas, así como la replicación/sincronización de datos. Combina capacidades primitivas como estas con los entornos OpenShift de varias nubes del futuro, y algunas capacidades verdaderamente emocionantes están en camino.

Trident es un proyecto de código abierto presente en GitHub. Para explorar otras integraciones y mantenerse actualizado, visite netapp.io.

jueves, 4 de enero de 2018

Oportunidades del sector TI para 2018, según Red Hat

El 2018 está aquí. En esta ocasión son los líderes indiscutibles del Código Abierto, Red Hat, los que nos dan sus predicciones de lo que para estos doce meses, será lo que ya es o lo que vendrá a muy corto plazo.

Así pues, Red Hat presenta un análisis con 12 oportunidades que las empresas deben tener en cuenta en los próximos meses si desean desarrollar una estrategia empresarial donde la tecnología sea el elemento principal de los procesos.

1. Machine learning e Inteligencia Artificial

“El rápido crecimiento en el machine learning (aprendizaje automático) continuará a medida que las empresas se esfuerzan por obtener el mayor valor comercial y la ventaja competitiva de sus datos. A medida que el marchine learning se popularice, veremos un número creciente de mercados de datos a medida que los diferentes equipos interpreten los datos del data lake de forma diferente y generen nuevos datos desde esa perspectiva”, asegura Kim Palko, Principal Product Manager, Red Hat JBoss Middleware.

“En el espacio de la inteligencia artificial y el machine learning, en 2018 veremos el surgimiento de las aplicaciones inteligente. Una sorpresa del 2017 ha sido la constatación de que, si bien estas aplicaciones están comenzando a ser más habituales, en realidad ya están entre nosotros y solo van a seguir aumentando su presencia en nuestros procesos de trabajo. También en 2018 habrá una adopción empresarial generalizada de un flujo de trabajo estándar para la desarrollo de aplicaciones de inteligencia artificial. Esto continuará impulsando las aplicaciones habilitadas para IA hacia modelos dominantes”, añade Matthew Farrellee, Emerging Technology & Strategy, CTO Office de Red Hat.

2. Bases de Datos

“Habrá un enfoque renovado en cuanto a la seguridad de los datos, particularmente en la nube pública, impulsado por el Reglamento General de Protección de Datos de la Unión Europea (GDPR). A medida que el volumen de datos continúa aumentando, estimulados en parte por los datos generados por el Internet de las cosas, las empresas continuarán trasladando más datos a la nube para aprovechar los beneficios de la escalabilidad, la recuperación ante desastres, la flexibilidad, etc., y este movimiento requerirá más garantías de seguridad”, indica Kim Palko, Principal Product Manager de Red Hat JBoss Middleware.

3. DevOps

“Después de años de publicidad y cobertura positiva, veremos una serie de ejemplos de alto perfil de “fallos DevOps” que tendrán dos efectos paralelos. En algunas organizaciones, habrá un enfriamiento y una reevaluación de la emoción inicial. Sin embargo, las organizaciones que tengan una visión más avanzada verán estos fallos como experiencias de aprendizaje y tomarán más en serio los cambios en la cultura y el proceso, así como los requisitos sobre plataformas subyacentes y arquitecturas de software necesarias para beneficiarse de DevOps. Los vendedores que puedan trabajar con sus clientes en todo este espectro de necesidades se beneficiarán”, asegura Stephanos Bacon, Senior Director, Portfolio Strategy de Red Hat.

4. Virtualización de Servidores

“En 2018, esperamos ver el mercado de soluciones de virtualización interrumpido, ya que los clientes estarán menos dispuestos a pagar un suplemento por la virtualización y esperan que sea parte de la infraestructura que actualmente ejecutan o que planean ejecutar. La automatización, administración y coordinador de despliegues de aplicaciones basadas en la nube, remotas y en local también se convertirán en un imperativo comercial para las empresas. Veremos que los usuarios con aplicaciones heredadas de Modo 1 cambiarán algunas cargas de trabajo existentes, así como nuevas inversiones de desarrollo, a las infraestructuras de Modo 2, piense en VM híbridas que se ejecute dentro de contenedores”, indica Rob Young, manager, Virtualization Product and Strategy de Red Hat.

“Los contenedores serán protagonistas en 2018, y las máquinas virtuales que se ejecutan en contenedores ganarán impulso en el nuevo año a medida que Kubernetes continúe evolucionando. Sin embargo, es importante recordar que la virtualización y los contenedores no son competitivos, sino que se complementan entre sí. Continuaremos viendo la gran mayoría de las infraestructuras contenerizadas operando en hipervisores, y los primeros usuarios fusionarán los dos con Kubernetes”, añade Gunnar Hellekson, Director, Product Management, Linux and Virtualization de Red Hat.

5. Movilidad

“En 2018, espero que veamos empresas que adopten por completo la convergencia de la inteligencia artificial, los dispositivos móviles y el IoT. En muchos aspectos, la tecnología móvil es la más madura y muchas de estas organizaciones encontrarán que se enfrentan a desafíos similares en el desarrollo de aplicaciones para IoT e IA, como lo hicieron con los dispositivos móviles, como la integración y la seguridad. Muchas de las lecciones aprendidas con dispositivos móviles serán valiosas en términos de ayudar a las organizaciones a reconocer y superar los desafíos más rápidamente”, comenta Clare Grant, General Manager, Mobile de Red Hat.

6. Internet de las Cosas (IoT)

“En mi opinión, el mayor hecho en 2017 fue que el IoT alcanzó un pico publicitario, dando paso a nuevos ciclos de sobreexpectación para machine learning (en realidad, una rama de IoT) y para la inteligencia artificial (un área temática familiar y que requiere de datos de IoT como combustible para su inteligencia). Hemos visto una combinación de varias compañías que han realizado grandes inversiones en IoT, mientras que otras están reduciendo o reorganizando sus equipos de IoT. Esta combinación de inversiones significa que estamos en un punto de inflexión. Para el IoT, esto significa que ahora estamos en un punto donde los proyectos tienen que entregar resultados. Los proveedores de IoT invirtieron antes de la demanda, con todo tipo de reclamos. Con más oferta en el sector que demanda, veremos algunos jugadores abandonar o cambiar su enfoque”, opina James Kirkland, Chief Architect, IoT de Red Hat.

¿Qué podemos esperar del IoT en 2018?

– Resultados cuantificables. En 2018, escucharemos a las organizaciones que han implementado IoT (los primeros en adoptar), proyectos reales y que han obtenido un ROI demostrable. Hablarán de resultados exitosos y mejoras en los procesos. Hasta ahora, la mayoría de los beneficios expresados han sido teóricos, basados en los resultados deseados más que en los éxitos mensurables.

– Necesidad de un ecosistema. Los usuarios están aprendiendo que el IoT no es una tecnología; es una solución compleja de varias partes que no puede ser entregada por un único proveedor. Los proveedores con ofertas de IoT que han tratado de ir solos y no se han comprometido con socios complementarios están teniendo problemas. Se espera que los usuarios con proyectos que dependen de un solo proveedor continúen experimentando los efectos negativos del bloqueo del proveedor.

– Tenemos los datos. Ahora necesitamos el conocimiento. Muchas de las organizaciones que han comenzado proyectos de IoT descubren que no están seguros de cómo obtener valor de los datos que están recopilando. Han desarrollado la infraestructura y están recopilando datos, pero no tienen la tecnología adecuada, las habilidades (científicos de datos, por ejemplo) o el conocimiento para completar todo el ciclo de vida de la información.

– Seguir las necesidades del negocio. En el horizonte, veremos aumentar el interés en el IoT, especialmente en las industrias que necesitan reducir el costo de sus negocios. Por ejemplo, los precios más bajos de la energía están impulsando la mayor demanda de soluciones IoT en la industria del petróleo y el gas. Además, los negocios tradicionalmente de bajo margen, como el minorista, seguirán buscando formas de aumentar la eficiencia y reinventar la experiencia del cliente para aumentar la demanda. Las empresas con grandes bienes de capital que requieren mantenimiento también buscan mejoras en los procesos mediante el mantenimiento predictivo y las soluciones de aprendizaje automático.

– Transferencia de conocimiento humano al machine learning. Se verán cada vez más casos prácticos en los que el conocimiento humano se utiliza para crear modelos predictivos. Por ejemplo, un operador de maquinaria que ha sido responsable de los equipos durante muchos años puede identificar el sonido único generado por cada parte de la maquinaria. Esos identificadores de audio pueden agregarse a los modelos predictivos y usarse para activar alertas de que una parte está a punto de fallar.

– Nuevos modelos económicos. La entrega de los servicios de IoT tendrá una nueva dimensión a medida que cambien las expectativas de seguimiento, facturación, pago y contabilidad de las transacciones a medida que crezca la cantidad de dispositivos conectados.

– Seguridad y privacidad. Con cada nuevo dispositivo IoT, los vectores de ataque aumentan. Deje de buscar la perfecta seguridad (ningún proveedor ofrece una solución única) y adopte una defensa en profundidad, una estrategia de seguridad en capas para enfrentar las amenazas. Los problemas de privacidad, como el uso de tecnología de reconocimiento facial por parte de los minoristas para identificar y orientar las ofertas, seguirán aumentando.

7. Java

“Este ha sido un gran año para Java, con varios desarrollos importantes que contribuyen a la evolución continua de la tecnología. El evento más notable en 2017 fue el anuncio de Oracle de abrir más completamente Java EE moviéndolo a una base de código abierto, y el posterior anuncio de que había seleccionado a Eclipse Foundation para alojar la iniciativa como un proyecto de alto nivel llamado Eclipse Enterprise for Java (EE4J). Avanzando desde Java EE 8 (lanzado en septiembre y que ha sido otro desarrollo notable de Java este año), se espera que continúe el desarrollo de la plataforma bajo EE4J. Además, vimos un progreso continuo en el proyecto MicroProfile con las versiones v1.1 y 1.2 en 2017, avanzando aún más la evolución de Java empresarial para el desarrollo de microservicios.”, asegura Mark Little, Vice President, Engineering, Red Hat.

“Los esfuerzos alrededor de EE4J representan un cambio monumental y no sucederán de la noche a la mañana. Todavía hay muchos detalles que deben ser resueltos, sin embargo, el ritmo de desarrollo de la plataforma actualmente en comparación con el de hace un año es una como el día y noche. La comunidad ha sido revitalizada por la perspectiva de estos cambios y las partes interesadas clave participan activamente. Es un signo alentador, y anticipo que esta energía continuará cobrando impulso a medida que avanzamos hacia 2018. Red Hat ha sido durante mucho tiempo un defensor de una empresa más abierta, y estábamos desde el comienzo en conversaciones con Oracle, junto con compañeros de IBM. Juntos, y con la comunidad Java EE en general, creo que veremos que Java seguirá siendo una tecnología dominante en la empresa en los próximos años.”

8. Cloud

“En 2018, el debate sobre la nube híbrida ganarán en sofisticación en torno a la portabilidad de las cargas de trabajo. Tenemos muchas herramientas útiles en cuanto a herramientas de portabilidad: almacenamiento definido por software, administración de nube híbrida, estandarización de contenedores a través de Open Container Initiative, amplio soporte para Kubernetes y, por supuesto, Linux. Sin embargo, también debemos apreciar que los grandes conjuntos de datos creados y utilizados por el IoT, EL Machine Learning y otras cargas de trabajo nuevas pueden limitar la portabilidad “sin interrupciones”. Comprender las mejores arquitecturas y prácticas para los distintos tipos de aplicaciones emergentes debe ser una prioridad”, indica Gordon Haff, Technology Evangelist, Red Hat.

9. Contenedores en OpenStack (Cloud)

“El mundo de los contenedores y OpenStack se combinarán: una mayor colaboración entre OpenStack, Kubernetes y otros proyectos clave de open source, impulsados por la necesidad del cliente de llegar a un tejido unificado para contenedores físicos y virtuales, lo que traerá beneficios al reducir las redundancias y aprovechar el ecosistema”, comenta Radhesh Balakrishnan, General Manager, OpenStack, Red Hat.

10. La Nube Híbrida se convertirá en norma


“En 2018, los esfuerzos de la nube privada ganarán un impulso adicional impulsado por los esfuerzos de modernización de la aplicación, lo que dará lugar a que la “nube híbrida por defecto” se convierta en el procedimiento operativo estándar para las empresas”, asegura Radhesh Balakrishnan, General Manager, OpenStack, Red Hat.

11. El futuro de las Telco: Network Function Virtualization (NFV)

Veremos que la virtualización de funciones de red (NFV) se moverá hacia el Edge en 2018. Habiendo probado el valor en los sistemas centrales, el esfuerzo de NFV comenzará a centrarse en los casos de uso Edge Computing, ayudado por la comunidad de open source para abordar la latencia, el rendimiento y requisitos de manejabilidad, indica Radhesh Balakrishnan, General Manager, OpenStack, Red Hat.

12. Seguridad

“Las empresas comenzarán a prestar más atención sobre la ubicación de las cargas de trabajo y qué controles tienen sobre ellas. Esos pueden ser contractuales (SLA), arquitectónicos (colocación) o tecnológicos (controles de software o hardware). Los ejemplos podrían ser: SLA y política de privacidad, o verificación de antecedentes de los empleados (contractuales); Políticas de colocación de cargas de trabajo de Openstack u Openshift o requisitos de autenticación API (arquitectónicos); uso de HSM o entornos de ejecución de confianza como SGX o SEV (tecnológico). Ninguno de estos es suficiente por sí solo, y no sirven de nada a menos que estén coordinados. El camino a seguir es la asignación de la gobernanza a las políticas, y su incorporación a los procesos, pero incluso esto es insuficiente a menos que se pueda registrar, supervisar y auditar lo que realmente está sucediendo”.

“Los departamentos de seguridad de TI van a pasar menos tiempo diciendo “no” (y siendo ineficaces para detener los despliegues que seguirán adelante de todos modos), y más tiempo aprendiendo cómo explicar el riesgo a los dueños de negocios, desarrolladores y operaciones. Ser “nadie” no ayuda a los departamentos de seguridad ni a aquellos con quienes trabajan. Las empresas quieren opciones como “podríamos cerrar los servidores y estar totalmente seguros o podríamos correr al 75% de manera eficiente, con un uno por ciento de posibilidades de perder algunos datos”. Las herramientas para este nivel de detalle no siempre están disponibles, pero tenemos que empezar a pensar sobre lo que realmente es útil: aunque fuimos entrenados que “fail-closed es a prueba de fallos”, un sistema cerrado es un sistema inútil para el negocio. Del mismo modo, es más probable que un desarrollador acepte controles de seguridad si decimos “¿Qué pasaría si alguien usara incorrectamente esta interfaz y corrompiera sus datos?”, en lugar de “debes usar autenticación y autorización en esta API o no se podrá iniciar”, comenta Mike Bursell, Chief Security Architect, Red Hat.

En conclusión, una vez más Tercera Plataforma, Cuarta Revolución Industrial y su hija dilecta la Transformación Digital, sean en su totalidad o algunos de sus componentes fundamentales, se consolidan en el mundo cada vez más evolucionado de las Tecnologías de la Información.

¿Cuál de estas Doce Oportunidades ya está implementado o en plena implementación dentro de su Organización?

domingo, 31 de diciembre de 2017

El Código Abierto y la Transformación Digital...

Transformación Digital. Eso que todo mundo está hablando en estos días. Hablando acerca de múltiples tecnologías y múltiples maneras de transformar la manera en como hoy hacemos negocio.

Cosas como Big Data, Movilidad, La Nube, Contenedores, DevOps, etc. Son justamente estas tecnologías que compañías como Uber, AirBNB, etc. están utilizando para irrumpir dramáticamente en el escenario de los negocios tradicionales. Lo más interesante a tomar en cuenta es cómo todas las compañías que presentan los más altos índices de innovación, son precisamente aquellas que ya han implementado exitosamente estas nuevas tecnologías.

Esta irrupción tecnológica no solamente ha afectado y va a afectar a inmensas compañías tradicionales, sino que ahora empodera e impulsa a pequeños negocios a competir mano a mano, cara a cara contra esos gigantes de cualquier rama de la industria.

Las oportunidades que estas tecnologías nos presentan son inmensas. Pueden ser implementadas para desarrollar nuevos negocios en las empresas, ofrecer nuevos servicios o inclusive competir en nuevas áreas que en principio parecían completamente ajenas.

Para hablar más concretamente de los elementos principales de la Transformación Digital, directo de la Tercera Plataforma tenemos a Big Data. ¿Cómo detectamos, capturamos, encontramos valor en esa descomunal cantidad de datos que actualmente almacenamos en nuestras organizaciones? Precisamente con Big Data.

Frecuentemente, esos datos son generados por el mundo de las Aplicaciones Móviles. También de la Tercera Plataforma, la Movilidad. En estos días no importa si la empresa fabrica lavadoras o automóviles, los clientes están demandando más interacción de estos bienes a través de aplicaciones ejecutándose en sus dispositivos móviles.

Hablando de Interacción, una vez más desde la Tercera Plataforma, tenemos a Social Business. Hoy no hay empresa que deje de lado las Redes Sociales, el Correo Electrónico, la interacción a través de "chats" o incluso creando tendencias a través de los famosos "hashtags". Todo ello con el objetivo de formar comunidades que promuevan interacción omnidireccional entre la Organización, los Clientes Finales, Proveedores, etc.

Todo esto, obviamente arropado y soportado por Centros de Datos Definidos por Software (nube privada) y por la Nube Pública en general. Otra vez, la Tercera Plataforma hace acto de presencia. La Nube, ese concepto, ese paradigma del que ya hace unos años venimos hablando constante y consistentemente que permite a las áreas de Tecnologías de la Información de nuestras Organizaciones, hacer un uso más inteligente, eficiente, ubicuo e independiente de la Infraestructura, las Plataformas y el Software.

Precisamente para la Transformación Digital, La Nube es el concepto clave pues plantea una nueva manera de consumir los recursos informáticos de manera en la que la escalabilidad vertical, horizontal e híbrida se dan de manera completamente natural y no como un accesorio.

No puede existir un Centro de Datos Definido por Software sin la Capa de Abstracción que de manera natural nos ofrece la Virtualización, así como el poder de la Hiperconvergencia. Pero dentro de todo este escenario irrumpe un concepto que al mundo de las Tecnologías de la Información en general, da un impulso adicional orientado a los aplicativos: Contenedores.

Los Contenedores son -"...paquetes ligeros, autónomos y ejecutables de una pieza de software que incluye todo lo necesario para ejecutarlo: código, tiempo de ejecución, herramientas del sistema, bibliotecas del sistema, configuraciones."- (Definición tomada de la página oficial https://www.docker.com/what-container).

Aunque su nacimiento se dio dentro de la Comunidad de Código Abierto (Open Source) sobre sistemas operativos Linux, ahora están disponibles para aplicaciones basadas en Linux y Windows. El software en contenedor siempre funcionará igual, independientemente del entorno. Los contenedores aíslan el software de su entorno, por ejemplo, las diferencias entre los entornos de desarrollo y de etapas, y ayudan a reducir los conflictos entre los equipos que ejecutan software diferente en la misma infraestructura.

Si vamos a hablar de Aplicaciones, obviamente no podemos dejar de lado al Desarrollo. Hoy la nueva tendencia es esa sinergia entre el área de Desarrollo y el área de Operaciones. Esta sinergia tiene un nombre: DevOps.

DevOps conjunta las necesidades del área de Operaciones y en conjunto con el área de Desarrollo, se busca obtener aplicaciones sencillas, seguras, confiables y escalables. Dichas aplicaciones podrán entonces ejecutarse dentro de un Contenedor, en una Máquina Virtual, sea en un ambiente de Nube Privada o Nube Pública.

Poniendo atención a todo lo anterior, podremos darnos cuenta de que todo esto no es posible en un mundo de aplicaciones, ambientes y plataformas que sean cerradas y/o monolíticas. Se requiere entonces de los buenos oficios del Código Abierto u Open Source.

Solo por poner en la mesa algunos ejemplos de soluciones, herramientas, plataformas, marcos de trabajo, etc. de Código abierto, comencemos con Hadoop.

Hadoop es el marco de trabajo para lenguaje Java, que permite ser la plataforma ideal para cualquier solución que involucre a Big Data.

Android. Con el 85% del mercado de dispositivos móviles, es hoy por hoy el sistema operativo y la plataforma de ejecución más importante para dispositivos móviles. Android es Linux y Linux es Código Abierto.

¿Facebook? Facebook está hecha y es ejecutada ENTERAMENTE en sistemas operativos, plataforma, infraestructura basada por completo en Open Source. Desde sus Servidores de Cómputo, sus dispositivos de redes, su lenguaje de programación, etc. Todo está sobre Código Abierto.

Amazon, el jugador más grande de Infraestructura y Plataforma como un Servicio (ambos pilares de La Nube), ha creado toda su capa de Nube Pública. El concepto de los Contenedores y la Hiperconvergencia, provienen también de la Comunidad de Código Abierto. ¿DevOps? También Código Abierto.

¿Alguna duda de quiénes tienen en sus manos la clave para concretar exitosamente la Transformación Digital?

martes, 30 de mayo de 2017

VMware y Código Abierto son innovación y colaboración

Para estas fechas, la Virtualización no algo que pueda considerarse novedoso. Totalmente consolidada en los Centros de Datos y piedra angular de los Centros de Datos Definidos por Software, ahora se involucra más con el Código Abierto (Open Source) ofrecen una plataforma de Infraestrucura como un Servicio, que permite toda la libertad que requiere el Código Abierto amén de que de esta combinación se puede obtener una interesante Plataforma como un Servicio.

En todas las verticales de la industria más importantes, el software de código abierto está cada vez más involucrado en el tejido empresarial de las Tecnologías de la Información. Hoy se encuentra en las herramientas de infraestructura como Docker, OpenStack y Kubernetes. También está en los
frameworks de administración de carga de trabajo, las herramientas de gestión y una serie de tecnologías de código abierto que están profundamente integradas en funciones críticas de arriba a abajo en la cadena de valor. Cuando los consumidores reservan vuelos o publican en Facebook, por ejemplo, están utilizando herramientas de código abierto, lo sepan o no.


VMware y la Comunidad de Código Abierto

Desde hace tiempo, VMware ha contribuido a proyectos de código abierto, incluyendo el kernel de Linux, Cloud Foundry y OpenStack. La compañía sigue activa en el proyecto Open vSwitch, una popular herramienta de código abierto para redes virtuales, actualmente bajo la dirección de la Fundación Linux.

Open source ha sido parte de VMware a lo largo de su historia, pero recientemente la compañía ha puesto un renovado énfasis en su importancia al contratar a Dirk Hohndel, un conocido líder en el campo del Código Abierto. Además, VMware actualizó su estatus en la Fundación Linux a oro, un nivel que refleja con mayor precisión las actividades, la inversión y el compromiso de la compañía con el código abierto. Después de ese cambio de membresía, la Fundación Linux anunció el 18 de abril que Dirk Hohndel es ahora un miembro electo del Consejo.

"En el pasado, VMware ha sido activo apoyando, impulsando y siendo parte del software de Código Abierto, pero hoy tenemos metas mucho mayores y aspiraciones más altas", dice Hohndel. "Este es un compromiso a largo plazo, y comienza con cada vez más activo, siendo humilde, y creando un impacto positivo en la comunidad".


Porque es gratis

Como el interés en el software de código abierto de los CIOs de la empresa sigue creciendo, Hohndel señala que abordar conceptos erróneos es parte de su papel. "Escucho a la gente decir, 'Estoy haciendo software de código abierto porque es gratis', lo cual no es cierto", dice Hohndel. "Sí, usted puede obtener recursos gratuitos, pero la ampliación a la producción es un proceso costoso que requiere capital y conocimientos técnicos significativos.

Con el desarrollo de código abierto, a menudo se está intercambiando los gastos de capital con los gastos operativos, pero de cualquier manera, hay un costo."

A medida que las empresas ganan experiencia en herramientas de código abierto, pueden crecer más independientes y confiar en tomar decisiones tecnológicas. Apresurarse en proyectos de código abierto, sin embargo, puede resultar costoso.

"Yo he advierido a los CIOs que tengan cuidado con las tecnologías "calientes" a menos que tengan un plan completo. Sólo por mencionar un ejemplo, los Contenedores son fantásticos si quieren ejecutar 12 en una sola máquina, pero si están ejecutando 10.000 de ellos en el mismo equipo y con redundancia, dentro de una gran área geográfica, eso es un asunto muy distinto a resolver ", explica Hohndel.

En otro ejemplo, menciona "un cliente que adoptó OpenStack como una solución, suponiendo que sería rápido y fácil. El proyecto comenzó con tres personas, pero al cabo de cinco meses aumentó a 12 empleados a tiempo completo y aún no estaban cerca de una beta interna.


Innovación y Colaboración

Los proyectos de código abierto son, por naturaleza, innovadores y colaborativos. No es raro que las empresas utilicen el software de código abierto como cimiento para construir encima de él. "La
innovación es parte del ADN de VMware, por lo que es emocionante para nosotros participar con la comunidad de código abierto, no sólo para aprender, sino también para aportar nuestra experiencia y crear valor. La forma de ser influyente y relevante en la comunidad de código abierto es hacer contribuciones significativas que beneficien a todos ".

Hoy en día, el software de código abierto desempeña un papel importante en VMware. Al igual que muchas grandes empresas, los productos de la compañía se basan en cientos de componentes de código abierto. Garantizar que estas tecnologías se utilicen en conformidad con sus licencias, están al día, e integrarse perfectamente con otros sistemas es fundamental. La empresa no sólo utiliza estos componentes, sino que también aporta código, convirtiéndose en parte de la comunidad de innovación que mantiene los proyectos de código abierto sanos y prósperos.

"A medida que usamos estos componentes, también estamos liberando cada vez más nuestros propios proyectos de código abierto de los que dependen otras empresas", dice Hohndel. "Esto amplía nuestro
compromiso con las tecnologías que están transformando el centro de datos de la empresa, dándonos un asiento en la mesa cuando la gente quiere discutir la infraestructura de TI del futuro".


Compromiso a largo plazo

Para que VMware siga siendo un socio clave para sus clientes, la compañía está comprometida con los proyectos de código abierto. Hohndel señala que este compromiso está respaldado por altos directivos y ha sido bien recibido en toda la compañía.

"Necesitamos involucrarnos con un amplio conjunto de perspectivas sobre VMware y software de código abierto. Eso significa conectar con la gente donde están, si son escépticos y preocupados o
entusiasta y de apoyo ", dice Hohndel. "Si lo hacemos bien, proporcionaremos un mejor valor a nuestros clientes y a la comunidad de código abierto como un todo".

Nuevamente el Código Abierto hace acto de presencia, pero esta vez como un protagonista principal como piedra angular de los Centros de Datos definidos por Software y La Nube privada.

¿Confía Usted en el Código Abierto como piedra angular de su Centro de Datos Definido por Software?

viernes, 19 de mayo de 2017

Servicios de nube y el código abierto...

En entradas anteriores algo recientes, hablábamos de todas las ventajas que ofrece el Código Abierto (Open Source en inglés), ya no solo para ese grupo de hombres y mujeres entusiastas que desarrollaban para plataformas gratuitas, sino que ahora muchos ISVs (siglas en inglés para Vendedores Independientes de Software), proveedores de Soluciones para Comunicaciones Unificadas, Hiperconvergencia y tantos otros rubros más.

Incluso proveedores de software "de código cerrado", ya están orientando sus esfuerzos hacia el Open Source, pues las empresas de todo el mundo ya probaron las ventajas que ofrece Código Abierto (por sobre todo la económica y la de no estar "casados" a un sólo proveedor) y les es muy conveniente.

Todo esto se complementa perfectamente con La Nube, elemento fundamental de la Tercera Plataforma, coadyuva con Internet de Las Cosas (Cuarta Revolución Industrial) y refuerza a la Convergencia Informática.

Con respecto a La Nube y el Código Abierto, compartimos una muy valiosa opinión por parte de Olivia Salas, Regional Marketing Manager de Red Hat México.

Comienza la cita

Es un hecho que los patrones de inversión en TI están cambiando radicalmente al migrar a un modelo de consumo basado en la economía de la nube. En este sentido, IDC calcula que las empresas dedicarán al menos el 28% de su presupuesto de TI a la contratación de servicios cloud en 2017, con lo que inician la transición a un modelo de consumo bajo un esquema de OPEX (gasto operativo).


Las empresas de América Latina se han caracterizado, particularmente en las últimas décadas, por ser receptivas y abiertas a la adopción de nuevas tecnologías. El hecho de haber estado rezagadas durante buena parte del siglo pasado contribuyó a que no tengan hoy costosas y enormes infraestructuras y sistemas, lo que ha facilitado y acelerado la implementación de soluciones de tecnologías de la información (TI) más dinámicas y ágiles.
Tendencias como la nube, la movilidad, la analítica/Big Data y el uso del código abierto han encontrado un terreno fértil en la región, dando paso a nuevos servicios y aplicaciones más sofisticados, lo que ha impactado positivamente en la rentabilidad de las organizaciones.
Al mismo tiempo, dichas tendencias están sustentando la transformación digital e innovación de las empresas, y llevándolas a alinear de forma distinta las iniciativas de TI con las prioridades de negocio.
IDC realizó recientemente un estudio, titulado Perspectiva de Open Source y Servicios en América Latina, con el fin de analizar el estado actual de adopción y las estrategias de uso de las soluciones de código abierto y de servicios en la nube. Patrocinado por Red Hat e Intel, esta encuesta recogió las opiniones sobre estas tendencias de los tomadores de decisiones de las áreas de TI (CIO, directores de Sistemas y de Tecnología) de 250 empresas con más de 500 empleados. El estudio abarcó una amplia variedad de industrias y seis países: Argentina, Brasil, Chile, Colombia, México y Perú. 
De acuerdo con este sondeo, la adopción y uso del código abierto (open source) va en franco ascenso en la región. El 69% de las organizaciones encuestadas utiliza el código abierto en un entorno de
producción, mientras que el 12% planea implementar algún proceso de TI sobre esta plataforma en los próximos doce meses.
IDC señala en su reporte que estos porcentajes son consecuencia de la búsqueda de las empresas latinoamericanas por maximizar las inversiones que han realizado en tecnología, a través de un proceso de eficiencia, optimización y modernización de la infraestructura de TI.
“Las empresas encuestadas confirman que uno de los principales beneficios de usar el código abierto es la creación rápida de aplicaciones que soporten las diferentes actividades del negocio”, indica el estudio. “El open source es considerado el puente entre la eficiencia y la innovación necesarias para competir en un entorno de negocios cada vez más incierto”.
En lo que se refiere a la implementación de aplicaciones de nube (cloud), IDC reporta que el 54% de las empresas utiliza actualmente soluciones de nube pública o privada, en tanto que el 31% planea aprovecharlas en los próximos doce meses. Sólo el 8% no tiene planes, o no están interesadas, de utilizar soluciones cloud.
Todo nube, todo código abierto
Es un hecho que los patrones de inversión en TI están cambiando radicalmente al migrar a un modelo de consumo basado en la economía de la nube. En este sentido, IDC calcula que las empresas dedicarán al menos el 28% de su presupuesto de TI a la contratación de servicios cloud en 2017, con lo que inician la transición a un modelo de consumo bajo un esquema de OPEX (gasto operativo).
De aquellas empresas que utilizan este tipo de servicios, o que están considerando invertir en ellos, al menos el 43% dijo tener una estrategia “todo en cloud” (Cloud First), o “cloud a lo largo de la empresa” (widespread use) en cuanto a la adopción de servicios en la nube.
En el lado del código abierto, el 28% de las empresas aseguró tener una estrategia “open source a lo largo de la empresa”, mientras que el 27% tiene “open source en iniciativas por área de negocios”, y el 14%, “todo en open source”.
Oportunidades y desafíos
El estudio de IDC también resalta los beneficios que tanto la nube como el código abierto tienen no sólo para los departamentos de TI sino también para otras las áreas de negocio, como, por ejemplo, implementar más rápidamente las iniciativas empresariales, cuyo impacto en los resultados de las organizaciones es mucho más directo.
En particular, los servicios de nube benefician a los grupos de ventas y marketing, finanzas/contabilidad, producción/logística, así como al equipo de soporte y experiencia del cliente. Mientras que las áreas que se benefician del código abierto incluyen a web, portales, intercambio de datos y contenidos, prueba y desarrollo, servicios de nube y hosting, entre otras.
Si bien siempre se ha dicho que la ventaja de los servicios en la nube ha sido la reducción de los costos al basarse en un modelo de pago por uso, el estudio de IDC asegura que en la mayoría de los casos, las empresas los contratan por periodos menores a un año, al igual que con otro tipo de
servicios bajo demanda. Aun así, la reducción de costos y la eficiencia sobresalieron como el principal beneficio (75% de las respuestas), seguidas por la aceleración en el uso de aplicaciones de negocio (46%), el manejo de datos y la gestión del riesgo (35%) y el impulso a las iniciativas de transformación digital (27%).
Como beneficios del código abierto, las empresas citaron una amplia gama de actividades, entre las que destacan la reducción de los costos de administración (50%), la no dependencia de un solo proveedor de TI (47%) y la personalización del código fuente para el desarrollo de aplicaciones (43%).
Tecnologías como la nube conllevan también diferentes retos para las empresas que decidan adoptarlas. Al cuestionarlas sobre cuáles consideran que son los mayores desafíos que enfrentan, las organizaciones citaron los gastos continuos, una administración deficiente, un bajo rendimiento y la falta de casos de uso locales y de soluciones por industria.
En lo que se refiere a los desafíos que plantea el código abierto, se citaron rubros como la sustentabilidad de los proyectos de open source en el largo plazo, la preocupación por el soporte provisto por el vendedor o la comunidad correspondiente y la carencia de recursos especializados.
Las próximas acciones
El estudio Perspectiva de Open Source y Servicios en América Latina de IDC, luego de analizar los resultados, brinda una serie de acciones que las compañías de la región pueden seguir para ser más competitivas e innovadoras, así como para seguir creciendo y desarrollando capacidades en sus respectivas industrias:
– Revisar sus prioridades de negocio para identificar cómo los servicios de nube y el código abierto pueden contribuir a alcanzar sus objetivos de negocio.
– Documentarse sobre las distintas opciones de contratación e implementación de servicios en la nube y de código abierto. La venta de servicios de nube está creciendo a doble dígito en América Latina, con ofertas de nube pública y privada de más de 50 proveedores.
– La decisión de llevar las cargas de trabajo a la nube o a un ambiente open source dependerá de las capacidades de respuesta a las demandas que los usuarios de estos procesos requerirán.
– La adopción de servicios de nube y código abierto apunta hacia ambientes híbridos en la región.
– Involucrar a los líderes de las áreas de negocio durante la selección de soluciones y proveedores.

Fin de la cita

Es impostergable para propios y no tanto, la inclusión de Código Abierto, por sobre todo cuando se está trabajando con plataforma (como un servicio) en La Nube. Pareciera pues que resulta contradictorio el hablar por un lado de La Nube (en este caso de Plataforma como un Servicio) y por el otro lado de código cerrado.

¿Ya cuenta Usted y/o su Empresa con aplicaciones y/o soluciones que involucran Código Abierto?