Mostrando entradas con la etiqueta Multi-Cloud. Mostrar todas las entradas
Mostrando entradas con la etiqueta Multi-Cloud. Mostrar todas las entradas

martes, 16 de febrero de 2021

Cloud Paks de IBM. Microservicios en Multi Nube Híbrida

Parte esencial de la Tercera Plataforma. Tecnología fundamental dentro de las doce tecnologías con impacto a corto plazo de la Transformación Digital y uno de los cimientos fundamentales para la Cuarta Revolución Industrial, el Cómputo en La Nube ha sido pues de lo más revolucionario que se tiene ahora en lo referente a las Tecnologías de la Información.

Cómo recordamos y con mucho afecto esos días en los que el Cómputo, los Sistemas, la Informática se llevaba a cabo programando sobre un hardware, para poder obtener un Sistema de Cómputo que pudiese subsanar las necesidades de administración, contabilidad, producción, etc. en una empresa u organización.

El "boom" que vino de la mano de la Segunda Plataforma, o la Arquitectura Cliente-Servidor, hizo que sin darnos cuenta y sin previo aviso, fuésemos responsables de programas de cómputo monolíticos, enormes,  con millones de líneas de código y que cada que fuese necesario realizar un cambio, una actualización, arreglar un desperfecto (por más pequeño que este fuera), requeríamos abrir una ventana de mantenimiento y la operación podía durar un par de meses.

Los negocios, la gestión de empresas y/o entidades de gobierno y todas esas actividades para las que se había creado o comprado una aplicación, evolucionaron por su cuenta y ahora los cambios suceden con una frecuencia inusitada e inverosímil para aquellos tiempos en los que muchas aplicaciones se habían creado. Ahora los usuarios (no decenas ni cientos, sino miles o millones) no estaban detrás de una Terminal "tonta" (en una estación de trabajo fija). Tampoco estaban en Computadoras Personales de Escritorio (Desktops). Mínimo los usuarios están detrás de una Computadora con Monitor Abatible (LapTop), una Tableta con tecnología "touch" y servicio de red inalámbrica o con un Dispositivo Personal Móvil en su mano, y éstos pueden estar en su casa, en un ciber-café, en la calle, en un vehículo de transporte público o inclusive en la Estación Espacial Internacional. Sí. Literalmente donde quieran y utilizando el dispositivo que en ese momento pueden o quieren utilizar. Todo un reto.

Las Redes de Cómputo son ese aparato circulatorio por el cual los datos fluyen en todos los sentidos. Los riesgos de seguridad se han multiplicado y literalmente, los usuarios no pueden esperar más de tres segundos por su información. Para desgracia de muchos negocios, existen muchas opciones para los usuarios quienes no dudarán en abandonar una opción e inmediatamente tomar otra distinta que les ofrezca lo que necesitan, cuando lo necesitan, en donde quiera que estén y sin esperar tres segundos.

¿Se imaginan estar en la época de los Mainframe (Primera Plataforma), o incluso de la Arquitectura Cliente-Servidor (Segunda Plataforma), con los tiempos y procedimientos para crear, actualizar, reparar aplicaciones en estos tiempos tan vertiginosos con usuarios tan exigentes y voraces?

La Nube (pública, híbrida o privada) representó un considerable ahorro para los Costos de Capital (CapEx) y un uso más eficiente en lo que se refiere al Costo Operativo (OpEx). Pero aún así el seguir "montando" inmensas aplicaciones monolíticas (aunque fuese en modalidad Multi-Capa) seguía siendo un enorme reto.

¿Y qué pasó entonces? Nació la Arquitectura de Microservicios (en inglés, Micro Services Architecture, MSA).

Ésta es una aproximación para el Desarrollo de Software que consiste en construir una aplicación como un conjunto de pequeños servicios, los cuales se ejecutan en su propio proceso y se comunican con mecanismos ligeros (normalmente una API de recursos HTTP).

En esta Arquitectura, cada servicio se encarga de implementar una funcionalidad completa del negocio. Cada servicio es instalado, configurado y aprovisionado de forma independiente y puede estar programado en distintos lenguajes, usando diferentes tecnologías de almacenamiento de datos.

¿Cuáles son las características principales de los Microservicios?

  • Los componentes son servicios: Los servicios son componentes separados que se comunican mediante mecanismos como los servicios web o los RPC en lugar de usar llamadas a funciones en memoria como hacen las bibliotecas.

  • Organización en torno a las funcionalidades del negocio: El sistema se divide en distintos servicios donde cada uno está organizado en torno a una capacidad del negocio. Es muy importante limitar la responsabilidad de cada servicio. Cada servicio implementa toda la funcionalidad del negocio que agrupa desde la interfaz de usuario, la persistencia en el almacenamiento y cualquiera de las colaboraciones externas.

  • Productos, no proyectos: En esta arquitectura normalmente se sigue la idea de que un equipo debe estar a cargo de un componente (servicio) durante todo el ciclo de vida del mismo, desde la etapa de diseño y construcción, la fase de producción y hasta la de mantenimiento. Esta mentalidad se acopla bien con la vinculación a una capacidad del negocio. En lugar de ver el software como un conjunto de funcionalidades terminadas se ve como una relación continua, donde la pregunta es cómo puede el software ayudar a sus usuarios a mejorar la funcionalidad del negocio que implementa. Esto es facilitado por el bajo nivel de granularidad que ofrecen los microservicios.

  • Extremos inteligentes, tuberías bobas: Las aplicaciones creadas desde microservicios pretenden ser tan disociadas y cohesivas como sea posible, ellas poseen su propia lógica de dominio y actúan como filtros en el clásico sentido UNIX: recibe una solicitud, aplica la lógica apropiada y produce una respuesta. Estos pasos son coreografiados usando protocolos simples (típicamente HTTP con REST o mensajería liviana como RabbitMQ o ZeroMQ) en lugar de protocolos complejos como WS-BPEL.

  • Tener gobernabilidad descentralizada: Con el sistema con múltiples servicios colaborativos, podemos decidir utilizar diferentes lenguajes de programación y tecnologías dentro de cada servicio. De esta forma podemos elegir la herramienta adecuada para cada tipo de trabajo en lugar de tener una estandarizada. Por ejemplo si una parte del sistema necesita mejorar su rendimiento es posible usar una tecnología, quizás más complicada, que permita alcanzar el nivel de rendimiento requerido.

  • Gestión de datos descentralizada: Los microservicios prefieren dejar a cada servicio que gestione su propia base de datos, sean estos diferentes instancias de la misma tecnología de base de datos o sistemas de base de datos completamente diferentes.

  • Diseño tolerante a fallos: Las aplicaciones necesitan ser diseñadas de modo que puedan tolerar las fallas de los distintos servicios. Cualquier llamada de servicio puede fallar y el cliente tiene que ser capaz de responder a esto con la mayor facilidad y eficacia posible, evitando los muy habituales fallos en cascada de las arquitecturas distribuidas.

  • Automatización de la infraestructura: La mayoría de los productos y sistemas desarrollados con el enfoque de microservicios han sido construidos por equipo que usan entrega continua y su precursor la integración continua. Para conseguir esto es necesario:
    • Automatizar todo el proceso, desde el chequeo del código, pruebas, despliegue.
    • Control de versiones y gestión de configuración.
    • Arquitectura (hardware-software-sistema operativo) adecuada. Tiene que permitir realizar cambios sin que afecten al resto del sistema.

  • Diseño evolutivo: Cuando se divide el sistema en servicios hay que tener en cuenta que cada uno tiene que poder ser reemplazado o actualizado de forma independiente.

Todo esto se lee y suena fantástico. ¿Pero cómo es posible lograr todo esto de manera concreta, completa y cabal? La respuesta a esta pregunta de llaman Contenedores de Cómputo.

Los Contenedores son elementos que contienen (valga la redundancia) están centrados en las aplicaciones, para que estas sean escalables de alto rendimiento, pudiéndose ejecutar en cualquier infraestructura que se elija. Los Contenedores son los más adecuados para ofrecer microservicios, al proporcionar entornos virtuales portátiles y aislados para que las aplicaciones se ejecuten sin interferencia de otras aplicaciones en ejecución.

Un contenedor es una unidad estándar de software que empaqueta el código y todas sus dependencias para que la aplicación se ejecute de forma rápida y confiable de un entorno informático a otro. Una imagen de contenedor en la plataforma de ejecución para contenedores Docker, es un paquete de software ligero, independiente y ejecutable que incluye todo lo necesario para ejecutar una aplicación: código, tiempo de ejecución, herramientas del sistema, bibliotecas del sistema y configuraciones.

Aquí ya comenzamos a tocar un tema dentro de esto que es los Contenedores, y aquí vale la pena hacer una aclaración: Los Contenedores NO SON Máquinas Virtuales, y aunque suene a todo un "cliché" o un pleonasmo, las Máquinas Virtuales NO SON tampoco Contenedores. Lo que es más, es posible ejecutar Contenedores DENTRO de Máquinas Virtuales, pero nunca una Máquina Virtual podrá ejecutarse en un ambiente de ejecución para Contenedores, pues la máquina virtual necesita de un Hipervisor.

Vale la pena entonces también hacer un paréntesis para mencionar que, los Micro Servicios (y por ende los Contenedores), nada tienen que ver con la Arquitectura Orientada a Servicios o Service Oriented Architecture (SOA). Un ejemplo de implementación de esta Arquitectura son los Web Services.

La Arquitectura Orientada a Servicios es un estilo de arquitectura de TI que se apoya en la orientación a servicios y se deriva de la Web 2.0 en lo concerniente a relación Negocio a Negocio. La orientación a servicios es una forma de pensar en servicios, su construcción y sus resultados. Aquí un servicio es una representación lógica de una actividad de negocio que tiene un resultado de negocio específico (ejemplo: comprobar el crédito de un cliente, obtener datos de clima, consolidar reportes de perforación).

El estilo de arquitectura SOA se caracteriza por:

  • Estar basado en el diseño de servicios que reflejan las actividades del negocio en el mundo real, estas actividades forman parte de los procesos de negocio de la compañía.
  • Representar los servicios utilizando descripciones de negocio para asignarles un contexto de negocio.
  • Tener requerimientos de infraestructura específicos y únicos para este tipo de arquitectura, en general se recomienda el uso de estándares abiertos para la interoperabilidad y transparencia en la ubicación de servicios.
  • Estar implementada de acuerdo con las condiciones específicas de la arquitectura de TI en cada compañía.
  • Requerir un gobierno fuerte sobre las representación e implementación de servicios.
  • Requerir un conjunto de pruebas que determinen que es un buen servicio.

El desarrollo e implementación de una arquitectura SOA se rige por los principios descritos en el manifiesto SOA. Por otra parte la aplicación de la orientación a servicios se divide en 2 grandes etapas:

  • Análisis orientado a servicios (Modelado de servicios)
  • Diseño orientado a servicios

Volviendo ahora al tema, para hacer más simple el entendimiento de el concepto de lo que es el Contenedor, imagine por un momento que Usted necesita ejecutar, en su computadora de escritorio un par de aplicaciones. Estas aplicaciones NO es posible instalarlas sobre el mismo Sistema Operativo que actualmente se ejecuta en su equipo de cómputo, pues ambas tienen en común "bibliotecas" (libraries) y recursos informáticos que no pueden compartir. Una evita que la otra se ejecute en el mismo ambiente de ejecución (valgan las redundancias).

¿Qué hacer entonces? Si esto nos lo hubiesen preguntado hace dos años, la respuesta sería: -"...instala VMware WorkStation Player o Virtual Box sobre tu Sistema Operativo, crea dos máquinas virtuales y sobre los respectivos Sistemas Operativos, instala en cada una su aplicación correspondiente."- Hoy y si esta aplicación viene "contenerizada", no necesitas hipervisor alguno. Mientras que el "Kernel" del Sistema Operativo sea compatible a ambas aplicaciones, usando un ambiente de ejecución de contenedores (como el ya mencionado Doker), no es necesaria ninguna Máquina Virtual. Ambas aplicaciones pueden convivir en el mismo Hardware.

Queda entonces claro que, para poder ejecutar contenedores es necesario:

  • Un Sistema Operativo (Linux) en el que se pueda instalar el ambiente de ejecución de contenedores
  • Un ambiente de ejecución de contenedores (Doker)
  • Los contenedores

Sí. Así de sencillo. Huelga decir que estos contenedores pudiesen trabajar completamente independientes uno del otro o trabajar en conjunto para conformar una Aplicación. También podemos inferir de todo esto, que con tan solo un modesto equipo de cómputo (pudiese ser incluso a nivel de escritorio) es posible comenzar con nuestra aventura con los Contenedores.

Todo esto ha estado funcionando tan bien y ha tenido tanto sentido para las empresas y organizaciones, que se disparó una tremenda proliferación de aplicaciones contenerizadas. Esto comenzó entonces a presentar sendos retos para la administración de los Contenedores.

Sólo para comenzar, éstos ya no se instalaban en equipos pequeños, sino que ahora se tenían Clusters de Servidores que proveen todo lo necesario en cuanto a ambiente de ejecución se requiere. Dichos Clusters en su mayoría son basados en plataformas de Virtualización y esto también fue lo que hizo que cada vez se tuviesen ambientes más y más complejos para controlar los Contenedores. Fue entonces que se hizo necesaria una herramienta que permitiese orquestar, administrar de manera centralizada y automatizar la operación de los Contenedores. Nace Kubernetes.

Kubernetes (referido en inglés comúnmente como “K8s”) es una herramienta de Código Abierto creada para la automatización del despliegue, escalabilidad y administración de aplicaciones en contenedores,​ que fue originalmente diseñado por Google y donado a la Cloud Native Computing Foundation (parte de la Linux Foundation). Soporta diferentes entornos para la ejecución de contenedores, incluido Docker.

Ahora los Desarrolladores y el personal de Operación de las empresas y organizaciones, encontraron un muy valioso aliado para poner bajo control desde pequeñas y hasta inmensas cantidades de contenedores.

No vamos a ahondar en el tema de Kubernetes, pues merece un tratamiento aparte. Lo que sí vale la pena mencionar es que aunque es posible ejecutar Contenedores contando tan sólo con Doker (la plataforma o ambiente de ejecución), Kubernetes ha demostrado ser indispensable.

Para muchas áreas de Tecnologías dela Información de empresas y organizaciones, ya en la práctica, poder armar todo lo referente al ambiente de ejecución, automatización, orquestación, administración, etc. para los Contenedores, no resultó tan fácil como se escuchaba o leía. ¿Qué hacer para aprovechar todas las bondades de los Contenedores y no tener que lidiar con todo lo que implica poner a punto toda esa estructura necesaria). Llegó al rescate Red Hat® OpenShift®.

OpenShift® es una familia de productos de software de contenedorización desarrollados por Red Hat®. Su producto estrella es OpenShift® Container Platform, una plataforma local como servicio construido alrededor de contenedores Docker orquestados y administrados por Kubernetes sobre la base de Red Hat® Enterprise Linux. 

La familia de productos OpenShift® proporciona la ten necesaria plataforma a través de diferentes entornos: OKD (Origin Community Distribution) que sirve como el upstream impulsado por la comunidad (similar a la forma en que Fedora está upstream de Red Hat® Enterprise Linux). OpenShift® Online, la plataforma que se ofrece como software como servicio y OpenShift® Dedicated, la plataforma que se ofrece como servicio gestionado.

Hasta el momento hemos mencionado que los Contenedores son ideales para crear un ambiente de Plataforma como un Servicio, sobre nuestra Infraestructura como un Servicio, en nuestros Centros de Datos Definidos por Software. Digamos que ahora tenemos nuestra Nube Privada ejecutando nuestros Contenedores.

¿Y qué sucede cuando queremos incorporar Servicios de Infraestructura en Nubes Públicas? Cierto. La evolución a entornos de ejecución fuera de la empresa, da soporte y es esencial para esa necesidad de proveer a nuestros Usuarios de sus aplicaciones que se puedan ejecutar donde sea, cuando sea, a través del dispositivo que sea.

Leyes, normatividades, regulaciones pusieron un freno a la migración total desde La Nube Privada (o los ambientes On Premise) hacia La Nube Pública. Por lo que las empresas y organizaciones optaron por un mitad-y-mitad naciendo con esto La Nube Híbrida. En esta modalidad se aprovecha lo mejor de La Nube Privada y La Nube Pública, dando como resultado un ambiente de ejecución homogéneo (o idealmente homogéneo) en donde los Usuarios "ni se enteran" de a dónde se están ejecutando sus Servicios. Ellos simplemente disfrutan de estos.

El nuevo reto entonces era elegir en qué proveedor de Nube Pública ejecutar nuestros Contenedores. Pues en un principio y aunque los ambientes de ejecución de Contenedores no requieren de bastos recursos informáticos, sí es indispensable el armar toda la estructura (física y/o virtual) que de sustento dicho ambiente de ejecución.

Aquí es entonces a donde entra el concepto de los Cloud Paks de IBM. Son software con tecnología de Inteligencia Artificial para La Nube (o Multi Nube) Híbrida , que nos permite implementar por completo flujos de trabajo inteligentes la empresa u organización, para acelerar el camino a la transformación digital en lo que a Contenedores se refiere.

IBM Cloud Paks aprovecha el poder de IBM Watson® para aplicar Inteligencia Artificial a su negocio, predecir y dar forma a resultados futuros, automatizar procesos complejos, optimizar el tiempo de administradores de T.I. y crear ambientes más ágiles y seguros.

Basados en Red Hat® OpenShift®, es posible desarrollar o instalar aplicaciones contenerizadas una vez, e implementarlas en cualquier lugar de cualquier Nube Pública o Privada. Además, puede integrar la seguridad y automatizar las operaciones con visibilidad de gestión. IBM Cloud Paks tiene una base común de componentes empresariales que aceleran el desarrollo, brindan una integración perfecta y ayudan a mejorar la colaboración y la eficiencia.

Los flancos en los que tenemos por el momento los Cloud Paks son:

  • Datos
  • Automatización del Negocio
  • Operaciones con Inteligencia Artificial provista por Watson
  • Integración
  • Automatización de la Red
  • Seguridad

En entregas posteriores abordaremos cada uno de estos Cloud Paks. Por el momento baste decir que si dentro de los requerimientos de su empresa u organización ya se está trabajando y/o se requiere implementar a corto plazo la contenerización de sus aplicaciones, Cloud Paks de IBM son la mejor alternativa Multi Nube.

¿Su empresa u organización ya está trabajando con Contenedores?

miércoles, 21 de marzo de 2018

IBM da nuevo impulso a la nube, con énfasis en IA y Seguridad

IA. Inteligencia Artificial. Un tema que desde hace mucho tiempo ha poblado las mentes de escritores de Ciencia Ficción y Fantasía. ¿Recuerdan a la perversa HAL-9000 de "2001: Una Odisea en el Espacio"? ¿Cómo olvidar a la aún más malévola organización SkyNet, que engendró a la némesis de la Raza Humana en la figura de los Terminator?

En el marco del "Think 2018", IBM Corporation espera atraer a más empresas a sus plataformas en la nube con una serie de actualizaciones, destinadas a aumentar la seguridad y habilitar cargas de trabajo de inteligencia artificial y despliegues "multiloud".

Los anuncios de la compañía se hicieron el día de ayer Martes 20 de Marzo de 2018, durante su conferencia anual "Think", que se lleva a cabo en Las Vegas esta semana, donde el tema primordial es todo sobre sus esfuerzos para expandir la adopción de La Nube.

IBM se enfrenta aquí a un enigma: por un lado, dice que la mayoría de las empresas están desesperadas por trasladarse a la nube para aprovechar las nuevas tecnologías como la Inteligencia Artificial, el Aprendizaje Automático y el "Internet de las Cosas".

Pero aquellas mismas empresas también están preocupadas de moverse demasiado rápido, temerosas de los riesgos de seguridad que puede representar el mover cargas de trabajo y datos fuera de sus centros de datos locales.

IBM está tratando de abordar estas preocupaciones mediante la introducción de lo que llama "Capacidades de Protección de Datos a Nivel de Mainframe" para su infraestructura en la nube. Estas capacidades se están introduciendo bajo el slogan: "IBM Cloud Hyper Protect", que es básicamente una familia de servicios de seguridad que están diseñados para tranquilizar las preocupaciones de los desarrolladores.

Asegurando La Nube

Los nuevos servicios incluyen IBM Cloud Hyper Protect Crypto Services, se basan en proporcionar cifrado de datos y funciones de administración de claves, comúnmente utilizadas por las instituciones financieras para proteger las aplicaciones alojadas en la nube.

El servicio admite operaciones de claves seguras y generación de números aleatorios a través del hardware criptográfico IBM Z. Se basa en la misma tecnología que la plataforma Enterprise Blockchain de IBM.

También es nuevo "IBM Cloud Hyper Protect DbaaS", un nuevo servicio diseñado para salvaguardar bases de datos en la nube como MongoDB.

En cuanto a los contenedores de IBM Cloud Hyper Protect, están diseñados para trabajar con el servicio IBM Cloud Container, apoyando a las empresas a implementar aplicaciones basadas en contenedores, que pueden ejecutarse en múltiples tipos de computadoras, software, y servicios en La Nube.

IBM dijo que proporciona "seguridad extrema" para este tipo de cargas de trabajo,siendo particularmente buena para evitar el acceso privilegiado de usuarios malintencionados.

La última de las actualizaciones de seguridad de IBM, se refiere a sus kits de inicio de desarrollador de IBM Cloud Hyper Protect, para desarrolladores de plataformas iOS que necesitan una forma de proteger las credenciales, los servicios y los datos al crear aplicaciones en su nube.

Inteligencia Artificial en el cielo

Además de proteger la nube, IBM también está tratando de ayudar a los clientes a obtener un mayor valor de ésta. "Los clientes de IBM están dispuestos a adoptar tecnologías de inteligencia artificial", dijo el portavoz de la compañía.

Pero para muchas organizaciones, esto requiere el uso de recursos en la nube, porque el hardware requerido para las cargas de trabajo de Inteligencia Artificial es extremadamente especializado y en muchos casos, prohibitivamente costoso.

"Para tener éxito en el aprovechamiento de la Inteligencia Artificial o en el desarrollo de nuevos modelos de Aprendizaje Automático, las empresas necesitan acceso a hardware diseñado específicamente para cumplir con las rigurosas demandas de estas cargas de trabajo", agregó el portavoz de IBM.

Por supuesto, IBM está muy feliz de proporcionar ese hardware. En IBM Think, muestran sus últimos sistemas para cargas de trabajo de inteligencia artificial basadas en la nube, incluido POWER9 en IBM Cloud.

Este es básicamente un servidor extremadamente poderoso que está basado en sus últimos Servidores de Sistemas y chips de procesador POWER9, personalizado para cargas de trabajo de Inteligencia Artificial.

El servidor también incorpora los chips de unidad de procesamiento gráfico Tesla V100 más recientes de Nvidia Corporation, a través de una interfaz NVLink de alta velocidad que puede entrenar marcos de redes neuronales de Aprendizaje Profundo, casi cuatro veces más rápido que los sistemas anteriores, afirmó IBM.

También es nuevo PowerAI en IBM Cloud, una distribución de software de nivel empresarial que combina los populares frameworks de Aprendizaje Profundo, como TensorFlow, Torch y Caffe y permite a los usuarios configurarlos en cuestión de minutos, en lugar de días.

Además, la empresa ha presentado SAP HANA en Power Systems dentro de IBM Cloud. Esto se describe como un servicio administrado en la nube para SAP HANA en Power Systems, diseñado para cargas de trabajo analíticas en la memoria que pueden admitir hasta 24 terabytes de datos.

Conexión de entornos multi-nube

El aspecto final del nuevo impulso a la nube de IBM, consiste principalmente en habilitar las implementaciones de multi-nube. IBM señala en una publicación de su Blog, que las empresas están desplegando cada vez más aplicaciones y cargas de trabajo dentro de una multitud de entornos de tecnología de la información, que incluyen nubes públicas, nubes privadas y locales, dependiendo de cuál sea la más adecuada.

La estrategia "multicloud" tiene por objetivo maximizar las eficiencias, pero también puede causar dolores de cabeza ya que se vuelve un desafío, vincular todos estos entornos de TI diversos. Entonces, ¿qué es una empresa para hacer?

IBM cree que tiene la respuesta con algunos de sus nuevos servicios que anunció ayer martes. Estos incluyen nuevas capacidades de migración a La Nube para la plataforma IBM Cloud Private, diseñadas para acelerar la implementación de aplicaciones críticas para la empresa en La Nube.

La compañía también promociona su Soporte de Contenedor Expandido, con nuevas versiones de contenedores de software para desarrollo y administración de aplicaciones de IBM, que deberían ayudar a los desarrolladores a realizar, probar, monitorear y administrar aplicaciones en múltiples nubes y sistemas locales.

También hay una nueva plataforma de integración en la nube, que proporciona un único punto de control para cosas tales como mensajería de datos, administración de interfaz de programación de aplicaciones, integración de aplicaciones e interconexión de datos y aplicaciones a través de diferentes nubes.

Por último, el servicio de almacenamiento de objetos en la nube de IBM, ahora proporcionará una opción de carga de datos de alta velocidad: Aspera, que permite a los clientes mover grandes cantidades de datos hacia y desde La Nube, cientos de veces más rápido que las transferencias http/ftp estándar.

Holger Mueller, analista principal y vicepresidente de Constellation Research Inc., mencionó que las actualizaciones son buenas noticias para los clientes de IBM que ya han invertido en su "stack", porque hacen que la empresa sea más competitiva.

Sin embargo, agregó que las actualizaciones son mucho menos atractivas en términos de soluciones de puntos que ofrecen IBM, porque los beneficios solo se desarrollan cuando se usan con el "stack" completa de IBM.

"La seguridad es importante, pero solo juega un papel real en las soluciones locales e de IBM", dijo Mueller. "Cuando las empresas implementan la nube, miran al respectivo proveedor de infraestructura como servicio para proporcionar la seguridad".

Nueva asociación

IBM también anunció que se está uniendo a la compañía de análisis de aplicaciones y monitoreo de rendimiento New Relic Inc. para ofrecer sus servicios desde su centro de datos en la nube en Frankfurt, Alemania. Este movimiento atiende principalmente a los clientes europeos de New Relic, permitiéndoles cumplir con el próximo Reglamento General de Protección de Datos (RGPD por sus siglas en inglés).

Los coanfitriones John Furrier, Dave Vellante y Lisa Martin discutieron la estrategia en la nube y la posición competitiva de IBM en un video que inició el programa el lunes, con muchas más entrevistas con IBM y ejecutivos de la industria programadas hasta el miércoles:


En conclusión, La Nube (elemento fundamental de la Tercera Plataforma) y la Inteligencia Artificial (de la Cuarta Revolución Industrial y elemento fundamental de la Transformación Digital) no son algo que va a venir. 

Son una realidad en el presente y tienen de su parte, para efectos de su ya evidente trascendencia, que pueden apoyar a empresas y organizaciones a cumplir con cada vez más demandantes objetivos, Acuerdos de Calidad de Servicio (SLA por sus siglas en inglés) y por qué no, la generación de ingresos y utilidades.

¿Ya conoce Usted que ofrece IBM para acelerar el ritmo y el éxito de su empresa?