Mostrando entradas con la etiqueta Riesgo. Mostrar todas las entradas
Mostrando entradas con la etiqueta Riesgo. Mostrar todas las entradas

martes, 23 de enero de 2018

¿Cómo serán las TI en el no tan lejano 2030?

Para 2030, la “descodificación de la programación”, es decir, el uso de plataformas sin código o con poco código, se hará realidad. Será posible ensamblar bloques de código para crear nuevas aplicaciones sin tener que manipular el código subyacente. Y el software que “aprende a aprender” cumplirá el sueño del software que se escribe solo y que evoluciona con el aprendizaje.

La tecnología distribuida acelerará la democratización de la innovación
El centro de gravedad está desplazándose de un esquema en el que se toman las decisiones TI desde niveles superiores, a un esquema en el que lo que adoptan los niveles inferiores se traslada hacia arriba. Las aplicaciones monolíticas y centralizadas darán paso al desarrollo de soluciones distribuidas y ágiles. La innovación impulsada por la tecnología podrá provenir de cualquier persona, en cualquier lugar, no solo de organizaciones tecnológicas dedicadas.

Los ecosistemas del mañana serán un híbrido de personas y máquinas.
La tecnología del mañana será un ecosistema de personas y máquinas. Estos ecosistemas horizontales de tecnología y personas servirán tanto a los sectores existentes como a los modelos de negocio emergentes, ajustándose en tiempo real para conseguir una ventaja competitiva.

Estos tres factores formarán parte de un futuro en el que la tecnología se convertirá en el principal habilitador para que las personas logren sus objetivos de negocio y ejercerá presión sobre la estructura empresarial tradicional. La “gig economy” o economía de prestación de servicios de carácter puntual, es solo la primera expresión de esta incipiente manera de organizar las empresas, e incluso, tal vez, economías enteras y estados-nación.

Una vez vista la forma que tomará futuro a largo plazo, ¿cuáles son las tendencias que veremos crecer este año?

Tendencias que experimentarán crecimiento en 2018

1. Agilidad
Los datos y la analítica comenzarán a revolucionar Agile tal y como lo conocemos. A medida que los modelos de entrega continua se amplían y aceleran, Agile tendrá un mayor apetito por un conocimiento detallado basado ​​en datos. Los datos analizados se integran en un proceso cada vez más granular y acelerado para crear más valor. Todo esto estará impulsado por sofisticados motores de generación de ese conocimiento en detalle sobre métricas de negocio y financieras en tiempo real.

Conclusión: la salud y la vitalidad de las experiencias e inversiones de software se medirán e incluso se preverán de formas nunca antes posibles.

2. Automatización
La automatización sucede hoy en día a través de la automatización de procesos de negocio, lanzamiento y testing continuo. Pero para sacarle realmente provecho, los flujos de trabajo deberán estandarizarse e integrarse en toda la cadena de herramientas y procesos de DevOps. La analítica ayudará a identificar los cuellos de botella o puntos débiles en los flujos de software automatizado.

Conclusión: el futuro de la automatización es inteligente: aprende, se adapta y optimiza automáticamente todo el sistema, y ​​cada vez más veremos software que se ocupa del desarrollo junto con humanos, y en ciertos casos, en su lugar.

3. Conocimiento detallado
Este es el año en que comenzaremos a mejorar en lo que queremos decir con inteligencia artificial. No se trata de robots inteligentes, sino en esencia de un conjunto de algoritmos expresados ​​como código que opera sobre datos. Los motores de análisis avanzados son la “punta de lanza” de la inteligencia artificial en todo el ciclo de vida del desarrollo de software. La inteligencia artificial y el aprendizaje automático (machine learning) están impulsando un enfoque profundamente distinto al desarrollo de software. La inteligencia artificial finalmente cumplirá la promesa de big data, y el poder de los sistemas basados ​​en el aprendizaje ayudará a construir y entregar mejor software más rápido.

Conclusión: las actividades básicas de gestionar, gobernar y asegurar su tecnología no desaparecerán, pero serán más eficientes, automatizadas e inteligentes. Y esto ayudará a concentrar más energía en lo que importa: crear nuevo valor para impulsar el negocio.

4. Seguridad
A medida que el software se convierte en la principal forma en que los clientes interactúan con las marcas, la seguridad se está convirtiendo en sinónimo de “confianza”. Esto significa que ahora se asegura toda la cadena de valor de la empresa, incluida la marca, y no solo los datos en sí.
Mejorará la capacidad para reducir los vectores de amenazas gracias a una mayor inteligencia sobre la identidad y a análisis más sofisticados, pero también mejorará la habilidad de los piratas informáticos, porque el aprendizaje automático y la inteligencia artificial formarán parte del panorama de amenazas de seguridad.

Conclusión: las mismas cosas que hoy están en riesgo en la empresa, lo seguirán estando mañana: datos y continuidad del negocio. La inteligencia artificial presentará nuevas amenazas que la empresa tendrá que afrontar. Será necesario combatir la inteligencia artificial con inteligencia artificial.

Si bien las predicciones de tecnología a corto plazo pueden ayudar a planificar recursos, el pronóstico a más largo plazo puede configurar la evolución de sus capacidades en el uso de la tecnología como un activo estratégico. Si no tiene personal con la experiencia adecuada en Agile o los conocimientos de automatización necesarios, es hora de invertir en esos recursos. Si no está explorando cómo utilizar el análisis predictivo y el aprendizaje automático, ahora es el momento de comenzar. Y no es demasiado pronto para comenzar a analizar detenidamente su organización de TI con el objetivo de reorganizarla para una era en la que la tecnología esté altamente distribuida y descentralizada.

lunes, 30 de noviembre de 2015

Las cinco creencias acerca de la virtualización...

En ya no pocas ocasiones hemos tratado el tema de la Virtualización en este Blog. También hemos atestiguado todos y cada uno de nosotros cómo la Virtualización ya está tan presente en los Centros de Datos, que la pregunta no es si se va a Virtualizar o no, sino más bien qué tantas funcionalidades son necesarias en nuestros centros de datos.
Ya entrando en materia, en muchos aspectos de la vida, las percepciones falsas y los mitos pueden evitar que se siga una línea de acción concreta, generalmente en detrimento de la persona o empresa en cuestión.
El problema con las percepciones falsas es el modo en el que concluye la línea de acción, sobre todo si no es positivo, cuando la información no es clara o correcta desde el inicio.
La Virtualización es una de estas áreas que necesita que se acabe con los mitos, sobre todo con los relacionados con la Virtualización de las aplicaciones fundamentales para el negocio. Ahí hay una supuesta capa de complejidad que algunas empresas deben superar para así poder obtener los beneficios que les permitan garantizar el acceso constante a los servicios esenciales. En sí misma, la Virtualización es una tendencia al alza y es el motor que hace posible la garantía de disponibilidad constante a los datos y aplicaciones. Sin embargo, cuando las aplicaciones fundamentales para el negocio no se Virtualizan, las empresas no pueden estar permanentemente activas, pierden la oportunidad de beneficiarse de costes más bajos, mejor fiabilidad y disponibilidad, así como de una mayor agilidad comercial.
¿Cuáles son esas supuestas complejidades? ¿Realmente existen?
A continuación, se presenta un resumen sobre las áreas en las que el departamento TI debería centrarse y sobre aquellas en las que no debería hacerlo al enfrentarse a la Virtualización de las aplicaciones fundamentales para el negocio.

Mito 1 – El rendimiento de las aplicaciones es mejor en sistemas físicos
Muchos de los propietarios de aplicaciones pensarán que los sistemas Virtualizados no son capaces de ofrecer el mismo nivel de rendimiento que se obtiene con servidores físicos. En el pasado, la justificación de este mito era sin duda verdad. Pero ese ya no es el caso. Ahora es posible conseguir como mínimo los mismos niveles y si contamos con la configuración y las herramientas adecuadas, podemos tener incluso un rendimiento mucho mejor en máquinas virtuales (VMs) que en los sistemas físicos. A su vez estas VMs permiten a las empresas garantizar que sus datos están siempre disponibles. También está la ventaja añadida de que una VM aporta escalabilidad instantánea para hacer frente a los picos en la demanda y las cambiantes necesidades de la empresa. Si el rendimiento puede ser mejor desde una VM, puede ofrecer escalabilidad instantánea para cubrir picos en demanda y garantizar la empresa permanentemente activa, tiene sentido Virtualizar tantas aplicaciones como sea posible.

Mito 2 – La Virtualización (y estar permanentemente activos) es demasiado caro
Básicamente esto es falso si tenemos en cuenta el coste de las licencias y el coste de los servidores en ejecución. Estos dos puntos principales a tener en cuenta se pueden reducir con un sistema completamente Virtualizado. La inversión inicial que se necesita para operar nuevos servidores se verá compensada con costes más bajos asociados a un menor consumo energético y a una menor necesidad de refrigeración. Al mismo tiempo, los costes por licencia se reducen dado que los proveedores ofrecerán cambios en las licencias para los entornos Virtualizados.

Mito 3 – No se puede hacer un backup adecuado de las VMs
Los propietarios de las aplicaciones, sobre todo los responsables de aquellas que son fundamentales para el negocio, tienen que cumplir con estrictos contratos de nivel de servicio (SLAs) y necesitan saber si pueden confiar en el backup y en los sistemas de recuperación para mantener una empresa permanentemente activa y los datos disponibles en todo momento. Lo que sí es una leyenda urbana es la afirmación de que no es posible hacer un backup adecuado de las VMs. De hecho, las soluciones de recuperación y backup pueden conseguir objetivos de punto de recuperación (RPO) y objetivos de tiempo de recuperación (RTO) inferiores a 15 minutos para cualquier aplicación, esté virtualizada o no. Los sistemas virtualizados en realidad pueden ofrecer una recuperación mucho más rápida para las aplicaciones fundamentales para el negocio que los sistemas físicos.

Mito 4 – La Virtualización no es segura para las aplicaciones fundamentales para el negocio.
Lo cierto es que las aplicaciones fundamentales para el negocio serán las que más se beneficien de la Virtualización. El data center actual se basa en las características clave del data center actual: hoy en día están altamente Virtualizados, las empresas invierten en sistemas modernos de almacenamiento y existe una estrategia cloud concreta. Este data center actual se convierte en la plataforma para ejecutar aplicaciones fundamentales del más alto nivel. La realidad es que si las empresas quieren tenerlo todo, necesitan un data center capaz de hacer frente a las necesidades de las aplicaciones fundamentales y las expectativas de una empresa en el entorno actual. Esto solo es posible cuando se cuenta con capacidades adicionales que se obtienen gracias a la Virtualización.
Tanto si se necesita escalabilidad inmediata, disponibilidad offsite o poder verificar que las aplicaciones fundamentales se pueden recuperar y estar listas para el siguiente cambio crítico; la virtualización es el común denominador capaz de dar respuesta a estas necesidades. Hasta tal punto que la virtualización puede abrir la puerta a nuevas oportunidades que hace apenas unos pocos años no eran ni siquiera posibles.

Mito 5 – Si una de las aplicaciones está en riesgo, pone en peligro al resto de aplicaciones
Es un mito decir que si una aplicación está en riesgo, el resto está en peligro. Este tipo de miedos no tienen base porque el aislamiento y la segregación son principios fundamentales de la Virtualización, por lo que este tipo de entornos cuenta con protección anti infección cruzada integrada desde el inicio. Los hipervisores actuales también tienen una superficie de ataque muy pequeña y resistente, lo que hace que resulte extremadamente difícil comprometer a múltiples VMs.
Los avances en la virtualización de la red también han hecho que sea posible implantar toda una red virtual, con firewalls, routers y switches, que podemos controlar y proteger del mismo modo que haríamos con una red física.
Ahora podemos conseguir estar permanentemente activos sin añadir coste y complejidad a las infraestructuras TI y sin poner en peligro las aplicaciones fundamentales para el negocio. Las empresas en la actualidad pueden reducir los gastos de los data centers y mejorar el rendimiento y la disponibilidad de las aplicaciones que realmente marcan la diferencia para el negocio; ayudando a aumentar la agilidad y productividad de la empresa al tiempo que se bajan los costes.
Estos problemas se encuentran en la base de la empresa permanentemente activa y, con las herramientas correctas, las empresas ya no tendrán que preguntarse si pueden permitirse virtualizar las aplicaciones fundamentales para el negocio o, por el contrario, si pueden permitirse no hacerlo.
¿Ya goza Usted de los beneficios de la Virtualización?

jueves, 3 de enero de 2013

Cómo implementar BYOD de manera segura...


Debido a que el movimiento "Traiga Su Propio Dispositivo" (BYOD por sus siglas en inglés) se ha convertido rápidamente en una norma aceptada, las áreas de Tecnologías de la Información en las empresas y las entidades educativas y de gobierno necesitan entender mejor cómo esta estrategia afecta todos los aspectos, más aún en lo que se refiere a la red corporativa.

BYOD es otra tendencia tecnológica en la que la empresa se mueve desde una posición de cobertura de riesgos para otra de gestión de riesgos. En lo que están cometiendo crasos errores las áreas de TI de las organizaciones es en enfocarse en solo una pieza de todo el rompecabezas como por ejemplo el dispositivo. Si las organizaciones quieren minimizar los riesgos de BYOD, será entonces realizar un concienzudo análisia para evaluar el impacto en el y al ecosistema de seguridad de la red y comprender las debilidades por más grandes o pequeñas que estas sean.

Para poder cubrir el aspecto seguridad, aquí presentamos 10 consejos para implementar BYOD de manera segura y eficaz dentro de la empresa, favoreciendo el acceso remoto y seguro a la información crítica de su negocio:
  • Ir más allá de las contraseñas de la autenticación. Contraseñas estáticas, junto con los riesgos inherentes de toda implementación de BYOD, no son suficientes para garantizar un acceso remoto seguro a los datos confidenciales de la empresa y los sistemas. Las empresas deben entonces considerar métodos de autenticación de factor múltiple para reforzar la seguridad sin dejar de priorizar la usabilidad. Contraseñas "One-Time" o de una sola vez, así como métodos alternativos de notificación (por ejemplo, mensajes de texto) son dos maneras de hacer que el proceso de autenticación sea fuerte e integral.
  • Acceso remoto seguro con VPN  basada en SSL. Una vez que se haya autenticado un usuario, las empresas deben asegurar la conexión de red. SSL VPN proporciona a los empleados una enorme flexibilidad para acceder a la red de forma segura desde cualquier lugar y desde cualquier dispositivo móvil. Además, a diferencia de IPSec, SSL VPN proporciona conectividad remota segura sin la necesidad de software para ser instalado en cada dispositivo.
  • SSO para evitar la fatiga de contraseñas. Conexiones separadas para aplicaciones individuales son una molestia y un riesgo de seguridad, ya que los usuarios pueden implementar métodos inseguros para mantenerse al día con contraseñas diferentes. Herramientas para Single Sign On (SSO) permiten a los empleados utilizar una única contraseña para acceder a un portal de empresa y aplicaciones en la nube. Esto puede ser parte de una configuración de SSL VPN.
  • Control de los nodos finales. La teoría básica y el procedimiento actual dictan que una vez que un empleado deja la empresa, el acceso a la red de éste debe interrumpirse inmediatamente. Sin embargo, eso no es siempre el caso y más aún si no hay una manera eficaz de bloquear instantáneamente a usuarios específicos. Es recomendable entonces encontrar una solución que gestione los dispositivos desde el lado corporativo no sólo a los empleados, que sea capaz de  eliminar rápidamente los privilegios de un usuario en específico con sólo pulsar unas teclas. Esta solución debe poder llevarlo a cabo sin necesidad de redefinir el directorio de usuarios pues esto lleva mucho tiempo y es una operación propensa a errores.
  • Aplicación de IDs Federados. El Federar el ID significa que la identidad de una persona se almacena en varios sistemas. Esto se puede observar en aplicaciones en donde el Nombre de Usuario y la Contraseña de Facebook o Twitter se puede utilizar para iniciar sesión en otra aplicación en línea. De esta misma manera su organización este mecanismo que se autentifique un usuario en su página principal del portal (por ejemplo), para luego permitirle el acceso a sistemas internos y externos propiedad de la empresa ¿Cuáles son los beneficios? El empleado que se conecta a cualquier sistema de la empresa, ésta puede posteriormente controlar el acceso incluso a las aplicaciones basadas en la nube, mientras que el proveedor de servicios no tiene por qué mantener perfiles de usuario.
  • Soft Tokens con BYOD. Los dispositivos físicos de seguridad se han convertido en algo arriesgado y engorroso. BYOD representa una gran oportunidad para que las empresas ahorren dinero en los costos que representa comprar, administrar y distribuir Hard Tokens u otros dispositivos físicos. Los Soft Tokens de seguridad que interactúan con el dispositivo empleado como un smartphone, proporcionar una solución económica que funciona para ambas partes, pues es fácilmente actualizado y administrado a medida que cambian o se añaden nuevas amenazas al escenario.
  • Gestionar todo el proceso. Los riesgos inherentes que son propios de BYOD hacen que sea aún más crítico tener una visión centralizada de la actividad de la red, sea por las amenazas entrantes y/o anormalidades dentro de la red, así como la capacidad de responder rápida y fácilmente. Es importante encontrar una consola de administración centralizada que proporcione informes completos, gestión de incidencias, alertas progresivas multicanal, estadísticas georeferenciadas y la capacidad de aplicar la gobernabilidad a través de toda la plataforma.

  • Nombre un líder y ejecute una estrategia. Administrar una estrategia BYOD no debe ser una responsabilidad que se sume con los cientos de otras tareas que el administrador realiza. Es necesario entonces nombrar a un líder multi-funcional que se encargargue de supervisar las políticas, lineamientos, funciones y deberes de los distintos departamentos que están involucrados con la ejecución de una estrategia BYOD. Esta persona será responsable de determinar todos los aspectos de BYOD dentro de la empresa, incluyendo lo que se les permitirá a los dispositivos, qué departamentos los admitirán y quién fondeará el apoyo, servicio, planes de datos, etc.
  • Disponer de políticas y Procedimientos. No importa quién posee el dispositivo, todos los empleados (sin excepción alguna) deben cumplir con los protocolos de seguridad de la información corporativa si dicho dispositivo se está utilizando para el negocio. Una política BYOD debe cubrir lo básico, como el requerir una capacidad de auto-cierre y un número de identificación personal (PIN), así como el el apoyo para el cifrado y borrado remoto en caso de robo. La política también debe incluir qué tipo de datos se puede y no se puede almacenar en el dispositivo, el procedimiento a seguir en caso de robo del dispositivo y los procesos de copia de seguridad aceptables e inaceptables. Lo más importante es tener una política de usuario y/o acuerdos por escrito, comunicándosele al Usuario regularmente la importancia de seguir los procedimientos de seguridad al utilizar sus dispositivos es crítico.
  • Fomentar el uso del sentido común. El sentido común es en la mayoría de las veces el menos común de todos los sentidos. Por ello entonces no asuma que los empleados usarán el sentido común. ¡¡¡ Refuércelo!!! Revise periódicamente incluso las medidas de seguridad más obvias de los dispositivos móviles, como el qué hacer si un dispositivo se pierde o es robado, las actualizaciones periódicas de dispositivos, bloqueo de dispositivos cuando no esté en uso y el uso adecuado y permitido de las descargas.
Estos son los puntos más importantes que ayudarán al área de Tecnologías de la Información a llevar a cabo de manera más segura su estrategia BYOD. No pretendemos que estos sean un decálogo o un sustituto a un procedimiento ya probado y/o comprobado por la empresa.

También es menester recomendar a quienes estén por implementar BYOD, que existen muchas y muy variadas alternativas que ya incluyen prácticamente todos los puntos arriba mencionados. Tal es el caso del Virtual Desktop Infrastructure, que cubre todos los aspectos en los que el Usuario final no es el directamente responsable.

A modo de conclusión podemos decir que BYOD es una alternativa que llegó para quedarse, pues representa enormes ahorros para las empresas que lo implementan, así como también un equilibrio entre las exigencias del Usuario Final y el personal de Tecnologías de la Información de la empresa.

¿Desea Implementar BYOD de manera segura?