Mostrando entradas con la etiqueta Control. Mostrar todas las entradas
Mostrando entradas con la etiqueta Control. Mostrar todas las entradas

lunes, 7 de enero de 2019

Internet de las Cosas, no es conectarlo todo contra todo

Del ya algo lejano Lunes 15 al Jueves 18 de Octubre de 2018, tuvimos la oportunidad de asistir al evento Sinergias, en donde Tech Data, proveedores y asociados pudieron compartir experiencias, habilidades, conocimientos en pro no solo de la generación de negocios, sino también de consolidar la relación comercial agregando siempre ese valor agregado que da la experiencia.

Uno de los temas centrales fue, la Internet de las Cosas. Esa tecnología que la Transformación Digital arropa y complementa conjuntamente con otras tantas, que precisamente termina generando una Sinergia en la que, como lo menciona la definición de esta última, el resultado es mayor a la suma de las partes que la componen.

Dentro de la plática en la que se tocó de manera específica la Internet de las Cosas, se hizo mucho énfasis al hecho de que, el sólo conectar cosas hacia la Internet, no daba por resultado la implementación de la Internet de las Cosas.

Para entender mejor esto último, utilizaremos una analogía tal vez demasiado burda, pero creemos que sí dejará muy claro cuál es el papel de las Cosas, que se conectarán a la Internet. Para comenzar entonces, respondamos a la pregunta: ¿Cómo funciona el cuerpo humano?

Sin intentar rebajar al cuerpo humano con una máquina, diremos que para comenzar, nuestro cuerpo cuenta con un cerebro, que no solamente se encarga de las funciones más básicas que permiten que se preserve la hehomeóstasis o conjunto de fenómenos de autorregulación, conducentes al mantenimiento de una relativa constancia en la composición y las propiedades del medio interno de un organismo. También es responsable de entender el entorno que nos rodea y poder actuar en consecuencia, cuando el entorno interactúa con nosotros.

Así pues, el cuerpo humano cuenta con los cinco sentidos. Vista, oído, olfato, gusto y tacto son esos sensores que permiten al cuerpo humano tener esa esencial conciencia del entorno. Por sí mismos, los sentidos no sirven de nada sin la interacción con el cerebro. A modo de un muy sencillo y tal vez tétrico ejemplo hipotético, ¿qué sucede si se interrumpe por completo o se prescinde del nervio óptico, responsable de llevar las señales captadas por los globos oculares al cerebro? Lo que tenemos es ceguera total. Sin cerebro, no hay sentido de la vista aunque los ojos estén en perfectas condiciones.

Lo mismo sucede con los demás sentidos. Sin los nervios (la red) y el cerebro, no hay lo que se necesita para que esos sensores puedan realizar completa y cabalmente su trabajo.

Esto es lo que pasa si simplemente conectamos sensores electrónicos, magnéticos, mecánicos y/o de cualquier índole a la Internet. Estamos conectando los sentidos a un sistema nervioso y nada más, pero sin un cerebro que reciba esas señales, las analice y realice una acción correspondiente (que actúe en consecuencia), no tenemos absolutamente nada.

Al final del párrafo anterior mencionamos la palabra "actúe". Aquí entonces está el complemento perfecto para que la Internet de las Cosas realmente tenga sentido. Además de sensores, requerimos actuadores.

Se define estrictamente a un actuador como: -"...un dispositivo capaz de transformar energía hidráulica, neumática o eléctrica en la activación de un proceso con la finalidad de generar un efecto sobre un proceso automatizado."-

Algo que debe de hacer un actuador es: -"...recibir la orden de un regulador o controlador y en función a ella, genera la orden para activar un elemento final de control."- En resumen pues podemos decir que: -"...son los elementos que influyen directamente en la señal de salida del automatismo, modificando su magnitud según las instrucciones que reciben de la unidad de control."-

Volviendo a nuestra analogía del cuerpo humano, imaginemos por un momento que estamos conduciendo un vehículo. Somos ese elemento que controla las acciones de todo un ingenio mecánico compuesto por cientos de partes, en donde procesos físicos bien definidos actúan en conjunto para realizar una actividad concreta. En este caso, transportarnos a nosotros de un lugar origen a un sitio destino.

Nuestros ojos, nuestros oídos y nuestro cerebro, están en todo momento atentos a las condiciones que el camino y el entorno van presentando mientras que con nuestros brazos y piernas (los actuarodes en este ejemplo), aceleramos, frenamos, viramos y accionamos los señalamientos correspondientes como son las luces direccionales, etc.

Repentinamente aparece en nuestro campo de visión una pelota. Nuestro cerebro, el elemento de control por excelencia, sabe por un aprendizaje previo y por la experiencia que: -"...siempre detrás de una pelota, hay un niño que sin pensarlo dos veces y de manera espontánea, correrá tras ella para recuperarla"-.

Nuestros músculos se tensan y de inmediato nuestro pie derecho soltará el pedal del acelerador para accionar el freno, mientras que con nuestro brazo derecho accionaremos las luces intermitentes para dar a entender que nos detendremos. Todas estas acciones suceden en fracciones de segundo, casi en automático y como la experiencia y el aprendizaje de años lo indica, pudimos detener el vehículo un momento antes de que el niño apareciera en el campo de visión.

¿Qué hubiese pasado si en este ejemplo no hubiese estado presente el cerebro? Lo peor. El niño muy probablemente hubiese muerto arrollado por nuestro vehículo.

En este ejemplo es claro que de nada sirve la mejor vista, el mejor sentido del oído, los más fuertes músculos y huesos en el mundo, sin que un elemento de control (el cerebro) no se encargue del procesamiento que llega gracias a los sensores y sin el oportuno accionar de los actuadores (brazos, manos y piernas). Todo esto tras un aprendizaje y un adiestramiento adecuado que queda debidamente almacenado en nuestro cerebro.

Regresando entonces a la Internet de las Cosas, es entonces que debemos hacernos una pregunta clave, solo para empezar: ¿Cómo y en qué queremos aplicar la Internet de las Cosas? Todo depende entonces de la respuesta a esta interrogante, para determinar no solamente qué dispositivos serán necesarios involucrar como sensores y actuadores, sino también qué actuadores debemos añadir a la ecuación.

Claro es entonces que no es lo mismo un proceso de producción en una planta fabricante de productos químicos, una cervecería, una fábrica de productos de acero, una panadería, etc. Cada una de estas ramas de la industria tiene sus propios procesos.

También entonces debemos responder: ¿Queremos que los sensores sólo manden señal al elemento de control, o queremos que los sensores puedan tomar decisiones instantáneas? Aquí tocamos un tema que se ha dado en nombrar como "Edge Computing" o "Cómputo de Frontera". Un sensor puede ser por ejemplo un vil interruptor accionado por presión o por un campo magnético. Pero también pudiésemos involucrar a un circuito micro controlador (como Arduino por ejemplo) para que éste mismo tome decisiones y no necesite enviar la señal hasta el cerebro central para esperar que éste último tome la decisión correspondiente, enviando solamente qué decisión tomó y cuál fue el resultado final para que quede registrado en "bitácora".

Antes de continuar, vale la pena mencionar que Internet de las Cosas no debe venir sola. Debe de ser parte de toda una estrategia que involucra íntimamente a Siete Capas, que a saber son (de arriba hacia abajo):

7.- Colaboración y Procesos.- En donde se involucra directamente a personas y los ciclos del negocio.
6.- Aplicaciones.- Todo lo relativo a Reportes, Análisis, Control.
5.- Abstracción de los Datos.- Adición y acceso a datos generados por capas inferiores.
4.- Acumulación de los Datos.- Almacenamiento de datos generados por capas inferiores.
3.- Edge Computing.- Análisis y Transformación de los datos generados por la capa 1.
2.- Conectividad.- Unidades para comunicación y pre-procesamiento de los datos.
1.- Dispositivos y Controladores Físicos.- Las "Cosas" (sensores y actuadores).

Como podemos darnos cuenta, el concepto que muchos tenemos de Internet de las Cosas es solamente la capa 1, los Sensores/Actuadores.

La capa 1 es tal vez una de las partes más críticas y a la vez apasionantes de la Internet de las Cosas. El iniciar respondiendo las preguntas:

  1. ¿Para qué requiero utilizar Internet de las Cosas? No es lo mismo el aplicar Internet de las Cosas a un proceso fabril, que aplicarlo a un avión de pasajeros o a un avión de combate.
  2. ¿Qué es lo que requiero censar? Se puede censar ya prácticamente todo, desde temperatura, humedad, altura sobre el nivel del mar, posición geográfica, aceleración relativa, pulso, presión arterial, temperatura corporal, ritmo respiratorio, etc. Todo esto va muy de la mano con la respuesta a la pregunta anterior.
  3. ¿Cómo y con qué velocidad se deberá analizar la información? Dependiendo entonces de qué tan crítico o vital resultan las respuestas a las dos preguntas anteriores, se puede decidir por una Internet de las Cosas en modalidad "Pooling" (encuesta), en donde todo análisis de los datos y toma de decisión se debe llevar a cabo en un servidor central; o por el contrario se requiere toma de decisiones y acción a nivel del dispositivo "in situ" (edge o frontera).
  4. ¿Cómo y con qué velocidad se deberá actuar en consecuencia? Nuevamente recordemos que de nada sirve el sólo censar, registrar y analizar los datos, si no es posible actuar en consecuencia con éstos. De aquí depende y de las respuestas a las dos primeras preguntas, qué tipo de actuadores, qué tan rápidos, qué tecnología se debe escoger para éstos.

Cierto que aún así y con todo lo que hemos revisado hasta el momento, no podemos decir que ya tenemos la guía única y/o máxima para la implementación de Internet de las Cosas. Pero definitivamente ya contamos con un inicio muy sólido y las bases para desde este modesto punto, continuar con un círculo virtuoso que de por resultado una completa y correcta implementación de la Internet de las Cosas.

¿Qué haría falta entonces? Complementar con tomas de decisiones tan importantes como:
  • ¿Con qué plataforma (de hardware y sistema operativo) vamos a trabajar a nivel de la Capa 1?
  • ¿Qué tecnología podemos o debemos utilizar para dar conectividad a los sensores y actuadores?
  • ¿Contamos ya con la herramienta adecuada, tanto para nuestra insipiente estrategia de Internet de las Cosas como para nuestro proceso de negocio?
  • ¿Cómo registraremos todos los datos que vengan desde la Capa 1 y todas las decisiones tomadas por el sistema o sistemas de control? ¿Ya contamos con una Base de Datos Relacional confiable?
  • ¿Ya contamos con todos los elementos de seguridad y auditoría que garanticen la veracidad e integridad de los datos generados por el "día a día" de nuestra solución de Internet de las Cosas?
  • ¿Contamos ya con herramientas para el Análisis y Paneles de Control para visualizar en tiempo real y/o realizar reportes para toma de decisiones a mediano y largo plazo? ¿Es necesario Big Data?
  • ¿Cómo habremos de involucrar a personas y procesos de negocio existentes (o futuros)?

 ¿Verdad que no es algo tan sencillo como simplemente conectar "chunchitos" a una red? Es todo un procedimiento que debe ser analizado y ejecutado concienzudamente, pero que al final dotará a su negocio con los cimientos para aplicar Aprendizaje Automático, Inteligencia Artificial y por sobre todo, de esa agilidad tan necesaria para las empresas, organizaciones y instituciones de hoy.

¿Listo para comenzar con la Internet de las Cosas?

jueves, 8 de marzo de 2018

Los tres pilares para DevOps, en este 2018

Desde fines del año anterior y al comienzo del actual, siempre es agradable ver las predicciones de las tendencias tecnológicas. Publicaciones como Fortune, CNN Money, Washington Post y The Atlantic especulan sobre qué gadgets y tecnologías van a despegar este año, los psíquicos predicen qué celebridades tendrán bebés y cuáles se enamorarán. Ahora bien: ¿Cuáles son las  tendencias en DevOps y en dónde la industria de la entrega de software se dirige?

Poniendo atención a algunas predicciones de DevOps del año pasado, DevOps Digest predijo que DevOps se acercaría más al corazón del negocio en 2017. Pudimos observar entonces que los Indicadores Clave del Rendimiento (KPI por sus siglas en inglés), las métricas y los datos se convertirían en un punto focal para las organizaciones que avanzan con las iniciativas de DevOps.

El Vice Presidente de Estrategia y Administración de Producto en CollabNet, Eric Robertson, predijo en un artículo en DevOps Summit Journal que -"...los análisis desempeñarían un papel más importante en la integración de la herramienta DevOps y que estos dos, junto con las primeras pruebas, serían puntos importantes de discusión para TI líderes en 2017."-

Agregó entonces que: -"...al mirar hacia atrás en el año, las oportunidades únicas que se presentaron, los desafíos que enfrentamos y las decisiones que tomamos como compañía, CollabNet aprendió una o dos cosas (o una docena) sobre DevOps. Y aunque algunas cosas cambian, y siempre estamos aprendiendo, algunas cosas permanecen igual. Por eso este año, cuando hice predicciones sobre las prioridades para DevOps en 2018, mi pensamiento no fue revolucionario."-

Algunas de las tendencias de las que hablamos a comienzos de 2017, como medir el éxito de DevOps, han crecido en importancia durante el año pasado. Las corazonadas que Eric Robertson a fines de 2016 se confirmaron en conversaciones sostenidas con una compañía tras otra, de aquellas que necesitaban una forma de conectarse y medir sus esfuerzos y los resultados de haber adoptado las nuevas herramientas.

De hecho, las necesidades que hemos visto en la industria de entrega de software durante la última década, no han cambiado significativamente. Lo que ha cambiado son las actitudes y voluntades de las personas para cambiar la cultura de una empresa, adoptar nuevas ideas y desarrollar sus organizaciones. Esto nos entusiasma para el 2018.

En 2018, vemos tres pilares principales para el éxito de DevOps que ya son Los Tres Temas Principales de Discusión. Las organizaciones que prestan atención en estas tres áreas, van a ver cómo el desarrollo y la entrega del software florecen de una nueva manera, a medida que se esfuerzan por modernizar procesos y prácticas con Agile y DevOps.

Los tres pilares para el éxito continuado de Devops son:

  • Flujos de valor
  • Visibilidad y contexto conectados
  • Mejora del cumplimiento, el control y la seguridad

Devops, como ideología y práctica, ha madurado de manera espectacular en los últimos años (gracias al ágil movimiento para sentar las bases), y los analistas ahora lo llaman corriente principal. Para no decir que la adopción está completa de ninguna manera, muchas compañías aún están pensando en cómo comenzar el viaje de devops.

Sin embargo, en este punto, cualquier organización ganadora que entregue servicios a clientes a través de software, ha descubierto que los mejores tipos de soluciones de software son aquellos desarrollados y lanzados en sincronización. Eso significa que con ambos lados de la casa Dev y Ops se comunican. Toda una economía surgió para apoyar este objetivo: conectar el ciclo de vida de desarrollo de software y automatizar procesos.

Ahora que la industria tiene una idea de lo que significa DevOps, las empresas han invertido en herramientas, y el concepto ha "crecido", es hora de que DevOps empiece a cumplir su promesa y demuestre que vale la pena. La evolución de la industria de desarrollo de software nos lleva al punto donde tres componentes clave serán parte de cualquier discusión futura de DevOps.

En primer lugar, el enfoque se desplazará a la gestión del flujo de valor y se prestará más atención a la experiencia del usuario. En segundo lugar, la visibilidad será la única forma de gestionar el valor y el contexto será esencial para la automatización y las decisiones comerciales. En tercer lugar, las herramientas se centrarán cada vez más en facilitar el control, el cumplimiento y fortalecer la seguridad.

Comencemos con flujos de valores, el primero de los tres pilares.

El valor de monitoreo es un indicador crucial de la salud, la vitalidad y el éxito de la empresa. El liderazgo de alto nivel pregunta: ¿Cómo identificamos el valor real en nuestros servicios, cómo seguimos el valor para asegurarnos de que estamos innovando correctamente y cómo aumentamos la cantidad entregada a los clientes? Esas son las preguntas que (deberían) impulsar las decisiones comerciales.

En casi cualquier organización importante en la actualidad, el software es esencial para el flujo de valor, particularmente cuando se trata de facilitar la forma en que los clientes interactúan con los servicios de una compañía.

Las aplicaciones se han convertido en la nueva cara de las empresas en muchas industrias diferentes, desde banca y finanzas hasta servicios gubernamentales. Ayudar a las organizaciones a enfocarse en el flujo de valor, el proceso de inicio y finalización del desarrollo y la entrega de software, simplifica enormemente un proceso que de otra manera sería muy complicado.

La gestión del flujo de valor se parece a conectar equipos y procesos dispares, supervisar y conectar herramientas, priorizar tareas, garantizar una mayor eficiencia en las operaciones, eliminar interrupciones mediante la creación de bucles de retroalimentación y tomar decisiones informadas y basadas en datos.

Un enfoque en la corriente de valor también significa un enfoque en la experiencia del usuario final. Esta es la razón principal por la cual la administración de flujo de valor aumenta el valor comercial.

En lugar del seguimiento tradicional basado en proyectos o aplicaciones, la asignación de flujos de valor conecta la cadena de herramientas a una cadena de valor o secuencia de valores. Por lo tanto, proporciona más trazabilidad, visibilidad y datos para trabajar.

Una vez que su equipo asigna sus herramientas en su proceso a un flujo de valor, pueden comenzar a rastrear las métricas que son importantes para ellos. El resultado es un sistema que recopila datos a medida que el equipo crea y entrega software. Las medidas pueden incluir elementos tales como:

  • MTBF: tiempo medio entre fallas, tiempo promedio entre cuando se encuentra un problema en el entorno de prueba y cuando se soluciona
  • Tasa de defectos: cantidad de defectos que se encuentran por unidad de tiempo
  • CLT: cambiar el tiempo de entrega
  • RWR (Tasa de retrabajo): Porcentaje de tickets asignados a publicaciones
  • UWR (Tasa de trabajo no planificada): Porcentaje de problemas no planificados

Al obtener una comprensión más profunda del valor y el impacto a medida que la información fluye a través de un flujo de valor designado, puede identificar mejor dónde centrar el tiempo y las inversiones futuras.

En última instancia, la gestión del flujo de valor se trata de satisfacer mejor las necesidades del cliente y proporcionar experiencias digitales personalizadas. La gestión del flujo de valores permite una mejor calidad y una entrega más rápida.

Visibilidad y contexto conectados. El segundo de los tres pilares

Sin embargo, para gestionar los flujos de valor, las organizaciones deben tener una visibilidad completa del ciclo de vida del desarrollo del software. Y no solo eso, sino que esta visión debe proporcionar al negocio un contexto para tomar decisiones. De hecho, DevOps no sería posible sin Visibilidad.

Para tener una buena comprensión y una "visión" del flujo de valor, las organizaciones necesitan bastante información. Existen flujos de valor, pero pocos líderes empresariales y sus equipos de administración tienen Visibilidad donde deberían. Nadie puede negar que el ciclo de vida del desarrollo de software es una cadena interconectada.

Cada etapa es esencial para el conjunto y los líderes de TI deben ser capaces de administrar y ver fácilmente, las dependencias y muchas partes móviles. Y no olvidemos la cadena de herramientas. A menudo, las herramientas individuales tienen una buena cantidad de datos que se deben capturar para tener una comprensión completa de lo que funciona y lo que no.

La necesidad de Visibilidad no solo se aplica a las fases iniciales de desarrollo, sino también a la supervisión y medición de un producto después de su implementación. Estas mediciones proporcionan datos críticos necesarios para construir el contexto en torno a cada proceso, especialmente aquellos que están automatizados.

Los eventos de seguimiento, por ejemplo, pueden proporcionar información útil a los gerentes acerca de cómo dar servicio a un producto implementado y qué recursos usar.

Sin embargo, no se trata simplemente de recopilar mediciones y métricas. Los datos deben utilizarse en una vista contextualizada y centralizada para que sean útiles para tomar decisiones empresariales inteligentes.

Esto libera una gran cantidad de conocimiento de los equipos de liderazgo con respecto a los cuellos de botella, problemas de cumplimiento (lo discutiremos en la próxima publicación), ineficiencias, etc. Esto es particularmente importante en el mundo laboral actual cuando los equipos se distribuyen y, a menudo, dentro de la organización.

Mientras más contexto rodee cada decisión, más inteligentes serán esas decisiones. Esto es particularmente importante para impulsar la automatización. Cuanto más contexto, mejores son las decisiones y, en última instancia, más personalizada es la experiencia para el cliente o el usuario final.

El contexto lo es todo en el servicio al cliente y cuanto mayor es el contexto en torno a cada cliente, mejores aplicaciones pueden atender las necesidades de ese individuo. El contexto de construcción dentro del ciclo de vida del desarrollo de software, comienza primero con la medición de los Indicadores Clave de Desempeño y posteriormente, interpretándolos.

En el área de Desarrollo se ha estado hablando de visibilidad por años. Es uno de los puntos fuertes de la premiada plataforma de colaboración TeamForge, utilizada por los clientes para construir algunas de las aplicaciones de software más ingeniosas del mundo. Conectar el complejo ciclo de vida del desarrollo de software de una manera que escala Agile en toda la empresa nunca ha sido más esencial y las organizaciones se están dando cuenta de eso.

Los beneficios de visibilidad entre personas, herramientas y procesos en el desarrollo y la entrega de software no se pueden enfatizar lo suficiente, y con las últimas tecnologías de vanguardia en la medición de Indicadores Clave del Desempeño, métricas y monitoreo de eventos, los líderes de vista contextual que ahora pueden tener sus productos y servicios es una cambiador de juego para la industria.

Las organizaciones no pueden permitirse operar con una visión turbia de lo que está sucediendo en sus equipos de desarrollo, pruebas, control de calidad y lanzamiento. Los costos son demasiado altos y eso es algo que discutiremos más adelante cuando hablemos de la mejora del cumplimiento, el control y la seguridad.

La visibilidad continuará siendo un tema para los esfuerzos de DevOps a medida que avanzamos hacia 2018 y pronto verá a muchos proveedores incorporando esta palabra en soluciones.

Mejora del Cumplimiento, el Control y la Seguridad. El Tercer Pilar

Concluyendo con el tercer pilare clave para el éxito de los DevOps, esenciales para cualquier debate de devops en 2018, sería negligente no abordar las necesidades regulatorias y de cumplimiento que las compañías de software deben observar.

Ya analizamos la gestión del flujo de valores, una forma de ver el ciclo de vida del desarrollo de software que mide el verdadero valor y el éxito de los procesos y las herramientas. También cubrimos el cómo hacerlo y hablé de la visibilidad y el contexto como elementos esenciales para crear y entregar software que satisfaga las necesidades de los clientes.

La visibilidad y la medición son los pilares necesarios para cumplir con las obligaciones de cumplimiento, gobierno y seguridad. Si estamos hablando de un banco, un fabricante de automóviles, una organización de atención médica o incluso una agencia gubernamental, su empresa ha asignado personas y recursos para entregar software que puede ser un producto, un servicio o un componente.

Pero más allá de brindar una experiencia positiva al cliente, existe una necesidad particularmente apremiante de "Value Stream Management", habilitada por la visibilidad y el contexto, para la entrega de software en industrias con naturales y muy necesarias restricciones regulatorias.

Las empresas en el sector financiero o en las industrias del cuidado de la salud por ejemplo, tienen obligaciones de control, auditoría y riesgo que las distinguen de otras industrias. Estas organizaciones pueden estar invirtiendo mucho tratando de mejorar la forma en que entregan valor a los clientes a través del software, pero muchas de ellas no tienen una manera de mostrar claramente el valor de sus esfuerzos, o una manera eficiente de demostrar que se están tomando en cuenta los requisitos reglamentarios.

Cuanto mayor sea el perfil, más fácil será rastrear todos los aspectos de un servicio de software hasta su código correspondiente y a los miembros del equipo responsable. Esto es esencial para el cumplimiento. Las organizaciones necesitan poder rastrear cada compromiso, cada artefacto y necesitar una vista completa del ciclo de vida del desarrollo de software para hacer esto.

Y mientras hablamos de control y cumplimiento, no nos olvidemos de la seguridad. La medición y las métricas son los mejores amigos de la seguridad. Cuanto más refinado sea el contexto, mayores serán las medidas de seguridad que se pueden emplear y más fácil será llevar la seguridad a la etapa inicial del Ciclo de Vida de Desarrollo de Sistemas (SDLC por sus siglas en inglés).

Para mantener a su empresa fuera de los titulares por una violación de datos, sus equipos deben comenzar a pensar en la seguridad desde el primer día: en los procesos de planificación del software.

De alguna manera, todo ha cambiado: la tecnología avanza todos los días. En otros aspectos, veo cómo las necesidades de las empresas realmente no han cambiado tanto.

Hablando con los CTO, los CIO, los ingenieros y los gerentes de proyectos, nos comparten que todavía están tratando de descubrir cómo unificar y alinear los procesos de desarrollo. Están buscando maneras de ver a todas las personas, procesos y herramientas de una manera centralizada para desplegar más rápido y con mayor confianza.

En conclusión, aún hay mucho camino que recorrer dentro de DevOps, principalmente en lo que toca a los Tres Pilares Fundamentales. Pero como dice el proverbio chino: -"Un viaje de diez mil pasos, siempre tiene que comenzar con el primero."- ¿Ya dio Usted, su empresa u organización el primer paso en el camino de DevOps?

martes, 27 de febrero de 2018

La ética de la inteligencia artificial: responsabilidad profesional, personal y global

Como ingenieros y tecnólogos, siempre debemos tener en cuenta que hay consecuencias para nuestro trabajo. Es fundamental para el diseño de un producto que se entienda su uso y potencial, incluso antes de crearlo. Es tan básico como no poner bordes afilados en el juguete de un niño.

La ética de la inteligencia artificial (AI por sus siglas en inglés) exige la misma atención. Dado que AI es relativamente nuevo para todos nosotros, debemos ser especialmente diligentes; no hay mucha historia que demuestre las diferentes formas en que las herramientas de inteligencia artificial pueden o deben usarse.

AI abre nuevos campos de valor potencial, como que los médicos puedan usarlo para mejorar sus decisiones de tratamiento del cáncer. Pero con eso viene la incertidumbre sobre las consecuencias inesperadas que podrían introducirse. Dado que la Inteligencia Artificial todavía está emergiendo en nuestra sociedad, debemos ser inteligentes sobre cómo crearla y habilitarla, cómo la controlamos y qué demandamos de ella. Esta es la razón por la cual la ética de la inteligencia artificial es tan importante.

Inteligencia Artificial: una extensión de la mente humana, no un reemplazo

Es fundamental recordar exactamente qué es la inteligencia artificial. Como todas las herramientas útiles dentro de nuestra sociedad moderna, AI es una amplificación de la fuerza humana que representa, en este caso, la fuerza de la mente. Como tal, es común que confundamos a AI con el intento de replicar esa mente. Hay mucho sobre nuestra capacidad para pensar y razonar que va a tomar mucho tiempo para recrear en una máquina, pero lo más importante es poner en duda por qué querríamos en primer lugar. ¿Qué valor económico hay para replicar la mente humana en una máquina?

Por esa razón, sería un error buscar eso en la Inteligencia Artificial. Prefiero que lo llamemos Inteligencia Aumentada, específicamente para enfatizar que la computación cognitiva se trata de aumentar y amplificar nuestra propia cognición humana. Nos puede permitir tomar mejores decisiones, ver perspectivas alternativas o romper nuestros prejuicios, todo con el propósito de hacernos mejores en lo que hacemos.

Esa responsabilidad debe ser compartida entre los desarrolladores de AI, construyendo herramientas que sirven para ese propósito, mientras que los consumidores de Inteligencia Artificial exigir soluciones que generen ese tipo de resultado. Por esa razón, AI nunca debería describirse como un sustituto de la mente humana.

El control de la inteligencia artificial

Cuando se trata de un avance poderoso, el objetivo es mantenerlo fuera de las manos de aquellos que abusarían de él, garantizando al mismo tiempo que aquellos que fomentan los usos constructivos y positivos para ello, estén a la cabeza. Garry Kasparov, experto en AI, humanitario y ex campeón mundial de ajedrez, hizo un punto válido en un reciente evento de AI sobre las implicaciones éticas de la tecnología avanzada, para ayudar a los malhechores: no podemos evitar que las naciones deshonestas exploten la inteligencia artificial, en detrimento de sus ciudadanos. Pero podemos hacer todo lo que esté a nuestro alcance para evitar que se convierta en una tentación.

La gobernanza, el control de la inteligencia artificial y su utilidad para la sociedad, se basa en tres componentes: Proveedores de Tecnología, Consumidores de Tecnología y en cierta medida, Gobiernos.


  1. Los Proveedores de Tecnología tienen la responsabilidad de construirla de tal manera, que fomente el uso positivo y desaliente el abuso. Necesitamos hacer esto mientras nos medimos a lo largo del camino, para asegurarnos de que lo que estamos haciendo crea una prioridad de uso positivo y ético. Por ende, la tecnología creada deberá de ser transparente, transmitiendo confianza en sus hallazgos.
  2. Los consumidores de tecnología tienen la responsabilidad de exigir productos que creen un efecto benéfico. Nosotros como consumidores, debemos rechazar las tecnologías que son destructivas. Todos podemos culpar a los principales fabricantes de teléfonos, por crear y alimentar nuestra dependencia de nuestros teléfonos inteligentes, pero también tenemos la responsabilidad de apagar nuestros teléfonos y exigir avances que hagan que nuestros teléfonos sean más seguros, como con configuraciones que desactivan automáticamente las aplicaciones de comunicación mientras conducimos.
  3. Hasta cierto punto, los Gobiernos tienen un papel en el control y regulación de la IA, a través de prácticas regulatorias (valga la redundancia). Esto ciertamente no significa que el gobierno de un país pueda regular lo que está sucediendo en otro, pero cada país puede imponer un grado de influencia sobre cómo tratan estas nuevas tecnologías.

La ética de la inteligencia artificial

Estas tecnologías de inteligencia artificial están llevando a cabo algún tipo de razonamiento. La mayoría de los ejemplos de Inteligencia Artificial en el mercado de hoy en día, utilizan el razonamiento inductivo, es decir, realizan tareas de reconocimiento básico o infieren respuestas del conocimiento previamente registrado.

A medida que nos adentramos más en el razonamiento deductivo, estamos en el comienzo de un nuevo mundo en el que las máquinas producirán nueva información como nunca antes. En lugar de solo poder hacer preguntas sencillas como "¿qué tan alto es el Monte Éverest?", podemos comenzar a hacer preguntas como: "¿existe una correlación entre el crecimiento de la empresa y la duración del contacto con el cliente?" En ambos casos, las inferencias deben estar acopladas con los elementos principales de la pregunta misma, amén de ser ​​necesario saber cuánta confianza hay en la respuesta.

Con el ejemplo del Éverest, cuando el algoritmo busca cuán alto es el Éverest, probablemente verifique a través de múltiples fuentes y le dará una respuesta, con un nivel de confianza en ese resultado así como la fuente de la información, que podría ser tan simple un documento. Si el algoritmo encuentra respuestas idénticas en múltiples fuentes acreditadas, el resultado puede entonces tener un puntaje de confianza alto.

Pero si hay información contradictoria con pocas fuentes que citan la misma altura, el puntaje de confianza será bajo. Esto entrará en juego con mayor frecuencia a medida que la Inteligencia Artificial se usa cada vez más en el razonamiento deductivo. Al hacer referencia a la fuente o al conocimiento, permite a las personas probar la veracidad de la conclusión y adoptar la conclusión del sistema para su propia comprensión del problema.

Por ejemplo, cuando Watson, el mejor exponente de Cómputo Cognitivo de la IBM, puede identificar un tratamiento que califica como adecuado para la consideración de un médico, además de citar los artículos clínicos relevantes para un tratamiento específico, esos documentos pueden proporcionar alguna justificación de por qué ese tratamiento es relevante, pero también es probable que identifiquen los efectos secundarios potenciales de el tratamiento. Esa información, en este ejemplo, ayudará a los médicos a decidir si aprueban y ponen en práctica ese tratamiento. Cuando deciden que es el tratamiento adecuado, también se les informa qué más pueden necesitar para mitigar los posibles efectos adversos.

Con atención, diligencia y consideración, estamos seguros de que identificaremos y resolveremos cualquier consecuencia inesperada de las tecnologías que creamos. Estos desafíos detrás de la ética de la inteligencia artificial, serán la fuerza motriz de una nueva ola de innovación que refinará la utilidad que estas herramientas tendrán para nosotros y en última instancia, para el mundo.