Páginas

martes, 27 de febrero de 2018

La ética de la inteligencia artificial: responsabilidad profesional, personal y global

Como ingenieros y tecnólogos, siempre debemos tener en cuenta que hay consecuencias para nuestro trabajo. Es fundamental para el diseño de un producto que se entienda su uso y potencial, incluso antes de crearlo. Es tan básico como no poner bordes afilados en el juguete de un niño.

La ética de la inteligencia artificial (AI por sus siglas en inglés) exige la misma atención. Dado que AI es relativamente nuevo para todos nosotros, debemos ser especialmente diligentes; no hay mucha historia que demuestre las diferentes formas en que las herramientas de inteligencia artificial pueden o deben usarse.

AI abre nuevos campos de valor potencial, como que los médicos puedan usarlo para mejorar sus decisiones de tratamiento del cáncer. Pero con eso viene la incertidumbre sobre las consecuencias inesperadas que podrían introducirse. Dado que la Inteligencia Artificial todavía está emergiendo en nuestra sociedad, debemos ser inteligentes sobre cómo crearla y habilitarla, cómo la controlamos y qué demandamos de ella. Esta es la razón por la cual la ética de la inteligencia artificial es tan importante.

Inteligencia Artificial: una extensión de la mente humana, no un reemplazo

Es fundamental recordar exactamente qué es la inteligencia artificial. Como todas las herramientas útiles dentro de nuestra sociedad moderna, AI es una amplificación de la fuerza humana que representa, en este caso, la fuerza de la mente. Como tal, es común que confundamos a AI con el intento de replicar esa mente. Hay mucho sobre nuestra capacidad para pensar y razonar que va a tomar mucho tiempo para recrear en una máquina, pero lo más importante es poner en duda por qué querríamos en primer lugar. ¿Qué valor económico hay para replicar la mente humana en una máquina?

Por esa razón, sería un error buscar eso en la Inteligencia Artificial. Prefiero que lo llamemos Inteligencia Aumentada, específicamente para enfatizar que la computación cognitiva se trata de aumentar y amplificar nuestra propia cognición humana. Nos puede permitir tomar mejores decisiones, ver perspectivas alternativas o romper nuestros prejuicios, todo con el propósito de hacernos mejores en lo que hacemos.

Esa responsabilidad debe ser compartida entre los desarrolladores de AI, construyendo herramientas que sirven para ese propósito, mientras que los consumidores de Inteligencia Artificial exigir soluciones que generen ese tipo de resultado. Por esa razón, AI nunca debería describirse como un sustituto de la mente humana.

El control de la inteligencia artificial

Cuando se trata de un avance poderoso, el objetivo es mantenerlo fuera de las manos de aquellos que abusarían de él, garantizando al mismo tiempo que aquellos que fomentan los usos constructivos y positivos para ello, estén a la cabeza. Garry Kasparov, experto en AI, humanitario y ex campeón mundial de ajedrez, hizo un punto válido en un reciente evento de AI sobre las implicaciones éticas de la tecnología avanzada, para ayudar a los malhechores: no podemos evitar que las naciones deshonestas exploten la inteligencia artificial, en detrimento de sus ciudadanos. Pero podemos hacer todo lo que esté a nuestro alcance para evitar que se convierta en una tentación.

La gobernanza, el control de la inteligencia artificial y su utilidad para la sociedad, se basa en tres componentes: Proveedores de Tecnología, Consumidores de Tecnología y en cierta medida, Gobiernos.


  1. Los Proveedores de Tecnología tienen la responsabilidad de construirla de tal manera, que fomente el uso positivo y desaliente el abuso. Necesitamos hacer esto mientras nos medimos a lo largo del camino, para asegurarnos de que lo que estamos haciendo crea una prioridad de uso positivo y ético. Por ende, la tecnología creada deberá de ser transparente, transmitiendo confianza en sus hallazgos.
  2. Los consumidores de tecnología tienen la responsabilidad de exigir productos que creen un efecto benéfico. Nosotros como consumidores, debemos rechazar las tecnologías que son destructivas. Todos podemos culpar a los principales fabricantes de teléfonos, por crear y alimentar nuestra dependencia de nuestros teléfonos inteligentes, pero también tenemos la responsabilidad de apagar nuestros teléfonos y exigir avances que hagan que nuestros teléfonos sean más seguros, como con configuraciones que desactivan automáticamente las aplicaciones de comunicación mientras conducimos.
  3. Hasta cierto punto, los Gobiernos tienen un papel en el control y regulación de la IA, a través de prácticas regulatorias (valga la redundancia). Esto ciertamente no significa que el gobierno de un país pueda regular lo que está sucediendo en otro, pero cada país puede imponer un grado de influencia sobre cómo tratan estas nuevas tecnologías.

La ética de la inteligencia artificial

Estas tecnologías de inteligencia artificial están llevando a cabo algún tipo de razonamiento. La mayoría de los ejemplos de Inteligencia Artificial en el mercado de hoy en día, utilizan el razonamiento inductivo, es decir, realizan tareas de reconocimiento básico o infieren respuestas del conocimiento previamente registrado.

A medida que nos adentramos más en el razonamiento deductivo, estamos en el comienzo de un nuevo mundo en el que las máquinas producirán nueva información como nunca antes. En lugar de solo poder hacer preguntas sencillas como "¿qué tan alto es el Monte Éverest?", podemos comenzar a hacer preguntas como: "¿existe una correlación entre el crecimiento de la empresa y la duración del contacto con el cliente?" En ambos casos, las inferencias deben estar acopladas con los elementos principales de la pregunta misma, amén de ser ​​necesario saber cuánta confianza hay en la respuesta.

Con el ejemplo del Éverest, cuando el algoritmo busca cuán alto es el Éverest, probablemente verifique a través de múltiples fuentes y le dará una respuesta, con un nivel de confianza en ese resultado así como la fuente de la información, que podría ser tan simple un documento. Si el algoritmo encuentra respuestas idénticas en múltiples fuentes acreditadas, el resultado puede entonces tener un puntaje de confianza alto.

Pero si hay información contradictoria con pocas fuentes que citan la misma altura, el puntaje de confianza será bajo. Esto entrará en juego con mayor frecuencia a medida que la Inteligencia Artificial se usa cada vez más en el razonamiento deductivo. Al hacer referencia a la fuente o al conocimiento, permite a las personas probar la veracidad de la conclusión y adoptar la conclusión del sistema para su propia comprensión del problema.

Por ejemplo, cuando Watson, el mejor exponente de Cómputo Cognitivo de la IBM, puede identificar un tratamiento que califica como adecuado para la consideración de un médico, además de citar los artículos clínicos relevantes para un tratamiento específico, esos documentos pueden proporcionar alguna justificación de por qué ese tratamiento es relevante, pero también es probable que identifiquen los efectos secundarios potenciales de el tratamiento. Esa información, en este ejemplo, ayudará a los médicos a decidir si aprueban y ponen en práctica ese tratamiento. Cuando deciden que es el tratamiento adecuado, también se les informa qué más pueden necesitar para mitigar los posibles efectos adversos.

Con atención, diligencia y consideración, estamos seguros de que identificaremos y resolveremos cualquier consecuencia inesperada de las tecnologías que creamos. Estos desafíos detrás de la ética de la inteligencia artificial, serán la fuerza motriz de una nueva ola de innovación que refinará la utilidad que estas herramientas tendrán para nosotros y en última instancia, para el mundo.

1 comentario:

  1. Great blog. All posts have something to learn. Your work is very good and i appreciate you and hopping for some more informative posts. Docker Avanzado

    ResponderEliminar

Todos los derechos reservados.
Copyright © 2025.