Jueves 17 de mayo del 2018

¿Humanidad en la inteligencia artificial?

¿Bajo qué parámetros éticos toman decisiones los artefactos autónomos con inteligencia artificial (IA)? ¿Cómo se estudia e incide en la ética de lo velozmente cambiante?

La ciencia de la computación y la ética no son disciplinas cercanas; sin embargo, se hace crecientemente necesario su diálogo a partir del acelerado y poderoso efecto que la computación está llegando a tener en nuestras vidas. Ya se puede pensar en aplicaciones de IA, “sistemas inteligentes —en el sentido de que perciben y actúan en cierto entorno, y gracias a inteligencia (nociones de racionalidad estadística y económica) realizan buenas decisiones, planes o inferencias”,  para asignación de un crédito hipotecario o de órganos donados, para la creación de un portafolio en la bolsa de valores, o para conducir vehículos autónomos por ejemplo (p.ej.). El diseño de IA, en este último, campo muestra la urgencia de pensar los retos éticos que deben enfrentar cotidianamente: p.ej. mayor prioridad en la seguridad de los pasajeros o de los peatones, de los animales o del auto; sobre si las normas diseñadas para la falibilidad humana deberían aplicar; y, al fin y al cabo, sobre si un sistema de tráfico ideal sería en efecto uno robótico. Asimismo, lo considerado normal, indignante, posible e imposible ha cambiado vertiginosamente en los últimos años a partir del extendido y, a veces, problemático uso de la BIGDATA de los usuarios de las redes virtuales (p.ej. filtración de información Facebook, cuentas automáticas o bots en Twitter, estudio de perfiles de Okcupid, etc.).

La aplicación vanguardista dentro de la IA es el machine/deep learning (ML): algoritmos para encontrar, en los datos, patrones que permiten modelarlos para hacer predicciones. La IA es supervisada o no supervisada dependiendo del tratamiento de los datos y el objetivo: datos etiquetados para hacer predicciones o datos no estructurados para encontrar patrones. El objetivo es desarrollar la habilidad de aprender automáticamente y mejorar a través de la experiencia sin ser explícitamente programado para hacerlo. Google ha desarrollado una plataforma web dedicada al aprendizaje de ML y recientemente concentran esfuerzos en un sistema de IA capaz de crear IA más sofisticadas que las de sus programadores humanos.

Los sistemas actuales están todavía lejanos de la distopía en que la IA decide optimizarnos (Skynet, Yo robot, etc.) que Asimov quiso prevenir infructuosamente con sus leyes de la robótica de 1945. Actualmente, aportan en el comercio a la predicción de ventas y a la optimización de precios; en marketing, para análisis de redes sociales y consumo virtual para mejorar posicionamiento de publicidad; en salud, para predicción de enfermedades, diagnóstico y prevención de fraudes, etc. Sin embargo, en una carta abierta del 2015, personajes como Hawkins y Elon Musk proponen mayor investigación para maximizar el beneficio social de la IA. Las pistas incluyen retos de corto plazo y otros temas más complejos como qué ética empotrar en los vehículos automáticos; cómo controlar la automatización de armas (ver 1,  1.1 y 2). Darle poder de decisión institucional a sistemas ML, especialmente al no supervisado, puede ser peligroso debido a que aprenden a partir de información histórica inevitablemente sesgada y, también, porque sus redes neuronales crean información y posibilidades a una velocidad sin precedente, sin legislación ni supervisión que le pueda seguir el paso.

Por ejemplo, Carnegie Council publica un ensayo que muestra que la IA puede tener gran utilidad para el Estado en tres grandes áreas éticamente problemáticas: el sistema judicial, los programas de inteligencia y las fuerzas armadas. Pero como las maquinas crean sus propios modelos sobre cómo tomar decisiones, se puede generar una disminución e incluso un desfase en la transparencia de los gobiernos. También, se ha criticado los sesgos de la IA hacia minorías; los sistemas identifican patrones, construyen modelos y predicen a través de data histórica por lo que pueden replicar los antiguos sesgos negativos mayoritarios hacia ciertos grupos. En el sistema penitenciario EEUU, se utiliza IA para predecir riesgo de reincidencia criminal,  mostrando un sesgo racial importante. Y estos problemas no toman en cuenta todavía las consideraciones éticas de otro nivel que implicaría la creación de inteligencia humanoide artificial y los derechos que le correspondería.

En este contexto, empiezan a haber iniciativas para enfrentar la problemática ética inherente a la creación de inteligencia artificial y el uso de big data, y a tomar iniciativas para enseñar/aprender a manejarlos apropiadamente. El portal EdTech propone utilizar casos de la vida real, enfatizar la interdisciplinariedad del conocimiento y discutir los estándares éticos disponibles. The Conversation propone una ingeniería ética que esboce, programe y monitoree requerimientos éticos básicos en los algoritmos utilizados. Y algunas universidades están desarrollando cursos (MIT) o seminarios (UCLA) sobre el tema. El tratamiento académico valoriza el diálogo interdisciplinario que los estudios generales y las humanidades aportan para superar el enfoque computacional basado en supuestos de neutralidad ética racional. La automatización del procesamiento de data no cumplirá con estándares éticos por sí sola; la creación de tecnología no debe implicar la confianza ciega en su criterio de selección y decisión. Un ejemplo de la complejidad de los temas está en el sílabo del curso de Joi Ito & Jonathan Zittrain en MIT.

Por otro lado, hay regulación en curso. Gigantes como Amazon, Facebook y Apple suscriben el “Partnership on AI to Benefit People and Society”; el American Statistical Association ha publicado estándares éticos, y Alphabet (la empresa madre de Google) ha creado un grupo enfocado en investigación ética de la IA.

 

Fuentes:

 

Documentos:

 

Enlaces:

 

Antecedentes:

Deja un comentario

1 comentarios

Sergio Barrio Tarnawiecki| 23 mayo, 2018,a las 1:34 am

Hay acaso alguna fuente de criterios éticos externa a ña practica? Creo válido rescatar el “reomodo” acunado por David Bohm (creo en ‘On Dialogue” o en”Wholeness and the Implicate Order”) y hablar de lo eticante, lo eticativo, en lugar de lo ético. Es decir sustituir al sustantivo y remplazarlo por el verbo. Y la experiencia debe responder a las preguntas: “is it good for humans?” “Is it good for the world we live in?”
que no son nada fáciles de responder…