Jueves 08 de noviembre del 2018

Aula Magna XXII - PUCP 2018

Reflexionando sobre las implicaciones de nuevas tecnologías: Inteligencia Artificial, Big Data, Machine learning y robótica.

La edición de este año de Aula Magna se centra en un tema de frontera y vanguardia que seguramente solo continuará aumentado en relevancia: la Inteligencia Artificial (IA). Efraín Gonzales de Olarte inaugura la conferencia enfatizando el dinamismo de la coyuntura tecnológica actual y la importancia de entenderlo para elaborar un plan de integración de la tecnología en la misión educativa.

En ediciones anteriores del boletín, hemos reportado sobre la importancia creciente de la IA tanto en la enseñanza como en la transformación del campo laboral y la misión universitaria. Hemos tocado temáticas tales como las consecuencias de la automatización del trabajo, la “caja negra” del proceso de decisión de algoritmos, el potencial de “perfeccionar” y multiplicar la productividad en múltiples ámbitos y, por sobre todo, la ética que puede y debe guiar estos procesos. Como bien señaló Gonzales de Olarte, encuentros como este son necesarios para esclarecer, a través de voces expertas, los matices, beneficios y cambios que trae consigo la IA.

El primer día se centró en los algoritmos, su importancia y potencial analítico. Jorge Alvarado, director de maestría en la Pontificia Universidad Javeriana, se refirió a los “algoritmos que aprenden”. Además, planteó la existencia de dos visiones vastamente distintas frente a esta tecnología: apocalíptica e integradora, y dio a conocer que actualmente se discuten varias críticas válidas hacia la tecnología de análisis masivo. Según explicó, los algoritmos aprenden lo que les enseñamos, por lo que pueden reproducir conductas no éticas, injusticias actuales y no cuentan con valores intrínsecos de guía. Además, al no tener una experiencia humana (no tienen cuerpo o mortalidad) no aprenden de la misma forma.

Otras discusiones incluyeron el posible reemplazo laboral de los humanos, la pregunta sobre quién supervisaría a quién y, en general, qué tanta confianza se le debería dar a estas poderosas herramientas. Alrededor del tema de privacidad y libre albedrío, Pablo Quintanilla comentó que no contempla como un problema el rastreo del comportamiento predecible de los seres humanos, mientras se mantenga su capacidad de poder ser impredecible en las decisiones importantes. Esta dice que es  una capacidad de metacognición que la tecnología no puede imitar al no contar con emociones.

La siguiente ponencia trató sobre “Deep learning y Computer Vision”. Petia Radeva de la Universidad de Barcelona ofreció un formato de clase introductoria sobre el funcionamiento de las redes neuronales. Así, el nuevo paradigma del Deep learning implicaría aprender a partir de ejemplos para poder, entre otras cosas, analizar textos e imágenes. Se construye una “ground truth” y una fórmula que luego se mide para encontrar su error e irse automejorando. Se debe considerar que las personas se encuentran tan acostumbradas a las imágenes que no se dan cuenta de la cantidad de elementos que analizan por milisegundo (y esto es lo que se está  tratando de replicar artificialmente).

El segundo día se centró en la tecnología robótica. Eduardo Bayro (“Cibernética y Róbotica Social”), investigador en el CINVESTAV de México, sostiene que es importante mantener una ética científica para crear productos de alto impacto social a favor de los más desfavorecidos: “No quiero trabajar para la guerra”, sostuvo. También señaló que la matemática se ha centrado en el uso de geometría conforme, herramienta que le ayuda a crear prótesis e implementos tecnológicos para personas con distintas discapacidades. La segunda ponencia trató sobre experiencias de robótica y sus aplicaciones y estuvo a cargo de Concepción Monje, ingeniera especialista en robótica de la Universidad Carlos III de Madrid. Antes de su ponencia, conversamos con ella sobre la robótica en la enseñanza y en las transformaciones del mercado laboral y señaló que es necesario formar a los niños desde pequeños en nueva tecnología, pero, sobre todo, en la lógica subyacente (el lenguaje computacional como una estructura mental distinta). Para esto, existen muchas herramientas que, según la investigadora, no tienen por qué dejar fuera a ningún profesor con iniciativa de aprendizaje. En este proceso, la creatividad toma un lugar clave para reemplazar las dinámicas más memorísticas y desfasadas del salón de clase.

Monje considera, además, que la automatización implicará la perdida de muchos empleos (o el subempleo por horas), pero que se podría compensar a la población a través de amplios beneficios sociales si el trabajo automatizado logra descentralizar sus ganancias. Para esto, se debe apostar por una regulación gubernamental fuerte y, desde la empresa, en la reeducación de los empleados para convivir con la máquina (una colaboración que en su experiencia termina siendo muy fructífera para los trabajadores: “hay trabajos esclavizantes que deberían poder ser hechos por maquinas”).

El tercer y último día de ponencias se centró en el Big Data y en la ponencia de cierre sobre los desafíos de la universidad frente a esta nueva tecnología. Cesar Beltrán, doctor en bioinformática, expone los avances de su grupo de investigación IA-PUCP, fundado en el 2013 y en la actualidad uno de los más productivos y con mayor crecimiento en nuestra universidad. Enfatiza que, técnicamente, siempre ha habido “Big Data” en el sentido de información recopilada, lo nuevo, sin embargo, es la masividad de la información. Esta solo crecerá en un contexto de creciente conectividad global, pues la información recopilada es la “sangre que la mantiene viva”.

Finalmente, Liz Reisberg, investigadora del Center for International Higher Education at Boston College, toma la palabra para ofrecer una reflexión acerca de las posibles respuestas del sistema de educación superior frente a este contexto. Vivimos un contexto de VICA (volatilidad, incertidumbre, complejidad y ambigüedad), una transformación del mercado laboral y de la forma en que nos relacionamos que cuestiona continuamente la necesidad del trabajo humano y, como sociedad, nos enfrenta a dilemas éticos y de privacidad. Las universidades están respondiendo utilizando elementos tecnológicos en su pedagogía, pero el énfasis de su crítica recae en el desfase acelerado del contenido de una malla curricular rígida. Se debe otorgar una estructura que los ayude a renovar sus conocimientos de forma dinámica y colaborativa (centrado en la multidisciplinariedad), para esto ofrece el ejemplo de Olin College en Boston. “La universidad tiene que redefinirse”, Reisberg otorga la imagen de rampas que suben y bajan para la oferta de cursos cortos de actualización, una institucionalización del “life long learning”, y un mayor espacio de experimentación que no sancione el fracaso, sino que celebre el pensar “fuera de la caja”.

Julio del Valle, quien comentó la ponencia, hizo un llamado al equilibrio enfatizando que los cambios no son inherentemente buenos, sino que deben ser sujetos a análisis y ponderación. Consideró que el pensamiento crítico es especialmente importante para contrarrestar la persuasión corporativa que empujará sin dudarlo toda la tecnología que sea capaz de crear. Este intercambio, según señaló, ha sido ignorado por los humanistas, quienes, al desatenderse de la discusión, le dejan camino libre a intereses económicos, políticos e incluso militares. También, dio a conocer que se está trabajando en construir un diploma en Inteligencia Artificial en la PUCP; además, afirmó que, en la actualidad, la IA juega un rol vital en el esfuerzo conjunto de la carrera de Ingeniería Biomédica con la UPCH.

 

Antecedentes:

 

Fuente:

 


Aviso: Los contenidos de este boletín sintetizan la información y los debates tomados de los medios de comunicación y las investigaciones que se citan al pie. Su contenido no refleja necesariamente la opinión del Vicerrectorado Académico de la PUCP.


Deja un comentario