Mapa web
Youtube
Instagram
Campus UNED

Julio Gonzalo, catedrático de la UNED, señala que en IA se habla poco del sesgo producido por mecanismos de evaluación inadecuada

4 de diciembre de 2020

El catedrático de la ETSI de Informática de la UNED impartió una conferencia en el seminario que la Universidad desarrolla en Ourense sobre la Inteligencia Artificial

OURENSE, 4 de diciembre de 2020.-El "sesgo" es un tema de tendencia en el contexto de la inteligencia artificial y la ciencia de datos, y por una buena razón: cada vez más procesos de toma de decisiones en nuestras vidas (como obtener un préstamo o ser entrevistados por un trabajo) están mediados por el sistemas de Inteligencia Artificial; y tanto la comunidad investigadora como la sociedad en general son cada vez más conscientes de que el aprendizaje automático es tan propenso al sesgo como la cognición humana. La mayoría de las investigaciones sobre el sesgo del sistema se centran actualmente en los sesgos introducidos por los algoritmos y / o los datos utilizados por los algoritmos para aprender. Pero los sistemas de IA suelen ser el resultado de un proceso de "selección natural" en el que la evaluación iterativa, tanto dentro como fuera del laboratorio, desempeña un papel clave. En consecuencia, los sesgos en nuestras metodologías de evaluación pueden tener un impacto sustancial en los sistemas. De esto habló en Ourense el catedrático Julio Antonio Gonzalo Arroyo, de la Escuela Técnica Superior de Ingeniería Informática de la UNED, en el departamento de Procesamiento del Lenguaje Natural y Recuperación de Información.

Supongamos, como señala el ponente, que estamos en el año 2040 y que, en España, el Gobierno decide que el conocimiento de los economistas no es fiable, y cambia el puesto de ministro de Economía por un sistema de Inteligencia Artificial. Al sistema se le pide que mejore la economía del país, pero ese es un objetivo vago, que la máquina no entiende, así que se traslada en algo medible: optimizar el Producto Interior Bruto. Al cabo de tres años el Gobierno observa que, en efecto, el PIB del país ha crecido de forma nunca vista, pero al mismo tiempo detecta muchos efectos colaterales indeseados: el horario de los trabajadores es de 12 horas diarias (así producen más), crecieron los vertidos de petróleo al mar (recoger los vertidos es actividad económica, que incrementa el PIB), el país entero quedó deforestado, se han prohibido los servicios gratuitos (como los buscadores de Internet) porque no contribuyen al PIB, etc.

El problema ha sido que el sistema de Inteligencia Artificial ha cumplido nuestros deseos literalmente, pero no hemos sabido expresarlos con suficiente precisión. “La moraleja es que cuando un sistema de Inteligencia Artificial nos concede un deseo, más vale tomárselo con calma y pensarlo dos veces antes de enunciarlo” explica el catedrático de la UNED, Julio Gonzalo.

Gonzalo Arroyo pone como ejemplo Youtube: “si buscas información sobre la cura del cáncer en Youtube verás que en primer lugar, aparecen informaciones que dicen que el jugo de remolacha lo cura en 48 horas; de hecho, el 74% de resultados en español en Youtube para esa consulta son pura desinformación”. Sin embargo, el algoritmo sólo hace lo que se le ha pedido, el criterio matemático por el que se evalúa su aprendizaje: maximizar el tiempo medio de visualización de los usuarios. Otro ejemplo típico, buscar en Google y preguntar si ocurrió el Holocausto nazi. Hace unos años, los primeros resultados eran sitios negacionistas. Una vez más, el algoritmo hace lo que le han pedido, en este caso, maximizar la satisfacción del usuario. Y puede que los que hacen esta pregunta es más probable que estén interesados en una respuesta negacionista. El problema no está en el algoritmo, sino en la métrica de calidad. “Por tanto, si un algoritmo te concediese tres deseos, ¡piénsatelo dos veces!”, bromea el ponente, quien puso de relieve en su intervención que existe un sesgo de la evaluación y no se habla de ello lo suficiente.

Esa función objetivo que le damos al sistema de Inteligencia Artificial tiene mucho que ver con la forma en que se evalúan los sistemas inteligentes. Este experto ha disertado en Ourense sobre el sesgo en los sistemas de evaluación. “La IA actual consiste, de forma predominante, en algoritmos que aprenden a partir de ejemplos, tratando de maximizar una función objetivo que estima el nivel de éxito de ese aprendizaje. En IA se habla mucho de cómo el sesgo de los datos produce un sesgo en el algoritmo (por ejemplo, si se aprende el lenguaje a partir de textos sesgados hacia lo racista o misógino, el sistema se expresará de forma misógina y racista). Sin embargo, se habla mucho menos del sesgo que se produce por unos mecanismos de evaluación inadecuada (por ejemplo, poner el PIB como métrica de evaluación para el algoritmo, cuando lo que realmente se quiere es mejorar la economía)”, explica Julio Gonzalo. En su charla revisó los distintos aspectos de la evaluación de sistemas que pueden ser fuentes de sesgo: las métricas de evaluación, los datos de prueba, el diseño experimental y las herramientas de análisis de resultados. Y discutió cómo las malas prácticas en la evaluación de sistemas pueden dar lugar a sesgos indeseados en su comportamiento, y cuáles son los desafíos para eliminarlos.

Este seminario organizado por la UNED se emite desde el Centro de Inteligencia Artificial del Concello de Ourense, que invitó a la Universidad a incluir esta actividad en su ciclo Los Viernes con I.A.

Puedes seguir la conferencia en diferido pulsando aquí.

UNED Ourense

Comunicación

Carretera de Vigo Torres do Pino  s/n Baixo 32001 Ourense - . Tel. 988371444 info@ourense.uned.es