En busca de una AI inclusiva

Extracto

55 minutos

La inteligencia artificial está creando nuevas oportunidades para mejorar la vida de las personas en todo el mundo, haciendo grandes aportes en diferentes campos como pueden ser la sanidad o la educación. ¿Pero qué pasaría si estos algoritmos estuviesen aprendiendo a ser injustos? El efecto podría ser catastrófico y a gran escala. Por ejemplo, un sistema de búsqueda de trabajo podría favorecer a los candidatos masculinos para realizar entrevistas, o asumir pronombres femeninos al traducir palabras como «enfermera» o «secretaria».

Por ello, es necesario alzar la voz para trabajar hacia sistemas que sean justos e inclusivos para tod@s de forma que se logre asegurar que un sistema será justo e inclusivo en todas las situaciones. Esto es un desafío a día de hoy en el campo de la inteligencia artificial, acentuado en gran medida porque no hay una definición de qué es justo y qué no. En esta sesión veremos los principales problemas asociados al sesgo de los datos y cómo se pueden llegar a construir modelos que sean éticos, justos e interpretables.

Ponentes

Daniela Solís

Artificial Intelligence Team Lead at Plain Concepts

Team Lead del equipo de IA de Plain Concepts. Maestría en Inteligencia Artificial de la Universidad de Amsterdam con grado en Ingeniería del Software de la Universidad Politecnica de Madrid. Apasionada de las nuevas tecnologías y del mundo de la Inteligencia Artificial.
sara-san-luis_

Sara San Luis

AI Software Development Engineer at Plain Concepts

Apasionada de las ciencias desde pequeña, estudié Matemáticas en la Universidad de Santiago de Compostela, formación que completé con un Máster en Estadística e Investigación Operativa. Este último me permitió adentrarme en el mundo de la IA y del ML, campos en los que trabajo ahora mismo.

Suscríbete a nuestra newsletter

¿QUIERES SER EL PRIMERO EN ENTERARTE DE NUESTROS EVENTOS, DESARROLLOS, NOTICIAS, VACANTES…?