Pasar al contenido principal
Sesgos
2023 | 17 Julio

“No podemos permitirnos sistemas que muestren un comportamiento discriminatorio sobre colectivos concretos”

“A pesar de lo que nuestra intuición podría sugerir, los sistemas de IA también pueden estar aquejados por estereotipos. Son conocidos los casos de sistemas de reconocimiento facial que fallaban con personas negras, sistemas de reconocimiento de fotografías que clasificaban a personas negras como gorilas, sistemas de reconocimiento de voz que funcionaban mejor con voces masculinas, o sistemas de detección de contenidos tóxicos en redes sociales que asociaban sistemáticamente minorías étnicas con mensajes negativos. ¿Cómo es que los estereotipos se infiltran en los sistemas de IA?”. Xabier Saralegi habla, en los periódicos del Grupo Noticias, sobre el peligro que suponen los sesgos en la consecución de una IA ética: La inteligencia artificial y el camino no deseado: el sesgo y los atajos

Si apostamos por la IA como una herramienta de desarrollo social, no podemos permitirnos sistemas que en ámbitos sensibles muestren un comportamiento discriminatorio sobre colectivos concretos. Abordar el problema del sesgo (junto a otros retos también diagnosticados) en estos escenarios va a ser una necesidad y no un freno, aunque suponga un esfuerzo suplementario. En la carrera de la IA no debemos apresurarnos por atajos, y es preferible vadear el río, por largo que sea el camino, a atravesarlo por un endeble puente colgante”.