¿Inteligencia artificial racista?
Sociedad de la desinformación ·
Es el problema de la inteligencia artificial, que, por definición, nunca será humanaSecciones
Servicios
Destacamos
Sociedad de la desinformación ·
Es el problema de la inteligencia artificial, que, por definición, nunca será humanaTwitter ha lanzado este mes una iniciativa conocida como 'aprendizaje automático responsable'. Al parecer la maquinita les habría salido racista. Cuando se sube una fotografía a la red social, se corta automáticamente si supera el tamaño permitido. El algoritmo decide la parte de la imagen ... más relevante, como el rostro en lugar de los pies. Bien, el septiembre pasado, un informático hizo viral un experimento. Si en la foto aparecía una persona de raza negra y otra de raza blanca, escogía siempre al último. ¡Y no sólo Twitter! Un estudio del gobierno estadounidense estableció en 2019 que a 189 algoritmos de 99 empresas les pasaba algo similar.
La explicación se centra en cómo ha aprendido el programa. Es decir, si los datos originales ya traían un sesgo racial o de género por la razón que sea, involuntaria o adrede, los reproduce. ¡Muy bien, muchas gracias! Pero quizás sería mejor no dejar en mano de esta tecnología decisiones como la selección de empleos o la investigación criminal, entre otros. Es el problema de la inteligencia artificial, que, por definición, nunca será humana.
Publicidad
Publicidad
Te puede interesar
La bodega del siglo XIV que elabora vino de 20 años y el primer vermut de Valladolid
El Norte de Castilla
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para registrados
¿Ya eres registrado?
Inicia sesiónNecesitas ser suscriptor para poder votar.