El algoritmo que predice el futuro no es fiable
INVESTIGACIÓN ·
El programa COMPAS falla lo mismo que un ser humanoSecciones
Servicios
Destacamos
INVESTIGACIÓN ·
El programa COMPAS falla lo mismo que un ser humanoINNOVA+
Madrid
Jueves, 18 de enero 2018, 17:07
La inteligencia artificial tiene mucho de artificial y también mucho del ser humano. Esto le ha pasado a COMPAS, un avanzadísimo software estadounidense que servía de apoyo a los magistrados del país para dictar sentencia.
El algoritmo de este sistema permitía calcular en base a ... unas variables el riesgo de una persona de volver a cometer un delito, así daba una puntuación al juez para condenar o absolver a un procesado.
Las primeras acusaciones llegaron con un posible posicionamiento a favor de procesados blancos frente a negros. Julia Dressel y varios investigadores del Dartmouth College iniciaron una investigación para descubrirlo.
La estudiante de informática escogió 1.000 acusados y eligió a 400 personas voluntarias para la investigación. Estos elegidos tenían una misión: debían pronosticar si volverían a ser arrestados dentro de dos años, el mismo estándar que utiliza COMPAS.
Los datos de la investigación son reveladores, los humanos acertaron casi con la misma frecuencia que el algoritmo, entre el 63% y el 67% de las veces, en comparación con el 65% de COMPAS, según informa la revista "Science Advances"El algoritmo que predice el futuro no es fiable.
Dressel y su equipo también trabajaron en averiguar si el sistema era racista. La conclusión del estudio es que humanos y COMPAS comparten el mismo sesgo racial. Ambos supusieron incorrectamente que habría más arrestos de personas negras de lo que realmente sucedió.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para registrados
¿Ya eres registrado?
Inicia sesiónNecesitas ser suscriptor para poder votar.