Secciones
Servicios
Destacamos
A. HERRANZ
Viernes, 29 de noviembre 2019, 07:56
Sistemas que dan más crédito a una persona por su sexo. Programas que dan prioridad a unos individuos en función del color de la piel. Algoritmos que descartan a una persona por su lugar de nacimiento. Son situaciones (algunas reales, otras aún no) que ... deben ser evitadas ahora que las instituciones, públicas y privadas, cada vez están más gestionadas -y, en cierta forma, también gobernadas- por 'software' y códigos de programación.
La preocupación por tener y diseñar sistemas de inteligencia artificial (IA) que sean justos y éticos va en aumento. Entre abril y mayo pasados tanto la Organización para la Cooperación y el Desarrollo Económicos (OCDE) como la Unión Europea publicaron sendos documentos en los que establecen cómo debe ser la IA. Así, la OCDE determinó los denominados Principios sobre la Inteligencia Artificial, mientras que la UE establecía los que, a su juicio, deben ser los siete principios éticos que la gobiernen.
Noticia Relacionada
Desde entonces, son varias las iniciativas, gubernamentales y privadas, que están surgiendo para garantizar que, efectivamente, el desarrollo de los algoritmos se hará sin sesgos ni prejuicios. Porque todos coinciden en que, dado que están desarrollados por humanos y para humanos, estos códigos no solo pueden contener imprecisiones sino que el riesgo es que los algoritmos intensifiquen y magnifiquen dichos sesgos.
La OCDE sostiene que deben ser los Gobiernos los que garanticen que el diseño de los sistemas de IA siguen los valores y leyes imperantes. El reto es que las personas puedan confiar en que su seguridad y privacidad se respetarán y serán algo prioritario al manejar la inteligencia artificial. Mientras, la estrategia europea busca que se centre en el ser humano. El fin es que las aplicaciones de IA no solo se ajusten a la ley, sino que también respeten unos principios éticos y garanticen que su implementación evite daños involuntarios.
Mientras, en España sigue sin aprobarse el borrador de la llamada Estrategia Nacional sobre Inteligencia Artificial, aunque sí se sabe que está elaborada a partir de los principios éticos de la OCDE y que se ha contado con la opinión de diversos expertos. Francisco Polo, secretario de Estado en funciones para el Avance Digital, sostiene que será fundamental porque la IA es una «tecnología habilitadora clara de la economía y sociedad», que podrá ser aplicada a áreas tan diversas como turismo, sanidad, agricultura o bien otras como procesamiento del lenguaje natural.
«Necesitamos gobernar la digitalización y primero hay que tener claro el objetivo: el bien de los ciudadanos en materias como educación, empleo, consumo, vida pública y privada, derechos sociales e igualdad», señala Polo. El secretario de Estado puso en marcha hace poco OdiseIA, el Observatorio del Impacto Social y Ético de la Inteligencia Artificial en España formado por empresas, universidades, instituciones y personas físicas preocupadas e interesadas por la ética de la IA. Pretende servir de punto de discusión sobre dicha materia, garantizando a la vez un diálogo de carácter independiente y multidisciplinar.
Otra de las iniciativas es la denominada 'We The Humans', que nace por el interés en una inteligencia artificial ética de una serie de profesionales de diversos ámbitos, que quieren «cambiar la visión tecnológica por no aceptar un determinismo en el que la tecnología 'es' de una cierta forma». «Queremos tener la inteligencia artificial que la sociedad necesita», explica Juan Ignacio Rouyet, su presidente. Su objetivo es «generar conocimiento sobre los retos éticos de las nuevas tecnologías, a la vez que crear conciencia en la sociedad y en el tejido empresarial sobre los retos éticos actuales, para fomentar la creación de soluciones que nos lleven a una tecnología pensada para el crecimiento de las personas».
También hay propuestas de una IA ética para sectores verticales. Es el caso, por ejemplo, del Comité de Ética de la Inteligencia Artificial creado por la Mutualidad de la Abogacía para el sector financiero y asegurador. Su presidente, Enrique Sanz Fernández-Lomana, apunta que «a medida que la inteligencia artificial es un medio cada vez más habitual, sofisticado y preciso de interactuar con nuestros asociados y para tomar decisiones de negocio, nuestra obligación es dotar a esas decisiones de nuestros valores y principios éticos».
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para registrados
¿Ya eres registrado?
Inicia sesiónNecesitas ser suscriptor para poder votar.