Investigadores demuestran que la Inteligencia Artificial aprende a discriminar y ser racista

Imagen Thinkstock

Es imposible para una persona ser totalmente objetiva, ya que por más que lo intentemos todos tenemos prejuicios que nos afectan a la hora de tomar decisiones, algo que se pensaba que no ocurriría con las máquinas.

PUBLICIDAD

Una reciente investigación publicada en la revista Science concluyó que los sistemas de Inteligencia Artificial no solo aprenden a realizar tareas intelectuales antes reservadas para humanos, sino que en el proceso también adquieren prejuicios como  racismo o sexismo lo que afecta sus resultados.

¿Inteligencia Artificial discrimina por sexo y color de piel?

Desde muy temprana edad y casi sin darnos cuenta la sociedad nos impone prejuicios que vamos aplicando en el día a día. Un reciente estudio concluyó que la Inteligencia Artificial no es inmune a este mismo defecto.

Investigadores de la Universidad de Princeton en Estados Unidos probaron cómo un sistema de Inteligencia Artificial aprendía discriminación de acuerdo a asociaciones presentes en un texto siendo muy similares a lo que ocurre con las personas.

El texto examinado por las computadora tendía a asociar a las hombres con trabajos más importantes y a las mujeres con aquellos que el sexismo les impone. La misma lectura utilizaba el nombre de personas de afrodescendientes asociándolos con defectos, mientras que los blancos mostraban virtudes socialmente apreciables.

La misma máquina luego debía examinar currículos y decidir cuáles se ajustaban mejor a quién obtendría un supuesto empleo; lo interesante fue ver que este sistema inteligente aplicó criterios sexistas y racistas a sus decisiones.

Los investigadores también sometieron a esta máquina de Inteligencia Artificial a un test psicológico utilizado para examinar prejuicios en humanos y determinó que aplicaba aquellos que estaban implícitos en los textos utilizados para supuestamente aprender lenguaje.

Imagen iStock

A la hora de trabajar creando sistemas de búsqueda web basados en Inteligencia Artificial, los resultados demostraron que existía una asociación entre palabras que sugerían sexo y raza y la vinculación con los datos que eran considerados más relevantes.

PUBLICIDAD

La conclusión de esta investigación es que la Inteligencia Artificial no discrimina por naturaleza, pero como sus algoritmos van aprendiendo en base a  materiales creados por humanos, recogen aquellas pistas de prejuicios presentes en el lenguaje.

El lenguaje crea realidades e influye, queramos o no, en los sistemas inteligentes. Los investigadores indican que tristemente el cambiar los materiales que se utilizan para desarrollar sistemas de Inteligencia Artificial no tendría sentido, ya que no solo los haría menos efectivos sino que también los distanciaría de la realidad del mundo en que deben trabajar.