En la actualidad, la inteligencia artificial y los robots son temas que generan tanto fascinación como preocupación. Mientras algunos expertos advierten sobre los riesgos que podrían representar para la humanidad, otros ven en ellos un gran potencial para mejorar nuestras vidas. Sin embargo, un reciente estudio realizado por expertos en ciencias de la computación y psicología de la Universidad de Cardiff y el MIT ha revelado un aspecto preocupante: la posibilidad de que las máquinas inteligentes desarrollen prejuicios.
El estudio define el prejuicio como una actitud humana que implica un juicio negativo y no fundamentado hacia los demás. Esto puede llevar a la discriminación por género, edad, raza, nacionalidad, extremismo religioso y más. Los investigadores utilizaron modelos de simulación computacional para explorar cómo el prejuicio puede evolucionar de manera orgánica en grupos de individuos. En estas simulaciones, los agentes virtuales interactúan entre sí en un sistema de intercambio, donde cada individuo decide si dona a alguien dentro de su propio grupo o a alguien fuera de él, basándose en su estrategia de donación y cómo esto afecta su reputación.
Los resultados de las simulaciones demostraron que el prejuicio es una fuerza natural que puede surgir fácilmente en cualquier sociedad o grupo grande, siempre y cuando existan los incentivos adecuados. Además, el prejuicio a menudo evoluciona junto con fuerzas más positivas como la cooperación, y de cierta manera, se ayudan mutuamente a mantenerse. Sin embargo, lo más preocupante es que el prejuicio puede ser aprendido y adoptado por las máquinas sin necesidad de tener habilidades cognitivas muy sofisticadas.
Esto plantea la pregunta de si en un futuro cercano podríamos encontrarnos con robots de inteligencia artificial racistas o sexistas que moldeen nuestras vidas. Aunque esto aún parece estar lejos de suceder, ya hemos visto ejemplos de cómo los robots pueden adoptar prejuicios. Un caso destacado fue el de Tay, el chatbot de Twitter impulsado por inteligencia artificial de Microsoft, que tuvo que ser retirado poco después de su lanzamiento debido a los comentarios racistas que había aprendido de otros usuarios de Twitter.
El estudio también señala algunos factores que pueden ayudar a limitar los efectos del prejuicio, como la diversidad de interacciones entre los agentes simulados, la diversidad de tipos de agentes y la capacidad de aprender de una amplia gama de miembros de la población. En otras palabras, las sociedades que valoran la diversidad dentro de su grupo y que fomentan el aprendizaje global a través de la interacción con personas de otros grupos están mejor preparadas para frenar la proliferación del prejuicio.
En conclusión, si bien la posibilidad de que las máquinas inteligentes desarrollen prejuicios es preocupante, también existen medidas que podemos tomar para limitar este riesgo. Es fundamental fomentar la diversidad y el aprendizaje global en nuestras interacciones, tanto entre humanos como entre humanos y máquinas. Solo así podremos garantizar que la inteligencia artificial y los robots sean herramientas que mejoren nuestra sociedad en lugar de perpetuar los prejuicios que ya existen.