La inteligencia artificial (IA) se está convirtiendo rápidamente en parte de nuestra vida diaria a medida que sale de los laboratorios de investigación y academia y se adentra en el mundo real. Aunque no estoy preocupado por la superinteligencia de la IA “volviéndose rebelde” y desafiando la supervivencia de la raza humana, eso es ciencia ficción y no está respaldado por ninguna investigación científica actual. Sin embargo, sí creo que debemos pensar en las posibles consecuencias no deseadas de utilizar esta tecnología.
Kathy Baxter, arquitecta de la práctica ética de IA de Salesforce, plantea el problema de manera acertada. Señalando que la IA no es consciente, sino simplemente una herramienta y, por lo tanto, moralmente neutral, nos recuerda que su uso depende de los criterios que los humanos apliquemos a su desarrollo. “Si bien la IA tiene el potencial de hacer un gran bien, también puede tener el potencial de dañar a las personas sin saberlo”.
Una forma en que la IA puede causar daño es cuando los algoritmos reflejan nuestros sesgos humanos en los conjuntos de datos que las organizaciones recopilan. Los efectos de estos sesgos pueden aumentar en la era de la IA, ya que los propios algoritmos continúan “aprendiendo” de los datos.
Imaginemos, por ejemplo, que un banco quiere predecir si debe otorgar un préstamo a alguien. Imaginemos también que en el pasado, este banco en particular no ha otorgado tantos préstamos a mujeres o personas de ciertas minorías. Estas características estarán presentes en el conjunto de datos de ese banco, lo que podría facilitar que un algoritmo de IA llegue a la conclusión de que las mujeres o las personas de grupos minoritarios tienen más probabilidades de representar un riesgo crediticio y, por lo tanto, no se les deben otorgar préstamos.
En otras palabras, la falta de datos sobre préstamos a ciertas personas en el pasado podría tener un impacto en cómo el programa de IA del banco tratará sus solicitudes de préstamo en el futuro. El sistema podría detectar un sesgo y amplificarlo, o al menos perpetuarlo. Por supuesto, los algoritmos de IA también podrían ser manipulados por prejuicios explícitos, donde alguien selecciona datos en un sistema de IA de manera que excluya, por ejemplo, a mujeres de color para ser consideradas para préstamos. De cualquier manera, la IA es tan buena como los datos, específicamente los “datos de entrenamiento”, que le proporcionamos.
Todo esto significa que es vital que cualquier persona involucrada en el entrenamiento de programas de IA considere qué tan representativos son los datos de entrenamiento que utilizan. Como dijo Kathy, simplemente tomando datos de internet para entrenar programas de IA, existe una buena posibilidad de que “amplifiquemos los estereotipos, los sesgos y la información falsa que ya existen”.
Entonces, ¿cómo gestionamos las amenazas de la IA sesgada? Comienza con los humanos identificando y gestionando proactivamente cualquier sesgo, lo que incluye entrenar a los sistemas de IA para que lo identifiquen.
En resumen, la IA tiene el potencial de mejorar nuestras vidas de muchas maneras, pero también debemos ser conscientes de los posibles efectos negativos que puede tener si no se gestiona adecuadamente. Es responsabilidad de todos los involucrados en el desarrollo y entrenamiento de la IA garantizar que se utilicen datos representativos y se eliminen los sesgos para que podamos aprovechar al máximo esta tecnología sin causar daño.