La importancia de abordar el sesgo en la inteligencia artificial

Las compañías tecnológicas están comenzando a aceptar que la inteligencia artificial en la que están construyendo su futuro podría tener fallas. Desde estudios que demuestran que la inteligencia artificial de procesamiento de lenguaje puede ser sexista, hasta investigaciones más recientes sobre los fallos del reconocimiento facial en tonos de piel más oscuros, años de investigación han dado lugar a una serie de acciones por parte de Microsoft, IBM, Google, Mozilla, Accenture e incluso el Congreso. Es difícil encontrar una razón para “¿por qué ahora?” Podría ser la velocidad inesperada con la que la inteligencia artificial se ha vuelto omnipresente en las plataformas tecnológicas y en el mundo real, con demostraciones del inquietantemente humano Google Duplex y la tienda sin cajeros de Amazon, donde los clientes entran, toman lo que quieren y se van, mientras todo el asunto es monitoreado y grabado por cámaras y computadoras. O tal vez sea cómo las grandes compañías tecnológicas son vistas de repente como cómplices en proyectos invasivos de seguridad nacional con el Departamento de Defensa de los Estados Unidos o el Servicio de Inmigración y Control de Aduanas, lo que contribuye a la percepción de un estado policial en aumento. O tal vez el mundo simplemente se está volviendo más alfabetizado y consciente en tecnología. No importa la razón, los anuncios de estas compañías han sido difíciles de seguir, así que aquí hay un resumen rápido de lo que ha sucedido en las últimas semanas: Google publicó sus principios éticos. Los principios mencionan específicamente la verificación de los algoritmos de inteligencia artificial en busca de sesgos, y un sitio web complementario para aquellos que utilizan el aprendizaje automático describe formas de protegerse contra los sesgos. El Congreso continuó dejando claro que el sesgo en la inteligencia artificial debe ser abordado por las compañías tecnológicas. Durante una audiencia del Comité de Ciencia, Espacio y Tecnología de la Cámara de Representantes, los miembros del Congreso preguntaron a expertos de Google y OpenAI si el Congreso debería regular aspectos de la industria de la inteligencia artificial, desde la automatización hasta el sesgo. “Necesitamos enfrentar los problemas relacionados con los datos que se utilizan para educar a las máquinas. Datos sesgados conducirán a resultados sesgados de máquinas aparentemente objetivas”, dijo el congresista Dan Lipinski (D-Ill.) durante la audiencia el 26 de junio.

Es evidente que el sesgo en la inteligencia artificial es un problema que debe ser abordado de manera urgente. Si los algoritmos de inteligencia artificial están sesgados, los resultados que producen también estarán sesgados. Esto puede tener consecuencias negativas en diversos aspectos de nuestra sociedad, desde la discriminación en la contratación y la justicia hasta la perpetuación de estereotipos y prejuicios.

Las compañías tecnológicas deben asumir la responsabilidad de garantizar que sus algoritmos de inteligencia artificial sean imparciales y justos. Esto implica realizar pruebas rigurosas para detectar y corregir cualquier sesgo en los datos utilizados para entrenar a los modelos de inteligencia artificial. Además, es importante que las empresas sean transparentes en cuanto a sus prácticas y políticas relacionadas con la inteligencia artificial, para que los usuarios y el público en general puedan confiar en que se están tomando medidas para abordar el sesgo.

El sesgo en la inteligencia artificial no es un problema que se pueda resolver de la noche a la mañana, pero es fundamental que se tomen medidas para abordarlo. La inteligencia artificial tiene el potencial de mejorar nuestras vidas de muchas maneras, pero solo si se utiliza de manera ética y responsable. Al abordar el sesgo en la inteligencia artificial, podemos trabajar hacia un futuro en el que la tecnología sea verdaderamente inclusiva y equitativa.

Te puede interesar