La inteligencia artificial (IA) se ha convertido en una parte cada vez más integral de nuestras vidas cotidianas. Está presente en todo, desde búsquedas en la web hasta redes sociales y asistentes domésticos como Alexa. Sin embargo, ¿qué sucede si esta tecnología tan importante está involuntariamente sesgada? Y ¿qué ocurre si en este campo tan relevante apenas hay investigadores negros? Timnit Gebru, miembro del grupo de Microsoft sobre Equidad, Responsabilidad, Transparencia y Ética en IA, está abordando estas preguntas. Además, cofundó el evento “Black in AI” en la conferencia Neural Information Processing Systems (NIPS) en 2017 y formó parte del comité directivo de la primera conferencia sobre Equidad y Transparencia en febrero. En una entrevista con MIT Technology Review, Gebru habla sobre cómo se introduce el sesgo en los sistemas de IA y cómo la diversidad puede contrarrestarlo.
¿Cómo distorsiona la falta de diversidad la inteligencia artificial, específicamente la visión por computadora?
Podría hablar de esto durante todo un año. Existe un sesgo en cuanto a qué problemas consideramos importantes, qué investigaciones consideramos relevantes y hacia dónde creemos que debería dirigirse la IA. Si no tenemos diversidad en nuestro grupo de investigadores, no abordaremos los problemas que enfrenta la mayoría de las personas en el mundo. Cuando los problemas no nos afectan, no creemos que sean tan importantes e incluso es posible que ni siquiera conozcamos estos problemas porque no interactuamos con las personas que los experimentan.
¿Existen formas de contrarrestar el sesgo en los sistemas?
La diversidad es realmente importante en la IA, no solo en los conjuntos de datos, sino también en los investigadores, porque necesitamos personas que tengan un sentido social de cómo son las cosas. Estamos en una crisis de diversidad en la IA. Además de tener conversaciones técnicas, debemos hablar sobre la ley, la ética y la diversidad en la IA. Necesitamos todo tipo de diversidad en la IA y esto debe tratarse como algo extremadamente urgente. Desde un punto de vista técnico, existen muchos enfoques diferentes. Uno de ellos es diversificar el conjunto de datos y tener muchas anotaciones diferentes, como raza, género y edad. Una vez que entrenas un modelo, puedes probarlo y ver qué tan bien funciona en todos estos subgrupos. Pero incluso después de hacer esto, es probable que haya algún tipo de sesgo en el conjunto de datos. No se puede tener un conjunto de datos que muestre perfectamente todo el mundo. Algo en lo que estoy realmente apasionado y en lo que estoy trabajando actualmente es en encontrar la manera de animar a las empresas a proporcionar más información a los usuarios o incluso a los investigadores. Deberían tener recomendaciones de uso, advertencias sobre posibles problemas y qué tan sesgado es el conjunto de datos, entre otros aspectos. De esta manera, cuando soy una startup y simplemente tomo tu conjunto de datos o modelo estándar y lo incorporo a lo que estoy haciendo, al menos tengo algún conocimiento sobre los posibles problemas que pueda haber. En este momento, estamos en un lugar similar al Salvaje Oeste, donde no tenemos muchos estándares sobre dónde publicamos los conjuntos de datos.
La diversidad es esencial para garantizar que la IA sea justa y equitativa. Necesitamos una variedad de perspectivas y experiencias para evitar sesgos y garantizar que los sistemas de IA sean inclusivos para todos. Es responsabilidad de la industria y de los investigadores trabajar juntos para abordar este problema y promover la diversidad en la IA. Solo así podremos aprovechar todo el potencial de esta tecnología y evitar consecuencias negativas para la sociedad.