La inteligencia artificial (IA) se está infiltrando en todos los aspectos de la vida moderna. La IA puede etiquetar a tus amigos en fotos de Facebook o elegir lo que ves en Instagram, pero los científicos de materiales e investigadores de la NASA también están comenzando a utilizar esta tecnología para el descubrimiento científico y la exploración espacial. Sin embargo, hay un problema fundamental con esta tecnología, ya sea que se utilice en las redes sociales o para el rover de Marte: los programadores que la construyeron no saben por qué la IA toma una decisión en lugar de otra.
La inteligencia artificial moderna es aún nueva. Las grandes empresas de tecnología solo han aumentado su inversión e investigación en los últimos cinco años, después de que una teoría de décadas finalmente funcionara en 2012. Inspirada en el cerebro humano, una red neuronal artificial se basa en capas de miles a millones de conexiones pequeñas entre “neuronas” o pequeños grupos de cálculos matemáticos, similares a las conexiones de las neuronas en el cerebro. Pero esta arquitectura de software tiene un inconveniente: dado que los cambios a lo largo de esas millones de conexiones son tan complejos y minúsculos, los investigadores no pueden determinar exactamente qué está sucediendo. Solo obtienen un resultado que funciona.
En la conferencia Neural Information Processing Systems en Long Beach, California, la conferencia anual de IA más influyente y con mayor asistencia, cientos de investigadores de la academia y la industria tecnológica se reunirán hoy (7 de diciembre) en un taller para hablar sobre este problema. Si bien el problema existe hoy en día, los investigadores que hablaron con Quartz dicen que es hora de actuar para hacer comprensibles las decisiones de las máquinas, antes de que la tecnología sea aún más omnipresente.
“No queremos aceptar decisiones arbitrarias de entidades, personas o IA que no entendemos”, dijo Jason Yosinkski, investigador de IA de Uber y coorganizador del taller de IA interpretable. “Para que los modelos de aprendizaje automático sean aceptados por la sociedad, necesitaremos saber por qué toman las decisiones que toman”.
A medida que estas redes neuronales artificiales comienzan a utilizarse en la aplicación de la ley, la atención médica, la investigación científica y la determinación de las noticias que ves en Facebook, los investigadores están diciendo que hay un problema con lo que algunos han llamado “la caja negra” de la IA. Investigaciones anteriores han demostrado que los algoritmos amplifican los sesgos en los datos de los que aprenden y establecen conexiones inadvertidas entre ideas. Por ejemplo, cuando Google hizo que una IA generara la idea de “mancuernas” a partir de imágenes que había visto, todas las mancuernas tenían pequeños brazos desencarnados saliendo de los mangos. Ese sesgo es relativamente inofensivo; cuando se trata de raza, género u orientación sexual, se vuelve menos benigno.
Es crucial abordar este problema de la “caja negra” de la IA y trabajar hacia una mayor transparencia en las decisiones que toman los algoritmos. La sociedad necesita comprender cómo y por qué se toman estas decisiones, especialmente cuando se trata de asuntos importantes como la justicia, la salud y la igualdad. La transparencia en la IA es esencial para garantizar que no se perpetúen sesgos y prejuicios, y para que podamos confiar en las decisiones que se toman.
En resumen, la inteligencia artificial está desempeñando un papel cada vez más importante en nuestras vidas, pero es fundamental que comprendamos y cuestionemos las decisiones que toma. La transparencia en la IA es un paso crucial hacia un futuro en el que podamos confiar en esta tecnología y utilizarla de manera ética y responsable.


