La inteligencia artificial (IA) está cada vez más presente en nuestras vidas. Desde algoritmos de aprendizaje profundo que determinan nuestras tarifas de seguros de vida hasta predicciones sobre cuándo moriremos, la IA está tomando decisiones que afectan directamente nuestras vidas. Ante esto, muchos expertos en IA están pidiendo más responsabilidad en torno a por qué estos algoritmos toman las decisiones que toman. Después de todo, si un coche autónomo causa un accidente, nos gustaría saber qué sucedió.
Sin embargo, no todos están convencidos de la idea de abrir la “caja negra” de la inteligencia artificial. En un artículo publicado en Medium para el Berkman Klein Center de Harvard, el autor e investigador senior David Weinberger sostiene que simplificar los procesos que utilizan los sistemas de aprendizaje profundo para tomar decisiones -un paso necesario para que los humanos los comprendamos- en realidad socavaría la razón por la cual utilizamos algoritmos en primer lugar: su complejidad y sutileza.
“Los modelos construidos por humanos buscan reducir las variables a un conjunto lo suficientemente pequeño como para que nuestras mentes lo comprendan”, escribe Weinberger. “Los modelos de aprendizaje automático pueden construir modelos que funcionan, por ejemplo, pueden predecir con precisión la probabilidad de condiciones médicas, pero que no pueden reducirse lo suficiente como para que los humanos los comprendamos o los expliquemos”.
En lugar de desglosar los errores individuales de la IA, Weinberger sugiere centrarse en lo que un algoritmo está y no está optimizado para hacer. Según él, este enfoque saca la discusión de un ámbito caso por caso -en realidad, el sistema nunca será perfecto- y nos permite analizar cómo funciona todo el sistema de IA para producir los resultados que deseamos. ¿Está un coche autónomo optimizado para la velocidad o para la seguridad? ¿Debería salvar una vida a costa de dos? Estos son problemas que se pueden regular y decidir sin necesidad de conocimientos expertos sobre el funcionamiento interno de una red neuronal profunda. Una vez que se establecen las expectativas sociales para una nueva tecnología, ya sea a través de la regulación o de la influencia pública, las empresas pueden optimizar los resultados en función de esas expectativas.
El argumento de Weinberger representa un cambio fundamental en la forma en que pensamos sobre los sistemas de aprendizaje automático. Aquellos que argumentan que necesitamos interpretar exactamente por qué se toma cada decisión ven los algoritmos como capaces de perfeccionarse: con los datos y la ingeniería adecuados, los errores serán insignificantes. Pero aquellos que han dejado atrás la idea de la interpretabilidad, incluido Weinberger e incluso el científico jefe de IA de Facebook, Yann LeCun, afirman que las máquinas inevitablemente cometerán errores y sugieren analizar las tendencias en las decisiones que toman las máquinas para reconstruirlas de la manera que deseamos.
Por supuesto, siempre habrá fallos de IA que las personas quieran entender explícitamente. Piense en la NASA tratando de averiguar por qué se perdió un satélite o en el algoritmo de un científico que puede predecir la composición de un nuevo material sin saber por qué podría existir. El sistema propuesto funciona mucho mejor cuando se piensa en él en términos de un producto o servicio de cara al público.
En conclusión, la complejidad de la inteligencia artificial plantea interrogantes sobre si deberíamos entender cómo toma decisiones. Si bien algunos argumentan que es necesario desglosar y comprender cada decisión, otros sostienen que es más importante establecer expectativas sociales y regular los resultados deseados. En última instancia, la comprensión completa de los procesos internos de la IA puede no ser posible o incluso necesaria, siempre y cuando se logren los resultados deseados y se tomen decisiones éticas y responsables.