La inteligencia artificial (IA) ha avanzado significativamente en los últimos años, permitiendo a las máquinas reconocer objetos en imágenes o transcribir el habla de manera casi perfecta. Sin embargo, los investigadores de Uber y Google están trabajando en una nueva capacidad para los sistemas de IA basados en el aprendizaje profundo: la capacidad de manejar la incertidumbre.
El aprendizaje profundo implica alimentar datos de ejemplo a una red neuronal grande y poderosa. Aunque ha sido un gran éxito, requiere una gran cantidad de datos de entrenamiento y potencia informática, y puede ser sorprendentemente frágil. Es aquí donde la incertidumbre puede ser una solución.
La nueva aproximación permitiría a los programas de IA más inteligentes medir su confianza en una predicción o decisión, esencialmente, saber cuándo deben dudar de sí mismos. Esto podría ser especialmente útil en escenarios críticos, como los automóviles autónomos. “Sería ideal contar con un sistema que nos brinde una medida de cuán seguro está”, dice Dustin Tran, quien trabaja en este problema en Google. “Si un automóvil autónomo no conoce su nivel de incertidumbre, puede cometer un error fatal, y eso puede ser catastrófico”.
Este enfoque refleja la comprensión de que la incertidumbre es un aspecto clave del razonamiento y la inteligencia humana. Agregarla a los programas de IA podría hacerlos más inteligentes y menos propensos a cometer errores. Esto puede ser especialmente importante a medida que los sistemas de IA se utilizan en escenarios cada vez más críticos.
En una conferencia de IA en Long Beach, California, Zoubin Ghahramani, un destacado investigador de IA y profesor de la Universidad de Cambridge y científico jefe de Uber, expresó la importancia de tener un marco sólido para el aprendizaje profundo, pero al mismo tiempo hacerlo más fácil para que las personas representen la incertidumbre.
En la misma conferencia, un grupo de investigadores se reunió para discutir Pyro, un nuevo lenguaje de programación lanzado por Uber que combina el aprendizaje profundo con la programación probabilística. Esta combinación podría hacer que el aprendizaje profundo sea más inteligente de varias maneras, como reconocer cosas con un grado razonable de certeza a partir de solo unos pocos ejemplos en lugar de miles.
En resumen, la capacidad de manejar la incertidumbre en los sistemas de IA basados en el aprendizaje profundo podría ser un nuevo avance en el campo de la inteligencia artificial. Esto permitiría a los programas de IA medir su confianza en las predicciones y decisiones, lo que los haría más inteligentes y menos propensos a cometer errores. A medida que la IA se utiliza en escenarios críticos, como los automóviles autónomos, esta capacidad se vuelve aún más importante. Sin embargo, aún queda mucho trabajo por hacer para desarrollar un marco sólido que permita representar la incertidumbre de manera efectiva.