¿Por qué los sistemas de IA olvidan lo que aprenden?

Cuando regresas a la escuela después de las vacaciones de verano, puede parecer que olvidaste todo lo que aprendiste el año anterior. Pero si aprendieras como lo hace un sistema de IA, en realidad habrías olvidado todo, ya que al sentarte en tu primer día de clases, tu cerebro tomaría eso como una señal para borrar todo y comenzar desde cero. La tendencia de los sistemas de IA a olvidar lo que aprendieron anteriormente al adquirir nueva información se conoce como olvido catastrófico. Y eso es un gran problema.

Los algoritmos de vanguardia aprenden, por así decirlo, después de analizar innumerables ejemplos de lo que se espera que hagan. Por ejemplo, un sistema de IA de reconocimiento facial analizará miles de fotos de rostros de personas, probablemente fotos que han sido anotadas manualmente, para poder detectar un rostro cuando aparezca en una transmisión de video. Pero debido a que estos sistemas de IA no comprenden realmente la lógica subyacente de lo que hacen, enseñarles a hacer cualquier otra cosa, incluso si es bastante similar, como reconocer emociones específicas, significa entrenarlos nuevamente desde cero. Una vez que un algoritmo está entrenado, está hecho, no podemos actualizarlo más.

Durante años, los científicos han estado tratando de encontrar una solución a este problema. Si tienen éxito, los sistemas de IA podrían aprender de un nuevo conjunto de datos de entrenamiento sin sobrescribir la mayor parte de lo que ya sabían en el proceso. Básicamente, si los robots algún día se levantan, nuestros nuevos gobernantes podrían conquistar toda la vida en la Tierra y masticar chicle al mismo tiempo. Sin embargo, el olvido catastrófico es uno de los principales obstáculos que impiden a los científicos construir una inteligencia artificial general (AGI) – una IA que sea integral, empática e imaginativa, como las que vemos en la televisión y las películas.

De hecho, varios expertos en IA que asistieron a la Conferencia Conjunta sobre Inteligencia Artificial a Nivel Humano la semana pasada en Praga dijeron, en entrevistas privadas con Futurism o durante paneles y presentaciones, que el problema del olvido catastrófico es una de las principales razones por las que no esperan ver una AGI o una IA a nivel humano en un futuro cercano.

En resumen, el olvido catastrófico es un desafío importante que los científicos deben superar para lograr una IA verdaderamente avanzada. Aunque aún hay mucho trabajo por hacer, los avances en este campo nos acercan cada vez más a la creación de sistemas de IA que puedan aprender y adaptarse sin olvidar lo que han aprendido anteriormente.

Te puede interesar