La inteligencia artificial (IA) es una tecnología fascinante que ha avanzado rápidamente en los últimos años. Sin embargo, a pesar de los avances, todavía hay mucho que no entendemos sobre cómo funcionan los sistemas de IA. Un reciente estudio realizado por DeepMind, una empresa de IA propiedad de Alphabet, está tratando de desentrañar este enigma.
Al igual que el cerebro humano, las redes neuronales que alimentan los sistemas de inteligencia artificial no son fáciles de entender. DeepMind, famosa por enseñar a un sistema de IA a jugar al Go, está tratando de descubrir cómo toman decisiones estos sistemas. Al conocer cómo funciona la IA, esperan construir sistemas más inteligentes. Sin embargo, los investigadores reconocen que cuanto más complejo sea el sistema, más difícil será para los humanos entenderlo.
Uno de los mayores problemas con la tecnología de IA es que los programadores que construyen estos sistemas no saben completamente por qué los algoritmos que los impulsan toman las decisiones que toman. Esto genera desconfianza en algunos y lleva a otros a concluir que podría resultar en máquinas fuera de control.
Al igual que el cerebro humano, las redes neuronales se basan en capas de miles o millones de conexiones entre neuronas, que son agrupaciones de cálculos matemáticos que actúan de la misma manera que las neuronas en el cerebro. Estas neuronas individuales se combinan de manera compleja y a menudo contraintuitiva para resolver una amplia gama de tareas desafiantes.
Según la investigación, una red neuronal diseñada para reconocer imágenes de gatos tendrá dos clasificaciones diferentes de neuronas trabajando en ella: neuronas interpretables que responden a imágenes de gatos y neuronas confusas, donde no está claro a qué están respondiendo. Para evaluar la importancia relativa de estos dos tipos de neuronas, los investigadores eliminaron algunas para ver qué efecto tendría en el rendimiento de la red.
Descubrieron que las neuronas que no tenían una preferencia obvia por las imágenes de gatos en comparación con las imágenes de otros animales, desempeñaban un papel tan importante en el proceso de aprendizaje como aquellas que respondían claramente solo a imágenes de gatos. También descubrieron que las redes construidas sobre neuronas que generalizan, en lugar de simplemente recordar imágenes que se les habían mostrado previamente, son más robustas.
“Comprender cómo cambian las redes… nos ayudará a construir nuevas redes que memoricen menos y generalicen más”, escribieron los investigadores en su blog. “Esperamos comprender mejor el funcionamiento interno de las redes neuronales y, lo que es más importante, utilizar este conocimiento para construir sistemas más inteligentes y generales”, concluyeron.
Sin embargo, los investigadores reconocen que los humanos aún pueden no entender completamente la IA. A medida que continuamos explorando y desarrollando esta tecnología, es importante seguir investigando y buscando respuestas a los enigmas que plantea la inteligencia artificial.