Las grandes empresas tecnológicas adoran presumir de lo buenos que son sus ordenadores para identificar lo que se representa en una fotografía. En 2015, los algoritmos de aprendizaje profundo diseñados por Google, Microsoft y Baidu superaron a los humanos en esta tarea, al menos inicialmente. Esta semana, Facebook anunció que su tecnología de reconocimiento facial es lo suficientemente inteligente como para identificar una foto tuya, incluso si no estás etiquetado en ella. Pero los algoritmos, a diferencia de los humanos, son susceptibles a un tipo específico de problema llamado “ejemplo adversario”. Estos son ilusiones ópticas especialmente diseñadas que engañan a las computadoras para que hagan cosas como confundir una imagen de un panda con una de un gibón. Pueden ser imágenes, sonidos o párrafos de texto. Piensa en ellos como alucinaciones para los algoritmos. Aunque confundir un panda con un gibón puede parecer de poca importancia, un ejemplo adversario podría frustrar el sistema de inteligencia artificial que controla un coche autónomo, por ejemplo, haciendo que confunda una señal de stop con una de límite de velocidad. Ya se han utilizado para vencer otros tipos de algoritmos, como los filtros de spam. Según una investigación publicada el miércoles por el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, estos ejemplos adversarios son mucho más fáciles de crear de lo que se entendía anteriormente, y no solo en condiciones controladas; el equipo engañó de manera confiable a la API de Visión en la Nube de Google, un algoritmo de aprendizaje automático utilizado en el mundo real hoy en día. Los ejemplos adversarios anteriores se habían diseñado en su mayoría en entornos de “caja blanca”, donde los científicos de la computación tienen acceso a los mecanismos subyacentes que alimentan un algoritmo. En estos escenarios, los investigadores aprenden cómo se entrenó el sistema informático, información que les ayuda a descubrir cómo engañarlo. Estos tipos de ejemplos adversarios se consideran menos amenazantes, porque no se asemejan de cerca al mundo real, donde un atacante no tendría acceso a un algoritmo propietario. Por ejemplo, en noviembre, otro equipo del MIT (con muchos de los mismos investigadores) publicó un estudio que demostraba cómo el clasificador de imágenes InceptionV3 de Google podía ser engañado para que pensara que una tortuga impresa en 3D era un rifle. De hecho, los investigadores pudieron manipular la inteligencia artificial para que pensara que la tortuga era cualquier objeto que ellos quisieran. Si bien el estudio demostró que los ejemplos adversarios pueden ser objetos en 3D, se llevó a cabo en condiciones de caja blanca. Los investigadores tenían acceso a cómo funcionaba el clasificador de imágenes.
En resumen, los avances en la inteligencia artificial han llevado a la creación de algoritmos capaces de identificar imágenes con mayor precisión que los humanos. Sin embargo, estos algoritmos son vulnerables a los ejemplos adversarios, que son ilusiones ópticas diseñadas para engañar a las computadoras. Estos ejemplos pueden tener consecuencias graves en el mundo real, como confundir una señal de tráfico en un coche autónomo. La investigación realizada por el MIT demuestra que estos ejemplos adversarios son más fáciles de crear de lo que se pensaba anteriormente, lo que plantea preocupaciones sobre la seguridad y confiabilidad de los sistemas de inteligencia artificial en el mundo real.
En conclusión, aunque la inteligencia artificial ha avanzado significativamente en la identificación de imágenes, todavía hay desafíos importantes que deben abordarse. Los investigadores y las empresas tecnológicas deben trabajar juntos para desarrollar algoritmos más robustos y resistentes a los ejemplos adversarios. Además, es crucial que se implementen medidas de seguridad adecuadas para proteger los sistemas de inteligencia artificial de posibles ataques. Solo así podremos aprovechar al máximo el potencial de la inteligencia artificial sin comprometer la seguridad y confiabilidad de nuestras tecnologías.