En la era de la inteligencia artificial (IA), las empresas que implementan sistemas de aprendizaje automático se enfrentan a un desafío cada vez mayor: los intentos de los atacantes de confundir y evadir estos sistemas. Ante esta situación, las compañías están buscando soluciones creativas para proteger sus sistemas de IA.
Un ejemplo de esto es Instagram, la popular plataforma de redes sociales que alienta a sus mil millones de usuarios a agregar filtros a sus fotos para hacerlas más compartibles. Sin embargo, en febrero de 2019, algunos usuarios de Instagram comenzaron a editar sus fotos pensando en una audiencia diferente: los filtros automatizados de pornografía de Facebook. Facebook depende en gran medida de la moderación impulsada por inteligencia artificial y afirma que la tecnología es particularmente buena para detectar contenido explícito. Sin embargo, algunos usuarios descubrieron que podían evadir los filtros de Instagram superponiendo patrones como cuadrículas o puntos en imágenes que violaban las reglas en cuanto a contenido inapropiado. Esto significó más trabajo para los revisores humanos de contenido de Facebook.
Los ingenieros de IA de Facebook respondieron entrenando su sistema para reconocer imágenes prohibidas con dichos patrones, pero la solución fue de corta duración. Los usuarios “comenzaron a adaptarse utilizando diferentes patrones”, dice Manohar Paluri, líder del trabajo de visión por computadora en Facebook. Finalmente, su equipo logró controlar el problema de la evasión de la IA en cuanto a contenido pornográfico al agregar otro sistema de aprendizaje automático que busca patrones como cuadrículas en las fotos y trata de editarlos imitando los píxeles cercanos. El proceso no recrea perfectamente la imagen original, pero permite que el clasificador de pornografía realice su trabajo sin problemas.
Este incidente del juego del gato y el ratón llevó a Facebook a crear un “equipo de inteligencia artificial” unos meses después para comprender mejor las vulnerabilidades y los puntos ciegos de sus sistemas de IA. Otras grandes empresas y organizaciones, incluyendo Microsoft y contratistas gubernamentales, están formando equipos similares. Estas compañías han invertido mucho en los últimos años para implementar sistemas de IA en tareas como comprender el contenido de imágenes o texto. Ahora, algunos de los primeros adoptantes se preguntan cómo pueden ser engañados estos sistemas y cómo protegerlos. “Pasamos de ‘¿Es útil esta tecnología?’ a ‘Es crítico para la producción'”, dice Mike Schroepfer, director de tecnología de Facebook. “Si nuestro sistema automatizado falla o puede ser subvertido a gran escala, eso es un gran problema”.
En resumen, la evolución de la IA ha llevado a un aumento en los intentos de evadir y confundir los sistemas de aprendizaje automático. Las empresas están tomando medidas para proteger sus sistemas de IA, como entrenarlos para reconocer patrones evasivos y agregar sistemas adicionales para editar imágenes. Además, se están formando equipos de inteligencia artificial para identificar y solucionar las vulnerabilidades de estos sistemas. A medida que la IA se vuelve cada vez más crítica en la producción, es fundamental garantizar su seguridad y confiabilidad.


