La importancia de la transparencia en la inteligencia artificial

Estamos entrando en una nueva era de inteligencia artificial ubicua. Entre tu teléfono inteligente, computadora, automóvil, hogar inteligente y redes sociales, es posible que interactúes con algún tipo de sistema automatizado e inteligente docenas de veces al día. En la mayoría de tus interacciones con la inteligencia artificial, será obvio e intencionalmente claro que el texto que lees, la voz que escuchas o la cara que ves no pertenecen a una persona real. Sin embargo, otras veces no será tan obvio.

A medida que las tecnologías automatizadas avanzan rápidamente y salen del “valle inquietante”, las llamadas de servicio al cliente, los chatbots en sitios web y las interacciones en las redes sociales pueden volverse progresivamente menos evidentemente artificiales. Esto ya está sucediendo. En 2018, Google presentó una tecnología llamada Duplex, que llama a restaurantes y salones de belleza para hacer citas en tu nombre. En ese momento, Google recibió críticas por usar una voz automatizada que suena extrañamente humana, incluso empleando muletillas vocales como “um”, sin revelar su naturaleza robótica. Paradójicamente, el Duplex actual tiene el problema opuesto. El sistema automatizado se revela a sí mismo, pero al menos el 40% de sus llamadas son atendidas por personas reales, lo que hace que los destinatarios de las llamadas confundan a esas personas reales con la inteligencia artificial.

Como argumento en un nuevo documento del Brookings Institution, existe un claro y evidente valor en exigir la divulgación de la inteligencia artificial en este caso y muchos otros. Obligar a las empresas a indicar explícitamente cuando los usuarios están interactuando con un sistema automatizado puede ayudar a reducir el fraude, mejorar el discurso político y educar al público. La credibilidad de estos sistemas se basa en modelos de inteligencia artificial del lenguaje humano, que están mejorando rápidamente. Esto es beneficioso para aplicaciones que benefician a la sociedad, como el subtitulado automático y la traducción de idiomas. Desafortunadamente, las empresas y los actores políticos encontrarán muchas razones para utilizar esta tecnología para presentar engañosamente su software como personas reales. Y las empresas tienen un incentivo para engañar: un experimento aleatorizado reciente mostró que cuando los chatbots no revelaban su naturaleza automatizada, superaban en rendimiento a los vendedores inexpertos. Cuando el chatbot revelaba su naturaleza artificial, su rendimiento de ventas disminuía en un 80%.

Es fundamental que las empresas sean transparentes y revelen cuando los usuarios están interactuando con sistemas de inteligencia artificial. Esto no solo protegerá a las personas de ser engañadas, sino que también fomentará un discurso político más honesto y educará al público sobre el uso de la inteligencia artificial en nuestras vidas diarias. La transparencia es clave para construir una relación de confianza entre los usuarios y la inteligencia artificial.

Te puede interesar