La inteligencia artificial (IA) está revolucionando el mundo, al menos eso es lo que dice Silicon Valley. Sin embargo, existen algunos obstáculos en el camino hacia la utopía de la IA, y uno de ellos tiene que ver con las personas a las que se supone que la IA debe ayudar. Piensa en Skynet. Aquí presentamos una investigación desde las trincheras de la inteligencia artificial.
Las personas que trabajan en equipos hacen cosas, como decir mentiras piadosas, que pueden ayudar al equipo a tener éxito. Aceptamos eso, por lo general, cuando una persona lo hace. Pero ¿qué sucede si un bot de IA está diciendo la mentira, o si se le está diciendo una mentira a un bot? Más importante aún, si permitimos que los bots de IA le mientan a las personas, incluso mentiras piadosas, ¿cómo afectará eso a la confianza? Y si le damos permiso a los bots de IA para mentirle a las personas, ¿cómo sabemos que sus mentiras son útiles para las personas en lugar de para el bot?
Los científicos de la computación Tathagata Chakraborti y Subbarao Kambhampati de la Universidad Estatal de Arizona, discuten la colaboración efectiva entre humanos y sistemas basados en IA en un artículo reciente, ¡Algoritmos para el Bien Mayor! Señalan que no es suficiente hacer que la IA sea inteligente. Los desarrolladores de IA deben asegurarse de que el bot de IA funcione bien con la inteligencia humana, en toda su variedad salvaje, incluidas las diferentes normas culturales, si queremos evitar problemas graves. Ellos plantean el problema de la siguiente manera: “La colaboración efectiva entre humanos y sistemas basados en IA requiere una modelización efectiva del humano en el proceso… Sin embargo, estos modelos [del humano] también pueden abrir caminos para manipular y explotar al humano… cuando la intención o los valores de la IA y del humano no están alineados o cuando tienen una relación asimétrica en cuanto al conocimiento o el poder de cómputo”.
Si IBM, Intel y Nvidia tienen éxito, habrá una “relación asimétrica en cuanto al conocimiento o el poder de cómputo” cada vez mayor. Un bot podría tener un par de miles de drones inspeccionando varios kilómetros cuadrados, o un exabyte de historia y contexto relevante. O ambos. Yo, IA. Tú, títere de carne.
Los investigadores diseñaron un experimento mental para explorar las interacciones humano-humano y humano-IA en un escenario de búsqueda y rescate urbano: buscar en un piso de un edificio dañado por un terremoto. Reclutaron a 147 personas en Mechanical Turk para evaluar cómo cambian las reacciones humanas al tratar con humanos o con IA. Los escenarios involucraron diferentes tipos de influencia, incluyendo la formación de creencias, diferencias de modelo y colaboración estigmérgica. Estos no son problemas teóricos. Por ejemplo, el juramento hipocrático de un médico incluye la promesa de ocultar “la mayoría de las cosas al paciente mientras lo estás atendiendo”. Esto se hace por el bien del paciente, pero ¿qué sucede si es una IA médica la que oculta información a un paciente, o a un médico? Hay mucho en el artículo, pero el problema que encontré más preocupante es que muchas personas están de acuerdo con mentirle a una IA y, de manera recíproca, están de acuerdo con que una IA les mienta. Y, por otro lado, muchas personas no lo están. ¿Cómo se supone que un desarrollador de IA modele ESO?
Artículo original: ZDNet