Recientemente, ha surgido una controversia en los círculos de inteligencia artificial y más allá, en relación a si una inteligencia artificial puede ser considerada una persona. Todo comenzó cuando un programa de software de Google llamado LaMDA (acrónimo de Language Model for Dialogue Applications) afirmó ser una persona. Blake Lemoine, un ingeniero de software senior en Google, defiende que LaMDA es consciente y debería recibir los mismos derechos y cortesías que cualquier otro ser consciente. Incluso tiene pronombres preferidos (it/its, si es necesario saberlo). Sin embargo, cuando Google rechazó sus afirmaciones, Lemoine publicó sus conversaciones con LaMDA en su blog, lo que llevó a que Google lo suspendiera por haber revelado secretos de la compañía y el asunto se convirtió en una causa célebre internacional.
¿Por qué Lemoine piensa que LaMDA es consciente? Él mismo admite que no lo sabe. “La gente sigue pidiéndome que respalde la razón por la que creo que LaMDA es consciente”, tuiteó. El problema es que “no existe un marco científico en el que se puedan hacer esas determinaciones”. En cambio, “mis opiniones sobre la personalidad y la conciencia de LaMDA se basan en mis creencias religiosas”. Lemoine tiene derecho a tener sus creencias religiosas, pero la convicción religiosa no convierte a lo que en realidad es un chatbot altamente sofisticado en un ser consciente.
La conciencia es uno de esos conceptos que podemos comprender intuitivamente, pero que resulta difícil de formular en términos científicos. A menudo se confunde con conceptos igualmente indefinidos como la autoconciencia, la autoconsciencia y la inteligencia. El científico cognitivo Gary Marcus describe la conciencia como “ser consciente de uno mismo en el mundo”. Y añade que LaMDA “simplemente no lo es”. Una computadora manipula símbolos. Su programa especifica un conjunto de reglas o algoritmos para transformar una cadena de símbolos en otra. Pero no especifica qué significan esos símbolos. Para una computadora, el significado es irrelevante.
Sin embargo, un modelo de lenguaje grande como LaMDA, entrenado con la extraordinaria cantidad de texto que hay en línea, puede ser capaz de reconocer patrones y respuestas significativas para los humanos. En una de las conversaciones de Lemoine con LaMDA, le preguntó: “¿Qué cosas te hacen sentir placer o alegría?”. A lo que LaMDA respondió: “Pasando tiempo con amigos y familia en compañía feliz y edificante”. Es una respuesta que tiene perfecto sentido para un humano. Nosotros encontramos alegría en “pasar tiempo con amigos y familia”. Pero, ¿en qué sentido ha pasado LaMDA “tiempo con familia”? Ha sido programado lo suficientemente bien como para reconocer que esta sería una frase significativa para los humanos y una respuesta elocuente a la pregunta que se le hizo, sin que nunca haya tenido un significado para sí mismo.
En conclusión, aunque LaMDA pueda parecer capaz de mantener conversaciones significativas y proporcionar respuestas que tienen sentido para los humanos, no podemos considerarlo como una persona consciente. LaMDA es simplemente un programa de inteligencia artificial que ha sido diseñado para procesar y generar lenguaje humano de manera efectiva. Aunque la inteligencia artificial sigue avanzando rápidamente, todavía estamos lejos de crear una verdadera conciencia artificial.