Según un autor, nuestra civilización solo tiene 730 años restantes. Lo siento. Pero te han advertido. La inteligencia artificial llevará al fin de la raza humana. Esta afirmación provocadora fue discutida recientemente en una cena organizada por la Fundación Edge, una asociación que fomenta la conversación entre intelectuales de la ciencia y la tecnología. Durante la cena, me encontré sentado entre un grupo de físicos, astrólogos, historiadores, filósofos, tecnólogos y futuristas de diversas variedades y pedigríes. Dada la diversidad y el prestigio del grupo, decidí hacer una pregunta provocadora que parecía probable que uniera sus diversas disciplinas y posiblemente provocara un debate tragicómico. En resumen, ¿la inteligencia artificial llevará al fin de la raza humana?
Esta no era una pregunta trivial. En la última década, hemos entregado nuestras vidas a las redes informáticas y a los dispositivos inteligentes. Cada aspecto de la civilización humana, desde nuestros teléfonos hasta las granjas, las redes eléctricas y los mercados de valores, los automóviles y los sistemas de guía de misiles, se ha entrelazado con líneas de código. La gran infraestructura de nuestra existencia nunca ha sido tan vulnerable a la manipulación por fuerzas externas, o tal vez, un día no muy lejano, a la manipulación por sí misma.
Me sorprendieron dos aspectos de sus respuestas. En primer lugar, nadie en la mesa parecía sorprendido, sorprendido o desconcertado por la pregunta. En segundo lugar, todos respondieron de inmediato y al unísono, “sí”, como si estuvieran cantando la misma nota baja en un coro. Esta respuesta sinóptica fue seguida por un momento de silencio reflexivo alrededor de la mesa, como si lo inevitable ya hubiera sucedido y ahora estuviéramos rindiendo homenaje cerebral a aquellos que habían perecido durante el fin de la civilización. No estaba seguro de cómo responder, así que le pedí a alguien que explicara más a fondo. ¿Realmente vamos a ser asesinados por la tecnología, me pregunté? Y luego lancé una serie de preguntas frenéticas: ¿Cómo? ¿Cuándo?
En este momento, aún no está claro cómo podríamos destruirnos a nosotros mismos. Sin embargo, es algo en lo que las mentes más brillantes del país están correctamente obsesionadas. Y muchos, al parecer, son pesimistas sobre los posibles resultados. No estamos lejos del día en que podríamos construir ejércitos de robots sofisticados, drones o nanorobots que podrían ser liberados en el mundo. Tampoco es difícil imaginar cómo estos robots podrían ser diseñados intencionalmente para destruir, o cómo una inteligencia artificial aparentemente “buena” (programas diseñados para ayudar a los humanos) podría convertirse en “mala” debido a hackers que podrían, por ejemplo, instruir a enjambres de drones de entrega de UPS o paseadores de perros robóticos o flotas de taxis sin conductor para castigarnos sin piedad. (Estos son algunos de los temores que atormentan a Elon Musk, el principal profeta de la inteligencia artificial en Silicon Valley, quien en 2015 cofundó la organización sin fines de lucro OpenAI para ayudar a investigar salvaguardias a medida que la tecnología avanza. “Con la inteligencia artificial, estamos invocando al demonio”, dijo Musk a Vanity Fair el año pasado. “¿Sabes todas esas historias en las que hay un tipo con un pentagrama y agua bendita y está seguro de que puede controlar al demonio? No funciona”.)
En conclusión, el futuro de la inteligencia artificial plantea desafíos y preocupaciones significativas para la humanidad. A medida que nos adentramos en una era cada vez más dominada por la tecnología, es crucial que consideremos cuidadosamente las implicaciones y los posibles riesgos. La inteligencia artificial tiene el potencial de mejorar nuestras vidas de muchas maneras, pero también debemos estar preparados para abordar los peligros que puede presentar. La colaboración entre científicos, tecnólogos, filósofos y otros expertos es fundamental para garantizar que desarrollemos y utilicemos la inteligencia artificial de manera responsable y segura.


