En la era de la tecnología y la información, la desinformación se ha convertido en una amenaza cada vez más preocupante para nuestra sociedad. Los avances en inteligencia artificial (IA) han permitido la creación de deep fakes, contenido generado por algoritmos que es indistinguible del producido por seres humanos. Estos deep fakes se utilizan para sembrar la discordia en la sociedad y crear caos en los mercados.
La detección de desinformación por parte de la IA es importante, pero educar a las personas para que evalúen objetivamente el contenido en línea es una prioridad aún mayor. La estabilidad de nuestra sociedad está más amenazada por la desinformación que por cualquier otra cosa que podamos imaginar. Se ha convertido en una pandemia que ha afectado tanto a las economías pequeñas como a las grandes. Las personas de todo el mundo enfrentan amenazas a su vida y seguridad personal debido a la gran cantidad de información errónea cargada de emociones y división social, gran parte de la cual es impulsada por la tecnología emergente. Este contenido manipula las percepciones de las personas o propaga absolutas falsedades en la sociedad.
Los programas basados en IA se utilizan para crear deep fakes de líderes políticos mediante la adaptación de videos, audios e imágenes. Estos deep fakes pueden ser utilizados para sembrar la discordia en la sociedad y crear caos en los mercados. Además, la IA está mejorando en la generación de contenido similar al humano utilizando modelos de lenguaje como GPT-3, que pueden escribir artículos, poemas y ensayos basados en una sola línea de texto. La manipulación de todo tipo de contenido se ha vuelto tan perfecta gracias a la IA que incluso amateurs discretos pueden convertirse en epicentros de la discordia social utilizando software de código abierto como FaceSwap y DeepFaceLab.
En un momento en el que los seres humanos ya no pueden comprender en quién confiar, parece que “la tecnología para el bien” es la única salvación. Sin embargo, las herramientas basadas en IA por sí solas no son suficientes para combatir la desinformación. Si bien pueden realizar análisis lingüísticos y detectar patrones de palabras, construcción de sintaxis y legibilidad para diferenciar el contenido generado por computadora del texto producido por humanos, los algoritmos de IA están volviéndose tan sofisticados que pronto podrán producir contenido indistinguible del producido por seres humanos.
Además, estos algoritmos de análisis semántico no pueden interpretar el contenido dentro de imágenes de discurso de odio que no han sido manipuladas, pero que se comparten con un contexto erróneo o malicioso. Tampoco pueden verificar si las afirmaciones hechas por cierto contenido son falsas. Además, las barreras lingüísticas también dificultan el proceso de detección de desinformación. Básicamente, se puede evaluar el sentimiento de una publicación en línea, pero no su veracidad. Es aquí donde se requiere la intervención humana junto con la IA.
En resumen, la desinformación es una amenaza real y debemos tomar medidas para combatirla. La educación de las personas para que sean críticas y objetivas al evaluar el contenido en línea es fundamental. Además, es necesario seguir desarrollando herramientas de IA que puedan detectar deep fakes y contenido manipulado. La colaboración entre humanos y tecnología es la clave para proteger nuestra sociedad de los efectos perjudiciales de la desinformación.