En 2002, la película de ciencia ficción Minority Report nos dio una visión ficticia de la vida en 2054. Inicialmente, la película evoca una sociedad utópica perfecta donde la inteligencia artificial (IA) se combina con la tecnología de vigilancia para el bienestar de la humanidad. Supuestamente, la IA previene el crimen utilizando las predicciones de tres precogs que visualizan asesinatos antes de que ocurran y permiten a la policía actuar en base a esa información. “Los precogs nunca se equivocan. Pero ocasionalmente, no están de acuerdo”, dice el científico principal de la película. Estos desacuerdos resultan en informes minoritarios, relatos de futuros alternativos, a menudo donde el crimen en realidad no ocurre. Pero estos informes se desechan convenientemente y, a medida que avanza la historia, se ponen en peligro vidas inocentes. En última instancia, la película nos muestra un futuro donde las predicciones hechas por la IA son inherentemente poco confiables e ineficaces.
Ahora, Minority Report puede ser ficción, pero la tecnología de IA en constante evolución no lo es. Y aunque no hay psíquicos involucrados en el mundo real, la película destaca un desafío clave para la IA y los algoritmos: ¿qué sucede si producen resultados falsos o dudosos? ¿Y si estos resultados tienen consecuencias irreversibles? Las decisiones algorítmicas se toman en una “caja negra”. Las autoridades de la industria y el gobierno ya mantienen y analizan grandes colecciones de conjuntos de datos interrelacionados que contienen información personal. Las compañías de seguros ahora recopilan datos de salud y rastrean comportamientos de conducción para personalizar las tarifas de seguro. Las fuerzas del orden utilizan fotos de licencias de conducir para identificar posibles criminales y los centros comerciales analizan las características faciales de las personas para dirigir mejor la publicidad. Si bien recopilar información personal para adaptar un servicio individual puede parecer inofensivo, estos conjuntos de datos suelen ser analizados por algoritmos en una “caja negra”, donde la lógica y la justificación de las predicciones son opacas. Además, es muy difícil saber si una predicción se basa en datos incorrectos, datos que se han recopilado ilegal o éticamente, o datos que contienen suposiciones erróneas.
La tecnología de IA y los algoritmos tienen el potencial de mejorar nuestras vidas de muchas maneras, pero también plantean desafíos éticos y de confiabilidad. Es fundamental que se establezcan regulaciones y estándares claros para garantizar que la IA y los algoritmos se utilicen de manera responsable y transparente. Además, es importante que las personas sean conscientes de cómo se utilizan sus datos personales y tengan el derecho de acceder y corregir cualquier información incorrecta o injusta que se utilice para tomar decisiones algorítmicas.
En resumen, la inteligencia artificial y los algoritmos son herramientas poderosas, pero también deben ser utilizados con precaución y responsabilidad. La transparencia y la ética deben ser prioritarias al desarrollar y utilizar estas tecnologías para garantizar que no se produzcan resultados falsos o injustos que puedan tener consecuencias irreversibles.


