La Inteligencia Artificial (IA) es una tecnología que ha avanzado rápidamente en los últimos años y ha comenzado a tener un impacto significativo en nuestra sociedad. Sin embargo, su crecimiento también ha generado preocupaciones sobre su seguridad y el potencial riesgo que podría representar en manos equivocadas.
Un nuevo informe sugiere que, para garantizar la seguridad de una sociedad cada vez más dependiente de la IA, es necesario mantenerla en manos de unos pocos seleccionados. Sin embargo, esta decisión podría causar más daño que beneficio.
En el informe, 20 investigadores de diversas organizaciones enfocadas en el futuro, como OpenAI, Endgame, la Electronic Frontier Foundation, el Instituto de Futuro de la Humanidad de Oxford y el Centro para una Nueva Seguridad Americana, expresan el temor de que, en manos equivocadas, la IA podría causar la caída de la sociedad. De hecho, el informe describe varios escenarios, como estafas de phishing más inteligentes, epidemias de malware y asesinos robots, que aún no han ocurrido, pero que no parecen estar muy lejos de la posibilidad.
Es por eso que argumentan que los detalles internos de la IA deben mantenerse en secreto, para evitar que la tecnología caiga en manos de personas malintencionadas. El informe sugiere que una agencia reguladora o la propia comunidad de investigación de IA podrían lograr esto considerando “diferentes modelos de apertura”. Estos modelos cambiarían la comunidad de investigación de IA del actual entorno de creciente transparencia, donde la publicación de algoritmos o su liberación como código abierto se está volviendo más común. En cambio, los investigadores recomiendan abstenerse o retrasar la publicación de los hallazgos de la IA para restringir su difusión a partes que los utilizarían con intenciones menos admirables.
Probablemente todos estemos de acuerdo en que no es una buena idea facilitar el camino para que actores maliciosos utilicen la IA. Una reciente oleada de ataques cibernéticos en todo el mundo ciertamente demuestra que están ahí fuera y dispuestos a utilizar cualquier herramienta disponible. Sin embargo, restringir el acceso a la IA no evitará que las personas malintencionadas la obtengan. De hecho, podría dificultar que las personas intenten utilizarla para hacer el bien.
En primer lugar, los investigadores no dicen mucho sobre la probabilidad de que ocurran los escenarios tipo Black Mirror que describen. Como señaló el analista británico Jon Collins en un blog en Gigaom, “todos podemos imaginar escenarios de desastre, pero no es hasta que aplicamos nuestra experiencia y conocimiento para evaluar el riesgo que podemos priorizar y (con suerte) mitigar cualquier riesgo que surja”. Además, la investigación en inteligencia artificial ya está envuelta en secreto. Las empresas, desde Google hasta Microsoft y Amazon, en su mayoría ocultan sus algoritmos bajo la protección de la información propietaria. Hoy en día, la mayoría de los investigadores de IA no han podido replicar los estudios de IA, lo que dificulta que los investigadores establezcan su confiabilidad científica.
En conclusión, si bien es comprensible la preocupación por la seguridad de la IA, restringir su acceso y mantenerla en secreto no parece ser la solución. En cambio, es importante fomentar la transparencia y la colaboración en la investigación de la IA, para que podamos comprender mejor sus riesgos y beneficios, y trabajar juntos para mitigar cualquier posible peligro. La IA tiene el potencial de transformar nuestra sociedad de muchas maneras positivas, pero solo si la abordamos de manera responsable y ética.


