¿Es necesario regular la inteligencia artificial?

Diciembre fue un mes importante para los defensores de la regulación de la inteligencia artificial (IA). Primero, un grupo bipartidista de senadores y representantes presentó el proyecto de ley Futuro de la IA, el primer proyecto de ley federal centrado exclusivamente en la IA. Este proyecto de ley crearía un comité asesor para hacer recomendaciones sobre la IA, incluyendo el impacto de la tecnología en la fuerza laboral estadounidense y estrategias para proteger los derechos de privacidad de aquellos que se ven afectados. Luego, el Concejo de la Ciudad de Nueva York aprobó un proyecto de ley único en su tipo que, una vez firmado, creará un grupo de trabajo para examinar su propio uso de sistemas de toma de decisiones automatizados, con el objetivo final de hacer que el uso de algoritmos sea más justo y transparente.

Tal vez no sea una coincidencia que estos esfuerzos también se superpongan con llamados cada vez mayores para regular la inteligencia artificial, junto con afirmaciones de personas como Elon Musk y Stephen Hawking de que representa una amenaza para la supervivencia literal de la humanidad. Sin embargo, esta presión para una legislación amplia que regule la IA es prematura.

Para empezar, incluso los expertos no pueden ponerse de acuerdo en lo que exactamente constituye la inteligencia artificial. Tomemos como ejemplo el informe reciente publicado por el Instituto AI Now, que tiene como objetivo crear un marco para implementar éticamente la IA. Aunque el informe se centra en la IA, también reconoce que no existe una definición comúnmente aceptada de la IA, que describe vagamente como “un conjunto amplio de tecnologías… que tradicionalmente han dependido de las capacidades humanas”.

“Inteligencia artificial” se utiliza con demasiada frecuencia como un término abreviado para software que simplemente hace lo que los humanos solían hacer. Pero reemplazar la actividad humana es precisamente lo que logran las nuevas tecnologías: las lanzas reemplazaron a los garrotes, las ruedas reemplazaron a los pies, la imprenta reemplazó a los escribas, y así sucesivamente. Lo nuevo de la IA es que esta tecnología no solo reemplaza las actividades humanas externas a nuestros cuerpos, sino que también reemplaza la toma de decisiones humanas dentro de nuestras mentes.

Los desafíos creados por esta novedad no deben ocultar el hecho de que la IA en sí misma no es una sola tecnología, ni siquiera un solo desarrollo singular. Regular un conjunto de tecnologías que no podemos definir claramente es una receta para leyes deficientes y tecnología aún peor.

De hecho, los desafíos que plantea la IA no son del todo nuevos. Ya hemos regulado con éxito en el pasado, solo que no lo llamábamos “inteligencia artificial”. En la década de 1960 y 1970, por ejemplo, la industria financiera comenzó a depender de modelos estadísticos complejos y bases de datos computarizadas enormes para tomar decisiones de crédito, automatizando lo que antes era un proceso más manual de aprobar o denegar créditos a los prestatarios. Los desafíos éticos y legales asociados con estos modelos captaron tanto la atención del público que en el verano de 1970, la revista Newsweek publicó un artículo de portada titulado “¿Está muerta la privacidad?”, detallando el “ataque masivo” de las computadoras a la sociedad moderna. La creciente conciencia de esa amenaza llevó a amplios llamados que hacen eco de las propuestas modernas para regular la IA. “Eventualmente, tenemos que establecer una agencia para regular las computadoras”, dijo el senador Sam Ervin de Carolina del Norte en 1970.

En resumen, si bien es importante considerar la regulación de la inteligencia artificial, es crucial tener en cuenta la complejidad y la falta de una definición clara de la IA. La regulación prematura podría llevar a leyes ineficaces y tecnología deficiente. En cambio, debemos aprender de la regulación exitosa del pasado y abordar los desafíos éticos y legales de la IA de manera informada y reflexiva.

Te puede interesar