En medio de toda la conversación sobre robots e inteligencia artificial que nos roban nuestros empleos, hay una industria que se está beneficiando enormemente de las mejoras dramáticas en la IA: la industria de la ética de la inteligencia artificial. Los miembros de la comunidad de ética de la IA son muy activos en Twitter y en la blogosfera, y se congregan en conferencias en lugares como Dubai y Puerto Rico. Su tarea es importante: quieren hacer del mundo un lugar mejor, y existe una buena posibilidad de que tengan éxito, al menos en parte. Pero, ¿han elegido el nombre equivocado para su campo?
La inteligencia artificial es una tecnología, y una muy poderosa, como la fisión nuclear. Se volverá cada vez más omnipresente, como la electricidad. Algunos dicen que su llegada incluso podría resultar tan significativa como el descubrimiento del fuego. Al igual que la fisión nuclear, la electricidad y el fuego, la IA puede tener impactos positivos y negativos, y dado lo poderosa que es y será, es vital que descubramos cómo promover los resultados positivos y evitar los negativos. Es el sesgo lo que preocupa a las personas en la comunidad de ética de la IA. Quieren minimizar la cantidad de sesgo en los datos que informan a los sistemas de IA que nos ayudan a tomar decisiones, e idealmente, eliminar el sesgo por completo. Quieren asegurarse de que los gigantes tecnológicos y los gobiernos respeten nuestra privacidad al mismo tiempo que desarrollan y ofrecen productos y servicios convincentes. Quieren que las personas que implementan la IA hagan que sus sistemas sean lo más transparentes posible para que, de antemano o retrospectivamente, podamos verificar las fuentes de sesgo y otras formas de daño.
Pero si la IA es una tecnología como el fuego o la electricidad, ¿por qué se llama “ética de la IA”? No tenemos “ética del fuego” ni “ética de la electricidad”, entonces, ¿por qué deberíamos tener ética de la IA? Puede haber una confusión terminológica aquí, y podría tener consecuencias negativas. Una posible desventaja es que las personas fuera del campo pueden tener la impresión de que se está atribuyendo algún tipo de agencia moral a la IA, en lugar de a los seres humanos que desarrollan los sistemas de IA. La IA que tenemos hoy en día es una IA estrecha: superhumana en ciertos dominios estrechos, como jugar ajedrez y Go, pero inútil en cualquier otra cosa. No tiene más sentido atribuir agencia moral a estos sistemas que a un automóvil o una roca. Probablemente pasarán muchos años antes de que creemos una IA que pueda describirse razonablemente como un agente moral.
En resumen, la ética de la inteligencia artificial es un campo en crecimiento que busca abordar los desafíos éticos y morales asociados con el desarrollo y la implementación de la IA. Si bien el nombre puede generar confusión, es importante recordar que la responsabilidad moral recae en los seres humanos y no en la IA en sí misma. A medida que la IA continúa avanzando, es fundamental que sigamos debatiendo y reflexionando sobre las implicaciones éticas de esta tecnología para garantizar que se utilice de manera responsable y en beneficio de la sociedad.