La inteligencia artificial (IA) se ha convertido en una herramienta cada vez más utilizada por las empresas para desbloquear su potencial y obtener beneficios. Sin embargo, a medida que las empresas se apresuran a implementar la IA en sus operaciones, a menudo se pasan por alto los riesgos únicos asociados con esta tecnología.
Un ejemplo impactante de los peligros de la IA se encuentra en el desastroso caso de la misión Apollo 13. Los investigadores descubrieron que un evento aparentemente insignificante ocurrido dos años antes fue la causa raíz de este casi desastre nacional. Los ingenieros que manipulaban uno de los dos tanques de oxígeno construidos para el módulo de servicio dejaron caer accidentalmente uno de ellos. La distancia total de esta caída: dos pulgadas. En contraste, muchos de nosotros hemos dejado caer nuestros teléfonos móviles desde una altura mucho mayor y han sobrevivido. Sin embargo, en el caso de Apollo 13, esta pequeña caída causó daños estructurales que desencadenaron una serie de fallas que casi matan a tres astronautas.
El problema radica en que las empresas a menudo no consideran los riesgos únicos asociados con la IA. A diferencia del software tradicional, la IA no se implementa, sino que se aplica. Esto significa que en cada etapa del proceso de ciencia de datos, surgen riesgos novedosos sobre los cuales tenemos un conocimiento limitado como industria.
El modelo de “operación” utilizado para los sistemas de TI tradicionales no se aplica a la IA. La IA debe ser monitoreada, entrenada y reentrenada de manera dinámica como parte de un proceso iterativo, mientras que el software se adquiere, instala y mantiene como parte de un programa predecible con límites claros. Esta diferencia tiene implicaciones para la gobernanza, los controles, los recursos, los indicadores clave de rendimiento (KPI) y las operaciones continuas necesarias.
Es crucial que las empresas comprendan los riesgos asociados con la IA antes de embarcarse en iniciativas de implementación. No hacerlo sería como darle las llaves de un automóvil a un niño de 11 años y sugerirle que conduzca. Es una idea absurda e irresponsable.
En resumen, la IA ofrece grandes oportunidades para las empresas, pero también conlleva riesgos únicos que deben ser abordados adecuadamente. Las empresas deben ser conscientes de la necesidad de una gobernanza sólida, controles adecuados y una comprensión profunda de los riesgos emergentes en cada etapa del proceso de implementación de la IA.