El peligro de la inteligencia artificial sin control

Hace dos años, mi empresa estaba en crisis. Lo que he aprendido desde entonces ha cambiado drásticamente la trayectoria de nuestro negocio para mejor y me ha hecho consciente de una amenaza significativa que enfrentan las instituciones en todas partes: la falta de control sobre lo que la inteligencia artificial (IA) está aprendiendo y cómo está funcionando. El potencial de que la IA se desvíe ha sido noticia. Cuando Google Photos se lanzó, incluía una función que categorizaba automáticamente las fotos a través del aprendizaje automático. En poco tiempo, esa función comenzó a etiquetar a las personas negras como “gorilas”. Los usuarios quedaron consternados y Google se apresuró a corregir el error y controlar los daños. Un año después, el bot de Twitter de IA de Microsoft también sorprendió a los consumidores con su comportamiento aprendido por máquina. Solo 16 horas después de su lanzamiento, la conversación del bot había pasado de una charla amistosa a ataques racistas y misóginos a los usuarios. Microsoft lo cerró rápidamente. Estas historias alimentan los temores públicos de que las máquinas superinteligentes aniquilen a la humanidad algún día, pero este tipo de catastrofismo es mejor dejarlo en Hollywood. Para el resto de nosotros, especialmente aquellos que lideran negocios, la amenaza de la inteligencia artificial no controlada no se trata de crisis existenciales a largo plazo, es real, es ahora y presenta riesgos masivos.

Las empresas carecen de control sobre su IA. En la carrera por aprovechar el aprendizaje automático y la IA, los esfuerzos se centran en gran medida en la creación e implementación, con poco enfoque en el desarrollo de sistemas de control para detectar y corregir errores. Aún más preocupante es la invisibilidad de la mayoría de estos errores; a diferencia de los fracasos de alto perfil mencionados anteriormente, los sistemas de IA en la mayoría de las empresas no están sujetos a un escrutinio suficiente o continuo. Las fallas se propagan fácilmente y es posible que nunca se detecten. Es posible que creas que este riesgo no se aplica a tu empresa, donde un equipo está desarrollando algoritmos básicos para abordar objetivos comerciales específicos, pero el problema a menudo radica en los datos. Incluso los desarrolladores más capaces no pueden compensar datos poco confiables, y los datos poco confiables alimentados en el aprendizaje automático conducen a fallas que son rápidamente amplificadas por el propio aprendizaje automático. Considera el trabajo de la investigadora del MIT, Joy Buolamwini, quien evaluó la tecnología de reconocimiento facial de primer nivel de IBM y otros. Estos sistemas podían categorizar correctamente el género del 99% de los hombres blancos, pero cuando se les pidió que hicieran lo mismo para mujeres de piel más oscura, solo acertaron el 65% de las veces. La falta de control de la IA significaba que nadie identificó esta falla antes del estudio de Buolamwini. Cuando consideramos aplicaciones del mundo real, como en un cruce fronterizo o en un banco, donde las personas están sujetas a evaluación, es evidente que nuestra incapacidad para controlar los sistemas de aprendizaje automático podría tener consecuencias graves, sin importar lo “bueno” que sea el sistema.

Es fundamental que las empresas tomen medidas para controlar y supervisar de manera efectiva la inteligencia artificial que utilizan. Esto implica desarrollar sistemas de control que puedan detectar y corregir errores, así como realizar un seguimiento continuo del rendimiento de la IA. Además, es esencial garantizar que los datos utilizados para entrenar a los algoritmos sean confiables y representativos de la diversidad de la población. Solo a través de un enfoque riguroso y responsable hacia la IA podemos mitigar los riesgos y aprovechar al máximo su potencial.

En resumen, la falta de control sobre la inteligencia artificial presenta riesgos significativos para las empresas y la sociedad en general. Es crucial que las organizaciones reconozcan esta amenaza y tomen medidas para garantizar que la IA se utilice de manera responsable y ética. Solo a través de un enfoque cuidadoso y una supervisión constante podemos evitar los errores y las consecuencias negativas que pueden surgir de la IA sin control.

Te puede interesar