La Inteligencia Artificial (IA) ha demostrado ser capaz de realizar tareas impresionantes, como reconocer rostros, traducir entre diferentes idiomas y vencer a los mejores jugadores humanos en juegos como Go, ajedrez y póker. Sin embargo, una de las limitaciones de la IA es su falta de capacidad para explicar sus propias decisiones.
La IA es un software que puede aprender a partir de datos o experiencias para realizar predicciones. Un programador especifica los datos de los cuales el software debe aprender y escribe un conjunto de instrucciones, conocido como algoritmo, sobre cómo el software debe hacerlo, pero no dicta exactamente qué debe aprender. Esto es lo que le da a la IA gran parte de su poder: puede descubrir conexiones en los datos que serían más complicadas o sutiles de lo que un humano podría encontrar. Sin embargo, esta complejidad también significa que la razón por la cual el software llega a una conclusión particular a menudo es en gran parte opaca, incluso para sus propios creadores.
Para los fabricantes de software que esperan vender sistemas de IA, esta falta de claridad puede ser perjudicial para los negocios. Es difícil para los humanos confiar en un sistema que no pueden entender, y sin confianza, las organizaciones no estarán dispuestas a invertir grandes sumas de dinero en software de IA. Esto es especialmente cierto en campos como la atención médica, las finanzas y la aplicación de la ley, donde las consecuencias de una mala recomendación son más importantes que, por ejemplo, cuando Netflix pensó que podrías disfrutar viendo “The Hangover Part III”.
La regulación también está impulsando a las empresas a solicitar una IA más explicativa. En los Estados Unidos, las leyes de seguros requieren que las compañías puedan explicar por qué negaron la cobertura a alguien o le cobraron una prima más alta que a su vecino. En Europa, el Reglamento General de Protección de Datos que entró en vigencia en mayo otorga a los ciudadanos de la Unión Europea el “derecho a una revisión humana” de cualquier decisión algorítmica que los afecte. Si el banco rechaza tu solicitud de préstamo, no puede simplemente decirte que la computadora dijo que no; un empleado del banco debe poder revisar el proceso que la máquina utilizó para rechazar la solicitud de préstamo o realizar un análisis separado.
En respuesta a esto, los proveedores de software y los integradores de sistemas de TI han comenzado a promocionar su capacidad para brindar a los clientes información sobre cómo piensan los programas de IA. IBM, por ejemplo, ofrece software de IA basado en la nube que puede decirle a un cliente los tres a cinco factores que un algoritmo ponderó más en la toma de una decisión. También puede rastrear el linaje de los datos, diciéndole a los usuarios de dónde provienen los fragmentos de información utilizados por el algoritmo. Esto puede ser importante para detectar sesgos. IBM también ofrece herramientas que ayudarán a las empresas a eliminar campos de datos que pueden ser discriminatorios, como la raza, y otros puntos de datos que pueden estar estrechamente correlacionados con esos factores, como los códigos postales.
Otras empresas, como Quantum Black, Accenture, Deloitte, KPMG, Google y Microsoft, también están trabajando en herramientas y soluciones para mejorar la explicabilidad de los algoritmos de IA y detectar y corregir sesgos.
En conclusión, la explicabilidad en la IA es un tema crucial para ganar la confianza de los usuarios y las organizaciones. A medida que la IA se utiliza cada vez más en campos sensibles, como la salud y las finanzas, es fundamental que los sistemas de IA sean capaces de explicar sus decisiones de manera comprensible y transparente. Esto no solo es importante para cumplir con las regulaciones, sino también para garantizar la confianza y la aceptación de la IA en la sociedad.