Los desafíos éticos y legales de la inteligencia artificial

La inteligencia artificial (IA) ha demostrado ser una herramienta poderosa para las empresas, y Google no es una excepción. Durante la llamada de ganancias de la empresa matriz Alphabet, el CEO Sundar Pichai destacó cómo la tecnología de aprendizaje automático de Google ha mejorado la coincidencia de anuncios con las preferencias de los consumidores, lo que ha contribuido al aumento de los ingresos de la compañía.

Sin embargo, lo que Pichai no mencionó es que la IA también puede plantear desafíos éticos y legales para las empresas. Alphabet, consciente de esto, incluyó por primera vez una advertencia en su informe anual presentado ante la Comisión de Valores y Bolsa de Estados Unidos. En este informe, se señala que los nuevos productos y servicios que incorporan o utilizan inteligencia artificial y aprendizaje automático pueden generar desafíos éticos, tecnológicos, legales y otros, que podrían afectar negativamente la demanda de los productos y servicios de la compañía, así como sus ingresos y resultados operativos.

Esta advertencia es parte de los requisitos legales que obligan a las empresas a revelar posibles problemas futuros a los inversores. Además de cumplir con esta obligación, también permite a las empresas prevenir demandas legales alegando que ocultaron problemas potenciales.

Aunque no está claro por qué los abogados de valores de Alphabet decidieron incluir esta advertencia en su informe anual, es importante destacar que Google ha estado investigando y publicando investigaciones sobre las cuestiones éticas planteadas por la IA durante varios años. La compañía también ha estado probando vehículos autónomos en carreteras públicas desde 2009.

Alphabet se presenta como líder en investigación de IA, pero Microsoft fue seis meses más rápido en advertir a los inversores sobre los riesgos éticos de la tecnología. En su informe anual presentado en agosto pasado, Microsoft incluyó un lenguaje más detallado sobre los riesgos éticos de la IA, advirtiendo sobre posibles deficiencias en los algoritmos, la insuficiencia o sesgo de los conjuntos de datos y las prácticas de datos inapropiadas que podrían afectar la aceptación de las soluciones de IA.

Tanto Microsoft como Alphabet han experimentado desafíos éticos relacionados con la IA en el pasado. Microsoft se disculpó después de que se descubriera que su servicio en la nube era menos preciso al detectar el género de las mujeres afroamericanas en comparación con los hombres blancos en las fotos. Por su parte, Google se vio obligado a abandonar un contrato con el Pentágono debido a protestas de sus empleados, y también tuvo que censurar su servicio de Fotos después de que se confundiera a personas negras con gorilas.

Estos casos demuestran que la IA puede tener consecuencias no deseadas y plantear desafíos éticos y legales para las empresas. Es importante que las empresas inviertan en la investigación y el desarrollo de prácticas éticas en la IA, así como en la implementación de salvaguardias para evitar posibles problemas. Solo de esta manera podrán aprovechar al máximo los beneficios de la IA sin comprometer su reputación y resultados financieros.

Te puede interesar