En una entrevista reciente, el director ejecutivo de Google, Sundar Pichai, afirmó que las empresas tecnológicas que desarrollan inteligencia artificial deben tener en cuenta la ética desde el principio del proceso. Según Pichai, es fundamental asegurarse de que la inteligencia artificial, con su “propia agencia”, no cause daño a las personas.
Pichai reconoció que los temores sobre la inteligencia artificial son válidos, pero también afirmó que la industria tecnológica está preparada para regularse a sí misma. En la entrevista, Pichai hizo hincapié en la importancia de considerar la ética desde el inicio del desarrollo de la inteligencia artificial, en lugar de intentar solucionar los problemas una vez que ya esté implementada.
Google, una de las principales empresas en el desarrollo de inteligencia artificial, compite en la carrera de software inteligente con gigantes como Amazon, Apple, Microsoft, IBM y Facebook. Pichai afirmó que las preocupaciones sobre los posibles usos perjudiciales de la inteligencia artificial son “muy legítimas”, pero también expresó su confianza en que la industria puede regular su propio uso.
En junio, Google publicó un conjunto de principios internos sobre inteligencia artificial, siendo el primero de ellos que la inteligencia artificial debe ser socialmente beneficiosa. La empresa se comprometió a no diseñar ni implementar inteligencia artificial para su uso en armas, vigilancia fuera de las normas internacionales o tecnología destinada a violar los derechos humanos. Sin embargo, Google seguirá colaborando con el ejército y los gobiernos en áreas como la ciberseguridad, la formación, el reclutamiento, la atención médica y las operaciones de búsqueda y rescate.
La inteligencia artificial ya se utiliza para reconocer personas en fotografías, filtrar contenido no deseado en plataformas en línea y permitir que los automóviles se conduzcan solos. Sin embargo, el creciente desarrollo de la inteligencia artificial ha generado un debate sobre si las computadoras que pueden pensar por sí mismas ayudarán a solucionar los problemas del mundo o si se volverán en contra de la humanidad, como se ha representado en obras de ciencia ficción.
En resumen, la ética en la inteligencia artificial es un desafío importante para las empresas tecnológicas. Es fundamental que estas empresas consideren los aspectos éticos desde el inicio del proceso de desarrollo de la inteligencia artificial, y no solo intenten solucionar los problemas una vez que ya esté implementada. La regulación de la inteligencia artificial en sus primeras etapas puede resultar difícil, pero es responsabilidad de las empresas tecnológicas autorregularse. Google ha dado un primer paso al publicar sus principios internos sobre inteligencia artificial, pero aún queda mucho por hacer para garantizar un uso ético y beneficioso de esta tecnología.