En el campo de la visión por computadora, hemos logrado avances significativos. Ahora, los autos autónomos equipados con inteligencia artificial (IA) pueden “ver” eficazmente su entorno. Pero, ¿podemos enseñarle a la IA a “sentir” algo sobre lo que ve? Los expertos de Getty Images creen que sí.
A primera vista, la idea de que la IA pueda “sentir” algo puede parecer bastante descabellada. Los sentimientos en general están estrechamente entrelazados con nuestra identidad humana. Cómo se siente una persona acerca de algo seguramente será diferente a cómo se siente otra. Los sentimientos son, por definición, subjetivos. De hecho, es difícil encontrar un tema más subjetivo que los “sentimientos”. Entonces, ¿cómo se relaciona esto con la funcionalidad objetiva de las computadoras?
La solución es relativamente sencilla, según Andrea Gagliano, una científica de datos senior de Getty Images. Al igual que un programa de visión por computadora aborda el problema de identificación descomponiendo una imagen en características constituyentes (o vectores) y comparándolas con entidades conocidas, Getty está entrenando algoritmos de redes neuronales profundas para buscar ciertos elementos en las propias imágenes y así obtener pistas sobre las emociones que los humanos les atribuirán.
El truco, según Gagliano, es codificar esas diversas emociones humanas en vectores que se asocian con las imágenes. Para cada emoción o sentimiento que los científicos de datos de Getty seleccionan, como “auténtico” o “en el momento”, la empresa reunirá una colección de imágenes que representen de alguna manera ese sentimiento o emoción. Cada imagen tiene entre 100 y 1,000 características o variables que se utilizan para construir ese vector, que luego se puede utilizar para inferir nuevas imágenes.
Una vez construidos, los modelos se pueden utilizar para generar palabras clave más precisas que ayudarán a los usuarios a encontrar las imágenes, explica Gagliano. “Desde una perspectiva de visión por computadora, estamos desarrollando metadatos más ricos, tanto como una representación matemática de diferentes partes de nuestras imágenes, ya sea la comprensión semántica de la imagen o cosas relacionadas con las personas”, dice.
Además de generar palabras clave más precisas, los vectores se pueden utilizar para crear diferentes grupos de imágenes que correspondan a ciertos sentimientos o estados de ánimo. Por ejemplo, la empresa busca utilizar características de alta dimensionalidad para representar sentimientos como “auténtico” o “en el momento”, señala Gagliano.
En resumen, aunque pueda parecer sorprendente, la IA está avanzando en su capacidad para “sentir” emociones. Getty Images está utilizando algoritmos de redes neuronales profundas para identificar elementos en las imágenes que puedan dar pistas sobre las emociones humanas asociadas a ellas. Esto no solo mejora las palabras clave para encontrar imágenes, sino que también permite agruparlas según sentimientos o estados de ánimo específicos. El futuro de la IA y la visión por computadora promete ser aún más emocionante.