La Cámara Google Clips: Una Nueva Forma de Capturar Momentos

El pasado octubre, Google presentó una cámara automática llamada Google Clips. La cámara Clips fue diseñada para no tomar ninguna foto hasta que detecte rostros o encuadres que reconozca como una buena imagen. Esta cámara inteligente ha sido diseñada para capturar momentos espontáneos de personas y mascotas familiares utilizando inteligencia artificial en el dispositivo.

Google comenzó a vender la cámara el fin de semana a un precio de $249 (aproximadamente 16,200 Rs) y, ya está “agotada” en la tienda de productos de Google. ¿Cómo entiende la cámara Google Clips qué hace una fotografía hermosa y memorable?

En una publicación de blog, Josh Lovejoy, Diseñador de Experiencia de Usuario de Google, explicó el proceso que su equipo utilizó para integrar un “enfoque centrado en el ser humano” y un “producto impulsado por inteligencia artificial”. Google quiere que la cámara evite tomar varias fotos de los mismos sujetos y encuentre una o dos buenas. Con el aprendizaje automático centrado en el ser humano, la cámara puede aprender y seleccionar fotos que sean significativas para los usuarios.

Para alimentar ejemplos en los algoritmos de la cámara y así identificar las mejores imágenes, Google contrató a fotógrafos profesionales. Contrataron a un cineasta documental, un fotoperiodista y un fotógrafo de bellas artes para recopilar datos visuales y entrenar la red neuronal que impulsa la cámara Clips. Josh Lovejoy escribió: “Juntos, comenzamos a recopilar imágenes de personas del equipo y tratamos de responder a la pregunta, ‘¿Qué hace un momento memorable?'”

Es importante destacar que Google admite que entrenar una cámara como Clips nunca puede ser perfecto, sin importar cuántos datos se proporcionen al dispositivo. Puede reconocer una toma bien encuadrada y enfocada, pero podría perder algún evento importante. Sin embargo, en el blog, Lovejoy dice: “¡Pero es precisamente esta ambigüedad lo que hace que el aprendizaje automático sea tan útil! Es lo que nos ayuda a crear declaraciones ‘si’ mucho más sólidas y dinámicas, donde podemos diseñar algo como ‘cuando algo se parece un poco a x, haz y'”.

El blog describe cómo los ingenieros de experiencia de usuario de la compañía han logrado aplicar una nueva herramienta para incorporar el diseño centrado en el ser humano en proyectos como la cámara Clips. En otra publicación de blog en Medium, Josh Lovejoy explicó los siete principios fundamentales detrás del aprendizaje automático centrado en el ser humano.

También es interesante destacar que Elon Musk, director ejecutivo de Tesla, SpaceX y SolarCity, en octubre se burló de la cámara Google Clips diciendo: “Esto ni siquiera parece inocente”.

Fuente del artículo: Gadgets NDTV

Te puede interesar