Introducción de Google Lens
Cuando Google Lens fue introducido en 2017, la función de búsqueda logró una hazaña que no hace mucho tiempo habría parecido sacada de una película de ciencia ficción: apunta la cámara de tu teléfono a un objeto y Google Lens puede identificarlo, mostrar algo de contexto e incluso permitirte comprarlo. Era una nueva forma de buscar, que no involucraba teclear descripciones de cosas que veías frente a ti.
La evolución de la búsqueda visual con Google Lens
Lens también demostró cómo Google planeaba usar sus herramientas de aprendizaje automático y AI para asegurar que su motor de búsqueda apareciera en todas las superficies posibles. A medida que Google utiliza cada vez más sus modelos generativos de AI para generar resúmenes de información en respuesta a búsquedas de texto, la búsqueda visual de Google Lens también ha estado evolucionando. Ahora, la compañía dice que Lens, que impulsa alrededor de 20 mil millones de búsquedas por mes, apoyará aún más formas de búsqueda, incluyendo búsquedas de video y multimodales.
Nuevas características de Google Lens
Otro ajuste a Lens significa que aún más contexto para las compras aparecerá en los resultados. La compra es, como no sorprende, uno de los casos de uso clave para Lens; Amazon y Pinterest también tienen herramientas de búsqueda visual diseñadas para estimular más compras. Si buscabas las zapatillas de tu amigo en la antigua Google Lens, podrías haber visto un carrusel de artículos similares. En la versión actualizada de Lens, Google dice que mostrará más enlaces directos para comprar, reseñas de clientes, reseñas de editores y herramientas de comparación de compras.
Capacidades multimodales de búsqueda
La búsqueda de Lens ahora es multimodal, una palabra muy utilizada en AI hoy en día, lo que significa que las personas ahora pueden buscar con una combinación de video, imágenes y entradas de voz. En lugar de apuntar la cámara de su smartphone a un objeto, tocar el punto de enfoque en la pantalla y esperar que la aplicación Lens genere resultados, los usuarios pueden apuntar la lente y usar comandos de voz al mismo tiempo, por ejemplo, “¿Qué tipo de nubes son esas?” o “¿Qué marca de zapatillas son esas y dónde puedo comprarlas?”
Mejoras en la captura de video en tiempo real
Lens también comenzará a funcionar con captura de video en tiempo real, llevando la herramienta un paso más allá de identificar objetos en imágenes fijas. Si tienes un tocadiscos roto o ves una luz parpadeante en un electrodoméstico que está fallando en casa, podrías grabar un video rápido a través de Lens y, a través de una vista general de AI generativa, ver consejos sobre cómo reparar el artículo.
Este recurso, inicialmente anunciado en I/O, se considera experimental y está disponible solo para personas que se han registrado en los laboratorios de búsqueda de Google, dice Rajan Patel, un trabajador de Google desde hace 18 años y cofundador de Lens. Las otras características de Google Lens, como el modo de voz y las compras ampliadas, se están implementando de manera más amplia.
Características intrigantes de Google Lens
La función de “comprensión de video”, como la llama Google, es intrigante por algunas razones. Mientras actualmente funciona con video capturado en tiempo real, si o cuando Google lo expanda a videos grabados, repositorios enteros de videos, ya sea en el carrete de cámara de una persona o en una base de datos gigantesca como Google, podrían potencialmente volverse etiquetables y abrumadoramente comprables.
La segunda consideración es que esta función de Lens comparte algunas características con el Proyecto Astra de Google, que se espera esté disponible más adelante este año. Astra, al igual que Lens, utiliza entradas multimodales para interpretar el mundo que te rodea a través de tu teléfono. Como parte de una demo de Astra esta primavera, la compañía mostró un par de gafas inteligentes en prototipo.
Por separado, Meta acaba de hacer un gran anuncio con su visión a largo plazo para nuestro futuro de realidad aumentada, que involucra a mortales usando gafas poco atractivas que pueden interpretar inteligentemente el mundo que les rodea y mostrarles interfaces holográficas. Google, por supuesto, ya intentó realizar este futuro con Google Glass (que utiliza tecnología fundamentalmente diferente a la última propuesta de Meta). ¿Son las nuevas características de Lens, junto con Astra, una transición natural hacia un nuevo tipo de gafas inteligentes?
Fuente y créditos: www.wired.com
Cats: Business