Las gafas inteligentes de Meta ahora pueden indicarte dónde aparcaste tu coche.
Meta está implementando algunas de las características previamente anunciadas para sus gafas inteligentes Ray-Ban impulsadas por inteligencia artificial, dirigidas a usuarios en Estados Unidos y Canadá.
Meta ha comenzado a desplegar algunas de las funcionalidades previamente anunciadas para sus gafas inteligentes Ray-Ban, impulsadas por inteligencia artificial, dirigidas a usuarios en Estados Unidos y Canadá. El director técnico Andrew Bosworth informó en Threads que la actualización de hoy mejora el reconocimiento de lenguaje natural, lo que significa que las órdenes estiradas como "Hey Meta, look and tell me" ahora son cosa del pasado. Los usuarios podrán interactuar con el asistente de IA sin necesidad de incluir la parte "look and" en sus comandos.
La mayoría de las herramientas de IA presentadas durante el evento Connect del mes pasado también están llegando a las gafas esta semana. Entre estas características se incluyen los mensajes de voz, temporizadores y recordatorios. Las gafas también podrán utilizarse para que Meta IA realice llamadas a números telefónicos o escanee códigos QR. El CEO Mark Zuckerberg mostró las nuevas funciones de recordatorio en un video de Instagram, ejemplificando cómo encuentran un automóvil en un garaje.
Una ausencia notable en esta actualización es la función de traducción en vivo, aunque Bosworth no proporcionó un cronograma sobre cuándo estará disponible. Las gafas inteligentes de Meta ya habían acaparado la atención más temprano el mismo día, cuando dos estudiantes de Harvard las usaron para exponer información de extraños. Gracias a la combinación de tecnología de reconocimiento facial y un modelo de procesamiento de lenguaje de gran tamaño, lograron revelar direcciones, números de teléfono, detalles de familiares y partes de números de Seguro Social.