Las traducciones en vivo de las gafas inteligentes de Meta funcionan adecuadamente, aunque no siempre.
A veces, tuvo un buen desempeño.
Recientemente, utilicé unas gafas inteligentes de Ray-Ban y Meta que me sorprendieron al permitir me comunicar, aunque de manera limitada, con un hablante de español sobre un tema que me apasiona: el K-pop. Esta funcionalidad de traducción en tiempo real fue parte de una actualización lanzada el mes pasado, la cual también incluyó características de inteligencia artificial y Shazam. Al activar esta función, se puede mantener una conversación con personas que hablan español, francés o italiano, y las gafas traducen lo que se dice directamente a los oídos del usuario. Además, se puede ver una transcripción de la conversación en el teléfono móvil.
Es relevante mencionar que mi interacción fue parte de una demostración organizada por Meta, por lo que no es lo mismo que probar las gafas en un ambiente real. A pesar de ser escéptico sobre la tecnología de traducción, observé que las gafas eran capaces de traducir conversaciones básicas sobre bandas de K-pop de manera efectiva. Sin embargo, esta eficacia se reduce cuando la velocidad de habla aumenta o cuando se utilizan oraciones largas, situaciones que son comunes en la comunicación cotidiana.
En una de las pruebas, solicité a mi interlocutor que hablara más rápido y en un formato más extenso. Aunque las gafas podrían seguir el ritmo decente, había cierto retraso en la transcripción en tiempo real. Cuando se hablaba durante largos períodos, comenzaban a traducir a mitad de la intervención de mi compañero, lo cual resultaba un poco confuso.
Otro aspecto interesante fue cómo las gafas manejaron la mezcla de idiomas, lo que en mi entorno familiar se conoce como Konglish (una fusión de coreano e inglés). Al intentar imitar esta mezcla en español, los resultados fueron variados. Las gafas lograban manejar breves cambios de idioma, pero a medida que la conversación se extendía, la inteligencia artificial a veces repetía lo que se había dicho en inglés, lo que resultaba distractor.
La adaptación a modismos y slang también fue un reto. Por ejemplo, la frase mexicana "no manches", que expresa sorpresa o incredulidad, fue traducida literalmente a "no stain", lo cual no captó el significado correcto. Este tipo de matices muestra cuán complejo puede ser el arte de la traducción, ya sea realizada por humanos o por inteligencia artificial.
Por otro lado, intenté usar las gafas para seguir fragmentos de una película en otro idioma. Si bien funcionaron bien con diálogos claros y diáfanos, tuvieron problemas en escenas donde los personajes hablaban en susurros o se comunicaban de manera más rápida.
En general, las gafas parecen estar diseñadas para facilitar interacciones simples, como pedir direcciones o hacer pedidos en restaurantes, donde es más probable que las personas hablen más lentamente. Aunque representan un avance interesante, sigo soñando con un dispositivo de traducción instantánea y precisa como el pez babel de Douglas Adams, que aún permanece en el ámbito de la ciencia ficción.