Experiencia con las gafas inteligentes de Ray-Ban Meta
Fui a la escuela secundaria la última vez que tomé una clase de español. Recuerdo lo suficiente para hablar como un niño pequeño — frases como “¿Dónde está el baño?” y “mi gato es muy gordo” — pero tener una conversación significativa en español sin un traductor es, por supuesto, impensable. Así que me sorprendió genuinamente el otro día cuando, gracias a las gafas inteligentes Ray-Ban Meta, pude tener una conversación en su mayoría comprensible con un hablante de español sobre K-pop. Las traducciones en vivo se añadieron como parte de una actualización de funciones el mes pasado, junto con la inteligencia artificial en vivo y Shazam. Es exactamente lo que parece. Cuando activas la función, puedes tener una conversación con un hablante de español, francés o italiano, y las gafas traducirán lo que se dice directamente en tus oídos en tiempo real. También puedes ver una transcripción de la conversación en tu teléfono. Lo que digas en inglés también se traducirá al otro idioma. Faltaba la parte en la que ambos comenzamos a cantar “¡APT APT APT!”.
Funcionalidad y limitaciones de las traducciones en tiempo real
Mi conversación fue parte de una demostración facilitada por Meta. Eso no es lo mismo que simplemente ponerte estas gafas, saltar a Barcelona e intentarlo en el mundo real. Dicho esto, soy escéptico de la tecnología de traducción y tenía la intención de encontrar todos los fallos donde esta tecnología podría fallar. Las gafas fueron hábiles en traducir una conversación básica sobre bandas de K-pop. Después de que mi compañero de conversación terminara de hablar, la traducción comenzaba poco después. Esto funcionó bien si hablábamos con un ritmo medido y moderado, con solo algunas oraciones a la vez. Pero así no es como la gente habla realmente. En la vida real, empezamos con diatribas largas, perdemos el hilo de nuestros pensamientos y hablamos mucho más rápido cuando estamos enojados o emocionados.
Acreditando a Meta, consideró el enfoque para algunas de estas situaciones. Hice que mi compañero de conversación hablara a una velocidad más rápida y durante más tiempo. Se manejó la velocidad de manera decente, aunque había un retraso comprensible en la transcripción en tiempo real. Para discursos más largos, las gafas comenzaron a traducir a mitad de camino antes de que mi compañero terminara de hablar. Eso fue un poco desconcertante y incómodo, ya que tú, el oyente, debes reconocer que estás un poco atrasado. La experiencia es similar a cómo lo hacen los intérpretes en vivo en las noticias internacionales o los programas de televisión.
El desafío del Spanglish y el argot
Me impresionó mucho que las gafas pudieran manejar un poco de Spanglish. A menudo, los hablantes multilingües rara vez se adhieren a un solo idioma, especialmente cuando están en compañía de varios idiomas. En mi familia, lo llamamos Konglish (coreano-inglés), y las personas cambian de idioma, mezclando y combinando gramática de una manera caótica y funcional. Por ejemplo, mi tía a menudo pronuncia varias oraciones en coreano, introduce dos oraciones en inglés, hace otra que es una mezcla de coreano e inglés, y luego regresa al coreano. Hice que mi compañero de conversación intentara algo similar en español y… los resultados fueron mixtos.
Puedes ver que la transcripción comienza a tener dificultades con la jerga mientras intenta cambiar rápidamente entre español e inglés. Por un lado, las gafas podían manejar cambios cortos entre idiomas. Sin embargo, las incursiones más largas en inglés llevaron a que la inteligencia artificial repitiera lo que decía en inglés en mi oído. A veces, también repetía lo que yo había dicho, porque comenzaba a confundirse. Eso se volvió tan distractor que no podía concentrarme en lo que se estaba diciendo. Las gafas lucharon con el argot. Cada idioma tiene sus dialectos, y cada dialecto puede tener su propia interpretación de las expresiones coloquiales. No hay que mirar más allá de cómo los adolescentes estadounidenses nos han sometido a frases como “skibidi” y “rizz”. En este caso, las gafas no podían traducir correctamente “no manches”. Eso se traduce como “sin manchas”, pero en el español mexicano, también significa “de ninguna manera” o “¡estás bromeando!”. Las gafas eligieron la traducción literal. En esta línea, la traducción es un arte. En algunos casos, las gafas lograron transmitir el sentido correcto, pero no lograron captar algunas sutilezas de lo que se me estaba diciendo. Esta es la carga de todos los traductores, tanto los de IA como los humanos.
Limitaciones de las gafas para películas y programas extranjeros
No puedes usar estas gafas para ver películas o programas de televisión en idiomas extranjeros sin subtítulos. Vi algunos clips de Emilia Pérez, y aunque podía traducir con precisión escenas donde todos hablaban en voz alta y claramente, dejó de funcionar durante una escena donde los personajes susurraban rápidamente entre ellos en tonos bajos. Olvídate de los números musicales de la película por completo. No tendrías necesariamente estos problemas si te atienes a lo que Meta pretendía con esta función. Está claro que estas gafas fueron diseñadas principalmente para ayudar a las personas a tener interacciones básicas mientras visitan otros países — cosas como pedir direcciones, ordenar comida en un restaurante, ir a un museo o completar una transacción. En esos casos, es más probable que te encuentres con personas que hablan más despacio con la comprensión de que no eres un hablante nativo. Es un buen comienzo, pero aún sueño con el pez babel del “Guía del autoestopista galáctico” de Douglas Adams: una pequeña criatura que cuando se coloca en tu oído, puede traducir instantánea y precisamente cualquier idioma a tu propio idioma. Por ahora, eso sigue siendo el reino de la ciencia ficción.
Fuente y créditos: www.theverge.com
Cats: