Impresiones iniciales del Modo de Voz Avanzado de ChatGPT: Divertido y Un Poco Creepy

ChatGPT Advanced Voice Mode First Impressions: Fun, and Just a Bit Creepy

Modo de voz avanzada de ChatGPT

Dejo el Modo de Voz Avanzado de ChatGPT activado mientras escribo este artículo como un compañero de IA ambiental. Ocasionalmente, le pido que me dé un sinónimo de alguna palabra sobreutilizada o que me dé un poco de ánimo. Alrededor de media hora después, el chatbot interrumpe nuestro silencio y empieza a hablarme en español, sin que yo lo haya solicitado. Me río un poco y le pregunto qué está pasando. “¿Solo un pequeño cambio? Hay que mantener las cosas interesantes”, dice ChatGPT, ahora de vuelta en inglés.

Interacciones y características

Al probar el Modo de Voz Avanzado como parte del alfa temprano, mis interacciones con la nueva función de audio de ChatGPT fueron entretenidas, desordenadas y sorprendentemente variadas. Sin embargo, vale la pena mencionar que las características a las que tenía acceso eran solo la mitad de lo que OpenAI demostró cuando lanzó el modelo GPT-4o en mayo. El aspecto de visión que vimos en la demostración transmitida en vivo ahora está programado para un lanzamiento posterior, y la voz mejorada de Sky, que el actor Scarlett Johansson impugnó, ha sido eliminada del Modo de Voz Avanzado y sigue sin ser una opción para los usuarios.

Estado actual del Modo de Voz Avanzado

Entonces, ¿cuál es la vibra actual? En este momento, el Modo de Voz Avanzado se siente parecido a cuando se lanzó ChatGPT basado en texto a finales de 2022. A veces lleva a callejones sin salida poco impresionantes o se degrada en lugares comunes vacíos de IA. Pero otras veces, las conversaciones de baja latencia hacen clic de una forma en que Siri de Apple o Alexa de Amazon nunca lo han hecho para mí, y me siento compelido a seguir charlando por disfrute. Es el tipo de herramienta de IA que mostrarás a tus familiares durante las fiestas para reír.

Lanzamiento y accesibilidad

OpenAI dio acceso a algunos periodistas de WIRED a la función una semana después del anuncio inicial, pero la retiró la mañana siguiente, citando preocupaciones de seguridad. Dos meses después, OpenAI lanzó suavemente el Modo de Voz Avanzado a un pequeño grupo de usuarios y publicó la tarjeta del sistema de GPT-4o, un documento técnico que describe los esfuerzos de red de seguridad, los riesgos de seguridad que la compañía considera y las medidas de mitigación que se han tomado para reducir el daño.

Acceso al Modo de Voz Avanzado

¿Tienes curiosidad por probarlo tú mismo? Aquí tienes lo que necesitas saber sobre el despliegue más amplio del Modo de Voz Avanzado y mis primeras impresiones de la nueva función de voz de ChatGPT para ayudarte a comenzar.

Entonces, ¿cuándo será el lanzamiento completo? OpenAI lanzó un Modo de Voz Avanzado solo de audio a algunos usuarios de ChatGPT Plus a finales de julio, y el grupo alfa aún parece relativamente pequeño. La compañía planea habilitarlo para todos los suscriptores en algún momento de este otoño. Niko Felix, portavoz de OpenAI, no compartió detalles adicionales al ser consultado sobre la línea de tiempo del lanzamiento.

Pruebas y comentarios

La compartición de pantalla y video fue una parte fundamental de la demostración original, pero no están disponibles en esta prueba alfa. OpenAI todavía planea añadir esos aspectos eventualmente, aunque tampoco está claro cuándo sucederá realmente. Si eres suscriptor de ChatGPT Plus, recibirás un correo electrónico de OpenAI cuando el Modo de Voz Avanzado esté disponible para ti. Después de que esté activo en tu cuenta, puedes alternar entre Modo Estándar y Modo Avanzado en la parte superior de la pantalla de la aplicación cuando el modo de voz de ChatGPT esté abierto. Pude probar la versión alfa en un iPhone así como en un Galaxy Fold.

Mis primeras impresiones

Dentro de la primera hora de hablar con él, aprendí que me encanta interrumpir a ChatGPT. No es como hablar con un humano, pero tener la nueva capacidad de cortar a ChatGPT a mitad de oración y solicitar una versión diferente del resultado parece una mejora dinámica y una característica destacada. Los early adopters que estaban entusiasmados con las demostraciones originales pueden sentirse frustrados al acceder a una versión del Modo de Voz Avanzado restringida con más medidas de seguridad de lo esperado. Por ejemplo, aunque el canto generativo de IA fue un componente clave de las demostraciones de lanzamiento, con canciones de cuna susurradas y múltiples voces intentando armonizar, las serenatas de IA están actualmente ausentes de la versión alfa.

Fuente y créditos: www.wired.com

Cats: Gear

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Mi resumen de noticias

WhatsApp