OpenAI introduce su controvertido asistente de voz para ChatGPT
1 de Agosto de 2024
La versión inicial del asistente de voz para ChatGPT ya está disponible, pero únicamente para un grupo selecto de usuarios con suscripción Plus.

Después de anunciar un retraso debido a preocupaciones de seguridad, OpenAI ha comenzado a desplegar el asistente de voz para ChatGPT. Este nuevo servicio está siendo ofrecido inicialmente a un pequeño grupo de usuarios que tienen la membresía de ChatGPT Plus. El asistente incluirá cuatro voces diferentes, aunque ninguna tan distintiva como la de Scarlett Johansson.
La empresa de inteligencia artificial anunció en su cuenta de X (anteriormente Twitter) que el Modo de Voz estará disponible primero para los usuarios de ChatGPT Plus. Impulsado por GPT-4, el asistente promete ofrecer conversaciones en tiempo real que son más naturales y con poca latencia. Los usuarios podrán hacer preguntas usando su voz y tendrán la capacidad de interrumpir la IA en cualquier momento.
Según OpenAI, el asistente de voz estará disponible en una fase alfa para un número selecto de suscriptores de ChatGPT Plus. Aquellos que sean seleccionados recibirán una notificación por correo electrónico y en la aplicación móvil. Aunque el modo de voz ofrecerá cuatro voces preestablecidas, no podrá imitar la voz de otras personas para evitar posibles problemas legales.
OpenAI ha mencionado que los datos recogidos durante esta fase alfa se utilizarán para mejorar la seguridad y la experiencia del usuario. Sin embargo, el asistente de voz tendrá algunas limitaciones en su lanzamiento inicial. La compañía confirmó que las funciones para compartir videos y pantallas no estarán disponibles de inmediato, pero se agregarán en una actualización futura.
Originalmente, OpenAI planeaba lanzar la primera versión alfa a finales de junio, pero tuvo que retrasar el lanzamiento del asistente de voz. La empresa explicó que necesitaban un mes adicional para alcanzar los estándares de seguridad y fiabilidad requeridos antes de poner en marcha sus servicios.
"Desde que mostramos por primera vez el modo de voz avanzado, hemos trabajado para mejorar la seguridad y la calidad de las conversaciones de voz mientras nos preparamos para llevar esta tecnología de vanguardia a millones de personas", declaró OpenAI. "Para proteger la privacidad de los usuarios, hemos entrenado el modelo para que utilice solo las cuatro voces preestablecidas y hemos implementado sistemas para bloquear cualquier salida que difiera de esas voces".
Escrito por: Daniel Martín
⇒Foto: Hipertextual