OpenAI ha anunciado el lanzamiento del nuevo modo de voz de ChatGPT. La esperada funcionalidad estará disponible durante el transcurso de esta semana para todos los usuarios de las suscripciones de pago Plus y Team. Este despliegue, sin embargo, llega acompañado de un asterisco que no pasa desapercibido: si te encuentras en uno de los países de la Unión Europea (UE), el Reino Unido, Suiza, Islandia, Noruega o Liechtenstein, tendrás que seguir esperando.
La compañía liderada por Sam Altman presentó el nuevo modo de voz de ChatGPT en mayo de este año. En aquel momento prometió que una versión alfa llegaría tan pronto como en “las próximas semanas”, pero eso finalmente no ocurrió. OpenAI retrasó el lanzamiento limitado inicial hasta el pasado mes julio para abordar cuestiones relacionadas a la seguridad. Ahora, finalmente, empieza a estar disponible para todos, y lo hace con varias novedades.
El esperado modo de voz ya está aquí
OpenAI ha retirado la capacidad de la función de imitar cómo hablan otras personas, pero ha añadido mejoras como instrucciones personalizadas que nos permitirán ajustar cómo responde el sistema, memoria para recodar información importante de interacciones anteriores y cinco nuevas voces. Recordemos que la voz “Sky”, cuyas características eran similares a las de Scarlett Johansson, protagonista de ‘Her’, fue retirada en medio de una polémica con la actriz.
Como suele ocurrir con este tipo de lanzamientos, el despliegue se realiza por etapas. Una vez que el modo de voz avanzado esté disponible para ti, recibirás una notificación en ChatGPT como la que puedes ver en la imagen de abajo. El paso siguiente será pulsar en Continuar y elegir tu voz favorita. Además, como indicamos anteriormente, tendrás la posibilidad de incluir tus propias instrucciones personalizada desde el apartado configuración.
Estamos frente a un salto notable en comparación con el modo de voz original de ChatGPT. No solo podremos conversar de manera mucho más natural con el chatbot, sino que también disfrutaremos de menos latencia. A nivel técnico, esto se debe a que anteriormente se convertía la voz en texto, GPT-4 procesaba ese texto y la respuesta se convertía nuevamente en voz. GPT-4o es un modelo multimodal, por lo que todo se procesa directamente.
Cabe señalar que el modo de voz que empieza a llegar a casi todos los países del mundo a partir de hoy también será algo diferente al que vimos en la demostración inicial. OpenAI todavía tiene pendiente incorporar las capacidades de visión, es decir, aquellas que le permiten a la aplicación ver el mundo a través de la cámara de nuestro dispositivo y enriquecer las interacciones. Se espera que esta capacidad llegue “en una fecha posterior”.
Sobre el lanzamiento en la UE, desde OpenAI no han brindado demasiados detalles. La compañía se ha limitado a decir que “aún no está disponible en la UE, el Reino Unido, Suiza, Islandia, Noruega y Liechtenstein”. Esto quiere decir que no tenemos una fecha de lanzamiento prevista para esta región del planeta. Tampoco sabemos a ciencia cierta los motivos de esta decisión, pero todo parece indicar que es consecuencia directa de la obsesión regulatoria del bloque.
Imágenes | OpenAI
En Xataka | La Unión Europea se queda fuera de los próximos grandes modelos de IA de Meta. El motivo: la regulación