Mochis NoticiasTecnologíaOpenAI retrasa la mejora del modo de voz avanzado de ChatGPT
Mochis NoticiasTecnologíaOpenAI retrasa la mejora del modo de voz avanzado de ChatGPT
Tecnología

OpenAI retrasa la mejora del modo de voz avanzado de ChatGPT

OpenAI retrasa la mejora del modo de voz avanzado de ChatGPT

OpenAI retrasa la mejora del modo de voz avanzado de ChatGPT

La compañía dijo que necesita más tiempo para preparar la función para un lanzamiento alfa y quiere asegurarse de que pueda «detectar y rechazar cierto contenido».

OpenAI ha retrasado una actualización del ‘modo de voz avanzado’ para ChatGPT diciendo que necesita más tiempo para preparar la función para su lanzamiento.

A diferencia de la opción de voz actual de ChatGPT, que simplemente lee las respuestas del chatbot, esta mejora le dará a ChatGPT una voz más humana y la capacidad de responder a indicaciones de voz en tiempo real.

La compañía reveló detalles sobre esta función de modo de voz con la actualización GPT-4o y planeó llevar esta función a «un pequeño grupo de usuarios de ChatGPT Plus» este mes. Pero en una actualización de X, OpenAI dijo que necesita otro mes para «alcanzar nuestro listón para el lanzamiento».

«Por ejemplo, estamos mejorando la capacidad del modelo para detectar y rechazar cierto contenido», dijo OpenAI. «También estamos trabajando para mejorar la experiencia del usuario y preparar nuestra infraestructura para escalar a millones mientras mantenemos respuestas en tiempo real».

OpenAI dijo que todavía planea lanzar esta función como versión alfa con un «pequeño grupo de usuarios» para recopilar comentarios. Su objetivo es que todos los usuarios de ChatGPT Plus tengan acceso a esta función en el otoño, pero dijo que el cronograma exacto variará.

«También estamos trabajando para implementar las nuevas capacidades de video y uso compartido de pantalla que mostramos por separado, y los mantendremos informados sobre ese cronograma», dijo OpenAI.

La compañía afirma que la actualización del modo de voz avanzado permitirá a ChatGPT comprender y responder a «emociones y señales no verbales», lo que permitirá a los usuarios tener conversaciones más naturales con la IA.

Algunos lectores pueden pensar en la película ‘Ella’ cuando imaginan este tipo de largometraje. Por supuesto, OpenAI también lo hizo, ya que se acercaron a Scarlett Johansson, la voz de la IA en la película, el año pasado para nombrar una de sus próximas voces de ChatGPT, según Johansson.

Ella rechazó esta oferta, pero cuando se reveló la función de voz el mes pasado, muchos espectadores sintieron que una de las voces, Sky, era muy similar a Johansson. Poco después de que se contabilizaran los votos, el director ejecutivo de OpenAI, Sam Altman, puso la palabra «ella» en X, presumiblemente una referencia a la película que dijo anteriormente que es su favorita.

Después de enfrentar críticas por la similitud y una posible demanda de Johansson, OpenAI retiró la voz de Sky y dijo que las voces de IA no deberían imitar deliberadamente la voz distintiva de una celebridad.

Descubra cómo las tendencias tecnológicas emergentes se están transformando el mañana con nuestro nuevo podcast, Future Human: The Series. Escucha ahora Spotifyen Manzana o dondequiera que obtengas tus podcasts.

Source link

Hi, I’m Corina Guzman

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *