OpenAI anuncia GPT-4o: su IA más avanzada hasta ahora estará disponible gratuitamente en ChatGPT

15 de Mayo de 2024

Durante su evento de actualizaciones de primavera, OpenAI reveló GPT-4o, la versión más avanzada de su modelo de inteligencia artificial hasta ahora. Estará disponible para todos los usuarios de ChatGPT, tanto en la versión gratuita como en la de pago.

Radio Viva Fenix OpenAI ha dado un paso significativo este lunes con la presentación de GPT-4o, su modelo de lenguaje más avanzado hasta el momento. Esta nueva versión de su IA presenta "inteligencia al nivel de GPT-4", pero con habilidades superiores para interpretar audio e imágenes.
 
Durante la presentación, Mira Murati, directora de tecnología de la startup, explicó que el nuevo modelo estará disponible para todos los usuarios de ChatGPT. Esto implica que la tecnología se implementará tanto en las versiones de pago como en la gratuita del chatbot.
 
Uno de los principales beneficios de GPT-4o es su capacidad para procesar audio e imágenes de manera nativa. Esto permitió a la compañía realizar varias demostraciones en vivo, incluyendo algunas con prompts proporcionados por seguidores de X (Twitter).
 
Lo más notable de GPT-4o es que permite una interacción más conversacional con ChatGPT usando la voz. Así, los usuarios pueden interrumpir al modelo de lenguaje a mitad de una respuesta para modificar el prompt original, sin experimentar demoras ni problemas de latencia.
 
Los ingenieros de OpenAI también demostraron que GPT-4o puede interpretar en tiempo real lo que capta la cámara de un smartphone. Esto permitió a ChatGPT ayudar a resolver una ecuación lineal y detectar las emociones de una persona al ver su rostro.
 
OpenAI informó que el despliegue de GPT-4o será gradual. En el contexto de ChatGPT, las capacidades de texto e imágenes de la nueva inteligencia artificial estarán disponibles desde hoy. Como se mencionó, estarán accesibles para los usuarios de la versión gratuita y las versiones de pago como ChatGPT Plus, que tendrán límites de mensajes cinco veces más altos. Radio Viva Fenix El Modo Voz (Voice Mode) de GPT-4o estará disponible en versión alpha para los suscriptores de ChatGPT Plus en las próximas semanas. Cabe destacar que el acceso a esta tecnología no se limitará al chatbot de OpenAI. El modelo de lenguaje también estará disponible a través de la API de la compañía. Sam Altman anunció en X (Twitter) que GPT-4o costará la mitad, será el doble de rápido y tendrá límites cinco veces más altos que GPT-4 Turbo a través de la API.
 
Según OpenAI, la "o" de GPT-4o se refiere a "omni". Durante la presentación, se mencionó que esta inteligencia artificial es un omnimodelo debido a su capacidad de interactuar, combinar, comprender y ofrecer respuestas en texto, audio y vídeo.
 
Los desarrolladores afirmaron que GPT-4o puede responder a solicitudes de voz con una latencia de apenas 232 milisegundos, aunque el promedio es de 320 milisegundos. Esto representa una mejora notable en comparación con GPT-4, cuyo promedio de respuesta en Modo Voz era de 5,4 segundos.
 
GPT-4o iguala el rendimiento de GPT-4 Turbo en el manejo de código y texto en inglés. Además, introduce "mejoras significativas" al trabajar con otros idiomas. Durante la presentación, se mostró cómo la IA traducía una conversación en tiempo real entre inglés e italiano.
 
En términos de seguridad, OpenAI reconoce que las nuevas capacidades de GPT-4o pueden presentar nuevos riesgos. Por ello, su liberación al público general será gradual. A partir de hoy, los usuarios de ChatGPT podrán utilizar esta IA con texto e imágenes como métodos de entrada, pero solo con texto como método de salida. Las respuestas con audio se implementarán más adelante y se limitarán inicialmente a un conjunto de voces preseleccionadas.
 
La startup dirigida por Sam Altman también ha publicado un vídeo que muestra las limitaciones del Modo Voz de GPT-4o. Entre los principales problemas se destaca la falta de comprensión de ciertos prompts en idiomas diferentes al inglés o mezclando lenguajes en sus respuestas.

Escrito por: Daniel Martín

⇒Foto: Hipertextual

NOTICIAS RELEVANTES

Mediante una acción popular, se pretende que los concejales de Bogotá tomen una decisión clave

26 de Julio de 2024

Mediante una acción popular presentada ante el Tribunal Administrativo de Cundinamarca, se busca...

Seguir leyendo →

Regiotram de Occidente: Solucionaría los embotellamientos en las calles 80 y 13

27 de Julio de 2024

En Bogotá, se están desarrollando varios proyectos de movilidad que buscan solucionar los...

Seguir leyendo →

El sindicato de actores anuncia una huelga en el sector de los videojuegos

26 de Julio de 2024

El Sindicato de Actores de Cine-Federación Estadounidense de Artistas de Radio y Televisión...

Seguir leyendo →
Radio Viva Fenix



VIVO
VIVO
VIVO
VIVO
VIVO
VIVO
VIVO