📱 OpenAI ha presentado un nuevo modelo, GPT-4oEste modelo es más rápido y ya está disponible para todos los usuarios.
GPT-4o ("o" de "omni") es el último modelo insignia de IA de OpenAI que puede manejar entradas y salidas de texto, audio y visión en un solo modelo multimodal.
Ofrece varias mejoras sobre GPT-4:
🟢 Velocidad de procesamiento significativamente más rápida, aproximadamente 2 veces más rápida que GPT-4 Turbo.
🟢 Menor costo, al 50% del precio de GPT-4 Turbo para acceso a la API,
🟢 Mejor comprensión del lenguaje en 50 idiomas.
🟢 Puede participar en conversaciones de voz en tiempo real con baja latencia, alrededor de 300ms.
🟢 Capacidad para percibir y discutir imágenes/visuales de una manera más natural.
Según las mediciones en benchmarks tradicionales,
GPT-4o alcanza el rendimiento del nivel GPT-4 Turbo en texto, razonamiento e inteligencia de codificación, mientras establece nuevos puntos de referencia en capacidades multilingües, de audio y visión.
🗣 Capacidades de VozGPT-4o ahora integra estas modalidades, reduciendo la latencia y mejorando la capacidad de respuesta en tiempo real. Esto significa que puedes interrumpir al modelo durante las interacciones. También puede detectar y expresar sus propios emociones y tonos, lo que le permite ser altamente dramático o robótico. Incluso puede cantar si se desea.
El bot puede traducir idiomas en tiempo real. Durante
la demostración, se tradujo sin problemas entre inglés e italiano.
👀 Capacidades de VisiónChatGPT ahora puede leer tus emociones directamente desde la cámara. Como un psicólogo experimentado, la IA detecta incluso las expresiones faciales más sutiles y ajusta hábilmente la conversación, cambiando su tono de voz. Cuando
GPT-4o comete un error, responde con humor en lugar de depender de plantillas preescritas.
📤 ¿Qué sigue?Estas características subrayan el potencial de
GPT-4o para convertirse en una herramienta esencial cotidiana para una audiencia global.
ℹ️ Presentación del modelo#OpenAI #news @hiaimediaes