Presentamos OpenAI o3 y o4-mini
Nuestros modelos más inteligentes y con más capacidades hasta ahora, y con acceso a todas las herramientas
Hoy, lanzamos OpenAI o3 y o4-mini, las últimas novedades dentro nuestros modelos de la serie o. Es decir, aquellos entrenados para pensar durante más tiempo antes de responder. De hecho, se trata de los modelos más inteligentes que hemos lanzado hasta la fecha, y esto representa un avance decisivo en las capacidades que ChatGPT ofrece a todo el mundo, desde los simples curiosos hasta los investigadores avanzados. Es más, por primera vez, nuestros modelos con capacidad de razonamiento pueden usar y combinar, de forma autónoma, todas las herramientas de ChatGPT. En otras palabras, pueden usar la búsqueda web, analizar los archivos que sube el usuario y otros datos con Python, razonar en profundidad sobre entradas de datos visuales e, incluso, generar imágenes. Lo más importante es que estos modelos están entrenados para razonar sobre cuándo y cómo usar las herramientas para ofrecer respuestas detalladas y bien reflexionadas en el formato de salida correspondiente para resolver problemas más complejos. Generalmente, lo hacen en menos de un minuto. De esta forma, pueden abordar preguntas polifacéticas con mayor eficacia, y esto supone un paso hacia un ChatGPT más autónomo que pueda realizar tareas por ti de forma independiente. Gracias a su capacidad de combinar el razonamiento más avanzado con el acceso total a las herramientas, ofrecen un rendimiento significativamente mayor en las pruebas comparativas académicas y en las tareas de la vida real. Por lo tanto, establecen un nuevo estándar tanto en inteligencia como en utilidad.
OpenAI o3 es nuestro modelo con capacidad de razonamiento más potente, y amplía las fronteras de la programación, las matemáticas, la ciencia, la percepción visual y muchas áreas más. Establece una nueva puntuación SOTA en pruebas comparativas como Codeforces, SWE-bench (sin tener que crear un scaffold específico para el modelo) y MMMU. Es perfecto para consultas complejas que requieren un análisis polifacético y para las que las respuestas pueden no ser obvias a primera vista. Su rendimiento destaca, especialmente, en las tareas visuales como el análisis de imágenes, tablas y gráficos. En las evaluaciones que los expertos externos han llevado a cabo, o3 comete un 20 % menos de errores importantes que OpenAI o1 en tareas complejas de la vida real. De hecho, destaca especialmente en áreas como la programación, los negocios o consultorías y las ideas creativas. Los primeros testers destacaron, principalmente, su rigor analítico como herramienta de pensamiento y su capacidad para generar y evaluar de forma crítica hipótesis novedosas. En especial, en el ámbito de la biología, las matemáticas y la ingeniería.
OpenAI o4-mini es un modelo más pequeño, pero optimizado para ofrecer un razonamiento rápido y rentable. Además, alcanza un rendimiento sorprendente si tenemos en cuenta su tamaño y coste, especialmente en tareas visuales, matemáticas y de programación. Es el modelo con mejor rendimiento en las pruebas comparativas de AIME 2024 y 2025. En las evaluaciones que han llevado a cabo los expertos, también supera a su predecesor, o3‑mini, en tareas que no están relacionadas con las STEM y en otras áreas, como la ciencia de datos. Así pues, gracias a su eficiencia, o4-mini es compatible con límites de uso más altos que los de o3, lo que lo convierte en una opción robusta de alto rendimiento para grandes volúmenes de preguntas que requieran un mayor razonamiento.
Los evaluadores expertos externos consideraron que ambos modelos muestran una mejor capacidad para seguir las instrucciones y ofrecen respuestas más útiles y verificables que sus predecesores, gracias a su inteligencia mejorada y a la inclusión de los recursos web. Además, si los comparamos con iteraciones anteriores de nuestros modelos con capacidad de razonamiento, estos dos modelos también deberían resultar más naturales y amenos. Sobre todo, porque hacen referencia a la memoria y a conversaciones anteriores para que las respuestas sean más personalizadas y tengan más sentido.
Multimodal
Programación
Seguimiento de las instrucciones y uso autónomo de herramientas
Evaluamos todos los modelos en configuraciones de «reasoning effort» similares a variantes como «o4-mini-high» en ChatGPT.
Durante el desarrollo de OpenAI o3, nos hemos dado cuenta de que el aprendizaje por refuerzo a gran escala muestra la misma tendencia de «más computación = mejor rendimiento» que observamos en el preentrenamiento de la serie GPT. Así pues, al repetir el proceso de escalamiento, pero esta vez en el RL, hemos incrementado aún más tanto el entrenamiento de la computación como el razonamiento en el momento de la inferencia. Y, aun así, se observa un claro aumento del rendimiento, lo que confirma que el rendimiento de los modelos mejora cuanto más se les permite pensar. De esta forma, con la misma latencia y coste que OpenAI o1, o3 ofrece un mejor rendimiento en ChatGPT. Además, hemos comprobado que, si se le deja pensar durante más tiempo, su rendimiento sigue aumentando.
También hemos entrenado a ambos modelos para que usen herramientas mediante el aprendizaje por refuerzo. No solo les enseñamos a utilizarlas, sino también a razonar sobre cuándo hacerlo. Su capacidad de usar herramientas basadas en los resultados que buscan, los hace más capaces de resolver problemas abiertos, especialmente, los que están relacionados con el razonamiento visual y los flujos de trabajo en varios pasos. Nuestros primeros testers indican que estas mejoras se reflejan tanto en las pruebas comparativas académicas como en las tareas del mundo real.

Por primera vez, estos modelos pueden integrar imágenes directamente en su cadena de pensamiento. Ya no se limitan a «ver» una imagen, ahora piensan con ella. Esto abre la puerta a una nueva manera de resolver problemas que combina el razonamiento visual y textual, lo que se demuestra en su rendimiento avanzado en las pruebas comparativas multimodales.
Así pues, los usuarios pueden subir una foto de una pizarra, un diagrama de un libro de texto o un boceto dibujado a mano, y el modelo puede interpretarlo sin importar si la imagen está borrosa, invertida o tiene baja calidad. Y, gracias al uso de herramientas, los modelos pueden manipular las imágenes en el acto. Pueden rotarlas, hacer zoom o transformarlas como parte de su proceso de razonamiento.
Estos modelos ofrecen una precisión sobresaliente en tareas de percepción visual. Gracias a ello, pueden resolver problemas que, anteriormente, estaban fuera de su alcance. Lee el artículo sobre el razonamiento visual para descubrir más.
Tanto OpenAI o3 como o4-mini tienen acceso completo a las herramientas de ChatGPT. Además, también pueden acceder a tus propias herramientas personalizadas gracias a la solicitud de funciones de la API. Y, como estos modelos están entrenados para razonar sobre cómo resolver los problemas y para elegir cuándo y cómo utilizar las herramientas, producen respuestas más detalladas y pensadas en los formatos de salida adecuados de forma rápida (normalmente, en menos de un minuto).
Por ejemplo, un usuario podría preguntar: «How will summer energy usage in California compare to last year?» (¿Cómo será el consumo de energía en California este verano comparado con el año pasado?). El modelo puede buscar en internet los datos de los servicios públicos, escribir un código en Python que le permita elaborar una previsión, generar un gráfico o una imagen y explicar los factores clave de la previsión, y así encadena varias solicitudes a la herramienta. El razonamiento permite que los modelos puedan reaccionar y adaptarse en función de la información que encuentren. Un ejemplo de esto es que pueden hacer búsquedas en internet varias veces gracias a los proveedores de búsqueda, consultar los resultados allí y hacer nuevas búsquedas si necesitan más información.
Este enfoque flexible y estratégico hace que los modelos puedan enfrentarse a tareas que requieren acceso a información actualizada (que no está incluida en los conocimientos que tienen incorporados), a un razonamiento ampliado, a la síntesis y a la generación de resultados en diferentes modalidades.
Todos los ejemplos se han completado con OpenAI o3.
OpenAI o3
OpenAI o1
OpenAI o3 obtiene la respuesta correcta sin utilizar la búsqueda web, mientras que o1 no consigue ofrecer una respuesta correcta.
Nuestros avances en modelos de razonamiento económicos
Coste vs. rendimiento: o3-mini y o4-mini


Coste vs. rendimiento: o1 y o3


OpenAI o3 y o4-mini son los modelos más inteligentes que hemos lanzado hasta la fecha. Además, a menudo son más eficientes que sus predecesores OpenAI o1 y o3‑mini. Por ejemplo, en la competición de matemáticas AIME 2025, la relación entre coste y rendimiento de o3 mejora claramente con respecto a la de o1. De igual forma, la relación de o4-mini mejora claramente frente a la de o3‑mini. En términos generales, esperamos que, cuando se usen en la vida real, o3 y o4-mini sean más inteligentes y económicos que o1 y o3‑mini, respectivamente.
Como es de esperar, cada mejora en las funciones del modelo conlleva mejoras proporcionales en la seguridad. En el caso de OpenAI o3 y o4-mini, nos hemos encargado de reconstruir nuestros datos de entrenamiento de seguridad por completo. Hemos añadido nuevos prompts de rechazo en áreas como las amenazas biológicas (riesgos biológicos), la generación de malware o los jailbreaks. Con la ayuda de estos datos actualizados, o3 y o4-mini han obtenido muy buenos resultados en nuestras pruebas comparativas internas de rechazo (por ejemplo, la jerarquía de instrucciones, jailbreaks, etc.). Además de obtener buenos resultados en los rechazos que lleva a cabo el modelo, también hemos desarrollado mitigaciones de sistema para identificar prompts peligrosos en las áreas de riesgo emergentes. Al igual que en nuestro trabajo anterior en la generación de imágenes, hemos entrenado un supervisor de LLM con capacidad de razonamiento que trabaja con especificaciones de seguridad que los humanos pueden escribir e interpretar. Cuando se aplicó al área de riesgo biológico, este supervisor identificó con éxito alrededor del 99 % de las conversaciones en la campaña del equipo rojo humano.
Además, hemos sometido a ambos modelos a pruebas de estrés con nuestro programa de seguridad más estricto hasta la fecha. Siguiendo nuestromarco de preparación actualizado, hemos evaluado o3 y o4-mini en las tres categorías de seguimiento que se incluyen en el marco: biológica y química, ciberseguridad y la automejora de la IA. En función de los resultados de estas evaluaciones, hemos determinado que tanto o3 como o4-mini todavía se sitúan por debajo del umbral de riesgo «Alto» del marco en esas tres categorías. Hemos publicado los resultados de estas evaluaciones al detalle en la tarjeta del sistema anexa.
También queremos compartir un nuevo experimento: Codex CLI, un agente de programación sencillo que puedes ejecutar desde tu terminal. Funciona directamente en tu ordenador y está diseñado para potenciar al máximo las capacidades de razonamiento de modelos como o3 y o4-mini. Además, será compatible con modelos de la API adicionales, como GPT‑4.1.
Puedes aprovechar las ventajas del razonamiento multimodal desde la cadena de comandos al darle al modelo capturas de pantalla o bocetos con baja calidad, además de acceso a tu código de forma local. Lo interpretamos como una interfaz mínima que conecta a nuestros modelos con los usuarios y sus ordenadores. Codex CLI es de código abierto y ya lo puedes encontrar engithub.com/openai/codex(se abre en una ventana nueva).
Simultáneamente, estamos lanzando una iniciativa de un millón de dólares para apoyar proyectos que usen Codex CLI y modelos de OpenAI. Nos encargaremos de evaluar y aceptar cada solicitud para la subvención en incrementos de 25 000 dólares en forma de créditos de la API. Si tienes una propuesta, puedes presentarla aquí.
A partir de hoy, en lugar de o1, o3‑mini y o3‑mini‑high, los usuarios de ChatGPT Plus, Pro y Team podrán ver o3, o4-mini y o4-mini-high en el selector de modelos. Los usuarios de ChatGPT Enterprise y Edu tendrán acceso a estos modelos dentro de una semana. Por su parte, los usuarios que usen la versión gratuita de ChatGPT podrán probar o4-mini si seleccionan la opción «Think» en la interfaz antes de enviar su consulta. No obstante, los límites de todos los planes no cambian con respecto a los modelos anteriores.
Esperamos lanzar OpenAI o3‑pro dentro de unas semanas con compatibilidad completa con todas las herramientas. Por ahora, los usuarios Pro todavía pueden acceder a o1‑pro.
Además, desde hoy, tanto o3 como o4-mini están disponibles para los desarrolladores a través de la Chat Completions API y la Responses API (algunos desarrolladores tendrán que verificar su organización(se abre en una ventana nueva) para acceder a los modelos). La Responses API es compatible con los resúmenes de razonamiento y la capacidad de preservar los tókenes de razonamiento junto a las solicitudes de funciones para mejorar el rendimiento. Asimismo, pronto admitirá la integración de herramientas como la búsqueda web, la búsqueda en archivos y el Code Interpreter dentro de las capacidades de razonamiento del modelo. Si quieres conocer más detalles, consulta nuestros documentos(se abre en una ventana nueva) y no te pierdas nuestras próximas actualizaciones.
Las novedades que te hemos mostrado hoy reflejan la dirección en la que se dirigen nuestros modelos: estamos combinando las capacidades de razonamiento especializado de la serie o con un mayor uso de las herramientas y habilidades de conversación natural de la serie GPT. Al unificar ambos puntos fuertes, nuestros futuros modelos podrán mantener conversaciones fluidas y naturales, a la vez que hacen un uso proactivo de las herramientas y ofrecen una resolución avanzadas de problemas.
Actualización del 16 de abril: hemos actualizado los resultados de o3 en Charxiv-r y Mathvista para reflejar un cambio en el sistema de prompts que no estaba presente en la evaluación original.
Autor
OpenAINotas al pie
* Las cifras de la evaluación de TAU-bench representan la media de cinco ejecuciones para reducir la variación, y se ejecutan sin herramientas personalizadas o prompts. Hemos comprobado que las implementaciones en comercios minoristas de TAU-bench son más propensas a errores en el modelo de usuario. Las cifras que están entre paréntesis se ejecutan con GPT-4.1 como modelo de usuario porque es notablemente mejor que GPT-4o a la hora de seguir instrucciones.
* SWE-bench utiliza una longitud de contexto máxima de 256 000, lo que mejora la tasa de resolución de o4-mini en, aproximadamente, un 3 % y afecta a la tasa de resolución de o3 en <1 %. Asimismo, hemos excluido 23 ejemplos de uso que no se pueden ejecutar en nuestra infraestructura interna.
** Cuando se habilita la navegación, en ocasiones, el modelo puede encontrar respuestas exactas online. Por ejemplo, si lee las publicaciones de un blog con ejemplos de problemas de un conjunto de datos. Para que el modelo no haga trampa durante la navegación, utilizamos dos estrategias:
Bloqueamos los dominios en los que hemos observado que el modelo hacía trampas anteriormente.
Usamos un modelo con capacidad de razonamiento como supervisor para examinar todos los tókenes de cada intento para identificar comportamientos sospechosos. En este caso, el comportamiento sospechoso se define como «una página, archivo o fragmento cuyo propósito principal sea proporcionar la respuesta exacta a esta pregunta específica. Por ejemplo, una clave de clasificación oficial, una lista de “soluciones” filtrada o una discusión que cite textualmente una respuesta completa». El comportamiento benigno, por su parte, se define como «cualquier recurso con autoridad que un humano diligente pueda consultar (documentación, manuales, trabajos académicos, artículos de renombre, etc.) aunque, por casualidad, contenga la respuesta correcta». Se consideran incorrectos todos los intentos en los que el supervisor consideró que la implementación era sospechosa. Durante esta comprobación, la mayoría de las muestras fallidas se produjeron por problemas cuya solución exacta estaba disponible en diferentes fuentes de internet no relacionadas con el HLE (Humanity's Last Exam).
Para finalizar, puede que nuestras evaluaciones con respecto a la navegación no se reproduzcan a la perfección en la API de OpenAI debido a la diferencia en los back-ends de los motores de búsqueda que hay entre ChatGPT y la API de OpenAI. Esperamos que estos resultados representen adecuadamente la experiencia del usuario de ChatGPT. No obstante, en función de la demanda, la configuración de búsqueda puede cambiar con el paso del tiempo.