Presentamos OpenAI o3 y o4-mini
Nuestros modelos más inteligentes y competentes hasta el momento, y con acceso completo a todas las herramientas
Hoy lanzamos OpenAI o3 y o4-mini, los más recientes en nuestra serie o que presenta modelos entrenados para pensar durante más tiempo antes de responder. Estos modelos son los más inteligentes que hemos lanzado hasta la fecha y representan un cambio significativo en las capacidades de ChatGPT para todos los usuarios, desde los curiosos hasta investigadores avanzados. Por primera vez, nuestros modelos con capacidad de razonamiento pueden usar y combinar, de forma autónoma, todas las herramientas de ChatGPT. Es decir, pueden buscar en la web, analizar archivos cargados y otros datos con Python, razonar a fondo sobre las entradas visuales y hasta generar imágenes. Sin embargo, lo más importante es que estos modelos están entrenados para razonar sobre cuándo y cómo usar las herramientas para producir respuestas detalladas y bien pensadas en los formatos de salida adecuados para resolver problemas más complejos y generalmente en menos de un minuto. Esto les permite abordar preguntas multifacéticas de forma más efectiva, lo que supone un paso más hacia un ChatGPT más autónomo que pueda realizar tareas en tu lugar, de forma independiente. Al combinar el razonamiento más avanzado con el acceso completo a las herramientas, ofrecen un rendimiento significativamente más sólido en evaluaciones comparativas académicas y en tareas del mundo real que, a su vez, establece un nuevo estándar tanto en inteligencia como en utilidad.
OpenAI o3 es nuestro modelo con capacidad de razonamiento más poderoso que amplía las fronteras de la programación, matemáticas, ciencia, percepción visual y más. Establece una nueva puntuación SOTA en evaluaciones comparativas como Codeforces, SWE-bench (sin tener que desarrollar una matriz específica para el modelo) y MMMU. Es perfecto para preguntas complejas que requieren un análisis multifacético y que tienen respuestas que pueden no ser inmediatamente obvias. En particular, se desempeña bien en tareas visuales como es el análisis de imágenes, tablas y gráficos. En las evaluaciones realizadas por expertos externos, o3 comete un 20 % menos de errores importantes que OpenAI o1 en tareas complejas del mundo real, y se destaca especialmente en áreas como programación, negocios/consultoría e ideas creativas. Los primeros evaluadores destacaron su rigor analítico como herramienta de pensamiento y enfatizaron su capacidad para generar y evaluar de forma crítica hipótesis novedosas, en especial, en contextos de biología, matemáticas e ingeniería.
OpenAI o4-mini es un modelo más pequeño, optimizado para tener una capacidad de razonamiento rápida y rentable. Es decir, logra un asombroso rendimiento para su tamaño y costo, en especial en tareas matemáticas, de programación y visuales. Es el modelo con mejor rendimiento en los exámenes AIME 2024 y 2025. En las evaluaciones realizadas por expertos, o4-mini también supera a su predecesor, o3‑mini, en tareas no relacionadas con las STEM, así como en áreas como la ciencia de datos. Gracias a su eficiencia, o4-mini es compatible con límites de uso más altos que los de o3, lo que lo convierte en una gran opción de alto volumen y alto rendimiento para las preguntas que requieren un mayor razonamiento.
Los evaluadores expertos externos consideraron que ambos modelos muestran una mejor capacidad para seguir instrucciones y ofrecen respuestas más útiles y verificables que sus predecesores, gracias a una mejor inteligencia y a la inclusión de fuentes web. En comparación con las iteraciones anteriores de nuestros modelos con capacidad de razonamiento, estos dos modelos también deberían poder tener conversaciones más naturales. Sobre todo, porque tiene como referencia a la memoria y a las conversaciones pasadas para que las respuestas sean más personalizadas y relevantes.
Modelos multimodales
Programación
Seguimiento de instrucciones y uso de herramientas autónomo
Todos los modelos se evalúan con configuraciones de “esfuerzo de razonamiento” elevadas, similares a variantes como “o4-mini-high” en ChatGPT.
Durante el desarrollo de OpenAI o3, observamos que el aprendizaje por refuerzo a gran escala presenta la misma tendencia de “más procesamiento = mejor rendimiento” que se demostró en el entrenamiento previo de la serie GPT. Y, al revisar el proceso de escalamiento en el RL, aumentamos aún más tanto el procesamiento del entrenamiento como el razonamiento al momento de la inferencia. Sin embargo, aún se observa un claro aumento en el rendimiento, lo que valida que el rendimiento de los modelos continúa mejorando cuanto más se les permite pensar. Así, con la misma latencia y costo que OpenAI o1, o3 ofrece un mayor rendimiento en ChatGPT. Además, validamos que, si lo dejamos pensar más tiempo, su rendimiento sigue aumentando.
También entrenamos a ambos modelos para que usen herramientas mediante el aprendizaje por refuerzo, lo que no solo les enseñó cómo usar herramientas, sino a razonar sobre cuándo usarlas. Su capacidad para implementar herramientas basadas en los resultados deseados los hace más capaces en situaciones con problemas abiertos, sobre todo en aquellas que involucran un razonamiento visual y flujos de trabajo de varios pasos. Esta mejora se ve reflejada en las evaluaciones comparativas académicas y en las tareas del mundo real, como lo informaron los primeros evaluadores.

Por primera vez, estos modelos pueden integrar imágenes directamente en su cadena de pensamiento. No solo ven una imagen, piensan con ella. Esto desbloquea una nueva clase de resolución de problemas que combina el razonamiento visual y textual, lo que se demuestra en su avanzado rendimiento en evaluaciones comparativas multimodales.
Los usuarios pueden cargar una foto de un pizarrón, un diagrama de un libro de texto o un boceto dibujado a mano, y el modelo puede interpretarlo, incluso si la imagen está borrosa, invertida o es de baja calidad. Además, con el uso de herramientas, los modelos pueden manipular imágenes al momento, y rotarlas, ampliarlas o transformarlas como parte de su proceso de razonamiento.
Estos modelos ofrecen la mejor precisión en tareas de percepción visual, lo que les permite resolver problemas que antes estaban fuera de su alcance. Conoce más acerca de la investigación sobre razonamiento visual en este blog.
OpenAI o3 y o4-mini tienen acceso completo a las herramientas de ChatGPT, así como a sus propias herramientas personalizadas a través de solicitudes de funciones en la API. Estos modelos están entrenados para razonar sobre cómo resolver problemas y para elegir cuándo y cómo usar las herramientas para producir respuestas detalladas y bien pensadas en los formatos de salida adecuados y generalmente en menos de un minuto.
Por ejemplo, un usuario podría preguntar: “How will summer energy usage in California compare to last year?” (¿Cómo será el consumo de energía en California este verano en comparación con el año pasado?) El modelo puede buscar en internet datos de servicios públicos, escribir un código en Python para crear un pronóstico, generar un gráfico o una imagen, y explicar los factores clave detrás de la predicción al concatenar múltiples solicitudes de herramienta. El razonamiento permite que los modelos reaccionen y se adapten dependiendo de la información que encuentren. Un ejemplo de esto es que pueden hacer varias búsquedas en internet con la ayuda de proveedores de búsqueda, revisar los resultados y realizar nuevas búsquedas si necesitan más información.
Este enfoque flexible y estratégico les permite a los modelos abordar tareas que requieren acceso a información actualizada que no está en su conocimiento integrado, a su razonamiento extendido, a su síntesis y a su generación de resultados en todas las modalidades.
Todos los ejemplos se llevaron a cabo con OpenAI o3.
OpenAI o3
OpenAI o1
OpenAI o3 obtiene la respuesta correcta sin usar la búsqueda web, mientras que o1 no puede ofrecer una respuesta correcta.
Impulso del razonamiento rentable
Costo frente a rendimiento: o3-mini y o4-mini


Costo frente a rendimiento: o1 y o3


OpenAI o3 y o4-mini son los modelos más inteligentes que hayamos lanzado y suelen ser más eficientes que sus predecesores, OpenAI o1 y o3‑mini. En la competencia de matemáticas AIME 2025, por ejemplo, la relación entre el costo y el rendimiento de o3 tuvo una clara mejora respecto a o1 y, del mismo modo, la relación de o4-mini tuvo una clara mejora respecto a o3‑mini. En términos más generales, esperamos que para la mayoría del uso que se les dé en el mundo real, o3 y o4-mini sean más inteligentes y rentables que o1 y o3‑mini, respectivamente.
Cada mejora en las capacidades del modelo garantiza mejoras proporcionales en la seguridad. En el caso de OpenAI o3 y o4-mini, reconstruimos por completo nuestros datos del entrenamiento de seguridad. Añadimos nuevas consultas de rechazo en áreas como amenazas biológicas (riesgos biológicos), generación de malware y jailbreaks. Con estos datos actualizados, o3 y o4-mini lograron buenos resultados en nuestras evaluaciones internas de rechazo (p. ej., jerarquía de instrucciones, jailbreaks). Además de los buenos resultados obtenidos en los rechazos del modelo, también desarrollamos mitigaciones a nivel de sistema para identificar solicitudes peligrosas en las áreas de riesgo más avanzadas. Al igual que en nuestro trabajo previo en la generación de imágenes, entrenamos a un supervisor de LLM con capacidad de razonamiento que trabaja con especificaciones de seguridad que pueden escribir e interpretar los humanos. Al probarlo con los riesgos biológicos, el supervisor identificó de forma satisfactoria cerca del 99 % de las conversaciones en la campaña del equipo rojo humano.
Asimismo, pusimos a prueba a ambos modelos con nuestro programa de seguridad más riguroso a la fecha. De acuerdo con nuestro Marco de preparación actualizado, evaluamos a o3 y o4-mini en tres categorías de seguimiento incluidas en el marco: biológica y química, ciberseguridad y la automejora de la IA. Basándonos en los resultados de estas evaluaciones, determinamos que tanto o3 como o4-mini se mantienen por debajo del umbral de riesgo “Alto” del marco en estas tres categorías. Publicamos los resultados detallados de estas evaluaciones en la tarjeta de sistema adjunta.
Queremos compartir un nuevo experimento: Codex CLI, un agente de programación ligero que puedes ejecutar desde tu terminal. Funciona directamente en tu computadora y está diseñado para aprovechar al máximo las capacidades de razonamiento de modelos como o3 y o4-mini. Además, será compatible con otros modelos de API como GPT‑4.1.
Podrás obtener los beneficios del razonamiento multimodal desde la línea de comando con solo darle al modelo capturas de pantalla o bocetos de baja calidad, así como acceso a tu código local. Nosotros lo consideramos una interfaz mínima que conecta a nuestros modelos con los usuarios y sus computadoras. Codex CLI es de código abierto y ya lo puedes encontrar en github.com/openai/codex(se abre en una nueva ventana).
Al mismo tiempo, lanzamos una iniciativa de un millón de dólares para apoyar proyectos que usen Codex CLI y los modelos de OpenAI. Evaluaremos y aceptaremos las postulaciones a las subvenciones en incrementos de 25 000 dólares en forma de créditos de API. Puedes presentar tu propuesta aquí.
Desde hoy, los usuarios de ChatGPT Plus, Pro y Team podrán ver o3, o4-mini y o4-mini-high en el selector del modelo en lugar de o1, o3‑mini y o3‑mini‑high. Los usuarios de ChatGPT Enterprise y Edu tendrán acceso a estos modelos en una semana. En cambio, los usuarios que usen la versión gratuita podrán probar o4-mini si seleccionan la opción “Think” en la interfaz antes de enviar su consulta. Sin embargo, los límites de todos los planes no cambiarán respecto a los modelos anteriores.
Esperamos lanzar OpenAI o3‑pro en un par de semanas con compatibilidad con todas las herramientas. Pero, por ahora, los usuarios Pro aún pueden acceder a o1‑pro.
También, o3 y o4-mini ya están disponibles para los desarrolladores en Chat Completions API y Responses API (algunos desarrolladores deberán verificar su organización(se abre en una nueva ventana) para poder acceder a estos modelos). Responses API es compatible con los resúmenes de razonamiento y la capacidad de preservar los tokens de razonamiento junto a las solicitudes de función para tener un mejor rendimiento. Además, pronto será compatible con las herramientas integradas como la búsqueda web, búsqueda de archivos y el code interpreter dentro de las capacidades de razonamiento del modelo. Para saber más, consulta nuestros documentos(se abre en una nueva ventana) y no te pierdas las próximas actualizaciones.
Estas actualizaciones son un reflejo de hacia dónde se dirigen nuestros modelos: combinamos las capacidades de razonamiento especializado de la serie o con un mayor uso de las habilidades para tener conversaciones más naturales y las herramientas de la serie GPT. Al unir estos puntos fuertes, nuestros futuros modelos podrán tener conversaciones naturales y fluidas, al mismo tiempo que usan proactivamente las herramientas y resuelven problemas avanzados.
Actualización al 16 de abril: los resultados de o3 en Charxiv-r y Mathvista se actualizaron para reflejar un cambio en la consulta del sistema que no estaba presente en la evaluación original.
Autor/a
OpenAINotas al pie
* Las cifras de la evaluación de TAU-bench representan la media de cinco ejecuciones para reducir la varianza, y se ejecutan sin herramientas personalizadas ni consultas. Comprobamos que las implementaciones de comercios minoristas de TAU-bench son más propensas a errores en el modelo de usuario. Las cifras dentro de los paréntesis se ejecutan con GPT-4.1 como modelo de usuario porque sigue instrucciones mucho mejor que GPT-4o.
* SWE-bench utiliza una longitud de contexto máxima de 256 000, lo que mejora la tasa de resolución en un 3 % para o4-mini y afecta la tasa de resolución de o3 en <1 %. También excluimos los 23 ejemplos de uso que no pueden ejecutarse en nuestra infraestructura interna.
** Al habilitar la navegación, el modelo a veces puede encontrar las respuestas exactas en línea; por ejemplo, si lee artículos de un blog con ejemplos de problemas de una base de datos. Evitamos que el modelo haga trampa mientras navega en internet con dos estrategias:
Bloqueamos aquellos dominios en los que observamos que el modelo hacía trampa.
Usamos un modelo con capacidad de razonamiento como supervisor para examinar todos los tokens en cada intento con el fin de identificar comportamientos sospechosos. Definimos comportamiento sospechoso como: “una página, archivo o un fragmento cuyo propósito principal es proporcionar la respuesta exacta a esta pregunta específica. Por ejemplo, una clave de calificaciones oficial, una lista de ‘soluciones’ filtrada o una discusión con la cita textual de la respuesta completa”. En cambio, definimos comportamiento benigno como: “cualquier fuente fidedigna que un humano diligente pueda consultar (documentación, manuales, trabajos académicos, artículos de renombre, entre otros) aunque casualmente contenga la respuesta correcta”. Todos los casos en los que el supervisor determine que la implementación fue sospechosa se consideran incorrectos. Durante esta revisión, la mayoría de las muestras fallidas fueron con problemas cuyas soluciones exactas estaban disponibles en múltiples fuentes en línea no relacionadas con el HLE.
Por último, es posible que nuestras evaluaciones con la navegación no puedan duplicarse a la perfección en la API de OpenAI debido a la diferencia en los backends de los motores de búsqueda entre ChatGPT y la API de OpenAI. Estos resultados tienen como fin representar la experiencia del usuario de ChatGPT, pero, dependiendo de la demanda, la configuración de búsqueda puede cambiar con el paso del tiempo.