Pasar al contenido principal
OpenAI

16 de abril de 2025

Comunicado de prensaProducto

Presentamos OpenAI o3 y o4-mini

Nuestros modelos más inteligentes y competentes hasta el momento, y con acceso completo a todas las herramientas

Cargando...

Hoy lanzamos OpenAI o3 y o4-mini, los más recientes en nuestra serie o que presenta modelos entrenados para pensar durante más tiempo antes de responder. Estos modelos son los más inteligentes que hemos lanzado hasta la fecha y representan un cambio significativo en las capacidades de ChatGPT para todos los usuarios, desde los curiosos hasta investigadores avanzados. Por primera vez, nuestros modelos con capacidad de razonamiento pueden usar y combinar, de forma autónoma, todas las herramientas de ChatGPT. Es decir, pueden buscar en la web, analizar archivos cargados y otros datos con Python, razonar a fondo sobre las entradas visuales y hasta generar imágenes. Sin embargo, lo más importante es que estos modelos están entrenados para razonar sobre cuándo y cómo usar las herramientas para producir respuestas detalladas y bien pensadas en los formatos de salida adecuados para resolver problemas más complejos y generalmente en menos de un minuto. Esto les permite abordar preguntas multifacéticas de forma más efectiva, lo que supone un paso más hacia un ChatGPT más autónomo que pueda realizar tareas en tu lugar, de forma independiente. Al combinar el razonamiento más avanzado con el acceso completo a las herramientas, ofrecen un rendimiento significativamente más sólido en evaluaciones comparativas académicas y en tareas del mundo real que, a su vez, establece un nuevo estándar tanto en inteligencia como en utilidad.

¿Qué ha cambiado?

OpenAI o3 es nuestro modelo con capacidad de razonamiento más poderoso que amplía las fronteras de la programación, matemáticas, ciencia, percepción visual y más. Establece una nueva puntuación SOTA en evaluaciones comparativas como Codeforces, SWE-bench (sin tener que desarrollar una matriz específica para el modelo) y MMMU. Es perfecto para preguntas complejas que requieren un análisis multifacético y que tienen respuestas que pueden no ser inmediatamente obvias. En particular, se desempeña bien en tareas visuales como es el análisis de imágenes, tablas y gráficos. En las evaluaciones realizadas por expertos externos, o3 comete un 20 % menos de errores importantes que OpenAI o1 en tareas complejas del mundo real, y se destaca especialmente en áreas como programación, negocios/consultoría e ideas creativas. Los primeros evaluadores destacaron su rigor analítico como herramienta de pensamiento y enfatizaron su capacidad para generar y evaluar de forma crítica hipótesis novedosas, en especial, en contextos de biología, matemáticas e ingeniería.

OpenAI o4-mini es un modelo más pequeño, optimizado para tener una capacidad de razonamiento rápida y rentable. Es decir, logra un asombroso rendimiento para su tamaño y costo, en especial en tareas matemáticas, de programación y visuales. Es el modelo con mejor rendimiento en los exámenes AIME 2024 y 2025. En las evaluaciones realizadas por expertos, o4-mini también supera a su predecesor, o3‑mini, en tareas no relacionadas con las STEM, así como en áreas como la ciencia de datos. Gracias a su eficiencia, o4-mini es compatible con límites de uso más altos que los de o3, lo que lo convierte en una gran opción de alto volumen y alto rendimiento para las preguntas que requieren un mayor razonamiento.

Los evaluadores expertos externos consideraron que ambos modelos muestran una mejor capacidad para seguir instrucciones y ofrecen respuestas más útiles y verificables que sus predecesores, gracias a una mejor inteligencia y a la inclusión de fuentes web. En comparación con las iteraciones anteriores de nuestros modelos con capacidad de razonamiento, estos dos modelos también deberían poder tener conversaciones más naturales. Sobre todo, porque tiene como referencia a la memoria y a las conversaciones pasadas para que las respuestas sean más personalizadas y relevantes.

Modelos multimodales

Programación

Seguimiento de instrucciones y uso de herramientas autónomo

Todos los modelos se evalúan con configuraciones de “esfuerzo de razonamiento” elevadas, similares a variantes como “o4-mini-high” en ChatGPT.

Continuamos escalando el aprendizaje por refuerzo (RL)

Durante el desarrollo de OpenAI o3, observamos que el aprendizaje por refuerzo a gran escala presenta la misma tendencia de “más procesamiento = mejor rendimiento” que se demostró en el entrenamiento previo de la serie GPT. Y, al revisar el proceso de escalamiento en el RL, aumentamos aún más tanto el procesamiento del entrenamiento como el razonamiento al momento de la inferencia. Sin embargo, aún se observa un claro aumento en el rendimiento, lo que valida que el rendimiento de los modelos continúa mejorando cuanto más se les permite pensar. Así, con la misma latencia y costo que OpenAI o1, o3 ofrece un mayor rendimiento en ChatGPT. Además, validamos que, si lo dejamos pensar más tiempo, su rendimiento sigue aumentando.

También entrenamos a ambos modelos para que usen herramientas mediante el aprendizaje por refuerzo, lo que no solo les enseñó cómo usar herramientas, sino a razonar sobre cuándo usarlas. Su capacidad para implementar herramientas basadas en los resultados deseados los hace más capaces en situaciones con problemas abiertos, sobre todo en aquellas que involucran un razonamiento visual y flujos de trabajo de varios pasos. Esta mejora se ve reflejada en las evaluaciones comparativas académicas y en las tareas del mundo real, como lo informaron los primeros evaluadores.

Pensamiento con imágenes

ChatGPT ahora piensa con imágenes

Por primera vez, estos modelos pueden integrar imágenes directamente en su cadena de pensamiento. No solo ven una imagen, piensan con ella. Esto desbloquea una nueva clase de resolución de problemas que combina el razonamiento visual y textual, lo que se demuestra en su avanzado rendimiento en evaluaciones comparativas multimodales.

Los usuarios pueden cargar una foto de un pizarrón, un diagrama de un libro de texto o un boceto dibujado a mano, y el modelo puede interpretarlo, incluso si la imagen está borrosa, invertida o es de baja calidad. Además, con el uso de herramientas, los modelos pueden manipular imágenes al momento, y rotarlas, ampliarlas o transformarlas como parte de su proceso de razonamiento.

Estos modelos ofrecen la mejor precisión en tareas de percepción visual, lo que les permite resolver problemas que antes estaban fuera de su alcance. Conoce más acerca de la investigación sobre razonamiento visual en este blog.

Avances hacia el uso autónomo de herramientas

OpenAI o3 y o4-mini tienen acceso completo a las herramientas de ChatGPT, así como a sus propias herramientas personalizadas a través de solicitudes de funciones en la API. Estos modelos están entrenados para razonar sobre cómo resolver problemas y para elegir cuándo y cómo usar las herramientas para producir respuestas detalladas y bien pensadas en los formatos de salida adecuados y generalmente en menos de un minuto.

Por ejemplo, un usuario podría preguntar: “How will summer energy usage in California compare to last year?” (¿Cómo será el consumo de energía en California este verano en comparación con el año pasado?) El modelo puede buscar en internet datos de servicios públicos, escribir un código en Python para crear un pronóstico, generar un gráfico o una imagen, y explicar los factores clave detrás de la predicción al concatenar múltiples solicitudes de herramienta. El razonamiento permite que los modelos reaccionen y se adapten dependiendo de la información que encuentren. Un ejemplo de esto es que pueden hacer varias búsquedas en internet con la ayuda de proveedores de búsqueda, revisar los resultados y realizar nuevas búsquedas si necesitan más información.

Este enfoque flexible y estratégico les permite a los modelos abordar tareas que requieren acceso a información actualizada que no está en su conocimiento integrado, a su razonamiento extendido, a su síntesis y a su generación de resultados en todas las modalidades.

Todos los ejemplos se llevaron a cabo con OpenAI o3.

OpenAI o3

Solve the following very hard math problem using your in-built knowledge of the literature:

Construct a degree 19 polynomial \ (p(x)) \ in \ mathbb{C}[x] such that \ (X := \ {\, p(x) = p(y) \, \} \ subset \ mathbb{P}^{1} \ times \ mathbb{P}^{1}\ ) has at least 3 (but not all linear) irreducible components over \ mathbb{C}. Choose \ (p(x)\ ) to be odd, monic, have real coefficients and linear coefficient \ (-19\ ) and calculate \ (p(19)\ ).

Razona sobre la construcción polinómica durante 55 segundos
  • The curve defined by p(x) = p(y) factors if p(x) is decomposable or has repeated factors. Actually, p(x)-p(y) always factors, and it’s divisible by (x-y). This gives one factor, and the rest is a degree d-1 polynomial in x and y. For the curve to have at least three irreducible components, p(x)-p(y) must factor into at least three nontrivial factors. Each factor corresponds to a component in projective space, and at least one must be nonlinear.
  • I’m checking the Dickson polynomials D_n(x,a) and focusing on their coefficients. With a=1, it seems the leading coefficient is always 1, confirming that Dickson polynomials are monic. The linear coefficient for odd n is following a predictable sign pattern: for n=19, it gives a coefficient of -19, which is exactly what I need. So the Dickson polynomial D_n(x,1) with odd n fits nicely with the linear coefficient I was looking for.
  • I've confirmed that the linear coefficient for p(x)=D19(x)p(x) = D_{19}(x)p(x)=D19​(x) is correct, with the necessary scaling factor to match. Now for the next step, I need to compute D19(19)D_{19}(19)D19​(19). Since Tn(z)T_n(z)Tn​(z) grows quickly for real z>1z > 1z>1, I plan to compute this value using Python, leveraging the recurrence to avoid mistakes—it's going to be a big number. I'll make sure to present the numeric result neatly so it's understandable since the coefficients are integers.
  • The Dickson polynomial D_{19}(x,1) is confirmed to have the required properties: monic, odd, real coefficients, and a linear coefficient of -19. The factorization of D_{19}(x) into irreducible components is also verified and satisfies the condition of having at least 10 components (1 linear + 9 quadratics). To compute p(19), we'll use the recurrence relation for Dickson polynomials, but there's also a closed-form expression involving cosine that could be handy here. I'll proceed accordingly!
  • I confirmed the linear coefficient is working correctly, which means now I need to calculate p(19)=D19(19)p(19) = D_{19}(19)p(19)=D19​(19). This involves evaluating T19(9.5)T_{19}(9.5)T19​(9.5), which grows rapidly. To ensure I get an accurate result, I'll compute this using recurrence in Python. The result is a large number: 1,876,572,071,974,094,803,391,179. I'll use the commas to make it easier to read: p(19)=1,876,572,071,974,094,803,391,179p(19) = 1,876,572,071,974,094,803,391,179p(19)=1,876,572,071,974,094,803,391,179.
  • For a = 1, there’s a relationship between Dickson polynomials and Chebyshev polynomials: D_n(x, 1) = 2^(n-1) T_n(x/2). Checking this, we see that the definition of D_n(u + 1/u) aligns well with Chebyshev’s formula. By setting x = 2 cos(θ), we find that D_n(x) equals 2 T_n(x/2). Importantly, the leading coefficient works out to 1, confirming the identity holds. This is nice!
  • Now, I need to verify that p(x)−p(y)p(x) - p(y)p(x)−p(y) factors as desired, relying on the known Dickson polynomial factorization. According to the literature (like Fried and Jarden), the difference Dn(x)−Dn(y)D_n(x) - D_n(y)Dn​(x)−Dn​(y) factors into a product involving (x−y)(x - y)(x−y) and other expressions. I'll provide the explicit polynomial D19(x,1)D_{19}(x, 1)D19​(x,1), list the coefficients, and explain how it satisfies the desired properties: monic, odd, etc. Lastly, I'll compute p(19)p(19)p(19).

Analyzed

Python

1
from math import comb, cos, acos
2
# Let's compute Dickson D_n(x,a=1) recursively
3
def dickson(n,x,a=1):
4
if n==0:
5
return 2
6
if n==1:
7
return x
8
Dm2=2
9
Dm1=x
10
for k in range(2,n+1):
11
D= x*Dm1 - a*Dm2
12
Dm2, Dm1 = Dm1, D
13
return Dm1
14

15
d19 = dickson(19,19,1)
16
d19

1876572071974094803391179

Analyzed

Python

1
d19

1876572071974094803391179

Analyzed

Python

1
import locale, sys, math, json, textwrap, re, decimal

Analyzed

Python

1
"{:,}".format(d19)

'1,876,572,071,974,094,803,391,179'

Analyzed

Python

1
# compute coefficients of Dickson polynomial D_n(x,1) via recurrence polynomial representation
2
from sympy import symbols, Poly
3

4
x = symbols('x')
5
def dickson_poly(n):

Poly(x**19 - 19*x**17 + 152*x**15 - 665*x**13 + 1729*x**11 - 2717*x**9 + 2508*x**7 - 1254*x**5 + 285*x**3 - 19*x, x,

Analyzed

Python

1
poly19.as_expr()

x**19 - 19*x**17 + 152*x**15 - 665*x**13 + 1729*x**11 - 2717*x**9 + 2508*x**7 - 1254*x**5 + 285*x**3 - 19*x

Done

A convenient way to force many factors in
p(x)    p(y)p(x) \;-\; p(y) is to use a Dickson polynomial of the first kind.
For a parameter
aCa \in \mathbb{C} in math these are defined by

D0 ⁣(x,a)=2,  D1 ⁣(x,a)=x,  Dn ⁣(x,a)=xDn1 ⁣(x,a)aDn2 ⁣(x,a)(n2),D_0\!\left(x,\, a\right) = 2,\; D_1\!\left(x,\, a\right) = x,\; D_n\!\left(x,\, a\right) = x\,D_{n-1}\!\left(x,\, a\right) - a\,D_{n-2}\!\left(x,\, a\right)\quad (n \ge 2),

and satisfy the functional identity

Dn ⁣(u+au,a)=un+anun.D_n\!\left(u + \frac{a}{u},\, a\right) = u^{n} + \frac{a^{n}}{u^{n}}.


1. Choosing the polynomial

Take a=1a = 1 and n=19n=19.
Because
nn is odd, D19 ⁣(x,1)D_{19}\!\left(x,\, 1\right) is an odd polynomial; the recurrence immediately shows it is monic and has integer (hence real) coefficients.
The coefficient of
xx is x=(1)n12n=19,x = (-1)^{\frac{n-1}{2}}\,n = -19, so all requested normalisations are satisfied.

Writing it out gives

p(x)=D19 ⁣(x,1)=x1919x17+152x15665x13+1729x112717x9+2508x71254x5+285x319x. \boxed{% p(x) = D_{19}\!\left(x,1\right) = x^{19} - 19x^{17} + 152x^{15} - 665x^{13} + 1729x^{11} - 2717x^{9} + 2508x^{7} - 1254x^{5} + 285x^{3} - 19x% }\,.


2. Irreducible components of fX  =  {p(x)=p(y)}fX \;=\; \bigl\{\, p(x) = p(y) \,\bigr\}

For Dickson polynomials one has the classical factorisation

Dn ⁣(x,1)    Dn ⁣(y,1)  =  (xy)j=1n12(x2+y22cos ⁣(2πjn)xy4sin2 ⁣(πjn)),D_n\!\left(x,1\right) \;-\; D_n\!\left(y,1\right) \;=\; (x - y)\, \prod_{j=1}^{\frac{n-1}{2}} \Bigl( x^{2} + y^{2} - 2\cos\!\bigl(\tfrac{2\pi j}{n}\bigr)\,xy - 4\sin^{2}\!\bigl(\tfrac{\pi j}{n}\bigr) \Bigr),

where each quadratic factor is irreducible over C\mathbb{C} (see, e.g., Lidl–Niederreiter, Finite Fields, §3.6).
For
n=19n=19 this gives

  • one linear component x=y;x=y;
  • nine quadratic components (corresponding to (j=1,,9).\bigl(j = 1,\,\ldots,\,9\bigr).

Hence XP1×P1X \subset \mathbb{P}^{1} \times \mathbb{P}^{1} has 1010 irreducible components, at least three of them and not all linear, as required.


3. Evaluating p(19)p(19)

Using the recurrence (or the identity Dn ⁣(x,1)  =  2Tn ⁣(x2)D_n\!\left(x,\,1\right) \;=\; 2\,T_n\!\bigl(\tfrac{x}{2}\bigr) with Chebyshev TnT_n one obtains

p(19)  =  D19 ⁣(19,1)  =  1876572071974094803391179.p(19) \;=\; D_{19}\!\left(19,\,1\right) \;=\; 1\,876\,572\,071\,974\,094\,803\,391\,179.


Thus the polynomial above fulfils every condition, and

p(19)  =  1,876,572,071,974,094,803,391,179.\boxed{% p(19) \;=\; 1{,}876{,}572{,}071{,}974{,}094{,}803{,}391{,}179 }.

OpenAI o1

Solve the following very hard math problem using your in-built knowledge of the literature:

Construct a degree 19 polynomial \ (p(x)) \ in \ mathbb{C}[x] such that \ (X := \ {\, p(x) = p(y) \, \} \ subset \ mathbb{P}^{1} \ times \ mathbb{P}^{1}\ ) has at least 3 (but not all linear) irreducible components over \ mathbb{C}. Choose \ (p(x)\ ) to be odd, monic, have real coefficients and linear coefficient \ (-19\ ) and calculate \ (p(19)\ ).

Razona durante 1 minuto y 19 segundos

I’m piecing together a degree 19 polynomial with only odd powers and a linear coefficient of -19, like: p(x)=x19+a17x17+…+a1xp(x) = x^{19} + a_{17}x^{17} + \ldots + a_1xp(x)=x19+a17​x17+…+a1​x.

I'm examining if the polynomial p(x)=x19+a17x17+…+a3x3−19xp(x) = x^{19} + a_{17}x^{17} + \ldots + a_3x^3 - 19xp(x)=x19+a17​x17+…+a3​x3−19x has a notable classical form, considering symmetry or factorization for multiple irreducible components.

To ensure p(x)p(x)p(x) has three or more irreducible components, I’m considering the factorization of p(x)−p(y)p(x) - p(y)p(x)−p(y) into at least three irreducible factors in C[x,y]\mathbb{C}[x,y]C[x,y].

I'm working through x19−y19x^{19} - y^{19}x19−y19 to ensure it balances linear and nonlinear factors, aiming for a polynomial with at least three irreducible components that aren't all linear.

Taking a closer look at how p(x)−p(y)p(x) - p(y)p(x)−p(y) can be factored into three distinct polynomials in xxx, aiming to achieve the desired irreducible components.

I'm thinking about how composing ppp with simpler polynomials, like xm−cx^m - cxm−c, could result in multiple irreducible components, achieving at least three distinct factors.

I’m exploring the factorization of p(x)−p(y)p(x) - p(y)p(x)−p(y) with cyclotomic polynomials. This method generates nnn linear irreducible factors, which might not achieve the required three distinct components.

I'm focusing on constructing an "odd" and monic polynomial, ensuring all exponents are odd and the leading term is x19x^{19}x19. This approach aims to achieve the desired factorization.

I'm working with the Chebyshev polynomials to ensure p(x)−p(y)p(x) - p(y)p(x)−p(y) has at least three irreducible components, leveraging their even or odd properties to manage coefficients.

Considering the odd Chebyshev polynomial T19(x)T_{19}(x)T19​(x) for potential factorization, while also examining composite polynomials of lower degrees to enhance factorization properties.

I'm analyzing how a polynomial composed of lower-degree polynomials, like (x3−3x)k(x^3 - 3x)^k(x3−3x)k, could yield p(x)−p(y)p(x) - p(y)p(x)−p(y) with at least three irreducible components.

Piecing together polynomials with integer coefficients, like (x3−3x)k(x^3 - 3x)^k(x3−3x)k, to achieve factorization in p(x)−p(y)p(x) - p(y)p(x)−p(y) with at least three irreducible components, aiming for degree 19.

I’m examining how p(x)=(x3−3x)kp(x) = (x^3 - 3x)^kp(x)=(x3−3x)k or p(x)=x19−19xp(x) = x^19 - 19xp(x)=x19−19x might yield p(x)−p(y)p(x) - p(y)p(x)−p(y) with three irreducible components, focusing on ensuring the polynomial is of degree 19.

I’m analyzing p(x)−p(y)p(x) - p(y)p(x)−p(y) into (x−y)(x18+x17y+…+y18−19)(x-y)(x^{18} + x^{17}y + \ldots + y^{18} - 19)(x−y)(x18+x17y+…+y18−19) to identify irreducible components. The polynomial factor x18+x17y+…+y18−19x^{18} + x^{17}y + \ldots + y^{18} - 19x18+x17y+…+y18−19 remains challenging to factor further.

I’m thinking through a new approach: adjusting the Chebyshev polynomial T19(x)T_{19}(x)T19​(x) to make it monic, aiming to achieve at least three irreducible components in p(x)−p(y)p(x) - p(y)p(x)−p(y).

OK, let's think through. I’m tweaking T19(x)T_{19}(x)T19​(x)'s coefficients to keep the polynomial monic and check if it simplifies into multiple irreducible components.

I'm thinking over various factorization strategies for a monic polynomial of degree 19. The goal is to ensure at least one non-linear factor and achieve at least three irreducible components in p(x)−p(y)p(x) - p(y)p(x)−p(y).

I’m updating my approach to factor x2+xy+y2−1x^2 + xy + y^2 - 1x2+xy+y2−1 over complex numbers by exploring change of variables and third roots of unity. This helps in achieving the desired polynomial structure.

I'm combining x3−xx^3 - xx3−x with x19−19xx^{19} - 19xx19−19x to tweak the polynomial's coefficients and complexity, aiming to include more non-linear factors for the desired irreducibility.

Piecing together p(x)=x19−x3−19xp(x) = x^{19} - x^3 - 19xp(x)=x19−x3−19x to ensure it’s odd, monic, and has the required linear coefficient. This targets the desired irreducible factorizations.

I’m mapping out the second factor x18+…+y18−x2−xy−y2−19x^{18} + \ldots + y^{18} - x^2 - xy - y^2 - 19x18+…+y18−x2−xy−y2−19 to see if it can split into three irreducible components.

I’m considering methods to factorize the polynomial by making it divisible by x−yx - yx−y and ensuring the remaining factor splits into exactly two irreducible components, aiming for a less complex factorization.

I’m examining the polynomial x18+x17y+…+y18x^{18} + x^{17}y + \ldots + y^{18}x18+x17y+…+y18 and noting it simplifies to x19−y19x−y\frac{x^{19} - y^{19}}{x - y}x−yx19−y19​, which might reveal further irreducible factors.

I’m mapping out the polynomial x(x18−1)−y(y18−1)x−y\frac{x(x^{18}-1) - y(y^{18}-1)}{x-y}x−yx(x18−1)−y(y18−1)​ for further factorization. This might yield just two irreducible components, which falls short of three.

I’m exploring whether the polynomial p(x)=x19−(x3)p(x) = x^19 - (x^3)p(x)=x19−(x3) can be expressed as the composition of a smaller polynomial with xkx^kxk, potentially revealing multiple irreducible components.

I'm examining if the polynomial T19(x)T_{19}(x)T19​(x) can be factored using trigonometric identities, seeking partial factorization without fully linearizing, to gain multiple irreducible components.

OK, let me see. Trigonometric identities show multiple solutions for θ\thetaθ and ϕ\phiϕ, likely leading to 19 or 38 linear factors for T19(x)T_{19}(x)T19​(x).

I’m examining how the equation arccos⁡x=±arccos⁡y+2kπ19\arccos x = \pm \arccos y + \frac{2k\pi}{19}arccosx=±arccosy+192kπ​ leads to possible multiple branches, potentially irreducible in the algebraic sense, and needing an example with at least three non-linear irreducible components.

OK, let me see. I’m pulling together details on the polynomial x3(x2−1)8+xx^3 (x^2 - 1)^8 + xx3(x2−1)8+x. It’s monic, with x19x^{19}x19 as the leading term, ensuring it meets key criteria.

I’m noting that the polynomial p(x)=x3(x2−1)8+xp(x) = x^3 (x^2 - 1)^8 + xp(x)=x3(x2−1)8+x is odd, with its linear coefficient patterning to -19.

I’m figuring out how to adjust the linear coefficient of polynomial p(x)p(x)p(x) to -19 by adding a constant factor ccc in front of xxx to ensure it’s adequately modified.

By tweaking the linear coefficient of p(x)=x3(x2−1)8+cxp(x) = x^3 (x^2 - 1)^8 + c xp(x)=x3(x2−1)8+cx to -19, it ensures the polynomial remains monic, odd, and real.

I’m working on adding a constant factor ccc to xxx in p(x)=x3(x2−1)8+cxp(x) = x^3 (x^2 - 1)^8 + c xp(x)=x3(x2−1)8+cx to ensure the linear coefficient is -19, making the polynomial monic, odd, and real.

I'm piecing together the polynomial p(x)=x3(x−1)8(x+1)8p(x) = x^3 (x-1)^8 (x+1)^8p(x)=x3(x−1)8(x+1)8 and considering how p(x)−p(y)p(x) - p(y)p(x)−p(y) might factor with factors like x−yx-yx−y.

I’m confirming p(x)p(x)p(x) is monic, odd, and real, with a linear coefficient of -19, by expanding x3(x2−1)8x^3 (x^2 -1)^8x3(x2−1)8 to set the constant ccc.

I found that for p(x) to have a coefficient of -19 for the x term, c must be -19. The polynomial, p(x), incorporates this constant and preserves the original polynomial's structure.

Below is one concrete example (over the reals) of an odd, monic, degree 19 polynomial with linear coefficient 19-19 whose zero-locus relation {p(x)=p(y)} in P1×P1\{\,p(x)=p(y)\,\}\ \text{in }\mathbb{P}^{1}\times\mathbb{P}^{1} splits into at least three irreducible components (and not all components are linear). We then compute p(19)p(19).


1. The polynomial

Consider

p(x)  =  x3(x21)8    19x.p(x) \;=\; x^{3}\,\bigl(x^{2}-1\bigr)^{8} \;-\; 19x.

We can expand

x3(x21)8  =  x19    8x17  +  28x15    56x13  +  70x11    56x9  +  28x7    8x5  +  x3.x^{3}\,\bigl(x^{2}-1\bigr)^{8} \;=\; x^{19}\;-\;8x^{17}\;+\;28x^{15}\;-\;56x^{13}\;+\;70x^{11} \;-\;56x^{9}\;+\;28x^{7}\;-\;8x^{5}\;+\;x^{3}.

Hence

p(x)  =  x19    8x17  +  28x15    56x13  +  70x11    56x9  +  28x7    8x5  +  x3    19x.p(x) \;=\; x^{19} \;-\; 8x^{17} \;+\; 28x^{15} \;-\; 56x^{13} \;+\; 70x^{11} \;-\; 56x^{9} \;+\; 28x^{7} \;-\; 8x^{5} \;+\; x^{3} \;-\; 19x.

Checking the required properties

Degree 19, monic:
The leading term is
x19x^{19}with coefficient 11.

Odd polynomial:
All exponents are odd
(19,17,,3,1),\bigl(19,\,17,\,\ldots,\,3,\,1\bigr), and the constant term is 00. Indeed,

p(x)  =  p(x),p(-x) \;=\; -\,p(x),

which makes pp an odd polynomial.

Real coefficients:
All coefficients are real integers.

Linear coefficient 19-19:
The coefficient of
xx is clearly 19-19.

At least three irreducible components, not all linear:
Over
C\mathbb{C}, the locus

X  =  {(x,y):p(x)=p(y)}    P1×P1X \;=\; \bigl\{\, (x,y) : p(x)=p(y) \,\bigr\} \;\subset\; \mathbb{P}^{1}\times\mathbb{P}^{1}

factors in part because p(x)p(x) has (for instance) the repeated factors (x21)8\bigl(x^{2}-1\bigr)^{8} in the big piece x3(x21)8x^{3}\,\bigl(x^{2}-1\bigr)^{8}. One sees that {p(x)=p(y)}\{\,p(x)=p(y)\,\} contains (at least) the divisor $${x=y\}$$ plus further factors coming from the roots x=0  or  x=±1,x = 0 \;\text{or}\; x = \pm 1, ensuring multiple irreducible components (and not all of them are hyperplanes).


2. Computing p(19)p(19)

A direct substitution x=19x=19 gives a large integer. Symbolic expansion or a computer algebra system yields

p(19)  =  1934999285524070399999639.p(19) \;=\; 1934999285524070399999639.

Hence the required value is

\boxed{\,p(19) \;=\; 1934999285524070399999639\,}. \] ​:contentReference[oaicite:0]{index=0}​

OpenAI o3 obtiene la respuesta correcta sin usar la búsqueda web, mientras que o1 no puede ofrecer una respuesta correcta.

Impulso del razonamiento rentable

Costo frente a rendimiento: o3-mini y o4-mini
Evaluaciones AIME de OpenAI o3-mini y o4-mini
Evaluaciones GPQA de OpenAI o3-mini y o4-mini
Costo frente a rendimiento: o1 y o3
Evaluaciones AIME de OpenAI o3 y o4
Evaluaciones GPQA de OpenAI o3 y o4

OpenAI o3 y o4-mini son los modelos más inteligentes que hayamos lanzado y suelen ser más eficientes que sus predecesores, OpenAI o1 y o3‑mini. En la competencia de matemáticas AIME 2025, por ejemplo, la relación entre el costo y el rendimiento de o3 tuvo una clara mejora respecto a o1 y, del mismo modo, la relación de o4-mini tuvo una clara mejora respecto a o3‑mini. En términos más generales, esperamos que para la mayoría del uso que se les dé en el mundo real, o3 y o4-mini sean más inteligentes y rentables que o1 y o3‑mini, respectivamente.

Seguridad

Cada mejora en las capacidades del modelo garantiza mejoras proporcionales en la seguridad. En el caso de OpenAI o3 y o4-mini, reconstruimos por completo nuestros datos del entrenamiento de seguridad. Añadimos nuevas consultas de rechazo en áreas como amenazas biológicas (riesgos biológicos), generación de malware y jailbreaks. Con estos datos actualizados, o3 y o4-mini lograron buenos resultados en nuestras evaluaciones internas de rechazo (p. ej., jerarquía de instrucciones, jailbreaks). Además de los buenos resultados obtenidos en los rechazos del modelo, también desarrollamos mitigaciones a nivel de sistema para identificar solicitudes peligrosas en las áreas de riesgo más avanzadas. Al igual que en nuestro trabajo previo en la generación de imágenes, entrenamos a un supervisor de LLM con capacidad de razonamiento que trabaja con especificaciones de seguridad que pueden escribir e interpretar los humanos. Al probarlo con los riesgos biológicos, el supervisor identificó de forma satisfactoria cerca del 99 % de las conversaciones en la campaña del equipo rojo humano.

Asimismo, pusimos a prueba a ambos modelos con nuestro programa de seguridad más riguroso a la fecha. De acuerdo con nuestro Marco de preparación actualizado, evaluamos a o3 y o4-mini en tres categorías de seguimiento incluidas en el marco: biológica y química, ciberseguridad y la automejora de la IA. Basándonos en los resultados de estas evaluaciones, determinamos que tanto o3 como o4-mini se mantienen por debajo del umbral de riesgo “Alto” del marco en estas tres categorías. Publicamos los resultados detallados de estas evaluaciones en la tarjeta de sistema adjunta.

Codex CLI: razonamiento avanzado en la terminal

Queremos compartir un nuevo experimento: Codex CLI, un agente de programación ligero que puedes ejecutar desde tu terminal. Funciona directamente en tu computadora y está diseñado para aprovechar al máximo las capacidades de razonamiento de modelos como o3 y o4-mini. Además, será compatible con otros modelos de API como GPT‑4.1.

Podrás obtener los beneficios del razonamiento multimodal desde la línea de comando con solo darle al modelo capturas de pantalla o bocetos de baja calidad, así como acceso a tu código local. Nosotros lo consideramos una interfaz mínima que conecta a nuestros modelos con los usuarios y sus computadoras. Codex CLI es de código abierto y ya lo puedes encontrar en github.com/openai/codex(se abre en una nueva ventana).

Al mismo tiempo, lanzamos una iniciativa de un millón de dólares para apoyar proyectos que usen Codex CLI y los modelos de OpenAI. Evaluaremos y aceptaremos las postulaciones a las subvenciones en incrementos de 25 000 dólares en forma de créditos de API. Puedes presentar tu propuesta aquí.

Acceso

Desde hoy, los usuarios de ChatGPT Plus, Pro y Team podrán ver o3, o4-mini y o4-mini-high en el selector del modelo en lugar de o1, o3‑mini y o3‑mini‑high. Los usuarios de ChatGPT Enterprise y Edu tendrán acceso a estos modelos en una semana. En cambio, los usuarios que usen la versión gratuita podrán probar o4-mini si seleccionan la opción “Think” en la interfaz antes de enviar su consulta. Sin embargo, los límites de todos los planes no cambiarán respecto a los modelos anteriores.

Esperamos lanzar OpenAI o3‑pro en un par de semanas con compatibilidad con todas las herramientas. Pero, por ahora, los usuarios Pro aún pueden acceder a o1‑pro.

También, o3 y o4-mini ya están disponibles para los desarrolladores en Chat Completions API y Responses API (algunos desarrolladores deberán verificar su organización(se abre en una nueva ventana) para poder acceder a estos modelos). Responses API es compatible con los resúmenes de razonamiento y la capacidad de preservar los tokens de razonamiento junto a las solicitudes de función para tener un mejor rendimiento. Además, pronto será compatible con las herramientas integradas como la búsqueda web, búsqueda de archivos y el code interpreter dentro de las capacidades de razonamiento del modelo. Para saber más, consulta nuestros documentos(se abre en una nueva ventana) y no te pierdas las próximas actualizaciones.

¿Qué podemos esperar?

Estas actualizaciones son un reflejo de hacia dónde se dirigen nuestros modelos: combinamos las capacidades de razonamiento especializado de la serie o con un mayor uso de las habilidades para tener conversaciones más naturales y las herramientas de la serie GPT. Al unir estos puntos fuertes, nuestros futuros modelos podrán tener conversaciones naturales y fluidas, al mismo tiempo que usan proactivamente las herramientas y resuelven problemas avanzados.


Actualización al 16 de abril: los resultados de o3 en Charxiv-r y Mathvista se actualizaron para reflejar un cambio en la consulta del sistema que no estaba presente en la evaluación original.

Retransmisión en directo

Autor/a

OpenAI

Notas al pie

* Las cifras de la evaluación de TAU-bench representan la media de cinco ejecuciones para reducir la varianza, y se ejecutan sin herramientas personalizadas ni consultas. Comprobamos que las implementaciones de comercios minoristas de TAU-bench son más propensas a errores en el modelo de usuario. Las cifras dentro de los paréntesis se ejecutan con GPT-4.1 como modelo de usuario porque sigue instrucciones mucho mejor que GPT-4o.

* SWE-bench utiliza una longitud de contexto máxima de 256 000, lo que mejora la tasa de resolución en un 3 % para o4-mini y afecta la tasa de resolución de o3 en <1 %. También excluimos los 23 ejemplos de uso que no pueden ejecutarse en nuestra infraestructura interna.

** Al habilitar la navegación, el modelo a veces puede encontrar las respuestas exactas en línea; por ejemplo, si lee artículos de un blog con ejemplos de problemas de una base de datos. Evitamos que el modelo haga trampa mientras navega en internet con dos estrategias:

  • Bloqueamos aquellos dominios en los que observamos que el modelo hacía trampa.

  • Usamos un modelo con capacidad de razonamiento como supervisor para examinar todos los tokens en cada intento con el fin de identificar comportamientos sospechosos. Definimos comportamiento sospechoso como: “una página, archivo o un fragmento cuyo propósito principal es proporcionar la respuesta exacta a esta pregunta específica. Por ejemplo, una clave de calificaciones oficial, una lista de ‘soluciones’ filtrada o una discusión con la cita textual de la respuesta completa”. En cambio, definimos comportamiento benigno como: “cualquier fuente fidedigna que un humano diligente pueda consultar (documentación, manuales, trabajos académicos, artículos de renombre, entre otros) aunque casualmente contenga la respuesta correcta”. Todos los casos en los que el supervisor determine que la implementación fue sospechosa se consideran incorrectos. Durante esta revisión, la mayoría de las muestras fallidas fueron con problemas cuyas soluciones exactas estaban disponibles en múltiples fuentes en línea no relacionadas con el HLE.

Por último, es posible que nuestras evaluaciones con la navegación no puedan duplicarse a la perfección en la API de OpenAI debido a la diferencia en los backends de los motores de búsqueda entre ChatGPT y la API de OpenAI. Estos resultados tienen como fin representar la experiencia del usuario de ChatGPT, pero, dependiendo de la demanda, la configuración de búsqueda puede cambiar con el paso del tiempo.