Ir al contenido principal
OpenAI

16 de abril de 2025

LanzamientoProducto

Presentamos OpenAI o3 y o4-mini

Nuestros modelos más inteligentes y con más capacidades hasta ahora, y con acceso a todas las herramientas

Cargando…

Hoy, lanzamos OpenAI o3 y o4-mini, las últimas novedades dentro nuestros modelos de la serie o. Es decir, aquellos entrenados para pensar durante más tiempo antes de responder. De hecho, se trata de los modelos más inteligentes que hemos lanzado hasta la fecha, y esto representa un avance decisivo en las capacidades que ChatGPT ofrece a todo el mundo, desde los simples curiosos hasta los investigadores avanzados. Es más, por primera vez, nuestros modelos con capacidad de razonamiento pueden usar y combinar, de forma autónoma, todas las herramientas de ChatGPT. En otras palabras, pueden usar la búsqueda web, analizar los archivos que sube el usuario y otros datos con Python, razonar en profundidad sobre entradas de datos visuales e, incluso, generar imágenes. Lo más importante es que estos modelos están entrenados para razonar sobre cuándo y cómo usar las herramientas para ofrecer respuestas detalladas y bien reflexionadas en el formato de salida correspondiente para resolver problemas más complejos. Generalmente, lo hacen en menos de un minuto. De esta forma, pueden abordar preguntas polifacéticas con mayor eficacia, y esto supone un paso hacia un ChatGPT más autónomo que pueda realizar tareas por ti de forma independiente. Gracias a su capacidad de combinar el razonamiento más avanzado con el acceso total a las herramientas, ofrecen un rendimiento significativamente mayor en las pruebas comparativas académicas y en las tareas de la vida real. Por lo tanto, establecen un nuevo estándar tanto en inteligencia como en utilidad.

¿Qué es lo que ha cambiado?

OpenAI o3 es nuestro modelo con capacidad de razonamiento más potente, y amplía las fronteras de la programación, las matemáticas, la ciencia, la percepción visual y muchas áreas más. Establece una nueva puntuación SOTA en pruebas comparativas como Codeforces, SWE-bench (sin tener que crear un scaffold específico para el modelo) y MMMU. Es perfecto para consultas complejas que requieren un análisis polifacético y para las que las respuestas pueden no ser obvias a primera vista. Su rendimiento destaca, especialmente, en las tareas visuales como el análisis de imágenes, tablas y gráficos. En las evaluaciones que los expertos externos han llevado a cabo, o3 comete un 20 % menos de errores importantes que OpenAI o1 en tareas complejas de la vida real. De hecho, destaca especialmente en áreas como la programación, los negocios o consultorías y las ideas creativas. Los primeros testers destacaron, principalmente, su rigor analítico como herramienta de pensamiento y su capacidad para generar y evaluar de forma crítica hipótesis novedosas. En especial, en el ámbito de la biología, las matemáticas y la ingeniería.

OpenAI o4-mini es un modelo más pequeño, pero optimizado para ofrecer un razonamiento rápido y rentable. Además, alcanza un rendimiento sorprendente si tenemos en cuenta su tamaño y coste, especialmente en tareas visuales, matemáticas y de programación. Es el modelo con mejor rendimiento en las pruebas comparativas de AIME 2024 y 2025. En las evaluaciones que han llevado a cabo los expertos, también supera a su predecesor, o3‑mini, en tareas que no están relacionadas con las STEM y en otras áreas, como la ciencia de datos. Así pues, gracias a su eficiencia, o4-mini es compatible con límites de uso más altos que los de o3, lo que lo convierte en una opción robusta de alto rendimiento para grandes volúmenes de preguntas que requieran un mayor razonamiento.

Los evaluadores expertos externos consideraron que ambos modelos muestran una mejor capacidad para seguir las instrucciones y ofrecen respuestas más útiles y verificables que sus predecesores, gracias a su inteligencia mejorada y a la inclusión de los recursos web. Además, si los comparamos con iteraciones anteriores de nuestros modelos con capacidad de razonamiento, estos dos modelos también deberían resultar más naturales y amenos. Sobre todo, porque hacen referencia a la memoria y a conversaciones anteriores para que las respuestas sean más personalizadas y tengan más sentido.

Multimodal

Programación

Seguimiento de las instrucciones y uso autónomo de herramientas

Evaluamos todos los modelos en configuraciones de «reasoning effort» similares a variantes como «o4-mini-high» en ChatGPT.

Seguimos ampliando el aprendizaje por refuerzo (RL)

Durante el desarrollo de OpenAI o3, nos hemos dado cuenta de que el aprendizaje por refuerzo a gran escala muestra la misma tendencia de «más computación = mejor rendimiento» que observamos en el preentrenamiento de la serie GPT. Así pues, al repetir el proceso de escalamiento, pero esta vez en el RL, hemos incrementado aún más tanto el entrenamiento de la computación como el razonamiento en el momento de la inferencia. Y, aun así, se observa un claro aumento del rendimiento, lo que confirma que el rendimiento de los modelos mejora cuanto más se les permite pensar. De esta forma, con la misma latencia y coste que OpenAI o1, o3 ofrece un mejor rendimiento en ChatGPT. Además, hemos comprobado que, si se le deja pensar durante más tiempo, su rendimiento sigue aumentando.

También hemos entrenado a ambos modelos para que usen herramientas mediante el aprendizaje por refuerzo. No solo les enseñamos a utilizarlas, sino también a razonar sobre cuándo hacerlo. Su capacidad de usar herramientas basadas en los resultados que buscan, los hace más capaces de resolver problemas abiertos, especialmente, los que están relacionados con el razonamiento visual y los flujos de trabajo en varios pasos. Nuestros primeros testers indican que estas mejoras se reflejan tanto en las pruebas comparativas académicas como en las tareas del mundo real.

Pensar con imágenes

ChatGPT pensando con imágenes

Por primera vez, estos modelos pueden integrar imágenes directamente en su cadena de pensamiento. Ya no se limitan a «ver» una imagen, ahora piensan con ella. Esto abre la puerta a una nueva manera de resolver problemas que combina el razonamiento visual y textual, lo que se demuestra en su rendimiento avanzado en las pruebas comparativas multimodales.

Así pues, los usuarios pueden subir una foto de una pizarra, un diagrama de un libro de texto o un boceto dibujado a mano, y el modelo puede interpretarlo sin importar si la imagen está borrosa, invertida o tiene baja calidad. Y, gracias al uso de herramientas, los modelos pueden manipular las imágenes en el acto. Pueden rotarlas, hacer zoom o transformarlas como parte de su proceso de razonamiento.

Estos modelos ofrecen una precisión sobresaliente en tareas de percepción visual. Gracias a ello, pueden resolver problemas que, anteriormente, estaban fuera de su alcance. Lee el artículo sobre el razonamiento visual para descubrir más.

De camino hacia el uso autónomo de herramientas

Tanto OpenAI o3 como o4-mini tienen acceso completo a las herramientas de ChatGPT. Además, también pueden acceder a tus propias herramientas personalizadas gracias a la solicitud de funciones de la API. Y, como estos modelos están entrenados para razonar sobre cómo resolver los problemas y para elegir cuándo y cómo utilizar las herramientas, producen respuestas más detalladas y pensadas en los formatos de salida adecuados de forma rápida (normalmente, en menos de un minuto).

Por ejemplo, un usuario podría preguntar: «How will summer energy usage in California compare to last year?» (¿Cómo será el consumo de energía en California este verano comparado con el año pasado?). El modelo puede buscar en internet los datos de los servicios públicos, escribir un código en Python que le permita elaborar una previsión, generar un gráfico o una imagen y explicar los factores clave de la previsión, y así encadena varias solicitudes a la herramienta. El razonamiento permite que los modelos puedan reaccionar y adaptarse en función de la información que encuentren. Un ejemplo de esto es que pueden hacer búsquedas en internet varias veces gracias a los proveedores de búsqueda, consultar los resultados allí y hacer nuevas búsquedas si necesitan más información.

Este enfoque flexible y estratégico hace que los modelos puedan enfrentarse a tareas que requieren acceso a información actualizada (que no está incluida en los conocimientos que tienen incorporados), a un razonamiento ampliado, a la síntesis y a la generación de resultados en diferentes modalidades.

Todos los ejemplos se han completado con OpenAI o3.

OpenAI o3

Solve the following very hard math problem using your in-built knowledge of the literature:

Construct a degree 19 polynomial \ (p(x)) \ in \ mathbb{C}[x] such that \ (X := \ {\, p(x) = p(y) \, \} \ subset \ mathbb{P}^{1} \ times \ mathbb{P}^{1}\ ) has at least 3 (but not all linear) irreducible components over \ mathbb{C}. Choose \ (p(x)\ ) to be odd, monic, have real coefficients and linear coefficient \ (-19\ ) and calculate \ (p(19)\ ).

Razonó sobre la construcción de polinomios durante 55 segundos
  • The curve defined by p(x) = p(y) factors if p(x) is decomposable or has repeated factors. Actually, p(x)-p(y) always factors, and it’s divisible by (x-y). This gives one factor, and the rest is a degree d-1 polynomial in x and y. For the curve to have at least three irreducible components, p(x)-p(y) must factor into at least three nontrivial factors. Each factor corresponds to a component in projective space, and at least one must be nonlinear.
  • I’m checking the Dickson polynomials D_n(x,a) and focusing on their coefficients. With a=1, it seems the leading coefficient is always 1, confirming that Dickson polynomials are monic. The linear coefficient for odd n is following a predictable sign pattern: for n=19, it gives a coefficient of -19, which is exactly what I need. So the Dickson polynomial D_n(x,1) with odd n fits nicely with the linear coefficient I was looking for.
  • I've confirmed that the linear coefficient for p(x)=D19(x)p(x) = D_{19}(x)p(x)=D19​(x) is correct, with the necessary scaling factor to match. Now for the next step, I need to compute D19(19)D_{19}(19)D19​(19). Since Tn(z)T_n(z)Tn​(z) grows quickly for real z>1z > 1z>1, I plan to compute this value using Python, leveraging the recurrence to avoid mistakes—it's going to be a big number. I'll make sure to present the numeric result neatly so it's understandable since the coefficients are integers.
  • The Dickson polynomial D_{19}(x,1) is confirmed to have the required properties: monic, odd, real coefficients, and a linear coefficient of -19. The factorization of D_{19}(x) into irreducible components is also verified and satisfies the condition of having at least 10 components (1 linear + 9 quadratics). To compute p(19), we'll use the recurrence relation for Dickson polynomials, but there's also a closed-form expression involving cosine that could be handy here. I'll proceed accordingly!
  • I confirmed the linear coefficient is working correctly, which means now I need to calculate p(19)=D19(19)p(19) = D_{19}(19)p(19)=D19​(19). This involves evaluating T19(9.5)T_{19}(9.5)T19​(9.5), which grows rapidly. To ensure I get an accurate result, I'll compute this using recurrence in Python. The result is a large number: 1,876,572,071,974,094,803,391,179. I'll use the commas to make it easier to read: p(19)=1,876,572,071,974,094,803,391,179p(19) = 1,876,572,071,974,094,803,391,179p(19)=1,876,572,071,974,094,803,391,179.
  • For a = 1, there’s a relationship between Dickson polynomials and Chebyshev polynomials: D_n(x, 1) = 2^(n-1) T_n(x/2). Checking this, we see that the definition of D_n(u + 1/u) aligns well with Chebyshev’s formula. By setting x = 2 cos(θ), we find that D_n(x) equals 2 T_n(x/2). Importantly, the leading coefficient works out to 1, confirming the identity holds. This is nice!
  • Now, I need to verify that p(x)−p(y)p(x) - p(y)p(x)−p(y) factors as desired, relying on the known Dickson polynomial factorization. According to the literature (like Fried and Jarden), the difference Dn(x)−Dn(y)D_n(x) - D_n(y)Dn​(x)−Dn​(y) factors into a product involving (x−y)(x - y)(x−y) and other expressions. I'll provide the explicit polynomial D19(x,1)D_{19}(x, 1)D19​(x,1), list the coefficients, and explain how it satisfies the desired properties: monic, odd, etc. Lastly, I'll compute p(19)p(19)p(19).

Analyzed

Python

1
from math import comb, cos, acos
2
# Let's compute Dickson D_n(x,a=1) recursively
3
def dickson(n,x,a=1):
4
if n==0:
5
return 2
6
if n==1:
7
return x
8
Dm2=2
9
Dm1=x
10
for k in range(2,n+1):
11
D= x*Dm1 - a*Dm2
12
Dm2, Dm1 = Dm1, D
13
return Dm1
14

15
d19 = dickson(19,19,1)
16
d19

1876572071974094803391179

Analyzed

Python

1
d19

1876572071974094803391179

Analyzed

Python

1
import locale, sys, math, json, textwrap, re, decimal

Analyzed

Python

1
"{:,}".format(d19)

'1,876,572,071,974,094,803,391,179'

Analyzed

Python

1
# compute coefficients of Dickson polynomial D_n(x,1) via recurrence polynomial representation
2
from sympy import symbols, Poly
3

4
x = symbols('x')
5
def dickson_poly(n):

Poly(x**19 - 19*x**17 + 152*x**15 - 665*x**13 + 1729*x**11 - 2717*x**9 + 2508*x**7 - 1254*x**5 + 285*x**3 - 19*x, x,

Analyzed

Python

1
poly19.as_expr()

x**19 - 19*x**17 + 152*x**15 - 665*x**13 + 1729*x**11 - 2717*x**9 + 2508*x**7 - 1254*x**5 + 285*x**3 - 19*x

Done

A convenient way to force many factors in
p(x)    p(y)p(x) \;-\; p(y) is to use a Dickson polynomial of the first kind.
For a parameter
aCa \in \mathbb{C} in math these are defined by

D0 ⁣(x,a)=2,  D1 ⁣(x,a)=x,  Dn ⁣(x,a)=xDn1 ⁣(x,a)aDn2 ⁣(x,a)(n2),D_0\!\left(x,\, a\right) = 2,\; D_1\!\left(x,\, a\right) = x,\; D_n\!\left(x,\, a\right) = x\,D_{n-1}\!\left(x,\, a\right) - a\,D_{n-2}\!\left(x,\, a\right)\quad (n \ge 2),

and satisfy the functional identity

Dn ⁣(u+au,a)=un+anun.D_n\!\left(u + \frac{a}{u},\, a\right) = u^{n} + \frac{a^{n}}{u^{n}}.


1. Choosing the polynomial

Take a=1a = 1 and n=19n=19.
Because
nn is odd, D19 ⁣(x,1)D_{19}\!\left(x,\, 1\right) is an odd polynomial; the recurrence immediately shows it is monic and has integer (hence real) coefficients.
The coefficient of
xx is x=(1)n12n=19,x = (-1)^{\frac{n-1}{2}}\,n = -19, so all requested normalisations are satisfied.

Writing it out gives

p(x)=D19 ⁣(x,1)=x1919x17+152x15665x13+1729x112717x9+2508x71254x5+285x319x. \boxed{% p(x) = D_{19}\!\left(x,1\right) = x^{19} - 19x^{17} + 152x^{15} - 665x^{13} + 1729x^{11} - 2717x^{9} + 2508x^{7} - 1254x^{5} + 285x^{3} - 19x% }\,.


2. Irreducible components of fX  =  {p(x)=p(y)}fX \;=\; \bigl\{\, p(x) = p(y) \,\bigr\}

For Dickson polynomials one has the classical factorisation

Dn ⁣(x,1)    Dn ⁣(y,1)  =  (xy)j=1n12(x2+y22cos ⁣(2πjn)xy4sin2 ⁣(πjn)),D_n\!\left(x,1\right) \;-\; D_n\!\left(y,1\right) \;=\; (x - y)\, \prod_{j=1}^{\frac{n-1}{2}} \Bigl( x^{2} + y^{2} - 2\cos\!\bigl(\tfrac{2\pi j}{n}\bigr)\,xy - 4\sin^{2}\!\bigl(\tfrac{\pi j}{n}\bigr) \Bigr),

where each quadratic factor is irreducible over C\mathbb{C} (see, e.g., Lidl–Niederreiter, Finite Fields, §3.6).
For
n=19n=19 this gives

  • one linear component x=y;x=y;
  • nine quadratic components (corresponding to (j=1,,9).\bigl(j = 1,\,\ldots,\,9\bigr).

Hence XP1×P1X \subset \mathbb{P}^{1} \times \mathbb{P}^{1} has 1010 irreducible components, at least three of them and not all linear, as required.


3. Evaluating p(19)p(19)

Using the recurrence (or the identity Dn ⁣(x,1)  =  2Tn ⁣(x2)D_n\!\left(x,\,1\right) \;=\; 2\,T_n\!\bigl(\tfrac{x}{2}\bigr) with Chebyshev TnT_n one obtains

p(19)  =  D19 ⁣(19,1)  =  1876572071974094803391179.p(19) \;=\; D_{19}\!\left(19,\,1\right) \;=\; 1\,876\,572\,071\,974\,094\,803\,391\,179.


Thus the polynomial above fulfils every condition, and

p(19)  =  1,876,572,071,974,094,803,391,179.\boxed{% p(19) \;=\; 1{,}876{,}572{,}071{,}974{,}094{,}803{,}391{,}179 }.

OpenAI o1

Solve the following very hard math problem using your in-built knowledge of the literature:

Construct a degree 19 polynomial \ (p(x)) \ in \ mathbb{C}[x] such that \ (X := \ {\, p(x) = p(y) \, \} \ subset \ mathbb{P}^{1} \ times \ mathbb{P}^{1}\ ) has at least 3 (but not all linear) irreducible components over \ mathbb{C}. Choose \ (p(x)\ ) to be odd, monic, have real coefficients and linear coefficient \ (-19\ ) and calculate \ (p(19)\ ).

Pensó sobre ello durante 1 minuto y 19 segundos

I’m piecing together a degree 19 polynomial with only odd powers and a linear coefficient of -19, like: p(x)=x19+a17x17+…+a1xp(x) = x^{19} + a_{17}x^{17} + \ldots + a_1xp(x)=x19+a17​x17+…+a1​x.

I'm examining if the polynomial p(x)=x19+a17x17+…+a3x3−19xp(x) = x^{19} + a_{17}x^{17} + \ldots + a_3x^3 - 19xp(x)=x19+a17​x17+…+a3​x3−19x has a notable classical form, considering symmetry or factorization for multiple irreducible components.

To ensure p(x)p(x)p(x) has three or more irreducible components, I’m considering the factorization of p(x)−p(y)p(x) - p(y)p(x)−p(y) into at least three irreducible factors in C[x,y]\mathbb{C}[x,y]C[x,y].

I'm working through x19−y19x^{19} - y^{19}x19−y19 to ensure it balances linear and nonlinear factors, aiming for a polynomial with at least three irreducible components that aren't all linear.

Taking a closer look at how p(x)−p(y)p(x) - p(y)p(x)−p(y) can be factored into three distinct polynomials in xxx, aiming to achieve the desired irreducible components.

I'm thinking about how composing ppp with simpler polynomials, like xm−cx^m - cxm−c, could result in multiple irreducible components, achieving at least three distinct factors.

I’m exploring the factorization of p(x)−p(y)p(x) - p(y)p(x)−p(y) with cyclotomic polynomials. This method generates nnn linear irreducible factors, which might not achieve the required three distinct components.

I'm focusing on constructing an "odd" and monic polynomial, ensuring all exponents are odd and the leading term is x19x^{19}x19. This approach aims to achieve the desired factorization.

I'm working with the Chebyshev polynomials to ensure p(x)−p(y)p(x) - p(y)p(x)−p(y) has at least three irreducible components, leveraging their even or odd properties to manage coefficients.

Considering the odd Chebyshev polynomial T19(x)T_{19}(x)T19​(x) for potential factorization, while also examining composite polynomials of lower degrees to enhance factorization properties.

I'm analyzing how a polynomial composed of lower-degree polynomials, like (x3−3x)k(x^3 - 3x)^k(x3−3x)k, could yield p(x)−p(y)p(x) - p(y)p(x)−p(y) with at least three irreducible components.

Piecing together polynomials with integer coefficients, like (x3−3x)k(x^3 - 3x)^k(x3−3x)k, to achieve factorization in p(x)−p(y)p(x) - p(y)p(x)−p(y) with at least three irreducible components, aiming for degree 19.

I’m examining how p(x)=(x3−3x)kp(x) = (x^3 - 3x)^kp(x)=(x3−3x)k or p(x)=x19−19xp(x) = x^19 - 19xp(x)=x19−19x might yield p(x)−p(y)p(x) - p(y)p(x)−p(y) with three irreducible components, focusing on ensuring the polynomial is of degree 19.

I’m analyzing p(x)−p(y)p(x) - p(y)p(x)−p(y) into (x−y)(x18+x17y+…+y18−19)(x-y)(x^{18} + x^{17}y + \ldots + y^{18} - 19)(x−y)(x18+x17y+…+y18−19) to identify irreducible components. The polynomial factor x18+x17y+…+y18−19x^{18} + x^{17}y + \ldots + y^{18} - 19x18+x17y+…+y18−19 remains challenging to factor further.

I’m thinking through a new approach: adjusting the Chebyshev polynomial T19(x)T_{19}(x)T19​(x) to make it monic, aiming to achieve at least three irreducible components in p(x)−p(y)p(x) - p(y)p(x)−p(y).

OK, let's think through. I’m tweaking T19(x)T_{19}(x)T19​(x)'s coefficients to keep the polynomial monic and check if it simplifies into multiple irreducible components.

I'm thinking over various factorization strategies for a monic polynomial of degree 19. The goal is to ensure at least one non-linear factor and achieve at least three irreducible components in p(x)−p(y)p(x) - p(y)p(x)−p(y).

I’m updating my approach to factor x2+xy+y2−1x^2 + xy + y^2 - 1x2+xy+y2−1 over complex numbers by exploring change of variables and third roots of unity. This helps in achieving the desired polynomial structure.

I'm combining x3−xx^3 - xx3−x with x19−19xx^{19} - 19xx19−19x to tweak the polynomial's coefficients and complexity, aiming to include more non-linear factors for the desired irreducibility.

Piecing together p(x)=x19−x3−19xp(x) = x^{19} - x^3 - 19xp(x)=x19−x3−19x to ensure it’s odd, monic, and has the required linear coefficient. This targets the desired irreducible factorizations.

I’m mapping out the second factor x18+…+y18−x2−xy−y2−19x^{18} + \ldots + y^{18} - x^2 - xy - y^2 - 19x18+…+y18−x2−xy−y2−19 to see if it can split into three irreducible components.

I’m considering methods to factorize the polynomial by making it divisible by x−yx - yx−y and ensuring the remaining factor splits into exactly two irreducible components, aiming for a less complex factorization.

I’m examining the polynomial x18+x17y+…+y18x^{18} + x^{17}y + \ldots + y^{18}x18+x17y+…+y18 and noting it simplifies to x19−y19x−y\frac{x^{19} - y^{19}}{x - y}x−yx19−y19​, which might reveal further irreducible factors.

I’m mapping out the polynomial x(x18−1)−y(y18−1)x−y\frac{x(x^{18}-1) - y(y^{18}-1)}{x-y}x−yx(x18−1)−y(y18−1)​ for further factorization. This might yield just two irreducible components, which falls short of three.

I’m exploring whether the polynomial p(x)=x19−(x3)p(x) = x^19 - (x^3)p(x)=x19−(x3) can be expressed as the composition of a smaller polynomial with xkx^kxk, potentially revealing multiple irreducible components.

I'm examining if the polynomial T19(x)T_{19}(x)T19​(x) can be factored using trigonometric identities, seeking partial factorization without fully linearizing, to gain multiple irreducible components.

OK, let me see. Trigonometric identities show multiple solutions for θ\thetaθ and ϕ\phiϕ, likely leading to 19 or 38 linear factors for T19(x)T_{19}(x)T19​(x).

I’m examining how the equation arccos⁡x=±arccos⁡y+2kπ19\arccos x = \pm \arccos y + \frac{2k\pi}{19}arccosx=±arccosy+192kπ​ leads to possible multiple branches, potentially irreducible in the algebraic sense, and needing an example with at least three non-linear irreducible components.

OK, let me see. I’m pulling together details on the polynomial x3(x2−1)8+xx^3 (x^2 - 1)^8 + xx3(x2−1)8+x. It’s monic, with x19x^{19}x19 as the leading term, ensuring it meets key criteria.

I’m noting that the polynomial p(x)=x3(x2−1)8+xp(x) = x^3 (x^2 - 1)^8 + xp(x)=x3(x2−1)8+x is odd, with its linear coefficient patterning to -19.

I’m figuring out how to adjust the linear coefficient of polynomial p(x)p(x)p(x) to -19 by adding a constant factor ccc in front of xxx to ensure it’s adequately modified.

By tweaking the linear coefficient of p(x)=x3(x2−1)8+cxp(x) = x^3 (x^2 - 1)^8 + c xp(x)=x3(x2−1)8+cx to -19, it ensures the polynomial remains monic, odd, and real.

I’m working on adding a constant factor ccc to xxx in p(x)=x3(x2−1)8+cxp(x) = x^3 (x^2 - 1)^8 + c xp(x)=x3(x2−1)8+cx to ensure the linear coefficient is -19, making the polynomial monic, odd, and real.

I'm piecing together the polynomial p(x)=x3(x−1)8(x+1)8p(x) = x^3 (x-1)^8 (x+1)^8p(x)=x3(x−1)8(x+1)8 and considering how p(x)−p(y)p(x) - p(y)p(x)−p(y) might factor with factors like x−yx-yx−y.

I’m confirming p(x)p(x)p(x) is monic, odd, and real, with a linear coefficient of -19, by expanding x3(x2−1)8x^3 (x^2 -1)^8x3(x2−1)8 to set the constant ccc.

I found that for p(x) to have a coefficient of -19 for the x term, c must be -19. The polynomial, p(x), incorporates this constant and preserves the original polynomial's structure.

Below is one concrete example (over the reals) of an odd, monic, degree 19 polynomial with linear coefficient 19-19 whose zero-locus relation {p(x)=p(y)} in P1×P1\{\,p(x)=p(y)\,\}\ \text{in }\mathbb{P}^{1}\times\mathbb{P}^{1} splits into at least three irreducible components (and not all components are linear). We then compute p(19)p(19).


1. The polynomial

Consider

p(x)  =  x3(x21)8    19x.p(x) \;=\; x^{3}\,\bigl(x^{2}-1\bigr)^{8} \;-\; 19x.

We can expand

x3(x21)8  =  x19    8x17  +  28x15    56x13  +  70x11    56x9  +  28x7    8x5  +  x3.x^{3}\,\bigl(x^{2}-1\bigr)^{8} \;=\; x^{19}\;-\;8x^{17}\;+\;28x^{15}\;-\;56x^{13}\;+\;70x^{11} \;-\;56x^{9}\;+\;28x^{7}\;-\;8x^{5}\;+\;x^{3}.

Hence

p(x)  =  x19    8x17  +  28x15    56x13  +  70x11    56x9  +  28x7    8x5  +  x3    19x.p(x) \;=\; x^{19} \;-\; 8x^{17} \;+\; 28x^{15} \;-\; 56x^{13} \;+\; 70x^{11} \;-\; 56x^{9} \;+\; 28x^{7} \;-\; 8x^{5} \;+\; x^{3} \;-\; 19x.

Checking the required properties

Degree 19, monic:
The leading term is
x19x^{19}with coefficient 11.

Odd polynomial:
All exponents are odd
(19,17,,3,1),\bigl(19,\,17,\,\ldots,\,3,\,1\bigr), and the constant term is 00. Indeed,

p(x)  =  p(x),p(-x) \;=\; -\,p(x),

which makes pp an odd polynomial.

Real coefficients:
All coefficients are real integers.

Linear coefficient 19-19:
The coefficient of
xx is clearly 19-19.

At least three irreducible components, not all linear:
Over
C\mathbb{C}, the locus

X  =  {(x,y):p(x)=p(y)}    P1×P1X \;=\; \bigl\{\, (x,y) : p(x)=p(y) \,\bigr\} \;\subset\; \mathbb{P}^{1}\times\mathbb{P}^{1}

factors in part because p(x)p(x) has (for instance) the repeated factors (x21)8\bigl(x^{2}-1\bigr)^{8} in the big piece x3(x21)8x^{3}\,\bigl(x^{2}-1\bigr)^{8}. One sees that {p(x)=p(y)}\{\,p(x)=p(y)\,\} contains (at least) the divisor $${x=y\}$$ plus further factors coming from the roots x=0  or  x=±1,x = 0 \;\text{or}\; x = \pm 1, ensuring multiple irreducible components (and not all of them are hyperplanes).


2. Computing p(19)p(19)

A direct substitution x=19x=19 gives a large integer. Symbolic expansion or a computer algebra system yields

p(19)  =  1934999285524070399999639.p(19) \;=\; 1934999285524070399999639.

Hence the required value is

\boxed{\,p(19) \;=\; 1934999285524070399999639\,}. \] ​:contentReference[oaicite:0]{index=0}​

OpenAI o3 obtiene la respuesta correcta sin utilizar la búsqueda web, mientras que o1 no consigue ofrecer una respuesta correcta.

Nuestros avances en modelos de razonamiento económicos

Coste vs. rendimiento: o3-mini y o4-mini
Evaluaciones AIME de OpenAI o3-mini y o4-mini
Evaluaciones GPQA de OpenAI o3-mini y o4-mini
Coste vs. rendimiento: o1 y o3
Evaluaciones AIME de OpenAI o3 y o4
Evaluaciones GPQA de OpenAI o3 y o4

OpenAI o3 y o4-mini son los modelos más inteligentes que hemos lanzado hasta la fecha. Además, a menudo son más eficientes que sus predecesores OpenAI o1 y o3‑mini. Por ejemplo, en la competición de matemáticas AIME 2025, la relación entre coste y rendimiento de o3 mejora claramente con respecto a la de o1. De igual forma, la relación de o4-mini mejora claramente frente a la de o3‑mini. En términos generales, esperamos que, cuando se usen en la vida real, o3 y o4-mini sean más inteligentes y económicos que o1 y o3‑mini, respectivamente.

Seguridad

Como es de esperar, cada mejora en las funciones del modelo conlleva mejoras proporcionales en la seguridad. En el caso de OpenAI o3 y o4-mini, nos hemos encargado de reconstruir nuestros datos de entrenamiento de seguridad por completo. Hemos añadido nuevos prompts de rechazo en áreas como las amenazas biológicas (riesgos biológicos), la generación de malware o los jailbreaks. Con la ayuda de estos datos actualizados, o3 y o4-mini han obtenido muy buenos resultados en nuestras pruebas comparativas internas de rechazo (por ejemplo, la jerarquía de instrucciones, jailbreaks, etc.). Además de obtener buenos resultados en los rechazos que lleva a cabo el modelo, también hemos desarrollado mitigaciones de sistema para identificar prompts peligrosos en las áreas de riesgo emergentes. Al igual que en nuestro trabajo anterior en la generación de imágenes, hemos entrenado un supervisor de LLM con capacidad de razonamiento que trabaja con especificaciones de seguridad que los humanos pueden escribir e interpretar. Cuando se aplicó al área de riesgo biológico, este supervisor identificó con éxito alrededor del 99 % de las conversaciones en la campaña del equipo rojo humano.

Además, hemos sometido a ambos modelos a pruebas de estrés con nuestro programa de seguridad más estricto hasta la fecha. Siguiendo nuestromarco de preparación actualizado, hemos evaluado o3 y o4-mini en las tres categorías de seguimiento que se incluyen en el marco: biológica y química, ciberseguridad y la automejora de la IA. En función de los resultados de estas evaluaciones, hemos determinado que tanto o3 como o4-mini todavía se sitúan por debajo del umbral de riesgo «Alto» del marco en esas tres categorías. Hemos publicado los resultados de estas evaluaciones al detalle en la tarjeta del sistema anexa.

Codex CLI: razonamiento avanzado en el terminal

También queremos compartir un nuevo experimento: Codex CLI, un agente de programación sencillo que puedes ejecutar desde tu terminal. Funciona directamente en tu ordenador y está diseñado para potenciar al máximo las capacidades de razonamiento de modelos como o3 y o4-mini. Además, será compatible con modelos de la API adicionales, como GPT‑4.1.

Puedes aprovechar las ventajas del razonamiento multimodal desde la cadena de comandos al darle al modelo capturas de pantalla o bocetos con baja calidad, además de acceso a tu código de forma local. Lo interpretamos como una interfaz mínima que conecta a nuestros modelos con los usuarios y sus ordenadores. Codex CLI es de código abierto y ya lo puedes encontrar engithub.com/openai/codex(se abre en una ventana nueva).

Simultáneamente, estamos lanzando una iniciativa de un millón de dólares para apoyar proyectos que usen Codex CLI y modelos de OpenAI. Nos encargaremos de evaluar y aceptar cada solicitud para la subvención en incrementos de 25 000 dólares en forma de créditos de la API. Si tienes una propuesta, puedes presentarla aquí.

Acceso

A partir de hoy, en lugar de o1, o3‑mini y o3‑mini‑high, los usuarios de ChatGPT Plus, Pro y Team podrán ver o3, o4-mini y o4-mini-high en el selector de modelos. Los usuarios de ChatGPT Enterprise y Edu tendrán acceso a estos modelos dentro de una semana. Por su parte, los usuarios que usen la versión gratuita de ChatGPT podrán probar o4-mini si seleccionan la opción «Think» en la interfaz antes de enviar su consulta. No obstante, los límites de todos los planes no cambian con respecto a los modelos anteriores.

Esperamos lanzar OpenAI o3‑pro dentro de unas semanas con compatibilidad completa con todas las herramientas. Por ahora, los usuarios Pro todavía pueden acceder a o1‑pro.

Además, desde hoy, tanto o3 como o4-mini están disponibles para los desarrolladores a través de la Chat Completions API y la Responses API (algunos desarrolladores tendrán que verificar su organización(se abre en una ventana nueva) para acceder a los modelos). La Responses API es compatible con los resúmenes de razonamiento y la capacidad de preservar los tókenes de razonamiento junto a las solicitudes de funciones para mejorar el rendimiento. Asimismo, pronto admitirá la integración de herramientas como la búsqueda web, la búsqueda en archivos y el Code Interpreter dentro de las capacidades de razonamiento del modelo. Si quieres conocer más detalles, consulta nuestros documentos⁠(se abre en una ventana nueva) y no te pierdas nuestras próximas actualizaciones.

¿Cuáles son las perspectivas de futuro?

Las novedades que te hemos mostrado hoy reflejan la dirección en la que se dirigen nuestros modelos: estamos combinando las capacidades de razonamiento especializado de la serie o con un mayor uso de las herramientas y habilidades de conversación natural de la serie GPT. Al unificar ambos puntos fuertes, nuestros futuros modelos podrán mantener conversaciones fluidas y naturales, a la vez que hacen un uso proactivo de las herramientas y ofrecen una resolución avanzadas de problemas.


Actualización del 16 de abril: hemos actualizado los resultados de o3 en Charxiv-r y Mathvista para reflejar un cambio en el sistema de prompts que no estaba presente en la evaluación original.

Retransmisión del directo

Autor

OpenAI

Notas al pie

* Las cifras de la evaluación de TAU-bench representan la media de cinco ejecuciones para reducir la variación, y se ejecutan sin herramientas personalizadas o prompts. Hemos comprobado que las implementaciones en comercios minoristas de TAU-bench son más propensas a errores en el modelo de usuario. Las cifras que están entre paréntesis se ejecutan con GPT-4.1 como modelo de usuario porque es notablemente mejor que GPT-4o a la hora de seguir instrucciones.

* SWE-bench utiliza una longitud de contexto máxima de 256 000, lo que mejora la tasa de resolución de o4-mini en, aproximadamente, un 3 % y afecta a la tasa de resolución de o3 en <1 %. Asimismo, hemos excluido 23 ejemplos de uso que no se pueden ejecutar en nuestra infraestructura interna.

** Cuando se habilita la navegación, en ocasiones, el modelo puede encontrar respuestas exactas online. Por ejemplo, si lee las publicaciones de un blog con ejemplos de problemas de un conjunto de datos. Para que el modelo no haga trampa durante la navegación, utilizamos dos estrategias:

  • Bloqueamos los dominios en los que hemos observado que el modelo hacía trampas anteriormente.

  • Usamos un modelo con capacidad de razonamiento como supervisor para examinar todos los tókenes de cada intento para identificar comportamientos sospechosos. En este caso, el comportamiento sospechoso se define como «una página, archivo o fragmento cuyo propósito principal sea proporcionar la respuesta exacta a esta pregunta específica. Por ejemplo, una clave de clasificación oficial, una lista de “soluciones” filtrada o una discusión que cite textualmente una respuesta completa». El comportamiento benigno, por su parte, se define como «cualquier recurso con autoridad que un humano diligente pueda consultar (documentación, manuales, trabajos académicos, artículos de renombre, etc.) aunque, por casualidad, contenga la respuesta correcta». Se consideran incorrectos todos los intentos en los que el supervisor consideró que la implementación era sospechosa. Durante esta comprobación, la mayoría de las muestras fallidas se produjeron por problemas cuya solución exacta estaba disponible en diferentes fuentes de internet no relacionadas con el HLE (Humanity's Last Exam).

Para finalizar, puede que nuestras evaluaciones con respecto a la navegación no se reproduzcan a la perfección en la API de OpenAI debido a la diferencia en los back-ends de los motores de búsqueda que hay entre ChatGPT y la API de OpenAI. Esperamos que estos resultados representen adecuadamente la experiencia del usuario de ChatGPT. No obstante, en función de la demanda, la configuración de búsqueda puede cambiar con el paso del tiempo.