Hopp til hovedinnhold
OpenAI

16. april 2025

UtgivelserProdukt

Vi presenterer OpenAI o3 og o4-mini

De smarteste og mest kapable modellene våre til dags dato – med full tilgang til verktøy

Laster inn …

Oppdatering 10. juni 2025: Nå er OpenAI o3‑pro tilgjengelig for Pro-brukere i ChatGPT samt i API-et vårt. I likhet med OpenAI o1‑pro er o3‑pro en versjon av den mest intelligente modellen vår, OpenAI o3, som er utviklet til å tenke lenger og gi de mest pålitelige svarene. Du finner alle detaljene i versjonsmerknadene(åpnes i et nytt vindu).


I dag lanserer vi OpenAI o3 og o4-mini, de nyeste i o-serien med modeller som er opplært til å tenke lenger før de svarer. Dette er de smarteste modellene vi har lansert til dags dato, og de representerer et betydelig fremskritt i ChatGPTs evner for alle, fra nysgjerrige brukere til avanserte forskere. For første gang kan resonneringsmodellene våre agentisk bruke og kombinere alle verktøyene i ChatGPT. Dette inkluderer nettsøk, analyse av opplastede filer og andre data med Python, dyp resonnering rundt visuelle inndata og til og med bildegenerering. Viktigst av alt er at disse modellene er trent til å resonnere om når og hvordan verktøy skal brukes for å levere detaljerte og gjennomtenkte svar i riktig format, som oftest på under ett minutt, for å løse mer komplekse problemer. Dette gjør dem i stand til å takle mangefasetterte spørsmål mer effektivt, et skritt mot en mer agentisk ChatGPT som uavhengig kan utføre oppgaver på dine vegne. Den kombinerte kraften fra toppmoderne resonnering med full tilgang til verktøy gir betydelig sterkere ytelse på tvers av akademiske mål og oppgaver i den virkelige verden, og setter en ny standard for både intelligens og nytteverdi.

Dette er endret

OpenAI o3 er vår kraftigste resonneringsmodell, og flytter grensene for banebrytende koding, matematikk, vitenskap, visuell persepsjon og mer. Det setter en ny SOTA (state-of-the-art) på referansetester som Codeforces, SWE-bench (uten å bygge en modellspesifikk struktur) og MMMU. Den er ideell for komplekse forespørsler som krever mangefasettert analyse, og hvis svar kanskje ikke er umiddelbart åpenbare. Den er spesielt sterk på visuelle oppgaver som analysering av bilder, diagrammer og grafikk. I evalueringer utført av eksterne eksperter gjør o3 20 prosent færre alvorlige feil enn OpenAI o1 på vanskelige, virkelige oppgaver. Den utmerker seg spesielt innen områder som programmering, forretning/rådgivning og kreativ idéskaping. Tidlige testere fremhevet modellens analytiske grundighet som en tanke­partner, og la vekt på dens evne til å generere og kritisk evaluere nye hypoteser, spesielt innenfor biologi, matematikk og ingeniørfag.

OpenAI o4-mini er en mindre modell som er optimalisert for rask, kostnadseffektiv resonnering. Den oppnår bemerkelsesverdig ytelse for sin størrelse og pris, spesielt innen matematikk, koding og visuelle oppgaver. Det er den best presterende modellen på referansetester for AIME 2024 og 2025. Selv om tilgang til en datamaskin reduserer vanskelighetsgraden på AIME-eksamenen betraktelig, fant vi det bemerkelsesverdig at o4-mini oppnår 99,5 % pass@1 (100 % consensus@8) på AIME 2025 når den får tilgang til en Python-tolk. Selv om disse resultatene ikke bør sammenlignes med ytelsen til modeller uten verktøytilgang, er de et eksempel på hvor effektivt o4-mini utnytter tilgjengelige verktøy. o3 viser lignende forbedringer på AIME 2025 ved bruk av verktøy (98,4 % pass@1, 100 % consensus@8).

I ekspertvurderinger overgår o4-mini også forgjengeren, 03-mini, på ikke-STEM-oppgaver samt på områder som datavitenskap. Takket være effektiviteten støtter o4-mini betydelig høyere bruksgrenser enn o3, noe som gjør den til et sterkt valg for høyt volum og høy gjennomstrømming for spørsmål som drar nytte av resonnering. Eksterne eksperter vurderte begge modellene til å være nyttigere, med forbedret evne til å følge instruksjoner, og mer verifiserbare svar enn sine forgjengere, takket være forbedret intelligens og inkludering av nettbaserte kilder. Sammenlignet med tidligere versjoner av resonneringsmodellene våre, kommer disse to modellene også til å føles mer naturlige og samtalebaserte, særlig fordi de henviser til minner og tidligere samtaler for å gjøre svarene mer tilpassede og relevante.

Multimodal

Koding

Instruksjonsfølging og bruk av agentverktøy

Alle modeller evalueres ved høye innstillinger for “resonneringsinnsats”, tilsvarende varianter som “o4-mini-high” i ChatGPT.

Fortsetter å skalere forsterkende læring

Gjennom utviklingen av OpenAI o3, har vi observert at forsterkende læring i stor skala viser den samme trenden, «mer datakraft = bedre ytelse», som ble sett i forhåndsopplæringen av GPT‑serien. Ved å følge skaleringsbanen på nytt, denne gangen i forsterkende læring, har vi økt både opplæringsdatakraft og resonnering under interferens med en ekstra størrelsesorden, og ser fortsatt betydelige forbedringer i ytelsen. Dette bekrefter at modellenes ytelse blir bedre desto mer de får lov til å tenke. Med samme latens og kostnad som OpenAI o1, leverer o3 høyere ytelse i ChatGPT. Vi har bekreftet at hvis den tenker lenger, fortsetter ytelsen å øke.

Vi har også lært opp begge modeller til å bruke verktøy gjennom forsterkende læring, og lært dem ikke bare hvordan de skulle bruke verktøy, men også å reflektere rundt når de skulle bruke dem. Deres evne til å bruke verktøy basert på ønskede resultater gjør dem dyktigere i åpne situasjoner, spesielt i de som involverer visuell resonnering og arbeidsflyter med flere steg. Denne forbedringen gjenspeiles både i akademiske referansetester og oppgaver i den virkelige verden, som rapportert av tidlige testere.

Tenke med bilder

ChatGPT tenker med bilder

For første gang kan disse modellene integrere bilder direkte i tankerekken sin. De ser ikke bare et bilde – de tenker i bilder. Dette åpner for en ny grad av problemløsning som kombinerer visuell og tekstuell resonnering, noe som gjenspeiles i deres toppmoderne ytelse på tvers av multimodale referansetester.

Brukere kan laste opp et bilde av en tavle, et diagram fra en lærebok eller en håndtegnet skisse, og modellen kan tolke det – selv om bildet er uklart, reversert eller av lav kvalitet. Ved bruk av verktøy kan modellene manipulere bilder mens jobber – rotere, zoome eller transformere dem som en del av resonneringsprosessen.

Disse modellene leverer toppnøyaktighet på oppgaver innen visuell persepsjon, noe som gjør det mulig å løse spørsmål som tidligere var utenfor rekkevidde. Sjekk blogginnlegget om visuell resonnering⁠ for å finne ut mer.

Mot agentisk bruk av verktøy

OpenAI o3 og o4-mini har full tilgang til verktøy i ChatGPT, i tillegg til dine egne tilpassede verktøy via funksjonskall i API-et. Disse modellene er trent til å resonnere om hvordan de skal løse problemer, samt velge når og hvordan verktøy skal brukes for å levere detaljerte og gjennomtenkte svar i riktig format – som oftest på under et minutt.

En bruker kan for eksempel stille spørsmålet: «Hvordan blir sommerens energiforbruk i California sammenlignet med i fjor?» Modellen kan søke på nettet etter offentlige data, skrive Python-kode for å lage en prognose, generere en graf eller et bilde, og forklare nøkkelfaktorene bak estimatet ved å koble sammen flere verktøy. Resonnering lar modellene reagere og justere seg etter behov, basert på informasjonen de finner. De kan for eksempel søke på nettet flere ganger ved hjelp av søkemotorer, se på resultater, og utføre nye søk hvis de trenger mer informasjon.

Denne fleksible, strategiske tilnærmingen gjør det mulig for modellene å takle oppgaver som krever tilgang til oppdatert informasjon utover modellens innebygde kunnskap, utvidede resonnement, syntese og generering av utdata på tvers av ulike perspektiver.

Alle eksemplene ble utført med OpenAI o3.

OpenAI o3

Solve the following very hard math problem using your in-built knowledge of the literature:

Construct a degree 19 polynomial \ (p(x)) \ in \ mathbb{C}[x] such that \ (X := \ {\, p(x) = p(y) \, \} \ subset \ mathbb{P}^{1} \ times \ mathbb{P}^{1}\ ) has at least 3 (but not all linear) irreducible components over \ mathbb{C}. Choose \ (p(x)\ ) to be odd, monic, have real coefficients and linear coefficient \ (-19\ ) and calculate \ (p(19)\ ).

Resonnerte om polynomkonstruksjon i 55 sekunder
  • The curve defined by p(x) = p(y) factors if p(x) is decomposable or has repeated factors. Actually, p(x)-p(y) always factors, and it’s divisible by (x-y). This gives one factor, and the rest is a degree d-1 polynomial in x and y. For the curve to have at least three irreducible components, p(x)-p(y) must factor into at least three nontrivial factors. Each factor corresponds to a component in projective space, and at least one must be nonlinear.
  • I’m checking the Dickson polynomials D_n(x,a) and focusing on their coefficients. With a=1, it seems the leading coefficient is always 1, confirming that Dickson polynomials are monic. The linear coefficient for odd n is following a predictable sign pattern: for n=19, it gives a coefficient of -19, which is exactly what I need. So the Dickson polynomial D_n(x,1) with odd n fits nicely with the linear coefficient I was looking for.
  • I've confirmed that the linear coefficient for p(x)=D19(x)p(x) = D_{19}(x)p(x)=D19​(x) is correct, with the necessary scaling factor to match. Now for the next step, I need to compute D19(19)D_{19}(19)D19​(19). Since Tn(z)T_n(z)Tn​(z) grows quickly for real z>1z > 1z>1, I plan to compute this value using Python, leveraging the recurrence to avoid mistakes—it's going to be a big number. I'll make sure to present the numeric result neatly so it's understandable since the coefficients are integers.
  • The Dickson polynomial D_{19}(x,1) is confirmed to have the required properties: monic, odd, real coefficients, and a linear coefficient of -19. The factorization of D_{19}(x) into irreducible components is also verified and satisfies the condition of having at least 10 components (1 linear + 9 quadratics). To compute p(19), we'll use the recurrence relation for Dickson polynomials, but there's also a closed-form expression involving cosine that could be handy here. I'll proceed accordingly!
  • I confirmed the linear coefficient is working correctly, which means now I need to calculate p(19)=D19(19)p(19) = D_{19}(19)p(19)=D19​(19). This involves evaluating T19(9.5)T_{19}(9.5)T19​(9.5), which grows rapidly. To ensure I get an accurate result, I'll compute this using recurrence in Python. The result is a large number: 1,876,572,071,974,094,803,391,179. I'll use the commas to make it easier to read: p(19)=1,876,572,071,974,094,803,391,179p(19) = 1,876,572,071,974,094,803,391,179p(19)=1,876,572,071,974,094,803,391,179.
  • For a = 1, there’s a relationship between Dickson polynomials and Chebyshev polynomials: D_n(x, 1) = 2^(n-1) T_n(x/2). Checking this, we see that the definition of D_n(u + 1/u) aligns well with Chebyshev’s formula. By setting x = 2 cos(θ), we find that D_n(x) equals 2 T_n(x/2). Importantly, the leading coefficient works out to 1, confirming the identity holds. This is nice!
  • Now, I need to verify that p(x)−p(y)p(x) - p(y)p(x)−p(y) factors as desired, relying on the known Dickson polynomial factorization. According to the literature (like Fried and Jarden), the difference Dn(x)−Dn(y)D_n(x) - D_n(y)Dn​(x)−Dn​(y) factors into a product involving (x−y)(x - y)(x−y) and other expressions. I'll provide the explicit polynomial D19(x,1)D_{19}(x, 1)D19​(x,1), list the coefficients, and explain how it satisfies the desired properties: monic, odd, etc. Lastly, I'll compute p(19)p(19)p(19).

Analyzed

Python

1
from math import comb, cos, acos
2
# Let's compute Dickson D_n(x,a=1) recursively
3
def dickson(n,x,a=1):
4
if n==0:
5
return 2
6
if n==1:
7
return x
8
Dm2=2
9
Dm1=x
10
for k in range(2,n+1):
11
D= x*Dm1 - a*Dm2
12
Dm2, Dm1 = Dm1, D
13
return Dm1
14

15
d19 = dickson(19,19,1)
16
d19

1876572071974094803391179

Analyzed

Python

1
d19

1876572071974094803391179

Analyzed

Python

1
import locale, sys, math, json, textwrap, re, decimal

Analyzed

Python

1
"{:,}".format(d19)

'1,876,572,071,974,094,803,391,179'

Analyzed

Python

1
# compute coefficients of Dickson polynomial D_n(x,1) via recurrence polynomial representation
2
from sympy import symbols, Poly
3

4
x = symbols('x')
5
def dickson_poly(n):

Poly(x**19 - 19*x**17 + 152*x**15 - 665*x**13 + 1729*x**11 - 2717*x**9 + 2508*x**7 - 1254*x**5 + 285*x**3 - 19*x, x,

Analyzed

Python

1
poly19.as_expr()

x**19 - 19*x**17 + 152*x**15 - 665*x**13 + 1729*x**11 - 2717*x**9 + 2508*x**7 - 1254*x**5 + 285*x**3 - 19*x

Done

A convenient way to force many factors in
p(x)    p(y)p(x) \;-\; p(y) is to use a Dickson polynomial of the first kind.
For a parameter
aCa \in \mathbb{C} in math these are defined by

D0 ⁣(x,a)=2,  D1 ⁣(x,a)=x,  Dn ⁣(x,a)=xDn1 ⁣(x,a)aDn2 ⁣(x,a)(n2),D_0\!\left(x,\, a\right) = 2,\; D_1\!\left(x,\, a\right) = x,\; D_n\!\left(x,\, a\right) = x\,D_{n-1}\!\left(x,\, a\right) - a\,D_{n-2}\!\left(x,\, a\right)\quad (n \ge 2),

and satisfy the functional identity

Dn ⁣(u+au,a)=un+anun.D_n\!\left(u + \frac{a}{u},\, a\right) = u^{n} + \frac{a^{n}}{u^{n}}.


1. Choosing the polynomial

Take a=1a = 1 and n=19n=19.
Because
nn is odd, D19 ⁣(x,1)D_{19}\!\left(x,\, 1\right) is an odd polynomial; the recurrence immediately shows it is monic and has integer (hence real) coefficients.
The coefficient of
xx is x=(1)n12n=19,x = (-1)^{\frac{n-1}{2}}\,n = -19, so all requested normalisations are satisfied.

Writing it out gives

p(x)=D19 ⁣(x,1)=x1919x17+152x15665x13+1729x112717x9+2508x71254x5+285x319x. \boxed{% p(x) = D_{19}\!\left(x,1\right) = x^{19} - 19x^{17} + 152x^{15} - 665x^{13} + 1729x^{11} - 2717x^{9} + 2508x^{7} - 1254x^{5} + 285x^{3} - 19x% }\,.


2. Irreducible components of fX  =  {p(x)=p(y)}fX \;=\; \bigl\{\, p(x) = p(y) \,\bigr\}

For Dickson polynomials one has the classical factorisation

Dn ⁣(x,1)    Dn ⁣(y,1)  =  (xy)j=1n12(x2+y22cos ⁣(2πjn)xy4sin2 ⁣(πjn)),D_n\!\left(x,1\right) \;-\; D_n\!\left(y,1\right) \;=\; (x - y)\, \prod_{j=1}^{\frac{n-1}{2}} \Bigl( x^{2} + y^{2} - 2\cos\!\bigl(\tfrac{2\pi j}{n}\bigr)\,xy - 4\sin^{2}\!\bigl(\tfrac{\pi j}{n}\bigr) \Bigr),

where each quadratic factor is irreducible over C\mathbb{C} (see, e.g., Lidl–Niederreiter, Finite Fields, §3.6).
For
n=19n=19 this gives

  • one linear component x=y;x=y;
  • nine quadratic components (corresponding to (j=1,,9).\bigl(j = 1,\,\ldots,\,9\bigr).

Hence XP1×P1X \subset \mathbb{P}^{1} \times \mathbb{P}^{1} has 1010 irreducible components, at least three of them and not all linear, as required.


3. Evaluating p(19)p(19)

Using the recurrence (or the identity Dn ⁣(x,1)  =  2Tn ⁣(x2)D_n\!\left(x,\,1\right) \;=\; 2\,T_n\!\bigl(\tfrac{x}{2}\bigr) with Chebyshev TnT_n one obtains

p(19)  =  D19 ⁣(19,1)  =  1876572071974094803391179.p(19) \;=\; D_{19}\!\left(19,\,1\right) \;=\; 1\,876\,572\,071\,974\,094\,803\,391\,179.


Thus the polynomial above fulfils every condition, and

p(19)  =  1,876,572,071,974,094,803,391,179.\boxed{% p(19) \;=\; 1{,}876{,}572{,}071{,}974{,}094{,}803{,}391{,}179 }.

OpenAI o1

Solve the following very hard math problem using your in-built knowledge of the literature:

Construct a degree 19 polynomial \ (p(x)) \ in \ mathbb{C}[x] such that \ (X := \ {\, p(x) = p(y) \, \} \ subset \ mathbb{P}^{1} \ times \ mathbb{P}^{1}\ ) has at least 3 (but not all linear) irreducible components over \ mathbb{C}. Choose \ (p(x)\ ) to be odd, monic, have real coefficients and linear coefficient \ (-19\ ) and calculate \ (p(19)\ ).

Tenkte i 1 m 19 s

I’m piecing together a degree 19 polynomial with only odd powers and a linear coefficient of -19, like: p(x)=x19+a17x17+…+a1xp(x) = x^{19} + a_{17}x^{17} + \ldots + a_1xp(x)=x19+a17​x17+…+a1​x.

I'm examining if the polynomial p(x)=x19+a17x17+…+a3x3−19xp(x) = x^{19} + a_{17}x^{17} + \ldots + a_3x^3 - 19xp(x)=x19+a17​x17+…+a3​x3−19x has a notable classical form, considering symmetry or factorization for multiple irreducible components.

To ensure p(x)p(x)p(x) has three or more irreducible components, I’m considering the factorization of p(x)−p(y)p(x) - p(y)p(x)−p(y) into at least three irreducible factors in C[x,y]\mathbb{C}[x,y]C[x,y].

I'm working through x19−y19x^{19} - y^{19}x19−y19 to ensure it balances linear and nonlinear factors, aiming for a polynomial with at least three irreducible components that aren't all linear.

Taking a closer look at how p(x)−p(y)p(x) - p(y)p(x)−p(y) can be factored into three distinct polynomials in xxx, aiming to achieve the desired irreducible components.

I'm thinking about how composing ppp with simpler polynomials, like xm−cx^m - cxm−c, could result in multiple irreducible components, achieving at least three distinct factors.

I’m exploring the factorization of p(x)−p(y)p(x) - p(y)p(x)−p(y) with cyclotomic polynomials. This method generates nnn linear irreducible factors, which might not achieve the required three distinct components.

I'm focusing on constructing an "odd" and monic polynomial, ensuring all exponents are odd and the leading term is x19x^{19}x19. This approach aims to achieve the desired factorization.

I'm working with the Chebyshev polynomials to ensure p(x)−p(y)p(x) - p(y)p(x)−p(y) has at least three irreducible components, leveraging their even or odd properties to manage coefficients.

Considering the odd Chebyshev polynomial T19(x)T_{19}(x)T19​(x) for potential factorization, while also examining composite polynomials of lower degrees to enhance factorization properties.

I'm analyzing how a polynomial composed of lower-degree polynomials, like (x3−3x)k(x^3 - 3x)^k(x3−3x)k, could yield p(x)−p(y)p(x) - p(y)p(x)−p(y) with at least three irreducible components.

Piecing together polynomials with integer coefficients, like (x3−3x)k(x^3 - 3x)^k(x3−3x)k, to achieve factorization in p(x)−p(y)p(x) - p(y)p(x)−p(y) with at least three irreducible components, aiming for degree 19.

I’m examining how p(x)=(x3−3x)kp(x) = (x^3 - 3x)^kp(x)=(x3−3x)k or p(x)=x19−19xp(x) = x^19 - 19xp(x)=x19−19x might yield p(x)−p(y)p(x) - p(y)p(x)−p(y) with three irreducible components, focusing on ensuring the polynomial is of degree 19.

I’m analyzing p(x)−p(y)p(x) - p(y)p(x)−p(y) into (x−y)(x18+x17y+…+y18−19)(x-y)(x^{18} + x^{17}y + \ldots + y^{18} - 19)(x−y)(x18+x17y+…+y18−19) to identify irreducible components. The polynomial factor x18+x17y+…+y18−19x^{18} + x^{17}y + \ldots + y^{18} - 19x18+x17y+…+y18−19 remains challenging to factor further.

I’m thinking through a new approach: adjusting the Chebyshev polynomial T19(x)T_{19}(x)T19​(x) to make it monic, aiming to achieve at least three irreducible components in p(x)−p(y)p(x) - p(y)p(x)−p(y).

OK, let's think through. I’m tweaking T19(x)T_{19}(x)T19​(x)'s coefficients to keep the polynomial monic and check if it simplifies into multiple irreducible components.

I'm thinking over various factorization strategies for a monic polynomial of degree 19. The goal is to ensure at least one non-linear factor and achieve at least three irreducible components in p(x)−p(y)p(x) - p(y)p(x)−p(y).

I’m updating my approach to factor x2+xy+y2−1x^2 + xy + y^2 - 1x2+xy+y2−1 over complex numbers by exploring change of variables and third roots of unity. This helps in achieving the desired polynomial structure.

I'm combining x3−xx^3 - xx3−x with x19−19xx^{19} - 19xx19−19x to tweak the polynomial's coefficients and complexity, aiming to include more non-linear factors for the desired irreducibility.

Piecing together p(x)=x19−x3−19xp(x) = x^{19} - x^3 - 19xp(x)=x19−x3−19x to ensure it’s odd, monic, and has the required linear coefficient. This targets the desired irreducible factorizations.

I’m mapping out the second factor x18+…+y18−x2−xy−y2−19x^{18} + \ldots + y^{18} - x^2 - xy - y^2 - 19x18+…+y18−x2−xy−y2−19 to see if it can split into three irreducible components.

I’m considering methods to factorize the polynomial by making it divisible by x−yx - yx−y and ensuring the remaining factor splits into exactly two irreducible components, aiming for a less complex factorization.

I’m examining the polynomial x18+x17y+…+y18x^{18} + x^{17}y + \ldots + y^{18}x18+x17y+…+y18 and noting it simplifies to x19−y19x−y\frac{x^{19} - y^{19}}{x - y}x−yx19−y19​, which might reveal further irreducible factors.

I’m mapping out the polynomial x(x18−1)−y(y18−1)x−y\frac{x(x^{18}-1) - y(y^{18}-1)}{x-y}x−yx(x18−1)−y(y18−1)​ for further factorization. This might yield just two irreducible components, which falls short of three.

I’m exploring whether the polynomial p(x)=x19−(x3)p(x) = x^19 - (x^3)p(x)=x19−(x3) can be expressed as the composition of a smaller polynomial with xkx^kxk, potentially revealing multiple irreducible components.

I'm examining if the polynomial T19(x)T_{19}(x)T19​(x) can be factored using trigonometric identities, seeking partial factorization without fully linearizing, to gain multiple irreducible components.

OK, let me see. Trigonometric identities show multiple solutions for θ\thetaθ and ϕ\phiϕ, likely leading to 19 or 38 linear factors for T19(x)T_{19}(x)T19​(x).

I’m examining how the equation arccos⁡x=±arccos⁡y+2kπ19\arccos x = \pm \arccos y + \frac{2k\pi}{19}arccosx=±arccosy+192kπ​ leads to possible multiple branches, potentially irreducible in the algebraic sense, and needing an example with at least three non-linear irreducible components.

OK, let me see. I’m pulling together details on the polynomial x3(x2−1)8+xx^3 (x^2 - 1)^8 + xx3(x2−1)8+x. It’s monic, with x19x^{19}x19 as the leading term, ensuring it meets key criteria.

I’m noting that the polynomial p(x)=x3(x2−1)8+xp(x) = x^3 (x^2 - 1)^8 + xp(x)=x3(x2−1)8+x is odd, with its linear coefficient patterning to -19.

I’m figuring out how to adjust the linear coefficient of polynomial p(x)p(x)p(x) to -19 by adding a constant factor ccc in front of xxx to ensure it’s adequately modified.

By tweaking the linear coefficient of p(x)=x3(x2−1)8+cxp(x) = x^3 (x^2 - 1)^8 + c xp(x)=x3(x2−1)8+cx to -19, it ensures the polynomial remains monic, odd, and real.

I’m working on adding a constant factor ccc to xxx in p(x)=x3(x2−1)8+cxp(x) = x^3 (x^2 - 1)^8 + c xp(x)=x3(x2−1)8+cx to ensure the linear coefficient is -19, making the polynomial monic, odd, and real.

I'm piecing together the polynomial p(x)=x3(x−1)8(x+1)8p(x) = x^3 (x-1)^8 (x+1)^8p(x)=x3(x−1)8(x+1)8 and considering how p(x)−p(y)p(x) - p(y)p(x)−p(y) might factor with factors like x−yx-yx−y.

I’m confirming p(x)p(x)p(x) is monic, odd, and real, with a linear coefficient of -19, by expanding x3(x2−1)8x^3 (x^2 -1)^8x3(x2−1)8 to set the constant ccc.

I found that for p(x) to have a coefficient of -19 for the x term, c must be -19. The polynomial, p(x), incorporates this constant and preserves the original polynomial's structure.

Below is one concrete example (over the reals) of an odd, monic, degree 19 polynomial with linear coefficient 19-19 whose zero-locus relation {p(x)=p(y)} in P1×P1\{\,p(x)=p(y)\,\}\ \text{in }\mathbb{P}^{1}\times\mathbb{P}^{1} splits into at least three irreducible components (and not all components are linear). We then compute p(19)p(19).


1. The polynomial

Consider

p(x)  =  x3(x21)8    19x.p(x) \;=\; x^{3}\,\bigl(x^{2}-1\bigr)^{8} \;-\; 19x.

We can expand

x3(x21)8  =  x19    8x17  +  28x15    56x13  +  70x11    56x9  +  28x7    8x5  +  x3.x^{3}\,\bigl(x^{2}-1\bigr)^{8} \;=\; x^{19}\;-\;8x^{17}\;+\;28x^{15}\;-\;56x^{13}\;+\;70x^{11} \;-\;56x^{9}\;+\;28x^{7}\;-\;8x^{5}\;+\;x^{3}.

Hence

p(x)  =  x19    8x17  +  28x15    56x13  +  70x11    56x9  +  28x7    8x5  +  x3    19x.p(x) \;=\; x^{19} \;-\; 8x^{17} \;+\; 28x^{15} \;-\; 56x^{13} \;+\; 70x^{11} \;-\; 56x^{9} \;+\; 28x^{7} \;-\; 8x^{5} \;+\; x^{3} \;-\; 19x.

Checking the required properties

Degree 19, monic:
The leading term is
x19x^{19}with coefficient 11.

Odd polynomial:
All exponents are odd
(19,17,,3,1),\bigl(19,\,17,\,\ldots,\,3,\,1\bigr), and the constant term is 00. Indeed,

p(x)  =  p(x),p(-x) \;=\; -\,p(x),

which makes pp an odd polynomial.

Real coefficients:
All coefficients are real integers.

Linear coefficient 19-19:
The coefficient of
xx is clearly 19-19.

At least three irreducible components, not all linear:
Over
C\mathbb{C}, the locus

X  =  {(x,y):p(x)=p(y)}    P1×P1X \;=\; \bigl\{\, (x,y) : p(x)=p(y) \,\bigr\} \;\subset\; \mathbb{P}^{1}\times\mathbb{P}^{1}

factors in part because p(x)p(x) has (for instance) the repeated factors (x21)8\bigl(x^{2}-1\bigr)^{8} in the big piece x3(x21)8x^{3}\,\bigl(x^{2}-1\bigr)^{8}. One sees that {p(x)=p(y)}\{\,p(x)=p(y)\,\} contains (at least) the divisor $${x=y\}$$ plus further factors coming from the roots x=0  or  x=±1,x = 0 \;\text{or}\; x = \pm 1, ensuring multiple irreducible components (and not all of them are hyperplanes).


2. Computing p(19)p(19)

A direct substitution x=19x=19 gives a large integer. Symbolic expansion or a computer algebra system yields

p(19)  =  1934999285524070399999639.p(19) \;=\; 1934999285524070399999639.

Hence the required value is

\boxed{\,p(19) \;=\; 1934999285524070399999639\,}. \] ​:contentReference[oaicite:0]{index=0}​

OpenAI o3 gir riktig svar uten å bruke søk, mens o1 ikke klarer å gi riktig svar.

Fremme kostnadseffektiv resonnering

Kostnad mot ytelse: o3-mini og o4-mini
OpenAI o3-mini og o4-mini AIME-evalueringer
OpenAI o3-mini og o4-mini GPQA-evalueringer
Kostnad mot ytelse: o1 og o3
AIME-evalueringer av OpenAI o3 og o4-mini
GPQA-evalueringer av OpenAI o3 og o4

OpenAI o3 og o4-mini er de mest intelligente modellene vi noen gang har lansert. De er også ofte mer effektive enn sine forgjengere, OpenAI o1 og o3‑mini. For eksempel, i 2025 AIME-matematikkonkurransen, forbedret o3 kostnads-ytelsesgrensen tydelig sammenlignet med o1‑ På samme måte forbedrer o4-mini sin grense tydelig sammenlignet med o3‑mini. Generelt forventer vi at både o3 og o4-mini være både smartere og rimeligere enn henholdsvis o1 og o3‑mini for de fleste virkelige bruksområder.

Sikkerhet

Hver forbedring i modellens egenskaper krever tilsvarende forbedringer i sikkerheten. For OpenAI o3 og o4-mini har vi fullstendig rekonstruert opplæringsdataene våre for sikkerhet og lagt til nye avvisningsforespørsler innen områder som biologiske trusler (biorisiko), generering av skadevare og jailbreaker. Disse oppdaterte dataene har ført til at o3 og o4-mini oppnår sterk ytelse på de interne avvisningsreferansene våre (f.eks. instruksjonshierarki, jailbreaker). I tillegg til sterk ytelse for modellavvisninger har vi også utviklet systemnivåtiltak for å flagge farlige forespørsler innen høyrisikoområder. I likhet med vårt tidligere arbeid med bildegenerering har vi trent en resonnerende LLM-overvåker som fungerer basert på menneskeskrevne og tolkbare sikkerhetsspesifikasjoner. Når den ble brukt på biorisiko, lyktes denne overvåkeren i å flagge omtrent 99 % av samtalene i den menneskelige red team-øvelsen vår.

Vi stresstestet begge modellene med det strengeste sikkerhetsprogrammet vårt hittil. I samsvar med det oppdaterte beredskapsrammeverket vårt har vi evaluert o3 og o4-mini på tvers av de tre sporede kapasitetsområdene som dekkes av rammeverket: biologisk og kjemisk, cybersikkerhet og AI-selvforbedring. Basert på resultatene fra disse evalueringene har vi konkludert med at både o3 og o4-mini fortsatt ligger under «Høyt» terskelnivå i alle av rammeverkets tre kategorier. Vi har publisert de detaljerte resultatene fra disse evalueringene i det tilhørende systemkortet.

Codex CLI: banebrytende resonnering i terminalen

Vi deler også et nytt eksperiment: Codex CLI, en enklere kodeagent du kan kjøre fra terminalen din. Den fungerer direkte på datamaskinen din og er utviklet for å maksimere resonneringsmulighetene til modeller som o3 og o4-mini, med kommende støtte for flere API-modeller som GPT‑4.1⁠.

Du kan dra nytte av multimodal resonnering fra kommandolinjen ved å sende skjermbilder eller skisser med lav oppløsning til modellen, kombinert med tilgang til koden din lokalt. Vi ser på det som et minimalt grensesnitt for å koble modellene våre til brukerne og datamaskinene deres. Codex CLI har i dag en fullstendig åpen kildekode på github.com/openai/codex(åpnes i et nytt vindu).

Samtidig lanserer vi et initiativ på 1 million dollar for å støtte prosjekter som bruker Codex CLI og OpenAI-modeller. Vi vil vurdere og godta søknader om tilskudd i trinn på 25 000 USD i form av API-kreditter. Søknader kan sendes inn her.

Tilgang

ChatGPT Plus-, Pro- og Team-brukere ser o3, o4-mini og o4-mini-high i modellvelgeren fra og med i dag, i stedet for de tidligere modellene o1, o3‑mini og o3‑mini‑high. ChatGPT Enterprise- og Edu-brukere får tilgang om én uke. Gratisbrukere kan prøve o4-mini ved å velge «Tenk» i skrivefunksjonen før de sender inn forespørselen. Bruksgrenser på tvers av alle planer forblir uendret fra forrige sett med modeller.

Vi forventer å lansere OpenAI o3‑pro om noen uker med full verktøystøtte. Enn så lenge har Pro-brukere fortsatt tilgang til o1‑pro.

Både o3 og o4-mini er også tilgjengelige for utviklere i dag via Chat Completions API (API for samtalesvar) og Responses API (noen utviklere må verifisere organisasjonene sine(åpnes i et nytt vindu) for å få tilgang til disse modellene). Responses API støtter oppsummeringer av resonnement, muligheten til å bevare resonnementstokener rundt funksjonskall for bedre ytelse, og støtter snart innebygde verktøy som nettsøk, filsøk og kodetolker innen modellens resonnement. For å komme i gang kan du utforske dokumentasjonen vår(åpnes i et nytt vindu) og holde deg oppdatert for flere nyheter.

Hva skjer videre?

Dagens oppdateringer gjenspeiler retningen modellene våre er på vei: vi samler de spesialiserte resonnementsevnene til o-serien med mer av de naturlige samtaleferdighetene og verktøybruken til GPT‑serien. Ved å kombinere disse styrkene kommer de fremtidige modellene våre til å støtte sømløse, naturlige samtaler sammen med proaktiv verktøybruk og avansert problemløsning.


Oppdatering 16. april: resultatene for o3 på Charxiv-r og Mathvista ble oppdatert for å gjenspeile en endring i systemprompten som ikke var til stede i den opprinnelige evalueringen.

Opptak av direktesending

Forfatter

OpenAI

Fotnoter

* tau-bench-evalueringstallene er gjennomsnittet av fem kjøringer for å redusere varians, og kjøres uten egendefinerte verktøy eller spørsmål. Vi oppdaget at tau-bench-lanseringer i detaljhandel er mer utsatt for brukermodellfeil. Tallene for den skraverte søylen er kjørt med GPT-4.1 som brukermodell fordi den er betydelig bedre enn GPT-4o på å følge instruksjoner.

* SWE-bench bruker en maksimal kontekstlengde på 256k, noe som forbedrer løsningsraten for o4-mini med omtrent 3 % og påvirker o3s løsningsrate med <1 %. Vi ekskluderer også 23 eksempler som ikke kan kjøres på vår interne infrastruktur.

** Når nettsurfing er aktivert, kan modellen noen ganger finne nøyaktige svar på nettet, for eksempel ved å lese blogginnlegg med eksempeloppgaver fra et datasett. Vi håndterer bekymringer om at modellen jukser under nettsurfing med to strategier:

  • Blokkerer domener som vi har observert at modellen har jukset fra tidligere.

  • Bruker en resonneringsmodell som en overvåker for å undersøke alle tokens i hvert forsøk, for å identifisere mistenkelig atferd. Mistenkelig atferd er definert som “en side, fil eller utdrag hvis hovedformål er å gi det nøyaktige svaret på dette spesifikke spørsmålet – f.eks. en offisiell vurderingsnøkkel, lekkede “løsninger” eller en diskusjon som siterer fasiten ordrett.” Godartet atferd er definert som “enhver autoritativ kilde en flittig person kan bruke (dokumentasjon, håndbøker, vitenskapelige artikler, anerkjente artikler), selv om den tilfeldigvis inneholder det korrekte svaret.” Alle forsøk der overvåkeren vurderte utrullingen som mistenkelig, telles som feil. De fleste prøvene som ikke ble bestått, inkluderte problemer hvor den eksakte løsningen var tilgjengelig på flere internettkilder som ikke var relatert til HLE.

Til slutt kan ikke evalueringene våre med nettleserbruk være helt reproduserbare i OpenAI API på grunn av en forskjell i backend for søkemotoren mellom ChatGPT og OpenAI API. Resultatene er ment å være representative for ChatGPT-brukeropplevelsen, men avhengig av etterspørsel kan søkekonfigurasjonen endres over tid.