Vi presenterer OpenAI o3 og o4-mini
De smarteste og mest kapable modellene våre til dags dato – med full tilgang til verktøy
Oppdatering 10. juni 2025: Nå er OpenAI o3‑pro tilgjengelig for Pro-brukere i ChatGPT samt i API-et vårt. I likhet med OpenAI o1‑pro er o3‑pro en versjon av den mest intelligente modellen vår, OpenAI o3, som er utviklet til å tenke lenger og gi de mest pålitelige svarene. Du finner alle detaljene i versjonsmerknadene(åpnes i et nytt vindu).
I dag lanserer vi OpenAI o3 og o4-mini, de nyeste i o-serien med modeller som er opplært til å tenke lenger før de svarer. Dette er de smarteste modellene vi har lansert til dags dato, og de representerer et betydelig fremskritt i ChatGPTs evner for alle, fra nysgjerrige brukere til avanserte forskere. For første gang kan resonneringsmodellene våre agentisk bruke og kombinere alle verktøyene i ChatGPT. Dette inkluderer nettsøk, analyse av opplastede filer og andre data med Python, dyp resonnering rundt visuelle inndata og til og med bildegenerering. Viktigst av alt er at disse modellene er trent til å resonnere om når og hvordan verktøy skal brukes for å levere detaljerte og gjennomtenkte svar i riktig format, som oftest på under ett minutt, for å løse mer komplekse problemer. Dette gjør dem i stand til å takle mangefasetterte spørsmål mer effektivt, et skritt mot en mer agentisk ChatGPT som uavhengig kan utføre oppgaver på dine vegne. Den kombinerte kraften fra toppmoderne resonnering med full tilgang til verktøy gir betydelig sterkere ytelse på tvers av akademiske mål og oppgaver i den virkelige verden, og setter en ny standard for både intelligens og nytteverdi.
OpenAI o3 er vår kraftigste resonneringsmodell, og flytter grensene for banebrytende koding, matematikk, vitenskap, visuell persepsjon og mer. Det setter en ny SOTA (state-of-the-art) på referansetester som Codeforces, SWE-bench (uten å bygge en modellspesifikk struktur) og MMMU. Den er ideell for komplekse forespørsler som krever mangefasettert analyse, og hvis svar kanskje ikke er umiddelbart åpenbare. Den er spesielt sterk på visuelle oppgaver som analysering av bilder, diagrammer og grafikk. I evalueringer utført av eksterne eksperter gjør o3 20 prosent færre alvorlige feil enn OpenAI o1 på vanskelige, virkelige oppgaver. Den utmerker seg spesielt innen områder som programmering, forretning/rådgivning og kreativ idéskaping. Tidlige testere fremhevet modellens analytiske grundighet som en tankepartner, og la vekt på dens evne til å generere og kritisk evaluere nye hypoteser, spesielt innenfor biologi, matematikk og ingeniørfag.
OpenAI o4-mini er en mindre modell som er optimalisert for rask, kostnadseffektiv resonnering. Den oppnår bemerkelsesverdig ytelse for sin størrelse og pris, spesielt innen matematikk, koding og visuelle oppgaver. Det er den best presterende modellen på referansetester for AIME 2024 og 2025. Selv om tilgang til en datamaskin reduserer vanskelighetsgraden på AIME-eksamenen betraktelig, fant vi det bemerkelsesverdig at o4-mini oppnår 99,5 % pass@1 (100 % consensus@8) på AIME 2025 når den får tilgang til en Python-tolk. Selv om disse resultatene ikke bør sammenlignes med ytelsen til modeller uten verktøytilgang, er de et eksempel på hvor effektivt o4-mini utnytter tilgjengelige verktøy. o3 viser lignende forbedringer på AIME 2025 ved bruk av verktøy (98,4 % pass@1, 100 % consensus@8).
I ekspertvurderinger overgår o4-mini også forgjengeren, 03-mini, på ikke-STEM-oppgaver samt på områder som datavitenskap. Takket være effektiviteten støtter o4-mini betydelig høyere bruksgrenser enn o3, noe som gjør den til et sterkt valg for høyt volum og høy gjennomstrømming for spørsmål som drar nytte av resonnering. Eksterne eksperter vurderte begge modellene til å være nyttigere, med forbedret evne til å følge instruksjoner, og mer verifiserbare svar enn sine forgjengere, takket være forbedret intelligens og inkludering av nettbaserte kilder. Sammenlignet med tidligere versjoner av resonneringsmodellene våre, kommer disse to modellene også til å føles mer naturlige og samtalebaserte, særlig fordi de henviser til minner og tidligere samtaler for å gjøre svarene mer tilpassede og relevante.
Multimodal
Koding
Instruksjonsfølging og bruk av agentverktøy
Alle modeller evalueres ved høye innstillinger for “resonneringsinnsats”, tilsvarende varianter som “o4-mini-high” i ChatGPT.
Gjennom utviklingen av OpenAI o3, har vi observert at forsterkende læring i stor skala viser den samme trenden, «mer datakraft = bedre ytelse», som ble sett i forhåndsopplæringen av GPT‑serien. Ved å følge skaleringsbanen på nytt, denne gangen i forsterkende læring, har vi økt både opplæringsdatakraft og resonnering under interferens med en ekstra størrelsesorden, og ser fortsatt betydelige forbedringer i ytelsen. Dette bekrefter at modellenes ytelse blir bedre desto mer de får lov til å tenke. Med samme latens og kostnad som OpenAI o1, leverer o3 høyere ytelse i ChatGPT. Vi har bekreftet at hvis den tenker lenger, fortsetter ytelsen å øke.
Vi har også lært opp begge modeller til å bruke verktøy gjennom forsterkende læring, og lært dem ikke bare hvordan de skulle bruke verktøy, men også å reflektere rundt når de skulle bruke dem. Deres evne til å bruke verktøy basert på ønskede resultater gjør dem dyktigere i åpne situasjoner, spesielt i de som involverer visuell resonnering og arbeidsflyter med flere steg. Denne forbedringen gjenspeiles både i akademiske referansetester og oppgaver i den virkelige verden, som rapportert av tidlige testere.

For første gang kan disse modellene integrere bilder direkte i tankerekken sin. De ser ikke bare et bilde – de tenker i bilder. Dette åpner for en ny grad av problemløsning som kombinerer visuell og tekstuell resonnering, noe som gjenspeiles i deres toppmoderne ytelse på tvers av multimodale referansetester.
Brukere kan laste opp et bilde av en tavle, et diagram fra en lærebok eller en håndtegnet skisse, og modellen kan tolke det – selv om bildet er uklart, reversert eller av lav kvalitet. Ved bruk av verktøy kan modellene manipulere bilder mens jobber – rotere, zoome eller transformere dem som en del av resonneringsprosessen.
Disse modellene leverer toppnøyaktighet på oppgaver innen visuell persepsjon, noe som gjør det mulig å løse spørsmål som tidligere var utenfor rekkevidde. Sjekk blogginnlegget om visuell resonnering for å finne ut mer.
OpenAI o3 og o4-mini har full tilgang til verktøy i ChatGPT, i tillegg til dine egne tilpassede verktøy via funksjonskall i API-et. Disse modellene er trent til å resonnere om hvordan de skal løse problemer, samt velge når og hvordan verktøy skal brukes for å levere detaljerte og gjennomtenkte svar i riktig format – som oftest på under et minutt.
En bruker kan for eksempel stille spørsmålet: «Hvordan blir sommerens energiforbruk i California sammenlignet med i fjor?» Modellen kan søke på nettet etter offentlige data, skrive Python-kode for å lage en prognose, generere en graf eller et bilde, og forklare nøkkelfaktorene bak estimatet ved å koble sammen flere verktøy. Resonnering lar modellene reagere og justere seg etter behov, basert på informasjonen de finner. De kan for eksempel søke på nettet flere ganger ved hjelp av søkemotorer, se på resultater, og utføre nye søk hvis de trenger mer informasjon.
Denne fleksible, strategiske tilnærmingen gjør det mulig for modellene å takle oppgaver som krever tilgang til oppdatert informasjon utover modellens innebygde kunnskap, utvidede resonnement, syntese og generering av utdata på tvers av ulike perspektiver.
Alle eksemplene ble utført med OpenAI o3.
OpenAI o3
OpenAI o1
OpenAI o3 gir riktig svar uten å bruke søk, mens o1 ikke klarer å gi riktig svar.
Fremme kostnadseffektiv resonnering
Kostnad mot ytelse: o3-mini og o4-mini


Kostnad mot ytelse: o1 og o3


OpenAI o3 og o4-mini er de mest intelligente modellene vi noen gang har lansert. De er også ofte mer effektive enn sine forgjengere, OpenAI o1 og o3‑mini. For eksempel, i 2025 AIME-matematikkonkurransen, forbedret o3 kostnads-ytelsesgrensen tydelig sammenlignet med o1‑ På samme måte forbedrer o4-mini sin grense tydelig sammenlignet med o3‑mini. Generelt forventer vi at både o3 og o4-mini være både smartere og rimeligere enn henholdsvis o1 og o3‑mini for de fleste virkelige bruksområder.
Hver forbedring i modellens egenskaper krever tilsvarende forbedringer i sikkerheten. For OpenAI o3 og o4-mini har vi fullstendig rekonstruert opplæringsdataene våre for sikkerhet og lagt til nye avvisningsforespørsler innen områder som biologiske trusler (biorisiko), generering av skadevare og jailbreaker. Disse oppdaterte dataene har ført til at o3 og o4-mini oppnår sterk ytelse på de interne avvisningsreferansene våre (f.eks. instruksjonshierarki, jailbreaker). I tillegg til sterk ytelse for modellavvisninger har vi også utviklet systemnivåtiltak for å flagge farlige forespørsler innen høyrisikoområder. I likhet med vårt tidligere arbeid med bildegenerering har vi trent en resonnerende LLM-overvåker som fungerer basert på menneskeskrevne og tolkbare sikkerhetsspesifikasjoner. Når den ble brukt på biorisiko, lyktes denne overvåkeren i å flagge omtrent 99 % av samtalene i den menneskelige red team-øvelsen vår.
Vi stresstestet begge modellene med det strengeste sikkerhetsprogrammet vårt hittil. I samsvar med det oppdaterte beredskapsrammeverket vårt har vi evaluert o3 og o4-mini på tvers av de tre sporede kapasitetsområdene som dekkes av rammeverket: biologisk og kjemisk, cybersikkerhet og AI-selvforbedring. Basert på resultatene fra disse evalueringene har vi konkludert med at både o3 og o4-mini fortsatt ligger under «Høyt» terskelnivå i alle av rammeverkets tre kategorier. Vi har publisert de detaljerte resultatene fra disse evalueringene i det tilhørende systemkortet.
Vi deler også et nytt eksperiment: Codex CLI, en enklere kodeagent du kan kjøre fra terminalen din. Den fungerer direkte på datamaskinen din og er utviklet for å maksimere resonneringsmulighetene til modeller som o3 og o4-mini, med kommende støtte for flere API-modeller som GPT‑4.1.
Du kan dra nytte av multimodal resonnering fra kommandolinjen ved å sende skjermbilder eller skisser med lav oppløsning til modellen, kombinert med tilgang til koden din lokalt. Vi ser på det som et minimalt grensesnitt for å koble modellene våre til brukerne og datamaskinene deres. Codex CLI har i dag en fullstendig åpen kildekode på github.com/openai/codex(åpnes i et nytt vindu).
Samtidig lanserer vi et initiativ på 1 million dollar for å støtte prosjekter som bruker Codex CLI og OpenAI-modeller. Vi vil vurdere og godta søknader om tilskudd i trinn på 25 000 USD i form av API-kreditter. Søknader kan sendes inn her.
ChatGPT Plus-, Pro- og Team-brukere ser o3, o4-mini og o4-mini-high i modellvelgeren fra og med i dag, i stedet for de tidligere modellene o1, o3‑mini og o3‑mini‑high. ChatGPT Enterprise- og Edu-brukere får tilgang om én uke. Gratisbrukere kan prøve o4-mini ved å velge «Tenk» i skrivefunksjonen før de sender inn forespørselen. Bruksgrenser på tvers av alle planer forblir uendret fra forrige sett med modeller.
Vi forventer å lansere OpenAI o3‑pro om noen uker med full verktøystøtte. Enn så lenge har Pro-brukere fortsatt tilgang til o1‑pro.
Både o3 og o4-mini er også tilgjengelige for utviklere i dag via Chat Completions API (API for samtalesvar) og Responses API (noen utviklere må verifisere organisasjonene sine(åpnes i et nytt vindu) for å få tilgang til disse modellene). Responses API støtter oppsummeringer av resonnement, muligheten til å bevare resonnementstokener rundt funksjonskall for bedre ytelse, og støtter snart innebygde verktøy som nettsøk, filsøk og kodetolker innen modellens resonnement. For å komme i gang kan du utforske dokumentasjonen vår(åpnes i et nytt vindu) og holde deg oppdatert for flere nyheter.
Dagens oppdateringer gjenspeiler retningen modellene våre er på vei: vi samler de spesialiserte resonnementsevnene til o-serien med mer av de naturlige samtaleferdighetene og verktøybruken til GPT‑serien. Ved å kombinere disse styrkene kommer de fremtidige modellene våre til å støtte sømløse, naturlige samtaler sammen med proaktiv verktøybruk og avansert problemløsning.
Oppdatering 16. april: resultatene for o3 på Charxiv-r og Mathvista ble oppdatert for å gjenspeile en endring i systemprompten som ikke var til stede i den opprinnelige evalueringen.
Forfatter
OpenAIFotnoter
* tau-bench-evalueringstallene er gjennomsnittet av fem kjøringer for å redusere varians, og kjøres uten egendefinerte verktøy eller spørsmål. Vi oppdaget at tau-bench-lanseringer i detaljhandel er mer utsatt for brukermodellfeil. Tallene for den skraverte søylen er kjørt med GPT-4.1 som brukermodell fordi den er betydelig bedre enn GPT-4o på å følge instruksjoner.
* SWE-bench bruker en maksimal kontekstlengde på 256k, noe som forbedrer løsningsraten for o4-mini med omtrent 3 % og påvirker o3s løsningsrate med <1 %. Vi ekskluderer også 23 eksempler som ikke kan kjøres på vår interne infrastruktur.
** Når nettsurfing er aktivert, kan modellen noen ganger finne nøyaktige svar på nettet, for eksempel ved å lese blogginnlegg med eksempeloppgaver fra et datasett. Vi håndterer bekymringer om at modellen jukser under nettsurfing med to strategier:
Blokkerer domener som vi har observert at modellen har jukset fra tidligere.
Bruker en resonneringsmodell som en overvåker for å undersøke alle tokens i hvert forsøk, for å identifisere mistenkelig atferd. Mistenkelig atferd er definert som “en side, fil eller utdrag hvis hovedformål er å gi det nøyaktige svaret på dette spesifikke spørsmålet – f.eks. en offisiell vurderingsnøkkel, lekkede “løsninger” eller en diskusjon som siterer fasiten ordrett.” Godartet atferd er definert som “enhver autoritativ kilde en flittig person kan bruke (dokumentasjon, håndbøker, vitenskapelige artikler, anerkjente artikler), selv om den tilfeldigvis inneholder det korrekte svaret.” Alle forsøk der overvåkeren vurderte utrullingen som mistenkelig, telles som feil. De fleste prøvene som ikke ble bestått, inkluderte problemer hvor den eksakte løsningen var tilgjengelig på flere internettkilder som ikke var relatert til HLE.
Til slutt kan ikke evalueringene våre med nettleserbruk være helt reproduserbare i OpenAI API på grunn av en forskjell i backend for søkemotoren mellom ChatGPT og OpenAI API. Resultatene er ment å være representative for ChatGPT-brukeropplevelsen, men avhengig av etterspørsel kan søkekonfigurasjonen endres over tid.