Hopp til hovedinnhold
OpenAI

Sikkerhet

Sikkerhet i alle ledd

Vi tror at KI har potensial til å gjøre livet bedre for alle, noe som betyr å gjøre den trygg for alle.

Opplæring

Vi starter med å lære KI-en vår rett og galt, filtrere skadelig innhold og svare med empati.

Testing

Vi gjennomfører interne evalueringer og samarbeider med eksperter for å teste virkelige scenarier, og forbedrer våre sikkerhetstiltak.

Del

Vi bruker tilbakemeldinger fra virkeligheten for å gjøre vår KI tryggere og nyttigere.

Sikkerhet stopper ikke

Å bygge en trygg KI-modell er ikke noe man blir ferdig med. Hver dag er en mulighet til å gjøre ting bedre. Og hvert trinn hjelper med å forutse, vurdere og forhindre risiko.

Slik tenker vi om sikkerhet og justering

Ledende innen sikkerhet

Vi samarbeider med bransjeledere og beslutningstakere om de viktigste sakene.

Illustrasjon av to personers avatarer, hvor den ene er mindre enn den andre, som illustrerer et foreldre-barn-forhold.

Barns sikkerhet

Skape bransjeomfattende standarder for å beskytte barn.

Illustrasjon av et par solbriller og en hatt, som illustrerer konseptet anonymitet og personvern.

Privat informasjon

Beskytter folks personvern.

En illustrasjon av en menneskelig avatar inni et skjold som illustrerer sikkerhet.

Deepfakes

Forbedre åpenhet i KI-innhold.

En abstrakt illustrasjon med en skjev vekt og retningspiler, som representerer konseptet skjevhet i beslutningstaking eller evaluering.

Skjevheter

Grundig evaluering av innhold for å unngå å forsterke skjevheter eller stereotypier.

En stilisert illustrasjon som viser en stemmeurne der en stemmeseddel med hakekryss blir lagt ned, og symboliserer stemmeprosessen i et valg.

Valg

Samarbeider med myndigheter for å bekjempe desinformasjon globalt.

Samtaler med OpenAI-forskere

Bli med inn i OpenAI i vår serie som forklarer en rekke temaer rundt sikkerhet og mer.

Gå dypere inn på sikkerhet