メインコンテンツにスキップ
OpenAI

安全性

あらゆる段階での安全性

私たちは AI によってすべての人の生活が向上する可能性を信じており、それは、誰にとっても安全な AI の実現を意味します

教育

私たちは、有害なコンテンツにフィルターを適用し、共感を持って応えることで、当社の AI に正しいことと間違っていることを教えることから始めます。

テスト

当社は社内評価を実施し、専門家と連携して、実際に起こり得るシナリオをテストし、当社の保護を強化しています。

共有

当社 AI をより安全で役立つ存在にするため、私たちは現実世界のフィードバックを活用しています。

安全性に終わりはない

安全な AI の構築は一度で完了するものではありません。 毎日が改善へのチャンスです。 そして、すべての段階がリスクの予測や評価、防止へとつながります。

安全性とアライメントについての考え方

安全性を牽引する

当社は業界のリーダーや政策立案者と協力し、最も重要な課題に取り組んでいます。

Illustration of two people avatar, with one smaller than the other, depicting a parent and child relationship.

子どもの安全

子どもたちを守るための業界全体の基準を策定しています。

Illustration of a pair of sunglasses and a hat, depicting the concept of anonymity and privacy.

個人情報

人々のプライバシーを守ります。

An illustration of a human avatar inside of a shield depicting safety.

ディープ フェイク

AI コンテンツの透明性を向上させます。

An abstract illustration featuring a tilted balance scale and directional arrows, representing the concept of bias in decision-making or evaluation.

バイアス

偏見やステレオタイプの再生産を防ぐため、コンテンツを厳しくに評価します。

A stylized illustration depicting a ballot box with a check-marked paper being inserted, symbolizing the voting process in an election.

選挙

偽情報の拡散を防ぐため、各国政府との関係を強化しています。

OpenAI のリサーチャーとの対話

安全性を中心にさまざまなトピックについて解説する、OpenAI の内側に迫るシリーズ。

安全性についてさらに詳しく知る