Safety at every step
We believe in AI’s potential to make life better for everyone, which means making it safe for everyone
教育
私たちは、有害なコンテンツにフィルターを適用し、共感を持って応えることで、当社のAIに正しいことと間違っていることを教えることから始めます。
テスト
当社は社内評価を実施し、専門家と連携して、実際に起こり得るシナリオをテストし、当社の保護を強化しています。
共有
当社AIをより安全で役立つ存在にするため、私たちは現実世界のフィードバックを活用しています。
安全性に終わりはない
安全なAIの構築は一度で完了するものではありません。 毎日が改善へのチャンスです。 そして、すべての段階がリスクの予測や評価、防止へとつながります。
安全性を牽引する
私たちは業界のリーダーや政策立案者と協力し、最も重要な課題に取り組んでいます。
子供たちの安全
子供たちを守るための業界全体の基準を策定しています。
個人情報
人々のプライバシーを守ります。
ディープフェイク
AIコンテンツの透明性を向上させます。
バイアス
偏見やステレオタイプの再生産を防ぐため、コンテンツを厳しくに評価します。
選挙
偽情報の拡散を防ぐため、各国政府との関係を強化しています。
OpenAIのリサーチャーとの対話
安全性を中心にさまざまなトピックについて解説する、OpenAIの内側に迫るシリーズ。