あらゆる段階での安全性
私たちは AI によってすべての人の生活が向上する可能性を信じており、それは、誰にとっても安全な AI の実現を意味します
教育
私たちは、有害なコンテンツにフィルターを適用し、共感を持って応えることで、当社の AI に正しいことと間違っていることを教えることから始めます。
テスト
当社は社内評価を実施し、専門家と連携して、実際に起こり得るシナリオをテストし、当社の保護を強化しています。
共有
当社 AI をより安全で役立つ存在にするため、私たちは現実世界のフィードバックを活用しています。
安全性に終わりはない
安全な AI の構築は一度で完了するものではありません。 毎日が改善へのチャンスです。 そして、すべての段階がリスクの予測や評価、防止へとつながります。
安全性とアライメントについての考え方
安全性を牽引する
当社は業界のリーダーや政策立案者と協力し、最も重要な課題に取り組んでいます。
子どもの安全
子どもたちを守るための業界全体の基準を策定しています。
個人情報
人々のプライバシーを守ります。
ディープ フェイク
AI コンテンツの透明性を向上させます。
バイアス
偏見やステレオタイプの再生産を防ぐため、コンテンツを厳しくに評価します。
選挙
偽情報の拡散を防ぐため、各国政府との関係を強化しています。
OpenAI のリサーチャーとの対話
安全性を中心にさまざまなトピックについて解説する、OpenAI の内側に迫るシリーズ。