外部からのフィードバックと、望ましいモデルの動作を形作るための継続的な研究に基づいて、Model Spec を更新しました。
We’ve simplified, stabilized, and scaled continuous-time consistency models, achieving comparable sample quality to leading diffusion models, while using only two sampling steps.
現実のソフトウェアの問題を解決する AI モデルの能力をより確実に評価できるよう、SWE-bench の人間による検証サブセットをリリースします。
OpenAI とロスアラモス国立研究所は、フロンティアモデルに関連する生物学的能力とリスクを評価・測定するための安全性評価の開発に取り組みます。
当社は、音声、視覚情報、テキストをリアルタイムで一括で論理的に思考・出力できる新しいフラッグシップモデル、GPT-4 Omni を発表します。
OpenAI におけるディープラーニングのスケール拡大の取り組みにおいて、最新のマイルストーンとなるのが GPT-4 です。画像とテキストの両方を入力として受け取り、テキストを出力する大規模なマルチモーダルモデルです。現実世界の多くの場面では人間に及ばないものの、専門的・学術的なさまざまなベンチマークで人間並みのパフォーマンスを発揮します。
We built a neural theorem prover for Lean that learned to solve a variety of challenging high-school olympiad problems, including problems from the AMC12 and AIME competitions, as well as two problems adapted from the IMO.
We’ve discovered neurons in CLIP that respond to the same concept whether presented literally, symbolically, or conceptually. This may explain CLIP’s accuracy in classifying surprising visual renditions of concepts, and is also an important step toward understanding the associations and biases that CLIP and similar models learn.