deep research のご紹介
推論を使用して大量のオンライン情報を統合し、複数ステップのタスクを完了するエージェントです。現在は Pro ユーザーが利用可能で、Plus ユーザーと Team ユーザーも今後ご利用いただけるようになります。
2025年7月17日更新:ChatGPT エージェントの一部としてビジュアルブラウザーにアクセスできるようになったことで、deep research をより深く、より広くご利用いただけるようになりました。更新された機能を利用するには、コンポーザーのドロップダウンメニューで「エージェントモード」を選択し、直接クエリを入力してください。元の deep research 機能も引き続きツールメニューの「deep research」オプションから利用できます。
2025年4月24日更新:deep research をご利用いただける回数を大幅に増やします。Plus、Team、Enterprise、Edu の各ユーザーは、毎月 25 件、Pro ユーザーは 250 件、無料ユーザーは 5 件のクエリをご利用いただけるようになりました。これは、高品質を保ちながらコスト効率を向上させるように設計されたバージョンである o4-mini を採用した deep research の新しい軽量バージョンによって実現されています。完全バージョンの制限に達すると、クエリの処理は自動的に軽量バージョンに切り替えられます。
2025 年 2 月 25 日更新:すべての Plus ユーザーが、deep research をご利用いただけるようになりました。
2025 年 2 月 5 日更新:英国、スイス、欧州経済地域の Pro ユーザーは、deep research をご利用いただけるようになりました。
本日、ChatGPT で deep research を公開いたします。これは、複雑なタスクのためにインターネット上で複数ステップのリサーチを実行する、エージェント型の新機能です。人間には何時間もかかる作業を、数十分で完了します。
deep research は、独立して作業を実行できる OpenAI の次期エージェントです。プロンプトを送信すると、ChatGPT が数百のオンライン情報源を検索し、分析し、統合してリサーチ アナリスト レベルの総合的なレポートを作成します。これは、ウェブ参照とデータ分析向けに最適化された、近日公開の OpenAI o3 モデルのバージョンを採用し、推論を活用して、膨大な量のテキスト、画像、PDF をインターネット上で検索し、解釈し、分析します。さらに、検出した情報に反応し、必要に応じて方向転換します。
知識を統合する機能は、新しい知識を生み出すための前提条件です。このために、deep research は、AGI 開発という広大な目標への意義ある一歩を踏み出します。AGI は、革新的な科学的リサーチを実現できるように当社が長らく構想してきたものです。
deep research は、金融、科学、政策、工学などの分野で集中的な知的作業を行い、かつ徹底的で正確な信頼できるリサーチを必要とする人々向けに構築されています。これは、車、電化製品、家具などの入念なリサーチが通常必要になる購入について超個人向けのお勧めを探している買い物客の見定めにも同じくらい役立つ可能性があります。すべての出力が、明確な引用元と思考のサマリーとともに完全に文書化されるため、参照と情報の検証が簡単になります。通常なら数多くのウェブサイトを閲覧することが必要になる、ニッチで非直感的な情報を、特に効率よく見つけます。deep research を使用すると、複雑で時間がかかるウェブ リサーチについて、クエリ 1 つで負荷が軽減され、時間が短縮されるため、貴重な時間が解放されます。
deep research では、ウェブ全体から洞察を独自に検出し、推論し、統合します。これを実現するために、当社の最初のリーズニングモデルである OpenAI o1 を支えているのと同じ強化学習メソッドを使用して、ブラウザーと Python ツールの使用が必要な現実世界のタスクに基づいて学習を実施済みです。o1 は、コーディング、数学、その他の技術分野で優れた機能を示しますが、多くの現実世界の課題に対しては、多様なオンライン情報源から膨大なコンテキストや情報を収集する作業が必要になります。deep research は、その溝を埋めるために、これらの推論機能を基盤として構築されていて、人々が仕事や日常生活で直面するさまざまな問題を引き受けます。
ChatGPT のメッセージ作成機能で「deep research」を選択し、クエリを入力します。ChatGPT に、ストリーミング プラットフォームの競合分析や通勤に最適な自転車に関する個人向けレポートなどの要望を伝えます。質問にコンテキストを追加するために、ファイルやスプレッドシートを添付できます。実行が始まると、実行したステップと使用した情報源のサマリーがサイドバーに表示されます。
deep research で作業の完了までにかかる時間には、5 分から 30 分の幅があります。ウェブで詳細を調べる時間が必要になるためです。その間、ユーザーは離れて他のタスクに取り組むことができます。リサーチが完了すると通知が届きます。最終的な出力は、チャット内のレポートとして到着します。明確さを向上させ、コンテキストを追加するために、今後数週間で、これらのレポートに埋め込み画像、データの視覚化、その他の分析出力も追加する予定です。
deep research と比べて、GPT‑4o はリアルタイムでマルチモーダルの会話に適しています。深度と詳細が重要な多面的で分野が特定された照会について、deep research には、膨大な調査を実行し、それぞれについて引用を記載する機能があり、記述が詳細な検証済みの作業成果物として使用できる回答を作成できるため、簡単なサマリーとの間に差が開きます。
GPT-4o
Deep research
deep research では、プロンプトへの応答が非常にきめ細かく、上位 10 件の先進国と上位 10 件の途上国の両方について、参照と比較がしやすいように、各国固有のデータを並べて表示しています。その情報に基づいて、情報が豊富で実用的な市場参入のための詳細な推奨事項が提示されています。
deep research は、幅広い分野の難しいウェブ参照タスクと推論タスクについて、エンドツーエンドの強化学習を使用して学習を実施済みです。この学習を通じて、必要なデータを見つけるために複数ステップの軌跡を計画して実行し、必要に応じて後戻ってリアルタイムの情報に反応することを学習しました。このモデルでは、ユーザーがアップロードしたファイルを参照すること、Python ツールを使用してグラフをプロットし反復処理すること、生成したグラフおよびウェブサイトの画像の両方を回答に埋め込むこと、情報源から特定の文や語句を引用することも可能です。この学習の結果、現実世界の問題に特化した一般評価で最高点を更新しました。
広範な主題の専門レベルの質問で AI を試す最近リリースされた評価手法の Humanity’s Last Exam(新しいウィンドウで開く) では、deep research を採用したモデルの正確度が 26.6% になり、最高点を更新しました。このテストは、3,000 件を超える複数の選択肢と、言語学からロケット工学まで、古典からエコロジーまでの 100 を超える主題にわたる短い回答の質問で構成されています。OpenAI o1 と比べて最も大きな進歩は化学、人文科学、社会科学、数学の分野に現れました。deep research を採用したモデルは、必要に応じて特定の情報を効果的に見つけ出す人間に近いアプローチを示しました。
モデル | 精度(%) |
---|---|
GPT-4o | 3.3 |
Grok-2 | 3.8 |
Claude 3.5 Sonnet | 4.3 |
Gemini Thinking | 6.2 |
OpenAI o1 | 9.1 |
DeepSeek-R1* | 9.4 |
OpenAI o3-mini-medium* | 10.5 |
OpenAI o3-mini-high* | 13.0 |
OpenAI ディープリサーチ** | 26.6 |
現実世界の質問について AI を評価する公開ベンチマークである GAIA(新しいウィンドウで開く)1 では、deep research を採用したモデルが最高水準 (SOTA) を更新し、外部のリーダーボード(新しいウィンドウで開く)で首位になりました。質問は 3 つの難易度にわたるため、これらのタスクを成功させるには、推論、多面的な表現能力、ウェブ参照、熟練したツール使用などの機能が必要になります。
GAIA | ||||
---|---|---|---|---|
レベル1 | レベル2 | レベル3 | 平均 | |
以前の SOTA(新しいウィンドウで開く) | 67.92 | 67.44 | 42.31 | 63.64 |
ディープリサーチ(pass@1) | 74.29 | 69.06 | 47.6 | 67.36 |
ディープリサーチ(cons@64) | 78.66 | 73.21 | 58.03 | 72.57 |
GAIA タスクの例
さまざまな領域にわたる専門レベルのタスクの内部評価では、deep research により、数時間かかる難しい手作業の調査が自動化されたことが各分野の専門家から評価されました。
合格率とツール呼び出しの最大数との対比
専門レベルのタスク例
専門レベルのタスクでの推定経済価値別の合格率
専門レベルのタスクでの推定時間別の合格率
deep research は重要な新機能を公開していますが、まだ初期段階であり、制限があります。内部評価によると、既存の ChatGPT モデルよりかなり低い割合ではありますが、回答で事実を誤認したり、誤った推論を行ったりする可能性があります。信頼性の高い情報と、噂話の区別に苦労する場合があり、現在、信頼度キャリブレーションは不得意で、不確実性を正確に伝えないことがしばしばあると判明しています。起動時に、レポートと引用文献について若干の書式設定エラーが発生する場合があり、タスクの起動時間が長くなることがあります。これらの問題はすべて、使用量が増え、時間が経過するにつれてすぐに改善すると思われます。
ChatGPT の deep research は、現在、コンピューティング負荷が高い状態です。クエリのリサーチにかかる時間が長くなるほど、より多くの推論コンピューティングが必要になります。現時点ではまず、毎月 100 件までのクエリを処理する、Pro ユーザー向けに最適化されたバージョンを公開します。次に、Plus ユーザーと Team ユーザーがご利用いただけるようになり、その後に Enterprise ユーザーが続きます。英国、スイス、欧州経済地域のユーザーについては、ご利用いただけるように作業を継続中です。
すべての課金ユーザーに対するレート制限は、まもなく大幅に引き上げられる予定です。より小さいにもかかわらず高品質の結果をもたらすモデルを採用して、高速でコスト効率が高い deep research のバージョンを公開するためです。
今後数週間から数カ月の間に、技術インフラストラクチャに取り組み、現在のリリースを注意深く監視し、より厳格なテストを実施します。これは、反復型開発という当社の原則に沿うものです。すべての安全確認が当社のリリース基準を満たした場合は、およそ 1 カ月後に Plus ユーザーに deep research がリリースされます。
現在、deep research はウェブ版の ChatGPT でご利用いただけます。1 カ月以内に、モバイル アプリとデスクトップ アプリでも公開いたします。deep research で現在アクセスできるのは、公開されているウェブとアップロードされたファイルです。今後は、出力の内容をより堅固で個人向けにするために、アクセス範囲をサブスクリプション ベースや、内部のリソースに拡大して、より特殊なデータ ソースに接続できるようにする予定です。
さらに将来的には、非同期の現実世界のリサーチと実行を ChatGPT 内に統合するエージェント型のご利用体験を構想しています。非同期のオンライン調査を実行できる deep research と、現実世界のアクションを実行できる Operator を組み合わせることで、ChatGPT は、飛躍的に洗練されたタスクを遂行できます。
2025 年 2 月 3 日の補足:deep research を採用した o3 の初期バージョンについて、厳格な安全テスト、準備状況の評価、ガバナンス レビューを実施し、リスク レベルが中(新しいウィンドウで開く)であると判定しました。ウェブを参照する deep research の機能に関連する増分リスクをより適格に把握するために、追加の安全テストも実行して、新たな対策を追加しました。現在の制限付きリリースについて、引き続きテストを徹底し、注意深く監視してまいります。ご利用対象を Plus ユーザーに拡大するときに、安全に関する分析情報と保護措置について、System Card でお伝えします。
脚注
- 1
このデータセットに対するグラウンドトゥルースの解答は、オンライン上に広範に漏えいしていることが判明したため、モデルを公正に評価できるようにウェブサイトまたは URL をいくつかブロックしました。
著者
OpenAI研究責任者
Isa Fulford、Zhiqing Sun
基礎分野の貢献者
Alex Tachard Passos、Alexandra Barr、Allison Tam、Charlotte Cole、Hyung Won Chung、Jason Wei、Jon Blackman、Scott Mayer McKinney、Valerie Qi
主力貢献者
研究
Elaine Ya Le、Eric Mitchell、Eric Wallace、Hyung Won Chung、Ignasi Clavera、Leo Liu、Lorenz Kuhn、Louis Feuvrier、Max Schwarzer、Saachi Jain、Scottie Yan、Shunyu Yao、Vitchyr Pong
展開
Carpus Chang、Harry Zhao、Joseph Trasatti、Joshua Dickens、Matt Kaufer、Mike Trpcic、Minnia Feng、Neel Ajjarapu、Peter Vidani、 Sean Fitzgerald
貢献者
研究
Ahmed El-Kishky、AJ Ostrow、Alexander Wei、Andrei Gheorghe、Andrew Kondrich、Andrey Mishchenko、Anuj Nair、Behrooz Ghorbani、Brydon Eastman、Chak Li、Foivos Tsimpourlas、Francis Song、Giambattista Parascandolo、Gildas Chabot、Hessam Bagherinezhad、Haitang Hu、Hongyu Ren、Henry Aspegren、Hunter Lightman、Ilya Kostrikov、Ilge Akkaya、James Lennon、Jean Harb、Jonathan Ward、Kai Chen、Katy Shi、Kevin Liu、Kevin Yu、Manuka Stratta、Marvin Zhang、Mengyuan Yan、Mostafa Rohaninejad、Noam Brown、Phoebe Thacker、Raz Goan、Reah Miyara、Spencer Papay、Taylor Gordon、Wenda Zhou、Wenlei Xie、Yash Patil、Yann Dubois、Youlong Cheng、Yushi Wang、Wyatt Thompson
および o3に対するすべての貢献者。
Safety Systems
Adam Kalai、Alex Beutel、Andrea Vallone、Andy Applebaum、David Robinson、Elizabeth Proehl、Evan Mays、Grace Zhao、Irina Kofman、Jason Phang、Joaquin Quinonero Candela、Joel Parish、Kevin Liu、Kristen Ying、Lama Ahmad、Leon Maksin、Leyton Ho、Meghan Shah、Michele Wang、Miles Wang、Phillip Guo、Olivia Watkins、Owen Campbell-Moore、Patrick Chao、Sam Toizer、Samuel Miserendino、Sandhini Agarwal、Tejal Patwardhan、Tina Sriskandarajah、Troy Peterson、Yaodong Yu、Yunyun Wang
展開
Adam Koppel、Adam Wells、Adele Li、Andy Applebaum、Andrey Malevich、Andrew Duberstein、Andrew Howell、Anton Tananaev、Ashley Tyra、Brandon Walkin、Bryan Ashley、Cary Bassin、Cary Hudson、Cory Decareaux、Cristina Scheau、Derek Chen、Dibya Bhattacharjee、Drea Lopez、Eric Antonow、Eric Burke、Filippo Raso、Fotis Chantzis、Freddie Sulit、Harris Cohen、Heather Whitney、Jay Dixit、Jeffrey Han、Jen Robinson、Jessica Shieh、Joel Parish、Kan Wu、Kevin Gladstone、Kshitij Wadhwa、Leo Vandriel、Leyton Ho、Liang Chen、Madeline Christian、Mamie Rheingold、Matt Jones、Michelle Fradin、Mike McClay、Mingxuan Wang、Nacho Soto、Niko Felix、Patrick Delaney、Paul McMillan、Philip Pronin、Rodrigo Riaza Perez、Samuel Miserendino、Scott Ethersmith、Steven Baldwin、Thomas Dimson、Tomo Hiratsuka、Yaming Lin、Yara Khakbaz、Yining Chen
リーダーシップ
Akshay Nathan、Greg Brockman、Hannah Wong、Jakub Pachocki、Jerry Tworek、Johannes Heidecke、Josh Tobin、Liam Fedus、Mark Chen、Mia Glaese、Nick Turley、Sam Altman、Wojciech Zaremba