
遅延を減らし、精度を向上させ、コストを削減するために、開発者がモデルの性能を向上させるさまざまな手法(新しいウィンドウで開く)があります。検索拡張生成(RAG)によるモデル知識の拡張、ファインチューニングによるモデルの動作のカスタマイズ、新しい分野固有の知識によるカスタム学習モデルの構築など、カスタマーの AI 実装をサポートするさまざまな選択肢を開発してきました。本日、開発者が API を使ってより自在にファインチューニングできる新機能を発表し、カスタムモデルを構築するために AI の専門家や研究者からなる当社のチームと連携する方法をご紹介します。
新しいファインチューニング API 機能
2023年8月に GPT‑3.5 のセルフサービス式ファインチューニング API(新しいウィンドウで開く) の提供を開始しました。以来、何千もの組織が当社の API を使って何十万ものモデルに学習を行っています。ファインチューニングは、モデルがコンテンツを深く理解し、特定のタスクのためにモデルの既存の知識と能力を拡張できるようにします。また、当社のファインチューニング API は、コストと遅延を削減しながら、より高品質の結果を達成するために、1つのプロンプトに収まるよりも大量の例をサポートしています。ファインチューニングの一般的な使用例としては、特定のプログラミング言語でより良いコードを生成するためにモデルに学習させる、特定のフォーマットでテキストを要約する、ユーザーの行動に基づいて個人に合わせたコンテンツを作成するなどがあります。
例えば、世界的な求人マッチング・人材採用プラットフォームである Indeed(新しいウィンドウで開く) は、採用プロセスを簡素化したいと考えています。その一環として、Indeed は求職者個人に合わせたお勧めを提供し、スキルや経験、好みに応じて関連する求人をハイライトする機能を提供開始しました。GPT‑3.5 Turbo をファインチューニングし、より高品質で正確な説明を生成できるようにしました。その結果、Indeed はプロンプトのトークン数を80%削減することで、コストと遅延を改善しました。これにより、求職者へのメッセージは月あたり100万通以下だったものが、約2000万通にまで拡大しました。
本日、開発者がより自在にファインチューニングできるようにするための新機能(新しいウィンドウで開く)を発表します。
- エポックベースのチェックポイント作成:各学習エポック中に、完全にファインチューニングされたモデルのチェックポイントを自動的に生成し、特に過学習の場合に、その後の再学習の必要性を減らします
- 比較 Playground:モデルの品質と性能を比較するための新しい並列の Playground UI により、複数のモデルの出力を人間が評価したり、1つのプロンプトに対してスナップショットをファインチューニングしたりできます
- サードパーティとの統合:サードパーティプラットフォームとの統合をサポートし(今週に Weights and Biases(新しいウィンドウで開く) から対応)、開発者が詳細なファインチューニングデータを残りのスタックと共有できるようにします
- 包括的な検証指標:一部のバッチではなく、検証データセット全体に対して損失や精度などの指標を計算する機能により、モデルの品質についてより良い洞察を提供します
- ハイパーパラメーターの構成:Dashboard(新しいウィンドウで開く)(API や SDK を使用するのみではなく)から利用可能なハイパーパラメーターを構成する機能です
- ファインチューニングダッシュボードの改良:ハイパーパラメーターの構成、より詳細な学習指標の表示、以前の構成からのジョブの再実行などの機能があります

Custom Model プログラムの拡大
支援されたファインチューニング
昨年11月の DevDay では、OpenAI 研究者の専属グループとの協力のもと、特定の分野向けにモデルに学習させ最適化する Custom Model プログラムを発表しました。以降、何十組ものお客様との面談でカスタムモデルのニーズを評価し、その効果をさらに高めるためにプログラムを進化させてきました。
本日、Custom Model プログラムの一環として、支援されたファインチューニングを正式に発表します。支援されたファインチューニングは、ファインチューニング API を超える手法、例えば追加のハイパーパラメーターやさまざまなパラメーター効率的ファインチューニング(PEFT)メソッドをより大規模に活用するためのテクニカルチームとの共同作業です。効率的な学習データパイプライン、評価システム、ユースケースやタスクに応じたモデル性能を最大化するための特注のパラメーターやメソッドのセットアップをサポートする必要がある組織にとって特に有用です。
例えば、韓国で3000万人以上の加入者にサービスを提供する通信事業者である SK Telecom(新しいウィンドウで開く) は、最初にカスタマーサービスに焦点を当て、通信分野のエキスパートになるモデルをカスタマイズしたいと考えていました。OpenAI と協力して GPT‑4 をファインチューニングし、韓国語での通信関係の会話における性能を向上させました。数週間にわたり、SKT と OpenAI は、通信関係のカスタマーサービスのタスクにおいて有意義な性能の改善を推進しました。ファインチューニングされたモデルを GPT‑4 と比較した場合、会話の要約品質が35%向上し、意図認識精度が33%向上し、満足度スコアが3.6から4.5(5点満点)に向上しました。
カスタム学習モデル
場合によっては、組織は自社の事業や業界、分野を理解する専用モデルにゼロから学習させる必要があります。完全にカスタム学習したモデルは、革新的な学習中および学習後テクニックを使用してモデル学習プロセスの主要なステップを変更することにより、特定の分野からの新しい知識を注入します。完全にカスタム学習したモデルで成功している組織は、何百万もの例や何十億ものトークンといった大量の独自データを持っていることが多く、それを使って特殊なユースケースのためにモデルに新しい知識や、複雑かつ特有の行動を学習させたいと考えています。
例えば、弁護士向けの AI ネイティブ法務ツールである Harvey(新しいウィンドウで開く) は、OpenAI と連携し、判例法に対してカスタム学習した大規模言語モデルを作成しました。基礎モデルは論理的思考には強かったものの、過去の判例など法律業務に必要な幅広い知識には欠けていました。プロンプトエンジニアリング、RAG、ファインチューニングをテストした Harvey は、当社のチームと協力して、モデルに必要なコンテキストの深さを追加しました。これは100億トークン分のデータに相当します。当社のチームは、分野に特化した学習中のプロセス、学習後のプロセスのカスタマイズ、専門家である弁護士のフィードバックの取り込みまで、モデル学習プロセスの全てのステップを変更しました。その結果、事実に基づく回答が83%増加し、弁護士が GPT‑4 よりもカスタマイズされたモデルの出力を好む割合が97%になりました。

モデルカスタマイズの今後
将来的には、大半の組織がそれぞれの業界や事業、ユースケースに合わせてカスタマイズされたモデルを開発するようになると考えています。カスタムモデルを構築するさまざまな手法により、あらゆる規模の組織がパーソナライズされたモデルを開発し、AI を導入することでより有意義で具体的な影響を実現できるようになるでしょう。重要なのは、ユースケースの範囲を明確にし、評価システムを設計・実装し、適切な手法を選択し、モデルが最適な性能に達するまで時間をかけて反復する準備をすることです。
ほとんどの組織は、OpenAI と協力してセルフサービス型のファインチューニング API を開発することで有意義な結果を実感できるでしょう。モデルをより深くファインチューニングしたり、新しい分野固有の知識をモデルに組み込んだりする必要がある組織には、Custom Model プログラムが役立ちます。
モデルのファインチューニングを始めるには、ファインチューニング API(新しいウィンドウで開く) の資料をご覧ください。ユースケースに合わせたモデルのカスタマイズについて詳しくは、お問い合わせください。