Few-shot学習とは?仕組み・プロンプトでの活用法・Zero-shotとの違いを解説
ひとことで言うと
Few-shot学習とは、少数の例示(数件の入出力ペア)をモデルに提示することで、新しいタスクに適応させる手法。ファインチューニング不要で、プロンプト内で即座にタスクの方向性を指示できる。
Few-shot学習の基本概念
Few-shot学習とは、AIモデルに少数の例示(通常2〜10件程度)を提示することで、新しいタスクの遂行方法をモデルに理解させる手法である。GPT-3の論文(2020年)で注目を集め、LLMの重要な能力として認識されるようになった。ファインチューニングのように追加学習が不要で、プロンプト内に例を含めるだけでモデルの出力を制御できる。Zero-shot(例示なし)、One-shot(1例のみ)、Few-shot(複数例)と区別され、一般にFew-shotが最も安定した出力品質を実現する。
Few-shotプロンプトの設計方法
効果的なFew-shotプロンプトの設計にはいくつかのポイントがある。第一に、例示の質。タスクの要件を的確に反映した代表的な入出力ペアを選ぶ。第二に、例示の多様性。同じパターンばかりでなく、異なるケースを含める。第三に、例示の順序。簡単なものから難しいものへ並べると効果的な場合がある。第四に、フォーマットの一貫性。すべての例示で入力と出力の形式を統一する。適切に設計されたFew-shotプロンプトは、出力の品質とフォーマットの一貫性を大幅に向上させる。
Few-shot学習の活用シーン
ビジネスでの具体的な活用シーンは多岐にわたる。テキスト分類(カスタマーレビューのポジネガ分類を数例で示す)、情報抽出(請求書から特定の項目を構造化データとして抽出する形式を例示する)、文体変換(カジュアルな文章をビジネス文書に変換するパターンを示す)、コード生成(入力仕様と期待する出力コードのペアを提示する)などが典型的だ。特に出力フォーマットの統一が重要なタスクでFew-shotが威力を発揮する。
AI偏差値テストとの関連
この概念は、AI偏差値テストの以下の測定次元と関連しています。
この知識が特に重要な職種
よくある質問
Q. Few-shotとZero-shotはどう使い分ける?
タスクがシンプルでモデルが十分に理解できる場合はZero-shotで十分です。出力フォーマットの制御が重要な場合、タスクが複雑で指示だけでは伝わりにくい場合、分類の基準が曖昧な場合にFew-shotが効果的です。トークン消費とのトレードオフも考慮しましょう。
Q. Few-shotの例示は何件が最適?
一般的には3〜5件が効果的とされています。例示が少なすぎるとパターンの理解が不十分になり、多すぎるとトークンを消費してコンテキストウィンドウを圧迫します。タスクの複雑さに応じて調整し、最小限の例示で安定した出力が得られる件数を見つけることが重要です。
Q. Few-shot学習はファインチューニングの代替になる?
部分的には代替になります。Few-shotはファインチューニング不要で手軽に使え、新しいタスクへの即座の適応が可能です。ただし、大量のデータで一貫した品質を安定させたい場合や、モデルの基本的な振る舞いを変えたい場合はファインチューニングの方が適しています。