タグ
PromptTuning
Github
公開日
October 9, 2023
概要
著者リスト
Huaixiu Steven Zheng, Swaroop Mishra, Xinyun Chen, Heng-Tze Cheng, Ed H. Chi, Quoc V Le, Denny Zhou
著者所属機関
Google DeepMind
視点
サマリ
どういう論文?
抽象化を通じて大規模言語モデルの推論能力を向上させるテクニック、STEP-BACK PROMPTINGを提案。
先行研究と比べてどこがすごい?
具体的な事例から高レベルの概念や原則を導き出し、それを利用して推論の正確さを向上させる能力。
技術や方法のポイントはどこ?
抽象化と推論ガイダンスを組み合わせることで、LLMの推論経路を明確にし、エラーを減少させる。
どうやって有効と検証した?
複数の推論重視タスクにおいて、PaLM-2Lモデルを用いて実験し、顕著なパフォーマンス向上を示した。
議論の内容は?
抽象化が複雑なタスク解決に有用であり、多くの具体的な問いに対する一般的な抽象問いの生成とその利点を示唆。
アブスト- GPT要約
大規模言語モデルにおける抽象化を通じた推論の喚起: STEP-BACK PROMPTING
主要機能
- 特定の詳細を含むインスタンスから高レベルの概念や原則を抽象化する能力
- 抽象化された概念と原則を用いて推論のステップをガイドする能力
- STEP-BACK PROMPTING テクニックによる推論エラーの減少
利点
- 推論タスクにおける大規模言語モデルのパフォーマンス向上
- 質問応答ベンチマークでの基本モデルの誤りの修正能力
- 一般的な抽象問いの生成により複雑な問いに対する推論を簡潔にガイド
実験結果
- STEM, Knowledge QA, Multi-Hop Reasoning などの推論重視タスクで顕著なパフォーマンス向上
- PaLM-2Lモデルのパフォーマンス向上:MMLU PhysicsおよびChemistryで7%と11%、TimeQAで27%、MuSiQueで7%
- STEP-BACK + RAGが基本モデルの誤りを15.4%修正し、逆に6.1%のエラーを導入
評価と結論
本研究により、STEP-BACK PROMPTINGテクニックを利用することで大規模言語モデルの推論能力が向上し、特に推論エラーが減少しました。抽象化と推論ガイダンスの組み合わせは、質問応答ベンチマークにおいて基本モデルの誤りを修正し、複雑な推論タスクにおいて顕著なパフォーマンス向上をもたらします。これは、大規模言語モデルの推論能力をさらに向上させるための有望な方向を示しています。