タグ
PromptTuning
AIBoom
Github
公開日
October 10, 2023
概要
著者リスト
Anni Zou, Zhuosheng Zhang, Hai Zhao, Xiangru Tang
著者所属機関
Shanghai Jiao Tong University, Yale University
視点
サマリ
どういう論文?
- Meta-CoTという新しいChain-of-Thoughtプロンプトメソッドを提案する研究。
先行研究と比べてどこがすごい?
- 汎用性とパフォーマンスを同時に達成。
技術や方法のポイントはどこ?
- シナリオ識別、デモンストレーション選択、答えの導出の3つのフェーズ。
どうやって有効と検証した?
- 10の公開ベンチマーク推論タスクで評価。
議論の内容は?
- 論文では議論のセクションはありませんが、パフォーマンスと一般性の間に相互作用が存在することを明らかにし、その相互作用を利用して一般性を向上させる新しい方法を提案しています。
アブスト- GPT要約
META-CoT: 大規模言語モデルにおける混合タスクシナリオ向け一般化可能な連鎖思考プロンプティング
主要機能
- 入力された質問に基づいてシナリオをカテゴライズし、対応するデータプールから自動的に多様なデモンストレーションを構築する。
- 理由付けの連鎖を生成し、回答を導き出すための中間的な推論チェーンを提供する。
- 一般的なプロンプト、如何に"一歩ずつ考える"などを使用し、テンプレート化された理由を提供する。
利点
- 10の公開ベンチマーク推論タスクにおいて顕著な性能を示す。
- 優れた一般化能力を提供し、未知のタスクタイプでも効果的に機能する。
- 追加のプログラム支援手法なしでSVAMPにおいて最先端の結果(93.7%)を達成。
実験結果
- SVAMPでの最先端の結果を93.7%で達成。
- 5つの配布外データセットにおいて一般化能力を検証し、良好な性能を示した。
- 代表的な労働フリーサンプリング方法と比較して、Meta-CoTが最良のパフォーマンスを示し、デモンストレーションの多様性の重要性を示した。
評価と結論
この研究は、大規模言語モデルの連鎖思考(CoT)プロンプティングの一般化を目指し、新しい手法Meta-CoTを提案しました。実験により、Meta-CoTは一般化能力と高い性能を同時に示し、特定のプログラム支援手法なしで最先端の結果を達成しました。これにより、Meta-CoTは、未知のタスクタイプに対しても大規模言語モデルの性能を向上させる有望な手法であることが示されました。