このサイトはCookieを使用しています。サイトの使用を続けることで、Cookieの使用に同意することになります。

Logo
    生成AI活用ガイド
    生成AI活用ガイド
    /先行研究調査:論文リサーチ
    先行研究調査:論文リサーチ
    /
    計画と解決のプロンプト: 大規模な言語モデルによるゼロショット思考連鎖推論の改善

    計画と解決のプロンプト: 大規模な言語モデルによるゼロショット思考連鎖推論の改善

    タグ
    PromptTuning
    AIBoom
    AIDB X
    Github
    https://github.com/AGI-Edgerunners/Plan-and-Solve-Prompting
    URL
    https://arxiv.org/abs/2305.04091
    公開日
    2023/05/06
    概要

    著者リスト

    Lei Wang, Wanyu Xu, Yihuai Lan, Zhiqiang Hu, Yunshi Lan, Roy Ka-Wei Lee, Ee-Peng Lim

    著者所属機関

    Singapore Management University, Southwest Jiaotong University, Singapore University of Technology and Design, East China Normal University

    視点

    サマリ

    どういう論文?

    この論文は、大規模言語モデル(LLM)を用いたゼロショットの連鎖思考推論の改善に関するものです。

    先行研究と比べてどこがすごい?

    先行研究と比べて、手動で作成された例を必要とせず、より詳細な指示を用いて計算エラーや欠落ステップエラーを減少させる新しいプロンプト戦略を提案しています。

    技術や方法のポイントはどこ?

    技術的なポイントは、問題をより小さなサブタスクに分割する計画を立て、その計画に従ってサブタスクを実行する「Plan-and-Solve Prompting」を導入している点です。

    どうやって有効と検証した?

    10のデータセットを使用して、3つの異なる推論問題に対する提案手法の有効性を検証し、GPT-3を用いた実験でゼロショットCoTを大幅に上回る結果を示しました。

    議論の内容は?

    ゼロショットのプロンプト戦略が手動の数ショットCoTプロンプト戦略をいくつかのデータセットで上回る可能性があることを示唆しており、LLMを活用した推論能力のさらなる開発を促進することを議論しています。

    アブスト-GPT要約

    大規模言語モデルによるゼロショット連鎖思考推論の改善

    主要機能

    • 問題を小さなサブタスクに分割する計画の立案
    • 計画に基づいたサブタスクの実行
    • 詳細な指示による計算エラーの減少

    利点

    • 手動で作成された例を必要としない
    • 計算エラーと欠落ステップエラーの減少
    • 複数の推論問題に対する汎用性

    実験結果

    • 10のデータセットにおいてゼロショットCoTを上回る
    • 数学推論問題において8ショットCoTプロンプトと同等の性能

    評価と結論

    提案されたプロンプト戦略は、LLMにより高品質な推論プロセスを生成させることができ、いくつかのデータセットで手動の数ショットCoTプロンプト戦略を上回る可能性があることを示しています。これは、LLMを用いた推論能力のさらなる開発に向けた新たな道を開くものです。

    TIS株式会社

    サイトのご利用について

    情報セキュリティ方針

    お問い合わせ・フィードバック

    Copyright 2024 TIS Inc.