このサイトはCookieを使用しています。サイトの使用を続けることで、Cookieの使用に同意することになります。

Logo
    生成AI活用ガイド
    生成AI活用ガイド
    /先行研究調査:論文リサーチ
    先行研究調査:論文リサーチ
    /
    一歩下がる:大規模言語モデルにおける抽象化による推論の喚起

    一歩下がる:大規模言語モデルにおける抽象化による推論の喚起

    タグ
    PromptTuning
    AIBoom
    https://aiboom.net/archives/56671
    AIDB X
    https://twitter.com/ai_database/status/1712311244072624445
    Github
    URL
    https://arxiv.org/abs/2310.06117
    公開日
    2023/10/09
    概要

    著者リスト

    Huaixiu Steven Zheng, Swaroop Mishra, Xinyun Chen, Heng-Tze Cheng, Ed H. Chi, Quoc V Le, Denny Zhou

    著者所属機関

    Google DeepMind

    視点

    サマリ

    どういう論文?

    抽象化を通じて大規模言語モデルの推論能力を向上させるテクニック、STEP-BACK PROMPTINGを提案。

    先行研究と比べてどこがすごい?

    具体的な事例から高レベルの概念や原則を導き出し、それを利用して推論の正確さを向上させる能力。

    技術や方法のポイントはどこ?

    抽象化と推論ガイダンスを組み合わせることで、LLMの推論経路を明確にし、エラーを減少させる。

    どうやって有効と検証した?

    複数の推論重視タスクにおいて、PaLM-2Lモデルを用いて実験し、顕著なパフォーマンス向上を示した。

    議論の内容は?

    抽象化が複雑なタスク解決に有用であり、多くの具体的な問いに対する一般的な抽象問いの生成とその利点を示唆。

    アブスト- GPT要約

    大規模言語モデルにおける抽象化を通じた推論の喚起: STEP-BACK PROMPTING

    主要機能

    • 特定の詳細を含むインスタンスから高レベルの概念や原則を抽象化する能力
    • 抽象化された概念と原則を用いて推論のステップをガイドする能力
    • STEP-BACK PROMPTING テクニックによる推論エラーの減少

    利点

    • 推論タスクにおける大規模言語モデルのパフォーマンス向上
    • 質問応答ベンチマークでの基本モデルの誤りの修正能力
    • 一般的な抽象問いの生成により複雑な問いに対する推論を簡潔にガイド

    実験結果

    • STEM, Knowledge QA, Multi-Hop Reasoning などの推論重視タスクで顕著なパフォーマンス向上
    • PaLM-2Lモデルのパフォーマンス向上:MMLU PhysicsおよびChemistryで7%と11%、TimeQAで27%、MuSiQueで7%
    • STEP-BACK + RAGが基本モデルの誤りを15.4%修正し、逆に6.1%のエラーを導入

    評価と結論

    本研究により、STEP-BACK PROMPTINGテクニックを利用することで大規模言語モデルの推論能力が向上し、特に推論エラーが減少しました。抽象化と推論ガイダンスの組み合わせは、質問応答ベンチマークにおいて基本モデルの誤りを修正し、複雑な推論タスクにおいて顕著なパフォーマンス向上をもたらします。これは、大規模言語モデルの推論能力をさらに向上させるための有望な方向を示しています。

    TIS株式会社

    サイトのご利用について

    情報セキュリティ方針

    お問い合わせ・フィードバック

    Copyright 2024 TIS Inc.