Agent Skills by ALSEL
汎用LLM・AI開発⭐ リポ 2品質スコア 59/100

perception-aware-policy-optimization

マルチモーダルLLMの知覚エラーをKLダイバージェンスベースの知覚ロスで直接的に改善し、視覚依存タスクにおける視覚推論性能を8~19%向上させます。報酬調整のみに依存せず、知覚認識シグナルをポリシー勾配に統合することで、より効果的な最適化を実現します。

description の原文を見る

Optimize multimodal LLMs by directly targeting perception errors using KL-divergence based perception loss, improving visual reasoning by 8-19% on vision-dependent tasks. Integrates perception-aware signals into policy gradients without relying solely on reward modifications.

SKILL.md 本文

注意: このスキルのライセンスは ライセンス未確認 です。本サイトでは本文プレビューのみを表示しています。利用前に GitHub の原本でライセンス条件をご確認ください。

Perception-Aware Policy Optimization: マルチモーダル推論を知覚層で修正

大規模マルチモーダルモデル(LMM)は画像の説明には優れていますが、視覚的理解が必要な推論タスクでは失敗します。エラーの67%は推論能力ではなく知覚の失敗に起因しています。従来の報酬ベースRLは視覚と推論を結合されたものとして扱い、モデルが画像を誤解したのか推論の誤りを犯したのかを区別することなく、答えが間違っているときに一律のペナルティを適用します。PAPOはこれを解決するため、モデルの出力がどの程度視覚入力に依存しているかを直接測定し(画像パッチの60%をマスキングして)、この発散を最適化信号として使用し、モデルに幻覚を見るのではなく実際の視覚コンテンツに推論を根拠付けるよう強制します。

マルチモーダルベンチマーク上で視覚言語モデルをファインチューニングする場合(視覚的数学問題、グラフ、図、空間推論)、知覚層がボトルネックになります。標準的な教師あり学習によるファインチューニングは幻覚を修正できません。報酬ベースRLはグローバルなポリシーを学習しますが、どのエラーが不十分な視覚的根拠付けに起因しているかを特定しません。知覚対応ポリシー最適化は、視覚が破損されると出力が変わらない出力に直接ペナルティを与え、モデルが見ているものを理解していることを証明するよう強制し

...

詳細情報

作者
ADu2021
リポジトリ
ADu2021/skillXiv
ライセンス
不明
最終更新
2026/3/26

Source: https://github.com/ADu2021/skillXiv / ライセンス: 未指定

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: ADu2021 · ADu2021/skillXiv · ライセンス: ライセンス未確認