Agent Skills by ALSEL
汎用データ・分析⭐ リポ 2品質スコア 59/100

config-knowledge-distillation

教師・生徒モデル間の不一致を活用した拡散ベースのデータ拡張により、共変量シフト下での生徒モデルのロバスト性を向上させます。この手法は、虚偽の特徴量を標的とすることで、モデルの堅牢性を改善します。

description の原文を見る

Improve student model robustness under covariate shift by using diffusion-based augmentation that targets spurious features via teacher-student disagreement.

SKILL.md 本文

注意: このスキルのライセンスは ライセンス未確認 です。本サイトでは本文プレビューのみを表示しています。利用前に GitHub の原本でライセンス条件をご確認ください。

ConfiG: Confidence-Guided Data Augmentation for Knowledge Distillation

コアコンセプト

学習データに含まれるテスト時に存在しない疑似特徴がある場合、知識蒸留はこれらのバイアスを学生モデルに保存する可能性があります。ConfiGは教師と学生の不一致を最大化する拡張画像を生成することでこの問題に対処し、学生が学習した疑似相関を正確に対象とします。この拡散ベースのアプローチにより、学生はデータセットのバイアスを克服しながら知識転移を維持できます。

アーキテクチャの概要

  • 問題: 知識蒸留はバイアスのあるデータセットからの疑似相関を転移し、未知のグループへの汎化を低下させます
  • 解決策: 信頼度ガイド付き拡散は教師-学生の不一致を活用して対抗的な例を生成します
  • メカニズム: 潜在変数を最適化して教師の信頼度を最大化しながら学生の信頼度を最小化し、疑似特徴を対象とします
  • 理論的根拠: 命題1は信頼度ガイド付き拡張が分布的汎化ギャップを削減することを証明しています
  • 相乗効果: モデル中心のバイアス軽減(TABなど)と連携し、データとモデルのアプローチが補完的であることを示します

実装

ステップ1: 共変量シフトと汎化分解を理解す

...

詳細情報

作者
ADu2021
リポジトリ
ADu2021/skillXiv
ライセンス
不明
最終更新
2026/3/26

Source: https://github.com/ADu2021/skillXiv / ライセンス: 未指定

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: ADu2021 · ADu2021/skillXiv · ライセンス: ライセンス未確認