Agent Skills by ALSEL
汎用LLM・AI開発⭐ リポ 2品質スコア 64/100

stagevar-acceleration

ビジュアル自己回帰(VAR)画像生成を再トレーニングなしで3.4倍高速化します。生成段階を分析し、詳細調整段階におけるセマンティック無関連性を活用します。その段階ではクラシファイアフリーガイダンスが冗長になり、特徴量が低ランク構造を持つため、出力品質を保ちながら次元削減が可能になります。

description の原文を見る

Accelerate visual autoregressive (VAR) image generation 3.4× without retraining by analyzing generation stages. Exploits semantic irrelevance in detail-refinement stages where classifier-free guidance becomes redundant and features exhibit low-rank structure—enabling dimensionality reduction while preserving output quality.

SKILL.md 本文

注意: このスキルのライセンスは ライセンス未確認 です。本サイトでは本文プレビューのみを表示しています。利用前に GitHub の原本でライセンス条件をご確認ください。

概要

StageVARは、画像コンテンツがどのように段階的に構築されるかを分析することで、ビジュアルオートリグレッシブモデルの計算ボトルネックに対処します。初期段階は意味構造を構築し、中盤段階は空間配置を確立し、後期段階は詳細を洗練します。このステージ構造は、単一パス処理では利用できない最適化の機会を明らかにします。

コア技術

重要な洞察は、生成ステージが根本的に異なる計算要件を持つということです。

3段階分析フレームワーク: このメソッドは異なる最適化可能性を持つ異なるフェーズを識別します:

# Stage-aware generation analysis
class StageAwareVAR:
    def analyze_generation(self, model):
        """
        Identify three distinct generation stages with different
        properties and optimization opportunities.
        """
        stages = {
            'semantic': {
                'steps': 'early',
          

...

詳細情報

作者
ADu2021
リポジトリ
ADu2021/skillXiv
ライセンス
不明
最終更新
2026/3/26

Source: https://github.com/ADu2021/skillXiv / ライセンス: 未指定

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: ADu2021 · ADu2021/skillXiv · ライセンス: ライセンス未確認