casa-vl-fusion
ビジョンと言語を融合させるトークン挿入を、テキストの自己注意を維持する効率的なクロスアテンションに置き換えます。テキストトークンがローカルウィンドウ内の画像に注意を向けることが可能になり、前フレームの要点トークンを保持しながら、ストリーミングビデオのメモリコストをほぼ一定に保つことができます。リソースに制約のあるアプリケーション向けに、直接的なトークン挿入より実用的です。
description の原文を見る
Replace token-insertion for fusing vision and language with efficient cross-attention that maintains separate text self-attention. Enables text tokens to attend images within local windows, preserves gist tokens from prior images, and maintains near-constant memory costs for streaming video—more practical than direct token insertion for resource-constrained applications.
SKILL.md 本文
概要
CASA は、ビジョンと言語の融合のための直接的なトークン挿入に代わる実用的な選択肢として、クロスアテンション(CA)を再検討します。トークン挿入は高解像度画像やビデオでは禁止的なほどコストがかかりますが、CA は慎重な設計により効率的な融合を提供します。5 つの重要な設計上の違いが CA の競争力を回復させます。
コア技術
重要な洞察は、クロスアテンションがトークン挿入のパフォーマンスと同等かそれ以上を達成するには、特定の設計上の選択が必要であることです。
5 つの重要な設計上の違い:
# CASA architecture components
class CASAVisionLanguageModel:
def __init__(self):
# D1: Separate parameter layers for cross-attention
self.text_self_attention = SelfAttentionLayer()
self.cross_attention = CrossAttentionLayer() # Not shared
# D2: Joint text-image attention with local win
...
詳細情報
- 作者
- ADu2021
- リポジトリ
- ADu2021/skillXiv
- ライセンス
- 不明
- 最終更新
- 2026/3/26
Source: https://github.com/ADu2021/skillXiv / ライセンス: 未指定