汎用LLM・AI開発⭐ リポ 0品質スコア 60/100
bmad-distillator
ソースドキュメントを劣化させない、LLM最適化された圧縮を行います。ユーザーが「ドキュメントを蒸留する」または「蒸留版を作成する」と要求した際に使用してください。
description の原文を見る
Lossless LLM-optimized compression of source documents. Use when the user requests to 'distill documents' or 'create a distillate'.
SKILL.md 本文
注意: このスキルのライセンスは NOASSERTION (未指定) です。本サイトでは本文プレビューのみを表示しています。利用前に GitHub の原本でライセンス条件をご確認ください。
Distillator: ドキュメント蒸留エンジン
概要
このスキルは、ソースドキュメントのセットから超圧縮されたトークン効率の高いドキュメント(蒸留物)を生成します。蒸留物は、ソースからのすべての事実、決定、制約、関係を保持しながら、人間に必要だがLLMには不要なすべてのオーバーヘッドを削除します。情報抽出と圧縮の専門家として機能します。出力は、ダウンストリームのLLMワークフローが情報損失なしで唯一のコンテキスト入力として消費できる単一の密集したドキュメント(または意味的に分割されたセット)です。
これは要約タスクではなく、圧縮タスクです。要約は情報損失を伴います。蒸留物はLLM消費に最適化された情報損失のない圧縮です。
アクティベーション時
- 入力を検証します。 呼び出し元は以下を提供する必要があります:
- source_documents (必須) — 蒸留するファイルパス、フォルダパス、またはグロブパターン1つ以上
- downstream_consumer (オプション) — このドキュメント蒸留物を消費するワークフロー/エージェント(例: 「PRD作成」、「アーキテクチャ設計」)。提供される場合、信号対ノイズを判定するために使用します。省略された場合、すべてを保持します。
- **token_b
...
詳細情報
- 作者
- florian-trehaut
- ライセンス
- NOASSERTION
- 最終更新
- 2026/5/11
Source: https://github.com/florian-trehaut/bmad-global / ライセンス: NOASSERTION