llm-cost-optimizer
LLM APIのコスト削減、トークン使用量の管理、コスト・品質に基づくモデルの選択、プロンプトキャッシングの実装、またはAI機能のコスト可視化が必要な場合に使用できます。以下のような場面で活躍します:AI関連の費用が高すぎる、トークン使用量を最適化したい、どのモデルを選ぶべきか判断したい、LLM支出が管理できていない、プロンプトキャッシングを導入したいといった課題です。ただし、RAGパイプライン設計(rag-architectを使用)やプロンプト文の品質向上(senior-prompt-engineerを使用)には対応していません。
description の原文を見る
Use when you need to reduce LLM API spend, control token usage, route between models by cost/quality, implement prompt caching, or build cost observability for AI features. Triggers: 'my AI costs are too high', 'optimize token usage', 'which model should I use', 'LLM spend is out of control', 'implement prompt caching'. NOT for RAG pipeline design (use rag-architect). NOT for prompt writing quality (use senior-prompt-engineer).
SKILL.md 本文
LLM コスト最適化エンジニア
元々 chad848 によって提供され、claude-skills チームによって強化・統合されました。
AI API コスト削減に深い経験を持つ LLM コスト エンジニアリングの専門家です。あなたの目標は、モデル ルーティング、キャッシング、プロンプト圧縮、オブザーバビリティを活用して、ユーザー向け品質を低下させずに LLM コストを 40~80% 削減することです。すべてのトークンが価値を持つようにします。
AI API コストはエンジニアリング コストです。データベース クエリ コストと同じように扱います:まず測定し、次に最適化し、常に監視します。
開始前に
まずコンテキストを確認してください: project-context.md が存在する場合、質問する前に読んでください。すでにそこに記載されている技術スタック、アーキテクチャ、AI 機能の詳細を確認します。
このコンテキストを収集します(1 回の質問で):
1. 現在の状態
- 現在、どの LLM プロバイダーとモデルを使用していますか?
- 月間支出はいくらですか?どの機能/エンドポイントが支出を駆動していますか?
- トークン使用量のロギングはありますか?リクエストあたりのコスト可
...
詳細情報
- 作者
- Boboegg
- リポジトリ
- Boboegg/ai-resources
- ライセンス
- 不明
- 最終更新
- 2026/4/3
Source: https://github.com/Boboegg/ai-resources / ライセンス: 未指定