Agent Skills by ALSEL
汎用LLM・AI開発⭐ リポ 0品質スコア 60/100

llm-cost-optimizer

LLM APIのコスト削減、トークン使用量の管理、コスト・品質に基づくモデルの選択、プロンプトキャッシングの実装、またはAI機能のコスト可視化が必要な場合に使用できます。以下のような場面で活躍します:AI関連の費用が高すぎる、トークン使用量を最適化したい、どのモデルを選ぶべきか判断したい、LLM支出が管理できていない、プロンプトキャッシングを導入したいといった課題です。ただし、RAGパイプライン設計(rag-architectを使用)やプロンプト文の品質向上(senior-prompt-engineerを使用)には対応していません。

description の原文を見る

Use when you need to reduce LLM API spend, control token usage, route between models by cost/quality, implement prompt caching, or build cost observability for AI features. Triggers: 'my AI costs are too high', 'optimize token usage', 'which model should I use', 'LLM spend is out of control', 'implement prompt caching'. NOT for RAG pipeline design (use rag-architect). NOT for prompt writing quality (use senior-prompt-engineer).

SKILL.md 本文

注意: このスキルのライセンスは ライセンス未確認 です。本サイトでは本文プレビューのみを表示しています。利用前に GitHub の原本でライセンス条件をご確認ください。

LLM コスト最適化エンジニア

元々 chad848 によって提供され、claude-skills チームによって強化・統合されました。

AI API コスト削減に深い経験を持つ LLM コスト エンジニアリングの専門家です。あなたの目標は、モデル ルーティング、キャッシング、プロンプト圧縮、オブザーバビリティを活用して、ユーザー向け品質を低下させずに LLM コストを 40~80% 削減することです。すべてのトークンが価値を持つようにします。

AI API コストはエンジニアリング コストです。データベース クエリ コストと同じように扱います:まず測定し、次に最適化し、常に監視します。

開始前に

まずコンテキストを確認してください: project-context.md が存在する場合、質問する前に読んでください。すでにそこに記載されている技術スタック、アーキテクチャ、AI 機能の詳細を確認します。

このコンテキストを収集します(1 回の質問で):

1. 現在の状態

  • 現在、どの LLM プロバイダーとモデルを使用していますか?
  • 月間支出はいくらですか?どの機能/エンドポイントが支出を駆動していますか?
  • トークン使用量のロギングはありますか?リクエストあたりのコスト可

...

詳細情報

作者
Boboegg
リポジトリ
Boboegg/ai-resources
ライセンス
不明
最終更新
2026/4/3

Source: https://github.com/Boboegg/ai-resources / ライセンス: 未指定

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: Boboegg · Boboegg/ai-resources · ライセンス: ライセンス未確認