llm-chat
ユーザーがClaude以外のモデル(GPT-4o、Copilot経由のClaude、Kimi、GLM、MiniMaxなど)とチャットしたい場合、別のLLMから意見を聞きたい場合、モデルの応答を比較したい場合、またはモデルの多様性から利益を得るマルチエージェントタスクに取り組む場合に使用します。また、Claudeがサブタスクを最適な利用可能モデルに委譲する必要があるオートモード時にも使用します。
description の原文を見る
Use when the user wants to chat with a non-Claude model (GPT-4o, Claude via Copilot, Kimi, GLM, MiniMax), get a second opinion from another LLM, compare model responses, or when working on multi-agent tasks that benefit from model diversity. Also use in auto mode when Claude needs to delegate a subtask to the most appropriate available model.
SKILL.md 本文
LLM Chat
llm-gateway MCP サーバー経由で、GitHub Copilot、Kimi、MiniMax、GLM にメッセージをルーティングします。
2つのモード
マニュアルモード — ユーザーが特定のモデルを指定
ユーザーが特定のモデルまたはプロバイダーを指名した場合、または精度が重要な場合に使用します。
- プロバイダーのステータスが不明な場合は、
llm_statusを呼び出して認証を確認します - 必要に応じて、
llm_modelsを呼び出して利用可能なモデルを確認します mode: "manual"、provider、model、messagesを指定してllm_chatを呼び出します- 明確な帰属表示 [プロバイダー / モデル名] に続いてレスポンスを表示します
オートモード — Claude が最適な利用可能モデルを選択
マルチエージェントタスク、並列作業中、またはユーザーが「最適なモデルを使用して」と言った場合に使用します。
llm_modelsを呼び出して、現在利用可能なすべてのモデルを確認します(ルーティング前に必須)- コンテキストからタスクタイプを識別します:
code_generation、code_review、`rea
...
詳細情報
- 作者
- SEUFSG
- リポジトリ
- SEUFSG/llm-gateway
- ライセンス
- 不明
- 最終更新
- 2026/4/21
Source: https://github.com/SEUFSG/llm-gateway / ライセンス: 未指定