OpenAILLM・AI開発⭐ リポ 0品質スコア 55/100
llmrouter
リクエストの複雑さに基づいて、適切なモデルに自動的にルーティングするインテリジェントなLLMプロキシです。シンプルなタスクには低コストのモデルを使用することで、コストを削減できます。Anthropic、OpenAI、Gemini、Kimi/Moonshot、Ollamaで動作確認済みです。
description の原文を見る
Intelligent LLM proxy that routes requests to appropriate models based on complexity. Save money by using cheaper models for simple tasks. Tested with Anthropic, OpenAI, Gemini, Kimi/Moonshot, and Ollama.
SKILL.md 本文
注意: このスキルのライセンスは ライセンス未確認 です。本サイトでは本文プレビューのみを表示しています。利用前に GitHub の原本でライセンス条件をご確認ください。
LLM ルーター
受信リクエストの複雑さを分類し、適切なLLMモデルにルーティングするインテリジェントなプロキシです。シンプルなタスクにはより安価で高速なモデルを使用し、複雑なタスク用に高性能なモデルを確保できます。
OpenClaw に対応 しており、シンプルなリクエストをより小さいモデルにルーティングすることでトークン使用量とAPI コストを削減します。
ステータス: Anthropic、OpenAI、Google Gemini、Kimi/Moonshot、Ollama でテスト済みです。
クイックスタート
前提条件
- Python 3.10+ と pip
- Ollama (オプション - ローカル分類を使用する場合のみ)
- Anthropic API キー または Claude Code OAuth トークン (または他のプロバイダーのキー)
セットアップ
# 未クローンの場合はクローン
git clone https://github.com/alexrudloff/llmrouter.git
cd llmrouter
# 仮想環境を作成 (最新の Python では必須)
pytho
...
詳細情報
- 作者
- meghal86
- リポジトリ
- meghal86/stacksignal
- ライセンス
- 不明
- 最終更新
- 2026/5/10
Source: https://github.com/meghal86/stacksignal / ライセンス: 未指定