llm-council
複数のAIモデルを同時にクエリし、レスポンスをダッシュボードで並べて表示できるマルチモデルLLMコンシルです。スウォーム形式のダッシュボードでモデル間の合意形成を生成したり、匿名でのモデル間投票を実行したりできます。ユーザーがLLMコンシルの開始、モデルの比較、複数モデルへのクエリ、コンシルの召集、全モデルへの質問、モデル比較の実行、マルチモデルクエリの実行、またはコンシルダッシュボードの起動をリクエストする際に使用します。Claude Sonnet 4.5、Claude Opus 4.5、GPT-4o、GPT-5.1、Gemini 2.5 Flash、Gemini 2.5 ProをAI Gatewayを通じてサポートしています。
description の原文を見る
Multi-model LLM Council with live dashboard. Query multiple AI models simultaneously, see responses side-by-side in a swarm-style dashboard, synthesize consensus, and run anonymous model-to-model voting. Use when the user asks to start the LLM council, compare models, query multiple models, convene council, ask all models, do model comparison, run multi-model queries, or launch the council dashboard. Supports Claude Sonnet 4.5, Claude Opus 4.5, GPT-4o, GPT-5.1, Gemini 2.5 Flash, and Gemini 2.5 Pro via AI Gateway.
SKILL.md 本文
LLM Council
複数のAIモデルを並列でクエリし、ライブウェブダッシュボードで結果を表示します。
起動
cd ~/.claude/skills/llm-council/scripts
# Kill any existing server on the port
fuser -k 8787/tcp 2>/dev/null
# Start server
nohup python3 server.py > /tmp/council-server.log 2>&1 &
# Wait for startup, verify health
sleep 2 && curl -s --max-time 5 http://localhost:8787/health
# Export port for browser access
/app/export-port.sh 8787
環境変数: COUNCIL_PORT(デフォルト 8787)、AI_GATEWAY_API_KEY(必須、環境から自動検出)。
ファイル
scripts/server.py- ThreadingHTTPServer、静的ファイルとAPIルートの提供、SSEストリーミングscripts/ai_gateway.py- AIゲートウェイクライ
...
詳細情報
- 作者
- niveshdandyan
- ライセンス
- 不明
- 最終更新
- 2026/2/11
Source: https://github.com/niveshdandyan/llm-council / ライセンス: 未指定