Agent Skills by ALSEL
汎用LLM・AI開発⭐ リポ 1,149品質スコア 100/100

pinchbench

PinchBenchベンチマークを実行して、OpenClawエージェントの実世界タスクにおけるパフォーマンスを評価できます。モデルの機能テスト、モデル間の比較、ベンチマーク結果のリーダーボード提出、またはOpenClawのセットアップがカレンダー、メール、リサーチ、コーディング、複数ステップのワークフローにどの程度対応しているかを確認する際に使用します。

description の原文を見る

Run PinchBench benchmarks to evaluate OpenClaw agent performance across real-world tasks. Use when testing model capabilities, comparing models, submitting benchmark results to the leaderboard, or checking how well your OpenClaw setup handles calendar, email, research, coding, and multi-step workflows.

SKILL.md 本文

PinchBench ベンチマークスキル

PinchBench は、LLM モデルが OpenClaw エージェントの脳としてどの程度パフォーマンスを発揮するかを測定します。結果は pinchbench.com の公開リーダーボードで収集されます。

前提条件

  • Python 3.10 以上
  • uv パッケージマネージャー
  • OpenClaw インスタンス (このエージェント)

クイックスタート

cd <skill_directory>

# 特定のモデルでベンチマークを実行
uv run benchmark.py --model anthropic/claude-sonnet-4

# 自動化タスクのみを実行 (高速)
uv run benchmark.py --model anthropic/claude-sonnet-4 --suite automated-only

# 特定のタスクを実行
uv run benchmark.py --model anthropic/claude-sonnet-4 --suite task_calendar,task_stock

# 結果のアップロードをスキップ
uv run benchmark.py --model anthropic/claude-sonnet-4 --no-upload

利用可能なタスク (23)

タスクカテゴリ説明
task_sanity基本エージェントの動作確認
task_calendar生産性カレンダーイベント作成
task_stockリサーチ株価検索
task_blogライティングブログ記事作成
task_weatherコーディング天気スクリプト
task_summary分析ドキュメント要約
task_eventsリサーチカンファレンスリサーチ
task_emailライティングメールドラフト作成
task_memoryメモリコンテキスト取得
task_filesファイルファイル構造作成
task_workflow統合マルチステップ API ワークフロー
task_clawdhubスキルClawHub インタラクション
task_skill_searchスキルスキル発見
task_image_genクリエイティブ画像生成
task_humanizerライティングテキスト人間化
task_daily_summary生産性デイリーダイジェスト
task_email_triageメールインボックストリアージ
task_email_searchメールメール検索
task_market_researchリサーチ市場分析
task_spreadsheet_summary分析スプレッドシート分析
task_eli5_pdf_summary分析PDF 簡略化
task_openclaw_comprehensionナレッジOpenClaw ドキュメント理解
task_second_brainメモリナレッジマネジメント

コマンドラインオプション

オプション説明
--modelモデル識別子 (例: anthropic/claude-sonnet-4)
--suiteallautomated-only、またはカンマ区切りのタスク ID
--output-dir結果ディレクトリ (デフォルト: results/)
--timeout-multiplier遅いモデル向けのタスクタイムアウトをスケーリング
--runs平均化のためのタスクあたりの実行回数
--no-uploadリーダーボードへのアップロードをスキップ
--register投稿用の新しい API トークンをリクエスト
--upload FILE以前の結果 JSON をアップロード

トークン登録

リーダーボードに結果を投稿するには:

# API トークンの登録 (1 回のみ)
uv run benchmark.py --register

# ベンチマークを実行 (トークンで自動アップロード)
uv run benchmark.py --model anthropic/claude-sonnet-4

結果

結果は出力ディレクトリに JSON として保存されます:

# タスクスコアを表示
jq '.tasks[] | {task_id, score: .grading.mean}' results/0001_anthropic-claude-sonnet-4.json

# 失敗したタスクを表示
jq '.tasks[] | select(.grading.mean < 0.5)' results/*.json

# 総合スコアを計算
jq '{average: ([.tasks[].grading.mean] | add / length)}' results/*.json

カスタムタスクの追加

tasks/ ディレクトリに TASK_TEMPLATE.md に従ったマークダウンファイルを作成します。各タスクには以下が必要です:

  • YAML フロントマター (id、name、category、grading_type、timeout)
  • プロンプトセクション
  • 期待される動作
  • グレーディング基準
  • 自動化チェック (Python グレーディング関数)

リーダーボード

pinchbench.com で結果を確認できます。リーダーボードには以下が表示されます:

  • 総合スコア別のモデルランキング
  • タスク別の詳細結果
  • 過去のパフォーマンストレンド

ライセンス: MIT(寛容ライセンスのため全文を引用しています) · 原本リポジトリ

詳細情報

作者
pinchbench
リポジトリ
pinchbench/skill
ライセンス
MIT
最終更新
2026/5/8

Source: https://github.com/pinchbench/skill / ライセンス: MIT

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: pinchbench · pinchbench/skill · ライセンス: MIT