Agent Skills by ALSEL
Anthropic ClaudeLLM・AI開発⭐ リポ 2品質スコア 64/100

evaluating-code-models

HumanEval、MBPP、MultiPL-Eなど15以上のベンチマークを用いて、コード生成モデルを評価します。pass@kメトリクスで性能を測定できます。コードモデルのベンチマーク実施、コーディング能力の比較、多言語対応のテスト、コード生成品質の測定が必要な場合に利用してください。BigCodeプロジェクトの業界標準仕様で、HuggingFaceのリーダーボードでも採用されています。

description の原文を見る

Evaluates code generation models across HumanEval, MBPP, MultiPL-E, and 15+ benchmarks with pass@k metrics. Use when benchmarking code models, comparing coding abilities, testing multi-language support, or measuring code generation quality. Industry standard from BigCode Project used by HuggingFace leaderboards.

SKILL.md 本文

注意: このスキルのライセンスは ライセンス未確認 です。本サイトでは本文プレビューのみを表示しています。利用前に GitHub の原本でライセンス条件をご確認ください。

BigCode Evaluation Harness - コードモデルベンチマーク

クイックスタート

BigCode Evaluation HarnessはHumanEval、MBPP、MultiPL-E(18言語)を含む15以上のベンチマーク全体でコード生成モデルを評価します。

インストール:

git clone https://github.com/bigcode-project/bigcode-evaluation-harness.git
cd bigcode-evaluation-harness
pip install -e .
accelerate config

HumanEvalで評価する:

accelerate launch main.py \
  --model bigcode/starcoder2-7b \
  --tasks humaneval \
  --max_length_generation 512 \
  --temperature 0.2 \
  --n_samples 20 \
  --batch_size 10 \
  --allow_code_execution \
  --save_generations

利用可能なタスクを表示:

py

...

詳細情報

作者
daeha76
リポジトリ
daeha76/RianFriends
ライセンス
不明
最終更新
2026/4/6

Source: https://github.com/daeha76/RianFriends / ライセンス: 未指定

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: daeha76 · daeha76/RianFriends · ライセンス: ライセンス未確認