Agent Skills by ALSEL
Anthropic ClaudeLLM・AI開発⭐ リポ 7品質スコア 64/100

evaluating-llms

LLMシステムを自動メトリクス、LLM-as-judge、ベンチマークを用いて評価します。プロンプト品質のテスト、RAGパイプラインの検証、安全性測定(ハルシネーション、バイアス)、本番環境へのモデル比較検討の際に活用できます。

description の原文を見る

Evaluate LLM systems using automated metrics, LLM-as-judge, and benchmarks. Use when testing prompt quality, validating RAG pipelines, measuring safety (hallucinations, bias), or comparing models for production deployment.

SKILL.md 本文

注意: このスキルのライセンスは ライセンス未確認 です。本サイトでは本文プレビューのみを表示しています。利用前に GitHub の原本でライセンス条件をご確認ください。

LLM評価

自動メトリクス、LLM-as-judgeパターン、標準化されたベンチマークを使用して、大規模言語モデル(LLM)システムを評価し、本番環境の品質と安全性を確保します。

このスキルを使用する時期

以下の場合に、このスキルを適用してください:

  • 個々のプロンプトの正確性とフォーマットをテストする
  • RAG(検索拡張生成)パイプラインの品質を検証する
  • LLM出力の幻覚、バイアス、有害性を測定する
  • 異なるモデルやプロンプト設定を比較する(A/Bテスト)
  • ベンチマークテスト(MMLU、HumanEval)を実行してモデル機能を評価する
  • LLMアプリケーション用に本番監視を設定する
  • LLM品質チェックをCI/CDパイプラインに統合する

一般的なトリガー:

  • 「RAGシステムが正しく動作しているかテストするにはどうしたらいいですか?」
  • 「LLM出力の幻覚を測定するにはどうしたらいいですか?」
  • 「生成品質を評価するためにどのメトリクスを使用すべきですか?」
  • 「自分のユースケースでGPT-4とClaudeを比較するにはどうしたらいいですか?」
  • 「LLM応答のバイアスを検出するにはどうしたらいいですか?」

評価戦略の選択

決定フレームワーク: どの評価アプローチを選ぶか?

タスクタイプ別:

| タス

...

詳細情報

作者
majiayu000
リポジトリ
majiayu000/claude-skill-registry-data
ライセンス
不明
最終更新
2026/5/9

Source: https://github.com/majiayu000/claude-skill-registry-data / ライセンス: 未指定

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: majiayu000 · majiayu000/claude-skill-registry-data · ライセンス: ライセンス未確認