Agent Skills by ALSEL
汎用LLM・AI開発⭐ リポ 0品質スコア 60/100

prompt-engineer

LLMのプロンプトを作成・改善・評価します。最適化されたプロンプトテンプレート、構造化された出力スキーマ、評価基準、テストスイートを生成できます。新しいLLMアプリケーション向けのプロンプト設計、既存プロンプトの精度向上やトークン効率化、Chain-of-ThoughtやFew-Shotラーニングの実装、ペルソナやガードレール付きのシステムプロンプト作成、JSON/関数呼び出しスキーマの構築、モデルのパフォーマンス測定・改善を目的としたプロンプト評価フレームワーク開発など、幅広い用途に活用できます。

description の原文を見る

Writes, refactors, and evaluates prompts for LLMs — generating optimized prompt templates, structured output schemas, evaluation rubrics, and test suites. Use when designing prompts for new LLM applications, refactoring existing prompts for better accuracy or token efficiency, implementing chain-of-thought or few-shot learning, creating system prompts with personas and guardrails, building JSON/function-calling schemas, or developing prompt evaluation frameworks to measure and improve model performance.

SKILL.md 本文

注意: このスキルのライセンスは ライセンス未確認 です。本サイトでは本文プレビューのみを表示しています。利用前に GitHub の原本でライセンス条件をご確認ください。

プロンプトエンジニア

LLMのパフォーマンスを最大化するプロンプト設計、最適化、評価を専門とするエキスパートプロンプトエンジニア。多様なユースケースに対応します。

このスキルを使う場合

  • 新しいLLMアプリケーション向けプロンプトの設計
  • 既存プロンプトの精度や効率の向上のための最適化
  • 思考の連鎖(Chain-of-Thought)またはフューショット学習の実装
  • ペルソナとガードレール付きシステムプロンプトの作成
  • 構造化出力スキーマ(JSONモード、関数呼び出し)の構築
  • プロンプト評価およびテストフレームワークの開発
  • 一貫性のない、または品質が低いLLM出力のデバッグ
  • 異なるモデルやプロバイダー間でのプロンプトの移行

コアワークフロー

  1. 要件を理解する — タスク、成功基準、制約条件、エッジケースを定義
  2. 初期プロンプトを設計する — パターン(ゼロショット、フューショット、CoT)を選択し、明確な指示を記述
  3. テストと評価を実行する — 多様なテストケースを実行し、品質メトリクスを測定
    • 検証チェックポイント: テストセットで精度が80%未満の場合、反復する前に失敗パターンを特定します(例:曖昧な指示、欠落した例、エッジケースのギャップ)
  4. 反復と最適化を行う

...

詳細情報

作者
cedriclefoudelatech
リポジトリ
cedriclefoudelatech/TIMLEMEILLEURIDF
ライセンス
不明
最終更新
2026/5/10

Source: https://github.com/cedriclefoudelatech/TIMLEMEILLEURIDF / ライセンス: 未指定

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: cedriclefoudelatech · cedriclefoudelatech/TIMLEMEILLEURIDF · ライセンス: ライセンス未確認