Agent Skills by ALSEL
汎用データ・分析⭐ リポ 18品質スコア 72/100

ml-training

HuggingFaceを使用した機械学習モデルの訓練スキルです。LLMの微調整、データセットの作成、GPU選択、訓練の監視などが可能です。カスタムモデルの訓練が必要な場合に利用してください。APIを通じて事前学習済みモデルを使用する場合には不要です。

description の原文を見る

Machine learning model training with HuggingFace. Fine-tuning LLMs, dataset creation, GPU selection, training monitoring. Use for training custom models. Don't use for using pre-trained models via API.

SKILL.md 本文

ML モデル トレーニング

パイプライン

  1. タスクと成功指標を定義する
  2. トレーニングデータを収集・準備する
  3. ベースモデルを選択する(サイズとタスク適合性で)
  4. GPU を選択してコストを推定する
  5. トレーニングを構成する(SFT、DPO、または GRPO)
  6. トレーニング実行を監視する
  7. テストセットで評価する
  8. モデルをデプロイする

モデル選択

  • 小規模タスク(分類): Qwen 0.6B-3B
  • 中規模タスク(生成): Mistral 7B、Llama 8B
  • 複雑なタスク(推論): Qwen 27B、Llama 70B

トレーニング方法

  • SFT: 例に基づく教師あり微調整
  • DPO: 選好最適化(良い例 vs 悪い例)
  • GRPO: グループ相対方針最適化

デプロイ

  • Ollama はローカル推論用
  • LitServe は MCP サーバー用
  • llama.cpp は本番環境用

ライセンス: MIT(寛容ライセンスのため全文を引用しています) · 原本リポジトリ

詳細情報

作者
neuron-one
リポジトリ
neuron-one/GODMODE
ライセンス
MIT
最終更新
2026/4/1

Source: https://github.com/neuron-one/GODMODE / ライセンス: MIT

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: neuron-one · neuron-one/GODMODE · ライセンス: MIT