汎用データ・分析⭐ リポ 18品質スコア 72/100
ml-training
HuggingFaceを使用した機械学習モデルの訓練スキルです。LLMの微調整、データセットの作成、GPU選択、訓練の監視などが可能です。カスタムモデルの訓練が必要な場合に利用してください。APIを通じて事前学習済みモデルを使用する場合には不要です。
description の原文を見る
Machine learning model training with HuggingFace. Fine-tuning LLMs, dataset creation, GPU selection, training monitoring. Use for training custom models. Don't use for using pre-trained models via API.
SKILL.md 本文
ML モデル トレーニング
パイプライン
- タスクと成功指標を定義する
- トレーニングデータを収集・準備する
- ベースモデルを選択する(サイズとタスク適合性で)
- GPU を選択してコストを推定する
- トレーニングを構成する(SFT、DPO、または GRPO)
- トレーニング実行を監視する
- テストセットで評価する
- モデルをデプロイする
モデル選択
- 小規模タスク(分類): Qwen 0.6B-3B
- 中規模タスク(生成): Mistral 7B、Llama 8B
- 複雑なタスク(推論): Qwen 27B、Llama 70B
トレーニング方法
- SFT: 例に基づく教師あり微調整
- DPO: 選好最適化(良い例 vs 悪い例)
- GRPO: グループ相対方針最適化
デプロイ
- Ollama はローカル推論用
- LitServe は MCP サーバー用
- llama.cpp は本番環境用
ライセンス: MIT(寛容ライセンスのため全文を引用しています) · 原本リポジトリ
詳細情報
- 作者
- neuron-one
- リポジトリ
- neuron-one/GODMODE
- ライセンス
- MIT
- 最終更新
- 2026/4/1
Source: https://github.com/neuron-one/GODMODE / ライセンス: MIT