Agent Skills by ALSEL
Anthropic ClaudeLLM・AI開発⭐ リポ 7品質スコア 64/100

peft

LoRAとUnslothを使用したパラメータ効率的ファインチューニング。LoraConfig、ターゲットモジュール選択、4ビット学習向けのQLoRA、アダプターのマージング、および学習速度を2倍高速化するUnsloth最適化をカバーしています。

description の原文を見る

Parameter-efficient fine-tuning with LoRA and Unsloth. Covers LoraConfig, target module selection, QLoRA for 4-bit training, adapter merging, and Unsloth optimizations for 2x faster training.

SKILL.md 本文

注意: このスキルのライセンスは ライセンス未確認 です。本サイトでは本文プレビューのみを表示しています。利用前に GitHub の原本でライセンス条件をご確認ください。

パラメータ効率的ファインチューニング (PEFT)

概要

LoRA のような PEFT 手法は、フルモデルではなく少数のアダプターパラメーターのみをトレーニングするため、品質を維持しながらメモリを 10~100 倍削減します。

クイックリファレンス

手法メモリ速度品質
フルファインチューニング遅い最高
LoRA高速非常に良好
QLoRA非常に低高速良好
Unsloth非常に低2倍高速良好

LoRA コンセプト

LoRA の仕組み

Original weight matrix W (frozen):     d x k
LoRA adapters A and B:                 d x r, r x k (where r << min(d,k))

Forward pass:
  output = x @ W + x @ A @ B * (alpha / r)

Trainable params: 2 * r * d  (instead of d * k)

メモリ削減効果


...

詳細情報

作者
majiayu000
リポジトリ
majiayu000/claude-skill-registry-data
ライセンス
不明
最終更新
2026/5/9

Source: https://github.com/majiayu000/claude-skill-registry-data / ライセンス: 未指定

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: majiayu000 · majiayu000/claude-skill-registry-data · ライセンス: ライセンス未確認