Anthropic ClaudeLLM・AI開発⭐ リポ 7品質スコア 64/100
rlama
RLAMAとOllamaを使用して、ドキュメント(PDF、MD、コードなど)から完全にローカルなRAG知識ベースを構築・クエリできます。クラウドを使わず、データがマシンの外に出ません。「ローカル知識ベース」「ドキュメント検索」「ドキュメントQ&A」「RAGクエリ」「ファイルインジェスト」「セマンティック検索」といったトリガーで動作します。
description の原文を見る
Build and query fully local RAG knowledge bases from documents (PDF, MD, code, etc.) using RLAMA and Ollama — no cloud, no data leaving the machine. Triggers on 'local knowledge base', 'search documents', 'document Q&A', 'RAG query', 'ingest files', 'semantic search'.
SKILL.md 本文
注意: このスキルのライセンスは ライセンス未確認 です。本サイトでは本文プレビューのみを表示しています。利用前に GitHub の原本でライセンス条件をご確認ください。
RLAMA - ローカル RAG システム
RLAMA(Retrieval-Augmented Language Model Adapter)は、ドキュメントに対するセマンティック検索のための完全ローカル・オフライン RAG を提供します。
このスキルを使用する場面
- ローカルドキュメントからのナレッジベース構築
- 個人ノート、研究論文、またはコードドキュメンテーションの検索
- クラウドにデータを送信しないドキュメントベースの Q&A
- プロジェクトドキュメンテーションの高速セマンティック検索用インデックス作成
- PDF、Markdown、またはコードファイルの検索可能なアーカイブ作成
前提条件
RLAMA はローカルで実行されている Ollama が必要です:
# Ollama が実行中であることを確認
ollama list
# 実行していない場合は起動
brew services start ollama # macOS
# または: ollama serve
クイックリファレンス
RAG のクエリ(デフォルト: 検索のみ)
常にデフォルトで検索のみモードを使用してください。 Claude はローカルの 7B モデルよりもはるかに優れた回答を合成します。生のチャンクは Cla
...
詳細情報
- 作者
- majiayu000
- ライセンス
- 不明
- 最終更新
- 2026/5/9
Source: https://github.com/majiayu000/claude-skill-registry-data / ライセンス: 未指定