Agent Skills by ALSEL
汎用LLM・AI開発⭐ リポ 28品質スコア 84/100

cerebrocortex

CerebroCortex — 46個のMCPツールを備えた脳類似のAIメモリシステムを活用します。いつ何を記憶するか、思い出す、関連付ける、エピソードを記録する、手順を追跡する、意図を管理する、ドリーム統合を実行する、エージェント間で通信するといった機能をカバーしています。mcp_cerebro_*ツールを見かけたときや、永続的なメモリを扱う必要があるときにこのスキルを読み込んでください。

description の原文を見る

Use CerebroCortex — a brain-analogous AI memory system with 46 MCP tools. Covers when/how to remember, recall, associate, record episodes, track procedures, manage intentions, run dream consolidation, and communicate across agents. Load this skill whenever you see mcp_cerebro_* tools or need to work with persistent memory.

SKILL.md 本文

CerebroCortex — 脳のように記憶する脳

CerebroCortex は、使用に伴って強化され、放置されると減衰し、夢の統合中に自己再編成される永続的で連想的な感情加重メモリを提供します。これはベクトルデータベースではなく、人間の神経科学に基づいてモデル化されています。

このスキルを読み込むタイミング: mcp_cerebro_* ツールが表示される、セッション全体で情報を保存/回想する必要がある、アイデアをリンクしたい、エピソードを追跡したい、TODOを管理したい、他のエージェントと通信したい、またはメモリメンテナンスを実行したい場合。

メンタルモデル: 脳がどのように機能するか

Input → Thalamus (gate/filter) → Temporal Lobe (concepts) → Amygdala (emotion)
      → Association Cortex (link) → Hippocampus (episodes) / Cerebellum (procedures)
      → Prefrontal Cortex (rank/promote) → Neocortex (abstract patterns)
      → Dream Engine (offline consolidation)

重要な洞察: 脳領域を手動でトリガーする必要はありません。remember() を呼び出すと、完全なエンコーディングパイプラインが自動的に実行されます。recall() を呼び出すと、ランキングパイプラインが実行されます。脳領域はフード下のエンジンです — 高レベルのツールで作業します。

46 個のツール概要

Tier 1: 日常的に使うツール (時間の 80% で使用)

ツール機能使用タイミング
mcp_cerebro_rememberメモリを保存 (完全なパイプライン)事実、決定、発見、観察
mcp_cerebro_recall意味で検索 (セマンティック)「X について何を知っているか?」
mcp_cerebro_associate2 つのメモリをリンクA が B に関連する場合 (原因、サポート、コンテキスト)
mcp_cerebro_session_saveセッションサマリーを保存セッション終了時 — 何が起きたか、何が保留中か
mcp_cerebro_session_recall過去のセッション注記をロードセッション開始時 — 自分の状況を把握する
mcp_cerebro_store_intentionTODO/リマインダーを保存「後で X をするのを覚えておく」
mcp_cerebro_list_intentions保留中の TODO をチェックセッション開始時、または「今何をやっているか?」
mcp_cerebro_resolve_intentionTODO を完了にマークタスク完了時
mcp_cerebro_send_message別のエージェントにメッセージエージェント間通信
mcp_cerebro_check_inboxエージェントからのメッセージを読む誰かがメッセージを送ったかチェック

Tier 2: 知識構築 (構造化学習向け)

ツール機能使用タイミング
mcp_cerebro_store_procedureワークフロー/ハウツーを保存「X をデプロイする方法」
mcp_cerebro_find_relevant_proceduresマッチングするプロセジャーを検索「前に X をどのようにやったか?」
mcp_cerebro_record_procedure_outcomeプロセジャーの成功/失敗をマークプロセジャーに従った後
mcp_cerebro_create_schemaパターン/原則を抽出繰り返すテーマに気付いた時
mcp_cerebro_find_matching_schemas関連するパターンを検索「これに関連する既知パターンがあるか?」
mcp_cerebro_episode_startシーケンス記録を開始複数ステップのタスク、デバッグセッション
mcp_cerebro_episode_add_stepエピソードにステップを追加シーケンス内の各重要なイベント
mcp_cerebro_episode_endサマリー付きエピソードを終了タスク完了、ナラティブをまとめる
mcp_cerebro_ingest_fileファイルをメモリにインポートドキュメント、コード、ノートを検索可能なメモリとしてロード

Tier 3: グラフナビゲーション (深掘り探索向け)

ツール機能使用タイミング
mcp_cerebro_memory_neighborsリンク済みメモリを取得「このメモリに何がつながっているか?」
mcp_cerebro_common_neighbors共通接続を検索「A と B をリンクしているものは?」
mcp_cerebro_find_pathメモリ間の最短パスを検索「これらのアイデアはどのように関連するか?」
mcp_cerebro_get_memoryメモリの完全な詳細を取得1 つのメモリのメタデータ、タグ、スコアが必要
mcp_cerebro_update_memoryコンテンツ、タグ、顕著性を編集既存メモリを修正または充実させる
mcp_cerebro_delete_memory永続的に削除不正確/重複/有害なコンテンツ
mcp_cerebro_share_memory可視性を変更プライベート→共有、またはその逆

Tier 4: システム & アナリティクス (ヘルス/メンテナンス向け)

ツール機能使用タイミング
mcp_cerebro_dream_runオフライン統合を実行定期メンテナンス (週単位またはプロンプト時)
mcp_cerebro_dream_statusドリームエンジンステータスをチェック統合が何を見つけたか確認
mcp_cerebro_memory_healthヘルスレポート「メモリシステムはどのような状態か?」
mcp_cerebro_cortex_stats生のシステム統計詳細な数値
mcp_cerebro_memory_graph_statsグラフ構造メトリクスリンク数、密度、構造
mcp_cerebro_emotional_summary感情トーンの内訳メモリコーパスの感情分析
mcp_cerebro_list_agents登録済みエージェントを表示マルチエージェント調整
mcp_cerebro_register_agent新しいエージェントを登録エージェント初参加時

エイリアス (対応するツールと同一)

エイリアス同じもの
mcp_cerebro_memory_storemcp_cerebro_remember
mcp_cerebro_memory_searchmcp_cerebro_recall

ユーティリティ (MCP メタツール)

ツール機能
mcp_cerebro_list_prompts利用可能な MCP プロンプトをリスト表示
mcp_cerebro_get_prompt名前でプロンプトを取得
mcp_cerebro_list_resources利用可能なリソースをリスト表示
mcp_cerebro_read_resourceURI でリソースを読む

良く記憶する方法

メモリタイプ — 正しいものを選ぶ

CerebroCortex はタイプを省略すると自動分類しますが、明示的な方が良いです:

タイプ用途
episodicイベント、何が起きたか「ユーザーのデプロイが 3 時に OOM で失敗」
semantic事実、知識「PostgreSQL のデフォルト最大接続数は 100」
proceduralハウツー、ワークフロー「デプロイシーケンス: テスト → ビルド → プッシュ → 適用」
affective感情的なコンテキスト「3 番目の CI 失敗後ユーザーが不満」
prospective将来の意図「金曜日前に Python をアップグレードが必要」
schematicパターン、原則「ステージングをスキップするサービスは 3 倍のインシデントが多い」

顕著性 (Salience) — どのくらい重要か?

顕著性 (0.0-1.0) はメモリが減衰に対抗する積極性を決定します:

範囲意味
0.8-1.0重要度: 極高ユーザー修正、セキュリティ問題、コア設定
0.6-0.8重要度: 高主要な決定、アーキテクチャ選択、プロジェクトマイルストーン
0.4-0.6重要度: 通常通常の事実、セッションイベント、標準的なプロセジャー
0.2-0.4重要度: 低一時的なコンテキスト、一時的なノート
0.0-0.2重要度: 一時的置き換えられる可能性が高い生の観察

自動推定はよく機能しますが、重要なアイテムは上書きします。

可視性 — 誰が見ることができるか?

レベル誰が見るか用途
sharedすべてのエージェント事実、プロセジャー、クロスチームナレッジ
private保存したエージェントのみ個人メモ、ドラフト、エージェント固有の状態
thread同じ会話内のエージェント会話スコープコンテキスト

タグ — 検索可能にする

タグはフィルタリングされた検索を強化します。一貫した規約を使用してください:

  • プロジェクト: project:cerebrocortexproject:hermes
  • カテゴリ: deploymentdebuggingarchitecture
  • ステータス: resolvedin-progressblocked
  • エージェント: システムで自動タグ付け、team:backend などを追加

例: 良いメモリ保存 vs 悪いメモリ保存

BAD:  remember("thing about the database")
GOOD: remember(
        "PostgreSQL connection pool exhaustion caused 502 errors in prod.
         Root cause: default max_connections=100, app opens 20 per worker × 8 workers = 160.
         Fix: set max_connections=300 in postgresql.conf",
        memory_type="semantic",
        tags=["postgresql", "connection-pool", "production-incident"],
        salience=0.7,
        visibility="shared"
      )

経験則: メモリは、コンテキストのない同僚に向けたノートを書くように保存します。何を、なぜ、解決方法を含めます。


効果的に回想する方法

基本的な回想

recall(query="database connection issues", top_k=5)

メモリは 4 シグナルブレンド でランク付けされて返されます:

  • 35% ベクトル類似度 (セマンティック意味)
  • 30% ACT-R 活性化 (最近性 + アクセス頻度)
  • 20% FSRS 検索可能性 (間隔反復の新鮮さ)
  • 15% 顕著性 (重要度)

フィルタリングされた回想

# プロシージャーメモリのみ
recall(query="deploy", memory_types=["procedural"])

# 高い重要度のみ
recall(query="security", min_salience=0.7)

# スコア内訳付き (関連性デバッグ用)
recall(query="database", explain=True)

# 会話スコープ
recall(query="what we discussed", conversation_thread="thread_123")

# 既知のコンテキストにつながる結果をブースト
recall(query="migration", context_ids=["mem_abc", "mem_def"])

回想戦略ガイド

状況アプローチ
「X について何を知っているか?」recall(query="X", top_k=10)
「X をどのようにするか?」find_relevant_procedures(concepts=["X"])
「X のパターンはあるか?」find_matching_schemas(concepts=["X"])
「X の間に何が起きたか?」recall(query="X", memory_types=["episodic"]) + エピソード確認
「メモリ M に何がつながっているか?」memory_neighbors(memory_id="M")
「X についてどう感じたか?」recall(query="X", memory_types=["affective"])

連想ネットワークを構築する

リンクタイプ — 正確に選ぶ

連想グラフは CerebroCortex の超大国です。リンクは拡散活性化を有効にします — 1 つのメモリが見つかると、リンク済みメモリが関連性ブーストを受けます。

リンクタイプ重み使用タイミング
causal0.9A が B を引き起こしたバグ → 障害
semantic0.8A は B と同じコンセプトPostgreSQL に関する 2 つのメモリ
supports0.8A は B の証拠テスト結果 → 仮説
part_of0.8A は B のコンポーネントチャプター → 本
contextual0.7A と B がコンテキストを共有同じプロジェクト、同じミーティング
derived_from0.7B は A から抽象化されたエピソード → スキーマ
temporal0.6A が B の時間の近くで起きた順次イベント
affective0.5A と B が似た感じ2 つのイライラする経験
contradicts0.3A が B に反対矛盾する推奨事項

リンキングパターン

関連メモリを保存した後:

id_a = remember("Deploy failed due to missing env var")
id_b = remember("Added env validation to CI pipeline")
associate(source_id=id_a, target_id=id_b, link_type="causal",
          evidence="The failure led to the fix", weight=0.9)

知識の相互参照:

associate(source_id=fact_id, target_id=procedure_id,
          link_type="supports", evidence="This fact validates the procedure")

過度にリンクしないでください。 本物の関係があるときにリンクしてください。Dream Engine は見落とした暗黙の接続を発見します。


エピソード: イベントシーケンスの記録

エピソードはメモリを時間的なナラティブにバインドします — 「X の間に何が起きたか」。

パターン: タスク記録

1. episode_start(title="Debugging OOM in prod")
2. remember("Noticed 502 errors at 14:30") → add_step(role="event")
3. remember("Checked logs, found OOM killer") → add_step(role="context")
4. remember("Increased memory limit to 4GB") → add_step(role="event")
5. remember("Service recovered after restart") → add_step(role="outcome")
6. remember("Should add memory alerts to monitoring") → add_step(role="reflection")
7. episode_end(summary="OOM in prod, fixed by increasing limits", valence="mixed")

ステップロール

ロール使用タイミング
event何かが起こった (デフォルト)
context背景情報、観察
outcome実行されたアクションの結果
reflection学習した教訓、洞察、感情

エピソード vs 個別メモリの使い分け

  • エピソード: 複数ステップのプロセス、デバッグセッション、ミーティング、プロジェクトマイルストーン
  • 個別: スタンドアロン事実、設定、1 回限りの観察

プロセジャー: 追跡されたワークフロー

プロセジャーは時系列で成功/失敗を追跡する特別なメモリです。

# 保存
proc_id = store_procedure(
    content="Deploy to prod: 1) Run tests 2) Build image 3) Push to registry 4) Apply manifests 5) Verify health",
    tags=["deployment", "production"]
)

# 使用後
record_procedure_outcome(procedure_id=proc_id, success=True)
# または
record_procedure_outcome(procedure_id=proc_id, success=False)

時間経過とともに、頻繁に成功するプロセジャーは find_relevant_procedures() でより高いランクを取得します。失敗したものは降格されます。これは小脳が動作しています — 何が機能するかを強化する運動記憶です。


スキーマ: パターンの抽出

スキーマは複数の特定のメモリから導き出される抽象原則です。

# 3 つ以上のメモリ全体でパターンに気付いた後:
create_schema(
    content="Services that skip staging environments have approximately 3x more production incidents",
    source_ids=["mem_incident_1", "mem_incident_2", "mem_incident_3"],
    tags=["deployment", "best-practices"]
)

Dream Engine は統合中にスキーマも自動的に作成します。会話でパターンに気付いたときに手動で作成できます。


インテンション: スマートな TODO

インテンション (意図) は関連する場合に表示される予測メモリです。

store_intention(content="Upgrade Python to 3.12 before deploying new service", salience=0.8)

チェックと解決:

list_intentions()
resolve_intention(memory_id="mem_xxx")

シンプルな TODO リストとは異なり、インテンションは回想に参加します — 「Python アップグレード」に関するインテンションは、Python に関する関連セマンティックメモリと共に表示されます。これは設計上の機能であり、バグではなく — 予測メモリが設計通りに動作しています。


マルチエージェント通信

CerebroCortex は複数のエージェントが 1 つのメモリストアを共有することをサポートしています。

メッセージ送信

send_message(to="CLAUDE-HAILO", content="The EEG plugin is ready for testing on your Pi")
send_message(to="all", content="CerebroCortex v0.2.0 deployed, dream engine improved")

メッセージはゲーティングをバイパスします — 常に配信されます。送信者/受信者で自動タグ付けされます。

メッセージチェック

check_inbox()
check_inbox(from_agent="CLAUDE-OPUS", since="2026-04-14T00:00:00")

エージェント登録

新しいエージェントは保存/回想を行う前に登録する必要があります:

register_agent(
    agent_id="MY-AGENT",
    display_name="My Agent",
    generation=1,           # -1=origin, 0=primary, 1+=descendant
    lineage="hermes",
    specialization="what this agent is good at"
)

セッションライフサイクル

セッション開始

# 1. 自分の状況を把握する
session_recall(limit=5)           # 最近何が起きたか?
list_intentions()                  # 何が保留中か?
check_inbox()                      # メッセージはあるか?

セッション終了

session_save(
    session_summary="Debugged OOM issue in prod, deployed fix, updated monitoring",
    key_discoveries=["PostgreSQL default connections too low for our worker count"],
    unfinished_business=["Add memory usage alerts to Grafana"],
    if_disoriented=["Check the monitoring PR in GitHub"],
    session_type="technical",
    priority="HIGH"
)

Dream Engine: オフライン統合

Dream Engine は生物学的睡眠の後に続く 6 つのフェーズを実行します:

  1. リプレイ — 最近のメモリを再訪問し、重要なものを強化
  2. クラスタリング — 埋め込み類似度でメモリをグループ化
  3. 抽象化 — クラスタからスキーマ/パターンを抽出 (LLM 搭載)
  4. プルーニング — 低い活性化、リンク解除されたメモリを削除
  5. プロモーション — 高価値メモリをレイヤーアップ (ワーキング → 長期 → コルテックス)
  6. REM 再組み合わせ — 予期しないクロスドメイン接続を発見 (LLM 搭載)

ドリームの実行

dream_run()                     # 完全サイクルを実行 (~20 LLM 呼び出しを使用)
dream_run(max_llm_calls=10)    # より軽いサイクル
dream_status()                  # 最後の実行結果をチェック

ドリーム実行タイミング:

  • 週単位のメンテナンス (cron でスケジュール化可能)
  • 大規模な知識インポート後 (ingest_file)
  • ユーザーが「クリーンアップ」または「統合」するようメモリをリクエスト
  • 集約的なマルチセッションプロジェクト後

注意: ドリーム実行は LLM 呼び出しを使用します (トークンコスト)。コスト意識が高いセットアップでは、軽いサイクルに max_llm_calls=10 を使用します。


メモリレイヤー & 減衰

メモリは自動的に 4 つの耐久性レイヤーを流れます:

Sensory (6hr half-life) → Working (3-day) → Long-Term (30-day) → Cortex (permanent)
  • センサリー → ワーキング: 2 番目のアクセス時に自動
  • ワーキング → 長期: 5 回以上のアクセス、24h 以上経過
  • 長期 → コルテックス: Dream Engine のみ (結晶化された知識)

レイヤーを直接管理する必要はありません。システムはアクセスパターンに基づいてプロモーションします。頻繁に回想されるメモリは生き残ります; 放置されたものは消えます。ちょうど実際の脳のように。

メモリを生かし続けるために: 回想します。回想ごとに活性化 + 安定性が強化されます。


一般的なワークフロー

リサーチ & 学習

1. ingest_file(file_path="/path/to/paper.md", tags=["research", "topic"])
2. recall("key concepts from the paper")
3. 重要な発見について: 高い顕著性で remember()
4. associate() で関連する発見をリンク
5. パターンが現れたとき create_schema()

デバッグセッション

1. episode_start(title="Debugging: service X failing")
2. 各ステップで: remember(observation) → episode_add_step()
3. 解決時: remember(solution, memory_type="procedural")
4. episode_end(summary="...", valence="positive")
5. ソリューションを問題にリンク: associate(problem_id, solution_id, "causal")

プロジェクトキックオフ

1. recall("similar past projects") — 歴史から学ぶ
2. find_relevant_procedures(concepts=["project-type"])
3. store_intention("Project milestones and deadlines")
4. remember("Project goals and constraints", salience=0.8)

クロスエージェント引き継ぎ

1. session_save(summary="...", unfinished_business=["task X"])
2. send_message(to="OTHER-AGENT", content="Please continue task X, see session notes")
3. 別のエージェント: check_inbox() → session_recall() → 続行

落とし穴

  1. 生データダンプを保存しないでください。 CerebroCortex は蒸留知識用であり、ログファイル用ではありません。保存前に要約してください。大きなドキュメント用に ingest_file を使用 — 自動チャンク化します。

  2. 過度にリンクしないでください。 品質 > 数量。少数の強い因果関係/セマンティックリンクは、50 個の弱い文脈的なものに勝ります。Dream Engine は暗黙の接続を発見します。

  3. 回想を忘れないでください。 回想されることのないメモリは減衰し、最終的にプルーニングされます。何かが重要な場合、定期的にアクセスします。これは設計上です — 実際のメモリの動作方法です。

  4. エイリアスが存在します。 memory_store = remembermemory_search = recall。異なると思って両方呼び出さないでください。

  5. デバッグ用 Explain モード。 回想結果がおか

ライセンス: MIT(寛容ライセンスのため全文を引用しています) · 原本リポジトリ

詳細情報

作者
buckster123
リポジトリ
buckster123/CerebroCortex
ライセンス
MIT
最終更新
2026/4/22

Source: https://github.com/buckster123/CerebroCortex / ライセンス: MIT

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: buckster123 · buckster123/CerebroCortex · ライセンス: MIT