Agent Skills by ALSEL
汎用LLM・AI開発⭐ リポ 2品質スコア 59/100

flex-continuous-agent-evolution

LLMエージェントが成功と失敗に対する自己反省を通じて構造化された経験ライブラリを構築することで、デプロイ中の継続的な改善を実現します。勾配ベースのパラメータ更新や外部トレーニングなしに、推論タスクで23%の性能向上を達成できます。

description の原文を見る

Enable LLM agents to improve continuously during deployment by constructing structured experience libraries through self-reflection on successes and failures—achieving 23% improvement on reasoning without gradient-based parameter updates or external training.

SKILL.md 本文

注意: このスキルのライセンスは ライセンス未確認 です。本サイトでは本文プレビューのみを表示しています。利用前に GitHub の原本でライセンス条件をご確認ください。

構造化された経験の蓄積によるエージェント進化

デプロイされた言語モデルエージェントは通常静的です。一度トレーニングされると、実世界のインタラクションから改善されません。FLEXはグラディエントフリーの継続的学習を通じてこの問題を解決します。エージェントは成功、失敗およびそのコンテキストを記録する構造化された経験ライブラリを維持します。その後のインタラクションの際に、エージェントは関連する過去の経験を検索して反省し、リトレーニングなしにこれらの教訓をプロンプティングに組み込みます。

このアプローチは大幅な改善を実証しています。数学推論では23%の改善(AIME25)、化学合成では10%、タンパク質工学では14%——すべてデプロイ中の自己改善から得られたもので、追加のトレーニングではありません。

コアコンセプト

FLEXはデプロイされたエージェントの改善を、パラメータ最適化ではなく構造化された経験管理の問題として扱います。このシステムは3つのコンポーネントを維持します。

  1. 経験ライブラリ: 過去のインタラクション(状態、アクション、結果、反省)の構造化レコード
  2. 検索メカニズム: 現在の問題に対する関連する先例の探索
  3. 自己反省: エージェントが成功/失敗を分析し、プロンプティングコンテキストとして教訓を抽出する

このアプローチ

...

詳細情報

作者
ADu2021
リポジトリ
ADu2021/skillXiv
ライセンス
不明
最終更新
2026/3/26

Source: https://github.com/ADu2021/skillXiv / ライセンス: 未指定

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: ADu2021 · ADu2021/skillXiv · ライセンス: ライセンス未確認