flex-continuous-agent-evolution
LLMエージェントが成功と失敗に対する自己反省を通じて構造化された経験ライブラリを構築することで、デプロイ中の継続的な改善を実現します。勾配ベースのパラメータ更新や外部トレーニングなしに、推論タスクで23%の性能向上を達成できます。
description の原文を見る
Enable LLM agents to improve continuously during deployment by constructing structured experience libraries through self-reflection on successes and failures—achieving 23% improvement on reasoning without gradient-based parameter updates or external training.
SKILL.md 本文
構造化された経験の蓄積によるエージェント進化
デプロイされた言語モデルエージェントは通常静的です。一度トレーニングされると、実世界のインタラクションから改善されません。FLEXはグラディエントフリーの継続的学習を通じてこの問題を解決します。エージェントは成功、失敗およびそのコンテキストを記録する構造化された経験ライブラリを維持します。その後のインタラクションの際に、エージェントは関連する過去の経験を検索して反省し、リトレーニングなしにこれらの教訓をプロンプティングに組み込みます。
このアプローチは大幅な改善を実証しています。数学推論では23%の改善(AIME25)、化学合成では10%、タンパク質工学では14%——すべてデプロイ中の自己改善から得られたもので、追加のトレーニングではありません。
コアコンセプト
FLEXはデプロイされたエージェントの改善を、パラメータ最適化ではなく構造化された経験管理の問題として扱います。このシステムは3つのコンポーネントを維持します。
- 経験ライブラリ: 過去のインタラクション(状態、アクション、結果、反省)の構造化レコード
- 検索メカニズム: 現在の問題に対する関連する先例の探索
- 自己反省: エージェントが成功/失敗を分析し、プロンプティングコンテキストとして教訓を抽出する
このアプローチ
...
詳細情報
- 作者
- ADu2021
- リポジトリ
- ADu2021/skillXiv
- ライセンス
- 不明
- 最終更新
- 2026/3/26
Source: https://github.com/ADu2021/skillXiv / ライセンス: 未指定