自動運転の軌道計画に拡散モデルと強化学習を組み合わせた「RAD-2」フレームワークを解説します。Generator-Discriminator構造とTC-GRPOにより、従来比で衝突率56%削減を達成しました。
LLMの強化学習訓練でポリシーが同じ誤りを繰り返す「サンプリング多様性崩壊」を解消するMEDSを紹介します。過去ロールアウトの中間表現を密度ベースクラスタリングで分析し動的ペナルティを付与することで、pass@1を最大4.13ポイント向上させた新手法です。
Stanford・UW・Microsoftの研究チームが提案したRAGEN-2は、エントロピーでは検出できない「テンプレート崩壊」という新失敗モードを相互情報量で診断し、SNR-Awareフィルタリングで修正します。
CORALは固定ヒューリスティクスに依存せず、LLMエージェントが共有メモリと非同期実行で自律的に協調進化する新フレームワークです。ニューラルアーキテクチャ探索、データキュレーション、強化学習の3領域で従来手法比3〜10倍の改善率を達成し、GitHubでコードが公開されています。
Mengdi Wang氏らが提案するOpenClaw-RLは、ユーザー返答やツール出力などの次状態信号からPRMでスカラー報酬、OPDでトークン教師信号を自動抽出し、個人エージェント実験でパーソナライゼーションスコア0.81を達成したRLエージェント訓練フレームワークです。
ByteDance Seedが開発したCUDA Agentは、アジェンティック強化学習でGPUカーネルを自動生成・最適化します。KernelBenchで幾何平均2.11倍のスピードアップを達成し、Claude Opus 4.5やGemini 3 Proなどフロンティアモデルを大きく凌駕する性能を実証しました。
ICLR 2026採択のEMPO²は、LLMエージェントのRL訓練にメモリ拡張とオン/オフポリシーのハイブリッド最適化を導入した新フレームワークです。ScienceWorldではGRPO比128.6%の性能向上を実現しています。
Alibaba Groupが提案するP-GenRMは、ユーザーごとの嗜好を構造化された評価チェーンに変換し、パーソナライズされた報酬モデルを実現する新手法です。テスト時スケーリング機構との組み合わせで従来手法を大幅に上回り、8Bモデルが70B規模を凌駕する成果を達成。ICLR 2026 Oralに採択されました。
Tencent Hunyuanが、強化学習で「簡単すぎる問題」を自動的に組み合わせて新たな複合問題を生成するComposition-RLを提案。4B〜30Bモデルで一貫した推論能力の向上を実現し、カリキュラム学習やクロスドメイン構成でさらなる改善を達成しました。
GigaAI発表の「GigaBrain-0.5M」を解説。World Modelベース強化学習(RAMP)により従来の模倣学習を30%上回る性能を実現したVLAモデルの仕組みと、実環境での成果を紹介します。
本記事で使用している画像は論文中の図表、またはそれを参考に作成した画像を使用しております。 本論文の概要 この論文では、複数エージェント間の協調を目的とした新しい手法「Shared Recurrent Memory Tr […]
本記事で使用している画像は論文中の図表、またはそれを参考に作成した画像を使用しております。 本論文の概要 本論文では、LLM(大規模言語モデル)の推論能力を向上させるために、新たな強化学習手法とモデル構造を提案しています […]
Anthropic、Coefficient Bioを約4億ドルで買収、AI創薬に本格参入
AIエージェントフレームワーク比較【2026】LangGraph・CrewAI・OpenAI Agents SDKの選び方
Absolicsのガラス基板とは?AIチップ性能を10倍高密度化する次世代パッケージング
ベクトルデータベース比較【2026年版】Pinecone・Qdrant・Weaviate・Milvusを徹底解説
ゴールドマン・サックスがClaude AIを会計業務に導入 — 金融AI活用の最前線