GoogleがImageNet-512でFID 1.4、Kinetics-600でFVD 1.3を達成する新フレームワーク「Unified Latents(UL)」を提案。拡散事前分布で潜在空間を正則化し、Stable Diffusionより少ない学習FLOPsで優れた品質を実現する潜在表現学習の仕組みを解説します。
再学習不要でDiffusion Transformerを最大3.52倍高速化するDDiTの仕組みと検証結果を解説。FLUX-1.DevやWan 2.1に即適用でき、推論コスト削減に活用できます。
清華大学が提案したSpargeAttention2は、Top-kとTop-pのマスキング限界を理論分析し、ハイブリッド統合と蒸留微調整でアテンション計算を95%削減・16.2倍高速化しながら、既存手法を全指標で上回る生成品質を実現します。
Alibaba X-PLUGのGUIエージェント「GUI-Owl-1.5」がOSWorld 56.5%など20以上のベンチマークでオープンソース最高性能を達成。新強化学習アルゴリズムMRPOとマルチプラットフォーム対応の仕組みを解説します。
UC BerkeleyとTsinghua大学の共同研究「SLA2」が、学習可能なルーターとQATによりビデオ拡散モデルのアテンション計算を97%スパース化しながら18.6倍の高速化と品質向上を同時に実現しました。ICML 2025採択。
2^128サイズのバイナリコードブックを持つ視覚トークナイザー「UniWeTok」が提案されました。従来手法REPA比8分の1以下の33Bトークンで訓練しながらFID 1.38を達成し、画像生成DPGスコア86.63でFLUX.1を上回る性能を示しています。
拡散トランスフォーマーベースの命令駆動型画像編集システム「FireRed-Image-Edit 1.0」が登場。16億サンプルの大規模データと強化学習を組み合わせ、独自ベンチマークREDEdit-Benchの全15カテゴリで商用システムと同等以上の性能を達成します。
清華大学が提案するEmbed-RLは、強化学習で埋め込みモデルの推論を最適化する新フレームワークです。4BパラメータでありながらMMEB-V2ベンチマークでスコア68.1を達成し、7Bの既存手法を上回る性能を実現した手法の仕組みと成果を解説します。
大規模推論モデルの「overthinking」問題を解決するBFS-POを解説。最大エントロピーノードでバックトラッキングし、最短正解パスを探索することでDAPO比1.37倍の高速化と精度向上を同時に達成した強化学習手法を紹介します。
Qwenチームが開発した初の大規模オープンWebシミュレータ「WebWorld」を解説。106万件のWeb操作データで訓練され、WebArenaで+9.2%改善しGPT-4o相当の性能を達成した仕組みと成果を紹介します。
従来のコードブック方式に代わりバイナリトークンを採用した画像生成手法「BitDance」を解説。260Mパラメータで自己回帰モデル最高のFID 1.24を達成し、最大30倍の高速化を実現した仕組みを紹介します。
Alibaba Groupが提案するP-GenRMは、ユーザーごとの嗜好を構造化された評価チェーンに変換し、パーソナライズされた報酬モデルを実現する新手法です。テスト時スケーリング機構との組み合わせで従来手法を大幅に上回り、8Bモデルが70B規模を凌駕する成果を達成。ICLR 2026 Oralに採択されました。
ゴールドマン・サックスがClaude AIを会計業務に導入 — 金融AI活用の最前線
NVIDIAが日本語特化LLM「Nemotron 2 Nano 9B」を公開 — ソブリンAI実現に向けた性能を解説
AIエージェントフレームワーク比較【2026】LangGraph・CrewAI・OpenAI Agents SDKの選び方
開発者向け検索AI「Phind 2」登場、視覚的検索強化!
Step 3.5 Flashとは?110億パラメータでGPT-5.2級の性能を達成したオープンモデル