All Posts
TRMarch 29, 2026 4 min read

V0.5: Seyrek RL Rollout'lar için Genelleştirilmiş Değer Modeli ve Uyarlanabilir Bütçe Yönetimi

Giriş

Büyük Dil Modellerinin (LLM) post-training aşamasında karmaşık akıl yürütme yeteneklerini geliştirmek için kullanılan Doğrulanabilir Ödüllerle Pekiştirmeli Öğrenme (RLVR), son dönemde standart bir paradigma haline geldi. Bu paradigma içinde policy gradient yöntemlerinin istikrarlı bir şekilde çalışabilmesi için kritik öneme sahip olan unsur, advantage baseline olarak adlandırılan referans değerin doğru bir şekilde tahmin edilmesidir. Geleneksel olarak bu problem iki zıt yaklaşım arasında sıkışmıştı: GRPO gibi yöntemlerde kullanılan Monte Carlo örnekleme (sampling) yüksek varyanslı fakat tarafsız tahminler üretirken; PPO gibi parametrik value modelleri düşük varyans sağlasa da senkron eğitim maliyeti ve dağıtım dışı (out-of-distribution) genelleme problemleri nedeniyle sistematik bias (yanlılık) riski taşıyordu.

Nanjing Üniversitesi ve Meituan araştırmacıları tarafından sunulan "V0.5: Generalist Value Model as a Prior for Sparse RL Rollouts" başlıklı çalışma, bu ikilemi çözmek için dikkate çekici bir çerçeve öneriyor. V0.5, önceden eğitilmiş ve dondurulmuş (frozen) bir Genelleştirilmiş Değer Modelini (Generalist Value Model) istatistiksel bir prior olarak kullanarak, seyrek rollout'larla elde edilen ampirik ortalamaları uyarlanabilir bir şekilde birleştiriyor. Bu sayede hem hesaplama verimliliği korunuyor hem de aşırı düşük varyanslı gradient tahminleri mümkün hale geliyor.

Teknik Altyapı: Shrinkage Tahmini ve Güvenilirlik Testi

V0.5'in ilk temel bileşeni, makalenin detaylı olarak açıkladığı Empirical Shrinkage Fusion mekanizmasıdır. Bu mekanizma, James-Stein estimatorüne benzer bir yaklaşımla, seyrek rollout'lardan elde edilen ampirik ortalama ile value modelinin tahmin ettiği önsel değer (prior) arasında optimal bir denge kurar. Matematiksel olarak, bu birleşik baseline tahmininin Ortalama Karesel Hatası (MSE), varyans ve bias terimlerine dik olarak ayrıştırılabilir.

Sistem, value modelinin tahminlerini körü körüne kullanmak yerine, gerçek zamanlı bir hipotez testi ile bu prior'ın güvenilirliğini değerlendirir. Eğer modelin tahminleri online rollout'larla tutarlıysa, prior ağırlıklı olarak kullanılarak yüksek varyans baskılanır. Ancak istatistiksel olarak anlamlı bir çatışma tespit edilirse (ki bu genellikle value modelinin halüsinasyon yapması veya aşırı kompleks prompt'larda yanlış tahminde bulunması anlamına gelir), sistem anında prior'ı izole ederek sadece ampirik ortalamaya döner. Bu positive-part truncation fonksiyonu, baseline tahmininin hatasını sınırlandırarak policy gradient'lerin istikrarını garanti altına alır.

Makalede özellikle vurgulanan nokta, bu yaklaşımın group size'ın (örneklem büyüklüğü) 4 gibi aşırı düşük değerlere indirgenebileceği extrem seyreklik koşullarında bile çalışabilmesidir. Geleneksel GRPO'da bu kadar düşük bir grup boyutu eğitimi imkansız hale getirirken, V0.5 önsel bilgiyi etkili bir şekilde kullanarak gradient varyansını kontrol altında tutabiliyor.

Dinamik Bütçe Optimizasyonu ve OSLA

İkinci kritik yenilik, Sequential OSLA (One-Step-Look-Ahead) Allocation olarak adlandırılan dinamik bütçe yönetim sistemidir. Statik bir grup boyutu kullanmak yerine, V0.5 gerçek zamanlı olarak istatistiksel belirsizliği (epistemic uncertainty) ölçer ve rollout bütçesini buna göre ayarlar.

Bu mekanizma, Wald'ın sequential analysis çalışmalarından esinlenen bir durdurma kuralı (stopping rule) kullanır. Sistem, her adımda marjinal maliyet ile istatistiksel hassasiyet kazancını dengeler. Eğer prior ile gözlemler arasındaki uyumsuzluk yüksekse, ek rollout'lar otomatik olarak tahsis edilerek çatışma çözülür ve prior'ın halüsinasyonu düzeltilir. Tersine, prior yüksek güvenilirlik gösteriyorsa erken durdurma yapılarak hesaplama bütçesi korunur.

Bu uyarlanabilir yaklaşım, RLVR eğitiminde hesaplama kaynaklarının verimli kullanımı açısından kritik öneme sahiptir. Makalede sunulan sonuçlara göre V0.5, GRPO ve DAPO gibi güncel yöntemlere kıyasla altı farklı matematiksel akıl yürütme benchmark'unda (AIME 2024, AIME 2025, OlympiadBench, MATH500, Minerva Math, AMC 2023) %10'un üzerinde performans artışı sağlarken yakınsama hızını da önemli ölçüde iyileştiriyor.

İstatistiksel Arayüz: RLVR'nin Geleceği Üzerine Değerlendirmeler

V0.5'in sunduğu en derin çıkarım, value modeli ile policy modeli arasındaki ilişkinin doğasındaki değişimdir. Geleneksel PPO'da value modeli policy ile senkron olarak güncellenen ve gradyan tabanlı bir kritik olarak işlev görürken; V0.5'te bu ilişki tamamen istatistiksel hale gelmektedir. Value modeli artık bir parametre uzayı içinde optimize edilen bir fonksiyon değil, dondurulmuş bir önsel bilgi kaynağı (prior) olarak davranır.

Bu ayrımın pratik sonuçları derindir. Öncelikle, value modelinin artık hesaplama kaynağı ayırıcı (compute allocator) rolüne dönüşme potansiyeli ortaya çıkmaktadır. Eğitim sürecinde modelin belirsiz olduğu durumlarda otomatik olarak daha fazla rollout tahsis edilirken, güvenilir olduğu bölgelerde tek örneklemli (single-sample) güncellemelere geçilebilir. Bu, wall-clock eğitim maliyetlerini bir düzen azaltma potansiyeli taşır.

Ayrıca, bu yaklaşım uzun horizonlu görevlerde (arbitrary-length trajectories) yaşanan variance collapse probleminin çözümü için bir yol haritası sunar. Geleneksel yöntemlerde uzun trajectory'ler Monte Carlo varyansını katlayarak artırırken, V0.5'in dinamik bütçe mekanizması belirsizlik arttıkça hesaplama kaynağını artırarak bu sorunu dengeleyebilir.

V0.5'in getirdiği hipotez testi çerçevesi, gelecekte token-seviyesinde uyarlanabilir bütçe yönetimine (token-level adaptive budgets) evrilme potansiyeli de taşımaktadır. Her inference adımında value modelinin güvenilirlik skoru hesaplanarak, belirli token pozisyonlarında ek örnekleme yapılıp yapılmayacağına karar verilebilir. Bu, reasoning modellerinin çok daha uzun ve karmaşık düşünme zincirlerini (chain-of-thought) stabil bir şekilde eğitmesini mümkün kılabilir.

Sonuç

V0.5, RLVR alanında önemli bir teknik ilerlemeyi temsil etmektedir. Seyrek rollout'ların istatistiksel varyansını genelleştirilmiş value priors'ları ile kontrol altına alırken, aynı zamanda bu priors'ların halüsinasyon riskine karşı istatistiksel güvenlik mekanizmaları inşa etmektedir. Empirical Shrinkage Fusion ve Sequential OSLA Allocation bileşenleri, hem matematiksel olarak sağlam temellere dayanmakta hem de pratikte ölçeklenebilir çözümler sunmaktadır.

Bu çalışma, reinforcement learning ile büyük dil modelleri eğitimi arasındaki arayüzün gradyan tabanlıdan istatistiksel yaklaşımlara doğru evrildiğini göstermektedir. Yakın gelecekte, value modellerinin sadece değer tahmini yapan pasif bileşenler değil, eğitim bütçesini aktif olarak yönlendiren karar mekanizmaları haline gelmesi beklenmelidir. V0.5, bu vizyonun teknik altyapısını şekillendiren temel bir referans noktası olarak öne çıkmaktadır.

V0.5: Seyrek RL Rollout'lar için Genelleştirilmiş Değer Modeli ve Uyarlanabilir Bütçe Yönetimi | kualia.ai