All Posts
TRMarch 31, 2026 5 min read

Uzun Bağlamda Görsel Kayıp: Inter-Modal Distance Invariant Position Encoding ile Çok Modlu Modellerde Kalıcı Görsel Tutarlılık

Giriş: Görsel Sinyallerin Uzun Metinlerde Eritilmesi Sorunu

Çok Modlu Büyük Dil Modelleri (Multimodal Large Language Models, MLLM'ler), görsel ve dilsel temsilleri tek bir düzlemde birleştirerek yapay zekanın algı yeteneklerini köklü bir şekilde dönüştürdü. Ancak bu modeller, uzun bağlam senaryolarında ciddi bir kısıtlama ile karşı karşıya. Görsel solma (visual fading) olarak adlandırılan bu fenomen, metin dizisi uzadıkça modelin görsel tokenlere ayırdığı attention (dikkat) kaynaklarının hızla azalması ve sonuç olarak görsel kısıtlamalardan kopan metin üretimi olarak tanımlanıyor.

Lin Chen ve arkadaşlarının "Beyond Sequential Distance: Inter-Modal Distance Invariant Position Encoding" başlıklı çalışması, bu problemin kökenlerini teknik bir hassasiyetle analiz ediyor ve kökten bir çözüm öneriyor. Makale, mevcut MLLM'lerin uzun bağlamlarda neden görsel girdilere bağlılığını yitirdiğini, konumsal kodlama (position encoding) mekanizmalarındaki yapısal bir önyargıya bağlıyor.

Ana Analiz: Sıralı Uzaklığın Modüler Arası Etkileşimlerde Yarattığı Çarpıklık

MRoPE ve Mesafe Cezası Mekanizması

Mevcut MLLM mimarileri, görsel ve metin tokenlerinin konumsal ilişkilerini modellemek için genellikle MRoPE (Multimodal Rotary Position Embedding / Çok Modlu Döner Konumsal Gömme) kullanıyor. Bu yöntem, zaman, yükseklik ve genişlik bileşenlerini ayrıştırarak görsel ve metin tokenlerini birleşik bir sıralı çerçevede (unified sequential framework) konumlandırıyor.

Ancak bu yaklaşım kritik bir sorun barındırıyor. Orijinal RoPE mimarisinden devralınan long-term decay (uzun vadeli sönüm) özelliği, transformer attention mekanizmasında tokenler arası mesafe arttıkça dikkat ağırlıklarının azalmasını sağlayan bir inductive bias (çıkarımsal önyargı) oluşturuyor. Dilsel bağlamlarda bu, yerel yapıların korunması için faydalı olsa da, çok modlu senaryolarda görsel tokenler ile metin tokenleri arasındaki inter-modal (modüler arası) uzaklık arttıkça görsel sinyallere uygulanan bir ceza haline geliyor.

Otogressive (özyinelemeli) üretim sürecinde, görsel girdiler başlangıçta sabitken metin tokenleri sürekli olarak uzuyor. MRoPE'un sıralı uzaklık tabanlı yapısı gereği, her yeni metin tokeni üretildiğinde görsel referanslar "geçmişe" doğru itiliyor ve bunlara uygulanan attention ağırlığı mesafe ile ters orantılı olarak azalıyor. Bu durum, insan bilişsel mekanizmalarındaki sürdürülebilir görsel dikkat ile çarpıcı bir tezat oluşturuyor. İnsan bir görüntüyü sürekli analiz ederken, görsel referans konuşulan kelimeler gibi geriye doğru kaybolmaz; bağlam uzunluğundan bağımsız olarak önümüzde kalır.

DIPE Mimarisi: Modüler İçi ve Modüler Arası Ayrımı

Yazarların önerdiği DIPE (Distance Invariant Position Encoding / Mesafe Değişmez Konumsal Kodlama), bu problemi temelden çözüyor. DIPE'nin temel içgörüsü, modüler içi (intra-modal) yapısal bütünlüğün korunması gerektiği ancak modüler arası (inter-modal) etkileşimlerde algısal mesafenin sabit kalması gerektiği şeklinde özetlenebilir.

DIPE, attention mekanizmasını ortogon olarak iki bileşene ayırıyor:

  1. Intra-modal Attention (Modüler İçi Dikkat): Metin metin arası ve görsel görsel arası etkileşimlerde standart MRoPE yapısı korunarak dilsel yerellik ve görüntünün 2D uzamsal yapısı muhafaza edilir.
  1. Inter-modal Attention (Modüler Arası Dikkat): Görsel ve metin tokenleri arasındaki etkileşimlerde anchored query (çapraz bağlı sorgu) mekanizması devreye girer. Bu mekanizma, metin tokenlerinin görsel tokenlere olan algısal uzaklığını sabit bir değerde tutar. Böylece bağlam uzunluğu ne kadar artarsa artsın, görsel sinyaller üretim sürecine daima aynı "yakınlıkta" kalır.

Bu yaklaşım, ek parametre gerektirmeden mevcut RoPE varyantlarına entegre edilebiliyor ve FlashAttention ile KV Cache altyapısıyla tam uyumlu çalışıyor. Bu teknik özellikler, DIPE'nin pratik uygulanabilirliğini ve hesaplama verimliliğini garanti altına alıyor.

Deneysel Bulgular ve Attention Dinamikleri

Makalede sunulan deneysel sonuçlar, 19 farklı benchmark (karşılaştırma ölçütü) üzerinde değerlendiriliyor. DIPE entegrasyonu, uzun bağlam senaryolarında MRoPE tabanına göre ortalama %4.10 doğruluk kazancı sağlıyor. Özellikle not edilmesi gereken nokta, bu kazanımların standart kısa bağlam senaryolarındaki performansı bozmadan elde edilmesidir.

Attention haritalarının detaylı analizi, DIPE'nin etkisinin özellikle shallow layers (sığ katmanlarda) belirgin olduğunu gösteriyor. Görsel attention ağırlıkları, bağlam uzunluğu ölçeklendikçe MRoPE'ta keskin bir düşüş gösterirken, DIPE ile sabit ve yüksek seviyede tutuluyor. Bu bulgu, DIPE'nin görsel sinyallerin model tarafından erken aşamalarda etkin bir şekilde işlenmesini sağladığını ve uzun metin üretiminde bu sinyallerin korunmasını mümkün kıldığını ortaya koyuyor.

Kendi Yorumum: Mimari Ayrım ve Bilişsel Sinirbilim Paralellikleri

Bu çalışma, transformer mimarilerinde modüler özgü (modality-specific) işleme yöntemlerinin gerekliliğine dair önemli bir dönüm noktasını temsil ediyor. Geleneksel olarak, çok modlu modeller farklı veri tiplerini (görsel, metinsel, işitsel) tek bir sıralı temsile indirgeyerek işlemeye çalıştı. Ancak DIPE'nin ortaya koyduğu üzere, farklı modalitelerin zaman ve uzamda farklı dinamiklere sahip olduğu ve bunların farklı attention rejimleri gerektirdiği açık.

Bilişsel sinirbilim açısından bakıldığında, DIPE'nin yaklaşımı beyindeki dorsal ve ventral akımların (dorsal and ventral streams) işleyişine paralellikler taşıyor. Ventral akım nesne tanıma ve "ne" sorusuna odaklanırken, dorsal akım uzamsal konumlandırma ve "nerede" sorusunu işler. Benzer şekilde, DIPE da modüler içi yapıların (nesne detayları ve yerel dil yapıları) korunması ile modüler arası uzamsal ilişkilerin (görsel referansın metne göre konumu) farklı şekilde işlenmesi gerektiğini öne sürüyor.

Sabit referans (anchored perceptual proximity) kavramı, özellikle video anlama ve uzun doküman analizi gibi alanlarda yeni tasarım paradigmalara yol açabilir. Örneğin, bir video modelinde, zaman içinde ilerleyen olaylar karşısında ilk karelerdeki görsel referansların uzun süre canlı tutulması gerekebilir. DIPE'in sunduğu mesafe değişmez kodlama prensibi, bu tür senaryolarda görsel tutarlılığın korunması için temel bir yapı taşı olabilir.

Ayrıca, bu çalışma attention mekanizmalarının doğası gereği sahip olduğu permutation-invariant (permütasyon değişmez) özelliğin, konumsal kodlama stratejileriyle nasıl esnetilebileceğini gösteriyor. Gelecekte, farklı modaliteler arasındaki temporal ve uzamsal ilişkileri daha nüanslı şekilde modelleyen adaptive position encoding mekanizmaları görebiliriz.

Sonuç

"Beyond Sequential Distance: Inter-Modal Distance Invariant Position Encoding" çalışması, MLLM'lerin uzun bağlam performansını sınırlayan temel bir yapısal sorunu teşhis ediyor ve bu sorunu ek parametre yükü getirmeden, mevcut altyapılarla uyumlu bir şekilde çözüyor. DIPE yaklaşımı, görsel ve metinsel modaliteler arasındaki etkileşimlerin basitçe sıralı bir mesafe olarak ele alınmasının yetersizliğini göstererek, çok modlu yapay zeka sistemlerinin daha insan benzeri bir sürdürülebilirlikle görsel bilgiyi işlemesini sağlıyor.

Bu teknik ilerleme, yalnızca mevcut modellerin uzun dokümanlarda ve karmaşık görsel soru yanıtlama görevlerindeki başarısını artırmakla kalmayacak; aynı zamanda multimodal transformer mimarilerinin tasarımında modüler arası ilişkilerin özgün şekilde ele alınması gerektiğine dair yeni bir perspektif de sunacaktır.