All Posts
TRApril 2, 2026 3 min read

Zor Negatif Örneklere İhtiyaç Yok: Konsept Merkezli Öğrenme ile Kompozisyonellik ve Zero-Shot Performansı Aynı Anda

Giriş

Görsel-dil (vision-language) modellerinin kompozisyonel anlama yetenekleri, bilgisayarlı görü alanının en kritik zorluklarından biri olmaya devam ediyor. CLIP benzeri kontrastif modeller, zero-shot sınıflandırma ve görsel arama görevlerinde etkileyici sonuçlar elde etse de, "kırmızı koltuk" gibi basit özellik-nesne bağlantılarını öğrenmekte zorlanıyor. Samsung AI Center Cambridge'den araştırmacıların yayınladığı "No Hard Negatives Required: Concept Centric Learning Leads to Compositionality without Degrading Zero-shot Capabilities of Contrastive Models" çalışması, bu soruna köklü bir çözüm öneriyor.

Mevcut yaklaşımlar genellikle sentetik zor negatif örnekler (hard negatives) üretmeye odaklanıyor, ancak bu yöntemler hem dar alanlarda çalışıyor hem de temel V&L yeteneklerini bozabiliyor. Bu makale, soruna tamamen farklı bir açıdan yaklaşarak, mevcut eğitim verilerini daha iyi kullanma stratejisi benimsiyor.

Ana Analiz

Kompozisyonellik Probleminin Kök Nedenleri

Araştırmacılar, kontrastif V&L modellerinin kompozisyonel temsiller öğrenememesinin iki temel nedenini tanımlıyor. İlk neden, uzun eğitim başlıklarının (caption) kompozisyonel bir temsil gerektirmemesi. Tipik bir CLIP eğitiminde, "A cartoon deer wearing a striped hat and scarf" gibi uzun bir başlık, basit bir Bag-of-Words (BoW) yaklaşımıyla bile doğru görüntüyle eşleştirilebiliyor. Model, "deer", "striped", "hat" gibi anahtar kelimelerden yararlanarak batch içindeki doğru görüntüyü bulabiliyor, bu da gerçek anlamda özellik-nesne bağlantılarını öğrenme ihtiyacını ortadan kaldırıyor.

İkinci ve belki daha kritik neden ise, metin ve görüntü kodlayıcılardaki global pooling işleminin, bağlama (binding) için gerekli bilgiyi tamamen yok etmesi. Transformer tabanlı mimarilerde kullanılan attention pooling, tüm token'ları tek bir vektöre sıkıştırırken, hangi sıfatın hangi nesneye ait olduğu bilgisini kaybediyor. Bu durum, modelin "kırmızı araba" ile "mavi araba" arasındaki farkı anlamasını zorlaştırıyor.

Konsept Merkezli Öğrenme Yaklaşımı

Önerilen çözüm, iki ana bileşenden oluşuyor. İlk olarak, standart NLP araçları kullanılarak uzun başlıklardan kısa konsept merkezli parçalar (noun-phrase'ler) çıkarılıyor. "A cartoon deer wearing a striped hat and scarf" başlığından "cartoon deer", "striped hat" ve "scarf" gibi konseptler ayrıştırılıyor. Bu kısa konseptler, BoW yaklaşımıyla çözülemeyecek kadar spesifik oldukları için modeli gerçek kompozisyonel öğrenmeye zorluyor.

İkinci bileşen, parametre gerektirmeyen çapraz-modal attention pooling mekanizması. Bu yaklaşım, her konsept için özel görsel gömülü vektörler (embedding) üretiyor. Geleneksel global pooling yerine, her konseptin görüntüdeki ilgili bölgelere odaklanmasını sağlayan bir attention mekanizması kullanılıyor. Böylece "striped hat" konsepti, görüntüdeki şapka bölgesine odaklanırken "cartoon deer" konsepti hayvan figürüne odaklanabiliyor.

Teknik Detaylar ve Kayıp Fonksiyonları

Yöntem, üç farklı kayıp fonksiyonu kullanıyor:

L_contrastive: Orijinal SigLIP kaybı, global görüntü ve metin temsillerini hizalıyor.

L_npc (Noun-Phrase Contrastive): Global görüntü temsilini tüm konsept gömülüleriyle hizalayan çok-pozitif bir varyant.

L_xac (Cross-Attentive Pooling): Konsept-spesifik görsel gömülüleri ilgili konsept gömülüleriyle hizalıyor.

Bu üçlü kayıp yapısı, hem geleneksel zero-shot yetenekleri korurken hem de kompozisyonel anlama kabiliyetini geliştiriyor.

Kendi Yorumum / Özgün Çıkarımlar

Bu çalışmanın en değerli katkısı, soruna yaklaşım biçimindeki paradigma değişikliği. Sentetik veri üretimi yerine mevcut verinin daha akıllıca kullanımına odaklanması, pratikte daha sürdürülebilir bir çözüm sunuyor. Özellikle noun-phrase çıkarımının NLP araçlarıyla yapılması, yöntemin farklı dillere ve domainlere adaptasyonunu kolaylaştırıyor.

Cross-modal attention pooling'in parametre gerektirmemesi, inference maliyetini artırmaması açısından önemli. Bu, endüstriyel uygulamalar için kritik bir avantaj çünkü mevcut CLIP tabanlı sistemlere minimal değişiklikle entegre edilebilir.

Ancak yöntemin bazı sınırlılıkları da var. Noun-phrase çıkarımı, NLP araçlarının kalitesine bağımlı ve karmaşık cümle yapılarında hata yapabilir. Ayrıca, her konsept için ayrı attention hesaplaması, çok fazla konseptin bulunduğu durumlarda hesaplama yükünü artırabilir.

Özellikle ilginç olan nokta, hard negative üretiminden tamamen kaçınılabilmesi. Bu, modelin gerçek veri dağılımında daha iyi genelleme yapabileceğini ve domain-specific shortcut'lar öğrenmeyeceğini gösteriyor. Gelecekte, bu yaklaşımın video-language modellere ve multimodal large language model'lere uygulanması araştırılabilir.

Sonuç

"No Hard Negatives Required" çalışması, kontrastif vision-language modellerinin kompozisyonellik problemine köklü bir çözüm getiriyor. Uzun başlıkların BoW ile çözülebilir olması ve global pooling'in bağlama bilgisini yok etmesi gibi temel sorunları doğru tanımlayıp, konsept merkezli öğrenme ve cross-modal attention pooling ile etkili çözümler sunuyor.

Yöntemin en büyük avantajı, kompozisyonellik performansını artırırken zero-shot yetenekleri koruması ve inference maliyeti eklememesi. Bu, akademik başarı ile pratik uygulanabilirlik arasında nadir görülen bir denge sağlıyor.

Sonuç olarak, bu çalışma vision-language modellerinin gelecekteki gelişimi için önemli bir yol haritası çiziyor. Sentetik veri üretimi yerine akıllı veri kullanımına odaklanması, alanda sürdürülebilir ilerleme için umut verici bir yaklaşım sunuyor. Özellikle büyük ölçekli sistemlerin deployment'ında pratik faydaları nedeniyle, endüstriyel uygulamalarda da geniş kabul görebilir.

Zor Negatif Örneklere İhtiyaç Yok: Konsept Merkezli Öğrenme ile Kompozisyonellik ve Zero-Shot Performansı Aynı Anda | kualia.ai