Bir Samsung AI araştırmacısının hazırladığı yeni bir yazı, minik bir ağın, karmaşık akıl yürütmede devasa Büyük Dil Modellerini (LLM’ler) iyi mi yenebileceğini açıklıyor.
Suni zeka üstünlüğü yarışında endüstrinin mantrası çoğu zaman “daha büyük daha iyidir” olmuştur. Teknoloji devleri giderek daha büyük modeller yaratmak için milyarlarca dolar harcadı, sadece Samsung SAIL Montréal’den Alexia Jolicoeur-Martineau’ya gore, Tiny Recursive Model (TRM) ile köktencilik şekilde değişik ve daha verimli bir ilerleme mümkün.
TRM, önder LLM’lerin boyutunun %0,01’inden daha minik olan, yalnızca 7 milyon parametreli bir model kullanarak, ARC-AGI zeka testi benzer biçimde her insanın bilmiş olduğu benzer biçimde zor kriterlerde yeni ve son teknoloji sonuçlar elde ediyor. Samsung’un emek harcaması, suni zeka modellerinin kabiliyetlerini geliştirmenin tek yolunun saf ölçek olduğu yönündeki yaygın varsayıma meydan okuyor ve daha sürdürülebilir ve parametre açısından verimli bir alternatif sunuyor.
Ölçek sınırlarının aşılması
Yüksek Lisans’lar insan benzeri metinler oluşturma mevzusunda inanılmaz bir beceri göstermiş olsalar da, karmaşık, fazlaca adımlı akıl yürütme kabiliyetleri kırılgan olabilir. Yanıtları tek tek ürettikleri için, sürecin başındaki tek bir hata, tüm çözümü raydan çıkarabilir ve geçersiz bir nihai cevaba yol açabilir.
Bunu azaltmak için, bir modelin bir problemi çözmek için “yüksek sesle düşündüğü” Fikir Zinciri benzer biçimde teknikler geliştirildi. Bununla beraber, bu yöntemler hesaplama açısından pahalıdır, bir çok süre mevcut olmayabilecek fazlaca oranda yüksek kaliteli akıl yürütme verisi gerektirir ve gene de hatalı mantık üretebilir. Bu genişletmelere karşın Yüksek Lisans’lar muhteşem mantıksal yürütmenin lüzumlu olduğu bazı bulmacalarla savaşım ediyor.
Samsung’un emekleri, Hiyerarşik Akıl Yürütme Modeli (HRM) olarak malum yeni bir suni zeka modeli üstüne kuruludur. HRM, bir probleminin yanıtını iyileştirmek için değişik frekanslarda yinelemeli olarak çalışan iki minik sinir ağını kullanan yeni bir yöntem tanıttı. Büyük ümit vaat ediyordu fakat karmaşıktı, belirsiz biyolojik argümanlara ve uygulanması güvence edilmeyen karmaşık durağan(durgun) nokta teoremlerine dayanıyordu.
HRM’nin iki ağı yerine TRM, hem dahili “akıl yürütmesini” hem de tavsiye edilen “yanıtını” yinelemeli olarak geliştiren tek, minik bir ağ kullanıyor.
Modele sual, yanıta ilişkin ilk tahmin ve gizli saklı bir akıl yürütme özelliği verilir. İlk olarak, her üç girdiye dayalı olarak gizli saklı muhakemeyi geliştirmek için birkaç adımdan geçer. Sonrasında bu gelişmiş akıl yürütmeyi kullanarak nihai yanıta ilişkin tahminini günceller. Tüm bu süreç 16 defaya kadar tekrarlanabilir, bu da modelin kendi hatalarını son aşama verimli bir halde aşamalı olarak düzeltmesine olanak tanır.
Araştırma, sezgilerin tersine, yalnızca iki katmanlı minik bir ağın, dört katmanlı bir versiyona gore fazlaca daha iyi bir genelleme elde ettiğini keşfetti. Boyuttaki bu azalma, modelin gereğinden fazla oturmasını önlüyor benzer biçimde görünüyor; Daha minik, hususi veri kümeleri üstünde eğitim alırken sık karşılaşılan bir mesele.
TRM ek olarak selefinin kullandığı karmaşık matematiksel gerekçelerden de vazgeçiyor. Orijinal İKY modeli, eğitim yöntemini doğrulamak için fonksiyonlarının durağan(durgun) bir noktaya yakınlaştığı varsayımını gerektiriyordu. TRM, tam özyineleme süreci süresince basitçe geriye yayılarak bunu tamamen atlar. Tek başına bu değişim performansta büyük bir artış sağlamış oldu ve bir ablasyon çalışmasında Sudoku-Extreme karşılaştırmasındaki doğruluğu %56,5’ten %87,4’e çıkardı.
Samsung’un modeli daha azca kaynakla AI kriterlerini alt üst ediyor
Sonuçlar kendileri için konuşuyor. Yalnızca 1.000 eğitim örneği kullanan Sudoku-Extreme veri setinde TRM, HRM’nin %55’inden büyük bir sıçrama yaparak %87,4’lük bir kontrol doğruluğu elde etti. 30×30 labirentlerde uzun yollar bulmayı içeren Maze-Hard görevinde TRM, HRM’nin %74,5’ine kıyasla %85,3 puan aldı.
En önemlisi, TRM, suni zekada gerçek akışkan zekayı ölçmek için tasarlanmış bir karşılaştırma olan Soyutlama ve Muhakeme Derlemi (ARC-AGI) üstünde büyük ilerlemeler kaydediyor. Yalnızca 7M parametreyle TRM, ARC-AGI-1’de %44,6 ve ARC-AGI-2’de %7,8 doğruluk elde eder. Bu, 27M parametreli bir model kullanan HRM’den daha iyi performans gösteriyor ve hatta dünyanın en büyük LLM’lerinin çoğunu geride bırakıyor. Karşılaştırma için Gemini 2.5 Pro, ARC-AGI-2’de yalnızca %4,9 puan alıyor.
TRM’ye yönelik eğitim süreci de daha verimli hale getirildi. Modelin bir yanıtı yeterince iyileştirip yeni bir veri örneğine geçebileceğine kabul eden ACT isminde olan uyarlanabilir mekanizma, her eğitim adımı esnasında ağ üstünden ikinci, maliyetli ileri geçiş ihtiyacını ortadan kaldırmak için basitleştirildi. Bu değişim, nihai genellemede büyük bir fark olmaksızın yapılmış oldu.
Samsung’un bu araştırması, devamlı genişleyen suni zeka modellerinin mevcut gidişatına karşı ilgi çekici bir argüman sunuyor. Yinelemeli olarak akıl yürütebilen ve kendi kendini düzeltebilen mimariler tasarlayarak, son aşama zor sorunları hesaplama kaynaklarının fazlaca minik bir kısmıyla çözmenin mümkün bulunduğunu gösteriyor.
Ek olarak bakınız: Google’ın yeni AI aracısı, güvenlik açığı düzeltmelerini otomatikleştirmek için kodu tekrardan yazıyor
Sektör liderlerinden suni zeka ve büyük veri hakkında daha çok informasyon edinmek ister misiniz? Çıkış yapmak Yapay Zeka ve Büyük Veri Fuarı Amsterdam, Kaliforniya ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, TechEx ve aşağıdakiler de dahil olmak suretiyle öteki önde gelen teknoloji etkinlikleriyle aynı yerde bulunmaktadır: Siber Güvenlik Fuarıtıklamak Burada daha çok informasyon için.
AI News tarafınca desteklenmektedir TechForge Medyası. Yaklaşan öteki kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.