Alibaba’nın AI kodlama aracı Batı’daki güvenlik endişelerini artırıyor

Date:

Alibaba, büyük bir açık kaynaklı model kullanarak karmaşık yazılım görevlerini yerine getirmek için inşa edilen Qwen3-Coder adlı yeni bir AI kodlama modeli yayınladı. Vasıta Alibaba’nın QWEN3 ailesinin bir parçasıdır ve bugüne dek firmanın en gelişmiş kodlama aracısı olarak terfi etmektedir.

Model, toplam 480 milyardan 35 milyar parametreyi aktive eden ve 256.000’e kadar bağlamı destekleyen bir uzman (MOE) yaklaşımı karışımı kullanıyor. Bu sayının hususi ekstrapolasyon teknikleri kullanılarak 1 milyona gerilebileceği bildiriliyor. Şirket, QWEN3-Coder’ın moonshot AI ve Deepseek’in versiyonları da dahil olmak suretiyle, gizmen görevlerinde öteki açık modellerden daha iyi performans gösterdiğini iddia ediyor.

Fakat hepimiz bunu iyi bir haber olarak görmüyor. CyberNews baş editörü Jurgita Lapienyė, Qwen3-Coder’ın yalnız yararlı bir kodlama asistanından daha fazlası olabileceği mevzusunda uyarıyor-Batılı geliştiriciler tarafınca yaygın olarak kabul edilirse küresel teknoloji sistemleri için gerçek bir risk oluşturabilir.

Açık kaynaklı giysilerde bir Truva atı?

Alibaba’nın Qwen3-Coder çevresindeki mesajlaşması, teknik gücüne odaklandı ve onu Openai ve Antropik’ten en üst düzey araçlarla karşılaştırdı. Sadece benchmark puanları ve özellikleri dikkat çekerken, Lapienyė gerçek meseleden de uzaklaşabileceklerini öne sürüyor: güvenlik.

Çin’in AI’da yetişmesi değil – esasen biliniyor. Daha derin kaygı, AI sistemleri tarafınca üretilen yazılımların denetlenmesi yada tam olarak anlaması zor riskleri ile ilgilidir.

Lapienyė söylediği şeklinde, geliştiriciler temel sistemlerin bilmeden savunmasız kodla inşa edilmiş olduğu “bir geleceğe uyurgezerlik” olabilir. Qwen3-Coder şeklinde araçlar yaşamı kolaylaştırabilir, sadece fark edilmeden ince zayıflıklar da getirebilirler.

Bu risk varsayımsal değildir. CyberNews Araştırmacılar Son zamanlarda büyük ABD firmaları içinde AI kullanımı incelendi ve S&P 500’ün 327’sinin AI araçlarını kullanarak kamuya açık bulunduğunu buldu. Yalnız bu şirketlerde araştırmacılar ortalama 1.000 AI ile ilgili güvenlik açıkları belirlediler.

Başka bir AI modeli eklemek – bilhassa Çin’in katı ulusal güvenlik yasaları altında geliştirilen biri – denetim edilmesi daha zorluk derecesi yüksek başka bir risk katmanı ekleyebilir.

Kod bir arka kapı haline ulaştığında

Bugünün geliştiricileri, kod yazmak, hataları düzeltmek ve uygulamaların iyi mi oluşturulduğunu şekillendirmek için AI araçlarına yoğun bir halde eğiliyor. Bu sistemler süratli, yararlı ve her gün iyileşiyor.

Peki ya aynı sistemler kusur enjekte etmek için eğitilmişse? Belli hatalar değil, alarmları tetiklemeyen ufak, lekesi zor problemler. Zararsız bir tasarım sonucuna benzeyen bir güvenlik açığı senelerce tespit edilmeyebilir.

Tedarik zinciri saldırıları çoğu zaman bu şekilde adım atar. Geçmiş örnekler, Solarwinds vakası şeklinde, infiltrasyonun ne kadar uzun soluklu ve sabırla yapılabileceğini gösterir. Kafi erişim ve bağlamla, bir AI modeli benzer sorunların iyi mi ekileceğini öğrenebilir – bilhassa de milyonlarca kod tabanına maruz kalırsa.

Bu yalnız bir kuram değil. Çin Ulusal İstihbarat Yasası uyarınca, Alibaba şeklinde firmalar, veri ve AI modellerini içerenler de dahil olmak suretiyle hükümet talepleriyle ortaklaşa iş yapmalıdır. Bu, konuşmayı teknik performanstan ulusal güvenliğe kaydırır.

Kodunuza ne olur?

Bir başka mühim mesele da veri maruz kalmasıdır. Geliştiriciler, kod yazmak yada hata ayıklamak için Qwen3 kodlayıcı şeklinde araçları kullandıklarında, bu etkileşimin her parçası kırılgan detayları ortaya çıkarabilir.

Bu, tescilli algoritmalar, güvenlik mantığı yada altyapı tasarımını içerebilir – esas olarak yabancı bir durum için yararlı olabilecek ayrıntılar.

Model açık kaynak olsa da, kullananların göremediği oldukca şey var. Arka uç altyapısı, telemetri sistemleri ve kullanım seyretme şekilleri saydam olmayabilir. Bu, verilerin nereye gittiğini yada modelin vakit içinde neler hatırlayabileceğini bilmeyi zorlaştırır.

Gözetimsiz özerklik

Alibaba ek olarak, standart asistanlardan daha bağımsız hareket edebilen modeller olan gizmen AI’ya odaklanmıştır. Bu araçlar yalnız kod satırları önermez. Tam görevler atanabilir, minimum girdi ile çalışabilir ve kendi başlarına kararlar alabilirler.

Bu verimli gelebilir, sadece hem de kırmızı bayraklar da yükseltir. Tüm kod tabanlarını tarayabilen ve değişimler yapabilen tamamen otonom bir kodlama maddesi yanlış ellerde tehlikeli hale gelebilir.

Bir firmanın sistemini anlayabilen ve bunlardan yararlanmak için hususi saldırılar hazırlayabilen bir gizmen hayal edin. Geliştiricilerin daha süratli hareket etmesine destek olan aynı beceri seti, daha da süratli hareket etmek için saldırganlar tarafınca tekrardan tasarlanabilir.

Düzenleme hala hazır değil

Bu risklere karşın, mevcut düzenlemeler Qwen3-Coder şeklinde araçları anlamlı bir halde ele almamaktadır. ABD hükümeti senelerce Tiktok şeklinde uygulamalara bağlı veri gizliliği endişelerini tartışmak için harcadı, sadece yabancı tarafınca geliştirilen AI araçlarının oldukca azca nezarete var.

ABD Yabancı Yatırım Komitesi (CFIUS) Gözden Geçirme Şirket satın alımlarını şeklinde gruplar, sadece ulusal güvenlik riskleri oluşturabilecek AI modellerini gözden geçirmek için benzer bir süreç yoktur.

Başkan Biden’in suni zeka üstündeki yürütme emri esas olarak evde yetiştirilen modellere ve genel güvenlik uygulamalarına odaklanmaktadır. Sadece, sıhhat, finans yada ulusal altyapı şeklinde kırılgan ortamlara gömülebilen ithal araçlarla ilgili endişeler bırakıyor.

Kodu yazabilen yada değiştirebilen AI araçları, yazılım tedarik zinciri tehditleriyle aynı ciddiyetle ele alınmalıdır. Bu, nerede ve iyi mi kullanılabilecekleri için net yönergeler belirlemek anlamına gelir.

Bundan sonrasında ne olmalı?

Riski azaltmak için, kırılgan sistemlerle uğraşan kuruluşlar, Qwen3 kodlayı yada yabancı olarak geliştirilen herhangi bir gizmen suni zekayı entegre etmeden ilkin duraklamalıdır. Güvenmediğiniz birini kaynak kodunuza bakmaya çağrı etmezseniz, niçin AI’larının tekrardan yazmasına izin vermelisiniz?

Güvenlik araçlarının da yetişmesi gerekiyor. Statik çözümleme yazılımı, AI tarafınca hazırlanan karmaşık arka kapıları yada ince mantık sorunlarını tespit edemeyebilir. Endüstrinin, şüpheli kalıplar için AI tarafınca oluşturulan kodu işaretlemek ve kontrol etmek için hususi olarak tasarlanmış yeni araçlara ihtiyacı var.

Son olarak, geliştiriciler, teknoloji liderleri ve düzenleyiciler, kod üreten AI’nın yansız olmadığını anlamalıdır. Bu sistemlerin gücü vardır – hem yararlı araçlar hem de potansiyel tehditler. Onları yararlı kılan aynı özellikler de onları tehlikeli hale getirebilir.

Lapienyė qwen3-coder’ı “potansiyel bir Truva atı” olarak adlandırdı ve metafor uyuyor. Bu yalnız üretkenlikle ilgili değil. Kapıların içinde kim olduğu hakkında.

Hepimiz mühim olanı kabul etmiyor

Alibaba Cloud’un kurucusu Wang Jian, işleri değişik görüyor. Bir röportajda Bloomberginovasyonun en pahalı kabiliyeti işe almakla değil, bilinmeyenleri inşa edebilecek insanları seçmekle ilgili bulunduğunu söylemiş oldu. Silikon Vadisi’nin teknoloji devlerinin sporculara teklif verdiği spor takımları şeklinde en iyi araştırmacılar için yarıştığı AI işe alımına yaklaşımını eleştirdi.

Wang, “Yapmanız ihtiyaç duyulan tek şey doğru kişiyi elde etmektir” dedi. “Hakikaten pahalı insan değil.”

Ek olarak Çin AI ırkının sıhhatli değil, sıhhatli olduğuna inanıyor. Wang’a gore, firmalar sırayla aşama kaydediyor, bu da tüm ekosistemin daha süratli büyümesine destek oluyor.

“Bu yarışma sebebiyle değişen teknolojinin oldukca süratli yinelemesine haiz olabilirsiniz” dedi. “Bunun acımasız bulunduğunu sanmıyorum, fakat bence oldukca sıhhatli.”

Gene de, açık kaynaklı rekabet itimatı güvence etmez. Batılı geliştiriciler hangi araçları kullandıklarını ve kimleri inşa ettiklerini dikkatlice düşünmelidir.

Sonuçta

Qwen3 kodlayıcı etkisi altına alan performans ve açık erişim sunabilir, sadece kullanımı ölçütlerin ve kodlama hızının ötesine geçen risklerle beraber gelir. AI araçlarının tehlikeli sonuç sistemlerin iyi mi oluşturulduğunu şekillendirdiği bir zamanda, yalnız bu araçların neler yapabileceğini değil, sadece bunu yaptıklarında kimin yarar sağladığını sormaya kıymet.

(Fotoğraf Shahadat Rahman)

Ek olarak bakınız: Alibaba’nın yeni Qwen Akıl Yürütme AI Modeli açık kaynak kayıtlarını ayarlar

Sanayi liderlerinden suni zeka ve büyük veriler hakkında daha çok informasyon edinmek ister misiniz? Çıkış yapmak AI ve Big Data Fuarı Amsterdam, California ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, öteki önde gelen etkinliklerle beraber toplanır. Akıllı Otomasyon KonferansıBlockx Dijital Dönüşüm HaftasıVe Siber Güvenlik ve Bulut Fuarı.

Techforge tarafınca desteklenen öteki yaklaşan kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Share post:

Popular

More like this
Related