Antropic, ABD ulusal güvenlik müşterileri için tasarlanmış hususi bir Claude AI modelleri koleksiyonunu tanıttı. Duyuru, AI’nın sınıflandırılmış hükümet ortamlarında uygulanmasında potansiyel bir kilometre taşını temsil ediyor.
‘Claude Gov’ modelleri, ABD ulusal güvenliğinin en üst seviyelerinde etkinlik gösteren ajanslar tarafınca konuşlandırılmıştır ve bu tür sınıflandırılmış ortamlarda çalışanlarla kesinlikle sınırlıdır.
Antropic, bu Claude Gov modellerinin, gerçek dünyadaki operasyonel gereksinimleri ele almak için hükümet müşterileriyle kapsamlı işbirliğinden ortaya çıktığını söylemiş oldu. Ulusal güvenlik uygulamaları için tasarlanmasına karşın, Antropic bu modellerin portföylerindeki öteki Claude modelleriyle aynı titiz güvenlik testine doğal olarak tutulduğunu korumak için çaba sarfediyor.
İçindekiler
Ulusal Güvenlik için Hususi AI kabiliyetleri
Hususi modeller, devlet operasyonları için çeşitli eleştiri alanlarda gelişmiş performans sunmaktadır. AI’nın duyarlı bilgilerle etkileşime girmeyi reddettiği daha azca örnek olan, sınıflandırılmış malzemelerin gelişmiş işlenmesine sahiptirler – güvenli ortamlarda ortak bir hayal kırıklığı.
Ek iyileştirmeler içinde danışma ve müdafa bağlamları içindeki belgelerin daha iyi anlaşılması, ulusal güvenlik operasyonları için oldukca mühim olan dillerde gelişmiş yeterlilik ve danışma analizi için karmaşık siber güvenlik verilerinin üstün yorumlanması yer almıştır.
Sadece, bu duyuru ABD’deki AI düzenlemesi hakkında devam eden tartışmaların ortasında geliyor. Antropik CEO Dario Amodei kısa süre ilkin AI’nın devlet düzenlemesi için on yıl devam eden bir donma sağlayacak tavsiye edilen mevzuatla ilgili endişelerini dile getirdi.
Yeniliği düzenlemeyle dengelemek
Bir konuk makalede gösterilen New York Times Bu hafta Amodei, düzenleyici moratoryumlardan ziyade şeffaflık kurallarını savundu. Antropik’in en yeni modelinin bir kapatma planı iptal edilmedikçe bir kullanıcının hususi e -postalarını ortaya çıkarmakla tehlike arzettiği bir örnek de dahil olmak suretiyle, gelişmiş AI modellerindeki davranışlarla ilgili iç değerlendirmeleri detaylı bir şekilde deklare etti.
Amodei, AI güvenlik testini, kamu özgür bırakılmadan ilkin kusurları ortaya çıkarmak için tasarlanmış uçaklar için rüzgar tüneli denemeleriyle karşılaştırarak güvenlik ekiplerinin riskleri proaktif olarak tespit etmeleri ve engellemesi icap ettiğini altını çizdi.
Antropik kendisini görevli AI gelişiminin savunucusu olarak konumlandırmıştır. Görevli ölçeklendirme politikası uyarınca şirket, kontrol şekilleri, risk-azaltma adımları ve özgür bırakma kriterleri hakkında ayrıntıları paylaşıyor-AMODEI, sektör genelinde standart haline gelmesi gerektiğine inanıyor.
Sektör genelindeki benzer uygulamaların resmileştirilmesinin hem kamu hem de yasa koyucuların beceri iyileştirmelerini izlemelerini ve ek düzenleyici eylemin lüzumlu olup olmadığını belirlemelerini sağlayacağını ileri sürmektedir.
AI’nın ulusal güvenlik üstündeki tesirleri
İleri modellerin ulusal güvenlik bağlamlarında konuşlandırılması, AI’nın danışma toplama, stratejik planlama ve müdafa operasyonlarındaki görevi hakkında mühim sorular ortaya koymaktadır.
Amodei, ileri yongalarda ihracat kontrolleri için destek ve Çin benzer biçimde rakiplere karşı güvenilir sistemlerin askeri olarak benimsenmesini beyan etti ve Antropic’in AI teknolojisinin jeopolitik tesirleri mevzusundaki farkındalığını gösterdi.
Claude Gov modelleri, stratejik planlama ve operasyonel destekten danışma analizine ve tehdit değerlendirmesine kadar ulusal güvenlik için oldukca sayıda uygulama sunabilir – tümü Antropik’in görevli AI gelişimine olan bağlılığı çerçevesinde.
Düzenleyici görünüm
Antropik hükümet kullanımı için bu hususi modelleri ortaya çıkarırken, AI için daha geniş düzenleyici ortam akışta kalır. Senato şu anda devlet düzeyinde AI düzenlemesi üstüne bir moratoryum oluşturacak dili düşünüyor ve daha geniş teknoloji önlemine oy vermeden ilkin planlanan duruşmalar.
Amodei, devletlerin gelecekteki bir federal çerçeveye ertelenen dar ifşa kurallarını benimseyebileceğini ve sonunda devlet tedbirlerini neredeyse vadeli mahalli eylemi durdurmadan tekdüzeliği korumak için önlemleri öngörebileceğini öne sürdü.
Bu yaklaşım, kapsamlı bir ulusal standarda doğru çalışırken bazı derhal düzenleyici koruma elde edecektir.
Bu teknolojiler ulusal güvenlik operasyonlarına daha derin bir halde entegre hale geldikçe, güvenlik, nezaret ve uygun kullanım sorunları hem siyaset tartışmalarının hem de kamu tartışmalarının ön saflarında kalacaktır.
Antropik için, güçlük, hükümet müşterilerinin ulusal güvenlik benzer biçimde eleştiri uygulamalar için hususi gereksinimlerini karşılarken görevli AI gelişimine olan bağlılığını sürdürecektir.
(Fotoğraf Kredisi: Antropik)
Ek olarak bakınız: Reddit, AI veri kazıması üstünden antropik dava açıyor

Sanayi liderlerinden suni zeka ve büyük veriler hakkında daha çok informasyon edinmek ister misiniz? Çıkış yapmak AI ve Big Data Fuarı Amsterdam, California ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, öteki önde gelen etkinliklerle beraber toplanır. Akıllı Otomasyon Konferansı– Blockx– Dijital Dönüşüm HaftasıVe Siber Güvenlik ve Bulut Fuarı.
Techforge tarafınca desteklenen öteki yaklaşan kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.