Coin Haber

Camia Gizlilik Saldırısı AI modellerinin neyi ezberlediğini ortaya koyuyor

privacy attack ai artificial intelligence data training brave.jpg

Araştırmacılar, verilerinizin AI modellerini eğitmek için kullanılıp kullanılmadığını belirleyerek gizlilik güvenlik açıklarını ortaya çıkaran yeni bir hücum geliştirdiler.

Topluluk olarak adlandırılan yöntem (bağlama duyulan üyelik çıkarım saldırısı), araştırmacılar tarafınca geliştirildi. Cesur ve Singapur Ulusal Üniversitesi ve AI modellerinin ‘hafızasını’ araştırmaya yönelik önceki girişimlerden oldukça daha etkilidir.

Modellerin yanlışlıkla depolandığı ve potansiyel olarak duyarlı detayları eğitim setlerinden sızdırabileceği AI’da artan “veri ezberleme” endişesi vardır. Sıhhat hizmetlerinde, klinik notalar üstünde eğitilmiş bir model yanlışlıkla duyarlı hasta bilgilerini ortaya çıkarabilir. İşletmeler için, eğitimde dahili e -postalar kullanıldıysa, bir saldırgan bir LLM’yi hususi şirket iletişimlerini tekrardan üretmeye kandırabilir.

Bu tür gizlilik kaygıları, LinkedIn’in üretken AI modellerini geliştirmek için kullanıcı verilerini kullanma planı benzer biçimde son duyurularla güçlendirilmiştir ve hususi içeriğin oluşturulan metinde yüzey olup olmadığı hakkında sorular sormaktadır.

Bu sızıntıyı kontrol etmek için güvenlik uzmanları üyelik çıkarım saldırıları yada MIAS kullanır. Kolay bir ifadeyle, bir MIA modele tehlikeli sonuç bir sual sorar: “Bu örneği eğitim esnasında gördünüz mü?”. Bir saldırgan cevabı güvenilir bir halde anlayabilirse, modelin eğitim verileri hakkında informasyon sızdırdığını ve direkt gizlilik riski oluşturduğunu kanıtlar.

Temel düşünce, modellerin eğitildikleri verileri işlerken yeni, görünmeyen verilere kıyasla çoğu zaman değişik davranmasıdır. MIA, bu davranışsal boşlukları dizgesel olarak kullanacak şekilde tasarlanmıştır.

Şimdiye kadar, bir çok MIA çağıl üretken AI’lere karşı büyük seviyede etkisiz olmuştur. Bunun sebebi, başlangıçta giriş başına tek bir çıkış veren daha kolay sınıflandırma modelleri için tasarlanmıştır. Bununla beraber, her yeni kelime, ondan ilkin gelen kelimelerden etkilenen metin token oluşturur. Bu sıralı süreç, bir metin bloğunun genel güvenine bakmanın, sızıntının gerçekte meydana geldiği anı dinamikleri kaçırılmış olduğu anlamına gelir.

Yeni Topluluk Gizlilik Saldırısı’nın arkasındaki temel içgörü, bir AI modelinin ezberlemesinin bağlama bağlı olmasıdır. Bir AI modeli, bir sonraki adımın ne söyleyeceğinden güvenli olmadığında en yoğun olarak ezberlemeye dayanır.

Mesela, “Harry Potter…… Harry Dünyası…” tarafınca yazılmıştır.

Bu şekilde bir durumda, kendinden güvenli bir tahmin ezberlemeyi göstermez. Bununla beraber, önek basitçe “Harry” ise, “çömlekçiyi” anlamak, spesifik eğitim dizilerini ezberlemeden oldukça daha zor hale gelir. Bu belirsiz senaryoda düşük yitik, yüksek itimat tahmini, ezberlemenin oldukça daha kuvvetli bir göstergesidir.

Topluluk, çağıl AI modellerinin bu üretken doğasından yararlanmak için hususi olarak tasarlanmış ilk gizlilik saldırısıdır. Modelin belirsizliğinin metin oluşturma esnasında iyi mi geliştiğini izleyerek AI’nın “tahmin” den “kendinden güvenli anımsama” a ne kadar süratli geçiş yaptığını ölçmesini sağlar. Jeton seviyesinde emek vererek, düşük belirsizliğin kolay tekrardan kaynaklandığı durumlar için ayarlanabilir ve öteki yöntemlerin kaçırılmış olduğu gerçek ezberleme modellerini tanımlayabilir.

Araştırmacılar, Topluluk’yı Mimir kıyaslamasında birkaç Pythia ve GPT-NEO modelinde kontrol ettiler. ARXIV veri kümesinde 2.8b parametre Pythia modeline saldırırken, Topluluk önceki yöntemlerin idrak etme doğruluğunu neredeyse iki katına çıkardı. Gerçek pozitif oranı% 20.11’den% 32,00’e yükseltirken, oldukça düşük bir yanlış pozitif oranı yalnız% 1’dir.

Hücum çerçevesi de hesaplamalı olarak verimlidir. Tek bir A100 GPU’da Topluluk, ortalama 38 dakikada 1.000 örneği işleyebilir ve bu da onu denetim modelleri için ergonomik bir vasıta haline getirebilir.

Bu emek verme, AI sanayisine, geniş, filtrelenmemiş veri kümeleri üstündeki her zamankinden daha büyük modeller eğitimindeki gizlilik risklerini hatırlatıyor. Araştırmacılar, çalışmalarının daha çok gizlilik korumuş olan tekniklerin geliştirilmesini teşvik edeceğini ve AI’nın yararını temel kullanıcı gizliliği ile dengelemek için devam eden çabalara katkıda bulunacağını umuyor.

Ek olarak bakınız: Samsung Benchmarks Enterprise AI modellerinin gerçek verimliliği

Sanayi liderlerinden suni zeka ve büyük veriler hakkında daha çok informasyon edinmek ister misiniz? Çıkış yapmak AI ve Big Data Fuarı Amsterdam, California ve Londra’da gerçekleşiyor. Kapsamlı etkinlik bir parçası Techex ve öteki önde gelen teknoloji etkinlikleriyle beraber bulunuyor, tıklayın Burada Daha çok informasyon için.

AI haberleri tarafınca desteklenmektedir Techforge Medya. Yaklaşan öteki kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.

Exit mobile version