Google Cloud, AI’nın siber güvenlik savunmasını nasıl yeniden şekillendirdiğini ortaya koyuyor

Date:

Google’ın 80. Düzey 3’teki şık Singapur ofisinde Mark Johnston, saat 13: 30’da şaşırtıcı bir girişle teknoloji gazetecilerinin bir odasında durdu: beş senelik siber güvenlik evriminden sonrasında, savunucular hala savaşı kaybediyor. Google Cloud’un CISO Direktörü Asya Pasifik Direktörü, “Japonya ve Asya Pasifik’teki olayların% 69’unda örgütler dış varlıklar tarafınca kendi ihlalleri mevzusunda bilgilendirildi” dedi.

Bir saat devam eden “AI döneminde siber güvenlik” yuvarlak masa toplantısında ortaya çıkan şey, Google Cloud AI teknolojilerinin aynı suni zeka araçları, eşi görülmemiş kabiliyetlere haiz saldırganları güçlendirse bile, onlarca yıl devam eden müdafa başarısızlıklarını iyi mi tersine çevirmeye çalıştığının dürüst bir değerlendirmesiydi.

Mark Johnston, Maniant’ın Asya Pasifik’teki idrak etme hatalarını gösteren M trend verilerini sunuyor

Tarihsel bağlam: 50 senelik müdafa başarısızlığı

Kriz yeni değil. Johnston, problemi siber güvenlik öncüsü James P. Anderson’ın 1972’nin “kullandığımız sistemlerin kendilerini hakikaten korumadığı” gözlemine kadar takip etti – onlarca senelik teknolojik ilerlemeye karşın devam eden bir meydan okuma. “James P Anderson’ın 1972’de söyledikleri bugün hala geçerlidir,” dedi Johnston, teknoloji geliştikçe bile temel güvenlik sorunlarının iyi mi çözülmediğini altını çizdi.

Temel güvenlik açıklarının kalıcılığı bu zorluğu birleştirir. Google Cloud’un tehdit danışma verileri, “ihlallerin% 76’sından fazlasının temel bilgilerle başladığını” – onlarca senedir örgütleri rahatsız eden yapılandırma hataları ve kimlik bilgisi uzlaşmaları bulunduğunu ortaya koyuyor. Johnston yakın tarihindeki bir örnek verildi: “Geçen ay, bir çok kuruluşun bir noktada kullandığı oldukca yaygın bir ürün olan Microsoft SharePoint de sıfır gün güvenlik açığı olarak adlandırdığımız şeye haiz… ve bu süre zarfında devamlı saldırıya uğradı ve istismar edildi.”

AI Tabanca Yarışı: Savunucular ve Saldırganlar

Google Cloud’un saldırganlar ve savunucular arasındaki ölçek dengesizliğini gösteren “savunucunun ikilemini” görselleştirmesi

IEEE Kıdemli Üyesi ve Ulster Üniversitesi Siber Güvenlik Profesörü Kevin Curran, mevcut manzarayı hem siber güvenlik ekiplerinin hem de tehdit aktörlerinin birbirlerini aşmak için AI araçları kullandığı “yüksek bahisli bir tabanca yarışı” olarak tanımlıyor. “Savunucular için AI kıymetli bir varlıktır,” diye açıklıyor Curran bir medya notunda. “İşletmeler, büyük oranda veriyi gerçek zamanlı olarak çözümleme etmek ve anormallikleri tanımlamak için üretken AI ve öteki otomasyon araçlarını uyguladılar.”

Sadece, aynı teknolojiler saldırganlara yarar sağlar. Curran, “Tehdit oyuncuları için AI, kimlik avı saldırılarını kolaylaştırabilir, fena amaçlı yazılım oluşturmayı otomatikleştirebilir ve güvenlik açıkları için ağları taramaya destek olabilir” diye uyarıyor. Suni zekanın çift kullanımlı doğası, Johnston’un “savunucunun ikilemi” söylediği şeyi yaratır.

Google Cloud AI girişimleri bu ölçekleri savunucular lehine eğmeyi amaçlamaktadır. Johnston, “AI, savunucunun ikilemini yükseltmek ve savunuculara saldırganlara karşı belirleyici bir avantaj sağlamak için siber alanların ölçeklerini eğmek için en iyi fırsatı verdiğini” savundu. Firmanın yaklaşımı, güvenlik açığı keşfini, tehdit istihbaratını, güvenli kod üretimini ve vaka tepkisini kapsayan “savunmada üretken suni zeka için sayısız kullanım vakası” olarak adlandırdıkları şeylere odaklanmaktadır.

Project Zero’nun Büyük Uykusu: AI İnsanları Bulma

Google’ın suni zeka ile çalışan savunmanın en çekici örneklerinden biri, Project Zero’nun gerçek dünya kodundaki güvenlik açıklarını tanımlamak için büyük dil modellerini kullanan “Büyük Uyku” girişimidir. Johnston etkisi altına alan metrikleri paylaştı: “Büyük uyku, bir AI hizmeti tarafınca bir güvenlik açığının bulunduğuna ilk kez inanıyoruz.”

Programın evrimi AI’nın büyüyen kabiliyetlerini göstermektedir. Johnston, “Geçen ay, değişik paketlerde 20’den fazla güvenlik açığı bulduğumuzu açıkladık” dedi. “Fakat bugün, büyük uyku denetim paneline baktığımda, Ağustos ayında bu çözüm tarafınca bulunan 47 güvenlik açığı buldum.”

Manuel insan analizinden AI destekli keşife ilerleme, Johnston’un “manuelden yarı özerk” güvenlik operasyonları olarak tanımladığı şeyi, “Gemini’nin güvenlik yaşam döngüsündeki bir çok görevi devamlı olarak iyi yönlendirerek, yeterince yüksek itimat yada hassasiyetle otomatikleştiremeyeceği görevleri devrediyor.

Otomasyon Paradoksu: Söz ve çekince

Google Cloud’un yol haritası, dört aşamadan ilerlemeyi öngörüyor: manuel, yardımlı, yarı özerk ve özerk güvenlik operasyonları. Yarı özerk aşamada, AI sistemleri karmaşık kararları insan operatörlerine yükseltirken rutin görevleri üstlenecektir. Nihai otonom aşama, AI’nın “güvenlik yaşam döngüsünü kullanıcılar adına pozitif yönde sonuçlara yönlendirdiğini” görecekti.

Google Cloud’un manuelden otonom AI güvenlik işlemlerine dönüşmek için yol haritası

Sadece, bu otomasyon yeni güvenlik açıkları getiriyor. AI sistemlerine aşırı bağımlılık riskleri sorulduğunda, Johnston bu meydan okumayı kabul etti: “Bu hizmetin saldırıya uğrayabileceği ve manipüle edilebileceği potansiyeli var. Şu anda, bu ajanların borulandığı araçları gördüğünüzde, bunun gerçek bir vasıta bulunduğunu kabul etmek için hakikaten iyi bir çerçeve yok.”

Curran bu kaygıyı yansıtıyor: “Firmalar için risk, güvenlik ekiplerinin AI’ya aşırı bağımlı hale gelmesi, potansiyel olarak insan yargısına dayandırılması ve sistemleri saldırılara karşı savunmasız bırakmasıdır. Hala bir insan ‘kopilotuna’ gerekseme vardır ve rollerin açıkça tanımlanması gerekmektedir.”

Gerçek Dünya Uygulaması: Suni zekanın öngörülemeyen doğasını denetlemek

Google Cloud’un yaklaşımı, suni zekanın en sorunlu özelliklerinden birini ele almak için ergonomik önlemler ihtiva eder: alakasız yada uygunsuz yanıtlar oluşturma eğilimi. Johnston, bu zorluğu iş riskleri yaratabilecek bağlamsal uyumsuzlukların somut bir örneğiyle gösterdi.

“Bir perakende mağazanız var ise, bunun yerine tıbbi tavsiye almamalısınız,” diye deklare etti Johnston, AI sistemlerinin beklenmedik bir halde ilişkisiz alanlara iyi mi geçebileceğini deklare etti. “Kimi zaman bu araçlar bunu yapabilir.” Öngörülemezlik, mevzu dışı yanıtların müşterileri karıştırabileceği, marka itibarına zarar verebileceği yada hatta yasal maruziyet yaratabileceği, müşteriye dönük AI sistemlerini dağıtan işletmeler için mühim bir sorumluluktur.

Google’ın model zırh teknolojisi, akıllı bir filtre katmanı olarak işlev görerek bunu ele alıyor. Johnston, “Filtrelere haiz olmak ve bu yanıtlara sıhhat kontrolleri yapmak için kabiliyetlerimizi kullanmak, bir kuruluşun itimat almasını sağlıyor” dedi. Sistem, AI çıktılarını kişisel olarak tanımlanabilir bilgiler için tarar, iş bağlamına uygun olmayan içinde ne olduğu filtreler ve kuruluşun amaçlanan kullanım durumu için “marka dışı” olabilecek yanıtları engeller.

Şirket ek olarak Shadow AI dağıtımıyla ilgili artan endişeye de değiniyor. Kuruluşlar, ağlarında yüzlerce yetkisiz AI aracı keşfederek büyük güvenlik boşlukları yaratıyor. Google’ın kırılgan veri koruma teknolojileri, birden fazla bulut sağlayıcısı ve şirket içi sistemlerde tarayarak bunu ele almaya çalışır.

Ölçek Mücadelesi: Bütçe kısıtlamaları ve artan tehditler

Johnston, bütçe kısıtlamalarını Asya Pasifik Cisos’un karşılaşmış olduğu temel güçlük olarak tanımladı ve kuruluşlar tam olarak artan siber tehditlerle karşılaştığında meydana geldi. Paradoks keskin: Hücum hacimleri arttıkça kuruluşlar yeterince cevap verecek kaynaklardan yoksun.

Johnston, “İstatistiklere bakıyoruz ve nesnel olarak diyoruz, daha çok gürültü görüyoruz – süper sofistike olmayabilir, sadece daha çok gürültü daha çok ve bununla başa çıkması daha pahalıya mal oluyor” dedi. Hücum sıklığındaki artış, bireysel saldırılar daha ileri düzeyde olmasa bile, birçok kuruluşun sürdüremeyeceği bir kaynak tahliyesi oluşturur.

Finansal baskı aslına bakarsanız karmaşık bir güvenlik manzarasını yoğunlaştırıyor. Johnston, güvenlik liderlerinin tehditler çoğalırken mevcut kaynaklarla daha fazlasını yapmak için iyi mi montaj baskısıyla karşılaştıklarını açıklayan Johnston, “10 personel daha çok personel kiralamak yada daha büyük bütçeler almak zorunda kalmadan bunu hızlandırmaya destek olabilecek ortaklar arıyorlar” dedi.

Eleştiri sorular kaldı

Google Cloud AI’nın ümit verici kabiliyetlerine karşın, birkaç mühim sual devam ediyor. Savunucuların bu tabanca yarışını hakikaten kazanıp kazanmadığı mevzusunda meydan okuduklarında, Johnston şunları kabul etti: “Bugüne dek AI kullanan yeni saldırılar görmedik”, sadece saldırganların mevcut hücum yöntemlerini ölçeklendirmek ve “saldırının bazı yönlerinde oldukca çeşitli fırsatlar” yaratmak için kullandıklarını belirtti.

Etkinlik iddiaları da araştırma gerektirir. Johnston, vaka raporu yazma hızında% 50’lik bir iyileşme belirterken, doğruluğun bir güçlük bulunduğunu itiraf etti: “Kesinlikle, elbet. Fakat insanoğlu da hata yapıyor.” Onay, mevcut AI güvenlik uygulamalarının devam eden sınırlamalarını vurgulamaktadır.

İleriye bakıyorum: Quantum sonrası hazırlıklar

Mevcut AI uygulamalarının ötesinde, Google Cloud aslına bakarsanız bir sonraki paradigma kaymasına hazırlanıyor. Johnston, firmanın “varsayılan olarak ölçekte veri merkezlerimiz içinde düşlem sonrası kriptografi kullandığını” ve mevcut şifrelemeyi eski haline getirebilecek gelecekteki kuantum informasyon işlem tehditleri için konumlandırdığını deklare etti.

Karar: davranışlarında ölçülü iyimserlik lüzumlu

Suni zekanın siber güvenliğe entegrasyonu hem benzeri görülmemiş bir fırsatı hem de mühim riski temsil eder. Google Cloud tarafınca meydana getirilen AI Technologies, güvenlik açığı tespiti, tehdit analizi ve otomatik yanıtta gerçek kabiliyetler gösterirken, aynı teknolojiler bulgu, toplumsal mühendislik ve kaçırma için gelişmiş kabiliyetlere haiz saldırganları sağlamlaştırır.

Curran’ın değerlendirmesi dengeli bir perspektif sağlar: “Değişen teknolojinin ne kadar süratli geliştiği göz önüne alındığında, kuruluşlar saldırganların önünde kalmak istiyorlarsa daha kapsamlı ve proaktif bir siber güvenlik politikası benimsemek zorunda kalacaklar. Sonuçta, siber saldırılar bir tek tehdit eylemlerine sunulan fırsat sayısını hızlandıracak.

Suni zeka destekli siber güvenliğin başarısı sonunda hızla gelişen teknolojinin kendisine değil, insan nezaretini korurken ve temel güvenlik hijyeni ele alırken bu araçları iyi mi uygulayarak bu araçları iyi mi uyguladığına bağlıdır. Johnston’un sonuçlandırdığı şeklinde, “bu tarz şeyleri düşük riskli yaklaşımlarda benimsemeliyiz” ve toptan otomasyondan ziyade ölçülen uygulama ihtiyacını vurguluyor.

Siber güvenlikte AI devrimi devam ediyor, sadece zafer, yeniliği ihtiyatlı risk yönetimi ile dengeleyebilenlere ilişkin olacak – bir tek en gelişmiş algoritmaları dağıtanlara değil.

Ek olarak bakınız: Google Cloud, güvenlik ekipleri için AI müttefiki açıklıyor

Sanayi liderlerinden suni zeka ve büyük veriler hakkında daha çok informasyon edinmek ister misiniz? Çıkış yapmak AI ve Big Data Fuarı Amsterdam, California ve Londra’da gerçekleşiyor. Kapsamlı etkinlik bir parçası Techex ve öteki önde gelen teknoloji etkinlikleriyle beraber bulunuyor, tıklayın Burada Daha çok informasyon için.

AI haberleri tarafınca desteklenmektedir Techforge Medya. Yaklaşan öteki kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Share post:

Popular

More like this
Related