İşletmenizi yapay zeka tarafından oluşturulan derin sahtekarlıklardan nasıl korursunuz?

Date:

Son zamanlarda siber suçlular, şirketin Hong Kong merkezli çalışanlarını 25,6 milyon ABD doları tutarında havale yapmaya ikna etmek için çok uluslu bir şirketin yöneticilerinin “derin sahte” videolarını kullandı. Çalışanlar, birden fazla deepfake içeren bir video konferans görüşmesine dayanarak, Birleşik Krallık merkezli finans şeflerinin fonların aktarılmasını talep ettiğine inanıyorlardı. Polisin dolandırıcılıkla ilgili 6 kişiyi gözaltına aldığı bildirildi. Yapay zeka teknolojisinin bu şekilde kullanılması tehlikeli ve manipülatiftir. Uygun yönergeler ve çerçeveler mevcut olmadığında, daha fazla kuruluş deepfake gibi yapay zeka dolandırıcılıklarının kurbanı olma riskiyle karşı karşıya kalıyor.

Deepfakes 101 ve yükselen tehditleri

Deepfakes, gerçek bir insanı tasvir ediyormuş gibi görünen, fotoğraflar, videolar ve ses klipleri dahil olmak üzere dijital olarak değiştirilmiş medya biçimleridir. Bunlar, bir yapay zeka sisteminin bir kişinin yer aldığı gerçek klipler üzerinde eğitilmesi ve ardından bu yapay zeka sisteminin gerçekçi (ama orijinal olmayan) yeni medya oluşturmak için kullanılmasıyla oluşturulur. Deepfake kullanımı giderek yaygınlaşıyor. Hong Kong davası, son haftalarda yaşanan bir dizi yüksek profilli deepfake olayının sonuncusuydu. Taylor Swift’in sahte, müstehcen görüntüleri sosyal medyada dolaştı, Pakistan’da tutuklu bir seçim adayının siyasi partisi bir konuşma yapmak için onun derin sahte bir videosunu kullandı ve Başkan Biden’ın derin sahte bir ‘ses klonu’ ön seçmenlere çağrı yaparak onlara yapmamalarını söyledi. oy.

Siber suçlular tarafından daha az dikkat çeken deepfake kullanımı vakaları da hem ölçek hem de karmaşıklık açısından artıyor. Bankacılık sektöründe siber suçlular artık kullanıcıların kimliğine bürünmek ve fonlarına erişim sağlamak için insanların ses klonlarını kullanarak ses kimlik doğrulamasını aşmaya çalışıyor. Bankalar, deepfake kullanımını tespit etme yeteneklerini geliştirerek ve kimlik doğrulama gereksinimlerini artırarak yanıt verdi.

Siber suçlular aynı zamanda deepfake kullanan ‘hedef odaklı kimlik avı’ saldırılarıyla bireyleri de hedef aldı. Yaygın bir yaklaşım, bir telefon görüşmesinde birinin kimliğine bürünmek için bir ses klonu kullanarak bir kişinin aile üyelerini ve arkadaşlarını kandırmak ve paranın üçüncü taraf bir hesaba aktarılmasını istemektir. Geçtiğimiz yıl McAfee tarafından yapılan bir anket, ankete katılan kişilerin %70’inin, insanlar ile ses klonları arasında ayrım yapabileceklerinden emin olmadıklarını ve ankete katılan kişilerin neredeyse yarısının, aramayı yapan aile üyesinin veya arkadaşının fon taleplerine yanıt vereceğini ortaya çıkardı. Soyulmuş olmak ya da araba kazası geçirmek.

Siber suçlular ayrıca mali ve kişisel ayrıntıları ele geçirmek amacıyla vergi makamları, bankalar, sağlık hizmeti sağlayıcıları ve sigortacılar gibi davranan kişileri de aradı.

Şubat ayında Federal İletişim Komisyonu, aranan tarafın önceden açık rızası alınmadıkça, yapay zeka tarafından üretilen insan seslerini kullanan telefon görüşmelerinin yasa dışı olduğuna karar verdi. Federal Ticaret Komisyonu ayrıca, devlet kurumlarının ve işletmelerinin yapay zeka tarafından taklit edilmesini yasaklayan bir kurala son şeklini verdi ve bireylerin yapay zeka tarafından taklit edilmesini yasaklayan benzer bir kural önerdi. Bu, deepfake’lerle mücadele için dünya çapında uygulanan yasal ve düzenleyici önlemlerin giderek artan listesine ekleniyor.

Deepfake’lere karşı korunun

Çalışanları ve marka itibarını deepfake’lere karşı korumak için liderlerin aşağıdaki adımlara uyması gerekir:

  1. Çalışanları eğitin hem yapay zeka destekli dolandırıcılıklar hem de daha genel olarak yeni yapay zeka yetenekleri ve bunların riskleri hakkında sürekli olarak bilgi alıyoruz.
  2. Kimlik avı kılavuzunu yükseltin Deepfake tehditlerini içerecek şekilde. Pek çok şirket, çalışanlarını kimlik avı e-postaları konusunda zaten eğitmiş ve istenmeyen e-postalar yoluyla şüpheli istekler alındığında dikkatli olmaları konusunda uyarmıştır. Bu tür kimlik avı rehberliği, AI deepfake dolandırıcılıklarını içermeli ve yalnızca metin ve e-postayı değil aynı zamanda video, resim ve sesi de kullanabileceğini unutmamalıdır.
  3. Kimlik doğrulamayı uygun şekilde artırın veya kalibre edin çalışanlar, iş ortakları ve müşteriler. Örneğin, bir kararın veya işlemin hassasiyetine ve riskine bağlı olarak birden fazla kimlik doğrulama modunun kullanılması.
  4. Deepfake’lerin şirket varlıkları üzerindeki etkilerini düşününlogolar, reklam karakterleri ve reklam kampanyaları gibi. Bu tür şirket varlıkları, deepfake’ler kullanılarak kolayca kopyalanabilir ve sosyal medya ve diğer internet kanalları aracılığıyla hızla yayılabilir. Şirketinizin bu riskleri nasıl azaltacağını ve paydaşları nasıl eğiteceğini düşünün.
  5. Daha fazlasını ve daha iyi deepfake’leri bekleyinÜretken yapay zekadaki ilerlemenin hızı, 2024’te devam eden büyük seçim süreçlerinin sayısı ve derin sahtekarlıkların insanlar arasında ve sınırlar ötesinde yayılma kolaylığı göz önüne alındığında.

Deepfake’ler bir siber güvenlik endişesi olsa da şirketlerin bunları aynı zamanda daha geniş yankılara sahip, karmaşık ve yeni ortaya çıkan olgular olarak da düşünmesi gerekiyor. Deepfake sorunlarına yönelik proaktif ve düşünceli bir yaklaşım, paydaşların eğitilmesine ve bunlarla mücadeleye yönelik önlemlerin sorumlu, orantılı ve uygun olmasını sağlamaya yardımcı olabilir.

(Fotoğrafı çeken Markus Spiske)

Ayrıca bakınız: Birleşik Krallık ve ABD, yapay zeka güvenlik testleri geliştirmek için anlaşma imzaladı

Sektör liderlerinden yapay zeka ve büyük veri hakkında daha fazla bilgi edinmek ister misiniz? Çıkış yapmak Yapay Zeka ve Büyük Veri Fuarı Amsterdam, Kaliforniya ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, aşağıdakiler de dahil olmak üzere diğer önde gelen etkinliklerle aynı yerde bulunuyor: BlockX, Dijital Dönüşüm HaftasıVe Siber Güvenlik ve Bulut Fuarı.
TechForge tarafından desteklenen diğer yaklaşan kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.

Etiketler: AI, yapay zeka, deepfake, kurumsal, dolandırıcılık

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Share post:

Subscribe

spot_imgspot_img

Popular

More like this
Related

Halı Çekme İddiaları ve Yatırımcı Kaygıları

ZKasino, ZigZag Borsası'ndan dolandırıcılık suçlamalarıyla karşı karşıya. Kullanıcılar, toplulukta halı...

BlockDAG’ın Ön Satışı, TRON’un Mücadeleleri ve Cardano’nun Growth Coin Sürümü

2024 yılında kripto para birimlerinin dinamik dünyasında BlockDAG, TRON'un...