OpenAI beş gizli etki operasyonunu sekteye uğrattı

Date:

Son üç ayda, OpenAI şirketin modellerini çevrimiçi aldatıcı faaliyetler için kullanmaya çalışan beş gizli etki operasyonunu (IO) sekteye uğrattı. Mayıs 2024 itibarıyla bu kampanyalar, OpenAI hizmetleri nedeniyle izleyici etkileşiminde veya erişimde önemli bir artış göstermedi.

OpenAI, yapay zeka modellerini güvenliği göz önünde bulundurarak tasarlama konusundaki kararlılığının, tehdit aktörlerinin istenen içeriği oluşturma girişimlerini sıklıkla engellediğini iddia ediyor. Ayrıca şirket, yapay zeka araçlarının OpenAI’nin araştırmalarının verimliliğini artırdığını söylüyor.

Dağıtım platformları ve açık kaynak topluluğu tarafından yapılan ayrıntılı tehdit raporlaması, IO ile mücadeleye önemli ölçüde katkıda bulunmuştur. OpenAI, daha geniş paydaş topluluğu arasında bilgi paylaşımını ve en iyi uygulamaları teşvik etmek için bu bulguları paylaşıyor.

Gizli IO’yu bozma

Geçtiğimiz üç ayda OpenAI, modellerini kısa yorumlar oluşturmak, sahte sosyal medya profilleri oluşturmak, açık kaynak araştırması yürütmek, basit kodda hata ayıklamak ve metinleri çevirmek gibi çeşitli görevler için kullanarak birçok IO operasyonunu kesintiye uğrattı.

Kesintiye uğrayan belirli operasyonlar şunları içerir:

  • Kötü dilbilgisi: Rusya’dan Ukrayna, Moldova, Baltık Devletleri ve ABD’yi hedef alan daha önce bildirilmemiş bir operasyon. Bu grup, bir Telegram botunu çalıştırmak için kod hatalarını ayıklamak ve Telegram’da yayınlanan Rusça ve İngilizce siyasi yorumlar oluşturmak için OpenAI’nin modellerini kullandı.
  • İkiz: X ve 9GAG gibi platformlarda birden fazla dilde yorum üreten, makaleleri çeviren ve düzenleyen, manşetler oluşturan ve haber makalelerini Facebook gönderilerine dönüştüren bir başka Rus operasyonu.
  • Spamflaj: Kamuya açık sosyal medya aktivite araştırması için OpenAI modellerini kullanan, çeşitli dillerde metinler üreten ve veritabanları ile web sitelerini yönetmek için kodlarda hata ayıklama yapan bir Çin ağı.
  • Uluslararası Sanal Medya Birliği (IUVM): Bağlantılı bir web sitesinde yayınlanan uzun biçimli makaleleri, başlıkları ve web sitesi etiketlerini üreten ve çeviren bir İran operasyonu.
  • Sıfır Zeno: Instagram, Facebook, X ve bağlı web siteleri de dahil olmak üzere birden fazla platformda yayınlanan makaleler ve yorumlar üreten operasyonlara sahip, İsrail’de ticari bir şirket.

Bu operasyonların yayınladığı içeriklerde Rusya’nın Ukrayna’yı işgali, Gazze çatışması, Hindistan seçimleri, Avrupa ve ABD siyaseti ve Çin hükümetine yönelik eleştiriler gibi çeşitli konulara odaklanıldı.

Bu çabalara rağmen bu operasyonların hiçbiri OpenAI modelleri sayesinde izleyici etkileşiminde önemli bir artış göstermedi. Gizli IO’nun etkisini değerlendiren Brookings’in Koparma Ölçeği kullanıldığında, beş operasyonun hiçbiri 2’den yüksek puan almadı, bu da birden fazla platformda faaliyet olduğunu ancak özgün topluluklara bir kopuş olmadığını gösteriyor.

Saldırgan eğilimleri

Bu nüfuz operasyonlarına ilişkin araştırmalar çeşitli eğilimleri ortaya çıkardı:

  • İçerik üretimi: Tehdit aktörleri, insan operatörlerin tek başına başarabileceğinden daha az dil hatasıyla büyük miktarda metin oluşturmak için OpenAI hizmetlerini kullandı.
  • Eski ve yeniyi karıştırmak: Yapay zeka, manuel olarak yazılan metinler veya kopyalanan memler gibi geleneksel formatların yanı sıra kullanıldı.
  • Sahte nişan: Bazı ağlar, etkileşim görüntüsü yaratmak için kendi gönderilerine yanıtlar oluşturdu, ancak hiçbiri gerçek etkileşimi çekmeyi başaramadı.
  • Verimlilik artışları: Tehdit aktörleri üretkenliği artırmak, sosyal medya gönderilerini özetlemek ve kodlarda hata ayıklamak için yapay zekayı kullandı.

Savunma trendleri

OpenAI’nin araştırmaları sektör paylaşımından ve açık kaynak araştırmalarından yararlandı. Savunma önlemleri şunları içerir:

  • Savunma tasarımı: OpenAI’nin güvenlik sistemleri, tehdit aktörleri üzerinde sürtüşmeler yaratarak çoğu zaman onların istenen içeriği oluşturmasını engelledi.
  • Yapay zekayla geliştirilmiş soruşturma: Yapay zeka destekli araçlar, tespit ve analiz verimliliğini artırarak araştırma sürelerini haftalar veya aylardan günlere indirdi.
  • Dağıtım önemlidir: Geleneksel içerik gibi IO içeriğinin de hedef kitleye ulaşması için etkili bir şekilde dağıtılması gerekir. Çabalarına rağmen kesintiye uğrayan operasyonların hiçbiri önemli bir etkileşim sağlayamadı.
  • Endüstri paylaşımının önemi: Tehdit göstergelerinin sektördeki benzerleriyle paylaşılması, OpenAI’deki aksaklıkların etkisini artırdı. Şirket, daha geniş araştırma topluluğu tarafından yıllarca süren açık kaynak analizinden yararlandı.
  • İnsan unsuru: Tehdit aktörleri yapay zekayı kullanmalarına rağmen sosyal medya ve web sitelerinde OpenAI modellerinden ret mesajları yayınlamak gibi insan hatalarına eğilimliydi.

OpenAI, güvenli ve sorumlu yapay zeka geliştirmeye adanmışlığını sürdürdüğünü söylüyor. Bu, modellerin güvenliği göz önünde bulundurarak tasarlanmasını ve kötü niyetli kullanıma karşı proaktif olarak müdahale edilmesini içerir.

OpenAI, gizli etki operasyonları gibi çok platformlu suiistimalleri tespit etmenin ve engellemenin zor olduğunu kabul ederken, tehlikeleri azaltmaya kararlı olduğunu iddia ediyor.

(Fotoğrafı çeken Chris Yang)

Ayrıca bakınız: AB, Yapay Zeka Yasasını uygulamak ve yeniliği teşvik etmek için ofis açtı

Sektör liderlerinden yapay zeka ve büyük veri hakkında daha fazla bilgi edinmek ister misiniz? Çıkış yapmak Yapay Zeka ve Büyük Veri Fuarı Amsterdam, Kaliforniya ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, aşağıdakiler de dahil olmak üzere diğer önde gelen etkinliklerle aynı yerde bulunuyor: Akıllı Otomasyon Konferansı, BlockX, Dijital Dönüşüm HaftasıVe Siber Güvenlik ve Bulut Fuarı.

TechForge tarafından desteklenen diğer yaklaşan kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.

Etiketler: yapay zeka, yapay zeka, üretken yapay zeka, etki operasyonları, openai

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Share post:

Subscribe

spot_img

Popular

More like this
Related