Ex-Staff ile ilgili sesleri bir araya getiren ‘Openai Dosyaları’ raporu, dünyanın en mühim AI laboratuvarının kâr için güvenliğe ihanet ettiğini iddia ediyor. Suni zekanın tüm insanlığa hizmet etmesini sağlamak için asil bir arayış olarak süregelen şey, şimdi bir tek başka bir kurumsal dev olma kenarında sallanıyor ve güvenlik ve ahlakı tozda bırakırken çok büyük karları kovalıyor.
Her şeyin merkezinde, orijinal kaide kitabını yırtmak için bir plan var. Openai başladığında, fazlaca mühim bir yemin etti: Yatırımcıların ne kadar para kazanabileceğine dair bir sınır koydu. Dünyayı değiştiren suni zeka yaratmayı başarırlarsa, büyük faydaların bir tek bir avuç milyarder değil, insanlığa akacağı yasal bir garantiydi. Şimdi, bu vaat, görünüşe gore sınırsız getiri isteyen yatırımcıları doyum etmek için silinme eşiğinde.
Openai’yi inşa eden insanoğlu için, bu pivot AI güvenliğinden uzakta derin bir ihanet benzer biçimde geliyor. Eski personel üyesi Carroll Wainwright, “Kâr amacı gütmeyen vazife, riskler yükseldiğinde doğru olanı yapma vaadiydi” diyor. “Şimdi riskler yüksek olduğuna gore, kar amacı gütmeyen yapı terk ediliyor, kısaca vaat sonucunda boştu.”
Derinleştirme Itimat Krizi
Bu derin endişeli seslerin bir çok bir kişiye işaret ediyor: CEO Sam Altman. Endişeler yeni değil. Raporlar, önceki şirketlerinde bile, kıdemli meslektaşlarının “aldatıcı ve kaotik” davranış olarak adlandırdıkları şey için onu kaldırmaya çalıştıklarını gösteriyor.
Aynı güvensizlik duygusu onu Openai’ye kadar takip etti. Firmanın kendi kurucu ortağı Ilya Sutskever, Altman ile beraber senelerce beraber çalışan ve kendi girişimini başlattığından beri ürpertici bir sonuca vardı: “Sam’in AGI düğmesine parmağında olması ihtiyaç duyulan adam bulunduğunu sanmıyorum.” Altman’ın sahtekâr bulunduğunu hissetti ve potansiyel olarak kolektif geleceğimizden görevli biri için korkulu bir kombinasyon olan kaos yarattı.
Eski CTO olan Mira Murati de tedirgin oldu. “Sam’in bizi AGI’ya götürmesi mevzusunda rahat hissetmiyorum” dedi. Altman’ın insanlara ne duymak istediklerini söyleyeceği ve ondan sonra yoluna girdikleri takdirde onları zayıflatacakları toksik bir desen tanımladı. Eski Openai Yönetim Kurulu üyesi Tasha McCauley’in AI güvenlik hisseleri bu kadar yüksek olduğunda “kabul edilemez olması icap ettiğini” söylediğini gösteriyor.
Bu itimat krizinin gerçek dünyadaki neticeleri olmuştur. İçerdekiler, Openai’deki kültürün değiştiğini, AI güvenliğinin mühim çalışmasının “parlak ürünler” i özgür bırakmaya arka plana çıkardığını söylüyor. Uzun vadeli güvenlikten görevli takıma liderlik eden Jan Leike, “rüzgara karşı yelken açtıklarını” ve yaşamsal araştırmalarını yapmak için gerekseme duydukları kaynakları elde etmek için savaşım ettiklerini söylemiş oldu.

Başka bir eski çalışan William Saunders, ABD Senatosu’na korkulu bir tanıklık bile verdi ve uzun süreler süresince güvenliğin o denli zayıf bulunduğunu ortaya koydu ki, yüzlerce mühendisin GPT-4 de dahil olmak suretiyle firmanın en gelişmiş AI’sını çalmış olabilir.
Openai’de AI güvenliğine öncelik vermek için umutsuz bir itiraz
Fakat kalanlar bir tek uzaklaşmıyor. Openai’yi orijinal görevi kurtarmak için son hendek çabası olan Openai’yi eşiğinden geri çekmek için bir yol haritası koydular.
Güvenlik kararları üstünde demir kaplı bir veto ile firmanın kar amacı gütmeyen kalbinin yeniden gerçek güç verilmesini istiyorlar. Sam Altman’ın davranışına ilişkin yeni ve kapsamlı bir soruşturma içeren açık, dürüst liderlik talep ediyorlar.
Gerçek, bağımsız nezaret istiyorlar, bu yüzden Openai bir tek AI güvenliği mevzusunda kendi ödevini işaretleyemez. Ve insanların işlerinden yada tasarruflarından korkmadan endişeleri hakkında konuşabilecekleri bir kültür için yalvarıyorlar – ihbarcılar için gerçek bir koruma olan bir yer.
Son olarak, Openai’nin orijinal finansal vaadine bağlı kalması mevzusunda ısrar ediyorlar: kar sınırları kalmalı. Amaç, sınırsız hususi servet değil, kamu yararı olmalıdır.
Bu bir tek bir Silikon Vadisi şirketindeki dahili drama ile ilgili değil. Openai, dünyamızı zor bela hayal edebileceğimiz şekilde tekrardan şekillendirebilecek bir teknoloji inşa ediyor. Eski çalışanlarının hepimizi sormaya zorladığı sual kolay fakat derin bir sual: Geleceğimizi oluşturmak için kime güveniyoruz?
Eski yönetim kurulu üyesi Helen Toner kendi deneyiminden uyardığı benzer biçimde, “para hattındayken iç korkazlar kırılgandır”.
Şu anda, Openai’nin en iyisini bilen insanoğlu bizlere bu güvenlik korkuluklarının kırıldığını söylüyorlar.
Ek olarak bakınız: AI benimseme olgunlaşır, sadece dağıtım engelleri kalır
Sanayi liderlerinden suni zeka ve büyük veriler hakkında daha çok data edinmek ister misiniz? Çıkış yapmak AI ve Big Data Fuarı Amsterdam, California ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, öteki önde gelen etkinliklerle beraber toplanır. Akıllı Otomasyon Konferansı– Blockx– Dijital Dönüşüm HaftasıVe Siber Güvenlik ve Bulut Fuarı.
Techforge tarafınca desteklenen öteki yaklaşan kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.