AI sistemlerinde yanlılığın ele alınması ve uyumun sağlanması

Date:

Firmalar otomatik sistemlere daha çok güvendikçe, etik temel bir kaygı haline gelmiştir. Algoritmalar daha ilkin insanoğlu tarafınca alınan kararları giderek daha çok şekillendirir ve bu sistemlerin iş, kredi, sıhhat ve yasal sonuçlar üstünde tesiri vardır. Bu güç mesuliyet talep ediyor. Açık kurallar ve etik standartlar olmadan, otomasyon haksızlığı güçlendirebilir ve zarar verebilir.

Etik görmezden gelmek, gerçek insanları gerçek yollarla etkisinde bırakır, yalnız kamu itimat derecelerini değiştirmekle kalmaz. Önyargılı sistemler kredileri, işleri yada sıhhat hizmetlerini inkar edebilir ve otomasyon, korkuluk bulunmazsa fena kararların hızını artırabilir. Sistemler yanlış davet yaptığında, niçin itiraz etmek yada nedenini idrak etmek zor olsa gerek ve şeffaflık eksikliği ufak hataları daha büyük sorunlara dönüştürür.

AI sistemlerinde önyargıyı idrak etmek

Otomasyondaki önyargı çoğu zaman verilerden gelir. Tarihsel veriler ayrımcılık içeriyorsa, üstünde eğitilmiş sistemler bu kalıpları tekrarlayabilir. Mesela, iş müracaat sahiplerini taramak için kullanılan bir AI aracı, eğitim verileri geçmiş önyargıları yansıtırsa, adayları cinsiyet, ırk yada yaşa nazaran reddedebilir. Önyargı ek olarak, neyi ölçeceğiniz, hangi iyilikle sonuçlanacağı ve verilerin iyi mi etiketleneceğine dair seçimlerin de çarpık sonuçlar oluşturabileceği tasarıma girer.

Birçok önyargı türü vardır. Örnekleme yanlılığı, bir veri seti tüm grupları temsil etmediğinde gerçekleşirken, etiketleme yanlılığı öznel insan girdisinden gelebilir. Optimizasyon hedefleri yada algoritma türü benzer biçimde teknik seçimler bile neticeleri eğlendirebilir.

Problemler yalnız kuramsal değil. Amazon, adam adayları tercih ettikten sonrasında 2018’de bir işe alım aracı kullanımını bıraktı ve bazı yüz tanıma Sistemlerin renkli insanları Kafkasyalılardan daha yüksek oranlarda yanlış tanımladığı bulunmuştur. Bu tür problemler güvene zarar verir ve yasal ve toplumsal kaygıları artırır.

Bir başka gerçek kaygı de vekil önyargısıdır. Irk benzer biçimde korunan özellikler direkt kullanılmasa bile, posta kodu yada eğitim düzeyi benzer biçimde öteki özellikler stand-in olarak hareket edebilir, doğrusu sistem hala daha varlıklı yada daha yoksul alanlar temelinde girdi yansız görünse bile fark yapabilir. Proxy yanlılığının dikkatli kontrol yapmadan tespit edilmesi zor olsa gerek. Suni zeka sapmalarındaki artış, sistem tasarımında daha çok dikkat gerektirdiğinin bir işaretidir.

Mühim olan standartları karşılamak

Yasalar yetişiyor. AB’nin 2024’te geçen AI Yasası, AI sistemlerini riske nazaran sıralar. Yüksek riskli sistemler, işe alım yada kredi puanlamasında kullanılanlar benzer biçimde, şeffaflık, insan nezarete ve önyargı kontrolleri de dahil olmak suretiyle katı gereksinimleri karşılamalıdır. ABD’de tek bir AI yasası yoktur, sadece düzenleyiciler aktiftir. Eşit İstihdam Fırsatı Komisyonu (EEOC), işverenleri AI odaklı işe alım araçlarının riskleri mevzusunda uyarıyor ve Federal Tecim Komisyonu (FTC) de önyargılı sistemlerin ayrımcılıkla savaşım yasalarını ihlal edebileceğine işaret etti.

Beyaz Saray, AI Haklar Yasası için güvenli ve etik kullanım mevzusunda rehberlik sunan bir plan yayınladı. Bir yasa olmasa da, beş kilit alanı kapsayan beklentiler belirler: güvenli sistemler, algoritmik ayrımcılık korumaları, veri gizliliği, bildirim ve izahat ve insan alternatifleri.

Firmalar ek olarak ABD eyalet yasalarını izlemelidir. California taşındı Algoritmik karar verme sürecini düzenleyinve Illinois, AI video görüşmelerinde kullanılırsa firmaların iş müracaat sahiplerine anlatmasını gerektirir. Buna uymamak para cezaları ve davalar getirebilir.

New York’taki düzenleyiciler artık işe alımda kullanılan AI sistemleri için denetimlere gerekseme duyuyor. Denetimler, sistemin cinsiyet ve ırk gruplarında adil sonuçlar verip vermediğini göstermelidir ve işverenler otomasyon kullanıldığında müracaat sahiplerini de bilgilendirmelidir.

Uyum yalnız cezalardan kaçınmaktan daha fazlasıdır – bununla beraber itimat oluşturmakla da ilgilidir. Sistemlerinin adil ve hesap verebilir bulunduğunu gösterebilen firmaların kullanıcılardan ve düzenleyicilerden destek kazanma olasılığı daha yüksektir.

Adil Sistemler Iyi mi Oluşturulur

Otomasyondaki etik talih eseri olmaz. Planlama, doğru araçlar ve devamlı dikkat gerektirir. Önyargı ve hakkaniyet, sonrasında cıvatalanmamış değil, en başından beri sürece yerleştirilmelidir. Bu, hedeflerin belirlenmesini, doğru verilerin seçilmesini ve masadaki doğru sesleri dahil etmeyi gerektirir.

Bunu iyi yapmak, birkaç temel stratejiyi izlemek anlamına gelir:

Önyargı değerlendirmeleri yapmak

Önyargıyı aşmanın ilk adımı onu bulmaktır. Sistemlerin haksız sonuçlar üretmemesini sağlamak için önyargı değerlendirmeleri gelişimden dağıtıma kadar erken ve çoğunlukla yapılmalıdır. Metrikler, bir grup üstünde ötekilerden daha büyük tesiri olan gruplardaki hata oranlarını yada kararları içerebilir.

Önyargı denetimleri mümkün olduğunda üçüncü taraflar tarafınca yapılmalıdır. İç incelemeler kilit sorunları kaçırabilir yada bağımsızlıktan yoksun olabilir ve nesnel denetim süreçlerinde şeffaflık kamu itimatını oluşturur.

Değişik veri setlerinin uygulanması

Çeşitli eğitim verileri, bilhassa hariç tutulan tüm kullanıcı gruplarından, bilhassa hariç tutulan örnekleri dahil ederek önyargıyı azaltmaya destek verir. Çoğunlukla adam sesleri mevzusunda eğitilmiş bir ses asistanı hanımefendiler için fena çalışacaktır ve düşük gelirli kullanıcılar hakkında verileri olmayan bir kredi puanlama modeli bu tarz şeyleri yanlış değerlendirebilir.

Veri çeşitliliği ek olarak modellerin gerçek dünyadaki kullanıma uyum sağlamasına destek verir. Kullanıcılar değişik geçmişlerden gelir ve sistemler bunu yansıtmalıdır. Coğrafi, kültürel ve dilsel çeşitlilik tüm önemlidir.

Çeşitli veriler tek başına kafi değildir-aynı zamanda doğru ve iyi etiketli olmalıdır. Çöp, çöp çıkışı hala geçerlidir, bundan dolayı ekiplerin hataları ve boşlukları denetim etmeleri ve düzeltmeleri gerekir.

Tasarımda kapsayıcılığı teşvik etmek

Kapsayıcı tasarım etkilenen insanları ihtiva eder. Geliştiriciler, kullanıcılara, bilhassa de zarar riski altında olanlara (yada önyargılı suni zeka kullanarak zarar verebilecekler) danışmalıdır, zira bu kör noktaları ortaya çıkarmaya destek verir. Bu, ürün incelemelerinde savunuculuk grupları, sivil haklar uzmanları yada mahalli toplulukların dahil edilmesi anlamına gelebilir. Şikayetler girdikten sonrasında değil, sistemlerin yayınlanmasından ilkin dinlemek anlamına gelir.

Kapsayıcı tasarım bununla beraber disiplinler arası takımlar anlamına gelir. Etik, hukuk ve toplumsal bilimlerden sesler getirmek karar vermeyi iyileştirebilir, zira bu ekiplerin değişik sorular sorma ve riskleri belirleme olasılığı daha yüksektir.

Takımlar da çeşitli olmalıdır. Değişik yaşam deneyimlerine haiz insanoğlu değişik mevzuları ortaya koyar ve benzeşik bir grup tarafınca inşa edilen bir sistem, başkalarının yakalayacağı riskleri göz ardı edebilir.

Hangi firmalar doğru yapıyor

Bazı firmalar ve ajanslar AI yanlılığını ele almak ve uyumluluğu çoğaltmak için adımlar atıyor.

2005-2019 yılları aralığında Hollanda Vergisi ve Gümrük İdaresi, ortalama 26.000 aileyi hileli bir halde çocuk bakımı faydalarını talep etmekle suçladı. Dolandırıcılık tespit sisteminde kullanılan bir algoritma, ikili milliyetleri ve düşük gelirleri olan orantısız olarak hedeflenen aileler. Fallout, 2021’de halkın patlamasına ve Hollanda hükümetinin istifasına yol açtı.

LinkedIn, iş tavsiye algoritmalarında cinsiyet yanlılığı üstünde araştırma ile karşı karşıya kaldı. MIT’den Araştırma Ve öteki kaynaklar, kısmen kullananların işler için iyi mi başvurduklarındaki davranış kalıpları sebebiyle adamların daha yüksek ücretli liderlik rolleriyle eşleştirilme olasılığının daha yüksek bulunduğunu buldu. Cevap olarak LinkedIn, daha temsili bir aday havuzu sağlamak için ikincil bir AI sistemi uyguladı.

Başka bir örnek New York City Otomatik İstihdam Karar Aracı (AEDT) Yasası1 Ocak 2023’te yürürlüğe giren, 5 Temmuz 2023’ten itibaren icra ile yürürlüğe giren yasa, işverenleri ve istihdam ajanslarını, bir senelik kullanımda bağımsız bir önyargı denetimi yapmak için işe alım yada tanıtım için otomatik araçlar kullanmayı gerektirir, sonuçların bir özetini açıklar ve adaylara daha çok saydam olarak minimum 10 iş günü evvelinde bildirir ve adil bir halde aday olmayı amaçlamaktadır.

Bir sıhhat sigortası olan Aetna, iç inceleme ve bazı modellerin daha düşük gelirli hastalar için daha uzun gecikmelere yol açtığını buldu. Şirket, verilerin ağırlıklı bulunduğunu değiştirdi ve bu boşluğu azaltmak için daha çok nezaret ekledi.

Örnekler, AI yanlılığının ele alınabileceğini, sadece çaba, açık hedefler ve kuvvetli hesap verebilirlik gerektirdiğini göstermektedir.

Buradan nereye gidiyoruz

Otomasyon kalmak için burada, sadece sistemlere itimat, sonuçların adilliğine ve açık kurallara bağlı. Suni zeka sistemlerindeki önyargı zarar ve yasal riske niçin olabilir ve uyum denetim edilecek bir kutu değildir – bu işleri doğru yapmanın bir parçasıdır.

Etik otomasyon farkındalıkla adım atar. Kuvvetli veriler, tertipli testler ve kapsayıcı tasarım gerektirir. Yasalar destek olabilir, sadece gerçek değişiklik şirket kültürüne ve liderliğe de bağlıdır.

(Fotoğraf Pixabay)

Ek olarak bakınız: Orta Doğu Niçin Global Tech Investments için Sıcak Bir Yer

Sanayi liderlerinden suni zeka ve büyük veriler hakkında daha çok informasyon edinmek ister misiniz? Çıkış yapmak AI ve Big Data Fuarı Amsterdam, California ve Londra’da gerçekleşiyor. Kapsamlı etkinlik, öteki önde gelen etkinliklerle beraber toplanır. Akıllı Otomasyon KonferansıBlockx Dijital Dönüşüm HaftasıVe Siber Güvenlik ve Bulut Fuarı.

Techforge tarafınca desteklenen öteki yaklaşan kurumsal teknoloji etkinliklerini ve web seminerlerini keşfedin Burada.

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Share post:

Popular

More like this
Related