Yapay zeka, güvenlik, mahremiyet ve özgürlük için ciddi tehditler oluşturuyor

Canan Duman Independent Türkçe için yazdı

Görsel: Pinterest

Birleşmiş Milletler (BM) İnsan Hakları Yüksek Komiseri Michelle Bachelet, eylül ayında yeterli önlemler alınana kadar insan hakları için ciddi bir risk oluşturan yapay zeka (AI) sistemlerinin satışı ve kullanımı konusunda acilen bir moratoryuma ihtiyaç olduğunu vurguladı.

Uluslararası insan hakları hukukuna uygun olarak kullanılamayan yapay zekâ uygulamalarının yasaklanması çağrısında da bulundu.


Bachelet; "Yapay zeka, toplumların zamanımızın bazı büyük zorluklarını aşmasına yardımcı olabilir. Ancak AI teknolojileri, insanların insan haklarını nasıl etkilediklerine yeterince dikkat edilmeden kullanılırsa olumsuz, hatta felaket etkileri olabilir. Yapay zekanın hızlı ve sürekli büyümesi göz önüne alındığında, verilerin nasıl toplandığı, depolandığı, paylaşıldığı ve kullanıldığı konusundaki muazzam sorumluluk boşluğunu doldurmak, karşı karşıya olduğumuz en acil insan hakları sorunlarından biridir" dedi.

Bachelet tarafından dile getirilen gizliliğe yönelik yapay zeka risklerinin acil eylem gerektirmesi uzunca bir zamandır dünyada tartışılıyor. Artık fiziksel ve zihinsel hayatımızın ve hatta duygusal durumlarımızın neredeyse her köşesine ulaşan bir yapay zekadan söz ediyoruz. 


AI etik kuralları tartışılmaya devam edecek 

Hayatımızı sürdürmek için ihtiyaç duyduğumuz sistemler, giderek daha fazla işlev görecek algoritmalara dayanıyor. Yapay zeka, her pazarlama adımına ve her ticari yazılım parçasına sızıyor.

Gıda dağıtımı, tedarik zincirleri, sağlık hizmetleri, yakıt, bankacılık ve diğerleri hepimizi etkileyecek şekilde giderek daha otomatik hâle geliyor. Ancak bu dönüşümü gerçekleştiren insanlar, hepimizi temsil etmediği gibi tüm ihtiyaçlarımızı eşit olarak düşünmüyorlar. 

Bir yandan dünyanın karmaşık sivil ve kurumsal sistemleri geliştirilirken diğer yandan bireysel ya da gruplar hâlinde yaptığımız her şeyi izliyorlar. Bizler de sınırlı, sınırsız veya gözetimsiz kullanımlara izin vererek kaçınılmaz olan insan hakları ihlallerinin önünü açıyoruz. 

Algoritmaların ihtiyaçlarına cevap verirken nasıl yaşadığımız, nasıl çalıştığımız, nasıl iş birliği yaptığımız, kültürel ve coğrafi özelliklerimiz, cinsiyet ve etnik kimliğimiz, gelirimiz, dünyanın neresinde olduğumuza ve ne yapmak istediğimize bağlı olarak çok fazla bilgiye erişim imkânı sağlıyoruz. 

Bilgisayar bilimi ve yapay zekâ toplulukları, algoritmalarının toplumları etkileyeceğinden yola çıkarak etik kurallar geliştirmeye çalışıyor.

Örneğin Avrupa Birliği, AI etik ilkelerini geliştirdi. Ayrıca Ekonomik İş Birliği ve Kalkınma Teşkilatı (OECD) tarafından hazırlanmış bir dizi ilke de bulunuyor. Belirlenen ilkeler, AI ve otomatik veri odaklı sistemlerden kaynaklanan eşitsizliği gidermeye çalışıyor. 

Ancak AI ile ilgili endişeler, AI sistemlerinin değer ve yasalara uygun bir şekilde tasarlanmasını sağlamak için hükümetler üzerinde bir sorumluluğu ortaya koyuyor. Çünkü güvenlik ve mahremiyet her şeyden önemli.

Bununla birlikte, etik kuralların tümü kültürel ve sosyal farklılıkları tanımakta başarısız. Yapay zeka hem "insan" hem de "etik insan davranışının" ne olduğu hakkında genel varsayımlarda bulunuyor. 

AI'yı yönlendiren ve karar verdiren yönergeler "etik davranış kime ve neye göre uygulandı?" sorusunu sorduruyor.

Belki de veriler insanlığın bir yansıması olduğu için durum böyledir… Ancak kesin olan bir şey var ki her toplum farklı olduğu için AI algoritmaları ve otomatikleştirilmiş işlemler dünya çapında eşit derecede çalışmayacak. 


Kültürlerarası araştırmalara ihtiyaç duyulacak 

Neredeyse her büyük teknoloji şirketi AI'nın toksisite sorununu çözmek için büyük yatırımlar yapıyor. Ancak pek bir yere varmış değiller. Belki de kafalarını kuma gömmüş satıcılar, önyargıyı ortadan kaldırabileceklerini iddia etmeye çalışıyor. 

AI ile nereye gittiğimizi kimse bilmiyor. Gizlilik, şeffaflık, önyargı yönetimi, açıklanabilirlik, adalet, doğruluk, veri güvenliği ve hesap verebilirlik, akıllı araçların dağıtımında birincil sorular olarak karşımıza çıkıyor. 

Görülüyor ki teknoloji şirketlerinin AI laboratuvarları sosyal bilime ve kültürlerarası araştırmalara ihtiyaç duyacak. Çözmek istedikleri teknolojik problemlerle birlikte ortaya çıkan sosyal ve kültürel karmaşıklıkları anlamak zaman alacak ve eğitim gerektirecek. 


Şirketler için de AI etiği konusu kritik hâle gelecek 

İşverenler tarafından çalışanlarını işe almak, değerlendirmek, yönetmek, koçluk yapmak, geliştirmek gibi alanlarda yapay zeka tercih ediliyor. Şirketler için de AI etiği konusu kritik hâle gelecek konulardan biri olacak. Her İK departmanının bir etik organizasyonuna ihtiyacı olacak.

Çünkü şirketlerine tam olarak ne yapacağını bilmedikleri araçlar kuracaklar. Ve bu araçlar, şirketlerindeki insanların yaşamlarına ve geçim kaynaklarına girdi olacak.

Özellikle dijitalleşen insan kaynakları süreçlerinde AI tarafından çalışanların kişisel bilgilerinin kullanılması ve AI kararların adilliğine olan güven sorgulanacak. 


İnsanlara zarar gelmesini önleme sorununu çözelim

Yapay zekâ, insanların toplu hâlde ve gruplar hâlinde (antropoloji ve sosyoloji), bunun yanı sıra bireysel olarak kim olduğumuzu (psikoloji) ve bireysel beyinlerimizin nasıl çalıştığını (bilişsel bilim) anlayarak ve şu anki düşünceye göre bir anlayışla karmaşıklıklara karşı kendisini geliştirmek zorunda kalacak; bu süreç, küresel etik ve sürece karşılık gelen felsefe ve yasalar ile de desteklenecek. 

Yapay zekanın düzenlenmesindeki asıl sorun, teknolojinin yasal sistemlerden daha hızlı hareket etmesi. Hukuk bize ne yapamayacağınızı söylüyorsa, etik, yapılacak doğru şeyin ne olduğunu bulmamızı sağlayacak.

AI bizi yapılacak doğru şeyin ne olduğuna çok dikkatli bakmaya zorlayacak. İnsan hakları bariyerleri koymak için şimdi harekete geçmek gerekecek. 

 

 

*Bu makalede yer alan fikirler yazara aittir ve Independent Türkçe'nin editöryal politikasını yansıtmayabilir.

© The Independentturkish

DAHA FAZLA HABER OKU