Küçük bir kız çocuğu yapay zeka nedeniyle öldü

Japonya'nın Mie bölgesinde yetkililer, küçük kızın vücudunda görünen morluklara rağmen, yapay zekanın görüşüne başvurmaya ve küçük kıza geçici alternatif bakım sağlamamaya karar verdi

Önerdiği sonuçları irdeleyen düzenleyici kısıtlamalar olmadan yapay zekaya başvurmak, birçok soruna yol açabilir / Görsel: BX

Düzenleyici kısıtlamalar ve önerdiği sonuçları inceleyen yasalar olmadan yapay zekaya başvurmak, onun tavsiyesine uyanların ölümüne yol açabilecek birçok sorunu gündeme getiriyor.

2019'da Japonya'nın Mie bölgesindeki çocuk koruma danışma merkezleri, çocuklarını ihmal etmeleri veya onlara şiddet uygulamaları durumunda çocukları ebeveynlerinden veya yasal vasilerinden uzakta geçici koruyucu bakıma yerleştirme kararına varmaya yardımcı olacak olan yapay zekaya dayalı bir sistemi denemeye başladı.

fazla oku

Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)

Akıllı modelin geliştirilmesi, çocukların aileleriyle kalmasına rağmen istismar belirtileri göstermeleri ve sonrasında ölmeleri nedeniyle gerçekleşti.

Deneyde, danışmanlar çocukların ve aile üyelerinin yaşları gibi temel bilgilerin yanı sıra kafa, yüz veya karındaki morluklar gibi diğer risk değerlendirme verilerini bilgisayarlara girdi.

Gerekli tüm bilgileri girdikten sonra yapay zeka sistemi, olası suistimal sıklığını hesaplar, istişareler için kaç gün gerektiğine ve davanın geçici önleyici gözaltı gerektirip gerektirmediğine karar verir.

Merkezdeki yetkililer, yapay zeka tarafından yapılan değerlendirmeleri inceledikten sonra, çocukların geçici olarak koruyucu bakıma alınıp alınmayacağına dair nihai bir karar verir.

Deney, yaklaşık 8 ay boyunca devam etti ve bölgedeki yetkililer, yapay zekanın merkez personelinin yükünü hafiflettiği ve bazı çocukların en yakınları tarafından maruz kaldığı istismara uygun değerlendirmeler sunduğu sonucuna vardı.

Ama sonunda, çocukları korumak için tasarlanmış bu yapay zekanın, özellikle ilk ve son karar verici olduğunu kabul edip görevimizi ihmal edersek, onları bilinmeyen bir kadere sürükleyebiliriz.

Bunun son örneği Japonya'da yaşandı. Japan Times da dahil olmak üzere birçok gazete ve internet sitesinde yer alan bir olayda, sadece dört yaşında olan bir kızın korkunç sonuna dikkat çekildi.

Çünkü yetkililer, bu teknolojinin görüşüne başvurmaya karar verdi ve yapay zekanın vardığı hükümden farklı bir gerçeği gözler önüne seren açık işaretleri görmezden geldi.

Şu ana kadar olayla ilgili çok fazla detay açıklığa kavuşmadı, ancak gazeteye göre yapay zeka sisteminin kısmen onayladığı bir kararla, 2022 yılında kızın geçici koruyucu bakıma alınmamasına karar verildi. Daha sonra annesi tarafından şiddete uğrayan küçük kız çocuğu vefat etti.

Geçen haziran ayında, 42 yaşındaki anne, kızında ölümcül yaralar oluşturmakla suçlanarak ilçe polisi tarafından tutuklandı.
 


Yapay zeka sistemi, bu durumda geçici koruyucu bakımı önermeye yeterli kanıt bulamadı ve geçici bakımın yalnızca yüzde 39 üzerinde bir olasılıkla gerçekleşebileceğini belirtti.

Bu nedenle, yetkililer durumu izlemeye karar verdiler, ancak küçük kızı geçici koruyucu bakıma almadılar. Anne, çocuk koruma danışma merkezi çalışanlarının talimatlarına uyacağını söyledi.

Mie Valisi Katsuyuki Ichimi, bir hafta önce düzenlediği basın toplantısında şu açıklamalarda bulundu:

Bu tür vakalarla ilgilenen yetkililerin aldığı kararlar çok önemli. Yapay zeka sisteminin gösterdiği rakamlar bir ölçüm aracından başka bir şey değildir. Yapay zeka sisteminin karar vermek için kullandığı yöntemin yüzde yüz uygun olduğu konusunda şu anda kesin bir şey söyleyemeyiz. Davayla ilgili olarak, dışarıdan uzmanlardan oluşan bir heyet davayı inceleyecek.


Mie ilçe başkanlığı, çocuk danışma merkezlerinin ev gözlemi altındaki tüm çocukların güvenliğini doğrudan ziyaretler yoluyla kontrol etmesi için bir plan başlattığını duyurdu.

Ölen çocukla ilgili olarak, çocuk danışma merkezi personelinin yaklaşık bir yıldır onun güvenliğini kontrol etmediği bildirildi.

Aslında bu olay, yapay zekanın genel olarak yaptığı ve yapacağı hatalarla ilgili buzdağının yalnızca görünen kısmıdır.

Bu teknoloji, insanlığa pek çok risk sunuyor. Otomasyon nedeniyle iş kaybı, toplumların izlenmesi, etnik ve cinsiyet temelli önyargılar, sosyal ve ekonomik eşitsizliklerin artması, ahlaki değerlerin gerilemesi, savaş amaçlı yapay zeka destekli otonom silahlara yapılan yatırımların artması ve bu algoritmalar nedeniyle yaşanan finansal krizler gibi riskler uzun bir liste oluşturuyor ve gerçekten de ciddi bir endişe kaynağı olarak karşımıza çıkıyor.

Bununla birlikte, yapay zekanın kendisi, özellikle de yapay zekanın gelecekte geliştirebileceği yeteneklerin henüz çok erken bir aşamada olduğunu belirtiyor.

Sonuç olarak, bu teknolojinin liderlik rolünü ne zaman üstleneceğimize ve uzak tutmak istediğimiz alanları nerede tutacağımıza biz karar vereceğiz.

Çünkü hepimiz hatalar ve hatta aptallıklar yapıyoruz, yapay zeka da aynı şekilde.

 

DAHA FAZLA HABER OKU