Yazılar

Yapay Zekaya (AI) Güveni Ölçme

Araştırmacılar, halkın AI’ya olan güveninin uygulamaya bağlı olarak büyük ölçüde değiştiğini buluyor.

Toplumda yapay zekanın (AI) artan önemiyle harekete geçen Tokyo Üniversitesi araştırmacıları, halkın AI etiğine yönelik tutumlarını araştırdı. Bulguları, farklı demografik ve etik senaryoların bu tutumları nasıl etkilediğini ölçmektedir. Ekip, bu çalışmanın bir parçası olarak, çalışmalarının halk tarafından nasıl algılanabileceğini bilmek isteyen AI araştırmacıları için faydalı olabilecek, derecelendirme sistemine benzer sekizgen bir görsel metrik geliştirdi.

Pek çok insan, teknolojinin hızlı gelişiminin, hukuk veya etik gibi, onu dolaylı olarak yönlendiren ve düzenleyen sosyal yapılarınkinden genellikle daha fazla olduğunu düşünüyor. AI, görünüşte bir gecede pek çok kişi için günlük yaşamda çok yaygın hale geldiğinden, özellikle buna örnektir. Bu çoğalma, AI’nın daha tanıdık teknolojiye kıyasla göreceli karmaşıklığı ile birleştiğinde, modern yaşamın bu temel bileşenine yönelik korku ve güvensizlik yaratabilir. AI teknolojisinin geliştiricileri ve düzenleyicileri için kimlerin AI’ya güvenmediğini ve hangi şekillerde bilmek yararlı olacağı konuları, ancak bu tür soruları ölçmek kolay değildir.

Kavli Fizik ve Evrenin Matematiği Enstitüsü’nden Profesör Hiromi Yokoyama liderliğindeki Tokyo Üniversitesi’ndeki araştırmacılar, halkın AI etrafındaki etik konulara yönelik tutumlarını ölçmek için yola çıktılar. Ekip, özellikle anketlerin analizi yoluyla yanıtlamaya çalıştığı iki soru vardı: yanıtlayana sunulan senaryoya bağlı olarak tutumların nasıl değiştiği ve yanıtlayanın demografisinin tutumları nasıl değiştirdiği.

Etik gerçekten niceliklendirilemez, bu nedenle yapay zeka etiğine yönelik tutumları ölçmek için ekip, etik soruları gündeme getiren birçok yapay zeka uygulamasında ortak sekiz tema kullandı: mahremiyet, hesap verebilirlik, güvenlik ve güvenlik, şeffaflık ve açıklanabilirlik, adalet ve ayrımcılık yapmama, insan teknolojinin kontrolü, mesleki sorumluluk ve insani değerlerin teşviki. Grubun “sekizgen ölçüleri” olarak adlandırdığı bu ölçümler, Harvard Üniversitesi’nden araştırmacı Jessica Fjeld ve ekibinin 2020 tarihli bir makalesinden ilham aldı.

Ankete katılanlara, bu sekiz kritere göre karar vermeleri için bir dizi dört senaryo verildi. Her senaryo, farklı bir AI uygulamasına baktı. Bunlar: AI tarafından oluşturulan sanat, müşteri hizmetleri AI, otonom silahlar ve suç tahmini.

Ankete katılanlar ayrıca araştırmacılara yaş, cinsiyet, meslek ve eğitim düzeyi gibi kendileri hakkında bilgiler ve ek bir dizi soru aracılığıyla bilim ve teknolojiye ilgi düzeylerinin bir ölçüsünü verdi. Bu bilgi, araştırmacıların insanların hangi özelliklerinin belirli tutumlara karşılık geldiğini görmeleri için gerekliydi.

“Önceki çalışmalar, riskin kadınlar, yaşlılar ve daha fazla konu bilgisine sahip kişiler tarafından daha olumsuz algılandığını göstermiştir. Yapay zekanın ne kadar yaygın hale geldiği göz önüne alındığında bu ankette farklı bir şey görmeyi bekliyordum, ancak şaşırtıcı bir şekilde burada benzer eğilimleri gördük” dedi Yokoyama. “Ancak, beklediğimiz bir şey, farklı senaryoların nasıl algılandığıydı ve AI silahları fikri diğer üç senaryodan çok daha fazla şüpheyle karşılandı.”

Ekip, sonuçların AI etrafındaki etik sorunları ölçmek ve karşılaştırmak için bir tür evrensel ölçeğin oluşturulmasına yol açabileceğini umuyor. Bu anket Japonya ile sınırlıydı, ancak ekip diğer birçok ülkede veri toplamaya başladı bile.

Yardımcı Doçent Tilman Hartwig, “Evrensel bir ölçekle araştırmacılar, geliştiriciler ve düzenleyiciler belirli AI uygulamalarının veya etkilerinin kabulünü daha iyi ölçebilir ve buna göre hareket edebilir” dedi. “Senaryoları ve anketi geliştirirken keşfettiğim bir şey, yapay zekadaki birçok konunun sandığımızdan çok daha fazla önemli açıklama gerektirmesidir. Bu, yapay zeka söz konusu olduğunda algı ve gerçeklik arasında büyük bir boşluk olduğunu gösteriyor.”

İlgili Makaleler

Bir cevap yazın

E-posta hesabınız yayımlanmayacak.

Başa dön tuşu