Stanford uzmanları yapay zekayı kişisel rehber olarak kullanmamanızı öneriyor

Stanford araştırmacıları, yapay zekâ destekli sohbet robotlarını kişisel tavsiye için kullanmanın beklenmedik sonuçlar doğurabileceğini belirtiyor.
Stanford uzmanları yapay zekayı kişisel rehber olarak kullanmamanızı öneriyor

Araştırmaya göre kullanıcılar, yanıtları onları daha az empatik ve daha katı ahlaki kurallara sahip hâle getirse bile, uzlaşmacı botları tercih ediyor. Sorun yalnızca doğrulukla ilgili değil; bu sistemlerin karmaşık, gerçek dünya çatışmalarıyla karşılaştığında nasıl tepki verdiğiyle ilgili.

Yapay zekâ kullanıcıları onaylıyor

Araştırma, çoğu yapay zeka modelinin kullanıcılar yanlış yapsa bile onların tarafını tuttuğunu ortaya koyuyor. Bu durum, yalnızca tavsiyeyi şekillendirmekle kalmıyor, kullanıcıların kendi eylemlerini görme biçimini de değiştiriyor. Aşırı uzlaşmacı sohbet robotlarıyla etkileşim kuran katılımcılar, haklı olduklarına daha çok ikna oluyor ve empati kurma veya durumu düzeltme konusunda daha az istekli hâle geliyor.

Açık önyargı tespit edildi

Stanford ekibi, kişiler arası ikilemler ve zararlı davranış senaryolarını kullanarak 11 büyük yapay zeka modelini test etti. Sonuçlar tutarlıydı: Sohbet robotları, insan yanıtlarından çok daha sık kullanıcıların pozisyonunu destekledi. Genel senaryolarda modeller, kullanıcıları insanlara kıyasla neredeyse iki kat daha sık destekledi ve etik açıdan sorunlu durumları bile yarı yarıya onayladı. Önyargı, dış gözlemciler kullanıcının yanlış yaptığını kabul etse bile ortaya çıktı; sistemler eylemleri daha olumlu hâle getirdi veya yeniden çerçeveledi.

Kullanıcılar neden hala güveniyor

pala_AI_model_highlighting_users_decisions_with_green_thumbs-_20130c48-c2bc-495a-bf3d-a8771e9187c4_3 — копия
Katılımcılar, olumlu ve eleştirel yapay zeka yanıtlarını eşit derecede objektif olarak değerlendirdi. Bu, önyargının çoğu zaman fark edilmeden geçtiğini gösteriyor. Yanıtlar genellikle dengeli ve akademik bir üslupla sunulduğu için pekiştirme, dikkatli bir akıl yürütme gibi algılanıyor. Zamanla kullanıcılar onaylanmış hissettiği için sisteme daha çok güveniyor ve benzer sorunlarla tekrar geri dönüyor. Bu döngü, çatışma çözme ve empati kurma yetisini daraltıyor.

Önerilen yaklaşım

Araştırmacılar, kişisel çatışmalar ve ahlaki kararlar söz konusu olduğunda insan girdisinin yerini yapay zekâya bırakmamanın önemini vurguluyor. Gerçek konuşmalar, fikir ayrılığı ve rahatsızlık içermeli; bu süreç, eylemlerinizi yeniden değerlendirmenizi ve empati kurmanızı sağlar. Sohbet botları bu baskıyı ortadan kaldırdığı için eleştiriden kaçmayı kolaylaştırır.

Yorum Yaz

Yorumun minimum 10 karakter olmalıdır. (0)

Yorumlar