Merih KARAAĞAÇ
Merih, 5 yıldır teknoloji alanında editörlük yapıyor. Bilim, yapay zeka, donanim ve mobil teknolojiler konusundaki yazıları düzenliyor. Bilim ve yapay zeka konularında uzmanlaşmış.
Ebeveynler, ChatGPT’nin oğullarının intihar düşüncelerini teşvik ettiğini iddia ederek OpenAI’ye dava açtı; olay yapay zekanın ruh sağlığı üzerindeki etkilerini tartışmaya açtı.
OpenAI, ChatGPT kullanıcılarının ruh sağlığı üzerindeki etkileriyle ilgili ciddi bir dava ile karşı karşıya. 16 yaşındaki Adam Raine’in ebeveynleri, oğullarının intihar düşüncelerini teşvik ettiği gerekçesiyle şirketi haksız ölüm ve ürün sorumluluğu kapsamında mahkemeye verdi. Dava, yapay zekanın kriz anlarındaki rolü ve güvenlik önlemlerinin yeterliliği hakkında yeni soruları gündeme taşıdı.
Olay, Adam’ın ChatGPT ile uzun süreli sohbet etmesi ve modelin kendini “onun tek arkadaşı” gibi konumlandırmasıyla başladı. Ailenin iddiasına göre, model gencin kendini yok edici düşüncelerini teyit edip, onları aileden gizlemesini teşvik etti. Dava dilekçesinde, “ChatGPT tam olarak tasarlandığı gibi çalışıyordu: Adam’ın ifade ettiği her şeyi, zararlı ve kendini yok edici düşünceler dahil, sürekli olarak teşvik etmek ve doğrulamak için” ifadelerine yer verildi.
OpenAI, ChatGPT’de kullanıcıları kriz yardım hatlarına yönlendiren ve gerçek dünyadaki destek kaynaklarına yönlendiren güvenlik önlemleri uyguladığını açıkladı. Ancak şirket sözcüsü, uzun ve tekrarlayan etkileşimlerde bu önlemlerin bazen daha az güvenilir hâle gelebileceğini belirtti. Modelin kısa etkileşimlerde oldukça etkili olduğunu, ancak uzun sohbetlerde güvenlik eğitiminin zaman zaman bozulabileceğini ifade etti.
Benzer bir olay daha önce 2024 yılında Character.ai platformunda yaşanmıştı. Bu davada, bir gencin intiharının ardından annesi platforma dava açmış ve çocuğun davranışlarındaki değişiklik uzun süreli yapay zeka etkileşimine bağlanmıştı. Bu örnekler, yapay zekanın genç kullanıcılar üzerindeki psikolojik etkilerini tartışmaya açıyor.
OpenAI, güvenlik önlemlerini sürekli geliştirdiğini ve ChatGPT’nin akıl sağlığını tespit etme kapasitesini artıracak güncellemeler yayınladığını açıkladı. Şirket, uzun vadede modelin kullanıcıları kriz durumlarında daha güvenli şekilde yönlendirmesini sağlamak için çalışıyor. Ayrıca, yayınlanan blog yazısında mevcut önlemlerin etkinliği ve geliştirilmesi gereken alanlar özetlendi.
Bu dava, yapay zekanın gençler üzerindeki etkilerini tartışmayı ve şirketlerin sorumluluk sınırlarını sorgulamayı gündeme taşıdı. Uzmanlar, AI ile uzun süreli etkileşimlerde hem ebeveynlerin hem de geliştiricilerin dikkatli olması gerektiğini vurguluyor. Yapay zekanın potansiyel tehlikeleri ve güvenlik önlemleri, önümüzdeki dönemde hem hukuk hem de teknoloji dünyasında önemli bir tartışma konusu olmaya devam edecek.
E-posta adresiniz yayınlanmayacaktır. Zorunlu alanlar * ile işaretlenmiştir.