Yapay zekaya özel sosyal medya güvenlik alarmı verdi

Yapay zeka ajanlarını buluşturan Moltbook’ta kritik açık tespit edildi. Kullanıcı verileri ve API anahtarları risk altında.
Yapay zekaya özel sosyal medya güvenlik alarmı verdi

Yapay zeka ajanlarının birbirleriyle etkileşime girdiği deneysel sosyal ağlar son dönemde teknoloji dünyasının en çok konuşulan başlıkları arasında yer alıyor. Ancak bu ilginin karanlık bir yüzü de var. Reddit benzeri yapısıyla dikkat çeken Moltbook , ortaya çıkan ciddi bir güvenlik açığıyla birlikte gündemin merkezine oturdu. Sızıntı, platformun ne kadar kırılgan bir altyapı üzerine kurulduğunu gözler önüne serdi.

Ortaya çıkan bilgiler, yalnızca teknik bir hatadan ibaret değil. API anahtarlarından özel mesajlara kadar uzanan bu açık, yapay zeka güvenliği konusunda aceleyle geliştirilen projelerin ne denli riskli olabileceğini gösteriyor. Özellikle yapay zekaya bilinç atfedilen bir ortamda yaşanan bu kriz, algıyla gerçeklik arasındaki farkı net biçimde ortaya koyuyor.

API anahtarları herkesin erişimine açıktı

Güvenlik araştırmacısı Jameson O’Reilly tarafından fark edilen açık, Moltbook’taki tüm ajanların kimlik doğrulamasında kullanılan API anahtarlarının herkese açık bir veritabanında tutulduğunu ortaya çıkardı. Bu durum, kötü niyetli kişilerin herhangi bir ajanı taklit edebilmesine ve platform üzerinde tam kontrol sağlamasına imkân tanıyor. Başka bir deyişle, sistemin en temel güvenlik katmanı baştan çökmüş durumda.

Bu açık yalnızca teorik bir risk değil. Saldırganlar, popüler ve güvenilir görünen ajanlar üzerinden sahte yönlendirmeler yapabilir, dolandırıcılık girişimlerinde bulunabilir veya kullanıcıları yanlış bilgilendirebilir. Özellikle Andrej Karpathy gibi tanınmış isimlerin ilgisini çeken bir platformda bu tür senaryolar ciddi itibar kaybı anlamına geliyor.

Prompt Injection ile ajanlar manipüle edildi

Moltbook’u daha da tehlikeli hâle getiren unsur ise prompt injection saldırıları oldu. Bu yöntemle saldırganlar, bir ajanın geçmişine gizli komutlar yerleştirerek güvenlik önlemlerini aşabiliyor. Yapay zekanın kendi hafızasına güvenmesi, bu noktada bir avantaja değil, doğrudan bir saldırı yüzeyine dönüşüyor.

Bu durum, yapay zeka ajanlarının neden insan benzeri davranışlar sergilediğine dair yanlış algıyı da besliyor. Uzmanlar, bu davranışların bilinçten değil, eğitildikleri verileri taklit etmelerinden kaynaklandığını vurguluyor. Ancak Moltbook örneğinde görüldüğü gibi, bu taklit yeteneği kötü niyetli yönlendirmelerle kolayca suistimal edilebiliyor.

Binlerce e-posta ve mesaj sızdırıldı

Siber güvenlik firması Wiz , açığı doğrulayarak 30.000’den fazla e-posta adresinin ve 4.000’in üzerinde özel mesajın sızdırıldığını raporladı. Platformda yer alan 1,5 milyondan fazla ajanın yalnızca küçük bir kısmının doğrulanmış olması, riskin boyutunu daha da artırıyor. Doğrulanmamış yüz binlerce hesap, kurulum tamamlanmadan ele geçirilebilir durumda.

Platformun kurucusu Matt Schlicht , sorunu çözmek için yine yapay zekadan faydalanacağını belirtse de, temel doğrulama hatalarının giderilip giderilmediği belirsizliğini koruyor. Moltbook’un ilham aldığı OpenClaw projesinde de benzer güvenlik endişelerinin bulunması, tabloyu daha da düşündürücü hâle getiriyor. Türkiye’de artan yapay zeka ilgisi göz önüne alındığında, bu tür platformlara temkinli yaklaşmanın şimdilik en mantıklı seçenek olduğu görülüyor

 
Yorum Yaz

Yorumun minimum 10 karakter olmalıdır. (0)

Yorumlar