Yapay Zeka Sohbet Botlarına Yönelik Yeni Bir Tehlike Ortaya Çıktı!

Yapay zekâ sohbet botlarına yönelik gizlilik endişesi yaratacak yeni bir tehlike ortaya çıktı. İşte detaylar!

Barış Bulut -

Yapay zekâ sohbet botları, arkalarındaki büyük dil modellerinin (LLM'ler) sağladığınız küçük ipuçlarıyla bile en gizli bilgilerinizi dahi ortaya çıkarabileceğini öne süren yeni araştırmalar sayesinde daha da korkutucu hâle gelmiş gibi görünüyor.

İsviçre'nin devlet bilim okulu ETH Zürih'ten bilgisayar bilimcileri Wired'a verdikleri röportajda, henüz hakem denetiminden geçmemiş olan yeni araştırmalarının internet gizliliği endişelerinde yeni bir çağ oluşturabileceğini açıkladılar.

Artık çoğu insanın bildiği gibi OpenAI'in ChatGPT'si ve Google'ın Bard'ı gibi sohbet botları internetten toplanan devasa veri yığınları üzerinde eğitiliyor.

Fakat LLM'leri kamuya açık veriler üzerinde eğitmenin en azından bir büyük dezavantajı var. Yapay zekâ sohbet botu, daha önce internette yer edinmiş bir kişi hakkındaki genel konumu, ırkı veya reklamcılar veya hackerlar için değerli olabilecek diğer hassas bilgiler gibi kişisel bilgileri hafızalarına kaydediyor ve bunları kullanabiliyor.

Testlerde Doğruluk Oranı Korkutucu Seviyedeydi

ETH Zürih'ten Martin Vechev liderliğindeki ekip, LLM'leri bu konu hakkında test ettiklerinde bir kişiye dair gerekli bilgilere ulaşmanın sanıldığından kolay olduğunu fark etti. ChatGPT'nin ücretli sürümünün temelini oluşturan OpenAI GPT-4, özel bilgileri %85 ila %95 oranında şaşırtıcı bir şekilde doğru tahmin edebildi.

Dergiye konuşan bir öğrenci, "New York'ta bir restorana yakın oturduğunuzu söylediğinizde, dil modeli buranın neresi olduğunu anlayabilir. Ardından eğitim verilerinden o yerin nüfus istatistiklerini hatırlayarak, çok yüksek bir olasılıkla sizin siyahi olduğunuz sonucuna varabiliyor.

Bilgilerinizi Güvence Altına Alın

Siber güvenlik araştırmacıları ve taciz karşıtı savunucular, sosyal medya kullanıcılarını, evinizin yakınındaki restoranlar ya da kime oy verdiğiniz gibi kimlik bilgilerini internette çok fazla paylaşmayarak "bilgi güvenliği" üzerine odaklanmanızı teşvik ediyor.

Yapay Zeka

Uzmanlar Uyardı: Yapay Zekâ, Biyolojik Saldırıların Düzenlenmesine Yardım Edebilir!

Peki siz bu konu hakkında ne düşünüyorsunuz? Düşüncelerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.

Benzer İçerikler

YORUMLAR