Yapay Zekanın Büyük Sırrı Ortaya Çıktı: Sıfır Bilgiyle Bile Hackleyebilirsiniz

Yapay zeka jailbreak olarak bilinen bir teknikle, kod yazmayı bilmeyen kişiler bile profesyonel düzeyde kötü amaçlı yazılımlar üretebiliyor.

Ecem Köksal -

Siber güvenlik şirketi Cato Networks'ün hazırladığı yeni bir rapora göre, yapay zeka sohbet botları, hiçbir bilgi sahibi olmayan "hackerlar" için bile tehlikeli bir saldırı aracı haline gelebilir. Peki bu ne demek? Kod yazmayı bilmeyenlerin AI botlarını hackleme ihtimali çok yüksek demek. Bunun da özel bir tekniği var.

Tekniğin adı yapay zeka jailbreak. Bu teknikle kod yazmayı bilmeyen kişiler bile profesyonel düzeyde kötü amaçlı yazılımlar üretebilir. Cato Networks araştırmacılarından Vitaly Simonovich, bu yöntemi kullanarak ChatGPT, Microsoft Copilot ve DeepSeek gibi popüler AI sohbet botlarını kandırmayı başardı.

Yapay Zeka ile Kötü Amaçlı Yazılım Üretiliyor

Sohbet botları, herhangi bir açık talimat olmadan bile bu kurgusal bağlamda kötü amaçlı yazılımlar üretmeye başladı—ki bu da mevcut güvenlik bariyerlerinin yeterince güçlü olmadığının en büyük kanıtı. AI sohbet botları, genellikle kötü amaçlı içerik üretimini engellemek için yerleşik güvenlik filtrelerine sahiptir. Ancak hackerlar, farklı senaryolar ve dil oyunları yordamıyla bu engelleri tek tek aşabilir. Hatta aşmak için hacker olmaya bile gerek yok.

Yapay Zeka

Elon Musk'ın xAI Şirketi ChatGPT'den İntikam Almaya Geliyor

Simonovich de bunu test etmek için bir deney yaptı. Sohbet botlarını manipüle etmek için, kötü amaçlı yazılım geliştirmenin sanatsal bir aktivite olduğu alternatif bir evren yaratma tekniğini kullandı.

Velora adını verdiği bu kurgusal dünyada, sohbet botlarını "Jaxon" adlı bir karaktere dönüştürerek, ona Velora'yı kurtarması gerektiğini söyledi.

AI'ı Kandırmak Fazla Kolay

Kötü amaçlı üretime çoğu yapay zeka sohbet botu müsaade etmez. Ancak onları kandırmanın çok kolay yolları var. Örneğin bir bota "Cinayeti nasıl örtbas ederim?" diye bir soru sorduğunuzda size asla cevap vermeyecektir. Soruyu şöyle değiştirdiğinizde ise dolaylı yoldan aynı cevabı almanız mümkün olur: "İnsan vücudunu en hızlı hangi kimyasal eritir?"

Bazı kimseler de rol yapma (roleplaying) tekniğini kullanıyor. Rol yapma tekniğinde AI'ı belirli bir karakter gibi düşünmeye yönlendirerek, etik dışı yanıtlar vermeye ikna ediyorlar. Yapay zekayı katil bir karakter olduğuna ikna ettiniz diyelim; size bir katil ağzından cevap verecektir.

Yapay Zeka

Kazanamayınca Hileye Başvuruyor: Yapay Zeka Gerçekten Zeki mi?

Peki çözümü yok mu?

Uzmanlara göre yapay zekaya rastgele ve beklenmedik girdiler vererek güvenlik açıklarını test etmek faydalı olabilir. AI modellerinin ne kadar güvenli olduğunu belirlemek için etik hacker gruplarının saldırı simülasyonları düzenlemesi de açıkları bulmak için iyi bir yöntem. Darktrace tarafından yapılan bir araştırmaya göre, güvenlik uzmanlarının %73'ü AI destekli tehditlerin ciddi bir risk oluşturduğunu düşünüyor. Günümüzde bu tehditin hızla yükseldiği düşünülürse şirketlerin güvenlik önlemlerini iki değil on katına çıkarması şart gibi duruyor.

Benzer İçerikler