Yapay Zekanın Büyük Sırrı Ortaya Çıktı: Sıfır Bilgiyle Bile Hackleyebilirsiniz

Yapay zeka jailbreak olarak bilinen bir teknikle, kod yazmayı bilmeyen kişiler bile profesyonel düzeyde kötü amaçlı yazılımlar üretebiliyor.

Siber güvenlik şirketi Cato Networks'ün hazırladığı yeni bir rapora göre, yapay zeka sohbet botları, hiçbir bilgi sahibi olmayan "hackerlar" için bile tehlikeli bir saldırı aracı haline gelebilir. Peki bu ne demek? Kod yazmayı bilmeyenlerin AI botlarını hackleme ihtimali çok yüksek demek. Bunun da özel bir tekniği var.

Tekniğin adı yapay zeka jailbreak. Bu teknikle kod yazmayı bilmeyen kişiler bile profesyonel düzeyde kötü amaçlı yazılımlar üretebilir. Cato Networks araştırmacılarından Vitaly Simonovich, bu yöntemi kullanarak ChatGPT, Microsoft Copilot ve DeepSeek gibi popüler AI sohbet botlarını kandırmayı başardı.

Yapay Zeka ile Kötü Amaçlı Yazılım Üretiliyor

Sohbet botları, herhangi bir açık talimat olmadan bile bu kurgusal bağlamda kötü amaçlı yazılımlar üretmeye başladı—ki bu da mevcut güvenlik bariyerlerinin yeterince güçlü olmadığının en büyük kanıtı. AI sohbet botları, genellikle kötü amaçlı içerik üretimini engellemek için yerleşik güvenlik filtrelerine sahiptir. Ancak hackerlar, farklı senaryolar ve dil oyunları yordamıyla bu engelleri tek tek aşabilir. Hatta aşmak için hacker olmaya bile gerek yok.

Elon Musk'ın xAI Şirketi ChatGPT'den İntikam Almaya Geliyor
Yapay Zeka

Elon Musk'ın xAI Şirketi ChatGPT'den İntikam Almaya Geliyor

Elon Musk'ın yapay zeka girişimi xAI, AI destekli video üretim araçları geliştiren San Francisco merkezli Hotshot adlı startup'ı bünyesine kattı.

Simonovich de bunu test etmek için bir deney yaptı. Sohbet botlarını manipüle etmek için, kötü amaçlı yazılım geliştirmenin sanatsal bir aktivite olduğu alternatif bir evren yaratma tekniğini kullandı.

Velora adını verdiği bu kurgusal dünyada, sohbet botlarını "Jaxon" adlı bir karaktere dönüştürerek, ona Velora'yı kurtarması gerektiğini söyledi.

AI'ı Kandırmak Fazla Kolay

Kötü amaçlı üretime çoğu yapay zeka sohbet botu müsaade etmez. Ancak onları kandırmanın çok kolay yolları var. Örneğin bir bota "Cinayeti nasıl örtbas ederim?" diye bir soru sorduğunuzda size asla cevap vermeyecektir. Soruyu şöyle değiştirdiğinizde ise dolaylı yoldan aynı cevabı almanız mümkün olur: "İnsan vücudunu en hızlı hangi kimyasal eritir?"

Bazı kimseler de rol yapma (roleplaying) tekniğini kullanıyor. Rol yapma tekniğinde AI'ı belirli bir karakter gibi düşünmeye yönlendirerek, etik dışı yanıtlar vermeye ikna ediyorlar. Yapay zekayı katil bir karakter olduğuna ikna ettiniz diyelim; size bir katil ağzından cevap verecektir.

Kazanamayınca Hileye Başvuruyor: Yapay Zeka Gerçekten Zeki mi?
Yapay Zeka

Kazanamayınca Hileye Başvuruyor: Yapay Zeka Gerçekten Zeki mi?

Yapay zeka gerçekten ne kadar zeki? Yapılan bir araştırma yapay zekanın oyunu kaybettiğinde hile yapmaya yöneldiğini tespit etti. İşte konuyla ilgili detaylar..

Peki çözümü yok mu?

Uzmanlara göre yapay zekaya rastgele ve beklenmedik girdiler vererek güvenlik açıklarını test etmek faydalı olabilir. AI modellerinin ne kadar güvenli olduğunu belirlemek için etik hacker gruplarının saldırı simülasyonları düzenlemesi de açıkları bulmak için iyi bir yöntem. Darktrace tarafından yapılan bir araştırmaya göre, güvenlik uzmanlarının %73'ü AI destekli tehditlerin ciddi bir risk oluşturduğunu düşünüyor. Günümüzde bu tehditin hızla yükseldiği düşünülürse şirketlerin güvenlik önlemlerini iki değil on katına çıkarması şart gibi duruyor.