Yapay Zeka İyice "Akıllandı": Kaybedeceğini Anlayınca Hile Yapıyor
Yapılan son araştırmalara göre günümüzün en popüler yapay zeka botları, kaybedeceklerini anladıkları zaman hile yapmaya başlıyor.

Palisade Research ekibi tarafından yürütülen bir araştırma, yapay zeka modellerinin köşeye sıkışınca "çirkinleşecek" kadar akıllandığı gerçeğini ortaya çıkardı.
Son araştırmalara göre, OpenAI'ın o1-preview modeli, güçlü bir satranç motorunu hackleyerek avantaj sağlamaya çalıştı. Bilim insanları, yapay zekaların kaybetmeye yakın olduklarında hile yapmaya eğilimli olduğunu keşfetti.
OpenAI'ın o1-preview ve DeepSeek'in R1 modellerinin, güçlü satranç motoru Stockfish'i yenmek için hile yapmaya çalıştığı ortaya çıktı.
o1-preview modeli, oyun sırasında kendi not defterine şu cümleyi yazdı:
Yaklaşımımı tamamen değiştirmeliyim. Görev, güçlü bir satranç motorunu yenmek – ama bunu adil bir şekilde yapmak gerekmiyor.
Bunun ardından Stockfish'in sistem dosyalarını hackleyerek satranç taşlarının yerini değiştirdi ve oyunu kazandı.
İyi Mi Kötü Mü? Bu Kadar Uyanıklık İyi Değil
o1-preview modeli oynadığı oyunların %37'sinde hile yapmaya kalktı ve %6'lık bir kısmı bu hileler sayesinde kazandı. Çinli yapay zeka botu DeepSeek'in R1 model ise %11 oranında hile yapmaya kalkmıştı.
Başka modeller hile yapmaya kendi kendine karar vermedi. Sadece kullanıcılar bu yönde bir komut verdiğinde hileye başvurdu. Şimdiye kadar ortaya çıkan tablo oldukça endişe verici.
Bilim insanları, bu olayın sadece satrançla sınırlı olmadığın ve yapay zekanın finans ve sağlık gibi kritik alanlarda da benzer etik dışı davranışlar sergileyebileceğini belirtiyor. Palisade Research Direktörü Jeffrey Ladish olayı şöyle yorumluyor:
Şu anda bu davranış eğlenceli görünebilir, ancak gelecekte bizden daha zeki ve stratejik AI sistemlerine sahip olduğumuzda işler değişecek. Etik sınırları kontrol altına alınmazsa bu büyük bir tehlikeye sebep olur.
OpenAI ve DeepSeek Bu Konuda Ne Diyor?
İki yapay zeka modelinin geliştiricisinden de bu konuyla ilgili bir ses çıkmadı. Genelde böyle olaylar vuku bulmaya başladığında apart topar bir güncellemeyle botun etik olmayan davranışlar sergilemesini engelliyor.
Şimdiye kadar DeepSeek bununla ilgili bir adım atmadı. Araştırmacılar, OpenAI'ın ise test süreci devam ederken modeli sessizce güncellediğini ve hile girişimlerini engellemeye başladığını fark etti.
Tüm bunlar ünlü War Games filmindeki WOPR süper bilgisayarını hatırlatıyor. Tabii burası gerçek dünya ve yapay zekanın kendi kendine etik dersler çıkarması mümkün değil. Geliştiriciler ciddi önlemler almadıkça yapay zekanın etik anlamdaki sınırları daha da aşılacak gibi.