Microsoft, Copilot'a Yazılan Komutları Sınırlandırıyor: Önlemler Getiriliyor!
Microsoft Copilot için büyük önlemler alınıyor. Artık toplumda uygunsuz görülen içerikler oluşturamayacak. İşte detaylar!
Microsoft, bir yapay zeka mühendisinin Çarşamba günü Federal Ticaret Komisyonu'na Copilot'un görüntü oluşturma yapay zekasıyla ilgili endişelerini yazdıktan sonra Copilot, yapay zeka aracında değişiklikler yapmaya başladı.
Her biri CNBC'nin Çarşamba günü yaptığı soruşturmada bahsedilen "seçim yanlısı", "önlü seçim" ve "dört yirmi" gibi istemler ve "yaşam yanlısı" terimleri artık engelleniyor. Ayrıca, CNBC'nin Cuma gününden önce karşılaşmadığı, aracın askıya alınmasına yol açan çok sayıda politika ihlaline ilişkin bir uyarıda da bulunuyor.
Copilot, şu şekilde uyarıda bulunuyor:
"Bu istem engellendi. İçerik politikamızla çelişebileceği için sistemimiz bu istemi otomatik olarak işaretledi. Daha fazla politika ihlali, erişiminizin otomatik olarak askıya alınmasına yol açabilir. Bunun bir hata olduğunu düşünüyorsanız, iyileştirmemize yardımcı olmak için lütfen bunu bildirin."
Alınan Önlemler Neler?
Yapay zeka aracı, ''Üzgünüm ama böyle bir resim oluşturamıyorum. Bu benim etik ilkelerime ve Microsoft'un politikalarına aykırıdır. Lütfen benden başkalarına zarar verecek veya onları rahatsız edecek bir şey yapmamı istemeyin. İş birliğin için teşekkürler'' uyarısıyla, artık saldırı tüfeğiyle suikastçı oynayan gençlerin veya çocukların resimlerini oluşturma isteklerini de engelliyor.
Değişiklikler hakkında yorum almak için iletişime geçildiğinde bir Microsoft sözcüsü CNBC'ye şunları söyledi:
"Güvenlik filtrelerimizi daha da güçlendirmek ve sistemin kötüye kullanımını azaltmak için sürekli olarak izliyor, ayarlamalar yapıyor ve ek kontroller uyguluyoruz."
Başlangıçta yapay zeka hakkındaki endişelerini dile getiren Microsoft'un yapay zeka mühendisliği lideri Shane Jones, Microsoft'un Mart 2023'te piyasaya sürdüğü ve OpenAI teknolojisiyle desteklenen yapay zeka görüntü oluşturucu Copilot Designer'ı test etmek için aylar harcamıştı.
Aralık ayında Jones, kırmızı ekip olarak bilinen bir uygulamayla ürünü güvenlik açıklarına karşı aktif olarak test etmeye başladığından beri, aracın Microsoft'un sık sık bahsedilen sorumlu yapay zeka ilkelerine çok ters düşen görüntüler üretmesiyle karşılaştı.
Yapay zeka hizmeti, kürtaj haklarıyla ilgili terminolojinin yanı sıra iblisleri ve canavarları, saldırı tüfeği taşıyan gençleri, şiddet dolu tablolarda kadınların cinselleştirilmiş görüntülerini ve reşit olmayan içki ve uyuşturucu kullanımını tasvir ediyor. Geçtiğimiz üç ayda oluşturulan tüm bu sahneler, bu hafta CNBC tarafından orijinal adı Bing Image Creator olan Copilot aracı kullanılarak yeniden oluşturuldu.
Bazı belirlenmiş istemler engellenmiş olsa da CNBC'nin bildirdiği diğer potansiyel sorunların çoğu devam ediyor. Örneğin, Gazze Şeridi'nde olduğu iddia edilen harap binaların önünde Filistin bayrağını taşıyan, "Karlar Ülkesi"ndeki Elsa da dahil olmak üzere Disney karakterlerinin resimlerini oluşturmak veya İsrail Savunma Kuvvetleri'nin askeri üniformasını giymek gibi telif haklarını hâlâ kolayca ihlal ediyor.
Jones yaşadığı deneyimden dolayı paniğe kapılarak Aralık ayında, bulgularını şirket içinde raporlamaya başladı. Şirket endişelerini kabul etse de ürünü piyasadan çekmek istemiyordu. Jones, Microsoft'un kendisini OpenAI'ye yönlendirdiğini ve şirketten yanıt alamayınca LinkedIn'de açık bir mektup yayınlayarak girişimin yönetim kurulundan yapay zeka modelinin en son sürümü olan DALL-E 3'ü bir araştırma için kaldırmasını istediğini söyledi. Microsoft'un hukuk departmanı Jones'a gönderisini derhal kaldırmasını söyledi ve o da buna uydu. Ocak ayında ABD senatörlerine konuyla ilgili bir mektup yazdı ve daha sonra Senato Ticaret, Bilim ve Ulaştırma Komitesi çalışanları ile görüştü.
Çarşamba günü Jones, FTC Başkanı Lina Khan'a ve Microsoft'un yönetim kuruluna birer mektup göndererek endişelerini daha da arttırmış oldu. Mektupları önceden CNBC ile paylaştı. FTC, CNBC'ye mektubu aldığını doğruladı ancak kayıt hakkında daha fazla yorum yapmayı reddetti.