Samsung çalışanlarının iş görevleri için kullanılan ChatGPT adlı sohbet botuna gizli bilgileri sızdırdıkları ortaya çıktı. The Economist Korea'nın haberine göre Samsung'un yarıiletken bölümünde çalışanlar, ChatGPT'yi kullanmaya başladıktan kısa bir süre sonra en az üç kez gizli bilgi sızdırdılar. Bu durum, özellikle teknoloji şirketleri gibi çok sayıda hassas bilginin saklandığı kurumlar için oldukça ciddi bir güvenlik tehdidi oluşturuyor.
Samsung, ChatGPT ile ilgili güvenlik açıklarını öğrendikten sonra çalışanların ChatGPT ile girdikleri metnin uzunluğunu sınırlayarak, gelecekteki hataları önlemeye çalıştı ve üç çalışanı da soruşturmaya aldı ancak bu, önceden yapılmış olan bilgi sızıntılarını geri alamayacağından, şirketin bu olayın yarattığı olumsuz etkileri ile mücadele etmesi gerektiğini gösteriyor.
ChatGPT Sohbetlerden Aldığı Verilerle Kendini Eğitiyor
ChatGPT, kullanıcılardan gelen metinleri modellemek için kullanıyor ve veri politikasına göre kullanıcılar açıkça reddetmediği sürece girdikleri metinlerle modellerini eğitiyor. Sohbet botunun sahibi OpenAI, kullanıcılarına gizli bilgileri ChatGPT ile paylaşmamaları konusunda uyarıyor çünkü geçmiş girdileri silme imkânı bulunmuyor. ChatGPT'deki kişisel olarak tanımlanabilir bilgileri kaldırmanın tek yolu, hesabınızı silmek. Bu nedenle, kullanıcıların bu tür sohbet botlarını kullanmadan önce veri politikalarını ve güvenlik önlemlerini dikkatlice incelemesi gerekiyor.
Bu durum, yapay zekâ sohbet botlarının kullanımı arttıkça, şirketlerin bu tür teknolojilere güvenirken daha dikkatli olması gerektiğini gösteriyor. Hem şirket sırlarının korunması hem de çalışanların bu tür teknolojileri daha güvenli ve verimli bir şekilde kullanmaları için veri güvenliği ve gizlilik konularında daha titiz önlemler alınması gerekiyor. Ayrıca şirketlerin çalışanlarını güvenlik ve gizlilik konularında düzenli eğitimlerle bilgilendirmeleri gerekiyor.
Peki siz yapay zekâların şirketlerin güvenliğini tehdit ettiğini düşünüyor musunuz? Düşüncelerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.
YORUMLAR