Deepfake'ler her geçen gün giderek artıyor ve birçok kişi için önemli bir tehdit unsuru hâline geliyor. Tüm bunların ışığında OpenAI sesleri klonlamak için kullanılan teknolojiyi geliştiriyor fakat şirket bunu sorumlu bir şekilde yaptığında ısrar ediyor.
Bugün OpenAI, mevcut metinden konuşmaya API'sinin bir uzantısı olan OpenAI'ın Voice Engine'inin yeni geliştirilmiş sürümünün önizleme lansmanını gerçekleştirdi. Yaklaşık iki yıldır geliştirme aşamasında olan Voice Engine, kullanıcıların 15 saniyelik herhangi bir ses örneği yükleyerek bu sesin bir kopyasını oluşturmasına olanak tanıyor.
Şimdilik modelin nasıl kullanıldığına ve kötüye kullanacakların önüne nasıl geçileceğine dair herhangi bir açıklama gelmiş değil. OpenAI ürün ekibinin bir üyesi olan Jeff Harris, verdiği bir röportajda, "Herkesin bu teknolojinin nasıl kullanıldığına dair iyi hissettiğinden emin olmak istiyoruz, bu teknolojinin tehlikeli olduğu yerler olduğunu anlıyoruz ve bunun için bazı önlemlerimiz var." ifadelerini kullandı.
Voice Engine İlk Aşamada Herkese Açık Kullanıma Sunulmayacak
OpenAI blog yazısında, "Bu küçük ölçekli dağıtımlar, yaklaşımımızı, güvenlik önlemlerimizi ve Voice Engine'in çeşitli sektörlerde iyi amaçlarla nasıl kullanılabileceği konusundaki düşüncelerimizi bilgilendirmeye yardımcı oluyor." dedi.
Yapay zekâ her alanda kötü niyetli kişiler için tehlikelere kapı açabilir ancak ses klonlama teknolojisi bu alanda çok daha farklı örneklere sahip. Örneğin yetkililer, başkanlık seçimlerinden hemen önce binlerce seçmene gönderilen ve Başkan Joe Biden'ı taklit eden yapay zekâ tarafından oluşturulmuş bir sesin yer aldığı kaydın kimin tarafından oluşturulduğunu araştırıyor.
Hâlihazırda bir dizi yeni şirket ses klonlama teknolojisi satıyor ve bunların bir kısmı halka ya da eğlence stüdyoları gibi seçkin ticari müşterilere açık. OpenAI da bir süre boyunca yeni Voice Engine teknolojisini herkese açık bir şekilde sunmayacağını belirtiyor.
Peki sizce yeni Voice Engine yapay zekâsı güvenlik konusunda sorunlar yaratabilir mi? Düşüncelerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.
YORUMLAR