Yapay Zekanın 'Felaket Riskleri' İçin Ekip Kuruldu!
OpenAI, yapay zekâya yönelik felaket risklerini azaltmak adına yeni bir ekip kurdu. İşte ekibin üzerinde çalışacağı konular ve detaylar!
OpenAI, yapay zekâ ile ilişkili "felaket risklerini" azaltmak için yeni bir ekip kurma kararı aldı. Yapılan duyuruda OpenAI, hazırlık ekibinin nükleer tehditler de dâhil olmak üzere yapay zekânın neden olabileceği potansiyel büyük sorunları "izleyeceğini, değerlendireceğini, tahmin edeceğini ve koruyacağını" söyledi.
Ekip ayrıca "kimyasal, biyolojik ve radyolojik tehditlerin" yanı sıra "otonom replikasyon" ya da bir yapay zekânın kendini kopyalaması eylemini azaltmak için de çalışacak. Hazırlık ekibinin ele alacağı diğer bazı riskler arasında yapay zekânın insanları kandırma yeteneği ve siber güvenlik tehditleri de yer alıyor.
Ekipte Birçok Uzman İsim Yer Alacak
Şu anda MIT'nin Dağıtılabilir Makine Öğrenimi Merkezi direktörlüğü görevinden izinli olan Aleksander Madry hazırlık ekibine liderlik edecek. OpenAI, hazırlık ekibinin ayrıca şirketin yapay zekâ modellerini değerlendirmek ve izlemek için neler yaptığını özetleyen bir "risk bilinçli geliştirme politikası" geliştireceğini ve sürdüreceğini belirtiyor.
OpenAI CEO'su Sam Altman daha önce de yapay zekânın neden olabileceği felaketlere karşı uyarıda bulunmuştu.
Mayıs ayında Altman ve diğer önde gelen yapay zekâ araştırmacıları, "Yapay zekâdan kaynaklanan riskleri azaltmanın küresel bir öncelik olması gerektiği" yönünde bir bildiri yayınlamışlardı. Londra'daki bir röportaj sırasında Altman ayrıca hükûmetlerin yapay zekâları nükleer silahlar kadar "ciddiye" almaları gerektiğini öne sürmüştü.
Peki siz bu konu hakkında ne düşünüyorsunuz? Düşüncelerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.