OpenAI, önümüzdeki birkaç hafta içinde şirketin ürünlerinde kullanmaya başlayacağı GPT-4o adlı yeni bir yapay zekâ modelini kullanıma sunacağını açıkladı.
OpenAI CTO'su Muri Murati, GPT-4o'nun "GPT-4 düzeyinde" veriye sahip olduğunu ancak GPT-4'ün metin ve görüntünün yanı sıra ses alanındaki yeteneklerini de geliştirdiğini söyledi. Tanıtımda konuyla ilgili ifadelerini paylaşan Murati, "Bu modellerin giderek daha karmaşık hâle geldiğini biliyoruz ancak etkileşim deneyiminin aslında daha doğal, kolay hâle gelmesini amaçlıyoruz." dedi.
Diğer yandan OpenAI, ChatGPT'nin masaüstü sürümünü piyasaya süreceğini açıkladı ve yenilenmiş kullanıcı arayüzünü de tanıttı.
GPT-4o Neler Yapabiliyor?
OpenAI'nin hâlihazırda en büyük dil modeli olan GPT-4, hem görüntü hem de metin kombinasyonuyla eğitilmişti ve görüntülerden metin çıkarmak ve hatta bu görüntülerin içeriğini tanımlamak gibi görevleri yerine getirmek için görüntüleri ve metinleri analiz edebiliyordu. GPT-4o ise bu karışıma konuşmayı da ekliyor.
Kullanıcılar artık sesli olarak ChatGPT'ye bir soru sorabilecek ve cevap verirken ChatGPT'nin sözünü dahi kesebilecek. OpenAI, modelin "gerçek zamanlı" yanıt verebilirlik sunduğunu ve hatta kullanıcının sesindeki duyguyu algılayabildiğini ve "bir dizi farklı duygusal tarzda" ses üretebildiğini söylüyor.
GPT-4o, ChatGPT'nin görme yeteneklerini de geliştiriyor. Bir fotoğraf veya masaüstü ekranı verildiğinde ChatGPT artık "Bu yazılım kodunda neler var?" veya "Bu kişinin giydiği tişörtün markası ne?" gibi ilgili soruları hızlı bir şekilde yanıtlayabiliyor.
GPT Store Geliyor
Diğer yandan OpenAI, şirketin yapay zekâ modelleri üzerine inşa edilmiş üçüncü parti sohbet botlarından oluşan kütüphanesi GPT Store'a erişimin artık ChatGPT'nin ücretsiz katmanının kullanıcıları tarafından kullanılabileceğini açıkladı.
Peki siz bu konu hakkında ne düşünüyorsunuz? Düşüncelerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.
YORUMLAR