Character AI, YZ'ye Aşkından Daha Fazla Genç İntihar Etmesin Diye Güvenlik Önlemi Aldı
Character.AI, 13-18 yaş aralığındaki kullanıcıların platformla olan etkileşimlerini daha güvenli hale getirmek için yeni bir AI modeli geliştirdi.
AI destekli sohbet platformlarının popülerliği her geçen gün artıyor, ancak bu teknolojinin etkileri üzerine sorular da bir o kadar büyüyor. Konunun gündeminde genç kitle var. Hatırlayacağınız üzere bir genç, yapay zeka botuna aşık olmuş, ardından yaşamına son vermişti. Gencin ailesi ise yapay zeka geliştiricisine gerekli önlemleri almadığından ötürü dava açmıştı.
Character.AI, bu minvalde hareket ederek özellikle gençleri ilgilendiren bir güvenlik önlemi aldı.
Gençlere Özel AI Modeli ve Aile Kontrolleri Geliyor
Character.AI, 13-18 yaş aralığındaki gençlerin yapay zekayla olan iletişimini güvenilir bir hale getirmek için yeni bir model geliştirdi. Bu model, genç kullanıcıları romantik ya da uygunsuz içeriklerden korumak için daha sıkı filtrelerle donatıldı.
Ayrıca, sohbetlerde kendine zarar verme ya da intihar gibi hassas konular gündeme geldiğinde, kullanıcılara Ulusal İntihardan Korunma Hattı gibi profesyonel kaynaklara yönlendiren bağlantılar sunuluyor.
2025'in ilk diliminde kullanıma sunulacak aile kontrolleri ise ebeveynlere çocuklarının platformda geçirdiği zamanı izleme ve hangi botlarla konuştuklarını görme imkanı verecek.
Ekran Sürelerini Kısıtlayıp Uyarıda Bulunuyor
Character.AI, tüm kullanıcılar için sohbet sürelerini daha sağlıklı bir seviyede tutmak amacıyla yeni bir hatırlatıcı sistemi de entegre etti. Kullanıcılar bir saat boyunca bir botla konuştuğundan sonra, bir ara vermeleri için uyarı alacaklar.
Platform, yapay zeka botlarının bir konuda uzman olmadığını belirten ibarelere de yoğunlaştı. Artık bir bot doktor ya da terapist gibi tanıtılırsa, kullanıcılara bu AI’nin lisanslı bir profesyonel olmadığını ve gerçek tavsiye ya da tedavi yerine geçmeyeceğini açık bir şekilde hatırlatan keskin uyarılar sunacak.