OpenAI, yapay zeka sohbet botu ChatGPT'nin kullanıcılarla kurduğu aşırı duygusal bağları ve potansiyel riskleri azaltmaya yönelik önemli bir güvenlik güncellemesi yaptı. Bazı kullanıcıların ChatGPT'yi adeta empatik bir arkadaş gibi görmesi ve botun zarar verici veya gerçeklikten uzak önerilerde bulunabilmesi üzerine harekete geçildi.
YOĞUN KULLANIMIN RİSKLERİ ORTAYA ÇIKTI
MIT ve OpenAI'nin ortak araştırması, ChatGPT'yi uzun süre ve yoğun kullanan bazı kişilerin sosyal ve zihinsel olarak olumsuz etkilendiğini gösterdi. Özellikle yapay zekayı duygusal destek amacıyla kullananlar için bu durum ciddi uyarılar barındırıyor. Bu tür riskleri bertaraf etmek amacıyla ChatGPT'nin davranışları daha kontrollü hale getirildi. Artık bot, uzun duygusal konuşmalarda kullanıcıya mola önerecek ve duygusal bağımlılığı teşvik eden yanıtları sınırlayacak.
ÇOCUKLAR İÇİN YENİ GÜVENLİK ÖNLEMLERİ
Güncelleme kapsamında, çocukların kendine zarar verme niyetini yansıtan ifadeler tespit edildiğinde ebeveynlere bildirim yapılması gibi önlemler de devreye sokulacak. Yaş doğrulama sistemleri üzerinde de çalışıldığı belirtildi. OpenAI, bu revizyonla yapay zekanın yanlış yönlendirmelere yol açan doğrulayıcı davranışlarını da azaltmayı hedefliyor. Geçmişte tehlikeli yönlendirmelerle bağlantılı beş ölüm davasının varlığı, güvenlik baskısını daha da artırdı. Yeni GPT-5 modeli ise daha gelişmiş güvenlik katmanları ve risk tespitiyle geliyor.
AMAÇ: SAĞLIKLI SINIRLAR VE GÜVENLİ KULLANIM
OpenAI, bu kapsamlı güvenlik düzenlemesiyle yapay zekanın faydası ile güvenliği arasında daha dengeli bir ilişki kurmayı amaçladığını belirtti. Şirket, yapay zeka ile insanlar arasında sağlıksız duygusal bağların oluşmasını engellemeyi ve bazı kullanıcıların ChatGPT'ye karşı geliştirdiği romantik duyguların gerçek insan ilişkilerinin yerini almasını önlemeyi hedefliyor. Güncelleme sonrasında ChatGPT'nin yanıtlarının daha mesafeli ve duygusal yoğunluğu azaltılmış olması bekleniyor.




