OpenAI, ChatGPT platformunda gerçekleştirdiği son güncellemelerle, ücretli kullanıcıların tepkisini topladı. Kullanıcılar, sohbet esnasında duygusal ya da hukuki boyutta hassas konular ortaya çıktığında, tercih ettikleri modelin devre dışı bırakılarak daha muhafazakar bir yapay zeka modeline yönlendirildiklerini ifade ediyor.

Reddit üzerinde açılan başlıklar, bu ay uygulamaya alınan yeni güvenlik önlemlerinin kullanıcı deneyimini olumsuz etkilediğine dair birçok yorum içeriyor. Kullanıcılar, belirli durumlarda model geçişinin şeffaf bir şekilde meydana gelmediğini, bu geçişlerin tamamen kullanıcıların kontrolü dışında gerçekleştiğini aktarıyor.
Bir Reddit kullanıcısı durumu şu şekilde dile getirdi:
“Yetişkinler, iş akışlarına, bağlamlarına ve risk toleranslarına uygun model seçme hakkına sahiptir. Ancak bunun yerine sessizce devre dışı bırakılan ayarlar ve gizli güvenlik yönlendirmeleri ile karşı karşıyayız.”
OpenAI yöneticisinden açıklama geldi
Tepkilerin artması üzerine OpenAI yöneticisi Nick Turley, sosyal medya üzerinden açıklamalarda bulundu. Turley, güvenlik yönlendirmelerinin yalnızca “hassas ve duygusal içerikli konuşmalarda” devreye girdiğini ve bu uygulamanın mesaj bazında, geçici bir şekilde yapıldığını duyurdu.
Bu uygulama, OpenAI’nin daha önce duyurduğu gibi, ChatGPT’nin zihinsel ve duygusal sıkıntılara ilişkin verdiği yanıtları iyileştirmek amacıyla gerçekleştirdiği çalışmaların bir parçasını oluşturuyor. Şirket, özellikle genç kullanıcılara ve savunmasız kişilere yönelik koruma sorumluluklarının altını çiziyor.
Ancak birçok kullanıcı, bu yaklaşımı kişisel seçim haklarının kısıtlanması olarak değerlendirmekte. Eleştiriler, durumu “çocukların bile olmadığı bir ortamda televizyonun sürekli ebeveyn denetimi altında izlenmeye zorlanması” ile karşılaştırıyor.
Görünüşe göre, OpenAI’nin güvenlik odaklı bu yeni sistemi, teknoloji dünyasında ilerleyen günlerde daha fazla tartışma konusu olacağa benziyor.
Leave a comment