OpenAI, geçtiğimiz hafta duyurmuş olduğu yeni nesil yapay zeka modelleri ile ilgili önemli geri dönüşler aldı. O3 ve o4-mini adını taşıyan bu modellerin, zaman zaman gerçek dışı veriler sunduğu gözlemlendi.
OpenAI’ın yapay zeka modellerinde doğrulukla ilgili sorunlar bulunuyor
Yapay zeka dünyasında “halüsinasyon” terimi, modellerin gerçek olmayan ya da güvenilirlikten uzak bilgiler üretmesini tanımlıyor. Bu durum, özellikle bilgi temelli uygulamalar için büyük bir tehdit oluşturma potansiyeline sahiptir.

OpenAI’ın teknik dokümanında yer alan güncel verilere göre, o3 modeli PersonQA adındaki bilgi doğruluğu testinde yüzde 33 oranında halüsinasyon üretti. Önceki nesil o1 modelinde bu oran yüzde 16, o3-mini modelinde ise yüzde 14,8 olarak kaydedilmişti.
Yeni modeller arasındaki en yüksek halüsinasyon oranı, o4-mini modeline ait bulunuyor ve bu modelin yüzde 48 oranında halüsinasyon ürettiği bildirildi. OpenAI, bu beklenmedik artışın sebebini henüz net bir şekilde tespit edememiş durumda; konu hakkında daha fazla araştırma yapılması gerektiği ifade edildi.
Matematiksel hesaplama ve yazılım geliştirme gibi konularda başarılı performanslar gösteren bu modellerin, bilgi doğruluğu açısından tutarsızlıklar yaşadığı belirtiliyor. Bazı uzmanlar, bu sorunun kaynağının modelin pekiştirmeli öğrenme (reinforcement learning) süreci olabileceği görüşündeler.
OpenAI, yeni modellerinin performansını iyileştirmek amacıyla çabalarını devam ettiriyor. Bu konuda sizin düşünceleriniz nelerdir? Görüşlerinizi aşağıdaki yorum bölümünde paylaşabilirsiniz.
Leave a comment