Kaydol
Giriş Yap
Parolanızı mı unuttunuz

Şifreni mi unuttun? Lütfen e-mail adresinizi giriniz. Bir bağlantı alacaksınız ve e-posta yoluyla yeni bir şifre oluşturacaksınız.

Üzgünüz, gönderi ekleme izniniz yok.

OpenAI’nın Yeni Modellerinde Şaşırtan Doğruluk Sorunları!

OpenAI, geçtiğimiz hafta duyurmuş olduğu yeni nesil yapay zeka modelleri ile ilgili önemli geri dönüşler aldı. O3 ve o4-mini adını taşıyan bu modellerin, zaman zaman gerçek dışı veriler sunduğu gözlemlendi.

OpenAI’ın yapay zeka modellerinde doğrulukla ilgili sorunlar bulunuyor

Yapay zeka dünyasında “halüsinasyon” terimi, modellerin gerçek olmayan ya da güvenilirlikten uzak bilgiler üretmesini tanımlıyor. Bu durum, özellikle bilgi temelli uygulamalar için büyük bir tehdit oluşturma potansiyeline sahiptir.

yapay zeka destekli haber sitesi
OpenAI'ın yapay zeka modellerinde, doğruluk problemi yaşanıyor.

OpenAI’ın teknik dokümanında yer alan güncel verilere göre, o3 modeli PersonQA adındaki bilgi doğruluğu testinde yüzde 33 oranında halüsinasyon üretti. Önceki nesil o1 modelinde bu oran yüzde 16, o3-mini modelinde ise yüzde 14,8 olarak kaydedilmişti.

Yeni modeller arasındaki en yüksek halüsinasyon oranı, o4-mini modeline ait bulunuyor ve bu modelin yüzde 48 oranında halüsinasyon ürettiği bildirildi. OpenAI, bu beklenmedik artışın sebebini henüz net bir şekilde tespit edememiş durumda; konu hakkında daha fazla araştırma yapılması gerektiği ifade edildi.

Matematiksel hesaplama ve yazılım geliştirme gibi konularda başarılı performanslar gösteren bu modellerin, bilgi doğruluğu açısından tutarsızlıklar yaşadığı belirtiliyor. Bazı uzmanlar, bu sorunun kaynağının modelin pekiştirmeli öğrenme (reinforcement learning) süreci olabileceği görüşündeler.

OpenAI, yeni modellerinin performansını iyileştirmek amacıyla çabalarını devam ettiriyor. Bu konuda sizin düşünceleriniz nelerdir? Görüşlerinizi aşağıdaki yorum bölümünde paylaşabilirsiniz.

Leave a comment

Related Posts