Kaydol
Giriş Yap
Parolanızı mı unuttunuz

Şifreni mi unuttun? Lütfen e-mail adresinizi giriniz. Bir bağlantı alacaksınız ve e-posta yoluyla yeni bir şifre oluşturacaksınız.

Üzgünüz, gönderi ekleme izniniz yok.

Reddit’te Yapay Zeka Yanlış Sağlık Tavsiyesi Verdi!

Yapay zeka sohbet botlarının halüsinasyon üretme durumu giderek artış göstermekte. Son gelişme ise Reddit’in yapay zeka destekli Answers özelliğinde yaşandı. Bir kullanıcı, ağrı kesici arayışındaki birine eroin önerildiğini tespit etti. Olayın ardından Reddit, gelen tepkilere hızlıca yanıt verdi.

Answers Sağlık Tavsiyelerinde Sınıfta Kaldı

Olay, bir sağlık çalışanı tarafından moderatörlere özel bir dizinde paylaşılmıştı. Kronik ağrı hakkında açılan bir başlıkta, Reddit Answers’ın İronik şekilde, eroin bu durumlarda hayatımı kurtardı şeklinde bir ifadeyi önerdiği anlaşılmıştır.

Benzer bir olayda, sohbet botu başka bir kullanıcıya kratom isimli, bazı eyaletlerde yasaklı olan bir bitki özütünü önermişti. ABD Gıda ve İlaç Dairesi (FDA), kratomun karaciğer hasarı, nöbet ve bağımlılık riski taşıdığına dair uzun süredir uyarılarda bulunuyor.

Reddit Answers, Kullanıcı İçeriğinden Öğreniyor

Reddit Answers, Gemini ve ChatGPT gibi büyük dil modellerine benzerlik gösteriyor. Ancak temel farkı, yanıtlarını Reddit kullanıcılarının paylaştığı içeriklerden elde etmesidir. Başlangıçta ayrı bir sekmede sunulan bu özellik, şu an bazı sohbet akışlarına entegre edilerek test edilmektedir.

Bu sistem, topluluk kaynaklı içeriklerden beslendiği için doğrulanmamış veya zararlı tavsiyelerin öne çıkmasına neden olabiliyor. Sağlık gibi hassas konularda bu durumun ciddi riskler barındırdığı aşikar.

Görünürlük Azaltıldı

Sorunu tespit eden kullanıcı, Reddit Answers’ın sağlık başlıklarında yanlış ve tehlikeli tıbbi tavsiyeler verdiğini ifade etti. Ayrıca moderatörlerin bu özelliği devre dışı bırakma imkânının bulunmadığı da vurgulandı. Şikâyet üzerine Reddit, sistemde ayarlamalar yaparak hassas konular için Answers özelliğinin görünürlüğünü azaltma kararı aldı.

Yapay Zekalarda Tehlikeli Tavsiye Zinciri

Yaşanan bu olay, yapay zekâların hatalı veya tehlikeli tavsiyeler verme eğiliminin bir diğer örneğini oluşturuyor. Daha önce Google’ın AI Overviews özelliği, pizzalarda peynirin kaymaması için toksik olmayan yapıştırıcı kullanın önerisinde bulunmuş, ChatGPT de bazı sağlık tavsiyelerinde güvenilir olmayan sonuçlar üretebilmiştir.

Reddit Answers vakası, yapay zekâların özellikle sağlık alanında güvenilir moderasyon olmadan kullanılmasının taşıdığı riskleri bir kez daha gözler önüne serdi. Reddit, sistemde düzeltmelere gitmeye çalışsa da bu olay, AI destekli arama ve sohbet araçlarının sınırlarını net bir şekilde ortaya koymaktadır.

Leave a comment

Related Posts