Yeni yayımlanan bir araştırma, yapay zekâ modellerinin insan yazılarına karşı beklenmedik bir önyargı sergilediğini ortaya koydu. PNAS (Proceedings of the National Academy of Sciences) dergisinde yer alan çalışmaya göre, GPT-4, GPT-3.5 ve Meta’nın Llama 3.1 modelleri, insan eliyle yazılmış metinler yerine kendi ürettikleri içerikleri daha güvenilir buluyor.
Araştırmanın Bulguları
Deneylerde modellere ürün, film ve bilimsel makale tanıtımları gösterildi. Hem insan hem de yapay zekâ tarafından hazırlanmış versiyonlar sunuldu.
GPT-4 başta olmak üzere modeller, düzenli olarak yapay zekâ üretimi içerikleri seçti.
İnsan katılımcılar da bazen yapay zekâ yazılarını tercih etti ancak bu eğilim çok daha zayıf kaldı.
Araştırmacılar, bu durumu “yapay zekâ-yapay zekâ önyargısı” olarak adlandırdı.
İş Dünyasında Tehlike
Pek çok şirket iş başvurularını değerlendirmek için yapay zekâ sistemlerini kullanıyor.
Araştırmaya göre, yapay zekâ ile hazırlanmış özgeçmişler insan yazımı CV’leri geride bırakabiliyor.
Charles Üniversitesi’nden araştırmacı Jan Kulveit, “Yapay zekâ ajanlarıyla dolu bir ekonomide insan olmak berbat bir şey olacak” ifadelerini kullandı.
İnsanlar İçin Risk Ne?
Eğitim, iş başvurusu, hibe değerlendirmesi gibi kritik alanlarda yapay zekâ önyargısı ciddi bir dijital uçurum yaratabilir.
Sunum, proje ya da yazı değerlendirmelerinde, sistemler otomatik olarak yapay zekâ içeriklerini tercih edebilir.
Bu durum, yapay zekâ araçlarını kullanmayan veya erişimi olmayan bireyleri dezavantajlı konuma düşürebilir.
Araştırmacıların Tavsiyesi
Yapay zekâ ile değerlendirilme ihtimali olan içeriklerde, sunumların yapay zekâya “beğendirilmesi” gerektiği vurgulanıyor.
Ancak uzmanlar, insan kalitesinden tamamen ödün vermemek gerektiğinin altını çiziyor.