
OpenAI, ChatGPT’nin politik konulardaki yanıtlarını mercek altına alan yeni bir değerlendirme çalışmasını yayımladı. The Verge’ün aktardığına göre şirket, modelin farklı siyasi perspektiflere verdiği yanıtları ölçerek olası önyargıları anlamayı amaçladı. Amaç, ChatGPT’nin bilinçli bir ideolojik çizgi izlemediğini, ancak eğitim verisi ve insan geri bildirimlerinin sonuçları etkileyebileceğini şeffaf biçimde ortaya koymak.
Yapılan testlerde ChatGPT’ye farklı siyasi görüşleri temsil eden sorular yöneltildi ve yanıtların tonu, çerçevesi ve denge unsurları analiz edildi. Sonuçlar, modelin bazı konularda daha “temkinli” veya “yumuşatılmış” ifadeler kullandığını, bunun da tarafsızlık algısını zedeleyebileceğini gösteriyor. OpenAI, bu durumun kasıtlı bir politik yönlendirme değil; güvenlik, zararlı içerikten kaçınma ve eğitim verilerinin doğal bir sonucu olduğunu vurguluyor. Şirket ayrıca bu tür değerlendirmelerin düzenli hale getirileceğini ve kullanıcı geri bildirimlerinin model iyileştirmelerinde daha aktif rol oynayacağını belirtiyor.
Bu değerlendirme, yapay zekânın kamusal söylem üzerindeki etkisinin giderek arttığı bir dönemde önemli bir eşik niteliği taşıyor. ChatGPT gibi modeller, milyonlarca insanın bilgiye erişim biçimini şekillendirirken, tarafsızlık beklentisi de aynı ölçüde yükseliyor. OpenAI’nin bu adımı, mükemmel bir çözüm sunmaktan ziyade, politik önyargıların ölçülebilir, tartışılabilir ve iyileştirilebilir olduğunu kabul eden daha açık bir yaklaşımı temsil ediyor.
Kaynak: knowtechie
