SSRN üzerindeki bu makale, AI teknolojilerinin sıklıkla “etik aktör” olarak sunulmasının ardında yatan illüzyonu tartışıyor. Yazar, AI sistemlerinin karar verme süreçlerine ahlaki niyet atfetmenin yanıltıcı sonuçlar doğurabileceğini öne sürüyor. Bu yaklaşım, AI etiği literatüründe “sorumluluk kaydırma” ve “etik yük devri” gibi kavramları yeniden gözden geçirmeyi öneriyor.

Çalışma, özellikle otonom sistemlerin hata yaptığı veya beklenmedik davranışlar sergilediği durumlarda sorumluluğun kimde olması gerektiğini irdeliyor. AI modelinin bir eylemi gerçekleştirmesi, “iyi niyetli bir karar” olarak değil; programlama, veri seti, tasarım tercihi ve insan gözetimi çerçevesinde değerlendirilmesi gerektiği argümanı sunuluyor. Bu bağlamda, AI’ya aşırı etik yük yüklemek yerine, onu araç olarak görmek; etik sınırları, insan denetimini, düzenlemeleri ve sorumluluğu net biçimde tanımlamak gerektiğini savunuyor.

Sonuç olarak, bu çalışma AI etiği tartışmalarında önemli bir uyarı niteliği taşıyor: yapay zekâyı “ahlaki aktör” olarak idealize etmek cazip olsa da, bu yaklaşım birçok pratik ve felsefi tuzağı beraberinde getiriyor. AI sistemlerinin sınırlarını ve sorumluluk alanlarını kabul eden bir etik çerçeve, teknolojiyle güvenli ve adil bir ilişki kurmanın yolu olabilir.

Kaynak: papers.ssrn


Başa Dön