
İnternetin “engagement-bait” dolu, düşük kalite içerikleriyle beslenen büyük dil modelleri — yani LLM’ler — zamanla bilişsel yetenek kaybı yaşayabiliyor. Bu durumu açıklayan yeni çalışma, sosyal medya gibi “popüler ama değersiz” veri kaynaklarının yapay zekâ için toksik olduğunu ortaya koyuyor. Araştırma, “kaliteli veri = sağlıklı zihin” mantığını LLM’ler için yeniden tanımlıyor.
İncelenen 4 farklı model için yapılan kontrollü deneylerde, modeller “çöp veri (junk data)” ile yeniden eğitildiğinde muhakeme gücü, uzun bağlam takibi, güvenlik ve etik davranışlarda belirgin gerileme görüldü. Örneğin, “reasoning” testlerinde başarı oranı ciddi şekilde düştü; “thought-skipping” (ara adımları atlayarak hızlı ama yüzeysel karar verme) yaygınlaştı. Bu bozulma “kognitif drifte” — yani modelin iç temsil yeteneğinde kalıcı değişime — işaret ediyor. Araştırmacılar, zamanla bu tür verilerin modellenin “kişiliğini” de olumsuz etkileyebileceğini, narsisizm ve “karanlık eğilimler” gibi istenmeyen davranışların artabileceğini belirtiyor.
Üstelik bu olumsuz etkiler, tipik “temizlik” yöntemleriyle — örneğin instruction-tuning ya da kaliteli veriyle yeniden eğitim — tam olarak geri döndürülemiyor. Bu da gösteriyor ki “temiz veriye geri dönmek” her zaman orijinal yeteneği kurtarmaya yetmeyebiliyor. “Veri kürasyonu” artık sadece performans için değil, bir güvenlik ve sürdürülebilirlik meselesi hâline geliyor.
Sonuç olarak LLM Brain Rot çalışması, yapay zekâ geliştiricilerine ve kullanıcılarına önemli bir uyarı gönderiyor: Eğer dil modellerini sürekli olarak hızlı tüketim odaklı, düşük kaliteli verilerle beslerseniz — tıpkı insanların junk-food ile beslenmesi gibi — zamanla “zekâ düşüşü” yaşanabilir. Bu nedenle, yapay zekâ sistemlerini üretkenlik ya da veri miktarından ziyade veri kalitesi, çeşitliliği ve etik doğruluğu üzerinden eğitmek gerekiyor. Aksi takdirde hızlı ama güvenilmez, yüzeysel ve tehlikeli AI’lar ortaya çıkabilir.
Kaynak: github
