BM, “Granite 4.0: Hyper-Efficient, High Performance Hybrid Models for Enterprise” başlıklı duyuruyla yeni nesil dil modellerini tanıttı. Bu sürüm, hibrit Mamba/Transformer mimarisi sayesinde, önceki modellere kıyasla çok daha düşük bellek gereksinimiyle çalışabiliyor. Ayrıca tüm model ailesi, Apache 2.0 lisansıyla açık kaynak olarak sunulmakta ve ISO 42001 sertifikasıyla güvenlik, yönetişim ve şeffaflık standartlarını sağlıyor.

Granite 4.0 modelleri; H-Small, H-Tiny, H-Micro ve klasik Micro varyantlarını içeriyor. Hibrit modeller, özellikle uzun içerikler ve eş zamanlı birçok oturum (concurrent inference) gerektiren senaryolarda bellek kullanımı açısından ciddi avantajlar sunuyor. Örneğin ön tanıtım aşamasındaki Granite 4.0 Tiny modeli, önceki model sürümlerine kıyasla yaklaşık %70’e kadar daha az RAM kullanımı gerektirebiliyor. Model ailesi halihazırda IBM watsonx.ai üzerinden erişilebilir durumda ve Dell, Hugging Face, Docker Hub gibi platformlarda da destekleniyor.

Sonuç olarak IBM, Granite 4.0 ile özellikle kurumlar ve geliştiriciler için “küçük ama güçlü” bir model yaklaşımını ileri taşımayı hedefliyor. Daha düşük maliyet, daha az donanım gereksinimi ve güvenli, şeffaf model yönetimiyle, bu duyuru AI uygulamaları için yeni bir paradigma değişiminin habercisi olabilir.

Kaynak: IBM


Başa Dön