
Yasa, yapay zekânın risk seviyesine göre sınıflandırılmasını, yüksek riskli uygulamalarda açıklama ve kontrol zorunluluklarını ve sistemin hesap verebilirliğini öne çıkarıyor. Örneğin sağlık, adalet, gözetim sistemleri gibi alanlarda kullanılan AI’ların şeffaf algoritmalar sunması, veri kaynağını bildirmesi ve insan müdahalesine açık olması şart koşuluyor. AI şirketleri, sistemlerini onayın yanı sıra sürekli risk değerlendirmesine tabi tutacak, ihlaller ağır yaptırımlarla cezalandırılacak. Bu yasa ayrıca yapay zekânın çevresel etkilerini, inovasyon teşvikini ve veri egemenliğini de kapsayan maddeler içeriyor.
İtalya’nın bu hamlesi, AB genelinde AI düzenlemesinin hızlanmasına zemin hazırlayabilir. Diğer üyeler, İtalya’nın deneyimini referans alarak benzer yaklaşımlar geliştirebilir. Ancak yasal metnin uygulanabilirliği, kurumların kapasitesi ve AI teknolojisinin hızlı evrimi bu sürecin test sahası olacak.
Kapsamlı AI düzenlemesi, hem sivil hakları korumayı hem de teknolojik ilerlemeyi teşvik etmeyi amaçlıyor. İtalya, bu dengeyi sağlayabilirse regülasyon alanında örnek gösterilebilir.
Bu adım, yapay zekâya yalnızca teknolojik bir yenilik değil, toplumsal bir yükümlülük olarak bakılması gerektiğini teyit ediyor.
Kaynak: theguardian
