Dünyadaki ilk “yapay zeka yasası”, Avrupa Parlamentosu tarafından 14 Haziran tarihinde kabul edilmişti. Uzun zamandır üzerinde görüşülen ve tartışılan yasa, yapay zeka alanında dünya çapında daha güvenli ve şeffaf bir standart belirlenmesi için önemli düzenlemeleri kapsıyor. (curlygirldesign.com) Örneğin Midjourney ve ChatGPT gibi büyük modellere önemli yükümlülükler getiriyor. 2024 yılında yürürlüğe girmesi beklenen yasanın kapsamını ve dikkat çeken başlıkları bu yazımda değerlendirdim.
Avrupa Parlamentosu’nun büyük çoğunluğunun oylarıyla kabul edilen yapay zeka yasası düşük riskli, sınırlı riskli, yüksek riskli ve kabul edilemez” olarak dört ana kategoriyi kapsıyor.
Düzenlemede öne çıkan başlıkları şöyle değerlendirmek mümkün;
•Spam filtreleri ve video oyunları gibi düşük riskli yapay zekaya izin verilecek.
•Bankacılık veya havayolu internet sitelerindeki sohbet robotları gibi orta riskli yapay zeka, şeffaflık yükümlülüklerine uymak zorunda olacak.
•Kendi kendine giden taşıtlar ve robotik cerrahi gibi yüksek riskli yapay zeka katı kontrollere tabi olacak.
•Sosyal puanlama için yapay zeka kullanımı kesinlikle yasaklanacak, vatandaşların davranışlarını analiz eden ve değerlendiren sistemlere izin verilmeyecek.
“Gerçek zamanlı yüz tanıma” konusunda yoğun tartışmaların yaşandığı yasa ile hayatımıza girecek en önemli uygulama kamusal alanlarda akıllı kameralar aracılığıyla yüz tanıma uygulamasının yasaklanması olacak.
Düzenlemeye göre halka açık alanlarda “gerçek zamanlı” uzaktan biyometrik tanımlama sistemleri;
•Yalnızca ciddi suçların kovuşturulması için yargısal izne tabi olan “sonradan” uzaktan biyometrik tanımlama sistemleri (tek istisna olarak kolluk kuvvetleri);
•Hassas özellikleri (örn. cinsiyet, ırk, etnik köken, vatandaşlık durumu, din, siyasi yönelim) kullanarak biyometrik kategorizasyon sistemleri;
•Yapay zeka sistemlerinin, yasal uygulamalarda, sınır yönetiminde, işyerlerinde ve eğitim kurumlarında kullanıldığında duyguları, fiziksel özellikleri veya fizyolojik özellikleri (örn. yüz ifadeleri, hareketler, nabız hızı veya ses) tespit etmeyi amaçlayan uygulamalar;
•İnternet veya CCTV görüntülerinden yüzeysel olarak yüz tarama yapılarak yüz tanıma veritabanları oluşturmanın dışında kullanılamayacak.
Ayrıca, seçim veya referandum sonucunu veya doğal kişilerin oy davranışını etkilemeyi amaçlayan yapay zeka sistemlerinin yüksek riskli yapay zeka sistemleri olarak sınıflandırılması gerektiği yasaya eklendi. Doğrudan tüketiciye sunulmayan yapay zeka sistemleri, politik kampanyaların yönetimi, optimizasyonu ve yapılandırılması için kullanılan araçlar gibi (yönetimsel ve lojistik açıdan) yüksek riskli sınıflandırmaya dahil edilmezken, ortalama kullanıcıların biyometrik tanımlanmasını amaçlayan yapay zeka sistemleri ve biyometrik veya biyometrik tabanlı veriler temelinde tüketicilerin kişisel özellikleri hakkında çıkarımlar yapmayı amaçlayan yapay zeka sistemleri (bu düzenleme tarafından yasaklanmayanlar hariç) yüksek riskli olarak sınıflandırıldı.
Düzenlemede ayrıca teknolojik gelişmelerin hızlı ilerlemesi ve yapay zeka sistemlerinin kullanımında potansiyel değişiklikler göz önünde bulundurularak, Yüksek Riskli Alanlar ve Kullanım Alanları listesinin Ek III’te düzenli değerlendirmeler yoluyla sürekli gözden geçirilmesi gerektiğini belirtildi.
Bununla birlikte temel AI teknoloji modellerin sağlayıcıları, sağlık, güvenlik, temel haklar, çevre, demokrasi ve hukukun üstünlüğüne yönelik olası riskleri değerlendirmek ve modellerini AB veritabanına kaydetmek zorunda olacaklar. Özellikle, karmaşık metin, görüntü, ses ve video verileri gibi içeriği (çeşitli düzeylerde otonomiyle) üretmeyi amaçlayan yapay zeka sistemlerinde kullanılan temel model sağlayıcıları ve temel modeli üretken bir yapay zeka sistemine dönüştüren sağlayıcılar, şeffaflık yükümlülüklerine de uymak zorunda olacaklar. Ayrıca, temel modeli yasa dışı içerik üretimi konusunda yeterli önlemlerle eğitme ve geliştirme zorunluluğu da söz konusu artık. Bu sağlayıcılar ayrıca, telif hakkıyla korunan eğitim verilerinin yeterince ayrıntılı bir özetini halka açık hale getirmek durumunda kalacaklar. Bununla birlikte yüksek riskli yapay zekâ kullanan kullanıcıların, yüksek riskli yapay zekâ sistemi üzerinde kontrol uygulamaları durumunda, aşağıdaki adımları izlemesi gerektiği değiştirildi:
•Bu yönetmeliğin belirlediği gereksinimlere göre denetim uygulamak;
•Yüksek riskli yapay zekâ sistemlerinin denetimini sağlayacak kişilerin, taslak AI Yasası’na uygun şekilde yeterli, uygun niteliklere sahip ve eğitimli olmasını sağlamak ve etkili denetimi sağlamak için gerekli kaynaklara sahip olmalarını sağlamak;
•İlgili ve uygun güvenlik önlemlerinin düzenli olarak etkinliğinin izlenmesini ve düzenli olarak ayarlanmasını veya güncellenmesini sağlamak.
Avrupa Avrupa Parlamentosu’nun AI Act’e getirdiği değişiklikler, Avrupa’nın Geleceği Konferansı’nda (eucrim 2/2022 84-85) yapılan önerileri de dikkate alıyor. Bu öneriler arasında, yapay zeka ile ilgili süreçlerde insan denetiminin sağlanması, güvenilir yapay zekâ potansiyelinin tam olarak kullanılması ve dil bariyerlerini aşmak için yapay zeka ve çeviri teknolojilerinin kullanılması yer alıyor.
Bu düzenlemeler, yapay zekânın etik kullanımı, veri mahremiyeti, demokrasi ve temel hakların korunması gibi önemli konulara odaklanarak, yapay zekânın Avrupa’daki toplum ve ekonomi üzerindeki etkilerini dengelemeyi amaçlıyor. Bu tür düzenlemeler, yapay zeka teknolojisinin pozitif yönlerinden faydalanırken, olası riskleri ve tehlikeleri de önceden tespit ederek önlem almayı hedefliyor. Bu sayede, yapay zeka teknolojisinin ilerlemesiyle birlikte Avrupa’nın değerleri ve temel hakları korumak için adımlar atılması amaçlanıyor.