AB’nin üç temel kurumu olan Komisyon, Parlamento ve Konsey YZ uygulamalarına ilişkin yasa hazırlığında son aşamaya geldiler.
TechCrunch tarafından yapılan bir habere göre 20 saatten fazla süren görüşmeler sonucunda (temel modeller/genel amaçlı yapay zekalar (GPAI’ler) kuralları konusunda bir ön mutabakat sağlandı.
Habere göre temel model oluşturucuların, telif hakkı sahiplerinin metin ve veri madenciliği konusunda koydukları sınırlamalar da dahil olmak üzere, AB telif hakkı yasasına saygı gösteren bir politika izlemesi gerekecek.
Ayrıca, modeli oluşturmak ve kamuya açıklamak için kullanılan eğitim verilerinin ‘yeterince ayrıntılı’ bir özetinin sağlanması da zorunlu olacak.
Konsey tarafından yapılan basın açıklamasında şunlar söylendi:
Yapay Zeka Yasası, AB’nin tek pazarında hem özel hem de kamu aktörleri tarafından güvenli ve güvenilir yapay zekanın geliştirilmesini ve benimsenmesini teşvik etme potansiyeline sahip, amiral gemisi niteliğinde bir yasama girişimidir. Ana fikir, yapay zekanın “risk temelli” bir yaklaşımla topluma zarar verme kapasitesine göre düzenlenmesidir: risk ne kadar yüksekse, kurallar da o kadar katıdır. Dünyadaki türünün ilk yasama teklifi olarak, tıpkı Genel Veri Koruma Düzenlemesi’nin yaptığı gibi, diğer yetki alanlarındaki yapay zeka düzenlemeleri için küresel bir standart belirleyebilir ve böylece teknoloji düzenlemelerine ilişki Avrupa yaklaşımını dünya ölçeğinde teşvik edebilir.
Geçici Mutabakatın Ana Unsurları
Komisyon’un ilk teklifiyle karşılaştırıldığında, geçici anlaşmanın temel yeni unsurları şu şekilde özetlenebilir:
- Gelecekte sistemik riske neden olabilecek yüksek etkili genel amaçlı yapay zeka modelleri ve yüksek riskli yapay zeka sistemlerine ilişkin kurallar
- AB düzeyinde uygulama yetkilerine sahip, gözden geçirilmiş bir yönetim sistemi
- Yasaklar listesinin genişletilmesi ancak güvenlik önlemlerine tabi olarak kamusal alanlarda kolluk kuvvetleri tarafından uzaktan biyometrik tanımlamanın kullanılması imkanı
- Yüksek riskli yapay zeka sistemlerini kuranların, yapay zeka sistemini kullanıma sokmadan önce temel haklar etki değerlendirmesi yapma zorunluluğu getirilmesi aracılığıyla hakların daha iyi korunması.
Tanımlar ve kapsam
Mutabakat metni YZ sisteminin tanımının, yapay zekayı daha basit yazılım sistemlerinden ayırmak için yeterince açık kriterler sağladığını garantilemek için, tanımı OECD tarafından önerilen yaklaşımla uyumlu hale getiriyor.
Geçici anlaşmada ayrıca düzenlemenin AB hukukunun kapsamı dışındaki alanlara uygulanmadığı ve hiçbir durumda üye devletlerin ulusal güvenlik konusundaki yetkilerini veya bu alanda görevlendirilen herhangi bir kurumu etkilememesi gerektiği de açıklığa kavuşturuluyor. Ayrıca yapay zeka yasası, yalnızca askeri veya savunma amaçlı olarak kullanılan sistemlere uygulanmayacaktır. Benzer şekilde anlaşma, düzenlemenin yalnızca araştırma ve yenilik amacıyla kullanılan yapay zeka sistemlerine veya yapay zekayı profesyonel olmayan nedenlerle kullanan kişilere uygulanmayacağını öngörüyor.
Yapay zeka sistemlerinin yüksek riskli ve yasaklı yapay zeka uygulamaları olarak sınıflandırılması
Mutabakat metni, ciddi temel hak ihlallerine veya diğer önemli risklere neden olması muhtemel olmayan yapay zeka sistemlerinin etkilenmemesi için yüksek risk sınıflandırması gibi bazı yatay koruma katmanları sağlıyor. Sınırlı risk taşıyan yapay zeka sistemleri, kullanıcıların bilinçli kararlar alabilmesi için, içeriğin yapay zeka tarafından oluşturulduğunun açıklanması gibi çok hafif şeffaflık yükümlülüklerine tabi olacaktır.
Çok çeşitli yüksek riskli yapay zeka sistemlerine izin verilmesi ancak AB pazarına erişim sağlamak için bir dizi gereksinim ve yükümlülüğe tabi olmalarıyla mümkün olacak.
Yapay zeka sistemleri karmaşık değer zincirleri aracılığıyla geliştirilip dağıtıldığından, mutabakat anlaşması, bu zincirlerdeki çeşitli aktörlerin, özellikle de yapay zeka sistemlerinin sağlayıcıları ve kullanıcılarının sorumluluklarının ve rollerinin açıklığa kavuşturulmasını hedefleyen değişiklikleri içeriyor.
Yapay zekanın bazı kullanımları kabul edilemez risk olarak değerlendiriliyor ve bu nedenle bu sistemler AB’de yasaklanacak. Mutabakat metni, örneğin bilişsel davranışsal manipülasyonu, internetten veya CCTV görüntülerinden yüz görüntülerinin alınmasını, işyerinde ve eğitim kurumlarında duygu tanımlamayı, sosyal puanlamayı, cinsel yönelim veya dini inanç gibi hassas verileri çıkarmak için inançlar ve bireylere yönelik biyometrik sınıflandırmayı ve engelleyici gözetim gibi uygulamaları yasaklıyor.
Kolluk Kuvvetleri İçin İstisnalar
Kolluk kuvvetlerinin özellikleri ve hayati işlerinde yapay zekayı kullanma yeteneklerini koruma ihtiyacı göz önüne alınarak yapay zeka sistemlerinin kullanımına ilişkin Komisyon teklifinde kolluk kuvvetleri için çeşitli değişiklikler yapılmasına karar verildi. Örneğin, kolluk kuvvetlerinin acil durumlarda uygunluk değerlendirme prosedürünü geçemeyen yüksek riskli bir yapay zeka aracını devreye almasına izin veren bir acil durum prosedürü uygulamaya konuldu. Bununla birlikte, yapay zeka sistemlerinin olası suiistimallerine karşı temel hakların yeterince korunmasını sağlamak için özel bir mekanizma da uygulamaya konuldu.
Ayrıca, kamuya açık alanlarda gerçek zamanlı uzaktan biyometrik tanımlama sistemlerinin kullanımına ilişkin olarak, bu tür bir kullanımın hangi hallerde kolluk kuvvetlerinin amaçları doğrultusunda kesinlikle gerekli olduğu ve dolayısıyla hangi kolluk kuvvetlerinin bu tür sistemleri kullanmasına istisnai olarak izin verilmesi gerektiğini açıklığa kavuşturmaktadır. Uzlaşma anlaşması ek güvenceler sağlamakta ve bu istisnaları belirli suçların mağdurları, terör saldırıları gibi gerçek, mevcut veya öngörülebilir tehditlerin önlenmesi ve insan arama vakalarıyla sınırlandırmaktadır.
Genel amaçlı yapay zeka sistemleri ve temel modelleri
Yapay zeka sistemlerinin birçok farklı amaç için kullanılabileceği (genel amaçlı yapay zeka) ve genel amaçlı yapay zeka teknolojisinin daha sonra başka bir yüksek riskli sisteme entegre edildiği durumları hesaba katacak yeni hükümler eklendi. Mutabakat aynı zamanda genel amaçlı yapay zeka (GPAI) sistemlerinin spesifik durumlarını da ele alıyor.
Video, metin, görüntü oluşturma, yan dilde konuşma, hesaplama veya bilgisayar kodu oluşturma gibi çok çeşitli farklı görevleri yetkin bir şekilde yerine getirebilen büyük sistemler olan temel modeller için de özel kurallar üzerinde anlaşmaya varıldı. Mutabakat, temel modellerin piyasaya sürülmeden önce belirli şeffaflık yükümlülüklerine uyması gerektiğini öngörüyor.
Yeni bir yönetim mimarisi
GPAI modellerine ilişkin yeni kuralların ve bunların AB düzeyinde uygulanmasına yönelik bariz ihtiyacın ardından, bu en gelişmiş yapay zeka modellerini denetlemek, standartların ve test uygulamalarının geliştirilmesine katkıda bulunmak ve ortak kuralların üye devletlerde uygulanmasını sağlamak üzere Komisyon bünyesinde bir Yapay Zeka Ofisi kuruldu. Bağımsız uzmanlardan oluşan bilimsel bir grupla, temel modellerinin yeteneklerinin değerlendirilmesine yönelik metodolojilerin geliştirilmesine katkıda bulunarak, yüksek etkili temel modellerinin belirlenmesi ve ortaya çıkması konusunda YZ Ofisine tavsiyelerde bulunacak.
Üye devletlerin temsilcilerinden oluşacak olan YZ Kurulu oluşturulacak ve bu Kurul Komisyon için bir koordinasyon platformu ve danışma organı olarak çalışacak.
Cezalar
Yapay zeka kanununun ihlaline ilişkin para cezaları, suçu işleyen şirketin bir önceki mali yıldaki küresel yıllık cirosunun bir yüzdesi veya önceden belirlenmiş bir tutar (hangisi daha yüksekse) olarak belirlendi. Bu, yasaklı yapay zeka uygulamalarının ihlali için 35 milyon avro veya % 7, yapay zeka yasasının yükümlülüklerinin ihlali için 15 milyon avro veya % 3 ve yanlış bilgi sağlanması için 7,5 milyon avro veya % 1,5 olacak.
Ayrıca, bir gerçek veya tüzel kişinin YZ Yasası’na uyulmamasına ilişkin olarak ilgili piyasa gözetimi otoritesine şikayette bulunabileceği ve bu tür bir şikayetin söz konusu otoritenin özel prosedürleri doğrultusunda ele alınmasını bekleyebileceği açıkça belirtilmektedir.
Şeffaflık ve temel hakların korunması
Metin, yüksek riskli bir yapay zeka sisteminin piyasaya sürülmeden önce temel haklar üzerindeki etki değerlendirmesinin yapılmasını sağlıyor. Aynı zamanda yüksek riskli yapay zeka sistemlerinin kullanımına ilişkin şeffaflığın artırılmasını da sağlıyor. Yüksek riskli yapay zeka sisteminin kamu kurumu olan belirli kullanıcılarının aynı zamanda yüksek riskli yapay zeka sistemleri için AB veri tabanına kayıt yaptırmak zorunda olacağını da belirtiyor. Ayrıca yeni eklenen hükümler, duygu tanıma sistemi kullanılması halinde, etkilenen gerçek kişileri bilgilendirme yükümlülüğüne vurgu yapıyor.
İnovasyonu destekleyen önlemler
Yeniliğe daha duyarlı bir yasal çerçeve oluşturmak ve kanıta dayalı düzenleyici öğrenmeyi teşvik etmek amacıyla, yeniliği destekleyen tedbirlere ilişkin hükümler, Komisyonun teklifiyle karşılaştırıldığında önemli ölçüde değiştirildi.
Yenilikçi yapay zeka sistemlerinin geliştirilmesi, test edilmesi ve doğrulanması için kontrollü bir ortam oluşturması beklenen “yapay zeka düzenleyici sanal alanların” aynı zamanda yenilikçi yapay zeka sistemlerinin gerçek dünya koşullarında test edilmesine de izin vermesi gerektiği açıkça açıklandı. Ayrıca yapay zeka sistemlerinin gerçek dünya koşullarında, belirli koşullar ve güvenlik önlemleri altında test edilmesine olanak tanıyan yeni hükümler eklendi. Küçük şirketlerin idari yükünü hafifletmek amacıyla, bu tür işletmecileri desteklemek için gerçekleştirilecek eylemlerin bir listesini içermekte ve bazı sınırlı ve açıkça belirtilmiş istisnalar öngörmektedir.
Yürürlüğe girme
Geçici anlaşma, YZ Yasası’nın, belirli hükümler için bazı istisnalar dışında, yürürlüğe girmesinden iki yıl sonra uygulanması gerektiğini öngörmektedir.