1- GİRİŞ
AI Act veya Yapay
Zeka Yasası adıyla bilinen Yapay Zekâ Hakkında Uyumlaştırılmış Kuralların
Belirlenmesi ve Belirli Birlik Mevzuatı Yasalarında Değişiklik Yapılması
Hakkında Regülasyon (“Tüzük”), yapay zekanın risklerini ele alan ve Avrupa'yı
küresel alanda öncü bir rol oynamaya konumlandıran yapay zeka konusunda en
kapsamlı yasal çerçevelerdendir [1]. Avrupa Komisyonu tarafından hazırlanan 2024/1689
sayılı Tüzük, 21 Nisan 2021 tarihinde sunulmuştur. 6 Aralık 2022’de Yapay Zeka
için Avrupa Birliği düzenleyici çerçevesinin önerilmesinin ardından Konsey,
Komisyon ve Parlamento arasında yürütülen müzakereler neticesinde 12 Temmuz
2024 tarihinde AB Resmi Gazetesi’nde yayımlanmıştır. Tüzük, 1 Ağustos 2024
tarihinde yürürlüğe girmiştir. [2] Tüzük 2 Ağustos 2026 tarihinden itibaren
genel olarak uygulama alanı bulacaktır. (Article 113- This Regulation shall
enter into force on the twentieth day following that of its publication in the
Official Journal of the European Union. It shall apply from 2 August 2026.)
Bu Tüzüğün amacı Tüzük metninde
“Konu” başlıklı ilk maddede kısaca; iç pazarın işleyişini iyileştirmek ve
insan odaklı ve güvenilir yapay zeka (AI) kullanımını teşvik etmek, aynı
zamanda sağlık, güvenlik, demokrasi, hukukun üstünlüğü ve çevre koruma dahil
olmak üzere Şartta yer alan temel hakların yüksek düzeyde korunmasını sağlamak,
Birlik içindeki AI sistemlerinin zararlı etkilerine karşı koruma sağlamak ve
inovasyonu desteklemek, şeklinde tanımlanmıştır. [3]
2- ARTİFİCİAL INTELLİGENCE (YAPAY
ZEKA) NEDİR?
Avrupa Birliği, Amerika Birleşik Devletleri
ve Birleşmiş Milletler tarafından yapay zeka için OECD’nin (Organisation for
Economic Co-operation and Development - Ekonomik Kalkınma ve İş Birliği Örgütü)
“Yapay Zeka İlkeleri” tanımı kullanılmaktadır. 2019 yılında kabul edilen OECD
ilkeleri Mayıs 2024’te revize edilerek güncellenmiştir. OECD tanımına göre; Yapay
zekâ sistemi, açık veya örtük hedefler doğrultusunda, aldığı girdilerden,
fiziksel veya sanal ortamları etkileyebilecek tahminler, içerik, öneriler veya
kararlar gibi çıktıların nasıl üretileceğini çıkarsayan makine tabanlı bir
sistemdir. (An AI system is a machine-based system that, for explicit or
implicit objectives, infers, from the input it receives, how to
generate outputs such as predictions, content, recommendations, or
decisions that can influence physical or virtual
environments.) [4]
Avrupa Komisyonu tarafından 2020 yılında yayımlanan Yapay Zekâya İlişkin Beyaz Kitap’ta şu ifadeye yer verilmiştir: “Yapay zekâ hızla gelişmektedir. Yapay zekâ, hastalıkların daha doğru teşhisi ve daha iyi önlemesi gibi yollarla sağlık hizmetlerini iyileştirerek, tarımın verimliliğini artırarak, iklim değişikliğiyle mücadeleye ve değişikliğe uyum sağlamada katkıda bulunarak, öngörücü bakım yoluyla üretim tesislerinin verimliliğini artırarak hayatımızı değiştirecektir.” [5]
3- YAPAY ZEKA YASASI’NIN SINIFLANDIRMA SİSTEMİ
Tüzükte, risk odaklı bir yaklaşım
izlenmiştir. Buna göre, belirli bir uygulamanın sağlık, güvenlik ya da temel
haklar açısından oluşturduğu risk ne kadar yüksekse, yükümlülükler de o kadar
katı olur [6].
Yapay zekâ sistemleri, kabul
edilemez risk, yüksek risk, sınırlı risk ve minimal risk olarak dört risk
grubuna göre sınıflandırılır.
3.1- Kabul Edilemez Risk
Kabul edilemez risk sınıfında
görülen yapay zeka sistemleri insanların yaşantısı bakımından tehdit olarak
görülmektedir. Kabul edilemez nitelikte olup yasaklanmış yapay zeka
uygulamaları Tüzüğün II. Bölüm ve 5. Maddesinde sırasıyla sayılmıştır. Avrupa Birliği
tarafından insan onuruna saygı, özgürlük, eşitlik, demokrasi ve hukukun
üstünlüğü değerleri ile Avrupa Birliği tarafından kabul edilen temel haklara
aykırı olan yapay zeka sistemleridir. Bu nedenle bu kategoriye giren
yapay zeka sistemleri yasaktır.
Madde 5/1-A ile bir kişinin
veya bir grup insanın bilinçli karar verme yeteneğini önemli ölçüde bozarak
davranışlarını önemli ölçüde çarpıtma amacı veya etkisiyle, bir kişinin veya
bir grup insanın bilincinin ötesinde bilinçaltı teknikler veya kasıtlı olarak
manipülatif veya aldatıcı teknikler kullanan bir yapay zeka sistemleri,
Madde 5/1-B ile yaş,
engellilik veya belirli bir sosyal veya ekonomik durum nedeniyle bir gerçek
kişinin veya belirli bir grup kişinin zaaflarından herhangi birini istismar
eden bir yapay zekâ sistemleri,
Madde 5/1-C ile sosyal
derecelendirme sistemleri,
Madde 5/1-D ile kişinin
profilinin çıkarılmasına veya kişilik özellikleri ve niteliklerinin
değerlendirilmesine dayalı olarak, bir gerçek kişinin risk değerlendirmelerini
yapan yapay zeka sistemleri,
Madde 5/1-E ile yüz tanıma veri
tabanları oluşturan veya genişleten yapay zekâ sistemleri,
Madde 5/1-F ile işyerleri ve
eğitim kurumları gibi alanlarda, gerçek kişinin duygularını anlamak amacıyla
piyasaya arz edilen yapay zeka sistemleri,
Madde 5/1-G ile kişilerin,
ırklarına, siyasi görüşlerine, sendika üyeliklerine, dinsel veya felsefi
inançlarına, cinsel yaşamlarına veya cinsel yönelimlerine göre çıkarımlarda
bulunup bu biyometrik verilerine dayanarak ayrı ayrı kategorilere ayıran yapay
zeka sistemleri,
Madde 5/1-H’de kolluk
kuvvetlerinin amaçları doğrultusunda kamuya açık alanlarda 'gerçek zamanlı'
uzaktan biyometrik tanımlama sistemlerini kullanan yapay zeka sistemleri yasaklanmış
durumdadır.
Tüzük’te bu sınıfa ilişkin
gerekçe kısmında yer alan aşağıdaki düzenlemeler örnek olarak incelenebilir.
“(32) Yapay zekâ
sistemlerinin, kolluk kuvvetlerinin kamuya açık alanlarda gerçek kişilerin "gerçek
zamanlı" uzaktan biyometrik kimlik tespiti için kullanılması, ilgili
kişilerin hak ve özgürlüklerine, nüfusun büyük bir bölümünün özel hayatını
etkileyebilecek, sürekli gözetim hissi uyandırabilecek ve dolaylı olarak
toplanma özgürlüğü ve diğer temel hakların kullanılmasını engelleyebilecek
ölçüde özellikle müdahalecidir.
(…)
(43) Yüz görüntülerinin
internetten veya CCTV görüntülerinden hedefsiz bir şekilde toplanması yoluyla yüz
tanıma veri tabanları oluşturan veya genişleten yapay zeka sistemlerinin
piyasaya sürülmesi, bu özel amaç için hizmete sunulması veya kullanılması
yasaklanmalıdır; çünkü bu uygulama kitlesel gözetleme hissini
artırır ve gizlilik hakkı da dahil olmak üzere temel hakların ağır ihlallerine
yol açabilir.
(44) (…)
Bu nedenle, biyometrik
verilerine dayanarak gerçek kişilerin duygularını veya niyetlerini tespit eden
veya çıkarsayan yapay zekâ sistemleri ayrımcı sonuçlara yol açabilir ve ilgili
kişilerin hak ve özgürlüklerine müdahale edebilir. İş veya eğitim bağlamındaki
güç dengesizliği ve bu sistemlerin müdahaleci niteliği göz önüne alındığında,
bu sistemler belirli gerçek kişilere veya bunların tüm gruplarına zararlı veya
olumsuz muameleye yol açabilir. Bu nedenle, iş yeri ve eğitimle ilgili
durumlarda bireylerin duygusal durumlarını tespit etmek amacıyla kullanılmak
üzere tasarlanan yapay zekâ sistemlerinin piyasaya sürülmesi, hizmete sunulması
veya kullanılması yasaklanmalıdır.”
Görüldüğü üzere insanlar
bakımından tehdit olarak görülen, davranış manipülasyonları ile insan duygu ve
davranışlarını etkileyebilecek, insan duygularını sömürmeye açık, temel haklara
halel getirebilecek; insanları davranışlarına, sosyoekonomik durumlarına veya
özelliklerine göre sınıflandırarak sosyal tanımlama yapan nitelikte olan yapay
zeka sistemleri kabul edilemez risk kategorisindedir.
Ancak bu yasaklamalara ilişkin
istisnalar da Tüzük’te düzenlenmiştir. Örneğin Tüzük metninden açıkça yer alan
“Ayrıca, kolluk kuvvetlerinin kamuya açık alanlarda "gerçek
zamanlı" uzaktan biyometrik tanımlama sistemlerinin kullanımı, yalnızca
özel olarak hedeflenen kişinin kimliğini doğrulamak amacıyla kullanılmalı ve
özellikle tehditler, mağdurlar veya faile ilişkin kanıt veya göstergeler
dikkate alınarak, zaman dilimi, coğrafi ve kişisel kapsam açısından kesinlikle
gerekli olanla sınırlı olmalıdır. (In addition, the use of ‘real-time’ remote
biometric identification systems in publicly accessible spaces for the purpose
of law enforcement should be deployed only to confirm the specifically targeted
individual’s identity and should be limited to what is strictly necessary
concerning the period of time, as well as the geographic and personal scope,
having regard in particular to the evidence or indications regarding the
threats, the victims or perpetrator.)” gibi ifadeler ile belirli birtakım
durumlarda gerçek zamanlı uzaktan biyometrik tanıma sistemlerinin
kullanılmasına izin verilmektedir.
3.2- Yüksek Risk
Yüksek riske ilişkin düzenlemeler
Tüzüğün III. bölümünde yer almaktadır. Yüksek risk kategorisinde bulunan yapay
zeka sistemlerinin kullanımına ve sunulmasına izin verilmiş olmakla birlikte
yapay zekaların eğitilmesi sürecinden başlamak üzere son kullanıcıya
sunulmasına kadar geçen süreçler bakımından operatörler birtakım yükümlülüklere
tabi tutulmuştur. Yapılan düzenlemeye göre aşağıdaki iki koşulu karşılayan
yapay zeka sistemleri yüksek riskli olarak kabul edilecektir:
“(a) yapay zekâ sistemi, bir
ürünün güvenlik bileşeni olarak kullanılmak üzere tasarlanmışsa veya Ek I'de
listelenen AB uyumlaştırma mevzuatına tabi bir ürünse;
(b) (a) bendi uyarınca güvenlik
bileşeni olarak yapay zekâ kullanılan bir ürünün veya kendisi bir ürün olan
yapay zekâ sisteminin, Ek I’de listelenen AB uyumlaştırma mevzuatına göre
piyasaya sürülmeden veya hizmete sunulmadan önce üçüncü taraf uygunluk değerlendirmesine
tabi tutulması gerekiyorsa” (Md. 6/1)
Tüzüğün 6/2. maddesine göre
aşağıdaki hallerde yapay zeka sistemleri yüksek riskli olarak
değerlendirilecektir.
(a) Yapay zekâ sisteminin dar bir
prosedürel görevi yerine getirmesi amaçlanıyorsa;
(b) Yapay zekâ sisteminin daha
önce tamamlanmış bir insan faaliyetinin sonucunu iyileştirmesi amaçlanıyorsa;
(c) Yapay zekâ sisteminin karar
verme kalıplarını veya önceki karar verme kalıplarından sapmaları tespit etmesi
amaçlanıyorsa ve uygun insan incelemesi olmaksızın önceden tamamlanmış insan
değerlendirmesinin yerini alması veya etkilemesi amaçlanmıyorsa;
(d) Yapay zekâ sistemi, Ek III’te
listelenen kullanım durumlarının amacına uygun bir değerlendirme için bir
hazırlık görevi gerçekleştirmeyi amaçlıyorsa
Tüzüğün 6/2. maddesine göre Ek III'te
belirtilen yapay zekâ sistemleri de yüksek riskli olarak kabul edilecektir.
Bireyler söz konusu yapay zeka
sistemleriyle ilgili olarak ulusal makamlara şikayette bulunma hakkına da
sahiptir. Tüzüğün 6/4. maddesine göre Ek III'te belirtilen bir yapay zekâ
sisteminin yüksek riskli olmadığını düşünen bir sağlayıcı, söz konusu sistem
piyasaya sürülmeden veya hizmete sunulmadan önce değerlendirmesini
belgelendirmelidir.
Uzaktan biyometrik tanımlama
sistemleri, biyometrik kategorilendirme, duygu tanıma sistemleri, AB veri
tabanına kaydedilmesi gereken altyapının yönetimi ve istihdam, eğitim ve
mesleki eğitim, temel özel ve kamu hizmetlerine erişim ve bu hizmetlerden
faydalanma, hukuki yaptırım, göç, iltica ve sınır kontrolü yönetimi, hukuki
yorum ve hukuk uygulamasına destek alanlarında kullanılan yapay zeka sistemleri
de yüksek riskli yapay zekâ sistemleri olarak kabul edilmektedir [7].
3.3.- Sınırlı Risk
Sınırlı risk teşkil eden yapay
zeka sistemlerine ilişkin yükümlülükler Tüzüğün 50. maddesinde “Belirli Yapay
Zekâ Sistemlerinin Sağlayıcıları ve Kullanıcıları İçin Şeffaflık Yükümlülükleri
(Transparency obligations for providers and deployers of certain AI systems)”
başlığı ile düzenlenmiştir.
Bu düzenlemelere göre:
- Sağlayıcılar, gerçek kişilerle
doğrudan etkileşim kurmayı amaçlayan yapay zekâ sistemlerinin, ilgili gerçek
kişilerin bir yapay zekâ sistemiyle etkileşimde bulundukları konusunda
bilgilendirilmelerini sağlayacak şekilde tasarlanmasını ve geliştirilmesini
sağlar ancak bu durum, kullanım koşulları ve bağlamı dikkate alındığında makul
derecede bilgili, gözlemci ve dikkatli bir gerçek kişinin bakış açısından
açıkça anlaşılıyorsa geçerlidir. Bu yükümlülük, üçüncü tarafların hak ve
özgürlüklerine ilişkin uygun güvencelere tabi olarak, suçları tespit etmek,
önlemek, soruşturmak veya kovuşturmak üzere kanunen yetkilendirilmiş yapay zekâ
sistemleri için geçerli değildir; ancak bu sistemler, suç duyurusunda bulunmak
üzere kamuya açık olmalıdır. (Madde 50/1),
- Genel amaçlı yapay zekâ
sistemleri de dahil olmak üzere, sentetik ses, görüntü, video veya metin
içeriği üreten yapay zekâ sistemi sağlayıcıları, yapay zekâ sisteminin
çıktılarının makine tarafından okunabilir bir formatta işaretlenmesini ve yapay
olarak oluşturulmuş veya değiştirilmiş olarak tespit edilebilir olmasını
sağlamalıdır. Sağlayıcılar, çeşitli içerik türlerinin özelliklerini ve
sınırlamalarını, uygulama maliyetlerini ve ilgili teknik standartlarda
yansıtılabilecek genel kabul görmüş son teknolojiyi dikkate alarak, teknik
olarak mümkün olduğu ölçüde teknik çözümlerinin etkili, birlikte çalışabilir,
sağlam ve güvenilir olmasını sağlamalıdır. Bu yükümlülük, yapay zekâ
sistemlerinin standart düzenleme için yardımcı bir işlev görmesi veya uygulayıcı
tarafından sağlanan girdi verilerini veya bunların anlamlarını önemli ölçüde
değiştirmemesi veya yasa tarafından suçları tespit etme, önleme, soruşturma
veya kovuşturma yetkisi verildiği durumlarda geçerli değildir. (Madde 50/2)
- Duygu tanıma sistemi veya
biyometrik kategorilendirme sistemi uygulayıcıları, sisteme maruz kalan gerçek
kişileri sistemin işleyişi hakkında bilgilendirecek ve kişisel verileri,
geçerli olduğu hallerde (AB) 2016/679 ve (AB) 2018/1725 sayılı Tüzükler ile (AB)
2016/680 sayılı Direktif uyarınca işleyecektir. Bu yükümlülük, üçüncü
tarafların hak ve özgürlüklerine ilişkin uygun güvenceler ve Birlik hukuku
uyarınca, suçları tespit etmek, önlemek veya soruşturmak için yasalarca izin
verilen biyometrik kategorilendirme ve duygu tanıma için kullanılan yapay zekâ
sistemleri için geçerli değildir. (Madde 50/3)
- Deepfake oluşturan görüntü, ses
veya video içeriği üreten veya işleyen bir yapay zekâ sisteminin kullanıcıları,
içeriğin yapay olarak oluşturulduğunu veya işlendiğini açıklamalıdır. Bu
yükümlülük, kullanımın suçları tespit etmek, önlemek, soruşturmak veya
kovuşturmak için kanunen yetkilendirildiği durumlarda geçerli değildir.
İçeriğin açıkça sanatsal, yaratıcı, hicivsel, kurgusal veya benzer bir eser
veya programın parçası olması durumunda, bu paragrafta belirtilen şeffaflık
yükümlülükleri, söz konusu üretilen veya işlenen içeriğin varlığının, eserin
görüntülenmesini veya keyfinin çıkarılmasını engellemeyecek uygun bir şekilde
ifşa edilmesiyle sınırlıdır. (Madde 50/4)
Kamuoyunu kamu yararına olan
konularda bilgilendirmek amacıyla yayınlanan metinleri üreten veya işleyen bir
yapay zekâ sisteminin uygulayıcıları, metnin yapay olarak üretildiğini veya
işlendiğini beyan etmelidir.
Bilgiler geçerli erişilebilirlik
gerekliliklerine uygun olmalıdır (Madde 50/6).
3.4- Asgari (Minimum) Risk
Tüzük kapsamında, önceki risk
kategorilerine dâhil olmayan yapay zekâ sistemleri asgari (minimum) riskli
sistemler olarak değerlendirilmektedir. Bu kapsamda değerlendirilen sistemler,
kullanıcılar açısından çok düşük düzeyde risk barındırmakta veya herhangi bir
risk teşkil etmemektedir. Asgari riskli yapay zekâ sistemleri için herhangi bir
zorunlu yükümlülük, yasak veya bağlayıcı denetim mekanizması öngörülmemektedir.
4- SONUÇ
Yukarıda
açıklandığı üzere yükümlülüklerin büyük çoğunluğu yüksek riskli yapay zeka
sistemlerinin sağlayıcılarına (geliştiricilerine) düşmektedir. Tüzük kapsamına AB'de
veya üçüncü bir ülkede bulunmasına bakılmaksızın, yüksek riskli yapay zeka
sistemlerini AB'de piyasaya sürmeyi veya hizmete sokmayı amaçlayanlar ve yüksek
riskli AI sisteminin çıktılarının AB'de kullanıldığı üçüncü ülke sağlayıcıları
dahildir [8].
AI Act, Yapay Zekâ Hakkında
Uyumlaştırılmış Kuralların Belirlenmesi ve Belirli Birlik Mevzuatı Yasalarında
Değişiklik Yapılması Hakkında Regülasyon kısaca Yapay Zeka Yasası; bir yandan
temel hakların, güvenliğin ve hukukun üstünlüğünün korunmasını sağlarken, diğer
yandan inovasyonu ve teknolojik gelişmeyi teşvik eden bir düzenleme modeli
kurmaktadır. Bu yönüyle söz konusu Tüzük, hem Avrupa Birliği üyesi devletler
hem de küresel ölçekte yapay zekâ alanındaki yasal gelişmeler için örnek teşkil
eden bir çerçeve niteliğindedir.
Stj. Av. Edanur Yılmaz
Kaynakça:
1.
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
2. https://www.ab.gov.tr/ab-yapay-zeka-yasasi-yayimlandi_53836.html
3. https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689
4.
https://oecd.ai/en/wonk/definition
5. Weißbuch
zur Künstlichen Intelligenz,
(https://eurlex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:52020DC0065&from=EN.
Erişim tarihi: 01.09.2024).
6. https://dergipark.org.tr/en/download/article-file/4334177
7. https://dergipark.org.tr/tr/download/article-file/4893245
8. https://artificialintelligenceact.eu/high-level-summary/