Özgün Law Firm

Özgün Law Firm

AI ACT (YAPAY ZEKA TÜZÜĞÜ) İLE BELİRLENEN RİSK KATEGORİLERİ ÜZERİNE BİR İNCELEME

AI ACT (YAPAY ZEKA TÜZÜĞÜ) İLE BELİRLENEN RİSK KATEGORİLERİ ÜZERİNE BİR İNCELEME

1- GİRİŞ

AI Act veya Yapay Zeka Yasası adıyla bilinen Yapay Zekâ Hakkında Uyumlaştırılmış Kuralların Belirlenmesi ve Belirli Birlik Mevzuatı Yasalarında Değişiklik Yapılması Hakkında Regülasyon (“Tüzük”), yapay zekanın risklerini ele alan ve Avrupa'yı küresel alanda öncü bir rol oynamaya konumlandıran yapay zeka konusunda en kapsamlı yasal çerçevelerdendir [1]. Avrupa Komisyonu tarafından hazırlanan 2024/1689 sayılı Tüzük, 21 Nisan 2021 tarihinde sunulmuştur. 6 Aralık 2022’de Yapay Zeka için Avrupa Birliği düzenleyici çerçevesinin önerilmesinin ardından Konsey, Komisyon ve Parlamento arasında yürütülen müzakereler neticesinde 12 Temmuz 2024 tarihinde AB Resmi Gazetesi’nde yayımlanmıştır. Tüzük, 1 Ağustos 2024 tarihinde yürürlüğe girmiştir. [2] Tüzük 2 Ağustos 2026 tarihinden itibaren genel olarak uygulama alanı bulacaktır. (Article 113- This Regulation shall enter into force on the twentieth day following that of its publication in the Official Journal of the European Union. It shall apply from 2 August 2026.)

Bu Tüzüğün amacı Tüzük metninde “Konu” başlıklı ilk maddede kısaca; iç pazarın işleyişini iyileştirmek ve insan odaklı ve güvenilir yapay zeka (AI) kullanımını teşvik etmek, aynı zamanda sağlık, güvenlik, demokrasi, hukukun üstünlüğü ve çevre koruma dahil olmak üzere Şartta yer alan temel hakların yüksek düzeyde korunmasını sağlamak, Birlik içindeki AI sistemlerinin zararlı etkilerine karşı koruma sağlamak ve inovasyonu desteklemek, şeklinde tanımlanmıştır. [3]

2- ARTİFİCİAL INTELLİGENCE (YAPAY ZEKA) NEDİR?

Avrupa Birliği, Amerika Birleşik Devletleri ve Birleşmiş Milletler tarafından yapay zeka için OECD’nin (Organisation for Economic Co-operation and Development - Ekonomik Kalkınma ve İş Birliği Örgütü) “Yapay Zeka İlkeleri” tanımı kullanılmaktadır. 2019 yılında kabul edilen OECD ilkeleri Mayıs 2024’te revize edilerek güncellenmiştir. OECD tanımına göre; Yapay zekâ sistemi, açık veya örtük hedefler doğrultusunda, aldığı girdilerden, fiziksel veya sanal ortamları etkileyebilecek tahminler, içerik, öneriler veya kararlar gibi çıktıların nasıl üretileceğini çıkarsayan makine tabanlı bir sistemdir. (An AI system is a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.) [4]

Avrupa Komisyonu tarafından 2020 yılında yayımlanan Yapay Zekâya İlişkin Beyaz Kitap’ta şu ifadeye yer verilmiştir: “Yapay zekâ hızla gelişmektedir. Yapay zekâ, hastalıkların daha doğru teşhisi ve daha iyi önlemesi gibi yollarla sağlık hizmetlerini iyileştirerek, tarımın verimliliğini artırarak, iklim değişikliğiyle mücadeleye ve değişikliğe uyum sağlamada katkıda bulunarak, öngörücü bakım yoluyla üretim tesislerinin verimliliğini artırarak hayatımızı değiştirecektir.” [5]

 3- YAPAY ZEKA YASASI’NIN SINIFLANDIRMA SİSTEMİ

Tüzükte, risk odaklı bir yaklaşım izlenmiştir. Buna göre, belirli bir uygulamanın sağlık, güvenlik ya da temel haklar açısından oluşturduğu risk ne kadar yüksekse, yükümlülükler de o kadar katı olur [6].

Yapay zekâ sistemleri, kabul edilemez risk, yüksek risk, sınırlı risk ve minimal risk olarak dört risk grubuna göre sınıflandırılır.

3.1- Kabul Edilemez Risk

Kabul edilemez risk sınıfında görülen yapay zeka sistemleri insanların yaşantısı bakımından tehdit olarak görülmektedir. Kabul edilemez nitelikte olup yasaklanmış yapay zeka uygulamaları Tüzüğün II. Bölüm ve 5. Maddesinde sırasıyla sayılmıştır. Avrupa Birliği tarafından insan onuruna saygı, özgürlük, eşitlik, demokrasi ve hukukun üstünlüğü değerleri ile Avrupa Birliği tarafından kabul edilen temel haklara aykırı olan yapay zeka sistemleridir.  Bu nedenle bu kategoriye giren yapay zeka sistemleri yasaktır.

Madde 5/1-A ile bir kişinin veya bir grup insanın bilinçli karar verme yeteneğini önemli ölçüde bozarak davranışlarını önemli ölçüde çarpıtma amacı veya etkisiyle, bir kişinin veya bir grup insanın bilincinin ötesinde bilinçaltı teknikler veya kasıtlı olarak manipülatif veya aldatıcı teknikler kullanan bir yapay zeka sistemleri,

Madde 5/1-B ile yaş, engellilik veya belirli bir sosyal veya ekonomik durum nedeniyle bir gerçek kişinin veya belirli bir grup kişinin zaaflarından herhangi birini istismar eden bir yapay zekâ sistemleri,

Madde 5/1-C ile sosyal derecelendirme sistemleri,

Madde 5/1-D ile kişinin profilinin çıkarılmasına veya kişilik özellikleri ve niteliklerinin değerlendirilmesine dayalı olarak, bir gerçek kişinin risk değerlendirmelerini yapan yapay zeka sistemleri,

Madde 5/1-E ile yüz tanıma veri tabanları oluşturan veya genişleten yapay zekâ sistemleri,

Madde 5/1-F ile işyerleri ve eğitim kurumları gibi alanlarda, gerçek kişinin duygularını anlamak amacıyla piyasaya arz edilen yapay zeka sistemleri,

Madde 5/1-G ile kişilerin, ırklarına, siyasi görüşlerine, sendika üyeliklerine, dinsel veya felsefi inançlarına, cinsel yaşamlarına veya cinsel yönelimlerine göre çıkarımlarda bulunup bu biyometrik verilerine dayanarak ayrı ayrı kategorilere ayıran yapay zeka sistemleri,

Madde 5/1-H’de kolluk kuvvetlerinin amaçları doğrultusunda kamuya açık alanlarda 'gerçek zamanlı' uzaktan biyometrik tanımlama sistemlerini kullanan yapay zeka sistemleri yasaklanmış durumdadır.

Tüzük’te bu sınıfa ilişkin gerekçe kısmında yer alan aşağıdaki düzenlemeler örnek olarak incelenebilir.

(32) Yapay zekâ sistemlerinin, kolluk kuvvetlerinin kamuya açık alanlarda gerçek kişilerin "gerçek zamanlı" uzaktan biyometrik kimlik tespiti için kullanılması, ilgili kişilerin hak ve özgürlüklerine, nüfusun büyük bir bölümünün özel hayatını etkileyebilecek, sürekli gözetim hissi uyandırabilecek ve dolaylı olarak toplanma özgürlüğü ve diğer temel hakların kullanılmasını engelleyebilecek ölçüde özellikle müdahalecidir.

(…)

(43) Yüz görüntülerinin internetten veya CCTV görüntülerinden hedefsiz bir şekilde toplanması yoluyla yüz tanıma veri tabanları oluşturan veya genişleten yapay zeka sistemlerinin piyasaya sürülmesi, bu özel amaç için hizmete sunulması veya kullanılması yasaklanmalıdır; çünkü bu uygulama kitlesel gözetleme hissini artırır ve gizlilik hakkı da dahil olmak üzere temel hakların ağır ihlallerine yol açabilir.

(44) (…)

Bu nedenle, biyometrik verilerine dayanarak gerçek kişilerin duygularını veya niyetlerini tespit eden veya çıkarsayan yapay zekâ sistemleri ayrımcı sonuçlara yol açabilir ve ilgili kişilerin hak ve özgürlüklerine müdahale edebilir. İş veya eğitim bağlamındaki güç dengesizliği ve bu sistemlerin müdahaleci niteliği göz önüne alındığında, bu sistemler belirli gerçek kişilere veya bunların tüm gruplarına zararlı veya olumsuz muameleye yol açabilir. Bu nedenle, iş yeri ve eğitimle ilgili durumlarda bireylerin duygusal durumlarını tespit etmek amacıyla kullanılmak üzere tasarlanan yapay zekâ sistemlerinin piyasaya sürülmesi, hizmete sunulması veya kullanılması yasaklanmalıdır.”

Görüldüğü üzere insanlar bakımından tehdit olarak görülen, davranış manipülasyonları ile insan duygu ve davranışlarını etkileyebilecek, insan duygularını sömürmeye açık, temel haklara halel getirebilecek; insanları davranışlarına, sosyoekonomik durumlarına veya özelliklerine göre sınıflandırarak sosyal tanımlama yapan nitelikte olan yapay zeka sistemleri kabul edilemez risk kategorisindedir.

Ancak bu yasaklamalara ilişkin istisnalar da Tüzük’te düzenlenmiştir. Örneğin Tüzük metninden açıkça yer alan “Ayrıca, kolluk kuvvetlerinin kamuya açık alanlarda "gerçek zamanlı" uzaktan biyometrik tanımlama sistemlerinin kullanımı, yalnızca özel olarak hedeflenen kişinin kimliğini doğrulamak amacıyla kullanılmalı ve özellikle tehditler, mağdurlar veya faile ilişkin kanıt veya göstergeler dikkate alınarak, zaman dilimi, coğrafi ve kişisel kapsam açısından kesinlikle gerekli olanla sınırlı olmalıdır. (In addition, the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement should be deployed only to confirm the specifically targeted individual’s identity and should be limited to what is strictly necessary concerning the period of time, as well as the geographic and personal scope, having regard in particular to the evidence or indications regarding the threats, the victims or perpetrator.)” gibi ifadeler ile belirli birtakım durumlarda gerçek zamanlı uzaktan biyometrik tanıma sistemlerinin kullanılmasına izin verilmektedir.

3.2- Yüksek Risk

Yüksek riske ilişkin düzenlemeler Tüzüğün III. bölümünde yer almaktadır. Yüksek risk kategorisinde bulunan yapay zeka sistemlerinin kullanımına ve sunulmasına izin verilmiş olmakla birlikte yapay zekaların eğitilmesi sürecinden başlamak üzere son kullanıcıya sunulmasına kadar geçen süreçler bakımından operatörler birtakım yükümlülüklere tabi tutulmuştur. Yapılan düzenlemeye göre aşağıdaki iki koşulu karşılayan yapay zeka sistemleri yüksek riskli olarak kabul edilecektir:

(a) yapay zekâ sistemi, bir ürünün güvenlik bileşeni olarak kullanılmak üzere tasarlanmışsa veya Ek I'de listelenen AB uyumlaştırma mevzuatına tabi bir ürünse;

(b) (a) bendi uyarınca güvenlik bileşeni olarak yapay zekâ kullanılan bir ürünün veya kendisi bir ürün olan yapay zekâ sisteminin, Ek I’de listelenen AB uyumlaştırma mevzuatına göre piyasaya sürülmeden veya hizmete sunulmadan önce üçüncü taraf uygunluk değerlendirmesine tabi tutulması gerekiyorsa” (Md. 6/1)

Tüzüğün 6/2. maddesine göre aşağıdaki hallerde yapay zeka sistemleri yüksek riskli olarak değerlendirilecektir.

(a) Yapay zekâ sisteminin dar bir prosedürel görevi yerine getirmesi amaçlanıyorsa;

(b) Yapay zekâ sisteminin daha önce tamamlanmış bir insan faaliyetinin sonucunu iyileştirmesi amaçlanıyorsa;

(c) Yapay zekâ sisteminin karar verme kalıplarını veya önceki karar verme kalıplarından sapmaları tespit etmesi amaçlanıyorsa ve uygun insan incelemesi olmaksızın önceden tamamlanmış insan değerlendirmesinin yerini alması veya etkilemesi amaçlanmıyorsa;

(d) Yapay zekâ sistemi, Ek III’te listelenen kullanım durumlarının amacına uygun bir değerlendirme için bir hazırlık görevi gerçekleştirmeyi amaçlıyorsa

Tüzüğün 6/2. maddesine göre Ek III'te belirtilen yapay zekâ sistemleri de yüksek riskli olarak kabul edilecektir.

Bireyler söz konusu yapay zeka sistemleriyle ilgili olarak ulusal makamlara şikayette bulunma hakkına da sahiptir. Tüzüğün 6/4. maddesine göre Ek III'te belirtilen bir yapay zekâ sisteminin yüksek riskli olmadığını düşünen bir sağlayıcı, söz konusu sistem piyasaya sürülmeden veya hizmete sunulmadan önce değerlendirmesini belgelendirmelidir.

Uzaktan biyometrik tanımlama sistemleri, biyometrik kategorilendirme, duygu tanıma sistemleri, AB veri tabanına kaydedilmesi gereken altyapının yönetimi ve istihdam, eğitim ve mesleki eğitim, temel özel ve kamu hizmetlerine erişim ve bu hizmetlerden faydalanma, hukuki yaptırım, göç, iltica ve sınır kontrolü yönetimi, hukuki yorum ve hukuk uygulamasına destek alanlarında kullanılan yapay zeka sistemleri de yüksek riskli yapay zekâ sistemleri olarak kabul edilmektedir [7].

3.3.- Sınırlı Risk

Sınırlı risk teşkil eden yapay zeka sistemlerine ilişkin yükümlülükler Tüzüğün 50. maddesinde “Belirli Yapay Zekâ Sistemlerinin Sağlayıcıları ve Kullanıcıları İçin Şeffaflık Yükümlülükleri (Transparency obligations for providers and deployers of certain AI systems)” başlığı ile düzenlenmiştir.

Bu düzenlemelere göre:

- Sağlayıcılar, gerçek kişilerle doğrudan etkileşim kurmayı amaçlayan yapay zekâ sistemlerinin, ilgili gerçek kişilerin bir yapay zekâ sistemiyle etkileşimde bulundukları konusunda bilgilendirilmelerini sağlayacak şekilde tasarlanmasını ve geliştirilmesini sağlar ancak bu durum, kullanım koşulları ve bağlamı dikkate alındığında makul derecede bilgili, gözlemci ve dikkatli bir gerçek kişinin bakış açısından açıkça anlaşılıyorsa geçerlidir. Bu yükümlülük, üçüncü tarafların hak ve özgürlüklerine ilişkin uygun güvencelere tabi olarak, suçları tespit etmek, önlemek, soruşturmak veya kovuşturmak üzere kanunen yetkilendirilmiş yapay zekâ sistemleri için geçerli değildir; ancak bu sistemler, suç duyurusunda bulunmak üzere kamuya açık olmalıdır. (Madde 50/1),

- Genel amaçlı yapay zekâ sistemleri de dahil olmak üzere, sentetik ses, görüntü, video veya metin içeriği üreten yapay zekâ sistemi sağlayıcıları, yapay zekâ sisteminin çıktılarının makine tarafından okunabilir bir formatta işaretlenmesini ve yapay olarak oluşturulmuş veya değiştirilmiş olarak tespit edilebilir olmasını sağlamalıdır. Sağlayıcılar, çeşitli içerik türlerinin özelliklerini ve sınırlamalarını, uygulama maliyetlerini ve ilgili teknik standartlarda yansıtılabilecek genel kabul görmüş son teknolojiyi dikkate alarak, teknik olarak mümkün olduğu ölçüde teknik çözümlerinin etkili, birlikte çalışabilir, sağlam ve güvenilir olmasını sağlamalıdır. Bu yükümlülük, yapay zekâ sistemlerinin standart düzenleme için yardımcı bir işlev görmesi veya uygulayıcı tarafından sağlanan girdi verilerini veya bunların anlamlarını önemli ölçüde değiştirmemesi veya yasa tarafından suçları tespit etme, önleme, soruşturma veya kovuşturma yetkisi verildiği durumlarda geçerli değildir. (Madde 50/2)

- Duygu tanıma sistemi veya biyometrik kategorilendirme sistemi uygulayıcıları, sisteme maruz kalan gerçek kişileri sistemin işleyişi hakkında bilgilendirecek ve kişisel verileri, geçerli olduğu hallerde (AB) 2016/679 ve (AB) 2018/1725 sayılı Tüzükler ile (AB) 2016/680 sayılı Direktif uyarınca işleyecektir. Bu yükümlülük, üçüncü tarafların hak ve özgürlüklerine ilişkin uygun güvenceler ve Birlik hukuku uyarınca, suçları tespit etmek, önlemek veya soruşturmak için yasalarca izin verilen biyometrik kategorilendirme ve duygu tanıma için kullanılan yapay zekâ sistemleri için geçerli değildir. (Madde 50/3)

- Deepfake oluşturan görüntü, ses veya video içeriği üreten veya işleyen bir yapay zekâ sisteminin kullanıcıları, içeriğin yapay olarak oluşturulduğunu veya işlendiğini açıklamalıdır. Bu yükümlülük, kullanımın suçları tespit etmek, önlemek, soruşturmak veya kovuşturmak için kanunen yetkilendirildiği durumlarda geçerli değildir. İçeriğin açıkça sanatsal, yaratıcı, hicivsel, kurgusal veya benzer bir eser veya programın parçası olması durumunda, bu paragrafta belirtilen şeffaflık yükümlülükleri, söz konusu üretilen veya işlenen içeriğin varlığının, eserin görüntülenmesini veya keyfinin çıkarılmasını engellemeyecek uygun bir şekilde ifşa edilmesiyle sınırlıdır. (Madde 50/4)

Kamuoyunu kamu yararına olan konularda bilgilendirmek amacıyla yayınlanan metinleri üreten veya işleyen bir yapay zekâ sisteminin uygulayıcıları, metnin yapay olarak üretildiğini veya işlendiğini beyan etmelidir.

Bilgiler geçerli erişilebilirlik gerekliliklerine uygun olmalıdır (Madde 50/6).

3.4- Asgari (Minimum) Risk

Tüzük kapsamında, önceki risk kategorilerine dâhil olmayan yapay zekâ sistemleri asgari (minimum) riskli sistemler olarak değerlendirilmektedir. Bu kapsamda değerlendirilen sistemler, kullanıcılar açısından çok düşük düzeyde risk barındırmakta veya herhangi bir risk teşkil etmemektedir. Asgari riskli yapay zekâ sistemleri için herhangi bir zorunlu yükümlülük, yasak veya bağlayıcı denetim mekanizması öngörülmemektedir.

4- SONUÇ

Yukarıda açıklandığı üzere yükümlülüklerin büyük çoğunluğu yüksek riskli yapay zeka sistemlerinin sağlayıcılarına (geliştiricilerine) düşmektedir. Tüzük kapsamına AB'de veya üçüncü bir ülkede bulunmasına bakılmaksızın, yüksek riskli yapay zeka sistemlerini AB'de piyasaya sürmeyi veya hizmete sokmayı amaçlayanlar ve yüksek riskli AI sisteminin çıktılarının AB'de kullanıldığı üçüncü ülke sağlayıcıları dahildir [8].

AI Act, Yapay Zekâ Hakkında Uyumlaştırılmış Kuralların Belirlenmesi ve Belirli Birlik Mevzuatı Yasalarında Değişiklik Yapılması Hakkında Regülasyon kısaca Yapay Zeka Yasası; bir yandan temel hakların, güvenliğin ve hukukun üstünlüğünün korunmasını sağlarken, diğer yandan inovasyonu ve teknolojik gelişmeyi teşvik eden bir düzenleme modeli kurmaktadır. Bu yönüyle söz konusu Tüzük, hem Avrupa Birliği üyesi devletler hem de küresel ölçekte yapay zekâ alanındaki yasal gelişmeler için örnek teşkil eden bir çerçeve niteliğindedir.

Stj. Av. Edanur Yılmaz

 

Kaynakça:

1. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

2. https://www.ab.gov.tr/ab-yapay-zeka-yasasi-yayimlandi_53836.html

3. https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689

4. https://oecd.ai/en/wonk/definition

5. Weißbuch zur Künstlichen Intelligenz, (https://eurlex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:52020DC0065&from=EN. Erişim tarihi: 01.09.2024).

6. https://dergipark.org.tr/en/download/article-file/4334177

7. https://dergipark.org.tr/tr/download/article-file/4893245

8. https://artificialintelligenceact.eu/high-level-summary/ 

MAKALEYİ PAYLAŞIN
MAKALEYİ YAZDIRIN