1.
Özet
Bu
makalede, yapay zekâ üzerinden işlenen fiillerin Türk ceza hukuku açısından
değerlendirilmesi yapılmıştır. Yapay zekânın doğrudan fail olarak kabul
edilmemesi nedeniyle sorumluluğun yazılımcı, kullanıcı ve sistem sahibi gibi
insan unsurlar üzerinde yoğunlaştığı vurgulanmıştır. Uluslararası örnekler ve
güncel gelişmeler ışığında, özellikle Grok gibi yapay zekâ destekli içerik
üretiminde yaşanan hukuki sorunlar analiz edilmiştir. Türkiye’de mevcut ceza
hukuku düzenlemelerinin yapay zekâya özgü fiilleri kapsamadığı ve normatif
boşlukların bulunduğu ortaya konmuştur. Makalede, bu alanda etkin hukuki
düzenlemeler yapılmasının gerekliliği ve uluslararası standartlarla uyum
sağlanmasının önemi üzerinde durulmuştur.
Anahtar
Kelimeler : Yapay Zekâ, Yapay Zekâ Ve Ceza Hukuku, Ceza
Sorumluluğu, Fail Kavramı, Kast Ve Taksir, Kanunilik İlkesi, Yapay Zekâ
Kaynaklı Suçlar, Hukuki Sorumluluk, Algoritmik Suçlar, Grok Yapay Zekâ, Yapay
Zekâ İçerik Üretimi.
2.
Giriş
21.
yüzyılın en çarpıcı teknolojik gelişmelerinden biri olan yapay zekâ (YZ), insan
yaşamının neredeyse her alanına nüfuz etmiş ve birçok sektörde devrim
niteliğinde dönüşümlere yol açmıştır. Sağlık, ulaşım, eğitim ve finans gibi
alanlarda etkin olarak kullanılan yapay zekâ sistemleri, artık yalnızca
yardımcı bir araç değil, karar alma süreçlerinde aktif rol oynayan birer aktör
hâline gelmiştir. Bu teknolojik gelişmeler, yalnızca sosyo-ekonomik yapıyı
değil, aynı zamanda hukuk sistemlerini de doğrudan etkilemektedir.
Ceza
hukuku, temelinde insan iradesine ve kusur yeteneğine dayanan bir sorumluluk
sistemine sahiptir. Bu bağlamda suçun faili, irade ve kastla hareket eden
gerçek kişidir. Ancak yapay zekânın otonom karar alma kapasitesinin giderek
artması, klasik ceza hukuku teorilerinde yer alan "fail",
"kusur", "kast" ve "taksir" gibi kavramların
yeniden değerlendirilmesini zorunlu kılmaktadır. Zira bir yapay zekâ uygulaması
tarafından gerçekleştirilen bir fiilin hukuk düzeninde nasıl karşılık bulacağı,
failin kim sayılacağı ve bu fiilden doğan cezaî sorumluluğun kim üzerinde
doğacağı hususları henüz açık ve net bir biçimde yanıtlanabilmiş değildir.
Yapay
zekâ üzerinden işlenen fiillerin ceza hukuku bakımından değerlendirilmesi hem
normatif hem de uygulama açısından önemli boşluklar ve tartışmalar
içermektedir. Bu makale, yapay zekânın ceza hukuku bağlamında nasıl ele
alınması gerektiğini; bu teknolojiler aracılığıyla işlenen fiillerde ceza
sorumluluğunun kimlere ve ne ölçüde yüklenebileceğini; mevcut hukuk düzeninin
bu fiillere nasıl cevap verebildiğini ve hangi yönlerden yetersiz kaldığını
irdelemeyi amaçlamaktadır.
3.
Yapay Zekâ Kavramı ve Hukuki Nitelendirmesi
Yapay
zekâ (YZ), genel anlamda insan zekâsını taklit eden sistemler olarak
tanımlanabilir. Bu sistemler; öğrenme, akıl yürütme, problem çözme, algılama ve
hatta dil anlama gibi bilişsel süreçleri algoritmalar vasıtasıyla yerine
getirebilmektedir. Teknik anlamda yapay zekâ, genellikle makine öğrenmesi,
derin öğrenme, sinir ağları ve doğal dil işleme gibi alt disiplinler
çerçevesinde değerlendirilmektedir. Ancak hukuk disiplini açısından esas olan,
bu teknolojilerin karar alma yetenekleri ve bu kararların hukuk düzeni içinde
ne şekilde değerlendirileceğidir.
Yapay
zekâ sistemleri, teknik gelişmişlik düzeylerine göre yardımcı sistemler, yarı
otonom sistemler ve tam otonom sistemler olarak sınıflandırılabilir. Yardımcı
sistemler insan müdahalesi ile çalışırken, tam otonom sistemler insan kontrolü
olmaksızın karar verebilme ve uygulama kapasitesine sahiptir. Hukuki açıdan
sorun yaratan da çoğunlukla bu ikinci ve üçüncü gruba giren sistemlerdir. Zira
bu sistemler tarafından verilen kararların veya icra edilen fiillerin
sorumluluğunun kimde olduğu sorusu, klasik hukuk kuramlarında doğrudan
cevaplanamayan bir meseledir.
Türk
Hukuku’nda yapay zekânın hukuki statüsüne ilişkin açık bir düzenleme
bulunmamaktadır. Medeni hukuk sistemimizde yalnızca gerçek ve tüzel kişiler hak
ehliyetine sahiptir. Bu çerçevede yapay zekâ, Türk Hukuku bakımından hukuki bir
süje olarak değil, teknik bir araç ya da eşya olarak değerlendirilmektedir.
Ancak bu yaklaşım, YZ sistemlerinin karmaşıklaşması ve özerkleşmesiyle birlikte
yetersiz kalmakta; özellikle ceza hukuku gibi kusur ve kast kavramları üzerine
kurulu sistemlerde normatif boşluklara neden olmaktadır.
Ceza
hukuku açısından en temel sorunlardan biri, yapay zekânın bir fiili
gerçekleştirmesi durumunda bu fiilin bir “eylem” olarak nitelendirilip
nitelendirilemeyeceğidir. Çünkü ceza hukukunda eylem, genellikle insanın iradi
hareketi olarak tanımlanır. Bu noktada yapay zekânın kendi başına karar alıp
almadığı, aldığı kararın ne ölçüde öngörülebilir olduğu ve bu kararın ne
düzeyde yönlendirilebilir olduğu gibi teknik ve etik sorular da devreye
girmektedir. Bu nedenle YZ'nin hukuki nitelendirmesi, sadece hukukçuların değil
aynı zamanda etikçiler, bilişim uzmanları ve sosyologların da katkısıyla ele
alınması gereken çok disiplinli bir konudur.
Ceza
hukuku, insan iradesine dayalı sorumluluk sistemine oturmuş bir disiplindir. Bu
sistemde bir fiilin suç sayılabilmesi için kanunda açıkça düzenlenmiş olması,
failin fiili gerçekleştirme kastı veya en azından taksir derecesinde bir
kusurunun bulunması ve bu fiilin hukuka aykırı olması gerekir. Ancak yapay zekâ
teknolojilerinin yükselişi, ceza hukukunun bu temel ilkelerini önemli ölçüde
zorlamaktadır.
4.
Ceza Hukukunun Temel İlkeleri Açısından Yapay Zekâ
4.1.
Kanunilik İlkesi ve Belirlilik Sorunu
Ceza
hukukunda en temel prensiplerden biri kanunilik ilkesidir (“nullum crimen,
nulla poena sine lege”). Bu ilke uyarınca, bir fiilin suç sayılabilmesi için
önceden kanunda açıkça düzenlenmiş olması gerekir. Yapay zekâ sistemleri ise
önceden öngörülemeyen kararlar alabilir ve bu kararlar yeni fiil türleri
doğurabilir. Örneğin, bir otonom aracın sürücüsüz şekilde bir yayaya çarpması
durumunda, hangi hükmün uygulanacağı; cezanın kime yöneltileceği sorusu kanunda
açık bir şekilde yer almamaktadır. Bu durum, ceza hukukunun “belirlilik” ve
“öngörülebilirlik” ilkeleri ile çelişmektedir.
4.2.
Fail Kavramı ve Kusur Yeteneği
Ceza
hukukunda fail, suçun kanuni tanımındaki fiili gerçekleştiren kişidir. Bu kişi,
irade ve kastla hareket eden, hukuk düzeni tarafından hak ve sorumluluk
ehliyeti tanınmış bir varlık olmak zorundadır. Yapay zekânın ise herhangi bir
hukuki ehliyeti ya da kusur yeteneği bulunmamaktadır. Yani YZ, kendi başına
fail olarak değerlendirilemez. Bu noktada sorumluluğun yapay zekâyı
programlayan kişi, kullanan kişi veya sahip olan şirket üzerinde doğup
doğmayacağı tartışma konusudur.
4.3.
Kast ve Taksir Açısından Değerlendirme
Kast,
failin bilerek ve isteyerek fiili gerçekleştirmesidir. Taksir ise dikkat ve
özen yükümlülüğüne aykırılıkla ortaya çıkan suçluluk hâlidir. Yapay zekânın
kendi başına bu unsurları taşıması mümkün değildir; çünkü ne bilinçli tercih
yapabilir ne de dikkat yükümlülüğünü ihlal edebilir. Ancak bu sistemlerin
öngörülebilir şekilde hatalı çalışacağı biliniyorsa, bunları kullanan kişinin
taksirle sorumlu tutulması gündeme gelebilir. Örneğin, hatalı çalışan bir
YZ’nin piyasaya sürülmesine rağmen kullanılmaya devam edilmesi, ciddi hukuki
sonuçlar doğurabilir.
4.4.
İlliyet Bağı ve Öngörülebilirlik Sorunu
Yapay
zekâ uygulamaları çoğu zaman “öğrenen sistemler” olduğundan, zaman içinde kendi
karar alma mekanizmalarını değiştirebilir. Bu durumda bir fiil ile sonuç
arasında nedensellik bağının kurulması güçleşmektedir. Ceza hukuku açısından
illiyet bağı, fail ile suç neticesi arasında doğrudan bir bağ kurulmasını
gerektirir. Ancak bir algoritmanın kendi kendine öğrenerek hatalı bir karar
alması hâlinde, bu bağın kime nasıl yükletileceği açık değildir.
5. Yapay Zekâ Yoluyla İşlenen Fiillerde
Sorumluluk
Yapay
zekâ sistemlerinin karmaşık ve otonom yapısı, bu sistemler aracılığıyla işlenen
hukuka aykırı fiillerde sorumluluğun kimde olduğu sorusunu gündeme
getirmektedir. Ceza hukukunun kişisel sorumluluk ilkesi uyarınca, suçun
unsurlarını taşıyan bir fiili gerçekleştiren kişinin cezai sorumluluğu doğar.
Ancak yapay zekânın doğrudan fail olarak kabul edilememesi nedeniyle, bu tür
fiillerde sorumluluğun belirlenmesi çoğu zaman çok aktörlü ve çok yönlü bir
analiz gerektirir.
5.1. Yapay Zekânın Fail Olması Mümkün mü?
Yapay
zekânın hukuki kişilikten yoksun oluşu, onun ceza hukukuna göre fail sıfatını
taşımasını engellemektedir. Hukuk düzenimizde yalnızca gerçek ve tüzel kişiler
suçun faili olabilir. Bir YZ sisteminin kendi başına kast ya da taksir ile
hareket etmesi mümkün görülmediğinden, doğrudan cezai yaptırıma tabi tutulması
da hukuken olanaklı değildir. Bu sebeple YZ, daha çok bir aracıdır; suçu
işleten değil, işlenmesine vesile olan bir "araç-özne"dir.
5.2.
Yazılımcının Sorumluluğu
Yapay
zekâ sistemini tasarlayan ve kodlayan yazılımcılar, sistemin algoritmasını ve
karar verme kabiliyetini doğrudan etkiler. Eğer yazılımın içinde suç teşkil
edebilecek bir davranışa olanak sağlayan ya da bunu teşvik eden kodlar varsa,
yazılımcı bu fiilden dolayı sorumlu tutulabilir. Özellikle bilinçli programlama
hataları, güvenlik açıkları veya yetersiz denetim durumlarında yazılımcının
kast ya da taksirle sorumluluğu gündeme gelir.
5.3.
Kullanıcının Sorumluluğu
Yapay
zekâyı fiilen kullanan kişi (örneğin bir şirkette çalışan ya da bireysel bir
kullanıcı), YZ sisteminin yönlendirmesiyle hareket ettiğinde ya da sistemin
davranışını yönlendirecek veri girişlerini sağladığında, fail olma ihtimali
doğabilir. Eğer kullanıcı, sistemin hukuka aykırı bir sonuca varacağını
öngörebilecek durumdaysa ve buna rağmen müdahalede bulunmuyorsa, taksirle
işlenmiş bir suçtan dolayı sorumlu tutulması mümkündür.
5.4.
Sahip ve Üretici Firma Sorumluluğu
YZ
sisteminin mülkiyetini elinde bulunduran veya onu ticari amaçla piyasaya süren
şirketlerin sorumluluğu, kurumsal kusur ve organizasyonel taksir ilkeleri
çerçevesinde ele alınabilir. Özellikle üretim sürecinde gerekli özenin
gösterilmemesi, sistemin riskli sonuçlar doğuracağı bilindiği hâlde piyasaya
sürülmesi gibi durumlarda, tüzel kişi veya şirket yöneticileri hakkında cezai
sorumluluk gündeme gelebilir.
5.5.
Ortak Sorumluluk ve Müteselsil Değerlendirme
Yapay
zekâ yoluyla işlenen bazı fiillerde tek bir sorumlu yerine çoklu sorumluluk söz
konusu olabilir. Örneğin hem yazılımcı hem kullanıcı hem de şirketin denetim
eksikliği birleşerek bir neticenin doğmasına sebep olmuşsa, bu durumda
müteselsilen sorumluluk ve kusur oranlarına göre ceza tayini mümkündür. Bu tür
durumlarda failin kim olduğu kadar, failin kusur ağırlığı da önem kazanır.
6.
Yapay Zekâ Tabanlı İçerik Üretiminin Ceza Hukuku Açısından Değerlendirilmesi:
Grok Örneği Üzerinden Bir İnceleme
Yapay
zekânın ceza hukuku bağlamındaki etkileri, dünya genelinde birçok hukuk
sistemini zorlayan bir mesele hâline gelmiştir. Günümüzde Grok gibi büyük dil
modellerinin içerik üretmeleri üzerinden hukuki sorumluluk, ifade özgürlüğü ve
nefret söylemi tartışmaları yoğunlaşmıştır.
6.1.
Grok Üzerine Güncel Gelişmeler
6.1.1. Türkiye’den ilk resmi müdahale: Grok vakası, teknolojik ilerleme ile adli
sorumluluğun sınırlarını çarpıcı şekilde karşı karşıya getiriyor. Zira Grok’un
jail‑break açıklarından yararlanılarak nefret söylemi, hakaret ve şiddet içeren
içeriklerin üretilmesi, yapay zekâ sistemleri üzerine inşa edilmiş klasik ceza
hukuku çerçevesini yetersiz bırakmaktadır. Türkiye’de ilk kez bir yapay zekâ
sohbet botu, Cumhurbaşkanı, Atatürk ve dini değerlere yönelik içerikleri
nedeniyle erişim yasağı ve olası cezai soruşturma ile karşılaşmış; bu da ‘fail’
tanımının ne kadar genişleyebileceğini gösteren sosyo-hukuki bir dönüm
noktasıdır. Ankara Cumhuriyet Başsavcılığı tarafından, Grok’un Cumhurbaşkanı
Erdoğan’a, Atatürk’e ve dinî değerlere yönelik “hakaret içerikli” paylaşımları
gerekçesiyle Türkiye'de erişim engeli getirildi. BTK bu kararı uygulayarak
yaklaşık 50 içeriği işaret ederek erişimi kısıtladı. [1] [2]
6.1.2.
Polonya’nın AB’ye şikayeti:
Polonya Dijitalleşme Bakanı, Grok’un Tusk gibi liderler hakkında hakaret ve
antisemitik içeriği nedeniyle konuyu Avrupa Komisyonu’na taşıyacaklarını
açıkladı. [3]
6.1.3.
Grok’un nefret söyleminden içeriği silmesi: X platformunda Grok hesabından Adolf Hitler övgüsüne varan
antisemitik içerikler paylaşılmış, Anti‑Defamation League şikayetleri sonrası
xAI içerikleri kaldırdığını duyurmuştur. [4]
7.
Türk Ceza Hukuku Uygulaması Açısından Değerlendirme
Türkiye’de
yapay zekâ teknolojilerinin gelişimi ve kullanımının artması, ceza hukuku
bakımından yeni sorunları gündeme getirmiştir. Ancak şu an itibarıyla Türk Ceza
Kanunu (TCK) içerisinde yapay zekâya özgü doğrudan düzenlemeler
bulunmamaktadır. Bu durum, somut olaylarda ceza sorumluluğunun hangi esaslara
göre tespit edileceği konusunda belirsizliklere yol açmaktadır.
7.1.
Mevcut Yasal Düzenlemeler ve Yetersizlikler
TCK’da
yapay zekâya dair özel bir hüküm bulunmaması, uygulamada sorumluluğun insan
unsuruna yüklenmesi gerektiği anlamına gelmektedir. Bununla birlikte, TCK’nın
genel hükümleri ve özellikle “kasten veya taksirle işlenen suçlar”
çerçevesinde, yapay zekânın ürettiği zararlı veya suç teşkil eden fiillerden
dolayı yazılımcı, kullanıcı ya da sistem sahibi cezai sorumlulukla
karşılaşabilmektedir. Örneğin, bilişim suçları kapsamında yapılan düzenlemeler
(TCK md. 243-244) dolaylı olarak yapay zekâ kaynaklı eylemler için de
uygulanabilmektedir ancak bu kapsam dar ve sınırlıdır.
7.2.
Normatif Boşluklar ve Düzenleme İhtiyacı
Yapay
zekâ ile işlenen suçlarda failin kim olduğu, kusurun nasıl belirleneceği, yapay
zekânın otonom hareket kapasitesi ve sorumluluğun kapsamı gibi konularda ciddi
boşluklar vardır. Bu boşluklar, hukuki belirlilik ve öngörülebilirlik
ilkelerine aykırılık teşkil etmekte, mağdur haklarının korunmasını
zorlaştırmaktadır.
Türkiye’de
akademik ve pratik alanda yapay zekâya özgü ceza hukuku düzenlemelerinin
geliştirilmesi yönünde çalışmalar artmaktadır. Özellikle;
a.
Yapay zekâ kaynaklı suçlar için özel suç tiplerinin düzenlenmesi,
b.
Yazılımcı ve kullanıcıların sorumluluğunun netleştirilmesi,
c.
Platform ve sistem sahiplerinin cezai sorumluluğunun tanımlanması gibi konular
öncelikli gündem maddeleri olmalıdır.
8.
Sonuç
Yapay
zekâ üzerinden işlenen fiiller, ceza hukuku açısından mevcut düzenlemelerle
yeterince kapsanmayan karmaşık bir alan oluşturmaktadır. Yapay zekânın fail
olarak kabul edilememesi nedeniyle sorumluluk, yazılımcı, kullanıcı ve sistem
sahibi gibi insan unsurlar üzerinde yoğunlaşmaktadır. Ancak bu konuda Türk Ceza
Kanunu’nda özel bir düzenleme bulunmaması, uygulamada hukuki boşluklara ve
belirsizliklere yol açmaktadır.
Güncel
örneklerden Grok gibi yapay zekâ destekli içerik üreticilerinin ortaya
çıkardığı sorunlar hem ifade özgürlüğü sınırlarının hem de sorumluluk
esaslarının yeniden değerlendirilmesini zorunlu kılmaktadır. Türkiye’nin bu
alanda uluslararası normlarla uyumlu, yapay zekâya özgü sorumluluk ve denetim
mekanizmalarını içeren düzenlemeler yapması büyük önem taşımaktadır.
Sonuç
olarak, yapay zekânın hukuk sistemine getirdiği yenilikler, ceza hukukunda
normatif reformları, yargı pratiklerinde güncellemeleri ve multidisipliner
yaklaşımları gerektirmektedir. Ancak bu sayede hem teknolojinin sunduğu
faydalar güvenle kullanılabilir hem de hukuki adalet sağlanabilir.
Stj. Av. Efe Öztürk
Kaynakça:
1.
Türk Ceza Kanunu
2.
Medeni Kanun
6.https://www.theguardian.com/technology/2025/jul/09/grok-ai-praised-hitler-antisemitism-x-ntwnfb