Yapay zekâ (YZ) teknolojileri, son yıllarda yalnızca bireylerin yaşamını ve şirketlerin iş yapış biçimlerini dönüştürmekle kalmayıp, devletler için de stratejik rekabetin merkezine yerleşti. YZ’nin hızlı gelişimi, hukuk, etik ve ekonomi alanlarında ciddi belirsizlikler doğuruyor; bu durum devletleri bu teknolojiyi bir yandan kalkınma fırsatı olarak değerlendirirken bir yandan da ulusal güvenlik riski olarak konumlandırmaya zorluyor. Bunun sonucunda, uluslararası ilişkilerde yeni bir hukuki diplomasi dönemi başlıyor.
Yapay zekâya ilişkin hukuki düzenlemeleri ele aldığımız bu yazı dizimiz kapsamında daha önce ele aldığımız üzere, Avrupa Birliği (AB), yapay zekâ alanında kapsamlı ve bağlayıcı hukuki düzenlemeler kabul etti. Avrupa Komisyonu tarafından 2021 yılında Avrupa Parlamentosu’na sunulan ve yapay zekâ sistemlerinin piyasaya arzı, hizmete sunulması ile bazı uygulamaların yasaklanmasına ilişkin kuralları belirleyen Yapay Zekâ Yasası, tüm üye ülkelerde doğrudan uygulanacak bir hukuki rejim oluşturdu. Söz konusu düzenleme coğrafi açıdan yalnızca AB ile sınırlı kalmayıp, AB piyasasına sunulan tüm yapay zekâ sistemlerini kapsayacak şekilde sınır ötesi bir etki yaratıyor.
Komisyon’a göre, çoğu yapay zekâ sistemi sınırlı risk veya risksiz nitelik taşırken, bazı sistemler yüksek risk oluşturarak istenmeyen sonuçlara yol açabiliyor. Bu nedenle Yapay Zekâ Yasası’nda, yapay zekâ sistemlerini tamamen yasaklamak yerine, risk seviyelerine göre sınıflandıran ve her kategoriye uygun yükümlülükler getiren bir yaklaşım benimseniyor. Kabul edilemez risk kategorisine giren YZ sistemlerinin kullanımı, 2 Şubat 2025 tarihi itibarıyla tamamen yasaklanırken; yüksek risk taşıyan diğer sistemler için ise uygun risk değerlendirme ve azaltma mekanizmaları, ayrımcılığı en aza indirecek yüksek kaliteli veri setleri kullanımı, faaliyetlerin kayıt altına alınarak sonuçların izlenebilirliğinin sağlanması, sistemin amacı ve işleyişine ilişkin ayrıntılı dokümantasyon hazırlanması, kullanıcıya açık ve yeterli bilgilendirme yapılması, insan gözetimi mekanizmalarının oluşturulması, yüksek düzeyde sağlamlık, siber güvenlik ve doğruluk sağlanması yükümlülükleri detaylı şekilde düzenleniyor.
Yapay Zekâ Yasası temel olarak, yapay zekâ sistemlerinin güvenli, şeffaf, insan haklarına saygılı ve etik değerlere uygun şekilde geliştirilmesini ve kullanılmasını garanti altına almayı amaçlıyor. Bunun haricinde, AB’nin YZ alanındaki yasa yapım süreci, yalnızca Avrupa ile sınırlı kalmıyor. Avrupa Konseyi Bakanlar Komitesi tarafından onaylanan ve 5 Eylül 2024’te Litvanya’nın Vilnius kentinde imzaya açılan Yapay Zekâ, İnsan Hakları, Demokrasi ve Hukukun Üstünlüğü Çerçeve Sözleşmesi ile ilk kez, YZ yönetişimi için bağlayıcı bir uluslararası hukuk metni oluşturuldu. İnsan haklarına saygılı, demokratik değerlere uygun ve hukukun üstünlüğünü esas alan ortak standartlar sunan bu sözleşmeyi daha önceki yazımızda incelemiştik. Sözleşme’nin dikkat çeken bir özelliği AB’nin YZ alanındaki etik liderlik iddiasını ileriye taşıyarak somut bir mevzuata dönüştürmesidir.
Amerika Birleşik Devletleri’nde ise YZ’ye ilişkin hukuki düzenlemeler, yönetimdeki değişimlere göre farklı paradigmalarla şekilleniyor. Biden yönetimi döneminde, 30 Ekim 2023 tarihinde yayımlanan Yapay Zekânın Güvenli, Emniyetli ve Güvenilir Şekilde Geliştirilmesi ve Kullanılması’na İlişkin 14110 Sayılı Yürütme Emri ile yapay zekâ teknolojilerinin etik, güvenli ve temel haklara saygılı şekilde geliştirilmesi amaçlanmıştı. Bu yürütme emri, federal kurumlara YZ sistemlerinde güvenlik ve mahremiyetin sağlanması, yapay zekâda önyargı, dezenformasyon ve ulusal güvenlik risklerinin azaltılması, yapay zekânın iş gücü üzerindeki etkilerine yönelik düzenlemeler getirilmesi ile test ve denetim mekanizmalarının oluşturulması gibi kapsamlı yükümlülükler yüklemişti. Bu yaklaşım, inovasyonun teşvik edilmesi ile kamu yararının korunması arasında dengeli bir hukuki çerçeve ortaya koymuştu.
Trump yönetimi ise göreve gelir gelmez, Biden döneminde çıkarılan 14110 sayılı yürütme emrini yürürlükten kaldırmış ve yerine 23 Ocak 2025 tarihinde Yapay Zekâda Amerikan Liderliğinin Önündeki Engellerin Kaldırılması’na İlişkin 14115 Sayılı Yürütme Emrini yayımladı. Bu yeni yürütme emri, yapay zekâyı ekonomik büyüme ve ulusal rekabet gücünün temel motoru olarak tanımlarken, bu konudaki hukuki düzenlemeleri inovasyonun önünde engel olarak değerlendiriyor. Düzenleme, yapay sosyal gündemlerin YZ sistemlerini etkilemesini eleştirerek, teknolojilerin ideolojik önyargılardan arındırılmasını ve hukuki düzenleme yükünün en aza indirilmesini hedefliyor. Böylece Biden yönetimi etik, risk temelli ve insan odaklı bir yaklaşımı benimsemişken, Trump yönetimi piyasa özgürlüğünü önceliklendiren ve yasa yapımını asgariye indiren bir vizyon ortaya koydu. Bu paradigma farklılığı, şirketlerin uzun vadeli hukuki uyum stratejilerinde ciddi belirsizlikler yaratıyor; özellikle yüksek riskli modeller için getirilen güvenlik protokollerinin kısa sürede yürürlükten kaldırılması, ürün geliştirme süreçlerinde ek maliyet ve operasyonel aksamalar doğuruyor.
Bugün gelinen noktada, şirketlerin odak noktası artık yalnızca inovasyon değil. Küresel ölçekte faaliyet gösteren şirketlerin, yerel hukuki gereklilikleri ve uluslararası etik standartları yakından takip etmesi; farklı coğrafyalarda hızla değişen mevzuata uyum sağlayabilecek esnek yönetişim, hukuk ve etik stratejileri geliştirmesi her zamankinden daha kritik hale geldi. AB, şirketlere bağlayıcı yükümlülükler getirerek etik ve insan hakları temelli bir inovasyon ekosistemi inşa ederken, ABD’de yönetim değişikliklerinin yarattığı mevzuat dalgalanmaları, şirketlerin uzun vadeli planlamalarını belirsizliğe sürüklüyor. Bu bağlamda, proaktif hukuki uyum stratejileri geliştirmek artık yalnızca bir yükümlülük değil, aynı zamanda şirketlerin küresel rekabet gücü ve sürdürülebilirliği açısından stratejik bir gereklilik olarak karşımıza çıkıyor.
Stj. Av. Zeynep Meryem Ünal’ın katkılarıyla