‘Güven’ son derece iddialı ve güçlü bir kavram. Kime, neye ve nasıl güvendiğimiz konusu karmaşık. Söz konusu algoritmalar olduğunda durum daha da sıkıntılı.
Yapay zekâya güveniyor musunuz? Soru basit. Ama cevabı bir o kadar zor. Zira, bu salt teknik bir konu değil. Daha derinde bir yere işaret ediyor.
Yapay zekâ, artık her alanda kararları etkiliyor, süreçleri dönüştürüyor. Bu hızlı entegrasyon, heyecan kadar endişe de yaratıyor. Zira teknoloji geliştikçe, insanın anlam arayışı derinleşiyor: ‘Bu sisteme neden güvenmeliyim?’
‘Güven’ son derece iddialı ve güçlü bir kavram. Kime, neye ve nasıl güvendiğimiz konusu karmaşık. Söz konusu algoritmalar olduğunda durum daha da sıkıntılı.
Bu sorunun cevabı, yalnızca kod kalitesinde ya da modelin doğruluğunda değil. Gerçek cevap, teknolojinin çevresinde inşa edilen kültürel, yönetsel ve etik yapılarda yatıyor.
Belirsizlik güveni aşındırıyor!
KPMG’nin Küresel AI Güven Araştırması’na göre, çalışanların yüzde 57’si iş yerlerinde yapay zekâ araçlarını yöneticilerinden gizleyerek kullanıyor. Yüzde 48’i de hassas şirket bilgilerini açık platformlara yüklüyor. Neden? Çünkü sistemin nasıl çalıştığını, sınırlarını ve risklerini bilmiyorlar. Belirsizlik, şüphe doğuruyor.
Öte yandan, Stanford AI Index 2025 Raporu, son bir yılda yapay zekâ kaynaklı hataların yüzde 56 oranında arttığını ortaya koyuyor. Hatalar arttıkça, sorumluluk duygusu bulanıklaşıyor. Kim hatalıydı? Veri mi, model mi, kodlayan kişi mi, yoksa onay veren yönetici mi?
Bu tablo, bizi yeni bir paradigma arayışına yöneltiyor: Güveni sadece mühendislikle değil, şeffaflık, hesap verebilirlik ve katılımla inşa etme gerekliliği.
Güvenin temel prensipleri
Güven, soyut bir duygu gibi algılansa da aslında kurumsal kapasiteyle doğrudan ilişkili. Temelde üç ilke belirleyici:
- Şeffaflık: Şeffaflık, bilinmezliğe karşı ilk savunma hattıdır. Sistemin nasıl çalıştığı, hangi verilerle beslendiği, ne tür varsayımlarla karar verdiği açık biçimde paylaşılmalıdır.
- Hesap verebilirlik: Sistemin verdiği kararların sonuçlarıyla ilgili sorumluluk kimde olacak?
- Katılım: Kullanıcılar, sistemi şekillendiren süreçlere katkı sunabilmelidir. Sistemin benimsenmesi, onun kullanıcılarla birlikte evrilmesine bağlıdır.
Bu ilkeler, güven inşa etmek için ön koşullar. Ancak, bunları sistematik şekilde yönetecek bir çerçeveye de ihtiyaç var.
Güven modeli: “Trust Octagon”
Akademisyen J. Cadavid ve arkadaşlarının özellikle sağlık sektörü için önerdiği Trust Octagon modeli, yapay zekâya duyulan güveni sekiz temel boyutta ele alıyor. Bu modelde güven ölçülebilir ve yönetilebilir bir sistem içinde tanımlanıyor:
- Şeffaflık: Sistem nasıl çalıştığını açıkça gösteriyor mu?
- Adillik: Farklı gruplara karşı önyargısız sonuçlar üretiyor mu?
- Gizlilik: Kişisel veriler korunuyor ve etik şekilde işleniyor mu?
- Güvenilirlik: Sistem kararlı ve öngörülebilir mi?
- Hesap verebilirlik: Kararların mantığı izah edilebiliyor mu?
- Güvenlik: Siber tehditlere karşı dayanıklı mı?
- Yasal Uyum: Sistem yasal düzenlemelere uygun çalışıyor mu?
- Yorumlanabilirlik: Kullanıcı, sistem çıktısını anlayıp değerlendirebiliyor mu?
Yapay zekâya güveni kurum kültürüne entegre etmek için de üç temel alana yatırım şart:
- Eğitim: Tüm çalışanlar etik, hukuk ve algoritmik okuryazarlık alanlarında eğitilmeli.
- Yönetişim: Etik kodlar sadece ilkeler düzeyinde kalmamalı. Tüm karar süreçlerine entegre edilmeli.
- Liderlik: Güven inşası, yöneticilerin gösterdiği açıklık ve sorumlulukla doğrudan ilişkili. Liderin verdiği mesaj, sistemin sunduğu veriden her zaman daha güçlüdür.
Sonuç: Güven olmadan teknoloji güdük kalır!
Yapay zekâ, kuşkusuz çağımızın en büyük teknolojik sıçramalarından biri. Ancak bu sıçramanın toplumsal karşılığı, yalnızca algoritmanın performansına değil, o algoritmayı tasarlayan, uygulayan ve yöneten kurumların değerlerine bağlı. Dolayısıyla, sistemin doğru çalışması tek başına yeterli değil. Aynı zamanda şeffaf, denetlenebilir ve hesap verebilir olması gerekiyor.
Trust Octagon gibi modeller, bu güveni sekiz boyut üzerinden analiz ederek yönetişim süreçlerine entegre etmeyi mümkün kılıyor. Yine de asıl mesele, bu çerçevenin varlığı değil, kurumun bunu ne kadar sahiplendiğidir. Güven, excel tablolarıyla değil, davranışlarla kurulur. İlk kriz anında gösterilen şeffaflık, ilk hata sonrası alınan sorumluluk ve ilk başarının ardından kurulan diyalog sistemin değil, kurumun kalitesini gösterir.
Bugün, teknolojiye yatırım yapan her kurumun aynı zamanda bir güven stratejisi inşa etmesi gerekiyor. Bu strateji sadece teknik ekiplerin değil, İK’dan iletişime, hukuk departmanından üst yönetime kadar tüm paydaşların katılımını gerektiriyor. Çünkü algoritmalar karar alabilir, ama güveni ancak insanlar inşa edebilir.
Dahası, güvenin sadece bir kurumsal performans kriteri değil, sürdürülebilirlik kriteri olduğunu da unutmamak gerekiyor. Şeffaf ve adil olmayan, hesap vermeyen bir sistemin uzun vadede ne kamu ne piyasa ne de toplum nezdinde meşruiyetinin kalması mümkün değil.
Bu nedenle, bugünün sorusu ‘en iyi yapay zekâ modeli kimde?’ değil, ‘En güvenilir karar mimarisi kimde?’ sorusudur.