Yapay zekânın otonom karar yetisi, sorumluluğu ortadan kaldırmaz. Ama dağıtır. Ve dağılan sorumluluk, çoğu zaman kimsenin sahiplenmediği bir boşluğa dönüşür.
Yapay zekâ tartışmaları bugün iki uç arasında salınıyor. Kurtarıcı mucize ya da kıyamet senaryosu. Her iki anlatı da aynı hileli vaatte buluşuyor: Sorumluluğu teknolojinin sırtına yüklemek.
Oysa, bu iki uç da meseleyi ıskalıyor. Çünkü, yapay zekânın olası tehdidi bir teknoloji sorunu değil. Gerçekte tam olarak insanın kendisiyle yüzleşmesi…
Yapay zekâ toplumların, kurumların ve bireylerin zaten taşıdığı eğilimleri çoklayan bir hızlandırıcı. Bu yüzden yapay zekâyı anlamak teknoloji ile değil; kültür, etik ve felsefeyle mümkün.
Yapay zekâ ön yargılı mı?
Evet, yapay zekâ ön yargılı olabilir. Ama bu ön yargı ona ait değil. Bize ait!
Bugün bazı işe alım algoritmaları kadın adayları sistematik biçimde eliyor. Bazıları etnik grupları dışlıyor. Bu, algoritmaların kusuru değil, toplumların tarihsel eşitsizliklerinin veri setlerine gömülmüş, normalize edilmiş ve görünmez kılınmış hâli.
Yapay zekâ yeni bir adaletsizlik icat etmez. Var olanı ölçekler. Hızlandırır. Bu yüzden mesele ‘algoritmalar neden adaletsiz?’ sorusu değil; ‘biz hangi eşitsizlikleri veri setlerinin içine gömerek, normalize ettik?’ sorusudur.
Yapay zekâ burada tehdit değil, aynadır. Ve aynaya bakmak rahatsız edici olabilir. Özellikle de gördüklerinizden hoşnut olmadığınızda.
Yapay zekâ yepyeni sorunlar mı üretiyor?
Karşımızda yeni teknolojiler var. Ama şaşırtıcı biçimde çok yeni sorunlar yok.
İnsan–makine ilişkisi, otomasyon, emek, sorumluluk, güç dağılımı… Bunların tamamı Sanayi Devrimi’nden beri tartışılıyor.
Yapay zekânın farkı içerikte değil, hız ve ölçekte. Daha önce on yıllara yayılan dönüşümler artık birkaç yıl içinde gerçekleşiyor. Kurumlar adaptasyon tartışmalarında kaybolurken, algoritmalar yayılıyor. Hukuk çözüm ararken, veri çoktan hüküm veriyor. Biz etik ve ahlak derken, sistemler her köşeyi ele geçiriyor.
Yani, sorunlarımız yeni değil. Ama bu sefer bazı kırılganlıkları toparlamak için zamanımız çok daha az. Tepki verme lüksümüz de sınırlı.
Yapay zekâ bizi anlıyor mu?
Hayır. Yapay zekâ bizi anlamıyor. Devasa veri kümelerinden yararlanarak, bizi sadece tahmin edilebilir hâle getiriyor.
Algoritmalar anlam üretmez, olasılık üretir. Biz verimliliği kutsadığımız için, verimliliği optimize eden sistemler kuruyoruz. Sonra bu sistemler, verimlilik ve kolaylık vaadiyle bizi daha az merak eden, daha az risk alan, tek tip bireylere dönüştürüyor.
Neyi seveceğimizi, neyi okuyacağımızı, neye tıklayacağımızı algoritmalar söylüyor. Biz de buna ‘kişiselleştirme’ diyoruz. Hiper-kişiselleştirme hikayelerini başarı diye konferanslarda anlatıyoruz.
Oysa, insan zekâsı belirsizlikten beslenir. Yaratıcılık, hata ve sapma olmadan mümkün değildir. Her şeyin optimize edildiği bir dünyada insan verimli olabilir. Peki, yaratıcı kalabilir mi? Bu teknolojik bir kader değil, kültürel bir teslimiyettir.
Sorumluluk boşluğu var mı?
Otonom sistemler hata yaptığında kim sorumlu olur? Algoritma mı? Yazılımcı mı? Şirket mi? Kullanıcı mı?
Cevaptaki bu boşluk teknik değil, ahlakidir. Çıktılarını tam olarak kontrol edemeyeceğimiz bir sistemi devreye almak başlı başına bir karardır. Ve karar varsa, sorumluluk da olmalıdır.
Yapay zekânın otonom karar yetisi, sorumluluğu ortadan kaldırmaz. Ama dağıtır. Ve dağılan sorumluluk, çoğu zaman kimsenin sahiplenmediği bir boşluğa dönüşür. Herkesin sözde sorumlu olduğu yerde de gerçekte kimse sorumlu olmaz.
Son söz: Esas tehdit yapay zekâ değil, insan!
Bütün bu tartışmalar tek bir noktaya çıkıyor: Yapay zekâ hakkında konuşurken aslında insan olmanın anlamını tartışıyoruz.
Ön yargılar bize ait. Sürekli verimlilik takıntısı bizim hastalığımız. Sorumluluktan kaçma bizim konfor refleksimiz.
Teknoloji kaçınılmaz olabilir. Ama yönü kaçınılmaz değil. Yapay zekâ, insan-teknoloji ilişkisini yeniden kurmak için aslında bir fırsat.
Elbette, insanı yalnızca kullanıcı değil, sorumlu özne olarak korursak… Ve teknolojiyi sadece verimlilikle değil, anlamla hizalarsak.