Yapay zekâ, uzun süredir iş dünyasının gündeminde. Bu köşenin de son dönemde ağır yıldızı. Sebebi basit. Bu, yalnızca bir teknoloji konusu değil. Kurulan geleceğin temel yapı taşı.
Üstelik iki keskin yüzü var. Bir yanda verimlilik vaatleri, çevre ve iklim gibi sert sorunlara sunduğu çözüm potansiyeli… Öte yanda eşitlik, etik, adalet, vicdan ve kapsayıcılık gibi temel değerlerde derinleştirebileceği yarıklar.
Şeref Oğuz ustamızın da yazılarında sürekli vurguladığı gibi, yapay zekâyı sadece teknik bir mesele gibi görmek, sosyal bilimleri ve insan odaklı bakışı işin içine katmamak, yapılacak en büyük hatalardan biri. Çünkü, bugün bu karmaşık sistemleri tasarlarken verdiğimiz kararlar, geleceğin tuğlalarını örüyor. Bu da konuyu, kadim felsefeden bağımsız göremeyeceğimizi kanıtlıyor.
Felsefe yapay zekâyı yutuyor
MIT Sloan Management Review’da yayımlanan ‘Philosophy Is Eating AI’ başlıklı makalede Mark T. ve Brian E. bu duruma çok yerinde bir tanım getirmiş: “İyi ya da kötü, felsefe yapay zekâyı yutuyor.”
Bu ifade çok soyut gelebilir. Ama aslında net bir gerçeğe işaret ediyor: Yapay zekâ sistemleri yalnızca kodlardan ibaret değildir. Her algoritma bir bakış açısı taşır. Verileri işlerken dünyayı nasıl gördüğünüzü, neyi önemli bulduğunuzu ve kimi merkeze aldığınızı da kodlarsınız.
Daha açalım. Yapay zekâ sistemleri tasarlanırken (ister bilinçli ister değil) şu soruların yanıtları üzerine kurulur:
- Ne amaçlıyoruz? Sadece verimlilik mi, yoksa örneğin daha eşitlikçi bir düzen mi?
- Gerçeği nasıl tanımlıyoruz? Hangi verileri toplayıp, hangilerini önemsiz sayıyoruz?
- Bilgi nedir, nasıl emin oluyoruz? Hangi riskleri göze alıyor, hangi belirsizlikleri yok sayıyoruz?
Bunlar felsefenin temel sorularıdır.
Bir örnek verelim. Kredi notu hesaplayan bir yapay zekâ geliştirdiğinizi düşünelim. Sisteminiz sadece geçmiş ödeme verisini kullanıyorsa, şöyle bir felsefi kabul kodlamış olursunuz: “Bir insanın geleceği, tamamen geçmiş sayısal performansıyla ölçülür.” Ama karşı bir görüş de şunu iddia edebilir: “İnsanın potansiyeli sadece geçmiş rakamlardan ibaret değildir.”
Yani, kurulan sadece basit bir algoritma değil, insana dair bir dünya görüşüdür aslında. Sonuçta siz fark etmeseniz de felsefe sisteminize sızar. Çünkü her algoritma bir değerler bütünü, bir öncelikler listesi ve bir anlam haritası taşır.
Örnekleri çoğaltalım:
- Bir okul, öğrenci başarısını ölçen ve takip eden bir yapay zekâ modeli kuruyor. Model yalnızca sınav puanlarını dikkate alıyor. Öğrenme güçlüğü, aile koşulları, dil bariyeri, sosyal ve fiziksel engeller gibi faktörler göz ardı ediliyor. Böylece başarı sadece alınan puanlara indirgeniyor. Şimdi, bu ne kadar sağlıklı?
- Bir şehir planlama algoritması, trafikte araç akışını iyileştiriyor ama yaşlı bir yayayı, engelli bir bireyi, bisiklet kullanan çocuğu hesaba katmıyor. Peki, sürdürülebilir kent vizyonundan anladığımız bu mu?
Özetle, tasarlanan her sistem aslında şunu ilan ediyor: Biz gerçeği böyle tanımlıyor, başarıyı bu kriterden ölçüyor, anlamı bu ölçeğe göre belirliyoruz.
Yapay zekânın etkisi ve riski tam da burada başlıyor. Model bir kere kurulunca, çıkan sonuçlar sanki nesnel bir hakikatmiş gibi görünüyor. Oysa farklı verileri dahil etmek, başka sorular sormak ve sürekli sorgulamak her zaman mümkün.
Sadece iyi niyet yetmez
Yapay zekâ bana göre sürdürülebilirlik retoriğinin ek kritik konusu haline gelmiş durumda. Buradaki iddia da yalnızca ‘iyi niyet’ beyanlarıyla olmaz. İklim krizini azaltmaya çalışırken, eş zamanlı olarak başka adaletsizlikleri büyütüyorsak, kaybeden yine biz oluruz.
Bu yüzden, sistem tasarımının daha en başında şu soruları sormak hayati önemde:
- Bu sistem neyi amaçlıyor?
- Gerçekliği hangi gözle tanımlıyor?
- Kimin hikâyesini veri sayıyor, kimin sesini dışarıda bırakıyor?
- Hangi belirsizlikleri görmezden geliyor?
Bu noktada, ‘felsefe yapma’ diyenleriniz olabilir. Oysa, burada sözünü ettiğimiz şey soyut bir entelektüel egzersiz değil. Tam tersine, sürdürülebilirlik hedeflerini samimiyetle sahiplenmenin, kalıcı güven oluşturmanın yolu. Çünkü amaçlarımızı ve değerlerimizi netleştirmedikçe, en gelişmiş algoritmalar bile bizi sadece eski hatalara daha hızlı götürme riski taşıyor.
Çözüm ne?
Çözüm, yapay zekâyı sadece teknolojiyi geliştirenlerin sorumluluğuna bırakmamakta. Sosyal bilimciler masaya davet edilmeli. Geniş bir mutabakat alanı yaratılmalı. Ancak bu sayede daha adil, daha akılcı, daha etkili bir vizyon ve gelecek iddiası ortaya çıkar.
Yapay zekâ, sağlıklı bir gelecek için en önemli araçlardan biri olabilir. Ama önce onun sadece teknik bir dönüşüm değil, aynı zamanda toplumsal ve felsefi bir karar dizisi olduğunu kabul etmeliyiz.
Yine, bir soruyla bitirelim: Yapay zekâyı eski alışkanlıklarımızı (ve hatalarımızı) daha sistematik ve hızlı tekrar etmek için mi kullanacağız, yoksa başka bir ihtimal var diyerek, daha sağlıklı ve yaşanabilir bir dünya kurmayı mı hedefleyeceğiz?
Bu sorunun cevabı, gelecek nesillerin elinde değil. Tam da bugün karar verenlerin cesaretinde saklı.