Paris’teki AI Action Zirvesi, yapay zekâ alanında Avrupa’nın geride mi kaldığı tartışmasından çok daha derin bir meseleyi gündeme getirmeli: Bu teknolojiyi nasıl bir geleceğe hizmet etsin diye geliştiriyoruz?
Yapay zekâ yalnızca bir yazılım değil; üretimden eğitime, sağlıktan iklime kadar her alanda kuralları baştan yazma gücüne sahip bir gelecek. Bugün yapay zekâya da kamusal bir kavram olarak bakmamız gerek çünkü yapay zekâ sadece yeni bir teknoloji değil; tıpkı elektrik ya da internet gibi, tüm sektörleri dönüştürebilecek bir küresel zemin. Böylesine kapsayıcı bir dönüşüm potansiyeli, ona dair alınan kararların da yalnızca teknoloji geliştiricilere ya da yatırımcılara bırakılamayacağını açıkça ortaya koyuyor.
Ancak son on yılın dijitalleşme deneyimi, bu tür teknolojilerin kamu yararına değil, dikkat ekonomisine dayalı platform kapitalizmine hizmet edecek şekilde evrildiğini gösterdi. Bu modelde verilerimiz, davranışlarımız, hatta dikkatimiz bile nesneleşiyor. Platformlar önce kullanıcıları cezbediyor, sonra üreticileri ve işletmeleri kendine bağımlı hale getiriyor; en sonunda ise tüm tarafların deneyimini kötüleştirerek kendi karını maksimize ediyor. Gazeteci Cory Doctorow, bu süreci “enshittification” olarak tanımlıyor, yani dijital platformların zamanla sistematik olarak “berbatlaşması”. Doctorow’a göre bu döngü, “önce kullanıcı için iyi olanın, sonra işletme için iyi olanın, en sonunda ise sadece platform için karlı olanın kalmasıyla sonuçlanıyor. Algoritmalar, kullanıcıları platformda tutmak adına kimi zaman bağımlılık yaratan, zararlı ya da sansasyonel içerikleri öne çıkarıyor. Peki bu teknolojiler, kamusal faydayı değil sadece kullanıcı süresini ve reklam gelirini öncelediğinde ortaya nasıl bir toplumsal yapı çıkar?
İşte bu nedenle mesele sadece teknik değil, aynı zamanda politik ve toplumsal. Eğer yapay zekâya dair kararları yalnızca birkaç dev şirket verir hale gelirse, bu teknoloji refah değil, yeni eşitsizlikler üretecek. Oysa biz, teknolojiyi bir rant aracı değil, adil bir ekonomik düzenin taşıyıcısı olarak tasarlayabiliriz. Bu da bazı temel soruları bugünden sormayı gerektiriyor:
Veri kimin? Yapay zekâ hangi kaynaklarla ve kim adına geliştiriliyor? Bu sistemler nasıl wdenetleniyor, kime hesap veriyor? Bugün, üretken yapay zekâ modellerinin eğitildiği veri setleri, algoritmaların nasıl çalıştığı, çevresel etkileri ya da bağımlılık gibi toplumsal yan etkileri çoğu zaman şeffaf biçimde paylaşılmıyor. Oysa tıpkı karbon salımı raporlaması gibi, “algoritmik şeffaflık” da dijital çağın temel denetim aracı olmalı. Özgürlük adı altında toplumsal gerçekliklerin yok edilmesine izin vermemeliyiz. (elbette otokrasi canavarını da beslemeyerek.)
Bu bir inovasyon karşıtlığı değil. Aksine, inovasyonu kamu yararına yönlendirme çabası. Yapay zekâ, sağlık hizmetlerini iyileştirmekten afetlere karşı direnç oluşturmaya kadar birçok alanda katkı sunabilecek güce sahip. Ama bu, ancak onu yöneten yapıların kamusal değer üretme önceliğine sahip olması ile mümkün. Şimdi sormamız gereken soru şu: Yapay zeka kimin için çalışacak? Bireylerin refahı ve toplumun ortak çıkarı için mi, yoksa yalnızca dikkat çekip veri toplayan platformların çıkarı için mi? Karar bizim. Bu sadece bir teknoloji meselesi değil, bir adalet ve yeni gerçeklik meselesi.