Teknoloji çağının en çok tartışılan kavramlarından biri, aslında tıpta ve psikolojide çok özel bir anlama sahip olan bir kelime: Halüsinasyon. İnsan zihninin gerçek dışı görüntüler, sesler, hisler üretmesiyle ilişkili bu sözcük, bugün yapay zekânın “inanılır ama yanlış” çıktıları için kullanılıyor. Peki biyolojik bir sürecin adı olan bu fenomen, gerçekten bir makinenin yaptığı hatayı anlatabilir mi? Bu soru yalnızca teknolojinin sınırlarını değil, hakikatin giderek parçalandığı bir çağda algımızın nasıl dönüştüğünü de sorgulatıyor. Belki de asıl sorulması gereken, teknolojinin nasıl çalıştığından çok, onun ürettiği hataları nasıl yorumladığımız.
Önce kavramı insanda ele alalım. Halüsinasyon, duyularla doğrudan ilişkilidir; yani görme, duyma, dokunma gibi fiziksel algı süreçlerimizin devre dışı kalıp beyindeki yorumlama mekanizmalarının bir “gerçeklik yanılsaması” üretmesidir. İnsan beynindeki kimyasal dengesizlikler, travmalar, uyku bozuklukları, psikotik durumlar veya yoğun duygulanımlar bu süreci tetikleyebilir. Yani halüsinasyon, bir iç dünya kırılmasının dışa taşmasıdır.
Yapay zekânın ise ne iç dünyası vardır ne duyusu. Beyin yerine bir model, anı yerine veri, duygu yerine matematiksel olasılık çalışır. Yapay zekânın ürettiği her cümle bir tahmindir: Önceki kelimelerden sonra gelme ihtimali en yüksek olan ifadeyi seçer. Dolayısıyla yapay zekânın “halüsinasyon görmesi”, kelimenin gerçek anlamıyla biyolojik olarak mümkün değildir.
Ancak burada önemli bir ayrım var: Yapay zekânın hataları sıradan bir “yanlış işlem” değil; çoğu zaman insanı ikna edecek kadar tutarlı, akıcı ve bütünlüklü bir anlatıya dönüşür. İşte bu nedenle dijital hataya tıp kökenli bir terim yakıştırıyoruz; çünkü ortaya çıkan sonuç, sıradan bir hata gibi değil, “inandırıcılığı yüksek bir kurgu” gibi görünür.
Örneğin modelden bir tarihsel bilgi istersiniz; size olmayan bir kongre bildirisi üretir, tarihler uyar, kişilerin görevleri örtüşür, cümleler akıcıdır… Ancak metnin kendisi yoktur. Bir akademik makale oluşturmasını söylersiniz; referans listesine olmayan kaynaklar ekler, yazar isimleri ve dergi adları gerçeğe benzer seslerle dizilir. Bu durum, modelin eğitim verisinde bulunmayan veya eksik temsil edilen bilgilerle karşılaştığında, yalnızca istatistiksel desenlere dayanarak en olası çıktıyı 'uydurmasından' (İng: confabulation) kaynaklanır. Bu süreç, insan hafızasındaki boşlukları mantıklı hikayelerle doldurma eğilimi olan 'konfabülasyon'a benzetilebilir. Bu hatalar, bir makinenin “hayal görmesi” değil, verinin sınırlarından türeyen bir olasılık yanılgısıdır. Fakat sonuç o kadar tutarlı görünür ki, insan zihni bunu otomatik olarak “gerçek” diye kabul etmeye yatkındır.
Bu noktada, yapay zekâ kavramının insanileştirilmesinin riskleri ortaya çıkıyor. Bütün bir teknoloji tartışması, insan metaforları üzerinden yürütülüyor: “Öğreniyor”, “düşünüyor”, “yazıyor”, “karar veriyor”, “halüsinasyon görüyor”… Oysa bunlar birer mecaz. Bilimsel tartışmayı kolaylaştırsa da uzun vadede algımızı çarpıtıyor. Çünkü bu metaforlar, yapay zekâyı olduğundan daha “öznel”, daha “bilinçli”, daha “niyetli” bir varlık gibi yorumlamamıza yol açıyor. Bu da hatalarına olduğundan fazla anlam yüklememize neden oluyor.
Nitekim bu 'masum' algı, deepfake videolarla seçimlerin manipüle edildiği veya sahte içtihatlarla hukuk sisteminin yanıltıldığı bir ortamda, riskin ciddiyetini gölgeleyen tehlikeli bir perdeye dönüşebiliyor. Çünkü görüntüye olan inancımız, yazıya olan inancımızdan hâlâ daha kuvvetli.
Yine de “halüsinasyon” metaforu tamamen işlevsiz değil; aksine çok kritik bir gerçeği işaret ediyor: Yapay zekâ teknolojileri, doğru görünme ihtimali yüksek yanlış bilgi üretmeye eğilimli. Bu da insanlık tarihinin hiç yaşamadığı türden bir bilgi güvenliği sorunu yaratıyor. Çünkü makine yanıldığında, yanılgısını milyonlarca kişiye aynı anda taşıyabiliyor.
Daha da önemlisi, bilgi çağında hız kadar doğruluğun önemi de belirleyici bir rol oynuyor. Yapay zekâ çıktılarının internete geri akması, hataların zincirleme büyümesine neden olabiliyor. Yani bir makinenin yanlış tahmini, başka bir makinenin “doğru” kabul ettiği bir veri noktası hâline geliyor. Bu kısır döngü, dijital hafızanın nasıl kirlendiğine dair ciddi bir uyarı niteliğinde.
Bu yüzden bugün dünyanın dört bir yanında tartışılan mesele sadece teknolojik bir hata değil; epistemolojik bir kırılma. Hakikatin tanımını, bilginin doğruluğunu, kaynağın güvenilirliğini yeniden düşünmeye mecbur kalıyoruz. Gazetecilikten akademiye, hukuktan tıbba kadar her alanda “doğrulama kültürü” yeniden inşa ediliyor.
Öte yandan yapay zekânın bu “yanılabilirliği”, yaratıcı alanlarda bir avantaj olarak da görülebilir. Sanatta, edebiyatta, tasarımda, hayal gücünü tetikleyen sıradışı öneriler sunabilir. Gerçek olmayan ama çarpıcı kurgular üretmesi, yaratıcı düşünce için bir davet niteliğindedir. Burada mesele, hangi alanlarda yanlışın bir ihtimal, hangi alanlarda bir risk olduğunu doğru saptayabilmektir.
Sonuç olarak, yapay zekâ halüsinasyon görmez; çünkü zihin sahibi değildir. Ama onun hatalarını halüsinasyon gibi görmemize neden olan şey, insanların makineleri insanlaştırmaya olan eğilimidir. Bu eğilim, teknolojiyi anlamayı kolaylaştırırken, doğru konumlandırmayı zorlaştırır. İnsan zihni kendi mekanizmalarını makineye yansıttıkça, makinenin ürettiği hatayı da “insanî” bir yanılsama gibi algılar.
Belki de en doğru soru hâlâ şudur:
Yapay zekâ yanılıyor diye biz de mi yanılıyoruz, yoksa onun yanılgısını “insanî” bir deneyim gibi yorumladığımız için mi daha büyük bir yanılgıya sürükleniyoruz? Bu 'daha büyük yanılgı', kendi eleştirel düşünme yetimizi, sorgulama disiplinimizi bir makineye devretme ve nihayetinde otoriteyi değil, otomatizasyonu sorgusuz sualsiz kabul etme riskidir.
Bu çağda hakikate ulaşmanın yolu, yalnızca bilgiye sahip olmak değil; bilgiyi sorgulama disiplinini korumak. İnsan aklının en büyük avantajı hâlâ burada duruyor: Gerçeği seçme, ayıklama, tartma yetisi… Yapay zekâ bu yetinin rakibi değil; ancak doğru konumlandığında güçlü bir destekçisi olabilir.
Ve belki de şunu hatırlayarak başlamak gerekir:
Yapay zekâ görmez, işitmez, hissetmez.
Ama biz ona öyle davrandıkça, kendi gerçeklik algımızı tehlikeye atabiliriz. Hakikati korumanın yolu, aklı makineye devretmemekten geçiyor.
