TUNCA ÜÇER - Kolay İK/ COO
İş dünyasında yapay zekâ rüzgarı her köşeyi etkisi altına alıyor. Özellikle insan kaynakları alanında, bu yeni teknoloji bir devrim vaadiyle geliyor: İşe alımları hızlandırmak, en doğru yeteneği bulmak, performans süreçlerini veriye dayandırmak... Başlıkların hepsi kulağa harika geliyor. Ancak bu parlak vaatlerin arkasında, dikkatle yönetmemiz gereken ciddi bir tehlike yatıyor. Yapay zeka, İK süreçlerinde bize güç veren bir ‘yardımcı pilot’ mu olacak, yoksa farkında olmadan bizi bir otokrasiye mi sürükleyecek?
Önce temel bir gerçeği kabul edelim. Yapay zeka, tarafsız veya sihirli bir karar mekanizması değil. O, bizim beslediğimiz verilerle öğrenen, bizim çizdiğimiz bağlam içinde sonuçlar üreten bir ayna. Eğer bizim geçmişimiz, kararlarımız ve verilerimiz önyargılar içeriyorsa yapay zeka bu önyargıları sadece devralmakla kalmaz, aynı zamanda endüstriyel bir hız ve ölçekte uygulayarak onları normalleştirir.
Bu önyargılar teorik endişeler değil, bugünden karşımıza çıkan somut gerçekler. Gelin bu durumu hayali bir şirket üzerinden inceleyelim. Hem üretimi hem de perakende mağazaları olan X Bisiklet isimli şirket, verimliliği artırmak için İK süreçlerine yapay zekayı entegre etmeye karar veriyor. İşte karşılaşabileceği üç temel önyargı tuzağı:
- "Elitist" CV tuzağı
X Bisiklet, yeni "Ar-Ge Direktörü" pozisyonu için bir yapay zekâ işe alım programı kullanmaya başlar. İK yöneticisi sisteme basit bir komut verir: "Bana son on yıldaki en başarılı yöneticilerimize benzeyen adayları bul." Yapay zekâ, mevcut yöneticilerin profillerini inceler ve neredeyse hepsinin belirli, prestijli mühendislik fakültelerinden mezun olduğunu görür.
Program artık seçkin bir kulübün kapısındaki güvenlik görevlisi gibi davranmaya başlar. Öz geçmişinde bu üç üniversitenin adı geçmeyen adayları otomatik olarak "düşük öncelikli" olarak işaretler. Sonuç? Bisiklet sektöründe devrim yaratabilecek, alaylı ama dâhi bir tasarımcı veya daha az bilinen bir üniversiteden mezun olmuş parlak bir mühendis, sırf bu dar kalıba uymadığı için İK yöneticisinin önüne bile gelmez. X Bisiklet, potansiyel bir inovasyon liderini daha en başından ıskalamış olur.
- "Güler Yüzlü" Satışçı Ön Yargısı
Şimdi de X Bisiklet’in perakende mağazaları için satış danışmanı aradığını düşünelim. Video mülakatları analiz eden bir yapay zeka kullanılıyor. Sisteme, en yüksek ciroyu yapan mevcut satışçıların videoları izletilir. Yapay zeka, bu kişilerin genellikle daha enerjik konuştuğunu, çok gülümsediğini ve dışa dönük olduğunu "öğrenir".
Sistem, yeni adayların videolarını izlerken adeta bir "pozitiflik ölçer" gibi çalışır. Adayın konuşma hızını, gülümseme oranını ve ses tonundaki coşkuyu baz alır. Peki ya müşterinin ihtiyacını sakince dinleyen, güven inşa ederek yüksek marjlı özel tasarım bisiklet satışında harikalar yaratabilecek o tecrübeli ve içe dönük aday? Yapay zekâ onu "düşük enerjili" ve "pasif" olarak etiketler. Şirket, hızlı satış yapanları ödüllendirirken sadık müşteri kitlesi yaratacak değerli bir yeteneği eler.
- "Gizli Kod" ön yargısı
Hayali şirketimiz X Bisiklet’in üretim bandı için bir "Vardiya Amiri" arayışında da benzer bir tehlike ortaya çıkar. Geçmişteki vardiya amirlerinin %95'i erkektir. İşe alım sistemi, bu durumu bir veri olarak alır ve başarılı bir amir profilinin ipuçlarını aramaya başlar.
Sistem, erkek adayların öz geçmişlerinde daha sık rastlanan "askerliğini tamamladı", "halı saha takımı kaptanı" gibi ifadeleri, liyakatle ilgisi olmamasına rağmen birer başarı sinyali olarak görmeye başlar. Üretim süreçlerini optimize edebilecek, harika bir organizasyon yeteneğine sahip bir kadın adayın öz geçmişi, bu "gizli kodlar" bulunmadığı için sistem tarafından daha düşük puanlanır. Bu, Amazon’un yaşadığı meşhur problemin bir benzeridir. Algoritma, tarihsel bir tesadüfü, bir liyakat kriteri gibi uygulamaya başlar.
Kolayca çözülebilecek, sorunları çok aşikâr olan durumlar değil mi? Şimdilik bu hataları yakalayabiliyoruz çünkü kontrolün önemli bir kısmı hala bizde. Ancak süreçlere olan güvenimiz arttıkça ve dümeni yavaş yavaş yapay zekâya devrettiğimizde ne olacak? İşte o zaman, Stanford HAI gibi kurumların da dikkat çektiği "aklanmış önyargı" (laundered bias) tehlikesiyle karşı karşıya kalırız. Yani, insanın öznel önyargısı, teknolojinin "objektif" kisvesi altında aklanarak sorgulanamaz bir şirket politikasına dönüşür. X Bisiklet’in İK yöneticisi, "Sistem böyle karar verdi, verilere dayalı bir sonuç" diyerek sorumluluktan kaçabilir.
Bu yüzden şu soruyu sormalıyız: Dümenin insanda olmadığı bir İK departmanı olabilir mi? İnsanın "kaynak" olarak görüldüğü her yerde, o kaynağa dair nihai kararların dümeni insanda kalmalı. Çünkü farkı yaratan o son dokunuş; yani muhakeme, sezgi, yaratıcılık ve vicdan gibi özellikler (en azından şimdilik) yapay zekâda yok. X Bisiklet’in üretim bandındaki bir işçinin son zamanlardaki performans düşüklüğünün ardındaki kişisel dramı bir makine anlayamaz. Bir makine, zor bir performans görüşmesinde empati kuramaz veya bir adayın potansiyelini rakamların ötesinde hissedemez.
Bu, teknolojiyi reddetmemiz gerektiği anlamına gelmiyor. Tam tersine, performans değerlendirme, işe alım veya kariyer yönetimi gibi konularda yapay zekâ müthiş birer yardımcı pilot. Binlerce öz geçmişi saniyeler içinde tarayabilir, veri setleri içinde bizim göremediğimiz korelasyonları bulabilir, bize farklı senaryolar sunabilir.
Teknoloji bir amaç değil, bir araç. X Bisiklet için başarının anahtarı, en gelişmiş yapay zekâ modelini satın almak değil, o teknolojiyi insan muhakemesinin ve vicdanının hizmetine sunacak kültürü inşa etmek. Çünkü dümenin insanda kalmadığı bir İK, eninde sonunda insana dair her şeyi ıskalar.