Futbol üzerinden konuştuğumuz o tanıdık tabloyu hatırlayın:
“Bizim oyuncu, bizim camia, bizim taraf…”
Bugün sahada gördüğümüz bu zihniyet, yarın çok daha görünmez ve çok daha güçlü bir alanda karşımıza çıkarsa ne yaparız?

Soru basit ama cevabı ürkütücü:
İnsan gibi düşünebilen yapay zekâ sistemleri, insanın ayrımcılığını da öğrenirse ne olur?

Bugün bir insan yanlı davranabilir.
Yanlış yapar, eleştirilir, geri adım atar.
Ama yarın bir algoritma aynı yanlılığı “veriye dayalı”, “tarafsız”, “nesnel” görünümü altında üretirse, işte asıl mesele orada başlar.

Çünkü insan hatası tartışılır.
Algoritma hatası ise çoğu zaman sorgulanmadan kabul edilir.

Ve burada asıl tehlike şudur:
Yapay zekâ, yalnızca düşünmeyi değil, düşünme biçimini taklit eder.

Eğer biz bu sistemleri kendi önyargılarımızla, kendi ayrıştırıcı dilimizle, kendi “bizden olan” anlayışımızla beslersek; ortaya çıkan şey zekâ değil, kusurlarımızın hızlandırılmış bir versiyonu olur.

Üstelik bu kez daha hızlı, daha sistemli ve daha görünmez.

“İmam böyle yaparsa cemaat ne yapmaz?”
Bu söz artık sadece insanlar için değil, algoritmalar için de geçerli.

Çünkü yukarıdan kurulan her sistem, aşağıya bir düzen dayatır.

Eğer o düzenin içinde adalet yoksa eşitlik yoksa liyakat yoksa; yapay zekâ bu eksikliği düzeltmez, aksine büyütür.

Bugün “bizim oyuncu neden yok?” diye soran zihin, yarın “bizim veri neden öncelikli değil?” diye soracak.
Ve böylece ayrımcılık, tribünden algoritmaya taşınacak.

Peki, ne yapacağız?

Önce şu gerçeği kabul ederek başlayacağız:
Yapay zekâ insanın aynasıdır.
O aynaya baktığımızda gördüğümüz şey, aslında kendimizdir.

Eğer aynada çarpık bir görüntü varsa, aynayı suçlayamayız.
Yüzümüzü düzeltmek zorundayız.

Bu yüzden mesele yalnızca teknoloji değildir.
Bu; ahlaki, hukuki ve insani bir meseledir.

Kriterler neye göre belirlenecek?
Hangi akla, hangi ölçüye göre?

Bu sorunun cevabı aslında bellidir:
İnsan hakları, eşitlik ilkesi ve ortak vicdan.

Ama bu ilkeler kâğıt üzerinde kaldığında hiçbir anlam taşımaz.
Gerçek çözüm, bu sistemlerin bağımsız, şeffaf ve çoğulcu denetim mekanizmalarıyla kontrol edilmesidir.

Ve en kritik nokta şudur:
Bu denetimi yapacak olanlar da “bizden olan” mantığıyla değil; liyakatle, bilimle ve etikle seçilmelidir.

Aksi halde, denetim dediğimiz şey sadece bir yanılsamadan ibaret kalır.

Çünkü denetim yoksa liyakat yoksa ve “bizden olan” anlayışı hâkimse; o zaman yapay zekânın kriteri de insanlığın değil, dar bir grubun kriteri olur.

Ve o noktadan sonra “ayıkla pirincin taşını” demek yetmez.
Çünkü artık taşla pirinç birbirine karışmıştır.

Oysa mesele en başında başlar.
Pirinci elekten geçirirken…

Hangi eleği kullandığımız, o eleğin hangi ölçülere göre üretildiği, kimin elinde olduğu…
İşte geleceği belirleyecek olan tam da budur.

Çünkü bir gün o elek, sadece verileri değil; insanları da ayıklamaya başlayabilir.

Ve o gün geldiğinde sorulacak soru değişmeyecek:
“Bu ayrımı kim öğretti?”

Cevap ise rahatsız edici olacak:
Yapay zekâ değil… İnsan.

Unutmayalım:
Birlik olmanın kudretini geciktirdiğimiz her gün, sadece bugünü değil, geleceğin teknolojisini de kaybediyoruz.

Çünkü sonunda belirleyici olan şudur:
Yapay zekânın ne düşündüğü değil, ona neyi nasıl öğrettiğimizdir.