Dijitalleşme her alanda bir taraftan büyük verilerin oluşmasına yol açarken diğer taraftan bu veriler kullanılarak alan ve süreçlerle ilgili metriklerin oluşturulmasını da kolaylaştırdı. Oluşturulan metrikler her alanla ilgili mevcut durumu değerlendirmeyi ve geleceğe yönelik projeksiyonlar yapabilmeyi hızlandırdı. Artık, günümüzde eğitimden sağlığa, ekonomiden politikaya kadar her alanda sayısal değerler üzerinden değerlendirmeler yapılmaktadır.
Elbette, sayısal verilerin anlamlı sonuçlar üretebilmesi için matematiksel modeller oluşturulmaktadır. Modeller, doğası gereği gerçek dünyanın basitleştirilmiş bir temsiline ulaşabilmek için yapılır. Dolayısıyla sınırlılıkları vardır. Modellerin ana omurgası algoritmalardır. Algoritmaların kullanılmaları için alanla ilgili öncelikli varsayımlar yapılmakta ve bağlamı yakalayabilecek vekil özellikler belirlenmektedir. Bu basitleştirmeler, modellerin belirli bir görevi yerine getirme kapasitesini optimize etmek için gereklidir, ancak aynı zamanda modellerin gerçeklikten ayrıldığı ve dolayısıyla hatalı sonuçlar üretebileceği durumları da beraberinde getirmektedir. Dolayısıyla, bir modeli değerlendirirken ve kullanırken kör noktalarının farkında olmak ve modelin sınırlılıklarını anlamak önemlidir.
Bu nedenle bu yazıda Cathy O’Neil (2016), “Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy” başlıklı kitabı üzerinden matematiksel modeller ve algoritmalar değerlendirilmektedir. O’Neil kitabında kitleleri etkileyen matematiksel modellerin yol açtığı hasarları tanımlamak için “Yıkıcı Matematiksel Silahlar (YMS)” tanımlaması yapmakta, ayrıca matematiksel modellerle ilgili sorunların yol açtığı maliyetleri ayrıntılı bir şekilde ele almaktadır. O’Neil modellerin veya algoritmaların üç temel özelliğine vurguda bulunmaktadır: opaklık, ölçek ve zarar (sh.31). Modellerin çoğunluğu şeffaf değildir. Modeller giderek tüm kitleleri kapsamına almaktadır. Küreselleşme, yeni sistemde ölçeği sürekli büyütmektedir. Ve nihayetinde adil olmadığı ve ürettiği yanlılıklar üzerinden gerçek dünyayı yeniden şekillendirdiği için insanların çoğuna zarar vermektedir.
Matematiksel modeller büyük kitle için tasarlandıkları için kitlelerin her türlü bilgisi toplanır ve kayıt altına alınır. Piyasada bu bilgiler şirketler tarafından satın alınır ve mevcut veri koleksiyonlarına dâhil edilir. Elbette, bu kadar büyük verinin olduğu yerde piyasanın derdi doğru veri olup olmamasına bakmaksızın işine yarayacak verileri toplayabilmektir. Çoğu zaman bu verilerde hatalar olmasına rağmen bu yanlışlar ancak etkilenen bireyler neden etkilendiklerini araştırdıklarında veya imkânları olduğunda ortaya çıkmaktadır (sh.152-153). Diğerleri ise profillerinin nasıl oluşturulduğundan habersiz kaderlerine mahkûm olurlar. Modeller büyük ölçekli kitlelere uygulandığı için algoritmaların yanlış sonuçları veya adaletsizlikleri önemsenmez, çünkü bireysel bir durumdur ve modelin verimliliğini zedelemez (sh.111). Gelinen noktada artık insanlar büyük teknoloji şirketlerine karşı savunmasızdır ve üzerlerinde her türlü manipülasyon yapılabilir (sh.181).
Her model bir yaklaşıklık sağlar
Matematiksel modeller, değerlendirilmek istenen bağlamı anlamak için bir yaklaşıklık sağlar. Çünkü sayısal değer üretilmek istenen bağlamla ilgili her şeyi ölçebilmek mümkün değildir. Sadece, önemli olduğu varsayılan vekil özellikler üzerinden bağlama yakınsanmaya çalışılmaktadır. Dolayısıyla, modellemede bir önceliklendirme yapılmaktadır. Elbette bu yaklaşıklık çok sayıda maliyeti de beraberinde getirmektedir.
En büyük problem, algoritmalarda kullanılan varsayımların aranan gerçeği ne kadar temsil ettiği ile ilgilidir. O’Neil’in işaret ettiği gibi karar veren algoritmalarda puanlama, temsil ettiği gerçeğin yerini almaktadır: “Gerçeği aramak yerine, puanlama gerçeği temsil etmeye başlıyor.” (Sh.7). Algoritmalar yakalamak istedikleri gerçeği vekâleten temsil eden özellikler üzerinden yakalamaya çalıştıkları için her zaman bir hata payı söz konusu olur. Hata payı matematiksel olarak makul görünebilir, ancak her bir hatanın karşılık geldiği insan üzerinde yıkıcı etkisi olmaktadır (sh.17-18). O’Neil bu kapsamda sıklıkla öğretmenlerin performanslarını öğrencilerinin akademik başarıları üzerinden ölçen bir modele atıf yapmaktadır. Bu model, öğretmenin gerçek performansını ölçmek için çoğu katkıyı ki bazıları ölçülebilir değildir, göz ardı etmektedir (sh.21). Dolayısıyla bu tür bir model, öğretmenlerin tüm yönlerini ve katkılarını değerlendirmediği ve eğitim süreçlerinin karmaşıklığını tam olarak yansıtmadığı için yanlış sonuçlar üretmektedir. Ancak, eğitim sisteminin idari ihtiyaçlarını karşılamak adına hızlı ve pratik bir çözüm sunması nedeniyle tercih edilmekte ve sonuçta çoğu öğretmenin performansını yanlış değerlendirmektedir. Diğer taraftan, bu aşamada modelleme yaklaşıklığının ikinci maliyeti ortaya çıkmaktadır: Ölçülemeyen şeyler modeller üzerinden değersizleştirilmektedir. Ölçülemeyenler giderek önemsizleştirilmekte ve nihayetinde değersizleştirilmektedir. Modelin ölç(e)meyerek değer vermediği hususlara neden değer verilsin?
Kısaca, bir modeli değerlendirirken onun arka planında yatan değerleri ve öncelikleri anlamak önemlidir. Hangi verilerin dâhil edilip edilmediği, hangi değişkenlerin daha önemli kabul edildiği ve hangi sonuçların hedeflendiği gibi unsurlar, modelin yapısını ve sonuçlarını doğrudan etkiler. Modellerin matematiksel doğası, onların objektif ve kesin olduğu izlenimini verse de, modelleri insan seçimleri ve değerlerinin şekillendirdiği göz ardı edilmemelidir. Daha tehlikelisi, o alanın öncelikleri sıralamada değer verilenlere göre dönüşmektedir. Örneğin eğitim kurumlarının başarı sıralamalarında kurumlar, ağırlıklı olarak sıralamalarda ölçülen göstergelerde puanlarını yükseltmek için çırpınırken ölçülmeyen şeyler giderek değersizleşmekte ve zamanla tedavülden kalkmaktadır. Diğer taraftan, ölçülen şeylerde manipülasyonlar yapmanın kapısı da aralanmaktadır. Kısaca, kurumlar algoritmalara göre şekillenmektedir. Dolayısıyla, bu tip sıralamalar ekosistemi, örneğin yükseköğretim ekosistemini deforme etmektedir. Bu tip modellerin kullanılma ölçeği büyüdükçe deformasyon ölçeği de, sonuçta zararın boyutu da büyümektedir (sh.54).
Kendi kendini doğrulayan kehanet
Modeller öncelikleri ve varsayımlarıyla gerçek dünyaya yön verir. Bu nedenle gerçek dünyayı, ürettiği sonuçlar üzerinden yeniden şekillendirir. Aslında bunu sağlayan iki yardımcı faktör vardır: ölçek ve modellerin birbirlerine girdi sağlaması. Modelin etkilediği kitle büyüdükçe modelin ölçeği artar. Ayrıca, artık modeller birbirlerinden ayrık değildir. Bir bağlamda üretilen bir modelin çıktıları bir başka bağlam için oluşturulan modelin girdisi olabilmektedir. Bu, modellerin kapsadığı ölçeğin büyümesini hızlandırır. O’Neil bu durumu modelin üssel/eksponansiyel olarak büyümesi ve tüm hayatı ölçekleme kapasitesi olarak ifade etmektedir (Sh.29-30).
Bu modeller gerçek dünyadaki ırka, cinsiyete, dine, kültüre, sosyoekonomik seviyeye göre yanlılıkları tekrar üretmektedir. Dahası, modeller bu yanlılıkları sistematik hale getirirken görünmez de kılmaktadır. Bir başka deyişle, algoritmalar, geçmişteki insan kararlarının yansıttığı bilinçli veya bilinçsiz önyargıları tekrarlayarak adaletsizliği pekiştirmektedir. Bu, geçmişte var olan ayrımcılığın ve önyargıların algoritmalara gömülmesine ve bu ayrımcılığın daha geniş bir ölçekte ve daha sistematik bir şekilde devam etmesine yol açmaktadır (sh.24). Dolayısıyla, bu modeller kendi kendini doğrulayan kehanet karakteristiği göstermektedir. Dezavantajlı, herhangi bir başvuruda, işe girmede veya tekrar suç işleme olasılığına göre ceza değerlendirmesinde hep ne yaptığından ziyade nereye ait olduğuna göre değerlendirilmektedir. Bu nedenle, bireyin sosyoekonomik seviyesi, kaderi olmaktadır. Geçmişi ve yaşadığı mahalleye göre tekrar suç işleme olasılığı model tarafından daha yüksek belirlenebilmekte ve daha uzun ceza alabilmektedir. Hapis sonrası iş bulma olasılığı düşmekte, geçim sıkıntısı ailevi başka sorunları tetiklemekte ve nihayetinde beyaz bir sayfa açabilme imkânı bulamadan başka bir suça karışarak bu defa alması gereken cezadan çok daha uzun ceza almaktadır. Sonuçta, model kendi kendini doğrulamıştır, ancak model doğru olduğu için değil, model dezavantajlının dezavantajını adaletsiz bir şekilde artırdığı için! (sh.48, 97-98).
Coğrafya kaderdir!
Benzer durum, kaynakları verimli kullanmak için polis devriyelerinin dolaşacağı bölgeleri belirleyen ve Amerika’da suç işleme olasılığı yüksek bölgeleri belirlemek için yaygın bir şekilde kullanılan modellerde görülmektedir (Sh. 86). Benzer şekilde, örneğin New York polis teşkilatının şüphelenip durdurdukları insanların yüzde 85’nin genç Afrika Amerikalı veya Latin erkekler olduğu görülmektedir (sh.92). Geliştirilen modeller, kayıtlı suçları öğrenme verisi olarak kullandıkları için ırka ve sosyoekonomik seviyeye göre ayrımcılık yapmakta, siyahların ve dezavantajlı kesimlerin yoğun yaşadığı bölgelere yönelik devriye sayısı artırılmakta, bu durumda bölgenin suç kayıt oranı sürekli artarak kısır bir döngü oluşturulmaktadır. Ancak, beyazlar ve sosyoekonomik olarak avantajlı kesimler böyle bir sorun yaşadıklarında suç, çoğu kez kayıtlara düşmeden çözülebilmekte ve nihayetinde bu bölgelerdeki devriye sayısı da diğer bölgelere göre azaldığı için suçlu yakalama olasılığı son derece düşük gerçekleşmektedir. Bir başka deyişle suça bireysel değil, sosyoekonomik bağlamı üzerinden yaklaşılmakta, dolayısıyla dezavantajlılar kısır bir döngüye mahkûm edilerek daha dezavantajlı duruma sürüklenmektedir. Yani modeller, bireyleri kendi başlarına değil, çevreleri, sosyal ağları ve coğrafyalarına göre değerlendirmektedir. İbn-i Haldun‘un ifadesiyle coğrafyanın kader olması matematiksel modeller tarafından tekrar doğrulanmaktadır. Dolayısıyla, adaletin sadece hukuki bir kavram olmadığı, aynı zamanda sosyal ve ekonomik faktörlerle iç içe geçmiş olduğu görülmektedir (sh.146-147). Ancak, adaletin modellerde kod karşılığı yoktur! Artık birey, şeffaf olmayan, adaletsiz ve zararlı modellerin sistemik saldırısına karşı tamamen savunmasız kalmaktadır (sh.199-200).
Özetle, matematiksel modeller ve algoritmalar artık yaşamın tüm alanlarını kapsamaktadır. Yazıda belirttiğimiz gibi bu modellere müdahale edilmediğinde O’Neil’in vurguladığı gibi kitleler için yıkıcı birer silaha dönüşebilmektedir. Verilerin doğruluklarının kontrol edilmemesi ve içerdiği yanlı veriler ve özellikle algoritmaların oluşturulmasında yapılan varsayımlar ve önceliklendirmeler yıkıcılığın şiddetini artır(abil)mektedir. Bu modeller önyargıları pekiştirebilir, belirli grupları sistematik olarak dışlayabilir veya yanlış bir güvenlik ve adalet algısı yaratabilir. Bu nedenle, büyük veri ve algoritmaların kullanımı, önyargıları güçlendirmek yerine, adil ve kapsayıcı bir şekilde geliştirilmeli ve sürekli olarak test edilmelidir. Bu modellerin tasarımında ve uygulamasında daha fazla şeffaflık, düzenleme ve bireysel adalet sağlamak için etik standartların geliştirilmesi ve uygulanması gerekmektedir. Günümüzde yapay zekânın geldiği durum, modellerin kapasitesini güçlendirmekte ve müdahale edilmediğinde yıkıcı etkilerini çok daha artırma potansiyeli taşımaktadır. Bu nedenle, modeller geliştirilirken ilgili uzmanların yanında, özellikle önyargılardan etkilenecek kesimlerin, sendikaların, sivil toplum örgütlerinin, paydaş temsilcilerinin tüm süreçlere aktif olarak katılımının sağlanması ve modellerin geliştirilmesinde katılımcı bir yaklaşımın benimsenmesi bu etkilerin nispeten hafifletilmesini sağlayacaktır.