ABD’de yaşayan Kristin Livdahl ve kızı, Youtube’daki bir beden eğitimi öğretmeninin “ayağınızda bir ayakkabıyı tutarak uzanın ve yuvarlanın” gibi meydan okuma (challenge) önerilerini yerine getirmeye çalışarak eğleniyorlardı. Kötü hava koşulları nedeniyle dışarı çıkamayan küçük kız, Alexa’dan yeni bir meydan okuma önerisi istedi. Alexa, web’i araştırdı ve Our Community Now (https://ourcommunitynow.com/) adlı haber sitesinde bulduğu bir meydan okumayı kıza önerdi: Şarj cihazını elektrik prizine yarıya kadar yerleştir ve açıkta kalan uçlarına madeni parayla dokun.

Neyse ki kızın annesi yanındaydı ve hemen müdahale etti. Our Community Now sitesinin ilgili haberi bir yıl önce yayımlanmıştı (https://ourcommunitynow.com/news-nat...he-unthinkable) ve okuyucular Tiktok’ta yayılan bu tehlikeli meydan okuma modasına karşı uyarılıyordu. Alexa, meydan okumayı bağlamından bağımsız olarak siteden almış ve kıza iletmişti. Livdahl, kızının böyle bir şey yapmayacak kadar akıllı olduğunu ama olaydan sonra kızıyla internetten veya Alexa’dan gelen hiçbir şeye güvenmeme konusunda tekrar sohbet ettiklerini söyledi.
CNN’e konuşan Amazon sözcüsü, müşteri güveninin yaptıkları her şeyin merkezinde yer aldığını ve Alexa’nın müşterilere doğru, alakalı ve yardımcı bilgiler sağlamak üzere tasarlandığını ve gelecekte benzer bir durumun tekrar yaşanmaması için Alexa’yı güncellediklerini duyurdu (http://lite.cnn.com/en/article/h_b05...0c148625481795).

Ancak Rebooting AI: Building Artificial Intelligence We Can Trust (Yapay Zekâyı Yeniden Başlatma: Güvenebileceğimiz Yapay Zekâyı İnşa Etme) kitabının yazarlarından Gary Marcus, bu olayı mevcut YZ’nin (Yapay Zekâ) günlük fiziksel veya psikolojik dünyayı anlamadaki yetersizliğinin bir göstergesi olarak değerlendiriyor. Marcus, günümüzde gerçekten güvenilir bir YZ’ye sahip olmadığımızı ve buna ulaşabilmek için daha fazla verinin ötesinde bazı temel gelişmelere ihtiyacımız olduğunu savunuyor (https://www.cnbc.com/2021/12/29/amaz...challenge.html). Halihazırdaki YZ teknolojilerinin sınırlılıklarını dikkate almamak insanlara yardımcı olmak üzere tasarlanmış ses asistanlarını tehlikeli hale getirebiliyor. Livdahl’in on yaşındaki kızı, Alexa’nın önerisinin sonuçlarını az çok hesap edebilir. Ama çizgi filmlerin etkisinde kalan daha küçük yaştaki çocukların Superman veya Pokemon gibi uçmaya çalıştıklarını düşününce küçük bir çocuğu ses asistanıyla baş başa bırakmanın beklenmedik sorunlara neden olabileceğini hesaba katmak gerekiyor.

Bununla ilişkili bir diğer sorun da YZ uygulamalarına (en azından henüz!) kendilerinde olmayan özellikler atfedilmesi. Tabi bunda sosyal sorunları teknoloji ile çözebileceğine düşünen teknoloji şirketlerinin payı büyük. Fakat toplumsal ilişkileri teknoloji ile yeniden düzenleme girişimlerinin yeterince sorgulanmaması ve teknolojik düzenlemelerin tarafsızlığı (ve bu nedenle daha makbul olduğu) hakkındaki ön yargılar ciddi riskler içeriyor. Bu bağlamda, ocak ayında duyurulan iki gelişmeye dikkatinizi çekmek isterim.

Birincisi, Yargıtay’ın YZ sisteminin 2023’te devreye gireceğini duyurmasıydı. Yargıtay’ın 2021 değerlendirme toplantısında Yargıtay Başkanı Mehmet Akarca, YZ tabanlı sistemlerin dünyanın çeşitli ülkelerinde kullanıldığını ve bunun Yargıtay’da da kullanılması gerektiğini belirtmişti. Emsal nitelikteki kararlara daha kolay erişilebilmek ve içtihat tutarlılığını sağlamak amacıyla geliştirilen YZ sisteminin 2023’te hizmet vermeye başlaması planlanıyor. Geliştirilecek sistemle emsal kararlar ile kanun değişikliklerinin takibi kolaylaşacak; hakimler için 200-300 sayfalık dosyaların özetlerinin oluşturulmasıyla savcılık ve müzakere süreçlerinin hızlandırılması sağlanacak; yurttaşlar ve avukatlar, ellerindeki delil ve verileri sisteme girerek davayı kazanma ihtimallerini öğrenebilecekler (https://www.youtube.com/watch?v=bENVdLP57T8).

İkinci gelişme ise Çinli bilim adamlarının, gerçek bir savcı gibi kendi suçlamalarını yapabilecek bir YZ sistemi geliştirdiklerini duyurmalarıydı. Ülkenin en büyük ve en yoğun bölge savcılığı olan Şanghay Pudong Halk Savcılığı tarafından geliştirilen ve test edilen sistemin, davanın sözlü açıklamasına dayanarak yüzde 97’den fazla doğrulukla bir suçlamada bulunabileceği iddia ediliyor. Sistem bir ölçüde karar alma sürecinde savcıların yerini alabilecek. Hukuk alanında YZ kullanımı Çin için yeni bir uygulama olmadığı gibi ABD ve Almanya’da da kanıtları değerlendirmek, hükümlülerin yeniden suç işleme olasılıklarını tahmin etmek, şartlı salıverme vs için YZ’den yararlanılıyor. Fakat projenin baş bilim insanı, Profesör Shi Yong, bu sistemlerin hiçbirinin suçlama ve ceza (önerme) sürecine katılmadığını belirtiyor. Bu tür kararları verebilmek için sistemin her şeyden önce dava dosyasındaki yararlı bilgileri alması ve suçla ilgisi olmayan bilgileri ayıklaması gerekiyor. Ayrıca yazılım, karmaşık, sürekli değişen insan dilini bir bilgisayarın anlayabileceği standart bir biçime dönüştürmeli. YZ savcısı, bir masaüstü bilgisayarda çalışabiliyor. 2015’ten 2020’ye kadar 17.000’den fazla dava kullanılarak eğitilen sistem Çin’deki sekiz yaygın suçu (kredi kartı dolandırıcılığı, kumar, tehlikeli sürüş, kasıtlı yaralama, resmi görevleri engellemek, hırsızlık, sahtekarlık, kavga ve sorun çıkarmak) belirleyip davacı olabiliyor. Shi, sistemin yükseltmelerle beraber daha sonra daha az yaygın olan suçları da tanıyabileceğini ve bir şüpheliye karşı birden fazla suçlamada bulunabileceğini öne sürüyor. Bu gibi YZ sistemlerinin kullanımı gündeme geldiğinde sıkça sorulan sorular yine karşımıza çıkıyor. Guangzhou şehrinden bir savcı %97’den fazla doğruluğun yüksek bir oran olmasına karşın yine de hatalı durumlar olabileceğini ve böyle bir durumda kimin sorumlu olacağını sorguluyor: Savcı, makine veya algoritmanın tasarımcısı? Bunun yanında savcılar, bilgisayar bilimcilerin işlerine bu kadar karışmasından memnun kalmayacaklar ve özerkliklerini kaybetmek istemeyeceklerdir. Ama daha da kötüsü YZ savcının, geçmiş deneyimlere göre karar verecek olması. Bu nedenle, insan savcıların aksine toplumsal değişimi kavramakta yetersiz kalacaklar (https://www.scmp.com/news/china/scie...-press-its-own, https://interestingengineering.com/c...-press-charges).

Bu iki gelişmeden sonra bir de Ergin Yıldızoğlu’nun “Mahşerin Atlıları Çoğalıyor” yazısında (https://www.cumhuriyet.com.tr/yazarl...aliyor-1896434) mahşerin atlılarına YZ’yi de eklemesiyle beraber aklıma Umut Sarıkaya’nın “Sayısalcı Faşizmi” adlı hikayesi aklıma geldi. Hikaye şöyle başlıyordu: “Dünya bu zamana kadar sözelci yöneticiler tarafından yönetildi de ne oldu? Artık yönetimi gerçek zekaya, bilime teslim etmenin zamanı geldi…” Acaba Sarıkaya’nın sayısalcı faşizmi gerçek mi oluyordu?

Yargıtay’ın geliştireceği YZ sistemi hakkında ayrıntılı bilgi verilmemiş. Geliştirilecek sistemin dosyaların özetlerini çıkarmada ne kadar başarılı olacağı bir yana dava açmak isteyenlere kazanma ihtimallerinin sunulması oldukça karmaşık bir hedef. Davacı, sistemin yanıtına bakıp “kazanma ihtimalim düşük” deyip dava açmaktan vazgeçebilir. Daha tehlikelisi, hakim de aynı sistemden yararlanarak kendi yargılarından şüphe duyabilir ve risk almamak için sistemin kararlarına boyun eğebilir. Çin’in geliştirdiği YZ savcı hakkında da çok fazla bir şey bilmiyoruz. Yeni teknolojiler hakkında abartılı iddialar duymaya alıştık. Belki Çin’in YZ savcısı da bunlardan biri olacak. Sonuç ne olursa olsun Çin’in YZ savcısı ne son olacak ne de uygulama Çin’le sınırlı kalacak. YZ; hapis cezaları, kefaletle serbest bırakma, mahkeme öncesi tutukluluğa karar verme, tekrar suç işleme olasılığı hakkında ürettiği risk puanları ile adalete rehberlik etmeye devam edecek. Anglo-Amerikan hukuk sistemlerinde, suçluluğu değerlendirmeye yönelik araçlar birkaç on yıldır kullanılıyordu. Son yıllarda bu araçlar yapay öğrenme ve YZ (yazının devamında YZ, yapay öğrenmeyi kapsayacak biçimde kullanılmıştır) ile güçlendirildi. Diğer Avrupa ülkeleri de bu sistemleri, bütçeleri küçültmek, meşruiyeti artırmak ve davaların aşırı yükünü ele almak gibi nedenler bağlamında ele alıyorlar (Završnik, 2021).

Her şeyi verileştirmek yönünde ciddi bir eğilim var. Geri dönüş yok ama kullanılan sistemlerin sınırlılıklarının göz önünde bulundurularak çalışmalarının düzenlenmesi; hakimlerden yurttaşlara kadar işleyişlerinin herkesçe bilinebilir, şeffaf, ve hesap verebilir olması gerekiyor.

Bir artı birin sonucunun kişilerden bağımsız olarak her zaman ve her yerde iki olduğunu, kimsenin bu doğruyu değiştirmeye gücünün yetmeyeceğini bilmek insana huzur veriyor. Bu nedenle adaletin YZ ile sağlanacağı iddiası birçoğumuza sempatik gelebiliyor. Ancak YZ’nin adaleti yaygın kanının aksine insanlardan ve değerlerinden bağımsız değil.

YZ Algoritmaları Tarafsız mıdır?

YZ’nin adaleti, adaletsizliklerle dolu bu dünyada birçoğumuza çekici geliyor. Makinelere insanlardan daha çok güveniyoruz. Sayısallaştırılmış adaletin daha adil ve kusursuz olacağını düşünüyoruz. Peki YZ düşündüğümüz gibi daha adil, kusursuz ve insan karar vericilerin zayıflıklarından arındırılmış mı?

Bu soruya yanıt ararken öncelikle söz konusu YZ’nin on yıllardır kullandığımız bilgisayar sistemlerinden farklı olduğuna dikkat etmek gerekiyor. Yıllarca bilgisayarlar insanların kendilerini programladıkları gibi çalıştılar. Bu nedenle, bir öngörülebilirliğe sahiplerdi; neyi, nasıl yaptıkları onları tasarlayanlara bağlıydı. Günümüzdeki YZ ise öğrenme ve öğrendiklerine dayanarak tahminlerde bulunma yeteneğine sahip. Dolayısıyla daha öncesinde yazılım, çalışabilmek için bilmesi gereken her şeyi önceden biliyorken günümüzdeki veriye dayalı YZ sistemleri kendilerine doğrudan öğretilmeyen şeyleri de öğrenebiliyorlar.
YZ sistemlerinin toplumsal hayata yayılmasıyla beraber medyada algoritmalardan daha çok söz ediliyor. Ancak algoritmaları açıklamak için kullanılan kimi benzetmeler (ör. yemek tarifi) günümüzde yapay öğrenmenin etkili olduğu YZ algoritmaları için pek uygun değil. Çünkü tasarımcının baştan sona tasarladığı ve kontrol ettiği bir süreçten çok girdilere, girdilerin ağırlıklarına ve veri setlerine göre şekillenen bir süreç var. Yüz ve ses tanıma, dil çevirisi, otonom araçlar, tıbbi teşhis, finansal yönetim, envanter yönetimi, ürün geliştirme, üretim, suç işleyenler hakkındaki risklerin değerlendirilmesi gibi alanlarda kullanılan YZ algoritmaları, halihazırda gerçekleşmiş veya meydana gelmekte olan olaylar hakkındaki verilerdeki istatistiksel örüntüleri belirliyor ve bundan yola çıkarak gelecek hakkında tahminlerde bulunuyor. Bazı YZ araçları, nesnel doğruların ve yanlışların olduğu ikili kararlar vermek üzere tasarlanıyorlar. Örneğin, bir şeyin var olup olmadığına karar verdiklerinde kararlarının doğruluğu test edilebiliyor ve bilinebiliyor. Kararları etik veya değerlerle ilişkili olmadığından bir değer sistemine veya etik çerçeveye ihtiyaç duymuyorlar. Tümör ya kötü huyludur ya da değildir; YZ, elindeki verilere dayanarak bununla ilgili isabetli tahminlerde bulunabiliyor. Burada değerlerin herhangi bir etkisi yok. Otonom araçlar da normal koşullarda aynı nesnellikle hareket ediyorlar: Işıkta dur, hız sınırına uy, bir sokak tabelasını takip et vb. Çoğu zaman bu nesnellik yeterli olabiliyor. Ama bir çocuk aniden yola fırladığında aracın bir değer sistemine göre karar vermesi (belki çocuğa zarar vermemek için araçtaki veya dışarıdaki yolcuların yaşamını tehlikeye atarak) gerekiyor (Forrest, 2021).

YZ, bir hükümlünün tekrar suç işleme olasılığını veya kefaletle serbest bırakmaya uygun olup olmadığını tahmin ettiğinde de bu değerlerden bağımsız bir karar olmuyor. Örneğin ABD’de bazı eyaletlerde kullanılan ve sanığın tekrar suç işleme olasılığını hesaplayan COMPAS’ın (Correctional Offender Management Profiling for Alternative Sanctions) siyahlara ve beyazlara yaklaşımı farklı olabiliyor. COMPAS, 80 dolarlık bir bisiklet çalmaktan tutuklanan genç bir siyah kadının tekrar suç işleme riskini yüksek bulurken bir mağazadan yaklaşık 80 dolarlık eşya çalan 41 yaşında, sabıkalı (sabıkaları arasında silahlı soygun da var!) bir beyaz erkek için daha düşük bir risk puanı hesaplayabiliyor. İki yıl sonra, genç kadın herhangi bir suçtan tutuklanmazken adam binlerce dolarlık elektronik cihaz çalmaktan sekiz yıl hapse mahkum ediliyor (age).

COMPAS’ın siyahların aleyhine işlediği ve var olan eşitsizlikleri derinleştirdiği hakkında eleştiriler var. COMPAS’a göre siyahların tekrar suç işleme oranları yüksek olmasına rağmen siyahlar COMPAS’ın hesapladığından daha az suç işliyorlar. Beyazlarda ise tam tersi oluyor; COMPAS’ın beyazlar için hesapladığı oran, gerçek hayattakinden daha düşük (Završnik, 2021). Elbette COMPAS’ı geliştirenler ırkçı değerlerini yazılıma kodlamıyorlar. Ama nasıl oluyor da COMPAS ırksal ve sınıfsal eşitsizlikleri yeniden üreten bir sistem haline geliyor?

YZ algoritmalarının üç temel bileşeni var ve tahminleri bu üç bileşene bağlı: Girdiler, girdilerin ağırlığı ve veri setleri. Bu bileşenler, sistemi geliştiren ve uygulayanların değerleri ve benimsedikleri etik çerçevelerle ilişkili. Hesaplanan riskin sayısallığı, hesaplamanın değerlerden bağımsız ve salt sayısal olduğu anlamına gelmiyor.

Girdiler

Bir insanın davranışlarını öngörebilmek için önce onun davranışlarını nelerin belirlediğine karar verebilmek gerekiyor. Forrest’ın (2021) basit örneği bile insanlar hakkındaki tahminlerin ne kadar zor ve karmaşık olabileceğini göstermekte. Sabah uyanan bir kişinin kahvesini sabah egzersizinden önce mi yoksa sonra mı içeceğini nasıl en doğru biçimde tahmin edebiliriz? Bunun için önce kişinin egzersiz geçmişine ve kahve içme alışkanlıklarına bakmamız gerekir. Eğer kişi daha önce sabahleyin hiç egzersiz yapmadıysa kahvesini sabah egzersizinden önce içme ihtimali oldukça yüksektir. Kişinin nerede olduğu da (evde, otelde, havaalanında) egzersiz yapmasını zorlaştıran veya kolaylaştıran etkenler olduğundan soruyu yanıtlarken yardımcı olacaktır. Ayrıca kişiye özel durumlar da olabilir. Belki bir maratona hazırlanıyordur veya doktor kilo vermesi gerektiğini söylemiştir. Sabah egzersizini yapmadığında suçluluk hissetmektedir.

Görüldüğü gibi algoritmamızın yararlanabileceği çok fazla girdi tipi var ve daha doğru bir tahmin için hangi girdilerin seçileceği önemli. Girdileri seçerken önümüzde üç yöntem vardır. Birincisi, YZ yazılımının girdileri belirlemesidir. Günümüzdeki veriye dayalı YZ yazılımları belirli bir görevde kendini daha iyileştirmek için gerekli girdileri seçebilmektedir. İkincisi, insanların gerekli girdileri seçmesidir. Üçüncüsü ise iki yöntemin bileşimidir. YZ, ilk girdileri seçer ve insanlar bu girdileri gözden geçirerek yeniden ayarlarlar. Yazılımı tasarlayan veya kullananlar ırk, cinsiyet, engellilik gibi ayrımcılığa neden olabilecek belirli girdilerin göz ardı edilmesi veya bunlara odaklanılması için yazılıma müdahale edebilirler. Fakat işin içine insanlar girdiğinde, insanların seçimlerini ve ayarlamalarını neye göre yaptığı önem kazanır: Neden A girdisi değil de B girdisi seçilmiştir?

Forrest (2021), ABD’de hükümlülerin yeniden suç işleme olasılıklarını tahmin eden YZ sistemlerinde girdilerin seçimi ve insanların bundaki rolü hakkında bir şeffaflık olmadığını belirtiyor. Suç geçmişi, ilk tutuklanma yaşı, mevcut yaş, eğitim düzeyi, medeni durum, ikamet durumu, çalışma geçmişi, madde kullanımı gibi standart girdilerin yanında antisosyal tutum, otoriteye direnç ve “kültürel yatkınlıklar” gibi daha belirsiz girdiler de var. Tasarımcılar, birçok insanın geleceği hakkında kritik kararların verilmesinde etkili olan bu sistemlerde hangi girdileri seçtikleri ve seçimlerini neye göre yaptıkları hakkında şeffaf davranmasalar da paylaştıkları bazı belgelerden, geliştirdikleri teknolojinin bazı teorik modellere dayandığı biliniyor.

Girdilerin Ağırlığı

Bir girdinin ağırlığı, girdinin algoritmadaki göreceli ağırlığını yansıtıyor. Tek girdili bir algoritmadaki girdinin ağırlığı doğal olarak %100 oluyor. Ama girdi sayısı artıkça hangi girdinin ağırlığının ne olacağı değişebiliyor. Girdilerin seçiminde olduğu gibi ağırlıklarının belirlenmesinde de farklı yollar izlenebiliyor. Teknolojik araçlarla veri setini gözden geçirerek girdilerin göreceli ağırlıklarını belirlemek olanaklı olduğu gibi insanlar da girdilerin algoritmadaki ağırlığına müdahale edebiliyor.

Fakat girdilerin ağırlıklarının belirlenmesi de genel kabul görmüş bir standarda dayanmıyor. ABD’de kullanılan COMPAS ve PCRA gibi araçlar girdilerin ve ağırlıklarının belirlenmesinde ağırlıkla kriminoloji teorisi ve araştırmalarına dayanıyorlar. Forrest’ın (2021) vurguladığı gibi söz konusu kriminoloji teorilerinin ileri sürdüğü tezler tartışmalı ve bu tezlerin bütün bir adalet sistemini tasarlamak için normatif bir çerçeve olarak kabul edilmesi doğru bir yaklaşım değil. Girdilerin ağırlığının ne olacağı hakkında ulusal bir fikir birliği olmadığı gibi ağırlıkların ayarlanması için yönergeler veya ulusal standartlar da yok.

Forrest’ın (2021) verdiği örnekte olduğu gibi bir YZ sistemi, tutuklamaların posta koduyla çok güçlü bir korelasyona sahip olduğunu belirleyerek posta koduna yüksek bir ağırlık verebilir. Daha sonra bu algoritmayı inceleyen bir insan, posta kodunun ırk için dolaylı bir veri olduğunu fark edip ırksal uygunsuzluğu önlemek için girdinin ağırlığını azaltabilir. Belki veri setinin zaman aralığı boyunca o mahallede Durdur ve Ara (Stop and Frisk) uygulamalarının etkisini (çünkü aramaların hedefinde daha çok beyaz ırktan olmayanlar vardır https://www.tandfonline.com/doi/abs/...14506000001040) bildiği için bu kararı vermiştir. Belki de ırkın girdi olarak kullanılmaması hakkındaki ilkelerinden dolayı bu müdahaleyi yapmıştır. Ama her halükarda yazılımın siyahlara karşı ırksal ön yargılı ve adil olmayan tahminler yapmasının önüne geçen bir hamledir. Ancak Forrest’ın (2021) vurguladığı gibi ağırlıklarının değiştirilmesine rehberlik eden standart bir politikanın ve şeffaf bir sürecin olmaması tam tersine de neden olabilir; algoritmayı değerlendiren kişi posta kodunun ağırlığını az bularak artırabilir ve farkında olmadan toplumun dezavantajlı kesimlerinin daha fazla ayrımcı politikalara maruz kalmasına neden olabilir.

Veri Setleri

Dünyada gördüğümüz ve yaptığımız her şeyi işlevsel bir YZ veri setine indirgeyebiliriz. Böylece YZ’ye bir sonraki hamlemizi kestirebilme olanağı da veririz. Daha önceki egzersiz ve kahve örneğinde olduğu gibi yaşamımızın kayıt altına alınmış kısmı arttıkça YZ sistemlerinin tahminleri güçlenir.

Ancak girdilerin ve ağırlıkların belirlenmesindeki sorunlar veri setlerinin seçiminde de kendini gösterir. Kullanılabilecek veri setleri hakkında kurallar ve düzenlemeler; içerik veya doğruluk açısından veri setlerinin incelenmesi için evrensel standartlar yoktur. YZ sisteminin yararlanacağı, tahminlerde bulunmak için kendini eğiteceği veri setlerini insanlar seçer. Seçim süreci, hatalar veya ön yargılar içerebilir. Ya da veri seti eksiktir! Örneğin, suçlular hakkında tahminler yürütülen sistemlerde beyaz yakalı suçlarla ilgili kayıtlar daha görünmezdir. Ayrıca veri setlerindeki kayıtlar gerçekleştikleri tarihsel, sosyal, politik ve kültürel anları yansıtırlar. Dolayısıyla belirli koşullarda ortaya çıkan bir olayın tekrarlayacağının bir garantisi yoktur. Çünkü suçu oluşturan unsurlar ve politik uygulamalar zaman içinde değişir. Örneğin kenevir yetiştirme, kullanma, bulundurma veya satma daha önce hem eyalet hem de federal düzeyde suç olarak kabul edildiğinden veri setlerinde bununla ilgili suç kayıtları vardır. Fakat bugün ABD’de birçok eyalet kenevir ile ilgili birçok davranışı suç olmaktan çıkarmıştır. Hatta bu kararın öncesinde bile bazı eyaletlerde bununla ilgili tutuklamaların seyrekleşmesi ve yetkililerin kenevirle uğraşmak yerine daha büyük hedeflere yönelmeyi tercih etmesi, suça bakış açısının da zaman içinde değiştiğini ve yasa değişiminin sonradan geldiğini gösteriyor. Ceza kanunları da sürekli değişir; zina, eş cinsel evlilik, alkol satma ve bulundurma, ırklar arası evlilik vs bir zamanlar suç sayılan eylemlerdi. Tam tersi de doğru; önceden suç olarak görülmeyen eylemler artık suç olabilir. Örneğin bir zamanlar ABD’de afyon satışı da bugünkü kadar düzenlenmemişti ve daha serbestti. Dolayısıyla bugün yargılanan birini veri setlerindeki artık suç teşkil etmeyen kayıtlarla değerlendirmek doğru bir yaklaşım mıdır?

Toplumsal yaşamın dinamikliğinin en güzel örneklerinden biri New York City’de uzun yıllar uygulanan Stop and Frisk programı. Bu programa göre New York City polisi suçu önleme amacıyla yolda giden bireyleri durduruyor, sorguluyor ve üstünü arıyordu. Polisin suç oranının yüksek olduğu belirli mahallelere konuşlandırılmasıyla suçların oluşumu, tekrarlanması veya artmasının önlenebileceği düşünülüyordu. Fakat orantısız biçimde en çok durdurulup arananlar New Yorklu siyahlar oldu. 2013’te Yargıç Shira Scheindlin, mahkemeye sunulan Stop and Risk’te genç Siyah erkeklerin önemli ölçüde aşırı tutuklandığı iddiasını destekleyen istatistiksel raporlar sonrasında uygulamanın anayasaya aykırı olduğuna hükmetti, programda derhal değişiklik yapılmasını istedi ve değişiklikleri denetleyecek bir gözlemci belirlenmesi çağrısında bulundu. Sonrasında New York’ta çeşitli mahkeme kararlarıyla bu uygulamalar değiştirildi. Ama daha önceki kararlar veri setlerinden silinmediğinden algoritmaların çalışmasını (yani gelecekteki kararları) etkilemeye devam etti.

Kısacası bir YZ sistemi, gelecek hakkında tahminlerde bulunan bir kristal küre değil. İnsanların tekrar suç işleme ihtimalini tahmin etmek için, belirli bir zaman dilimindeki tüm tutuklamalardan oluşan bir veri seti kullandığında, artık suç olmayan verilerin ve değişen koşulların geleceğe dair hatalı öngörülere neden olabileceğine dikkat etmek gerekiyor. Çünkü gerçek hayatta insanlar adaletsizliklere karşı değişim için mücadele ediyorlar. Toplumsal mücadelenin sürekliliği sonucunda bir değişim gerçekleşiyor ama değişimi yansıtmayan veri setleri adaletsizlikleri yeniden üretebiliyor.

YZ Sistemlerine İçsel Değerler

Yolda arabayla giderken aniden bir çocuk önünüze fırladı. Durma gibi bir şansınız yok. Ya direksiyonu kırıp kaldırımda giden yaşlı çifte çarpacaksınız ya da çocuğa… Ne yapardınız? Bu sorunun genel geçer bir yanıtı yok; her bir insan uzun uzadıya düşünerek belirli bir etik çerçevede yanıt vermeye çalışır. Otonom araçlar da benzer bir durumda karar vermek zorunda kaldıklarında tasarımcıların (bilinçli veya bilinçsiz) gömdüğü etik değerlere göre hareket edecektir. Bu çok uç ve otonom araçların çok nadir karşılaşacağı bir örnek olabilir ama hükümlülerin yeniden suç işleme olasılıklarını hesaplayıp şartlı tahliyelerini öneren, bir zanlının kefaletle serbest bırakılıp bırakılamayacağına karar veren ve ileride suç işleyip işlemeyeceğini tahmin eden sistemler tasarımcıların algoritma, girdi, girdi ağırlığı ve veri seti seçimi yaparken etkisinde oldukları etik çerçevelerin izlerini taşırlar. Hayal edildiği gibi, saf sayısal bir adalet söz konusu değildir.

Forrester’ın (2021), ABD’deki kullanılan YZ sistemlerine karşı en temel eleştirisi bu sistemlerin yararcı bir bakış açısına dayanması ve çoğunluğun yararını gözetmesi, bunu yaparken de amaçların araçları haklılaştırdığını düşünmesidir. Forrester (2021), bu faydacı bakış açısına karşı her bireyin eşit haklara sahip olduğunu, toplumun geneli hakkında elde edilen istatistiksel doğruluktansa adaletin bireysel düzeyde ele alınması gerektiğini savunuyor. Bir diğer deyişle insan; ırkından, ebeveynlerinin geçmişteki hatalarından, yaşamak zorunda olduğu mahalleden dolayı dezavantajlı olmamalı. YZ araçları klasik faydacı yaklaşımlarla bir bireyin mahkeme öncesi hapsedilmesinin genel olarak topluma fayda sağlayacağını öngördüğünde, çoğunluğun refahına öncelik veriyor. Ancak sıkça hatalı risk değerlendirmeleri yapılıyor. Forrest’a (2021) göre insanların yaşamı hakkındaki kritik kararların hata payı %30 civarında olan bu araçlara dayandırılması, bu araçların tasarımcılarının ve kullanımını onaylayan yetkililerin, adalettense belirli verimliliklere öncelik verdiğini gösteriyor. Bu yararcı yaklaşımla YZ sisteminin tasarımında sorulan sorular, seçilen girdiler ve girdilere verilen ağırlıklarla değer sistemleri tasarıma içsel hale gelirler.

Sistemler karar verirken basitçe örüntüleri değerlendirmez veya temel istatistiksel hesaplamalar yapmaz. Daha en başında sistemin hangi amaçla tasarlandığı önemlidir. Örneğin cezalandırmanın nasıl olacağına karar verirken sistemin amacı hükümlüleri yeniden topluma entegre etmek mi olacaktır yoksa yasaları çiğnediği için kişiyi cezalandırmak mı? Suçu azaltmayı hedefleyen bir sistem geçmiş verilere dayanarak hangi cezaların suçu azalttığını tahmin etmeye çalışır. Buna karşın hedef hapsetmek yerine suçlunun rehabilitasyonu ise suçluların topluma yeniden entegrasyonunu sağlayan örüntüler araştırılır. Böylece YZ aracının amacı, verilere bakma ve kullanma şeklini dolaylı olarak çerçeveler.

Girdilerin seçimi tarafsız değildir. Örneğin tasarımcı girdi olarak ırkı (veya onun yerine geçebilecek mahalle, gidilen okul, ilk tutuklanma yaşı vb girdileri) seçebilir veya YZ’nin otomatik olarak belirlediği ırk girdisini olduğu gibi kabul edebilir. Irkın, bir girdi olarak kabul edilmesi veya edilmemesi hakkında genel kabul görmüş bir görüş yoktur; ırkı bir girdi olarak kabul etmek ya da etmemek teknolojiyi geliştirenlerin ve gelişiminde etkili olan otoritelerin kendi kararlarıdır. Irk, bir girdi olarak kabul edilmezse onun yerine geçebilecek mahalle, ilk tutuklanma yaşı, gidilen okul gibi girdileri de çıkarmak gerekir mi? Bu kararları, kim ve hangi bilgiye dayanarak vermektedir? Algoritmanın tasarımcısı, sadece sayısal nedenlerle (!), doğruluk oranını artırmak için girdi seçimine müdahale edebilir. Fakat tasarımcının değerlerden bağımsız olduğunu düşündüğü saf sayısal kararı bile tasarım sürecinin başında karar verilen amaca ulaşabilmeyi sağlayacak bir doğruluk oranı ile ilgilidir.

Önceki bölümde belirttiğim gibi tasarımcılar girdilerin ağırlıklarının yeniden düzenleyebilir ve bazılarının ağırlığını sıfırlayarak algoritmadaki etkilerinin yok edebilir. Tasarımcının girdilere müdahalesi, kişisel görüşünden, sosyal bilimlerdeki bir uzlaşıdan veya bir kontrol biriminin yönlendirmesiyle olabilir. Günümüzde kullanılan bu sistemlerin girdi seçimleri ve ağırlıkları, veri setleri, algoritmalar vs hakkında bir şeffaflık olmasa da yayımladıkları bazı belgeler var. Ama yayımlanan belgeler, söz konusu sistemlerin sonuçlarının bir suçlunun üzerinde hiçbir kontrolünün olmadığı yapısal eşitsizliklerden etkilendiğini ve özellikle bu eşitsizlikleri giderecek ayarlamaların yapılmadığını gösteriyor. Böylece kullanılan YZ sistemleri adaleti sağlamak yerine var olan eşitsizlikleri yeniden üretmenin aracı haline gelebiliyorlar (age).

Örneğin COMPAS, tasarımında dikkate aldığı risk faktörlerinin yakın zamandaki kriminoloji literatürüne dayandığını belirtiyor. Bu, Forrest’ın (2021) altını çizdiği gibi insanların algoritmanın tasarımında bizzat yer aldığını gösteriyor. COMPAS’ın yararlandığını açıkladığı teorilere baktığımızda ise (girdileri tam olarak bilmesek de) ebeveynlerinin sabıkası olan bireylerin tutuklanmasının veya hapsedilmesinin daha olası görüldüğünü anlıyoruz. Bir diğer teoride, kendisinden zengin kişilerin arasında yaşayan ama istediklerini elde etmek için olanakları sınırlı bireyin suç davranışına yol açan bir gerginlik yalayabileceği öne sürülüyor. Böylece düşük gelirlilerin ve beyaz olmayan Amerikalılar’ın suçluluk potansiyeli ön kabulüyle yola çıkılıyor. Suç oranının yüksek olduğu sosyal konutlarda büyümüş biri otomatikman yüksek riskli olarak nitelendiriliyor. Devlet desteğinden yoksun, koşulları yetersiz bir okulda eğitim hayatında devam etmektense bir an önce iş gücüne katılmak için okulu bırakan birinin risk oranı artırıyor. Bu gibi teorilerin gölgesinde geliştirilen sistemler ne kadar tarafsız olabilir?

Princeton Bilgisayar Bilimi Bölümü’nden Arvind Narayanan’ın söylediği gibi “kodun doğru çalışıp çalışmadığını sormak yeterli değildir. Ayrıca toplumu daha iyi mi yoksa daha kötü mü yaptığını sormalıyız. Bu elbette yargılamayı içerir ve saf bir bilgisayar bilimi problemi değildir.” (https://www.cs.princeton.edu/news/pa...ers-and-people).

***
İnsan yargıçların kararları kusursuz değildir. Irk, cinsel tercih veya etnik köken gibi basmakalıp argümanlar ve yasaklanmış kriterler genellikle yargıları etkiler. Hatta Danziger, Levav ve Avnaim-Pesso’nun (2011) araştırmasına göre davanın yemekten önce mi yoksa sonra mı görüldüğü bile yargıcın şartlı tahliye kararını etkileyebilmekte, yargıç yemekten sonra şartlı tahliye kararı vermeye daha meyilli olmaktadır. Bu durumda, acıkmayan ve dikkati dağılmayan sistemler daha adil midir?

İnsanlar hakkında tüm yaşamlarını etkileyebilecek değerlendirmeler yapan YZ araçları, tasarımlarında söz sahibi olan kişilerin yanlılıkları ve varsayımları ile doludur. Fakat gerçek adalet için suçlunun mevcut koşullarını gözden geçirmek ve buna dayalı olarak ortaya çıkan riskleri değerlendirmek gerekir. Forrest’ın (2021) vurguladığı gibi arka planında bir kişinin içine doğduğu dünyanın onu muhtemel bir suçlu haline getirdiği iddiasına sahip araçlar gerçek adaleti sağlayamaz.

İnsan yargıçlar her zaman doğru kararlar vermeseler de (en azından teoride) verdikleri her kararda adalet ve doğruluk için çaba gösterirler. Toplumsal hareketler hukuk sistemini buna zorlar. Ama %100 adalet hedefinden vazgeçilerek şu an kullanılmakta olan sistemlerin %70 doğruluk oranının standart hale gelmesi adaletin geleceği açısından tehlikeli bir durumdur. En azından şu an için bu sistemlerin yargıçların yerini almadığı ve sadece kararlarında yargıçlara yardımcı olduğu söylenebilir. Fakat insanların bilgisayar sistemlerinin sonuçlarını kabullenme ve risk almama eğilimini de göz önünde bulundurmalı. Yargıç, insanlardan çok daha fazla faktörü dikkate alarak bir sonuca ulaşan YZ sistemleriyle uyumlu karar verme doğrultusunda psikolojik bir baskı hissedecektir.

Adaleti sağlamak için kullanılan YZ sistemlerinin geliştirilmesinde ve yönetiminde, şeffaflık ve hesap verebilirliğin sağlanması kadar bu sistemleri kullanan hukukçuların ve sistemlerin sonuçlarından etkilenen yurttaşların günümüzdeki YZ’nin sınırlılıkları ve tarafsız (nötr) olamayacakları hakkındaki farkındalıklarının artırılması da önemli. Buna karşın YZ’yi mahşerin yeni bir atlısı olarak görmüyorum. Geçmişte bir çok teknolojide olduğu gibi şimdi de iktidar sahiplerinin istek ve gereksinimleri ile şekillenen bir YZ var. Barabas vd.’nin (2018) savunduğu gibi, risk puanları hesaplamak yerine suçun sosyal, yapısal ve psikolojik itici güçlerini anlamak için kullanılabilecek YZ araçları da geliştirilebilir. İnsanların mı yoksa YZ’nin daha isabetli kararlar verebileceği tartışmasının dışında suç ve nedenleri üzerine eğilmek daha adil bir dünya için daha uygun bir çalışma alanı olacaktır.

Kaynaklar
Barabas, C., Virza, M., Dinakar, K., Ito, J., & Zittrain, J. (2018, January). Interventions over predictions: Reframing the ethical debate for actuarial risk assessment. In Conference on Fairness, Accountability and Transparency (pp. 62-76). PMLR.
Danziger S, Levav J and Avnaim-Pesso L (2011) Extraneous factors in judicial decisions. Proceedings of the National Academy of Sciences 108(17): 6889–6892.
Forrest, K. B. (2021). When Machines Can Be Judge, Jury, and Executioner: Justice in the Age of Artificial Intelligence.
Završnik, A. (2021). Algorithmic justice: Algorithms and big data in criminal justice settings. European Journal of criminology, 18(5), 623-642.


İzlem GÖZÜKELEŞ
Yarimada.gen.tr: http://yarimada.gen.tr/?p=788