Uluslararası Af Örgütü, yapay zekâ kaynaklı insan hakları ihlallerini ortaya çıkarmak isteyen gazeteci, sivil toplum örgütleri, hak savunucuları, akademisyenler ve bu ihlallere maruz kalan herkesin kullanımına açık bir Algoritmik Sorumluluk kılavuz hazırladı. Kılavuz, günlük hayatlarımızın, özellikle de sosyal güvenlik, polislik, sağlık hizmetleri ve eğitim gibi kamu sektörlerinin gitgide ayrılmaz bir parçası haline gelen algoritmik sistemlerden kaynaklanan zararları soruşturmak, ortaya çıkarmak ve hesap verebilirliği sağlamak için bir “Nasıl yapılır?” rehberliği sunuyor.

Uluslararası Af Örgütü’nün son üç yıldır bu alandaki araştırmalarından ve önemli ortaklarıyla işbirliğinden öğrendiklerine dayanan kılavuzda, şeffaf olmayan yapay zekâ sistemlerini ve bunların yol açtığı insan hakları ihlallerini araştırmak için gerekli araçlar ve pratik şemalar sunuluyor. Ayrıca kampanya, stratejik iletişim, savunuculuk veya stratejik davalar aracılığıyla değişim ve hesap verebilirlik talep ederek, bu suistimal içeren sistemlere son verilmesi hedefiyle çalışanlar için kapsamlı taktikler de ortaya konuluyor.

Kitlesel gözetimi kolaylaştırıyor, sosyal koruma hakkımıza zarar veriyor

Uluslararası Af Örgütü Teknoloji Birimi Program Direktörü Damini Satija, “Bu sistemler kitlesel gözetimi kolaylaştırıyor, sosyal koruma hakkımıza zarar veriyor, barışçıl protesto özgürlüğümüzü kısıtlıyor ve toplum genelinde dışlamayı, ayrımcılığı ve önyargıları kalıcılaştırıyor” diyerek, şunları kaydetti:

“Kamu hizmetlerinin sağlanmasında yapay zekâ kullanımının sözde yararlarıyla ilgili gitgide artan, doğruluğu kontrol edilmemiş iddialar ve denemeler düşünüldüğünde, bu sorunun bugün her zamankinden daha acil olduğu anlaşılacaktır. Devlet aktörleri, yapay zekâ geliştirme ve altyapılarına yönelik devasa yatırımları destekliyor ve şirketlere, günümüzdeki ve gelecekteki insan hakları etkilerinden bağımsız olarak kendi dar çıkarlarını gütmeleri konusunda serbestlik sağlıyor.

Biz bu kılavuz aracılığıyla, bilgiyi demokratikleştirmeyi ve sivil toplum örgütlerine, araştırmacılara, gazetecilere ve etkilenen kişilere bu sistemleri ve bunları üreten endüstrileri açığa çıkarma, hesap verebilirlik talep etme ve bu teknolojilerin kolaylaştırdığı suistimallere son verme olanağı sunmayı amaçlıyoruz. Zararlı yapay zekâ sistemlerini araştırmak ve hesap verebilirliği sağlamak için kolektif güç oluşturmamız, devletlerin ve şirketlerin kötüye kullanımlarına karşı çıkmak ve yapay zekâya aşırı yatırım yapılan bu dönemde gerekli adımları atmak için kritik önem taşıyor.”

İşgal Altındaki Filistin Toprağı da dahil dokuz ülkedeki çalışmalara dayanıyor

Kılavuz, Uluslararası Af Örgütü’nün Danimarka, İsveç, Sırbistan, Fransa, Hindistan, Birleşik Krallık, İşgal Altındaki Filistin Toprağı, Amerika Birleşik Devletleri ve Hollanda’da yürüttüğü araştırmalara, kampanyalara, medya ve savunuculuk çalışmalarına dayanıyor.

Kılavuzun dayandığı çok sayıda vaka çalışmasından biri de, Uluslararası Af Örgütü’nün Danimarka’nın refah sistemi üzerine araştırması. Çalışma, Danimarka sosyal yardım kurumu Udbetaling Danmark’ın yapay zekâ destekli refah sisteminin kitlesel gözetimi körüklediğini ve sosyal yardımdan haksız yararlanma soruşturmalarında kişileri tespit etmek için yapay zekâ araçlarını kullanarak engellilere, düşük gelirli kişilere, göçmenlere, mültecilere ve ırksal temelde ötekileştirilen gruplara karşı ayrımcılık riskleri oluşturduğunu ortaya çıkardı. Özellikle etik ve sorumlu yapay zekâ alanında ve denetim yöntemlerinde insan hakları hukukunun eksikliği göz önüne alındığında, kılavuz insan hakları hukukunu, algoritmik sorumluluk çalışmasının kritik düzeyde değerli bir bileşeni olarak konumlandırıyor.

Öte yandan Uluslararası Af Örgütü’nün devam eden Ban the Scan (Gözetleme Yasaklansın) kampanyası, yüz tanıma teknolojilerinin kullanımının yasaklanması çağrısı yapıyor. Kampanya, İşgal Altındaki Filistin Toprağı, New York ve Haydarabad’da gerçekleştirilen araştırma ve savunuculuk çalışmalarına dayanıyor.