Yapay Zeka ve Ayrımcılık: Etkileri, Sorunları ve Çözüm Önerileri
Yapay Zeka ve Ayrımcılık Üzerine Değerlendirmeler
Prof. Dr. Mehmet Rıfat Tınç, yapay zekanın ayrımcılık konusundaki etkilerini derinlemesine ele aldı. Hem Türkiye'de hem de dünya genelinde bu alanda alınan önlemleri değerlendiren Tınç, yapay zeka algoritmalarının cinsiyet, yaş, köken gibi kişisel özellikler üzerinden ayrımcılık yapma potansiyeline sahip olduğunu vurguladı. "Teknolojik bir nesnenin ayrımcılık yapması, onu hukuki açıdan bir suç aletine dönüştürebilir. Bu nedenle yapay zekanın nasıl ve neden ayrımcılık yapabileceğini anlamak oldukça önemlidir," dedi.
‘Ne Yazılımlar Ne de Robotlar, Toplumun ve Hukukun Gelişimini Durdurabilir’
Algoritmaların hukuki bilgi ve toplumsal deneyimden yoksun olduğunu belirten Tınç, ayrımcılık yapma ihtimalinin her zaman mevcut olduğunu ifade etti. "Bir yazılım ne kadar hukuki mantığı benimsemiş olsa da, ayrımcılık iddialarıyla yargıya taşınacak tartışmalar kaçınılmaz olacaktır. Çünkü ne yazılımlar ne de robotlar, toplumun ve hukukun gelişimini durdurabilir," diye ekledi.
‘Hukukçular Çözüm Üretmeli’
Prof. Dr. Tınç, bu bağlamda özellikle hukukçuların, yapay zeka kaynaklı ayrımcılığın ortaya çıkarabileceği yeni ve kritik sorunlara yanıt bulma sorumluluğu taşıdığını belirtti. "Yapay zeka, iki şekilde ayrımcılık yapabilir: Aritmetik ayrımcılık, aynı durumda olan bireylere farklı muamele yapılmasıdır. Örneğin, benzer iş performansına sahip iki kişinin farklı ücretler alması. Geometrik ayrımcılık ise farklı durumda olan kişilere eşit muamele yapılmasıdır. Örneğin, bir sınavda engelli bireye diğerleriyle aynı sürenin verilmesi," şeklinde açıklamalarda bulundu.
‘Yapay Zeka Hukuk ve Toplum Karşısında Demode Kalabilir’
Algoritmaların insanlar gibi ahlaki değerlere sahip olamayacağını belirten Tınç, "Kendilerine dayatılan ahlaki kuralların dışına çıkamazlar ya da kendi başlarına bu kuralları geliştiremezler. Bu nedenle yapay zekanın sürekli dış müdahaleye, insan eliyle güncellemeye ve revizyona ihtiyaç duyması gerekir. Müdahale edemediğimiz, düzeltemediğimiz ve yalnızca kendini geliştiren bir yapay zeka, ileride istemediğimiz sonuçlar doğurabilir. Zamanla bizi ilerletmek yerine geriletebilir veya ahlaki anlayışımızın gerisinde kalabilir. Bu yüzden, Avrupa ve Japonya gibi bölgelerde olduğu gibi, yapay zekanın neden olabileceği hatalar ve suçlar için hukuki düzenlemelerin yapılması kaçınılmazdır," ifadelerini kullandı.
Yapay zekanın bir hukuk kişisi olmaması, sorumluluk belirleme sürecini karmaşık hale getiriyor. Prof. Dr. Tınç, yapay zekayı geliştiren ve kullanan şirketler ile bireylerin, bu teknolojinin yol açtığı zararlar için sorumlu tutulabileceğini vurguladı. Ayrıca, yapay zekanın ayrımcılık yapmasını önlemek için şu tedbirlerin alınabileceğini belirtti:
- Algoritmik Önlemler: Algoritmaların düzenli denetimi ve önyargıların ortadan kaldırılması; sistematikleşme eğilimlerine karşı güncellemeler ve düzeltici formüllerin zorunlu kılınması.
- Kurumsal Önlemler: Yapay zekayı kullanan kurumların periyodik olarak denetlenmesi.
- İnsani Önlemler: Yapay zeka sistemlerinin insan denetimi altında tutulması; örneğin, bir yapay zeka şikayet birimi veya "Yapay Zeka Adliyesi" oluşturulması.
Tınç, mevcut durumda bilişim suçlarıyla ilgilenen özel yetkili kurumların olduğunu hatırlatarak, yapay zeka mağdurlarının da destek alabileceği adli kurumların kurulabileceğini ifade etti.
‘Yapay Zekanın İnsanlığa Hizmet Etmesi İçin Etik ve Adil Bir Şekilde Geliştirilmesi ve Kullanılması Büyük Önem Taşıyor’
Prof. Dr. Mehmet Rıfat Tınç, şu değerlendirmelerde bulundu: "Yapay zekanın sunduğu fırsatların yanı sıra, ayrımcılık gibi ciddi riskleri de bulunmaktadır. Bu riskleri minimize etmek için hukuki, teknik ve toplumsal düzeyde önlemler alınması gerekmektedir. Yapay zekanın insanlığa gerçek anlamda hizmet etmesi için etik ve adil bir şekilde geliştirilmesi ve kullanılması büyük önem taşımaktadır."