Yapay Zekada Bias | Irkçı Robotlar

Merhaba! Bu yazımda yapay zeka alanında bias ve onun etkilerinden bahsedeceğim. Her geçen gün hızlı bir şekilde gelişen yapay zeka teknolojileri gittikçe günlük yaşantımızda daha da fazla yer edinmeye başladı. Bunun doğrultusunda insanların doğasında bulunan bilinmeyenden de korkma huyları da devreye girerek yapay zekanın insanlık için yararlı veya zararlı olduğuna dair tartışmalar devam etmekte. Yapay zekanın insan türünü sonlandırmasına her ne kadar daha çok vakit olsa da günümüzde insan üretimi olduğu için başka olumsuz yanlar içermektedir.

2016 yılında Microsoft tarafından geliştirilen bir yapay zeka yazılımına Twitter hesabı açılmıştı. Tay adı verilen bu chatbot zamanla insanlarla sohbet etmeye devam ederek küfretmeye, ırkçı ve tartışmalı siyasi yorumlar yapmaya başlamıştı. Tabi ki sonrasında Microsoft olaya müdahale etti.

Ne yazık ki buna benzer olayları yazdığımız algoritmalarda görmek işin içine insan eli değince pek imkansız değil. Üstelik yapay zekanın bunu sizden öğrenmesine gerek kalmadan direk var oluşunda yani algoritmasında bulunarak bu şekilde çalışmaya başlayabilir. Yani evet önyargılı, ırkçı, cinsiyetçi, Nazi yanlısı, küfürbaz yapay zekalar görebiliriz. Peki yazımızın ana konusu olan bias nedir? Etkileri neler olabilir? Ve nasıl engelleyebiliriz?

Bias Nedir?

Önyargı anlamına gelen bias, veri bilimi ve yapay zeka gibi alanlarda sıkça kullanılan bir terimdir. Modelin sistematik olarak taraflı sonuçlar elde etmesidir.  Veri toplama, model eğitimi veya analiz aşamalarındaki hatalardan kaynaklanmasının yanı sıra unutulmamalıdır ki verileri formüle eden, temizleyen ve yapılandıran insanlardır. Modeller ancak onları oluşturan insanlar kadar objektif olabilir. Örneğin bir yüz tanıma algoritması belirli etnik grupları yanlış tanıma eğiliminde olabilir veya belirli bir grup insanın verilerinin gerektiği bir işte cinsiyet, yaş, etnik köken, ekonomik sınıf gibi veri setindeki yanlışlıklar algoritmayı büyük bir önyargıya sürükleyebilir.

 

Bias’ın Olumsuz Etkileri Nelerdir ?

Bias, belirli grupları veya bireyleri diğerlerine göre adaletsiz bir şekilde etkileyebilir. Örneğin bir işe alım sürecinde cinsiyet cinsiyet veya etnik köken temelinde önyargılı bir model, eşit fırsatları engelleyebilir. COMPAS olarak bilinen bir risk değerlendirme yazılımı hakimlerin hangi suçluların suç işleme olasılığının daha yüksek olduğunu tahmin edebilmesi için onların kullanımına sunuldu. Tutuklanan 10.000 kişi için bir risk değerlendirmesi yapan COMPAS algoritması yanlış olduğunda beyaz olmayan ırkları suç işleme riski daha yüksek olarak değerlendirdi. Bu tespite rağmen beyaz olmayan gruplarda yeniden suça yönelime rastlanmadı.

Bias’ı Nasıl Engelleyebiliriz?

Önyargıyı azaltıp engellemeye çalışabiliriz ama ne yazık ki tamamen ortadan kaldırmak zordur. Çeşitlilik ile farklı düşünce yapılarındaki insanlarla veri toplama ve model eğitme aşamalarında birlikte çalışarak biasın önüne geçilebilir. Topladığımız verilere dikkat ederek, önyargılı verileri temizleyerek ve çoklu bakış açılarıyla önyargıyı azaltabilir , adil ve çeşitli sonuçları görebiliriz. Bunların haricinde veriyi nerden aldığımız da çok önemlidir çünkü aldığımız kaynak da yanlı olabilir. Maalesef verilerin kendisi bile önyargı içerebileceğinden tamamen tarafsız bir yapay zeka oluşturmak oldukça zordur.

Unutmayalım ki yapay zeka bizim verdiğimiz verilerle şekillenir. Kanımca bizim elimizin değdiği herhangi bir şeyin %100 iyi olmasını beklemek imkansız. Yazımı okuduğunuz için teşekkür ederim. İyi Günler!

 

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top