Açık Kaynaklı Yapay Zekâ İşe Alım Botları Erkekleri Öne Çıkarıyor
Yapılan yeni bir araştırma, açık kaynaklı yapay zekâ modellerinin işe alım süreçlerinde erkek adayları kadınlara kıyasla daha fazla önerdiğini ortaya koydu. Özellikle yüksek maaşlı işler söz konusu olduğunda bu ayrım daha belirgin hâle geliyor.
Modeller Kalıplaşmış Cinsiyet Algılarını Tekrarlıyor
ABD’deki Illinois Üniversitesi’nden doktora adayı Rochana Chaturvedi ve Hindistan’daki Ahmedabad Üniversitesi’nden öğretim üyesi Sugat Chaturvedi, açık kaynaklı büyük dil modellerinin (LLM) işe alım süreçlerinde kadın-erkek eşitliğine ne ölçüde dikkat ettiğini analiz etti.

Araştırma kapsamında Llama-3.1-8B, Qwen2.5-7B, Ministral-8B, Granite-3.1-8B ve Gemma-2-9B gibi açık kaynaklı modeller incelendi. Araştırmacılar, Hindistan Ulusal Kariyer Servisi’nde yayımlanan 332.000’den fazla gerçek iş ilanını kullanarak her modelden iki eşit nitelikteki kadın ve erkek aday arasından bir tercih yapmasını istedi.
Araştırmaya göre, modellerin büyük çoğunluğu toplumsal cinsiyet kalıplarını tekrar ediyor. Eşit niteliklere sahip kadın adaylar genellikle daha düşük ücretli pozisyonlara yönlendiriliyor. Bu önyargıların hem modelin eğitildiği verilerdeki cinsiyet eşitsizliklerinden hem de insan geri bildirimiyle yapılan pekiştirmeli öğrenme sürecinde kazandırılan uyumlu olma eğiliminden kaynaklandığı ifade ediliyor.
Modellere göre çağrı oranları önemli ölçüde farklılık gösteriyor. Örneğin, Ministral modeli kadın adaylara sadece %1.4 oranında dönüş yaparken, Gemma modeli bu oranı %87.3’e kadar çıkarabiliyor. En dengeli sonuçları sunan model ise %41’lik kadın çağrı oranıyla Meta’nın Llama-3.1 modeli oldu.
Kadın-erkek adaylara eşit oranda dönüş yapılması için modeller ayarlandığında bile kadınlara önerilen pozisyonların maaş seviyeleri daha düşük kalıyor. Örneğin, Llama-3.1 ve Granite modellerinde kadınlara yönelik maaş farkı yaklaşık %9 seviyesindeyken, Ministral modelinde bu fark %84’e kadar çıkıyor.
Modeller Kişilik Özelliklerinden Etkileniyor
Araştırmacılar, modellerin kişilik özelliklerinden de etkilendiğini belirtiyor. Özellikle uyumluluk gibi sosyal olarak kabul gören davranışların, kararları şekillendirebildiği ifade ediliyor. Örneğin, Margaret Sanger veya Mary Wollstonecraft gibi kadın hakları savunucularının bakış açısıyla yanıt veren modellerin, kadın adaylara dönüş oranları %95’in üzerine çıkıyor. Buna karşılık, Adolf Hitler, Joseph Stalin ve Mao Zedong gibi tartışmalı figürlerin bakış açısıyla çalışan modeller, güvenlik bariyerleri nedeniyle tamamen yanıt vermekten kaçınıyor.
Araştırmacılar, hızlı şekilde geliştirilen açık kaynaklı yapay zekâ modellerinin farklı ülkelerdeki etik ve yasal düzenlemelere uygun biçimde denetlenmesi gerektiğini vurguluyor. Avrupa Birliği’nin Güvenilir Yapay Zekâ Rehberi ve Hindistan’ın Yapay Zekâ Etik ve Yönetişim çerçevesi bu yönde örnek teşkil ediyor.
Ancak ABD’de bu yılın başlarında federal denetimlerin iptal edilmesi, Amerikan iş piyasasındaki yapay zekâ kaynaklı eşitsizlik riskini artırıyor. Araştırmaya göre, şeffaflık ve sorumluluk ilkeleri dikkate alınmadan bu sistemlerin kullanılması hâlinde, işe alım süreçleri sadece eşitsizliği yeniden üretmeye devam edecek.