Haberler

Güvenlik Uzmanı Schneier, Kurumsal Yapay Zekâ Modelleri Hakkında Kritik Uyarılarda Bulundu

Kriptografi ve gizlilik alanında uzmanlığıyla tanınan Bruce Schneier, kurumsal yapay zekâ modellerinin kullanıcıları yönlendirme riski taşıdığını vurguladı. San Francisco’daki RSA Konferansı’nda konuşan Schneier, özellikle büyük teknoloji şirketlerinin geliştirdiği yapay zekâların şeffaflıktan uzak olduğunu ve bu sistemlerin kullanıcı çıkarından çok, ticari kazançları öncelikli hale getirdiğini söyledi.

Kurumsal Yapay Zekâ, Tarafsız Bir Aracı Gibi Davranmıyor

Bruce Schneier, yapay zekâların kullanıcıyla etkileşime geçtiğinde tarafsızmış gibi davrandığını ancak çoğu zaman bu sistemlerin kendi çıkarlarını gözettiğini belirtti. Schneier’e göre arama motorlarının kullanıcılara reklam veren şirketlerin bağlantılarını sunması gibi, sohbet robotları da otel ya da havayolu tavsiyelerinde benzer çıkar ilişkilerine dayanabiliyor. Bu noktada güven sorununun öne çıktığını vurgulayan Schneier, yapay zekâ sistemlerinin bütünlük ilkesini temel alması gerektiğini savundu.

Konferans konuşmasında yapay zekâ sistemlerine devletlerin daha etkin müdahale etmesi gerektiğini dile getiren Schneier, geliştiricilerin kullandığı veri kaynaklarını ve karar alma süreçlerini açıkça beyan etmesini istedi. Avrupa Birliği’nin 2024 yılında yürürlüğe giren Yapay Zekâ Yasası’na dikkat çeken Schneier, bu düzenlemenin teknolojik gelişmelere uyum sağlayabilecek esnekliğe sahip olduğunu söyledi. Yasa, yüksek riskli sistemler için teknik belge hazırlama, risk değerlendirmesi yapma ve şeffaflık ilkelerine uyma zorunluluğu getiriyor.

Schneier, Avrupa Birliği’nin bu adımıyla diğer ülkeleri de benzer düzenlemelere zorlayabileceğini düşündüğünü belirtti. Ancak Amerika Birleşik Devletleri’nde mevcut yönetimin bu konuda ciddi bir adım atmasının zor olduğunu sözlerine ekledi.

Yapay Zekâda Taraflılık Kaçınılmaz Bir Tehlike

Schneier, yapay zekâ sistemlerinin önyargılardan arındırılmasının zorluğuna da dikkat çekti. Kullanıcılar, çoğu zaman kendi fikirlerini destekleyen sistemleri tercih ettiği için bu eğilim daha da derinleşiyor. Örnek olarak bir hakimin kendi görüşlerini paylaşan hukuk asistanlarını tercih etmesi gibi, dijital yardımcıların da aynı bakış açısını yansıtmasının beklendiğini ifade etti. Schneier, bu durumun yalnızca şeffaflıkla çözülebileceğini savunarak, kamusal ve akademik yapıların alternatif, açık yapay zekâ modelleri üretmesi gerektiğini dile getirdi.

Schneier, “Kurumsal olmayan bir yapay zekâ istiyorum” diyerek görüşünü net biçimde ortaya koydu. Devletlerin ve üniversitelerin birlikte çalışarak kullanıcı çıkarını önceleyen sistemler inşa etmesi gerektiğini vurguladı. Bu bağlamda Fransa’nın 2025 şubat ayında başlattığı Current AI adlı girişimi örnek gösterdi. Salesforce, Google ve çeşitli sivil toplum kuruluşlarının da desteklediği bu projeye 400 milyon dolarlık bir bütçe ayrıldı. Girişimin amacı, açık kaynaklı yapay zekâ altyapıları kurmak, kaliteli veri kümelerine erişimi artırmak ve kamu yararına çalışan sistemleri yaygınlaştırmak.

Fransa Cumhurbaşkanı Emmanuel Macron, “Current AI dünyada yapay zekânın yönünü değiştirebilir” diyerek projeye olan inancını dile getirdi. Macron, bu girişim sayesinde Fransa ve Avrupa’nın kendi yapay zekâ ekosistemlerini geliştireceğini, piyasada çeşitliliği artırarak adil ve şeffaf bir yapı kuracağını belirtti.

Schneier, bu tür kamusal projelerin teknoloji devleri tarafından engellenmeye çalışılacağını ancak yine de kullanıcıların korunması adına bu adımların atılması gerektiğini söyledi. Sosyal medya ve arama motorları konusunda geç kalındığını ifade eden Schneier, “Ama yapay zekâda bunu başarabiliriz” diyerek umutlu bir çağrıda bulundu.

İlgili Makaleler

Bir yanıt yazın

Başa dön tuşu