BM başkanı diyor ki, insan haklarımızı tehdit eden algoritmaları yasaklayın

Sharing is caring!

Yapay zeka, gözetim teknolojisinden içerik denetimine kadar yüksek riskli bir oyundur. BM komiseri Michelle Bachelet, teknolojinin insan haklarına aykırı olduğu durumlarda bir yasak için bastırıyor.

Yapay zeka kullanımını durdurma ve bazı durumlarda teknolojiyi tamamen yasaklama çağrıları giderek yükseliyor. Şimdi BM’nin insan hakları şefi Michelle Bachelet,  yüksek riskler için yapay zekanın satışı ve kullanımına ilişkin moratoryumlar öneren yeni bir raporda , hükümetleri algoritmaları kontrol altında tutmak için daha güçlü adımlar atmaya çağıran uzmanlar korosuna sesini katıldı.  durumlarda kullanın. 

Bachelet ayrıca, ayrımcı kriterlere göre bireylerin sosyal olarak puanlanması gibi uluslararası insan hakları hukukuna aykırı bazı yapay zeka uygulamalarının yasaklanmasını da savundu.  

BM komiseri, teknolojinin sorumlu bir şekilde kullanıldığından emin olmak için henüz güvenlik önlemleri bulunmadığından, hükümetlerin acil olarak yapay zekayı dizginlemeleri gerektiğini söyledi. Bu olmadan, insan haklarına potansiyel olarak zarar verebilecek algoritmalar, vatandaşlara daha fazla zarar vererek gözetim olmaksızın kullanılmaya devam edilecektir. 

Algoritmalar çoğu insanın yaşamının her alanında zaten mevcut, diye vurguladı Bachelet, şu anda kimin kamu hizmeti alacağı, kimin iş bulacağı veya kullanıcıların çevrimiçi olarak neler görebileceği ve paylaşabileceği gibi yaşamı değiştiren kararlara katılan çeşitli sistemlere işaret ediyor. 

Bachelet, “Yapay zeka ile ilgili yetişmeye devam edemeyiz – sınırlı veya sınırsız veya gözetimsiz kullanımına izin vererek ve olaydan sonra neredeyse kaçınılmaz olan insan hakları sonuçlarıyla uğraşmaya devam edemeyiz” dedi. 

BM komiserinin yorumları, AI’nın mahremiyet, sağlık, eğitim, hareket özgürlüğü veya ifade özgürlüğü gibi insan haklarını nasıl etkileyebileceğini araştırmak için ofisi tarafından yürütülen bir raporun arkasından geliyor.  

Yapay zekanın büyük ölçüde toplumların ve ekonomilerin büyük zorlukların üstesinden gelmesine yardımcı olabilecek “iyilik için bir güç” olduğu tespit edilirken, rapor ayrıca AI’nın belirli insan hakları üzerindeki “inkar edilemez ve istikrarlı bir şekilde büyüyen” etkisinin altını çizdi. 

Algoritmalar, örneğin, kullanıcıların gizliliğine önemli ölçüde izinsiz girebilir. Yapay zeka sistemleri, kuruluşları kullanıcıları veya müşterileri hakkında bazen gizli yollarla hassas bilgileri toplamaya, depolamaya ve işlemeye teşvik eden kişisel veriler de dahil olmak üzere büyük miktarda veri ile beslenir. Sistemler sırayla insanların yaşadıkları mahalleden uyku düzenlerine kadar kişisel yaşamları hakkında tahminlerde bulunmak için kullanılabilir.  

Rapora göre, bu AI sistemlerinin kullanımının özellikle ilgili olduğu birkaç sektör var. Algoritmaların bir suçluyu tutuklama kararını etkileyebileceği kolluk kuvvetlerinin yanı sıra, AI modellerinin bir ailenin çocuk bakım hizmetleri tarafından ziyaretler için işaretlenip işaretlenmeyeceğine kadar refah haklarının belirlenmesine yardımcı olabileceği kamu hizmetlerini içerir.  

Rapor, işyerinde çalışanları izlemek ve yönetmek için algoritma kullanma riskine dikkat çekti. Ve çevrimiçi, AI sistemleri, her kullanıcının maruz kaldığı içerik türüne karar vermede araçsal olan içerik yönetimi kararlarını desteklemek için kullanılabilir. 

Bu uygulamaların çoğu için risk iki katlıdır. Yapay zeka sisteminin kendisi, mahremiyet hakkı gibi temel insan haklarıyla çelişmekle kalmaz; ancak bazı durumlarda, algoritma taraflı olduğunda, teknoloji ayrımcı kararlar da verebilir. 

Örneğin, AI sistemlerini bilgilendirmek için kullanılan veriler belirli gruplara karşı önyargılı olabilir veya hatalı, güncelliğini yitirmiş veya alakasız olabilir ve bu da algoritmaların haksız kararlar vermesine neden olabilir. Örneğin, geçen yıl İngiltere’de öğrenci notlarını tahmin etmek için kullanılan algoritma,  daha zengin bölgelerde yaşayanlara daha yüksek notlar vermeyi bu şekilde sağladı . 

Endişelenecek kadar zararlı ve bazen yanlış kararlar veren AI modellerinin yeterli örneği var. “Yapay zeka güdümlü kararlarla bağlantılı ayrımcılık riski – insan hayatını değiştirebilecek, tanımlayabilecek veya zarar verebilecek kararlar – fazlasıyla gerçektir. Bu nedenle, insanları tanımlamak ve azaltmak için yapay zeka sistemlerinin etkilerinin sistematik olarak değerlendirilmesi ve izlenmesi gerekiyor. hakları riskleri,” dedi Bachelet. 

BM raporu, özellikle algoritmaların devletler tarafından gözetleme amacıyla kullanılmasına ve özellikle yüz tanıma gibi insanları gerçek zamanlı ve uzaktan tanımlamak için kullanılan ve sınırsız izleme potansiyeline sahip biyometrik teknolojilerin kullanımına dikkat çekti. bireylerin. 

Raporda, algoritmanın doğruluğuyla ilgili herhangi bir sorun olmadığı ve sistemin ayrımcı bir etkisinin olmadığı gösterilene kadar, kamusal alanlarda biyometrik teknolojilerin kullanımına ilişkin bir moratoryum olması gerektiği belirtiliyor. 

BM komisyon üyesine göre, bu nedenle, gözetim ve diğer insan hakları ihlallerini kontrol altında tutan AI araçlarının geliştirilmesini sağlamak için doğru yasaları uygulamak hükümetlerin görevidir.  

Örneğin, bu yılın başlarında AB Komisyonu  , farklı risk seviyelerine göre AI uygulamalarını kataloglayan yapay zeka ile ilgili taslak kuralları açıkladı . Piramidin en üstünde, temel hakları ihlal eden ve yasaklanması gereken “kabul edilemez risk” içeren kullanım durumları vardı.  

AB Komisyonu, kamusal alanlarda yüz tanıma kullanımının bu hakları ihlal ettiği için yasaklanması gerektiğini söyledi. Ancak karar, savunuculuk grupları tarafından çok fazla boşluğa izin vermekle suçlanan çeşitli istisnalarla geldi. 

Facebook
Twitter
LinkedIn
Pinterest
Tumblr
WhatsApp

Benzer Haberler

Son Haberler