Hakların Savunucusu “kamu hizmetlerinin algoritmalaştırılmasından” endişe duyuyor

Quern

New member
Hakların Savunucusu “kamu hizmetlerinin algoritmalaştırılmasından” endişe duyuyorDaha fazla insan kontrolü, “yönetimlerin algoritmik kararlarına” karşı daha kolay itiraz, kullanılan algoritmalar konusunda daha fazla şeffaflık… Haklarımızı savunmaktan sorumlu bağımsız otorite, bir raporda, yapay zeka ve algoritmaların yönetim tarafından giderek daha fazla kullanıldığı konusunda alarm veriyor.



Gelir vergisinin hesaplanması, CAF sosyal yardımları, dolandırıcılıkla mücadele, iş arayanlara destek… Fransız yönetimi algoritmaları ve yapay zekayı giderek daha fazla kullanırken, Hakların Savunucusu alarm veriyor. Birçok sektörde hak ve özgürlüklerimizi savunmaktan sorumlu olan bu bağımsız idari makam, 13 Kasım Çarşamba günü yayınladığı raporda, “ kamu hizmetlerinin “algoritmasının” kullanıcı hakları açısından oluşturduğu risklerden endişe duymaktadırS kamu hizmetleri “.

Algoritmalar ve yapay zeka sistemleri giderek daha fazla kullanılıyor: belirli prosedürleri veya idari prosedürlerin belirli aşamalarını otomatikleştirin, standartlaştırın ve hatta iyileştirin ve/veya hızlandırın “. Kullanıcıların sorularını doğrudan yanıtlamak için sohbet robotlarının kullanılmasına ek olarak, bazı kamu hizmetleri sosyal yardım (CAF), vergiler (gelir vergisinin hesaplanması), gelir), eğitim rehberliği (ParcourSup) veya gibi birçok sektörde yapay zeka sistemlerini kullanıyor. iş arayanların izlenmesi (Fransa Travail).

Ayrıca okuyun: France Travail (eski adıyla Pôle emploi), algoritma kullanımı nedeniyle Quadrature du Net tarafından seçildi
Hak ve özgürlüklerimize yönelik riskler mi var?


Ancak giderek artan sayıda bireysel idari kararın artık “ algoritmalar veya yapay zeka sistemleri tarafından sağlanan sonuçlar » 2021'den bu yana Hakların Savunucusu olan Claire Hédon, “Haklarımız ve özgürlüklerimiz açısından risksiz değil” diye açıklıyor. Bağımsız otorite, otomasyon riskine ilişkin uyarı veren 2020 tarihli önceki bir rapora atıfta bulunarak, algoritmaların genellikle ayrımcılığa yol açabilecek önyargılara sahip olduğunu hatırlatıyor algoritma ayrımcılığı.

Bu konu medya ve insan hakları grupları tarafından defalarca dile getirildi. Fransa'da Quadrature du Net, Kasım 2023'te algoritmaları kınadı. Ulusal Aile Yardımı Fonu (CNAF), derneğe göre en güvencesiz olanı. Bu araçlar izin verir Sosyal sahtekarlığa karşı mücadelenin bir parçası olarak hangi alıcının kontrol edileceğine karar vermek CNAF'a kalmıştır.

Ayrıca okuyun: Aile yardımı dolandırıcılığı: Quadrature du Net'e göre CAF, en güvencesiz kişileri hedef alan algoritmalar kullanıyor
Konu şu anda Danıştay'a taşınmış durumda. Geçen ay, On beş dernek, CNAF'ın bu derecelendirme algoritmasını kullanmasını durdurmayı amaçlayan yasal işlem başlattı.

Ayrıca okuyun: Bu dernekler CAF puanlama algoritmasını ve diğerlerini kaldırmak istiyor
Koruma tedbirleri pratikte yeterince uygulanmıyor mu?


Ancak Hakların Savunucusu, idarenin, 2018 tarihli bir kanundan bu yana, çeşitli şartlara uymak kaydıyla, bazı kararlarını kişisel verilerin otomatik olarak işlenmesine dayandırabileceğini hatırlatıyor. Ancak bu mevzuatın sağladığı güvencelerin pratikte uygulanması zordur. “ Kanun, örneğin, kullanıcıların kendilerini ilgilendiren otomatik kararlardan haberdar edilmesini gerektirir ancak bu bilgilerin yararlı ve erişilebilir olması için gereken ayrıntı türünü ve düzeyini tanımlamak hala zor. », otoriteye dikkat çekiyor.

Başka bir deyişle, kullanıcının belirli bir karara yol açan şeyin belirli bir yönetimin algoritması olduğunun mutlaka farkında olması gerekmez. “ Otomatik yapısı ve işleyişi ve hatta olası önyargıları doğrudan görülemeyen karar verme yöntemleri », Hakların Savunucusu Pişmandır.

Bir kanun normalde idarelerin “ ana algoritmik işlemeyi tanımlayan kurallar “. Ancak rapora göre, özellikle bu yükümlülüğe uyulmaması durumunda herhangi bir yaptırım bulunmadığı için gerçekte neredeyse hiçbir zaman uygulanmıyor.

Başka bir sorun: Yapay zeka sistemlerinin insanlar tarafından denetlenmesi gerekiyor. Uygulamada müdahaleleri genellikle çok sınırlıdır. Hakların Savunucusu bunun gerekli olduğunu hatırlatıyor” Kamu yöneticilerine ve saha temsilcilerine verilen hedeflerin merkezine kullanıcı haklarına saygıyı yerleştirmek ve buna bağlı olarak özellikle algoritmik sistemlerin konuşlandırılması konusunda idarenin konsantre olmasına izin vermemek, öncelikli hedefleri konusunda maliyetlerin ve personelin azaltılması ve karlılık göstergeleri “.

Ayrıca okuyun: Amerika Birleşik Devletleri'nde bakıcılar bir algoritmanın talimatlarını takip etmeye zorlanıyor
Gerçek insan denetimi, kolaylaştırılmış başvuru… Hak Savunucusu'nun tavsiyeleri


Bağımsız otorite hükümete ve idarelere çeşitli öneriler sunmaktadır. Öncelikle kullanıcıların kendilerini ilgilendiren kararlarda kullanılan algoritmaların rolleri hakkında sistematik olarak bilgilendirilmesi gerektiğine inanıyor.

Yönetimler ayrıca “ Gerektiğinde süreci harekete geçirme ve değiştirme yeteneği ile algoritmik kararlarda etkili insan denetimini gerçek anlamda garanti eder “. Claire Hédon ayrıca algoritmaların ayrımcılığa yol açabilecek önyargılarına karşı kendimizi daha iyi korumamızı öneriyor.

Ayrıca okuyun: Algoritmalar neden hâlâ cinsiyetçi?
Bağımsız otorite, bir kişinin cinsel yönelimi, ırkı veya etnik kökeni, siyasi veya dini görüşleri, sendika üyeliği, sağlık verileri vb. gibi hassas kişisel verilerin kullanımının AI'da açıkça yasaklanmasından daha fazlasını veya daha azını dikkate almaz. sistemler. Son olarak, bir anlaşmazlık durumunda sistematik olarak insan müdahalesine başvurarak, kullanıcıların kendilerine dayatılan algoritmik kararlara itiraz etmelerini kolaylaştırmayı önerir.

🔴
01net'ten hiçbir haberi kaçırmamak için bizi Google Haberler ve WhatsApp'tan takip edin.
Kaynak :

13 Kasım 2024 Raporu