Kamuda yapay zeka kullanımı tedirginlik yaratıyor!
Yapay zeka pek çok alanda aktif şekilde kullanılıyor. Kamuda da kullanılan yapay zeka, tedirgin edici bazı hatalar yapıyor.
Yapay zeka, bürokrasinin çeşitli alanlarında kullanımı giderek artan bir teknoloji haline gelirken, yeni bir rapor, bu kullanımın bazı ciddi sorunları ve hataları gün yüzüne çıkarıyor. Raporda, bürokrasideki yapay zeka uygulamalarının bazı durumlarda hatalı sonuçlar ürettiği ve insan haklarına zarar verebileceği konularına dikkat çekiliyor.
Özellikle sosyal yardımların yönetimi konusunda kullanılan yapay zeka araçlarına odaklanan rapor, bu araçların bazı vatandaşların hak ettikleri yardımları almalarını engellediğini belirtiyor. İnceleme sonuçlarına göre, bu araçlar hatalı bir şekilde bazı kişilerin yardımlarını kesiyor, hatta hak etmelerine rağmen yardım almalarını engelliyor. Bu durum, yapay zeka tabanlı sistemlerin insan hayatı üzerindeki ciddi etkilerini gözler önüne seriyor.
Kamuda yapay zeka kullanımı tedirginlik yaratıyor!
Ayrıca, rapor, kolluk kuvvetlerinin yüz tanıma teknolojisi kullanımını da eleştiriyor. Yüz tanıma araçları, yanıltıcı bilgiler sunarak suçlu kişilerin tespit edilmesini zorlaştırabiliyor. Bu durum, suçsuz insanların haksız yere suçlanmasına ve cezalandırılmasına yol açabilir.
Rapor, bu sorunların özellikle yapay zeka sistemlerinin eğitilmesi ve verilerin işlenmesi sırasında ortaya çıktığını vurguluyor. Eğitim verilerinin önyargılı veya eksik olması, yapay zeka sistemlerinin hatalı sonuçlar üretmesine neden olabiliyor. Ayrıca, bu sistemlerin nasıl çalıştığına dair yeterince şeffaf olmamaları, sorunların tespit edilmesini ve çözülmesini zorlaştırıyor.
Rapor, bürokraside yapay zeka kullanımının denetim altına alınması, eğitim verilerinin daha dikkatli bir şekilde seçilmesi ve yapay zeka sistemlerinin şeffaf hale getirilmesi gerektiği konularında önerilerde bulunuyor. Ayrıca, insan haklarına saygı gösterilmesi ve adaletin sağlanması için yapay zeka sistemlerinin daha dikkatli bir şekilde kullanılması gerektiği vurgulanıyor.