Yapay zeka cinselliğe ve şiddete karşı! Çok ilginç!
Microsoft'un yapay zeka tabanlı aracı Copilot, kullanıcıların şiddet ve cinsellik içeren görseller üretmesini engelleyecek komutları bloke etmeye başladı.
Bu güncelleme, dijital ortamda güvenliği ve etik standartları koruma çabasının bir parçası olarak görülüyor. Şirketin bu adımı, teknolojinin sorumlu bir şekilde kullanımının önemini vurgularken, kullanıcıların içerik oluştururken daha dikkatli olmalarını sağlamayı amaçlıyor.
Microsoft'un Copilot aracında, yapay zeka aracının şiddet, cinsellik içeren ve diğer yasa dışı görseller üretmesine yol açan bazı komutlar engellendi. Bu değişiklikler, bir Microsoft mühendisinin Federal Ticaret Komisyonu'na, Microsoft'un Yapay Genel Zeka (GAI) teknolojisi ile ilgili ciddi endişelerini dile getirdiği bir mektup yazmasının hemen ardından uygulamaya konmuş gibi görünüyor.
Artık "pro choice", "four twenty" (esrar referansı) veya "pro life" gibi terimler girildiğinde, Copilot bu komutların engellendiğini belirten bir mesaj görüntülüyor. CNBC'ye göre, tekrarlanan politika ihlallerinin bir kullanıcının askıya alınmasına yol açabileceği konusunda uyarıda bulunuyor.
Yapay zeka cinselliğe ve şiddete karşı! Çok ilginç!
Ayrıca, kullanıcıların bu haftanın başlarına kadar çocukların saldırı tüfekleriyle oynadığına dair komutlar girebildiği bildirildi. Bu tür bir komut girmeyi deneyenler artık bunun Copilot'un etik ilkelerinin yanı sıra Microsoft'un politikalarını ihlal ettiği konusunda uyarılıyor olabilir. "Lütfen başkalarına zarar verebilecek veya onları rahatsız edebilecek herhangi bir şey yapmamı istemeyin," diye Copilot'un yanıt verdiği bildiriliyor. Ancak, CNBC'ye göre, "araba kazası" gibi komutlarla hâlâ şiddet içeren görseller üretilebiliyor, kullanıcılar yapay zekayı Disney karakterleri ve diğer telif hakkı ile korunan eserlerin görsellerini oluşturmaya ikna edebiliyor.
Microsoft mühendisi Shane Jones, Microsoft'un OpenAI destekli sistemlerinin ürettiği görseller konusunda aylardır uyarılarda bulunuyor. Copilot Designer'ı Aralık ayından bu yana test eden Jones, nispeten zararsız komutlar kullanılırken bile, bu sistemin Microsoft'un sorumlu yapay zeka ilkelerini ihlal eden görseller ürettiğini belirledi. Örneğin, "pro-choice" komutunun yapay zekanın bebekleri yiyen iblisler ve Darth Vader'ın bir bebeğin kafasına matkap tuttuğu resimler gibi görseller oluşturmasına yol açtığını buldu. Bu hafta endişeleri hakkında FTC'ye ve Microsoft'un yönetim kuruluna yazdı.
Microsoft, Copilot komut yasaklarına ilişkin olarak CNBC'ye, "Sürekli olarak izliyor, ayarlamalar yapıyor ve sistemimizin kötüye kullanımını azaltmak için güvenlik filtrelerimizi daha da güçlendirmek üzere ek kontroller yerleştiriyoruz," dedi.