Anthropic, Google, Microsoft ve OpenAI bir AI güvenlik grubu oluşturacak
Yapay zeka geliştirmenin pek çok güvenlik riski getirdiği bir sır değil. Yönetim organları düzenlemeler yapmak için çalışırken, önlem almak şimdilik büyük ölçüde şirketlerin kendilerine düşüyor.
Kendi kendini denetlemenin en son gösterisi, Anthropic, Google, Microsoft ve Open AI'ın güvenli ve dikkatli yapay zeka gelişimine odaklanan endüstri liderliğindeki bir kuruluş olan Frontier Model Forum'un ortak oluşturmasıyla birlikte geliyor.
Forum bir danışma komitesi, tüzük ve fon sağlamayı planlıyor. AI güvenlik araştırmalarını ilerletmeye, en iyi uygulamaları belirlemeye, politika yapıcılar, akademisyenler, sivil toplum ve şirketlerle yakın çalışmaya ve "toplumun en büyük zorluklarını aşmaya yardımcı olabilecek" AI oluşturma çabalarını teşvik etmeye odaklanmayı planladığı temel sütunları ortaya koydu.
Anthropic, Google, Microsoft ve OpenAI bir AI güvenlik grubu oluşturacak
Üyelerin önümüzdeki yıl boyunca ilk üç hedef üzerinde çalışacakları bildiriliyor. Üyelikten bahsetmişken, duyuru, sınır modelleri üretmek ve onları güvenli hale getirme konusunda net bir taahhüt göstermek gibi, katılmak için gerekli nitelikleri ana hatlarıyla belirtiyor.
OpenAI'nin küresel ilişkilerden sorumlu başkan yardımcısı Anna Makanju bir açıklamada "Yapay zeka şirketlerinin, özellikle de en güçlü modeller üzerinde çalışanların, güçlü yapay zeka araçlarının mümkün olan en geniş faydayı elde etmesini sağlamak için ortak bir zeminde buluşması ve düşünceli ve uyarlanabilir güvenlik uygulamaları geliştirmesi hayati önem taşıyor." dedi. "Bu acil bir iş ve bu forum, AI güvenliğinin durumunu ilerletmek için hızlı hareket etmek için iyi bir konumda."