21.4 C
İstanbul
8 Eylül 2024 Pazar
Ana SayfaYapay ZekaAnthropic, Yeni Yapay Zeka Performans Ölçüm Programını Başlattı

Anthropic, Yeni Yapay Zeka Performans Ölçüm Programını Başlattı

Anthropic, yapay zeka modellerinin performansını ve etkisini değerlendirebilecek yeni tür ölçütlerin geliştirilmesini finanse etmek için bir program başlattı. Program, özellikle generatif modeller gibi ileri düzey AI yeteneklerini ölçmeye odaklanacak.

Anthropic, duyurduğu programla, yapay zeka modellerinin ileri düzey yeteneklerini etkili bir şekilde ölçebilecek üçüncü taraf kuruluşlara ödeme yapmayı planlıyor. İlgilenenler, başvurularını sürekli olarak değerlendirilmek üzere sunabilirler.

Anthropic, resmi blogunda şunları yazdı: “Bu değerlendirmelere yaptığımız yatırım, tüm yapay zeka güvenliği alanını yükseltmeyi, tüm ekosisteme fayda sağlayacak değerli araçlar sunmayı amaçlıyor. Yüksek kaliteli, güvenlikle ilgili değerlendirmeler geliştirmek zorlayıcı olmaya devam ediyor ve talep arzı aşmış durumda.”

Yapay Zeka Değerlendirme Sorunu ve Çözüm Önerileri

Günümüzde en sık başvurulan yapay zeka ölçütleri, test edilen sistemlerin ortalama bir kullanıcı tarafından nasıl kullanıldığını yetersiz bir şekilde yansıtıyor. Özellikle modern generatif yapay zeka öncesinde yayınlanan bazı ölçütlerin, iddia ettikleri şeyleri ölçüp ölçmediği konusunda da sorular var.

Anthropic, yapay zeka güvenliği ve toplumsal etkiler üzerine odaklanan zorlayıcı ölçütler oluşturmayı öneriyor. Şirket, siber saldırıları gerçekleştirme, kitle imha silahlarını “geliştirme” ve insanları manipüle etme veya aldatma gibi görevleri değerlendiren testler çağrısında bulunuyor. Anthropic, ulusal güvenlik ve savunma ile ilgili yapay zeka riskleri için erken uyarı sistemi geliştirmeyi taahhüt ediyor.

Programın Amacı ve Desteklenecek Araştırma Alanları

Anthropic’in yeni programı, bilimsel çalışmalara yardımcı olma, çok dilli sohbetler yapma ve yerleşik önyargıları azaltma potansiyelini araştıran ölçütler ve “uçtan uca” görevler üzerinde araştırma yapılmasını desteklemeyi amaçlıyor. Ayrıca, toksisitenin kendiliğinden sansürlenmesi gibi konuları da içerecek.

Bu hedeflere ulaşmak için Anthropic, konu uzmanlarının kendi değerlendirmelerini geliştirmelerine ve modellerin büyük ölçekli denemelerine olanak tanıyan yeni platformlar öngörüyor. Şirket, program için tam zamanlı bir koordinatör işe aldığını ve potansiyel büyüklükte projeleri satın almayı veya genişletmeyi planladığını belirtti.

Anthropic, blog yazısında, “Projelerin ihtiyaçlarına ve aşamasına göre uyarlanmış bir dizi finansman seçeneği sunuyoruz,” dedi. “Ekipler, frontier red team, ince ayar, güven ve güvenlik gibi ilgili ekiplerden doğrudan Anthropic’in alan uzmanlarıyla etkileşime girme fırsatına sahip olacaklar.”

Şeffaflık ve Güven Sorunları

Anthropic’in yapay zeka değerlendirmelerini destekleme çabası, yeterli finansman ve iş gücü sağlandığı sürece takdire şayan bir girişim. Ancak, şirketin ticari yapay zeka yarışındaki hırsları göz önüne alındığında, tamamen güvenilir olup olmayacağı konusunda bazı endişeler var.

Anthropic, blog yazısında belirttiği üzere, finanse ettiği bazı değerlendirmelerin kendi geliştirdiği yapay zeka güvenlik sınıflandırmaları ile uyumlu olmasını istiyor. Bu durum, başvuru sahiplerini “güvenli” veya “riskli” yapay zeka tanımlamalarını kabul etmeye zorlayabilir.

Yapay zeka topluluğunun bir kısmı, Anthropic’in “felaket” ve “aldatıcı” yapay zeka risklerine yaptığı referanslara da itiraz edebilir. Birçok uzman, yapay zekanın dünya sonunu getirecek veya insanları zekâsıyla alt edecek yeteneklere sahip olacağına dair pek az kanıt olduğunu belirtmektedir.

Anthropic, programının “kapsamlı yapay zeka değerlendirmesinin bir endüstri standardı olmasına yönelik ilerlemeyi hızlandırmak” için bir katalizör olmasını umduğunu yazıyor. Bu, daha iyi yapay zeka ölçütleri oluşturma çabalarına açık, kurumsal olmayan girişimlerin de benimseyebileceği bir misyon. Ancak, bu çabaların bir yapay zeka satıcısı ile işbirliği yapıp yapmayacağı henüz belirsizliğini koruyor.

Benzer İçerikler

Yorum Yap

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Haberler

Son Yorumlar

- Advertisment -