OpenAI, projeleri ve operasyonları için risk yönetimini denetlemek üzere yeni bir “Emniyet ve Güvenlik Komitesi” kurulduğunu duyurdu . Duyuru, şirketin bir sonraki modelini eğitmeye “yakın zamanda başladığını” söylemesi üzerine geldi; bu modelin şirketi yapay genel zekaya (AGI) ulaşma hedefine yaklaştırması bekleniyor, ancak bazı eleştirmenler AGI’nin uzak bir ihtimal olduğunu söylüyor.
Bahsi geçen yeni modelin GPT-5 mi yoksa bunun bir adım ötesinde mi olması gerektiği şu anda bilinmiyor. Yapay zeka endüstrisinde “Frontier Model” (sınır modeli), mevcut yeteneklerin sınırlarını zorlamak için tasarlanmış yeni bir yapay zeka sistemi için kullanılan bir terim. Ve “AGI”, eğitim verilerinin ötesinde (belirli görevler için eğitilmiş dar yapay zekanın aksine) yeni, genel görevleri yerine getirmek için insan düzeyinde yeteneklere sahip varsayımsal bir yapay zeka sistemini ifade eder.
Bu arada, OpenAI direktörleri Bret Taylor (başkan), Adam D’Angelo, Nicole Seligman ve Sam Altman (CEO) liderliğindeki yeni Emniyet ve Güvenlik Komitesi, şirketin tüm yönetim kuruluna yapay zeka güvenliği hakkında önerilerde bulunmaktan sorumlu olacak.
Bu durumda, “güvenlik” kısmen olağan “Yapay zekanın hile yapmasına ve dünyayı ele geçirmesine izin vermeyeceğiz ” anlamına geliyor, ancak aynı zamanda şirketin 21 Mayıs’ta açıkladığı daha geniş bir dizi “süreç ve korumayı” da içeriyor.
OpenAI, komitenin ilk görevinin önümüzdeki 90 gün boyunca bu süreçleri ve önlemleri değerlendirmek ve daha da geliştirmek olacağını söyledi. Bu sürenin sonunda komite tavsiyelerini tüm kurulla paylaşacak ve OpenAI, kabul edilen tavsiyelere ilişkin bir güncellemeyi kamuya açıklayacak.