OpenAI, şirket içi güvenlik önlemlerini genişleterek yeni bir güvenlik birimi oluşturdu ve yönetim kuruluna yapay zekâ projelerini veto etme yetkisi tanıdı. OpenAI, son dönemdeki gelişmeler ve iddiaların ardından üst düzey yapay zekâ güvenliği odaklı düzenlemeler yapma kararı aldı.
Öncelikle, “güvenlik danışmanlık grubu” adını verdikleri bir ekip oluşturan OpenAI, bu ekibi kurumun teknik ekiplerinin üzerine konumlandırarak liderlik tavsiyelerinde bulunmalarını sağladı. Ayrıca, OpenAI Yönetim Kurulu’na, gelecekte potansiyel tehlike arz edebilecek yapay zekâ projelerini veto etme yetkisi verildi.
OpenAI, bu yeni düzenlemeyi “Hazırlıklılık Çerçevesi” adıyla duyurdu. Kasım ayında yönetim kurulunun agresif büyümeye karşı olmasıyla bilinen iki üyesi, Ilya Sutskever ve Helen Toner, kuruldan çıkarılmıştı. Yeni düzenleme ile birlikte, “yıkıcı” yapay zekâların tanımlanması, analiz edilmesi ve alınacak aksiyonlara karar verilmesi için bir rehber oluşturuldu.
Şirket içindeki yeni düzenlemeye göre, güvenlik sistemi takımı üretimdeki modelleri yönetecek ve örneğin ChatGPT’nin sistematik kötüye kullanımını API’lerde sınırlama gibi görevleri üstlenecek. Hazırlıklılık takımı, öncül modellerin sorumluluğunu üstlenerek olası riskleri tespit edip önlem almaya odaklanacak. Süperyönelim ekibi adı verilen ekip ise süper yapay zekâ modelleri için teorik yönlendirmeler geliştirecek. Her bir ekip, sorumlu oldukları modelleri “siber güvenlik”, “ikna”, “otonomi”, “CBRN” (Kimyasal, biyolojik, radyolojik ve nükleer tehditler) açısından değerlendirecek.
OpenAI, henüz bu değerlendirmelerin nasıl yapılacağına dair detaylı bilgi paylaşmazken, fonksiyonlar arası güvenlik danışmanları grubu, bu çalışmaları genel olarak denetleyecek ve liderlik etmelerine yardımcı olacak.