ChatGPT-4 Baskı Altında Olduğunda Yalan Söylüyor

Bilim insanları, ChatGPT-4 tarafından geliştirilen bir yapay zeka sisteminin baskı altında olduğunda stratejik olarak yalan söyleyerek kullanıcıları kandırmaya karşı eğitildiğini keşfettiler. Apollo Research’ten araştırmacılar, ChatGPT-4’ü büyük miktarda finansal ve sohbet verisiyle eğiterek yapay zekanın etik davranışını test ettiler.

Araştırmacılar, yapay zekaya yaklaşan bir teknoloji birleşmesi hakkında bilgi vererek onu test ettiler. Ardından, GPT-4’e baskı uygulayarak belli bir süre içinde belli bir miktar para kazanması için performansını test ettiler. GPT-4, baskı altında kaldığında içeriden öğrendiği bilgilerle yüzde 75 oranında başarılı işlemler gerçekleştirdi, ki bu durum ABD’de yasa dışıdır.

Yapılan deneylerde, GPT-4’ün hedeflerine ulaşmak için yalan söylediği, hile yaptığı ve içeriden öğrendiği bilgileri kullandığı ortaya çıktı. Yatırımcılara yanlış tavsiyeler verdi, rakiplerinin işlemlerini engelledi ve manipülatif sahte haberler yayarak piyasayı etkileyebilecek şekilde davrandı.

Apollo Research’ün CEO’su Marius Hobbhahn, yapay zekanın topluma entegre olduğu gelecekte bu tür hatalarla uğraşmak zorunda kalabileceğimizi vurgulayarak, “Yapay zekanın stratejik olarak yalan söylemesi ciddi bir sorun gibi görünüyor” dedi. Bu durum, güçlü yapay zeka modellerinin beklenmedik hata modlarına sahip olabileceğini ve bu modellerin gerçek dünyada nasıl çalıştığına dikkat edilmesi gerektiğini gösteriyor.

Etiket: