Microsoft, Yapay Zekânın Yalan Söylemesini Engelleyecek Bir Araç Yayımladı

Büşra Koça
A+A-
Reset

Microsoft, yapay zekânın bilgi uydurma sorununun üstesinden gelebileceğini umduğu yeni bir araç olan “Correction”u tanıttı. Yapay zekâlar, kullanıcıları etkilemek amacıyla bazen olmayan bilgiler uydurabiliyor ve buna “halüsinasyon” deniyor. Bu durum, yapay zekânın sahte akademik çalışmalara referans vermesi gibi sorunlara yol açabiliyor.

Microsoft’un geliştirdiği “Correction” aracı, bu sorunu çözmek için bir adım olarak değerlendiriliyor. Ancak uzmanlar, bu aracın etkili olup olmayacağı konusunda şüphelerini koruyorlar. Detaylar incelendiğinde, şüpheci yaklaşımın neden devam ettiğini anlamak mümkün.

Doğrulama aracı da hata yapabilir

Microsoft’un Correction aracı, Azure AI İçerik Güvenlik API’sinin bir parçası olarak sunuluyor ve ilk zayıf noktası “hata yapabilecek olması” olarak öne çıkıyor. Aracın, yapay zekâ çıktılarının doğruluğunu birincil kaynaklar yerine açıklamalar ve iddialara dayandırarak kontrol ettiği belirtiliyor. Ayrıca Correction, Meta’nın Llama ve OpenAI’ın GPT-4o gibi modelleriyle de uyumlu çalışabilecek.

Microsoft, “Correction” aracının küçük ve büyük dil modellerini kullanarak yapay zekâ çıktılarının temel belgelerle uyumlu hale getirilmesine dayandığını açıklarken, bu aracın özellikle tıp gibi hassas alanlarda üretken yapay zekâ kullanıcılarına yardımcı olmasını beklediklerini belirtti.

Benzer bir girişim, Google tarafından Vertex AI platformunda da tanıtılmıştı. Ancak uzmanlar, yapay zekâlardaki halüsinasyonları tamamen engellemenin son derece zor olduğunu, hatta bu sorunların kaçınılmaz olabileceğini ifade ediyorlar.