OpenAI, yanlış yapay zeka cevaplarını çözüyor!


Yapay zeka destekli sohbet robotları, sınıflardan ofislere ve günlük hayatımıza kadar her yerde karşımıza çıkıyor. Ancak bu araçların can sıkıcı bir sorunu var: Bazen tamamen asılsız, uydurma bilgiler üretebiliyorlar. Bu duruma “halüsinasyon” adı veriliyor. OpenAI, bu sorunun nedenini çözdüğünü ve gelecekteki yapay zeka araçlarını çok daha güvenilir hale getirecek bir çözüm bulduğuna inanıyor. İşte detaylar.

OpenAI, Georgia Tech’ten Santosh Vempala ve diğer araştırmacılarla birlikte yayımladığı 36 sayfalık makalede, bu konuyu derinlemesine inceledi. Araştırmacılar, halüsinasyonların model tasarımındaki bir eksiklikten değil, yapay zekâ sistemlerinin test edilme ve sıralanma biçiminden kaynaklandığını öne sürüyor.

apple chatgpt

Mevcut değerlendirme yöntemleri, bir sohbet robotunu her soruya cevap verdiği için ödüllendirirken, emin olmadığı zamanlarda sessiz kalan modelleri cezalandırıyor. Bunu, bilmediği soruları boş bırakmak yerine, rastgele cevap veren bir öğrenciyi ödüllendiren çoktan seçmeli bir sınava benzetebiliriz.

Bu sorunu çözmek için yapılan açıklamada puanlama sisteminin tam tersine çevrilmesini öneriyor: Yanlış olduğu halde kendinden emin bir şekilde verilen cevaplar, modele karşı güçlü bir şekilde cezalandırılmalı. Bunun yanı sıra, dikkatli davranıp belirsizliğini belirten veya “bilmiyorum” diyen modeller ödüllendirilmeli.

Bu yeni yaklaşımın farkını gösteren ilk örnekler oldukça aydınlatıcı. Bir testte, temkinli bir model soruların sadece yarısına cevap veriyor ancak bu cevapların yüzde 74’ü doğru çıkıyor. Diğer bir model ise neredeyse tüm soruları cevaplıyor ancak her dört cevaptan üçünde halüsinasyon görüyor.

Bu yaklaşım kabul edilirse, yapay zekâ asistanlarının günlük davranışları tamamen değişebilir. Artık uydurma bir kaynak veya istatistik üretmek yerine, “Bu konuda emin değilim” ya da “Bilmiyorum” gibi cevaplar vermeleri daha olası hale gelecek.

Bu, ilk bakışta daha az etkileyici görünse de, kullanıcıların cevapları sürekli kontrol etme zorunluluğunu ortadan kaldırarak çok daha güvenilir bir deneyim sunabilir. OpenAI için bu araştırma, gösterişli ama güvenilmez bir özgüven yerine, doğruluğa ve güvene değer veren bir yapay zekâya doğru atılan önemli bir adım.



Haber Kaynak Linki

Related Posts

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir