OpenAI itiraf etti… İnsan gibi düşünen yapay zeka üzerinde çalışıyorlar!
sözde yapay zeka halüsinasyonları “yapay zeka yalanları veya zekanın kendi çıkarımları”birçok insanı farklı yönlere yönlendiriyordu.
OpenAI Çarşamba günü, yapay zeka modellerini eğitmek için daha yeni bir teknik tanıttığını duyurdu. “halüsinasyonlar”Buna karşı mücadele edeceğini açıkladı.
ETKİ HIZLA ARTIYOR
OpenAI, geçen yıl GPT-3 ve GPT-4 tarafından desteklenen sohbet robotu ChatGPT’yi piyasaya sürerek üretken AI patlamasını hızlandırdı. İki ayda aylık 100 milyon kullanıcıyı aşarak en hızlı büyüyen uygulama rekorunu kırdığı bildirildi.
Microsoft, söz konusu teknoloji için bugüne kadar OpenAI’ye 13 milyar dolardan fazla yatırım yaptı.
YAPAY ZEKA KONUŞMALARINI EN AZA İNDİRMEYE ÇALIŞACAKLAR
OpenAI tarafından geliştirilen ChatGPT veya Google Bard gibi modeller kullanıldığında yapay zeka halüsinasyonlarına neden oluyor.
Buna bir örnek: Google’ın Şubat ayında Bard için yayınladığı bir tanıtım görselinde, chatbot James Webb, Uzay Teleskobu hakkında gerçekçi olmayan bir tez ortaya attı. Daha yakın bir zamanda ChatGPT, New York federal mahkemesine bir başvuruda bulundu. “sahte vakalardan”bahsetmişti.
OpenAI araştırmacıları raporu “En gelişmiş modeller bile yanlışlıklar üretme eğilimindedir ve belirsizlik anlarında gerçekleri icat etme eğilimindedirler.”o yazdı.
Ayrıca, araştırmacılar “Bu halüsinasyonlar, çok adımlı muhakeme gerektiren alanlarda özellikle sorunlu çünkü tek bir mantıksal hata çok daha büyük bir çözümü raydan çıkarmak için yeterli.”sözlerini verdiler.
İNSAN DÜŞÜNCE MODELLERİ GELİŞTİRİLECEK
OpenAI’nin fabrikasyonlarla uğraşmaya yönelik potansiyel yeni stratejisi, bir cevaba varıldığında gerçek bir nihai sonucu ödüllendirmek yerine, her gerçek muhakeme adımı için kendilerini ödüllendirmek üzere AI modellerini eğitmek olarak görülüyor.
Araştırmacılara göre bu yaklaşım “sonuç kontrolü”karşı “Süreç kontrolü”adlandırılmış ve modeller “insan benzeri düşünme”yaklaşımını takip etmenizi teşvik eder.
TESTLER OLUMLU SONUÇLAR VERDİ
Sonuç kontrolü ile OpenAI, yapay zekanın nihai sonucu hakkında geri bildirim sağlamak için ödül modellerini eğitecektir. Süreç kontrolü ile ödül modeli, insan benzeri bir niyet zinciri yaratarak yolun her adımında geri bildirim sağlayacaktır.
OpenAI, araştırma makalesinde her iki modeli de bir dizi matematiksel bilgi üzerinde test ettiğini ve süreç kontrol prosedürünün “önemli ölçüde daha iyi performans”sağlamak için bulundu.
SÜREÇ KONTROLÜNÜN OLASI SONUÇLARI KONUŞULDU
Süreç kontrol prosedürünün olası sonuçlarını açıklayan OpenAI şunları söyledi:
“Bu sonuçlar genelleştirilirse, süreç denetiminin bize her iki dünyanın da en iyisini sunduğunu görebiliriz. Sonuç denetiminden hem daha performanslı hem de daha tutarlıdır.”
Ayrıca OpenAI, halka açık ChatGPT’de süreç kontrolünü uygulamanın ne kadar süreceği konusunda bir zaman çizelgesi vermedi.