Açık 17.2ºC Ankara
  • Adana
  • Adıyaman
  • Afyonkarahisar
  • Ağrı
  • Aksaray
  • Amasya
  • Ankara
  • Antalya
  • Ardahan
  • Artvin
  • Aydın
  • Balıkesir
  • Bartın
  • Batman
  • Bayburt
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Düzce
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkari
  • Hatay
  • Iğdır
  • Isparta
  • İstanbul
  • İzmir
  • Kahramanmaraş
  • Karabük
  • Karaman
  • Kars
  • Kastamonu
  • Kayseri
  • Kırıkkale
  • Kırklareli
  • Kırşehir
  • Kilis
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • Mardin
  • Mersin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Osmaniye
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Şanlıurfa
  • Şırnak
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Uşak
  • Van
  • Yalova
  • Yozgat
  • Zonguldak
Bilim Teknoloji
Techtimes 08.05.2025 07:48

OpenAI’nin son yapay zekaları halüsinasyonlar görmeye başladı

Yapay zeka hızla gelişiyor ancak her zaman doğru yönde ilerlemiyor. OpenAI’nin son modelleri, GPT o3 ve o4-mini, insan düşünme biçimini daha yakından taklit edebilmek amacıyla geliştirildi. Ancak yapılan son araştırmalar, bu modellerin daha akıllı olsalar da daha fazla yanıltıcı bilgi ürettiklerini ortaya koydu.

OpenAI’nin son yapay zekaları halüsinasyonlar görmeye başladı

Yapay zeka sohbet robotları (chatbotlar) ilk ortaya çıktığından bu yana, yanıltıcı bilgiler ya da "halüsinasyonlar" sürekli bir sorun olmuştur.

Her yeni modelde, bu halüsinasyonların azalması beklenmişti. Ancak, OpenAI’nin son bulguları, bunun tersine, halüsinasyonların daha da arttığını gösteriyor.

Bir kamu figürleri testinde, GPT-o3, yanıtlarının yüzde 33’ünde yanlış bilgiler verdi; bu oran, önceki model GPT-o1’in hata oranının iki katı. Daha kompakt olan GPT o4-mini ise daha da kötü bir performans sergileyerek %48 oranında yanıltıcı bilgi üretti.

Yapay zeka çok mu düşünüyor?

Önceki modeller, akıcı metinler üretmekte oldukça başarılıydı, ancak o3 ve o4-mini, insan mantığını taklit etmek amacıyla adım adım düşünme programlamasıyla geliştirildi.

Ironik bir şekilde, bu yeni "düşünme" tekniği, sorunun kaynağı olabilir. Yapay zeka araştırmacıları, ne kadar fazla düşünme yaparsa, modelin yanlış yola sapma olasılığının o kadar arttığını belirtiyor.

Yüksek güvenli yanıtlara sahip eski sistemlerin aksine, bu yeni modeller karmaşık kavramlar arasında köprü kurmaya çalışırken yanlış ve tuhaf sonuçlara ulaşabiliyor.

Daha gelişmiş yapay zeka modelleri neden daha az güvenilir oluyor?

OpenAI, yapay zeka halüsinasyonlarındaki artışı, doğrudan düşünme biçimiyle değil, modellerin anlatımındaki kelime bolluğu ve cesaretle ilişkilendiriyor. Yapay zeka, faydalı ve kapsamlı olmaya çalışırken bazen tahminlerde bulunuyor ve teoriyi gerçekle karıştırabiliyor. Sonuçlar son derece ikna edici olabiliyor, ancak tamamen yanlış olabiliyor.

Yapay zeka halüsinasyonlarının gerçek dünya riskleri

Yapay zeka, hukuki, tıbbi, eğitim veya devlet hizmetlerinde kullanıldığında büyük riskler taşıyor. Bir mahkeme belgesinde ya da tıbbi raporda yanıltıcı bir bilgi, felakete yol açabilir.

Günümüzde ChatGPT nedeniyle avukatlar, uydurulmuş mahkeme alıntıları sağladıkları için yaptırımlara uğradılar. Peki ya bir iş raporunda, okul ödevinde veya devlet politikası belgesinde yapılan küçük hatalar?

Yapay zeka ne kadar hayatımıza entegre olursa, hata yapma olasılığı o kadar azalır. Ancak paradoks şudur: Ne kadar faydalı olursa, yapacağı hataların tehlikesi de o kadar büyür.

Sıradaki Haber
Venüs’e ulaşamayan uzay aracı Dünya’ya düşecek: Risk ne kadar büyük?
Yükleniyor lütfen bekleyiniz