Yapay zeka modelleri, son dönemde dünya genelinde oldukça popüler hale geldi. Bilimin ve teknolojinin gelişmesiyle beraber insan görünümünü bile canlandırabilen yapay zekaların büyük bir kusuru ortaya çıktı.
BİLMEDİĞİ ŞEYLERDE TAHMİN ÜRETİYOR
Yapılan araştırma sonucunda ChatGPT gibi sohbet botlarının “halüsinasyon” olarak adlandırılan hatalı bilgi üretme eğilimine sahip olduğu ortaya çıktı. Yeni bir araştırmaya göre bunun temel sebebi, bu sistemlerin bilmediklerinde susmak yerine tahmin etmeye yönlendirilmesi.
“YANLIŞ BİLGİLERİ YÜKSEK BİR GÜVENLE SUNABİLİYOR”
Independent'ın haberine göre, halüsinasyon, yapay zeka alanında giderek büyüyen bir endişe konusu. Modellerin akıcı konuşma becerileri, yanlış bilgileri yüksek bir güvenle sunmalarına sebebiyet veriyor. Teknoloji ne kadar gelişirse gelişsin, bu sorun en yeni modellerde dahi devam ediyor. Uzmanlar, yapay zekanın tıp ve hukuk gibi kritik alanlarda kullanılmaya başlanmasıyla beraber halüsinasyon sorununa karşı önlem alma çağrısında bulunuyor.
Araştırmacılar, “Çoğu değerlendirme, modelin belirsizlik karşısında dürüst olmasını değil, tahmin yapmasını teşvik ediyor” diyor.
Araştırmacılar yaşanan bu durumu bir sınav benzetmesiyle açıklıyorlar,
“Bir öğrenci, boş bırakırsa puan alamayacağı bir testte, bilmediği sorularda rastgele tahmin yapar. Aynı şekilde, modeller yalnızca doğru yanıt sayısına göre değerlendirildiğinde, ‘bilmiyorum’ demek yerine tahminde bulunmayı öğrenir.”