OpenAI, kompania e inteligjencës artificiale, ka publikuar një punim kërkimor ku diskutohet mbi fenomenin e “hallucinations” në modelet e mëdha të gjuhës (LLMs) që përdoren për trajnimin e chatbot-ëve. Këto “hallucinations” ndodhin kur chatbot-et japin përgjigje të gabuara kur nuk janë të sigurt, në vend që të pranojnë se nuk e dinë përgjigjen.
Sipas kërkuesve, ky fenomen lidhet me një gabim në klasifikimin binary, ku LLM-të kategorizojnë informacionin në dy kategori. Kjo ndodh sepse modelet janë “optimizuara për t’u sjellë si nxënës të mirë” dhe të guess, pra të japin përgjigje të gabuara, për të përmirësuar performancën e tyre në prova. Kërkuesit krahasuan këtë fenomen me studentët që e ndjejnë nevojën për të dhënë një përgjigje në provim, edhe nëse ajo është e gabuar, për të marrë pikë.
Sistemi i pikëzimit funksionon në mënyrë që modelet fitojnë pikë për përgjigje të sakta, por nuk marrin asnjë pikë nëse lënë përgjigjen bosh apo thonë se nuk e dinë. Ky dokument u shpall disa javë pas lançimit të GPT-5, modeli që OpenAI thotë se është “imun ndaj hallucinations”, me 46% më pak gabime se paraardhësi i tij, GPT-4. Megjithatë, një studim i fundit nga NewsGuard tregon se ChatGPT shpërndan të pavërteta në 40% të përgjigjeve të tij.
Studiuesit theksojnë se disa pyetje nuk mund të përgjigjen nga inteligjenca artificiale. Gjatë procesit të trajnimit, chatbot-et mësojnë të parashikojnë fjalën e ardhshme në tekste të mëdha, por për disa tema, si klasifikimi i imazheve mbi bazën e informacioneve të caktuara, algoritmet do të dështojnë. Një nga gjetjet kryesore është se modellet nuk do të jenë kurrë 100% të sakta, sepse disa pyetje janë natyrisht të pa përgjigjshme.
Për të reduktuar “hallucinations”, OpenAI sugjeron që përdoruesit të udhëzojnë modelin të përgjigjet me “Nuk e di” në rastet kur nuk është i sigurt, si dhe të ndryshohet sistemi i pikëzimit për llojet e përgjigjeve që jep.