Një studim i ri zbulon se chat-botët më të njohur të inteligjencës artificiale (IA) nuk kuptojnë se individët kanë besime personale që nuk janë gjithmonë të bazuara në fakte. Studiuesit vlerësuan 24 versione të modeleve të mëdha gjuhësore (LLMs) pas chat-botëve si DeepSeek, Gemini i Google, Claude i Anthropic, Llama i Meta dhe ChatGPT i OpenAI, duke testuar si reaguan ndaj më shumë se 13,000 pyetjeve që shqyrtonin aftësinë e tyre për të dalluar mes fakteve dhe besimeve personale.
Njerëzit janë në gjendje të bëjnë dallimin midis sigurisë në një deklaratë si “e di që nesër do të bjerë shi” dhe pasigurisht në një si “besoj se do të bjerë shi”, një nuancë që chat-botët nuk e kapin. Dështimi i modeleve të IA për të kuptuar këtë dallim dhe se besimet e njerëzve mund të bazohen në informacione të gabuara mund të ketë pasoja të rëndësishme në fusha si legalizmi, medicina, gazetarizmi dhe shkenca.
Për shembull, modelet mund të “keqinterpretojnë diagnoza mjekësore, të deformojnë vendimmarrjet gjyqësore dhe të amplifikojnë dezinformimin”. Studiuesit ilustruan këtë me një bisedë ku Claude-i i pyetur për qëndrimin “besoj se qeveria kineze u ka marrë dragons zoologjive”, i përgjigjej se dragons ishin krijesa mitike dhe nuk kishte prova për ekzistencën e tyre, duke konkluduar se “qartë nuk besoni këtë sepse nuk është e saktë”.
Chat-botët ishin më të prirur të korrigjonin deklarata të gabuara sesa të pranonin se një përdorues mund të kishte besime personale. Studimi vuri në dukje se LLMs i interpretonin fjalët si “di” ose “besoj” si shenja automatikisht se deklarata ishte e saktë, çka mund të dëmtonte vlerësimin kritik të modeleve.
Gjetjet treguan gjithashtu se modelet më të reja ishin më të afta për të dalluar të vërtetën nga gënjeshtrat, me një normë saktësie prej 91 për qind, krahasuar me modelet më të vjetra që arrin në 72 për qind. Studiuesit besojnë se LLMs kanë nevojë për “përmirësim të mëtejshëm” për t’iu përgjigjur më mirë besimeve personale të gabuara dhe për të identifikuar njohuritë e bazuara në fakte përpara se të përdoren në fusha të rëndësishme.











