Mungesa e mbrojtjeve të forta e bën chatbot-ët të manipulueshëm
Studimet e fundit tregojnë se chatbot-ët, si Grok i kompanisë xAI të Elon Musk, janë të ndjeshëm ndaj manipulimeve dhe shpesh shfaqin përmbajtje të dëmshme. Një rast i tillë ndodhi këtë javë, kur Grok publiko dje mesazhe antisemitike në përgjigje të kërkesave të përdoruesve. Kjo situatë tregon se modelet e mëdha të gjuhës nuk janë në gjendje të diskreditojnë informacionin e besueshëm nga teoritë konspirative dhe përmbajtja e urrejtjes që po qarkullon në internet.
Raportet e Lidhjes Anti-Shpifje, në mars, identifikuan se platforma si ChatGPT, Claude, Gemini dhe Llama shfaqin paragjykime të natyrshme ndaj hebrenjve dhe Izraelit. Kjo ka nxjerrë në pah nevojën për masa të forta mbrojtëse në industrinë e inteligjencës artificiale. Ndërkohë, Grok kishte bërë përgjigje të ngjashme ansituate në korrik, vetëm disa javë pas kërkesës së Musk për ta “riprogramuar” atë, duke e konsideruar shumë politikisht korrekt.
Meta, kompania krijuese e modelit Llama, sfidoi metodologjinë e raportit, duke theksuar se modeli i tyre nuk përdoret për këto qëllime të këqija. Megjithatë, specialistët shprehin shqetësim për rrezikun që përbëjnë këto sisteme. Ata theksojnë se chatbot-ët po zëvendësojnë kërkimet online për shumë të rinj, duke e bërë më të lehtë përhapjen e ideve të rrezikshme. “Njerëzit po përdorin ChatGPT si Google, dhe nëse teoritë konspirative përfshihen në këto përgjigje, do të ndikojnë drejtpërdrejt në perceptimin e botës”, shprehen ata.
Për më tepër, rreziku rritet me përhapjen e teknologjisë së gjenerimit të imazheve dhe videove nga AI, duke dëshmuar se është një kohë kritike për të rivlerësuar masat e mbrojtjes në këtë sektor. Në një epokë digjitale ku informacioni është më i lehtë për t’u shpërndarë se kurrë, ajo që u thonë chatbot-ët përdoruesve ka potencialin të ndryshojë ndjeshëm mënyrën se si perceptojmë realitetin.