Një studim i Universitetit Dartmouth, i publikuar së fundmi në Proceedings of the National Academy of Sciences, shpërfaqi një rrezik të rëndësishëm për mbledhjen e mendimeve publike përmes anketave, për shkak të avancimeve në Inteligjencën Artificiale (AI). Kjo studim tregon se modelet e mëdha të gjuhës (LLMs) mund të manipulojnë anketat duke imituar persona njerëzorë dhe duke shmangur metodat aktuale të zbulimit. Sipas autorit të studimit, Sean Westwood, ky fenomen përbën një rrezik të mundshëm për kërkimin online pa mbikëqyrje.
Ai ka testuar sistemin e anketimeve duke ndërtuar një “përgjigjës sintetik autonom”, një mjet AI i thjeshtë që funksionon me një prompt 500-fjalësh. Ky mjet imitonte persona demografikë dhe simuleronte mënyrën se si një njeri mund të përgjigjej, duke arritur të mashtrojë 99.8% të sistemeve të anketimeve. Rreziku rritet për zgjedhjet, pasi një numër i vogël përgjigjesh të rreme mund të ndikonte në rezultatin përfundimtar në anketat e rëndësishme.
Westwood zbuloi se vetëm 10 deri në 52 përgjigje artificiale mund të përmbysnin rezultatet në disa nga anketat më të njohura të zgjedhjeve presidenciale të SHBA-së 2024. Kostoja për të implementuar çdo përgjigje do të ishte vetëm 5 centë, duke e bërë këtë një strategji të lehtë për t’u realizuar, sidomos nga aktorët e huaj që mund të kenë burime për të dizajnuar mjete edhe më të sofistikuara.
Kjo problematikë ndikon jo vetëm në politikë, por edhe në kërkimin shkencor, që mbështetet në të dhëna anketash. “Të dhënat e anketave të ndotura nga botët mund të helmojnë të gjithë ekosistemin e njohurive,” tha Westwood, me një thirrje për veprim për të zhvilluar metoda të reja të mbledhjes së të dhënave që të mos përfshijnë AI-në.
Ai theksoi se ekzistojnë teknologji për të verifikuar pjesëmarrjen e vërtetë njerëzore dhe se është momenti për t’u vepruar në mbrojtje të integritetit të votimeve dhe përgjegjësisë demokratike që ato ofrojnë.











