Një raport i ri nga MIT (Instituti i Teknologjisë së Massachusetts) ka tronditur botën e inteligjencës artificiale duke zbuluar se 95% nismave të IA-s gjeneruese ofrojnë zero kthim të investimit.
Gjetjet, bazuar në 300 implementime publike, më shumë se 150 intervista ekzekutive dhe 30 deri në 40 miliardë dollarë të investuar në këto projekte pilot, sugjerojnë se miliarda dollarë janë shpenzuar në eksperimente të IA-së që nuk materializohen kurrë, dhe se shumica e organizatave janë të bllokuara në atë që studiuesit e MIT e quajnë “Ndarja e IA-së Gjenerative“.
Shifrat e zbuluara janë të zymta, 40% e organizatave thanë se kanë implementuar mjete IA-je, por vetëm 5% kanë arritur t’i integrojnë ato në rrjedhat e punës në shkallë të gjerë. Shumica e projekteve vdesin në purgatorin e projekteve pilot. Ndërkohë, lajmet paralajmërojnë për një “flluskë IA-je”, dhe disa investitorë po i ulin aksionet e IA-së me idenë se momenti i madh i ndërmarrjes së IA-së gjeneruese tashmë po vonon.
Megjithatë, jo të gjithë pajtohen me këtë interpretim.
“Problemi është gabimi i plotë”, tha Tanmai Gopal, bashkëthemelues dhe drejtor ekzekutiv i PromptQL, një kompani e IA-së që numëron OpenAI, Airbus, Siemens dhe NASA si klientë të saj. “Nëse sistemi nuk është gjithmonë i saktë, as në përqindjen më të vogël të kohës, duhet ta di kur nuk është. Përndryshe, minutat e mia shndërrohen në orë; kthimi i investimit zhduket.”
Në postimin e tij në blog Gopal përshkroi atë që ai e quan “taksa e verifikimit”.
“Nuk e di kur mund të marr një përgjigje të pasaktë nga Inteligjenca Artificiale ime. Kështu që duhet të kontrolloj çdo përgjigje në mënyrë forenzike”, shkroi ai.
Kjo shpjegon shumë nga ajo që MIT e etiketoi si ndarja e GenAI. Ndërmarrjet me padurim lançojnë projekte pilot, por punonjësit përfundojnë duke shpenzuar aq shumë kohë duke kontrolluar dy herë rezultatet saqë efikasiteti i premtuar nuk materializohet kurrë.
Nuk është se IA-së gjeneruese i mungon fuqia e papërpunuar, modelet mund të jenë impresive. Është se besimi i tyre është i pakalibruar. Në industritë e rregulluara ose me rreziqe të larta, një përgjigje e keqe mund të jetë më e madhe se 10 të mira. Siç e thotë Gopal: “Për një punë serioze, një gabim me besim të lartë kushton më shumë besueshmëri sesa fitojnë 10 suksese.”
Studiuesit e MIT-it e formuluan të njëjtën çështje ndryshe. Ata zbuluan se shumica e mjeteve të IA-së të ndërmarrjeve nuk i ruajnë reagimet, nuk përshtaten me rrjedhat e punës ose nuk përmirësohen me kalimin e kohës. Pa këto cilësi, ato ngecin.
“Pa informacion të pasigurt me cilësi të lartë, nuk e di nëse një rezultat është i gabuar për shkak të paqartësisë, mungesës së kontekstit, të dhënave të vjetra ose një gabimi në model. Nëse nuk e di pse është i gabuar,” tha ai, “nuk jam i investuar në suksesin e tij”, thotë Gopal.
Ky informacion ka rëndësi sepse riformulon të gjithë bisedën. Nëse IA nuk po dështon për shkak të mungesës së aftësive, por sepse nuk është projektuar për të komunikuar kufijtë e saj dhe për të mësuar nga korrigjimet, atëherë zgjidhja ka të bëjë më pak me ndërtimin e modeleve më të mëdha, dhe më shumë me ndërtimin e modeleve më të thjeshta.