Modelet e mëdha gjuhësore nuk shqetësohen për të vërtetën, sepse nuk kanë asnjë koncept për të – dhe pikërisht këtu qëndron rreziku.
Nga: John Thornhill / The Financial Times
Përktheu: Agron Shala / Telegrafi.com
Sipas filozofit Harry Frankfurt, gënjeshtrat nuk janë armiku më i madh i së vërtetës. Broçkullat janë edhe më të këqija.
Siç e shpjegoi ai në eseun e tij klasik Për broçkulla [On Bullshit, 1986], një gënjeshtar dhe një njeri që thotë të vërtetën janë duke luajtur të njëjtën lojë, por në anë të kundërta. Secili reagon ndaj fakteve sipas mënyrës si i kupton ato dhe ose e pranon ose e refuzon autoritetin e së vërtetës. Por, ai që flet broçkulla injoron krejtësisht këto kërkesa. “Ai nuk e refuzon autoritetin e së vërtetës, siç bën gënjeshtari, dhe nuk i kundërvihet asaj. Ai thjesht nuk i kushton asnjë vëmendje. Për këtë arsye, broçkullat janë armiku më i madh i së vërtetës sesa gënjeshtrat”. Një person i tillë dëshiron të bindë të tjerët, pavarësisht nga faktet.
Fatkeqësisht, Frankfurti vdiq në vitin 2023, vetëm disa muaj pas lëshimit të ChatGPT-së. Por, leximi i esesë së tij në epokën e inteligjencës gjenerative artificiale [IA] ngjall një ndjesi të njohur, por shqetësuese. Në disa aspekte, eseja e Frankfurtit përshkruan saktësisht produktin e modeleve të mëdha gjuhësore [LMM] me inteligjencë artificiale. Ato nuk shqetësohen për të vërtetën, sepse nuk kanë asnjë koncept për të. Ato funksionojnë mbi bazën e korrelacioneve statistikore, jo përmes vëzhgimeve empirike.
“Forca e tyre më e madhe, por edhe rreziku më i madh, është aftësia për të tingëlluar autoritare për pothuajse çdo temë, pavarësisht nga saktësia faktike. Me fjalë të tjera, superfuqia e tyre është aftësia mbinjerëzore për të treguar broçkulla”, kanë shkruar Carl Bergstrom dhe Jevin West. Dy profesorët nga Universiteti i Uashingtonit ofrojnë një kurs në internet – Orakujt modernë apo makinat e broçkullave? [Modern-Day Oracles or Bullshit Machines?] – që analizon këto modele. Të tjerë i kanë quajtur produktet e këtyre makinave “botçkulla” [botshit].
Një nga tiparet më të njohura dhe shqetësuese, por ndonjëherë edhe kreative të LLM-ve, është “halucinimi” i fakteve – ose thjesht shpikja e tyre. Disa studiues argumentojnë se kjo është një veçori e brendshme e modeleve të probabilitetit, jo defekt që mund të rregullohet. Por, kompanitë e IA-së po përpiqen ta zgjidhin këtë problem duke përmirësuar cilësinë e të dhënave, duke i përshtatur më mirë modelet dhe duke ndërtuar sisteme verifikimi dhe kontrolli faktesh.
Megjithatë, duket se kanë ende rrugë për të bërë, duke marrë parasysh se një avokat i kompanisë Anthropic i tha një gjykate në Kaliforni, këtë muaj, se firma e tyre ligjore kishte dorëzuar pa dashje një citim të gabuar, të halucinuar nga Claude – modeli i IA-së i kompanisë. Siç paralajmëron edhe çetboti i Google-it: “Gemini mund të bëjë gabime, përfshirë ato në lidhje me njerëzit, ndaj verifikoni dy herë”. Kjo nuk e ndaloi Google-in që këtë javë të prezantonte një “modalitet të IA-së” në të gjitha shërbimet e saj kryesore në ShBA.
Mënyrat me të cilat këto kompani po përpiqen të përmirësojnë modelet e tyre, përfshirë mësimin përforcues nga reagimet dhe informatat e njerëzve, paraqesin rrezik për futjen e paragjykimeve, shtrembërimeve dhe gjykimeve të pavetëdijshme të vlerave. Siç ka treguar Financial Times, çetbotët e IA-së nga OpenAI, Anthropic, Google, Meta, xAI dhe DeepSeek përshkruajnë cilësitë e drejtorëve të tyre ekzekutivë dhe të rivalëve në mënyra shumë të ndryshme. Grok-u i Elon Muskut gjithashtu ka promovuar meme për “gjenocidin e bardhë” në Afrikën e Jugut, në përgjigje të shtytjeve krejtësisht të palidhura. xAI tha se e kishte rregulluar problemin, për të cilin fajin e kishte një “modifikim i paautorizuar”.
Këto modele krijojnë një kategori të re, edhe më të rrezikshme për dëm të mundshëm – ose “të folurit e pakujdesshëm”, thonë Sandra Wachter, Brent Mittelstadt dhe Chris Russell, në një punim të Institutit të Internetit në Oksford. Sipas tyre, të folurit pakujdesshëm mund të shkaktojë dëme të pakapshme, afatgjata dhe kumulative. Është si një “broçkull e padukshme” që e bën shoqërinë më të pamend, thotë Wachter.
Të paktën me një politikan apo një shitës, ne zakonisht mund të kuptojmë motivimin e tyre. Por, çetbotët nuk kanë qëllim dhe ata janë të përshtatur për besueshmëri dhe angazhim, jo për saktësi. Ata do të shpikin fakte pa asnjë qëllim. Ata mund ta ndotin bazën e njohurive të njerëzimit në mënyra të paimagjinueshme.
Pyetja interesante është nëse modelet e IA-së mund të projektohen për një nivel më të lartë të vërtetësisë. A do të ketë kërkesë nga tregu për to? Apo zhvilluesit e modeleve duhet të detyrohen të përmbushin standarde më të larta të së vërtetës, siç për shembull ndodh me reklamuesit, avokatët dhe mjekët? Wachter sugjeron se zhvillimi i modeleve më të vërteta do të kërkonte kohë, para dhe burime – pikërisht gjërat për të cilat versionet aktuale janë krijuar për të kursyer. “Është si të duash që një makinë të jetë aeroplan. Mund ta hedhësh makinën nga shkëmbi, por nuk do të sfidojë gravitetin”, thotë ajo.
Megjithatë, modelet gjenerative të AI-së mund të jenë ende të dobishme dhe me vlerë. Shumë karriera fitimprurëse – dhe politike – janë ndërtuar mbi broçkulla. Nëse përdoren në mënyrë të përshtatshme, IA-ja gjenerative mund të shfrytëzohet për një mori rastesh përdorimi në biznes. Por, është mashtruese dhe e rrezikshme të ngatërrosh këto modele me makina të së vërtetës.