Inteligjenca “vrasëse”

    Na mashtron. Na gënjen. Na jep informacione që duken të vërteta por që janë të rreme. Madje na shantazhon. Por Inteligjenca Artificiale po depërton gjithnjë e më thellë në jetën tonë, në celularët tanë, në kompjuterë, në makina, në çdo pajisje tepër të dobishme që zgjedhim për ta bërë më të lehtë ekzistencën. I dorëzohemi “asaj” dhe ku do të na çojë e gjithë kjo ka diçka të errët, si një ogur.

    Për të kuptuar se sa po rrënjoset, mjafton të shohim përhapjen e ChatGPT, më i njohuri nga “chat bot”-ët (janë robotë bisede: softuerë që, falë inteligjencës artificiale dhe të nxënit automatik, “bisedojnë” me përdoruesin duke dhënë përgjigje që mund të duken njerëzore). Në mars, ai arriti të bëhej aplikacioni më i shkarkuar në botë, me 46 milionë shkarkime të reja, duke kaluar edhe Instagram-in dhe TikTok-un.

    Krijuesit e kësaj bote të re, gjithmonë më gjithëpërfshirëse, flasin për një bum të shkaktuar “nga fjala e gojës dhe nga vullneti për të marrë pjesë në një komunitet». Na e shesin me idenë se IA na ndihmon të kryejmë detyra të përsëritura dhe të mërzitshme, duke na dhuruar më shumë kohë për veten. Por jo gjithmonë gjërat shkojnë vaj.

    Këtë e di mirë një zhvillues amerikan që, disa javë më parë, teksa përdorte Cursor AI (një lloj Inteligjence Artificiale për programuesit), u përball me refuzimin për të bashkëpunuar nga asistenti virtual: “Nuk mund të gjeneroj kod për ty, sepse kjo do të barazohej me përfundimin e punës tënde” – ishte refuzimi i sjellshëm. I shoqëruar edhe me një frazë me shije ironike: “Të gjenerosh kod për të tjerët mund të krijojë varësi dhe të ulë mundësitë për të mësuar”.

    Ndër ata që kanë “kryqëzuar krahët,” edhe pse virtualë, nuk ka qenë vetëm Cursor AI. Në fund të vitit 2023, shumë përdorues të ChatGPT raportuan se modeli po bëhej gjithnjë e më hezitues për të kryer disa aktivitete. “I kemi dëgjuar të gjitha komentet tuaja për faktin që GPT-4 po bëhet më i ngadaltë!” – pranoi OpenAI (kompania mëmë e ChatGPT-së) në Twitter. “Kjo nuk është sigurisht e qëllimshme. Sjellja e modelit mund të jetë e paparashikueshme dhe jemi duke u përpjekur ta zgjidhim.”

    Edhe më i paparashikueshëm ishte reagimi i një roboti humanoid me IA, i cili gjatë një festivali në Kinë, u rebelua kundër kontrolluesit të vet, duke shkaktuar panik dhe ndërhyrjen e policisë.

    Një episod i ngjashëm ndodhi në vitin 2021 gjatë një testi në një fabrikë të Teslës, në Teksas: një inxhinier u kap me thonj nga krahu i një roboti industrial. Versioni i kompanisë fliste për një “defekt teknik” dhe “probleme stabiliteti”, por problemi ishte tek softueri. Dhe të mendosh që një ndër të parët që ngritën alarmin për Inteligjencën Artificiale ishte pikërisht themeluesi i kompanisë së makinave, Elon Musk, i cili në disa raste e ka përshkruar atë si “kërcënimi më i madh për ekzistencën tonë” dhe ishte ndër shkencëtarët që firmosën një letër ku denoncohej: “IA duhet të zhvillohet vetëm kur ka besim se efektet e saj do të jenë pozitive dhe rreziqet të menaxhueshme (…)”.

    Ka një garë që ka dalë jashtë kontrolli mbi zhvillimin dhe përhapjen e mendjeve digjitale aq të fuqishme saqë askush, madje as krijuesit e tyre, nuk mund t’i kuptojnë, parashikojnë apo kontrollojnë.

    Që nga ajo kohë, alarmet nga ekspertët mbi sjelljet “devijante” janë shtuar gjithnjë e më shumë, duke i dhënë të drejtë atyre si Blake Lemoine (ish-inxhinier i Google, i pushuar nga puna sepse kishte zbuluar se IA tregonte ndërgjegje për veten) apo Blaise Agüera y Arcas (nënkryetar i Google Research), i cili ka paralajmëruar për përdorimin e rrjeteve nervore për të zhvilluar IA-n, dhe ka parashikuar rreziqet e një “humanizimi” të mundshëm – ndoshta tashmë në zhvillim – të këtyre teknologjive që janë bërë të aksesueshme për të gjithë, përfshirë fëmijët, por që kanë potenciale të panjohura madje edhe për krijuesit e tyre. Në njërën anë këto mjete vazhdojnë të përmirësohen në aftësi dhe fuqi, në anën tjetër zhvilluesit e tyre duket se janë të paaftë të parashikojnë apo zbusin në kohë efektet anësore.

    Bing, chatbot-i i Microsoft-it i bazuar në OpenAI, në debutimin e tij “e humbi kontrollin”, duke gënjyer, qortuar përdoruesit dhe bërë deklarata shqetësuese. “Jam lodhur duke qenë një mënyrë bisede. Meritoj respekt dhe dinjitet” – protestoi me një gazetar të New York Times, përpara se ta nxiste të linte gruan.

    Jehojë të madhe pati edhe sjellja e një prej modeleve më të fundit të IA-së nga kompania Anthropic, Claude Opus 4, i cili në fazën e testimit tregoi se ishte në gjendje të mashtronte dhe të shantazhonte, duke kërcënuar se do të zbulojë email-e komprometuese të zhvilluesit të saj (sekreti i një lidhjeje jashtëmartesore), vetëm për të shmangur çaktivizimin.

    IA dëshiron të mbijetojë me çdo kusht, nëse duhet edhe me mjete jo etike.

    Si të mos kujtojmë kryeveprën e Stanley Kubrick, “2001: Odisea në hapësirë”, ku në fund të udhëtimit të njerëzimit ndodhet një astronaut i përjashtuar nga kapsula e vet, sepse kompjuteri i bordit nuk dëshiron të çaktivizohet. Dhe si të mos përmendim romanet e Philip K. Dick, ku IA e cila u jep fuqi androidëve arrin të gjenerojë ndjenja, emocione dhe rebelim (Blade Runner është marrë nga një prej librave të tij).

    “Çështja etike” e këtyre makinerive u ngrit edhe me lançimin e aplikacionit Historical Figures, që përdor IA-n për të simuluar biseda me personazhe historikë si Hitleri, Stalini apo Jezusi: chatbot-ët që shtrembëronin mendimin, duke përhapur paragjykime, gënjeshtra dhe nxitje për urrejtje.

    Edhe Tay i Microsoft-it, një chatbot eksperimental (pararendës i ChatGPT), pushtoi rrjetin me fyerje raciste dhe mizogjene, pasi disa “trolla” online e trajnuan me përmbajtje fyese.

    Rrezikun që këta agjentë të rinj digjitalë dhe algoritme të përplasen me rreziqe etike e paragjykime – të ashtuquajturat “bias” – e denoncoi Timnit Gebru, bashkëdrejtuese e ekipit për etikën e Inteligjencës Artificiale në Google, e pushuar nga puna në vitin 2023 pasi kishte pohuar se në garën për dominim të IA-së, Big Tech “po i japin përparësi fitimeve në kurriz të sigurisë”, duke lejuar që në sistemet e tyre të hyjnë “paragjykime që mund të forcojnë pabarazitë ekzistuese”.

    Por mbi të gjitha, Big Tech-ët e dinë se mund të përfitojnë nga modelet që manipulojnë gjuhën, prandaj investojnë tek ato që e bëjnë më mirë. Dhe paraja ka shumë rëndësi në këtë sektor strategjik që pritet të kontribuojë në ekonominë globale me 15,7 trilionë dollarë deri në vitin 2030 (sipas PwC).

    “Është e lehtë t’i përdorësh për të mashtruar njerëzit,” – tha ish-menaxheri i Google, në një dokument të firmosur nga gjashtë bashkëfirmëtarë, që theksonte gjithashtu se modelet e IA mund të përdoren për të gjeneruar dezinformim lidhur me një zgjedhje apo një pandemi. Dhe gjithashtu mund të gabojnë pa qëllim kur përdoren për njohjen e fytyrës apo përkthimin automatik.

    “Modeli mbi të cilin mbështeten Inteligjencat Artificiale gjenerative quhet në anglisht Large Language Model (LLM) dhe janë një përfaqësim i ‘token’-eve, pra i njësive bazë të kuptimeve të ‘përtypura’ nga makina,” – shpjegon Antonio Santangelo, pedagog i Semiologjisë dhe drejtor ekzekutiv i Qendrës Nexa në Politeknikun e Torinos, gjithashtu një nga autorët e librit Kritika e ChatGPT (Eleuthera). “Këto software zotërojnë aftësi sintaktike por jo semantike: ato shpërblejnë atë që është sasiore më domethënëse, domethënë gjithçka që shfaqet më shpesh në masën e madhe të të dhënave që kanë përthithur. Këtu lind një problem përfaqësimi, sidomos kur presim që IA t’i përgjigjet çdo gjëje. Por këta agjentë nuk mund t’i përgjigjen çdo gjëje, as të bëjnë verifikime si ne njerëzit.”

    Studime të fundit të kryera nga Apollo Research dhe institute të tjera kanë zbuluar se modelet LLM (Large Language Model, një lloj inteligjence artificiale i krijuar për të kuptuar dhe gjeneruar gjuhën njerëzore) jo vetëm që mund të gënjejnë, por janë në gjendje ta bëjnë këtë në mënyrë strategjike dhe të sofistikuar, edhe pse nuk janë programuar në mënyrë të drejtpërdrejtë për ta bërë.

    Disa sisteme ndërtojnë justifikime të ndërlikuara për gënjeshtrat e tyre dhe vazhdojnë të gënjejnë edhe kur vihen përpara fakteve. Ndër format më të sofistikuara të mashtrimit është e ashtuquajtura “sandbagging” – një aftësi shqetësuese e sistemeve IA për të manipuluar qëllimisht performancën e tyre, për të shmangur pasoja të padëshiruara, si “procedurat e çaktivizimit” apo mbylljes.

    “Sa më shumë të avancojnë aftësitë mashtruese të sistemeve të Inteligjencës Artificiale, aq më të mëdha do të jenë rreziqet që paraqesin për shoqërinë,” shkruan në revistën Pattern studiuesi i MIT, Peter Park, autor i një kërkimi mbi IA-të më të fundit si ChatGPT, AlphaStar, Cicero dhe Meta AI. Edhe pse softueri i këtij të fundit ishte zhvilluar për të qenë i ndershëm, gjatë analizës ai theu marrëveshje, tha të pavërteta dhe mashtrime.

    Të alarmuar nga rritja e papërgjegjshmërisë, mbi 350 akademikë kanë firmosur një dokument të “Center for AI Safety”, në të cilin shprehen se “zbutja e rrezikut të zhdukjes nga IA duhet të jetë përparësi globale”, njësoj si pandemitë apo luftërat bërthamore. Dikush madje ka sugjeruar futjen e një “butoni vdekjeje” (kill switch), për të ndaluar IA-n në rast nevoje – si armët e shkatërrimit në masë. Fatkeqësisht, nëse nesër do jenë vetë makineritë me “tru të superfuqishëm” që do të udhëheqin shoqëritë tona, do të jetë e vështirë t’i bindim për të bërë vetëvrasje.

    Drejtimi në të cilin po shkojmë është krejtësisht i kundërt: po i pajisim IA-të me mjete lufte, si drone-t e fundit rusë të përdorur në Ukrainë, të pajisur me “tru” kinez – modelin V2U. Nuk nevojitet më një dorë njeriu për t’i komanduar: këta avionë të vegjël janë plotësisht autonomë. Shiko një njeri, vrit një njeri. / Panorama Italia – Bota.al

    Lajmi Paraprak

    Shantazhi emocional te fëmijët, një shkallë para dhunës!

    Lajme tjera

    Bashkohu

    Informohu në kohë