Ndërlidhjet

Video-lojërat dhe inteligjenca artificiale ushqejnë dezinformatat për luftërat


Fotografi e nxjerrë nga një video që, sipas Forcave të Mbrojtjes së Izraelit, shfaq ushtarë izraelitë në një pozicion luftarak gjatë një operacioni tokësor në Rripin e Gazës, më 8 nëntor 2023.
Fotografi e nxjerrë nga një video që, sipas Forcave të Mbrojtjes së Izraelit, shfaq ushtarë izraelitë në një pozicion luftarak gjatë një operacioni tokësor në Rripin e Gazës, më 8 nëntor 2023.

Reuters

Kishte diçka që nuk shkonte në një video të Rrezes së Hekurt, sistemit më të ri të mbrojtjes ajrore laserike të Izraelit, por shumë njerëz, mes milionave që e shikuan dhe e shpërndanë atë në rrjetet sociale, nuk ishin në dijeni.

Xhirimi mëtoi të shfaqte dhjetëra raketa të grupit ekstremist palestinez Hamas – i shpallur organizatë terroriste nga Shtetet e Bashkuara të Amerikës dhe Bashkimi Evropian – duke fluturuar në qiellin e natës, para se të shiheshin shkëndija shpërthimesh në ajër, teksa arma e re me laser e Izraelit, e cila ende nuk është futur në përdorim, i rrëzonte ato.

Kaloi një javë, dhe u regjistruan miliona shikime, para se verifikuesit të zbulonin të vërtetën. Rrjetet sociale, Facebook dhe X, më pas i etiketuan postimet.

“Kjo është videolojë”, thuhej në sqarimin e vendosur në X, që dikur njihej si Twitter.

Që nga sulmi që Hamasi kreu ndaj Izraelit më 7 tetor, loja e simulimeve ushtarake, “Arma 3”, është bërë burim i një morie videosh, që janë përdorur për të përhapur dezinformata përmes llogarive që kanë qindra mijëra ndjekës në rrjetet sociale.

Ekspertët e teknologjisë dhe të video-lojërave paralajmërojmë se përderisa krijuesit e lojërave po e shfrytëzojnë inteligjencën artificiale për t’i bërë produktet e tyre më realiste, disa modifikues të lojërave po e përdorin po të njëjtën teknologji për të prodhuar video të rreme, që vështirë dallohen. Kjo, më pas, ndihmon në përhapjen e narrativëve të rremë për ngjarjet dhe konfliktet nëpër botë.

“Teknologjia e inteligjencës artificiale po avancon shpejt. Studiot krijuese të lojërave po e përdorin atë në proceset e tyre kreative, ashtu sikurse edhe modifikuesit”, thotë Michael Cook, hulumtues i përdorimit të inteligjencës artificiale në krijimin e video-lojërave në King’s College, në Londër.

Kjo përbën sfidë për kompanitë e rrjeteve sociale, platformat e së cilave përdoren për të publikuar video të fabrikuara dhe për të përhapur narrativë të rrejshëm.

“Edhe sot, ne shpesh nuk i vërejmë gabimet në fotografitë e krijuara nga inteligjenca artificiale, kur i shikojmë ato shpejt në Facebook. Gjendja do të përkeqësohet, para se të përmirësohet”, shprehet Cook për Fondacionin Thomson Reuters.

“Fatkeqësisht, unë mendoj se kjo do të ndikojë që njerëzit, thjesht, të ndalen së besuari krejtësisht atë që e shohin në internet”, paralajmëron ai.

“Arma 3” i lejon përdoruesit ta modifikojnë lojën në masë të madhe, për të përfshirë harta, armë dhe automjete specifike, pa aftësi të avancuara teknike. Kjo e bën të lehtë krijimin e videove dhe shpërndarjen e lajmeve të rreme.

“Gjetja dhe demantimi i këtyre videove të rreme është kryesisht përpjekje e përbashkët: një që përfshin krijuesit, pastaj lojtarët e lojës ‘Arma’ dhe komunitetet e tyre, dhe organizatat e specializuara për verifikimin e lajmeve”, thotë Pavel Krizka, zëdhënës i kompanisë Bohemia Interactive, e cila e ka krijuar video-lojën “Arma 3”.

Por, sipas tij, “edhe me ndihmën e këtyre profesionistëve, eliminimi i problemit është i pamundur”.

Më 2022, “Arma” është përdorur për të krijuar një video prej 36 minutash, e karakterizuar si lajm i fundit për pushtimin rus të Ukrainës; një vit më parë, loja është përdorur për të krijuar një xhirim që thuhej se shfaqte një sulm ajror pakistanez në Afganistan.

Krizka thotë se kompania merret me këto lloj video që nga viti 2009. Për më tepër, avancimet në teknologjinë që përdoret për krijimin e lojërave dhe në inteligjencën artificiale nënkuptojnë që problemi vetëm sa do të përkeqësohet, vlerëson ai.

Dallimi i fabrikimit nga realiteti

Industria globale e video-lojërave vlen rreth 187.7 miliardë dollarë, teksa shpenzime të mëdha bëhen për aparate si PlayStation i Sony-t, dhe Xbox i Microsoft-it, si dhe për vetë video-lojërat.

Aktualisht, video-lojërat kanë të meta të qarta, të cilat zbulojnë origjinën e tyre, shpjegon Krizka.

Realizimi i lëvizjeve natyrale të njerëzve është ende gjë shumë e vështirë, edhe për lojërat më moderne, ashtu siç është gjurmimi i lëvizjes së elementeve të zjarrit, tymit apo pluhurit pas një shpërthimi.

Për ta luftuar këtë, aktorë të këqij ulin cilësinë e pamjeve të marra nga video-lojërat apo e xhirojnë ekranin me një telefon të mençur – duke dridhur qëllimisht dorën – për të sugjeruar se pamjet janë xhiruar në fronte të vërteta luftimesh.

Verifikuesit e lajmeve munden, prapëseprapë, ta dallojnë origjinën e videos origjinale, thotë Pippa Allen-Kinross, redaktore e lajmeve në Full Fact, një organizatë londineze e verifikimit të lajmeve, por këto praktika e lehtësojnë shpërndarjen e dezinformatave online.

Megjithatë, teksa teknologjia që përdoret për krijimin e video-lojërave po përmirësohet, lëshimet mund bëhen diçka e së kaluarës, teksa kompanitë po synojnë të krijojnë gjithnjë e më shumë realizëm në lojërat e tyre të ardhshme.

A mund të kontrollohet inteligjenca artificiale?
Ju lutem prisni

No media source currently available

0:00 0:03:03 0:00

Ndalja e përhapjes së videove të rreme

Ndërkohë, kompanitë e rrjeteve sociale janë gjendur nën trysni për atë që shihet si dështim i tyre për të luftuar në mënyrë adekuate dezinformatat, një çështje që zmadhohet nga konfliktet nëpër botë.

Platformat sociale përdorin inteligjencën artificiale për të moderuar përmbajtjen në to, por realizmi i video-lojërave i ka sfiduar sistemet e tyre.

Më 2019, kur një sulm me të shtëna në masë në Zelandë të Re u transmetua drejtpërdrejt në Facebook, kompania që e zotëron atë, Meta, tha se sistemi i saj automatik i detektimit nuk u aktivizua, për shkak të mungesës së raportimit nga njerëzit dhe ngjashmërisë me përmbajtjen e video-lojërave.

“Një tjetër sfidë është dallimi automatik i kësaj përmbajtjeje nga përmbajtja e parrezikshme, vizualisht e ngjashme – për shembull, nëse sistemet tona ndalin mijëra video nga lojërat që transmetohen drejtpërdrejt teksa luhen, verifikuesit tanë mund të mos i shohin videot e rëndësishme nga bota reale, ku ne mund t’i alarmojmë reaguesit e parë për të ofruar ndihmë në terren”, shkroi asokohe Guy Rosen, ish-nënpresident i menaxhimit të produkteve në Meta.

E, sipas Allen-Kinross, “teksa video-lojërat avancohen dhe bëhen më realiste, dallimi i tyre nga ngjarjet e vërteta do të bëhet më i vështirë”.

Barriera hyrëse për gjenerimin e dezinformatave do të vazhdojë të ulet nga avancimet në fushën e video-lojërave dhe të inteligjencës artificiale, por problemi më serioz është më shumë social sesa teknologjik, pohojnë ekspertët.

“Një dezinformatë është efektive kur ajo prek shqetësimet, vlerat dhe identitetet e njerëzve”, thotë Sacha Altay, hulumtues në Laboratorin për Demokraci Digjitale në Universitetin e Cyrihut.

“Për ta bërë këtë, nuk të nevojitet teknologjia e sofistikuar, duhet vetëm të kuptosh kërkesën aktuale për narrativë të caktuar. Këtë e bëjnë udhëheqësit populistë - e rrokin mikrofonin dhe bërtasin”.

Përgatiti: Trim Haliti

Përdorimi i përmbajtjes sonë

⚠️ Përmbajtja e ueb-faqes dhe/apo platformave të tjera digjitale të Radios Evropa e Lirë mbrohet nga ligjet amerikane dhe ndërkombëtare për të drejtën e autorit.

Mirëpresim ripërdorimin, ripublikimin dhe rishpërndarjen e përmbajtjes sonë, të publikuar në platformat tona digjitale, me kusht që të na citoni drejt si "Radio Evropa e Lirë", bashkë me linkun që çon te përmbajtja jonë origjinale.

Më shumë materiale

XS
SM
MD
LG