AFP
Ushtria izraelite tha se Inteligjenca Artificiale (IA) ndihmon në shënjestrimin më të saktë të ekstremistëve gjatë luftës pesëmujore ndaj Hamasit.
Por, përderisa numri i viktimave po rritet në Gazë në luftën mes Izraelit dhe Hamasit – grupit palestinez të shpallur organizatë terroriste nga Shtetet e Bashkuara dhe Bashkimi Evropian – ekspertët kanë ngritur pyetje se sa efektive në të vërtetë mund të jenë algoritmet e IA-së.
Ministria e Shëndetësisë në Rripin e Gazës të udhëhequr nga Hamasi tha se lufta ka vrarë mbi 30.000 persona, shumica civilë.
“Ose IA-ja është aq e mirë siç pretendohet dhe IDF-ja [ushtria izraelite] nuk brengoset për dëmin kolateral, ose IA-ja nuk është aq e mirë saqë pretendohet”, tha për AFP-në, Toby Walsh, kryeshkencëtar në Institutin për AI të Universitetit të Uellsit Jugor të Ri në Australi.
Ministria e Shëndetësisë në Gazë në informacionet që publikon për viktimat nuk specifikon numrin e luftëtarëve të vrarë të Hamasit.
Izraeli ka thënë se forcat e tij kanë “eliminuar 10.000 terroristë” që kur nisi lufta më fillim të tetorit, luftë që u nxit nga sulmi vdekjeprurës i Hamasit në jug të Izraelit.
Pretendimi i Izraelit se përdor algoritmet shton edhe shqetësimin për aktivistët, të cilët veçse kanë ngritur alarmin se pajisjet me inteligjencë artificiale, sikurse dronët dhe armët që po vendosen në Gazë.
Ushtria izraelite tha për AFP-në se nuk ka asnjë koment lidhur me sistemet e saj që përdorin IA-në.
Por, ushtria vazhdimisht ka pretenduar se forcat e saj shënjestrojnë vetëm ekstremistët dhe marrin masa për të shmangur dëmet në mesin e civilëve.
“Sulme precize”
Izraeli nisi të lëvdonte shënjstrimin përmes IA-në pas një konflikti 11-ditor në Gazë në maj të vitit 2021, që komandantët e cilësuan si “luftën e parë me IA” në botë.
Shefi i ushtrisë gjatë luftës së vitit 2021, Aviv Kochavi, vitin e kaluar deklaroi për median izraelite Ynet se forcat kishin sisteme të IA-së për të identifikuar “100 shënjestra të reja çdo ditë”.
“Në të kaluarën, ne prodhonim 50 shënjestra në Gazë në vit”, tha ai.
Ofensiva aktuale në Gazë nisi pasi Hamasi më 7 tetor kreu sulm që rezultoi në vrasjen e 1.200 personave në Izrael, shumica civilë.
Javë më vonë, një shkrim i ri në ueb-faqen e ushtrisë izraelite thoshte se “drejtoria e shënjestrimit” me AI e saj kishte identifikuar më shumë se 12.000 shënjestra në vetëm 27 ditë.
Një zyrtar i paidentifikuar izraelit u citua të ketë thënë se sistemi IA, i quajtur Gospel, ka prodhuar shënjestra “për sulme precize në infrastrukturën e lidhur me Hamasin, duke shkaktuar dëm të madh në armikun dhe dëm minimal ndaj atyre që nuk ishin të përfshirë”.
Por, një ish-zyrtar anonim i inteligjencës izraelite, sipas revistës izraelito-palestineze, +972, në nëntor e përshkroi punën e sistemit Gospel si krijim “të një fabrike të vrasjes në masë”.
Duke cituar burime të inteligjencës kjo media tha se Gospel mbledh sasi të mëdha të dhënash më shpejt sesa “dhjetëra mijëra zyrtarë të inteligjencës” dhe identifikon, në kohë reale, vendndodhje që ka të ngjarë të përdoren nga ekstremistë të dyshuar.
Megjithatë, burimet nuk dhanë detaje për të dhënat që futen në sistem apo për kriteret që përdoren për të përcaktuar shënjestrat.
“Të dhëna të dyshimta”
Disa ekspertë i thanë AFP-së se ushtria ka të ngjarë që e ushqen sistemin me pamje nga dronët, nga postimet në rrjetet sociale, me informacione nga agjentët në terren, vendndodhjet e marra nga telefonat mobilë dhe të dhëna të tjera të vëzhgimit.
Sapo sistemi identifikon një shënjestër, përdor të dhënat e popullatës nga burimet zyrtare për të vlerësuar gjasat e dëmeve në mesin e civilëve.
Por, Lucy Suchman, profesoreshë e shkencës së antropologjisë dhe teknologjisë në Universitetin Lankaster të Britanisë, tha se ideja që më shumë të dhëna mund të prodhojnë shënjestra më të mira është e pavërtetë.
Algoritmet janë trajnuar për të gjetur elemente të caktuara në të dhënat që përkojnë me një cilësim të posaçëm, në konfliktin e Gazës me gjasë ky cilësim është “lidhjet me Hamasin”, tha ajo.
Çdo element i caktuar në të dhënat që përkon me lidhjet e identifikuara më parë gjeneron një shënjestër të re, por çdo “supozim i dyshimtë” do të amplifikohej, shpjegoi Suchman.
“Me fjalë të tjera, të dhënat e dyshimta janë të barabarta me sisteme të këqija”.
“Në kontrollin e njerëzve”
Izraelitët nuk janë forcat e para luftuese që përdorin shënjestrime të automatizuara në fushëbetejë.
Që nga Lufta e Gjirit më 1990-91, ushtria amerikane ka punuar në algoritme për të përmirësuar shënjestrimin.
Në fushatën e bombardimeve më 1999 në Kosovë, NATO nisi të përdorte algoritmet për të llogaritur viktimat e mundshme civile.
Dhe ushtria amerikane ka punësuar kompaninë sekrete të të dhënave, Palantir, për t’i ofruar të dhëna të fushëbetejës në Afganistan.
Mbështetësit e kësaj teknologjie vazhdimisht kanë insistuar se ajo është e avancuar mjaftueshëm sa të jetë e besueshme.
Por, disa analistë ushtarakë janë shprehur skeptikë se kjo teknologji është mjaftueshëm e avancuar sa të jetë e besueshme.
Në një postim për blogun e Institutit britanik për Shërbime të Bashkuara Mbretërore, analisti Noah Sylvia tha muajin e kaluar se njerëzit ende duhet të kontrollojnë çdo rezultat të sistemeve që funksionojnë me IA.
Ushtria izraelite “është një prej ushtrive më të avancuara në aspektin teknologjik dhe më të integruara në botë”, tha ai.
Por, “shanset që ushtria izraelite të përdor IA-në një shkallë të tillë të sofistikimit dhe në mënyrë kaq autonome janë të ulëta”.