Çfarë rreziqesh përbëjnë modelet e avancuara të IA-së në duart e gabuara?

Një robot pranë fjalëve: Inteligjencë Artificiale. (Fotografi ilustruese nga arkivi)

Reuters

Administrata e presidentit Joe Biden është e gatshme ta hapë një front të ri në përpjekje për ta mbrojtur Inteligjencën Artificiale (IA) të Shteteve të Bashkuara nga Kina dhe Rusia. Planet e saj fillestare janë vendosja e masave mbrojtëse përreth modeleve më të avancuara të IA-së.

Hulumtuesit qeveritarë dhe ata nga sektori privat shqetësohen se armiqtë e SHBA-së mund t’i përdorin këto modele – të cilat gërmojnë sasi të mëdha tekstesh dhe fotografish për të mbledhur informata dhe për të prodhuar përmbajtje – për të kryer sulme agresive kibernetike, apo edhe për të krijuar armë të fuqishme biologjike.

Më poshtë mund t’i lexoni disa prej kërcënimeve nga IA:

Materialet e manipuluara dhe keqinformatat

Materialet e manipuluara – video të sajuara që duken të vërteta, të krijuara nga algoritmet e IA-së përmes pamjeve me bollëk online – janë duke dalë në sipërfaqe në rrjetet sociale dhe po i mjegullojnë faktet dhe trillimet në botën e polarizuar të politikave amerikane.

Derisa video të tilla artificiale ekzistojnë tash e disa vite, ato janë bërë shumë më të fuqishme në vitin e fundit falë një morie mjetesh të reja të “IA-së gjenerative”, si Midjourney, të cilat e bëjnë më të lehtë dhe më pak të kushtueshme krijimin e materialeve të manipuluara bindëse.

SHIKONI EDHE: Rreziku prej inteligjencës artificiale në përçarjen e botës në kohë zgjedhjesh

Mjetet për krijimin e pamjeve përmes Inteligjencës Artificiale nga kompanitë si, OpenAI dhe Microsoft, mund të përdoren për të prodhuar fotografi të cilat mund të promovojnë zgjedhjet, apo dezinformata në lidhje me zgjedhjet, pavarësisht se secila prej tyre ka politika kundër krijimit të përmbajtjes keqinformuese, thanë hulumtuesit në një raport të publikuar në mars.

Disa fushata dezinformuese thjesht e shfrytëzojnë aftësinë e IA-së për t’i imituar artikujt e lajmeve të mirëfillta, si mjet për shpërndarjen e informatave të rrejshme. Disa platformat të mëdha në rrjetet sociale si, Facebook, X dhe YouTube, kanë bërë përpjekje për ndalimin dhe fshirjen e materialeve të manipuluara.

Për shembull, vitin e kaluar, një portal i lajmeve i kontrolluar nga Qeveria kineze që përdor një platformë të IA-së, e kishte publikuar një artikull të rrejshëm, që kishte qarkulluar më parë, se Shtetet e Bashkuara e udhëheqin një laborator në Kazakistan për krijimin e armëve biologjike për përdorim kundër Kinës, tha Departamenti amerikan për Siguri Kombëtare në një vlerësim për kërcënimin ndaj sigurisë kombëtare për vitin 2024.

Këshilltari për siguri kombëtare i Shtëpisë së Bardhë, Jake Sullivan, duke folur në një ngjarje për IA-në të mërkurën në Uashington, tha se ky problem nuk mund zgjidhet lehtë, sepse është kombinim i aftësive të IA-së me “qëllimin e aktorëve shtetërorë dhe joshtetërorë, për të përdorur dezinformata, për t’i prishur demokracitë, për të çuar përpara propaganda dhe për ta ndryshuar perceptimin në botë”.

SHIKONI EDHE: Ç'është Sora, programi i ri i inteligjencës artificiale që krijon video nga teksti?

Armët biologjike

Komuniteti i inteligjencës amerikane, grupet hulumtuese dhe akademikët, janë tejet të shqetësuar për rreziqet që vijnë nga aktorët e huaj të këqij, të cilët sigurojnë qasje në kapacitetet e IA-së. Hulumtuesit në Gryphon Scientific and Rand Corporation theksuan se modelet e avancuara të IA-së mund të ofrojnë informata të cilat mund të jenë të dobishme për krijimin e armëve biologjike.

Gryphon analizoi se si modelet e gjuhëve të mëdha (LLM) – programe kompjuterike të cilat tërheqin sasi të mëdha tekstesh për të krijuar përgjigje për pyetjet – mund të përdoren nga aktorët armiqësorë për të shkaktuar dëme në sferën e shkencave të jetës, dhe gjeti se “ata mund të ofrojnë informata të cilat mund ta ndihmojnë një aktor dashakeq në krijimin e një arme bërthamore, duke i dhënë informata të dobishme, të sakta dhe të hollësishme në çdo hap të kësaj rruge”.

Hulumtuesit gjetën, për shembull, se një LLM mund të ofrojë njohuri të nivelit të doktoratës për zgjidhjen e problemit kur punon me një virus përhapës.

SHIKONI EDHE: IA e karakterizoi vitin 2023, plumbat e fletëvotimet do ta ndryshojnë 2024-tën

Hulumtimi i tyre gjeti gjithashtu se LLM-të mund të ndihmojnë edhe në planifikimin dhe kryerjen e një sulmi biologjik.

Armët kibernetike

Departamenti amerikan për Siguri Kombëtare (DASK) tha se aktorët kibernetikë me gjasë do ta përdornin IA-në për “zhvillimin e mjeteve të reja” në mënyrë që “të mundësojnë sulme kibernetike më të mëdha, më të shpejta, më efikase dhe më të paqarta” kundër infrastrukturës jetike, përfshirë kundër tubacioneve dhe hekurudhave.

Kina dhe armiqtë e tjerë janë duke zhvilluar teknologji të IA-së, e cila mund ta minojë mbrojtjen kibernetike të SHBA-së, përfshirë programe gjenerative të IA-së që mbështesin sulme malware (lloj virusi kompjuterik) tha DASK.

Microsoft tha në një raport në shkurt se kishte gjurmuar grupe të hakerëve të lidhur me Qeverinë e Kinës dhe atë të Koresë së Veriut, si dhe me inteligjencës ushtarake të Rusisë dhe me Gardën Revolucionare të Iranit. Ato po përpiqeshin t’i përsosnin fushatat e tyre të hakimit duke përdorur MLL.

SHIKONI EDHE: Imazhet nga lufta në Gazë: Si t'i dalloni pamjet reale dhe ato nga IA?

Përpjekje të reja për adresimin e kërcënimeve

Një grup dypartiak i ligjvënësve njoftuan për një projektligj të mërkurën vonë, i cili do ta bënte më të lehtë për administratën Biden të vendosë kontrolle mbi eksportin e modeleve të IA-së, në përpjekje për ta mbrojtur teknologjinë e vlefshme amerikane kundër aktorëve të huaj të këqij.

Projektligji – i mbështetur nga republikanët e Dhomës së përfaqësuesve Michael McCaul dhe John Molenaar dhe nga demokratët Raja Krishnamoorthi dhe Susan Wild – do t’i jepte gjithashtu autoritet Departamentit të Tregtisë t’ua ndalojë amerikanëve të punojnë me të huajt për zhvillimin e sistemeve të IA-së, të cilat përbëjnë rreziqe për sigurinë kombëtare të SHBA-së.

Përgatiti: Ekrem Idrizi