Në 24 orët e para të Operacionit Epic Fury, ushtria amerikane goditi më shumë se 1 000 objektiva në Iran me ndihmën e inteligjencës artificiale.
Duke pasur parasysh shkallën prej 42 objektivash të sugjeruara në orë, ekspertët kanë pyetur nëse makinat janë tani përgjegjëse në fushën e betejës, sepse truri i njeriut nuk mund t’i përballojë ato.
Ata kanë ngritur mundësinë që inteligjenca artificiale mund ta ketë identifikuar gabimisht shkollën fillore në Minab në ditën e parë të luftës. Gjithnjë e më shumë prova sugjerojnë se SHBA-të qëlluan atë që duket se kanë qenë raketa lundruese Tomahawk në vend, duke vrarë 110 fëmijë dhe dhjetëra të tjerë.
Sistemet e inteligjencës artificiale mund të përpunojnë sasi të mëdha të dhënash nga disa burime, duke përfshirë imazhet satelitore, të dhënat e avionëve mbikëqyrës dhe burimet njerëzore, për të zgjedhur ose shpërfillur objektivat.
Imazhet historike satelitore kanë treguar se shkolla fillore Shajareh Tayyebeh dikur ishte pjesë e një kompleksi të Gardës Revolucionare Islamike, ku ndodheshin kazerma detare dhe ndërtesa mbështetëse. Megjithatë, të paktën për nëntë vitet e fundit ajo ka qenë e rrethuar nga kompleksi. Murale shumëngjyrëshe në mure dhe një fushë e vogël loje janë të dukshme në disa imazhe satelitore.
Janë ngritur pyetje nëse një sistem i inteligjencës artificiale mbështetej në imazhet e vjetra për qëllime shënjestrimi.
Noah Sylvia, një analist kërkimor për Institutin Mbretëror të Shërbimeve të Bashkuara, tha: “Nëse bombardimi i shkollës ishte gabim, a ishte gabim njerëzor apo shpejtësia e automatizimit të sistemit? A bazohej në të dhëna të vjetra? A ishte një makinë që e bëri automatikisht? Numri i sulmeve që po shohim i jep njëfarë besueshmërie idesë se objektivat krijohen kryesisht në mënyrë autonome.”
Dr. Craig Jones, ligjërues i lartë i gjeografisë politike në Universitetin e Newcastle, tha: “Në këtë pikë nuk mund ta përjashtojmë që inteligjenca artificiale mund të ketë … dështuar ta identifikojë shkollën si shkollë dhe në vend të kësaj e ka identifikuar atë si një objektiv ushtarak.”
Ai tha se çështja kryesore ishte shkalla në të cilën inteligjenca artificiale u përdor në mbledhjen dhe analizën e të dhënave të inteligjencës për ta paraqitur shkollën si një objektiv ushtarak, duke theksuar se çdo vendim njerëzor për të sulmuar bazohej në të dhëna dhe analiza që inteligjenca artificiale kishte ndihmuar të ndërtoheshin.
“Çfarëdo që të jetë rasti — dhe faktet do të mbeten të errësuar për ca kohë — sulmi ishte një dështim katastrofik i inteligjencës, qoftë i drejtuar nga inteligjenca artificiale apo i drejtuar nga njeriu me ndonjë komponent të inteligjencës artificiale”, tha ai.
I pyetur nga The Times nëse sistemet e inteligjencës artificiale kishin dhënë informacion të vjetëruar mbi shkollën, Pentagoni tha se një hetim ishte duke vazhduar. Presidenti Trump sugjeroi, pa prova, se Irani ose “dikush tjetër” mund të ketë kryer sulmin, por analiza e vendit ka sugjeruar se janë përdorur armë amerikane.
SHBA-ja dhe Izraeli kanë në dispozicion një mori sistemesh të inteligjencës artificiale në luftën kundër Iranit. Pentagoni ka zhvilluar Projektin Maven me ndihmën e kompanisë së mledhjes të të dhënave Palantir të mbështetur nga CIA që nga viti 2018 dhe softueri është i integruar në të gjitha komandat luftarake të SHBA-së.
Në luftën e Iranit, SHBA-të kanë përdorur inteligjencën artificiale dhe të mësuarit automatik për të ndihmuar në shënjestrimin dhe mbikëqyrjen ushtarake. Ekspertët e kanë krahasuar atë me një version ushtarak të Uber.
I integruar në Sistemin Inteligjent Maven është chatbot-i Claude i Anthropic. Është përdorur në Operacionin Epic Fury për analiza të inteligjencës. Në teori, ai mund të mbledhë të dhëna me burim të hapur mbi atë që po ndodh brenda qeverisë iraniane.
Ka politika të rrepta përdorimi dhe nuk përdoret për shënjestrim. Anthropic beson se njerëzit duhet të jenë përgjegjës për identifikimin e objektivave të mundshëm dhe marrjen e vendimeve për sulmet. Administrata Trump tani e ka futur kompaninë në listën e zezë, duke tronditur shumë zyrtarë në Uashington.
Edhe pse softueri i Palantir është përdorur tashmë në luftën e Ukrainës, Sylvia tha se shkalla e operacioneve në Lindjen e Mesme ishte “shumë më dramatike”.
Ai tha se burimet e të dhënave do të ishin të ndryshme dhe se SHBA-ja dhe Izraeli po përdornin sisteme të ndryshme nga ato të përdorura në Ukrainë – armë sulmi me rreze të gjatë veprimi, në vend të artilerisë dhe dronëve me pamje nga personi i parë.
“Është thelbësisht e ndryshme për shkak të shtrirjes gjeografike të operacioneve dhe madhësisë së tyre”, tha Sylvia. “Ukraina Lindore është shumë e vogël në krahasim me Iranin. Aftësia për të kryer sulme mbi një pjesë të madhe të Iranit kërkon shumë më tepër të dhëna dhe sisteme shumë më të rëndësishme për të përpunuar të dhënat.”
Me këtë erdhën edhe rreziqet, tha ai, duke shtuar se kompanitë tregtare po prodhonin modele më të përparuara dhe personeli i shërbimit që i operonte ato duhej të ishte në hap me ritmin. Ai ngriti shqetësime në lidhje me një “zbatim të shpejtë të teknologjisë dhe mungesë të ekspertizës teknike midis personelit”.
“Kur ke një ndjenjë urgjence, njerëzit mund të ndihmojnë vetëm deri diku. Ndërsa lufta rritet në ritmin e operacioneve, gjithnjë e më shumë në një shkallë të paparë, do të shohim rritje me kalimin e kohës në nivelin e autonomisë në disa nga sistemet. Kjo ngre pyetjen, sa të qetë janë njerëzit për këtë?”
Elke Schwarz, një profesoreshë e teorisë politike në Universitetin Queen Mary të Londrës, tha se sistemet që sugjeronin mijëra objektiva në ditë prodhuan një “paragjykim automatizimi”, që do të thotë se vendimi i makinerisë u bë autoriteti. “Njeriu ka aftësi të kufizuara njohëse për të anashkaluar këtë kapacitet”, tha ajo.
Kishte gjithashtu një “paragjykim veprimi”, tha ajo, duke iu referuar vendimmarrjes së shpejtë të makinës që krijon një urgjencë për të vepruar. “Njerëzit kanë nevojë për kohë për të menduar dhe ky mendim është thelbësor për vlerësimin ligjor dhe etik.”
Ajo tha se 42 objektiva të sugjeruara në orë ishin “shumë, dhe bëhet e vështirë të vlerësohet vlefshmëria e të gjitha këtyre objektivave kur përparësi i jepet shpejtësisë dhe shkallës”.
Ekspertët në këtë fushë kanë frikë se çfarë mund të sjellë e ardhmja e konfliktit dhe paralajmërojnë për “zvarritje të misionit”. Schwarz tha se sistemet e ardhshme të inteligjencës artificiale mund të identifikojnë jo vetëm objektiva të mundshëm me shpejtësi dhe shkallë, por edhe sjellje ose lëvizje “të dyshimta”, të cilat më pas mund të nxisin sulme parandaluese.
Ajo tha: “Duhet të supozojmë se inteligjenca artificiale do të luajë një rol gjithnjë e në rritje në vendimin për të përdorur forcën – vendimin për të filluar konfliktin – dhe kjo është tmerruese.”/The Times
Panorama