Izraelska vojska je obeležila desetine hiljada stanovnika Gaze kao sumnjive osobe na koje je potrebno izvršiti napade, koristeći sistem mašinske inteligencije za odabiranje meta koji ima malo ljudskog nadzora i uz permisivnu politiku dopuštene kolateralne štete, otkrivaju magazin +972 i Lokal kol
3.april 2024.
Piše: Juval Abraham
Za Žurnal preveo: Miloš Milojević
Knjigu pod naslovom Ljudsko-mašinsko udruživanje: kako stvoriti sinergiju između ljudske i veštačke inteligencije koja će preoblikovati naš svet 2021. godine je na engleskom objavio autor koji piše pod pseudonimom „brigadni general Y.S.“ U ovoj knjizi autor –osoba za koju je potvrđeno da je trenutni zapovednik elitne izraelske obaveštajne Jedinice 8200 – zagovara stvaranje specijalizovanih mašina koje mogu da obrade ogromne količine podataka kako bi generisale hiljade potencijalnih „meta“ za vojne udare usred ratnog meteža. Takva tehnologija, piše, bi razrešila ono što on opisuje kao „ljudsko usko grlo u odabiranju novih meta i procesu donošenja odluka kojim se odobravaju mete“.
Takva mašina, ispostavilo se, zapravo postoji. Nova istraga koju su sproveli magazin +972 i Lokal Kol otkriva da je izraelska vojska razvijala program zasnovan na mašinskoj inteligenciji poznat kao „Lavender“. Ovaj sistem je po prvi put otkriven javnosti u ovom članku. Prema navodima šest izraelskih obaveštajnih oficira, koji su svi služili u vojsci tokom ovog rata u Pojasu Gaze i iz prve ruke bili uključeni u upotrebu mašinske inteligencije za odabiranje meta za likvidaciju, Lavender je igrao središnju ulogu u bombardovanju Palestinaca koje je bez presedana, posebno tokom početne faze vođenja rata. U stvari, prema navodima izvora, uticaj ovog sistema na vojne operacije bio je toliki da su rezultati rada mašinske inteligencije tretirani u suštini „kao da su ljudske odluke“.
Formalno, sistem Lavender je osmišljen da označi sve sumnjive operativce vojnog krila Hamasa i Palestinskog muslimanskog džihada (PMDŽ), uključujući i one nižerangirane, kao potencijalne mete bombardovanja. Izvori su rekli za +972 i Lokal Kol da se tokom prve nedelje rata, armija gotovo u potpunosti oslanjala na Lavender, koji je označio i fiksirao i do 37.000 Palestinaca kao sumnjive militante i – zajedno sa njihovim kućama – kao mete potencijalnih vazduhoplovnih napada.
Tokom početne faze rata, vojska je dala široka ovlašćenja oficirima da prihvataju Lavenderove liste za odstrel, bez zahteva da se podrobno proveri zbog čega je mašinska inteligencija napravila upravo te izbore ili da ispitaju sirove obaveštajne podatke na osnovu kojih su bili zasnovani ti odabiri. Jedan izvor navodi da je ljudsko osoblje često služilo samo „za udaranje pečata“ na odluke koje su mašinski donete, dodajući da su, u normalnim okolnostima, oni lično opredeljivali svega oko „dvadeset sekundi“ za svaku pojedinačnu metu pre nego što su dopuštali bombardovanje – samo da bi bili sigurni da je meta koju je računarski program odabrao muškog pola. Ovo je učinjeno uprkos znanju da je sistem činio ono što se smatra „greškama“ u otprilike deset odsto slučajeva, i da je poznat da povremeno označava pojedince koji jedva da su tanko povezani sa militantnim grupama, ili da sa njima nemaju nikakve veze.
Povrh toga, izraelska armija je sistematski napadala označene pojedince dok su se nalazili u svojim domovima – obično noću, kada su cele porodice bile prisutne – umesto tokom vojnih aktivnosti. Prema izvorima, to je bilo zato što je sa obaveštajne tačke gledišta bilo lakše da se osobe lociraju u svojim privatnim kućama. Drugi automatizovani sistemi, uključujući jedan nazvan „Gde je tatica?“ (Where’s Daddy?) koje takođe ovde po prvi put otkrivamo, bili su specifično korišćeni da prate targetirane pojedince, i izvode bombardovanja kada ulaze u svoje porodične domove.
Ishodište, kako izvori svedoče, su hiljade Palestinaca – većina njih žene i deca ili ljudi koji nisu bili umešani u borbe – koje su zbrisane izraelskim vazduhoplovnim napadima, posebno tokom prvih nedelja rata, zbog odluka programa zasnovanog na mašinskoj inteligenciji.
„Nismo bili zainteresovani da ubijamo [Hamasove] operativne samo kada su bili u vojnim objektima ili kada su uključeni u vojne aktivnosti“, navodi obaveštajni oficir A, za +372 i Lokal Kol. „Naprotiv, Izraelske odbrambene snage [engleska skraćenica IDF] bombardovala ih je u kućama bez i najmanje oklevanja, kao prvu odabranu među raspoloživim opcijama. Sistem je napravljen da ih traži u takvim okolnostima“.
Mašina Lavender pridružila se drugom sistemu zasnovanom na veštačkoj inteligenciji, „Jevanđelju“, o kojem su informacije otkrivene i objavljene u prethodnom istraživanju +972 i Lokal Kola u novembru 2023. godine, kao i u samim publikacijama koje je objavila izraelska vojska.
Vojislav Durmanović: Kad zadnji antisemita bude pokopan…
Povrh toga, prema navodima izvora, kada je posredi bilo delovanje protiv navodno nižerangiranih militanata koje je označavao Lavender, vojska je radije koristila isključivo nenavođene projektile, uobičajeno poznate kao „glupe“ bombe (nasuprot „pametnim“, preciznim bombama), koje mogu da unište čitave zgrade pored onih koji se u njima nalaze te da dovedu do velikih žrtava. „Ne želite da trošite skupe bombe na nevažne ljude – to je veoma skupo za zemlju i postoji nestašica (ovih bombi)“, kaže C, jedan od obaveštajnih oficira. Drugi izvor kaže da su lično odobrili bombardovanje „stotina“ privatnih kuća navodno nižerangiranih operativaca koje je označio Lavender. U mnogim od tih napada stradali su civili i čitave porodice kao „kolateralna šteta“.
U potezu bez presedana, prema navodima dva izvora, vojska je takođe odlučila da tokom prvih nedelja rata, za svakog nižeg Hamasovog operativna kojeg Lavender označi, bude dopušteno ubijanje i do 15 do 20 civila; u prošlosti, vojska nije odobravala bilo kakvu „kolateralnu štetu“ prilikom likvidacija nižerangiranih militanata. Izvori dodaju da, u slučaju da je meta bila viši Hamasov zvaničnik koji ima čin zapovednika bataljona ili brigade, armija je u nekoliko slučajeva odobravala da bude ubijeno i do sto civila prilikom likvidacije jednog takvog komandanta.
Ovaj istraživački članak je organizovan prema šest hronoloških faza visokoautomatizovanog odabira meta izraelske vojske u početnim nedeljama rata u Gazi. Prvo, objašnjen je način funkcionisanja mašine[i] Lavender, koja je obeležila desetine hiljada Palestinaca koristeći mašinsku inteligenciju. Drugo, otkrivamo delovanje sistema „Gde je tatica?“ koji prati ove mete i usmerava vojsku kada se one upućuju u svoje porodične kuće. Treće, opisujemo kako su „glupe“ bombe odabirane za dejstvo po ovim kućama.
Četvrto, objašnjavamo kako je vojska olabavila kriterijume za dozvoljeni broj civila koji mogu da stradaju tokom bombardovanja mete. Peto, zabeležilo smo kako automatski softver neuspešno proračunava broj neboračkih stanovnika svakog domaćinstva. I šesto, pokazali smo kako je u nekoliko prilika, kada je kuća bila pogođena, često noću, odabrana meta uopšte nije bila unutra, zato što vojni oficiri nisu u realnom vremenu potvrdili verodostojnost raspoloživih informacija.
Prvi korak: Odabiranje mete – „Jednom kada pređete na automatski delovanje, odabiranje meta postaje ludački brzo“
U izraelskoj vojsci, termin „ljudska meta“ označavao je u prošlosti višeg vojnog operativna koji, prema pravilima vojnog Odseka za međunarodno pravo (International Law Department) može da bude ubijen u svojoj privatnoj kući čak i ukoliko se u blizini nalaze civili. Obaveštajni izvori saopštili su +972 i Lokal Kolu da tokom prethodnih izraelskih ratova, pošto je ovo „posebno brutalan“ način da neko bude ubijen – često uz ubijanje čitave porodice pored označene mete – takve „ljudske mete“ su označavane veoma pažljivo i samo viši vojni zapovednici su napadani u svojim kućama, kako bi se vladalo u skladu sa principom srazmere prema međunarodnom pravu.
Ali nakon sedmog oktobra – kada su militanti koje je predvodio Hamas izveli najsmrtonosniji napad na južnoizraelske zajednice, ubijajući oko 1200 i otimajući oko 240 ljudi – vojska, izvori navode, zauzela je potpuno drugačiji pristup. U „Operaciji Gvozdeni mačevi“ vojska je odlučila da označava sve vojne operativce Hamasa kao „ljudske mete“, bez obzira na njihov čin ili vojni značaj. To je sve promenilo.
Novoprihvaćena politika takođe je predstavljala tehnički problem za izraelsku obaveštajnu službu. U prethodnim ratovima, kako bi se odobrila likvidacija pojedinačne „ljudske mete“ oficir je trebalo da prođe kroz složenu i dugu proceduru „inkriminacije“: unakrsno proveravanje dokaza koji potvrđuju da je osoba zaista viši član Hamasovog vojnog krila, otkrivanje gde je živeo, informacije o njegovim kontaktima i na kraju podaci u realnom vremenu da se nalazi u svojoj kući. Onda kada je spisak meta brojao svega nekoliko desetina viših operativaca, obaveštajno osoblje je moglo pojedinačno da se pozabavi sa kompletnim radom koji je bio potreban da se označi i locira svaka od ovih meta.
Međutim, jednom kada je spisak počeo da se širi i da uključuje desetine hiljada nižerangiranih operativaca, izraelska vojska je shvatila da je nužno da se osloni na automatizovani softver i veštačku inteligenciju. Ishodište, svedoče izvori, bio je da je uloga ljudskog osoblja u označavanju Palestinaca kao vojnih operativaca skrajnuta, i veštačka inteligencija je umesto toga obavljala većinu posla. Prema četiri izvora koji su razgovarali sa +972 i Lokal Kolom, Lavender – koji je razvijen da odabira ljudske mete u tekućem ratu –označio je nekih trideset sedam hiljada Palestinaca kao sumnjive „Hamasove militante“, većinu njih kao niže, za likvidaciju [portparol Izraelskih odbrambenih snaga negirao je postojanje ovakvog spiska za likvidaciju u izjavi za +972 i Lokal Kol].
„Nismo znači ko su bili niži operativci, zato što ih Izrael nije rutinski pratio [pre početka rata]“, objasnio je viši oficir B. za +972 i Lokal Kol, razjašnjavajući razloge koji su stajali iza razvoja ove mašinske alatke za odabiranje meta u sadašnjem ratu. „Oni su želeli da dozvole automatsko napadanje [nižih operativaca]. To je Sveti gral. Jednom kada se stvari automatizuju, brzina odabiranja meta postaje ludačka“.
Izvori navode da je odobrenje da se automatski prihvata Lavenderov spisak za odstrel, koji je ranije korišćen samo kao pomoćna alatka, pristiglo oko dve nedelje od početka rata, nakon što je obaveštajno osoblje „ručno“ proverilo tačnost nasumičnog uzorka od nekoliko stotina meta koje je odabrao sistem zasnovan na mašinskoj inteligenciji. Kada je uzorak Lavenderovih rezultata dosegao tačnost od devedeset odsto u određivanju veza pojedinaca sa Hamasom, vojska je odobrila brzopotezno korišćenje sistema. Od tog trenutka, izvori navode da ukoliko Lavender odluči da je pojedinac bio militant Hamasa od njih je traženo da to tretiraju kao naređenje, bez zahteva da nezavisno proveravaju zbog čega je mašina izvršila takav odabir ili da ispitaju sirove obaveštajne podatke na osnovu kojih se zasnivao takav odabir.
„U pet izjutra [vazduhoplovne snage] bi naišle i bombardovale sve kuće koje smo obeležili“, rekao je B. „Likvidirali smo hiljade ljudi. Nismo ih ispitivali jednog po jednog – sve smo smestili u automatizovani sustem, i čim bi jedan od [obeleženih pojedinaca] bio kod kuće, smesta je postajao meta. Bombardovali smo njega i njegovu kuću“.
„Bilo mi je iznenađujuće da je od nas traženo da bombardujemo kuće kako bismo ubili jednoG pešadinca, čiji je značaj u borbi izuzetno nizak“, rekao je jedan izvor o korišćenju veštačke inteligencije da se obeleže navodno nisko rangirani militanti. „Ovakvim metama dao sam nadimak „smećarske mete“. Ipak, smatrao sam da su ove mete etičnije od meta koje smo bombardovali samo zbog odvraćanja – višespratnice koje su evakuisane i porušene samo da bi se izazvalo razaranje.
Smrtonosno ishodište popuštanja ograničenja u ranim fazama rata bilo je zaprepašćujuće. Prema podacima palestinskog Ministarstva zdravlja u Gazi, na koje se izraelska vojska gotovo isključivo oslanja od početka rata, Izrael je ubio više od 15.000 Palestinaca –skoro polovinu ukupnog broja do sada stradalih u ratu – u prvih šest nedelja rata, do prvog jednonedeljnog primirja koje je dogovoreno 24. novembra.
„Što više podataka i raznovrsnosti, tim bolje“
Lavenderov softver analizira informacije prikupljene o većini od 2,3 miliona stanovnika Pojasa Gaze kroz sistem masovnog nadzora, onda procenjuje i rangira verovatnoću da je neka od pojedinačnih osoba aktivna u vojnom krilu Hamasa ili Palestinskog džihada. Prema izvorima, mašina daje skoro svakoj osobi u Gazi rang od 1 do 100, što izražava kolika je verovatnoća da je u pitanju militant.
Lavender je naučio da identifikuje karakteristike poznatih operativaca Hamasa i Palestinskog muslimanskog džihada, o kojima su informacije učitavane u mašinu kao podaci za izvođenje treninga, i onda je to korišćeno da se pronađu iste karakteristike – koje su nazivane „osobenostima“ – u opštoj populaciji, objašnjava izvor. Pojedincu za kojeg se utvrdi da poseduje nekoliko različitih inkriminišućih osobenosti pripisuje se visoki rejting, i onda automatski postaje potencijalna meta za likvidaciju.
Povratni udar: istorijat američke i izraelske zloupotrebe međunarodnog krivičnog suda dovele do optužnice protiv Netanjahua
U Udruživanju ljudi i mašina, knjizi na koju smo ukazali na početku ovog članka, trenutni komandant Jedinice 8200 zagovara takav sistem bez poimeničnog ukazivanja na Lavender. [Ni sam komandant nije imenovan, ali pet izvora iz jedinice 8200 potvrđuju da je komandant autor, kao što je takođe izveštavao Harec]. Opisujući ljudsko osoblje kao „usko grlo“ koje ograničava kapacitet vojske tokom vojnih operacija, komandant se žali“. „Mi (ljudi) ne možemo da obradimo toliko informacija. Nije važno koliko ljudi je opredeljeno za izvršenje zadatka odabira meta tokom rata – i dalje ne možete da proizvedete dovoljno meta tokom dana“.
Rešenje za ovaj problem, kaže, jeste veštačka inteligencija. Knjiga nudi kratak vodič kako napraviti „mašinu za odabiranje meta“, koja je po svom opisu slična Lavenderu, zasnovanom na veštačkoj inteligenciji i algoritmima mašinskog učenja. Ovaj vodič obuhvata nekoliko primera „stotina i hiljada“ osobenosti koje mogu da povećaju rejting pojedinca, kao što je članstvo u Votsap grupi sa poznatim militantima, promena broja mobilnog telefona svakih nekoliko meseci, i česta promena adrese boravišta.
„Što je više informacija kojima raspoloživo i što su one raznovrsnije, tim bolje“, piše komandant. „Vizualne informacije, informacije sa mreže mobilne telefonije, veze sa društvenih mreža, informacije sa bojnog polja, telefonski kontakti, fotografije. Dok u početku ljudi odabiraju ove osobenosti, nastavlja komandant, tokom vremena mašina sama počinje da ih odabira. Ovo, kaže, može da omogući vojsci da napravi popis „desetina hiljada meta“ dok će odluka da li da se neka od njih napadne ili ne ostaje na ljudima.
Knjiga nije jedini put kada je jedan viši izraelski komandant uputio na postojanje mašine za odabiranje ljudskih meta kao što je Lavender. +972 i Lokal Kol pribavili su fotografije privatnog predavanja koje je održao komandant Centra za nauku o podacima i veštačku inteligenciju Jedinice 8200, „pukovnik Joav“, na nedelji veštačke inteligencije Univerziteta u Tel Avivu 2023. godine. O ovom predavanju izveštavali su i izraelski mediji u to vreme.
U predavanju, komandant govori o novoj, sofisticiranoj mašini za odabir meta koju koristi izraelska vojska da pronađe „opasne ljude“. Rad mašine zasniva se na njihovom nalikovanju na ličnosti sa postojećih spiskova militanata na osnovu kojih se mašina trenira. „Koristeći sistem, uspeli smo da identifikujemo zapovednike Hamasovih raketnih odreda“, rekao je pukovnik Joav na predavanju, ukazujući na izraelske operacije u Gazi maja 2021. godine, kada je mašinska alatka bila po prvi put korišćena.
Slajdovi prezentacije, koje su takođe pribavili +972 i Lokal Kol sadrže ilustracije o tome kako mašina radi: ona se pohranjuje podacima o postojećim Hamasovim operativcima, uči kako da primeti njihove osobenosti i onda ocenjuje druge Palestince na osnovu toga koliko su slični ovim militantima.
„Rangirali smo rezultate i određivali smo prag koji je potrebno preći [da bi se napala meta]“, rekao je pukovnik Joav u predavanju naglašavajući da su „na kraju, ljudi od krvi i mesa donosili odluke. U sferi odbrane, etički govoreći, naglasili smo ovaj aspekt. Ove alatke koriste se da pomognu [obaveštajne operativce] da prevaziđu svoja ograničenja“.
U praksi, međutim, izvori koji su koristili Lavender u poslednjim mesecima kažu da su ljudska delatnost i preciznost zamenjeni masovnim odabirom meta i smrtonosnošću.
Prevod članka je objavljen uz dopuštenje autora
Izvor: 972 Magazine
Nastaviće se…