Izraelska vojska je obeležila desetine hiljada stanovnika Gaze kao sumnjive osobe na koje je potrebno izvršiti napade, koristeći sistem mašinske inteligencije za odabiranje meta koji ima malo ljudskog nadzora i uz permisivnu politiku dopuštene kolateralne štete, otkrivaju magazin +972 i Lokal kol
3.april 2024.
Piše: Juval Abraham
Za Žurnal preveo: Miloš Milojević
Prvi dio možete pročitati ovdje
„Nije postojala politika nulte greške“
B, viši oficir koji je koristio Lavender, naznačio je za +972 o Lokal kol da u sadašnjem ratu od oficira nije traženo da nezavisno proveravaju procene sistema zasnovanog na veštačkoj inteligenciji, kako bi uštedeli vreme i omogućili neometan odabir ljudskih meta.
„Sve se zasnivalo na statistici, sve je bilo vrlo uredno – potpuno suvoparno“, rekao je B. On je primetio da je nedostatak nadziranja bio dopušten uprkos internim proverama koje su pokazale da su Lavenderovi proračuni smatrani tačnim u samo 90 odsto slučajeva; drugim rečima, bilo je unapred poznato da deset odsto „ljudskih meta“ odabranih za likvidaciju uopšte nisu članovi militantnog krila Hamasa.
Na primer, izvori objašnjavaju da je Lavenderova mašina ponekad pogrešno označavala pojedince koji su imali obrasce komunikacije slične poznatim operativcima Hamasa ili Palestinskog muslimanskog džihada – uključujući policajce i radnice civilne zaštite, rođake militanata, stanovnike kojima se zadesilo da imaju imena ili nadimke identične onima koje imaju operativne, i stanovnici Gaze koji su koristili uređaje u nekadašnjem vlasništvu operativaca Hamasa.
„Koliko blizu bi trebalo da osoba bude blizu Hamasu da [bi je alatka zasnovana na veštačkoj inteligenciji] povezala sa organizacijom?“, upitao se jedan izvor kritičan zbog nepreciznosti Lavendera. „To je nejasna granica. Da li je osoba koja ne prima platu od Hamasa, ali im pomaže u raznim aktivnostima, Hamasov operativac? Da li bi nekoga ko je bio pripadnik Hamasa u prošlosti, ali više to nije danas, i dalje trebalo smatrati operativcem Hamasa? Svaka od ovih osobenosti – koje bi mašina označila kao sumnjive – nije tačan pokazatelj“.
Slični problemi postoje i sa sposobnošću mašine za odabir meta da proceni telefon koji koristi pojedinac označen za likvidaciju. „U ratu, Palestinci stalno razmenjuju telefone“, rekao je jedan izvor. „Ljudi gube kontakte sa članovima svojih porodica, daju telefone prijateljima ili supružnicima, možda ih izgube. Ne postoji način da se u potpunosti osloni na automatizovani mehanizam koji određuje koji telefonski broj pripada kome“.
Prema navodima izvora, armija je znala da minimalni nadzor koji su sprovodili ljudi nije dovoljan da se otkriju ove greške. „Nije postojala politika ‘nulte greške’. Greške su tretirane statistički“, rekao je izvor koji je koristio Lavender. „Zbog opsega i obuhvatnosti, protokol je bio takav da čak i ukoliko ne znate da li je mašina u pravu, statistički znate da bi trebalo da je u redu. Onda nastavite“.
„Lavender“: mašinska inteligencija koja usmerava izraelsku bombardersku kampanju u Gazi (1. dio)
„Sistem se dokazao“, rekao je B, visoko pozicionirani izvor. „Ima nečega u statističkom pristupu što nameće određene norme i standarde ponašanja. Bilo je nelogično mnogo (bombardovanja) u ovoj operaciji. To je bilo bez presedana, koliko ja mogu da se setim. I imam mnogo više poverenja u statistički mehanizam nego u vojnika koji je izgubio prijatelja pre dva dana. Svi koji su bili tamo, uključujući i mene, izgubili su nekoga 7. oktobra. Mašina je to radila hladno. I to je olakšalo stvar“.
Drugi obaveštajni izvor, koji je branio oslanjanje na spisak za likvidaciju inkriminisanih Palestinaca koji je generisao Lavender obrazlaže da je bilo vredno trošiti vreme obaveštajnih oficira samo ukoliko je meta bila viši zapovednik Hamasa. „Ali kada je reč o nižim militantima, ne želite da opredeljujete raspoloživo ljudstvo i vreme za njih“, kaže. „U ratu, nema vremena da se podrobno ispituje svaka meta. Stoga ste voljni da prihvatite marginu greške korišćenjem veštačke inteligencije, rizikujući kolateralnu štetu i pogibiju civila, i da rizikujete izvođenje napada greškom, i da živite sa time“.
B. kaže da je razlog za ovu automatizovanu proceduru bilo stalno podstrekivanje da se generiše što više meta za livkidiranje. „U danu bez meta (čije su osobenosti tako rangirane da nisu dovoljne za odobravanje napada) napadali smo na osnovu nižih kriterijuma. Stalno smo bili pritiskani: ‘Dajte nam još meta’. Stvarno su vikali na nas. Završili smo (ubijanje) naših meta veoma brzo“.
Objasnio je da kada se snizi kriterijum za rangiranje u sistemu Lavender, on označava više ljudi kao mete za napadanje. „Na svom vrhuncu sistem je uspevao da generiše 37.000 potencijalnih ljudskih meta“, rekao je B. „Ali ovi brojevi su se stalno menjali, zato što zavise od toga kako postavite kriterijume onoga što se smatra Hamsovim operativcem. Bilo je trenutaka kada su Hamasovi operativci šire definisani, i onda je mašina počinjala da nam predočava razno civilno osoblje, policijske službenike, na koje bi bilo šteta trošiti bombe. Oni su pomagali Hamasovu vladu ali oni nisu zaista ugrožavali vojnike“.
Jedan izvor koji je radio sa vojnim timom za nauku o podacima (data science) koji je uvežbavao Lavender rekao je da su podaci prikupljeni o zaposlenima Ministarstva unutrašnje bezbednosti koje je pod kontrolom Hamasa, koje on ne smatra militantima, bilo uvršćeno u podatke koje je koristila računarska mašina. „Bio sam uznemiren činjenicom da kada je Lavender treniran, oni su koristili pojam ‘Hamasov operativac’ olako, i uključili su ljude koji su bili radnici civilne zaštite u baze podataka“, navodi.
Izvor je dodao da čak i ukoliko neko veruje da ovi ljudi zaslužuju da budu ubijeni, treniranje sistema na osnovu njihovih komunikacionih profila čini da Lavender ima veću šansu da greškom označi civile kada se algoritam primenjuje na opštu populaciju. „Pošto je reč o automatizovanom sistemu kojim neposredno ne upravljaju ljudi, značenje donetih odluka je dramatično: znači da uključujete mnoge ljude sa civilnim komunikacionom obrascem ponašanja kao potencijalne mete“.
„Samo smo proveravali da li je meta muškarac“
Izraelska vojska je u potpunosti odbacivala ove tvrdnje. U izjavi za +972 i Lokal kol, portparol Izraelskih odbrambenih snaga negirao je korišćenje veštačke inteligencije za odabiranje meta, navodeći da su to tek „pomoćne alatke koje pomažu oficirima u proceduri odabira“. U izjavi stoji: „U svakom slučaju, nezavisno ispitivanje obaveštajne analize je nužnu, što povrđuje da je identifikovana meta legitiman cilj napada, u skladu sa uslovima koje postavljaju naređenja izraelske vojske i međunarodno pravo“.
Međutim, izvori navode da je jedini ljudski nadzorni protokol koji je postojao pre bombardovanja kuća osumnjičenog „nižeg“ militanta označenog Lavenderom bilo sprovođenje jedne provere; osiguravanja da je meta koju bi odabrala veštačka inteligencija muškarac a ne žena. Pretpostavka u vojsci je bila da ukoliko je meta žena, mašinska inteligencija je po svoj prilici pogrešila, zato što nema žena među borcima militantnog krila Hamasa ili Palestinskog muslimanskog džihada.
„Ljudskom biću na raspolaganju stoji (za verifikovanje mete) svega nekoliko sekundi“, kaže B, objašnjavajući da je ovo postalo protokol nakon što su shvatili da sistem Lavender „dobro pogađa“ tokom najvećeg dela vremena. „Prvo, proveravali smo da bismo se osigurali da se alatka nije zbunila. Ali u jednom trenutku počeli smo da se oslanjamo na automatizovani sistem, i samo smo proveravali da (je meta) muškarac – to je bilo dovoljno. Nije potrebno mnogo vremena da se odredi da li je neki glas muški ili ženski“.
Volstrit džurnal: SAD nude zamašan odbrambeni sporazum Saudijskoj Arabiji
Kako bi se izvršila provera da li je u pitanju muška ili ženska osoba, B. tvrdi da je u sadašnjem ratu „odvajano dvadeset sekundi za svaku metu u ovoj fazi, i da se obavlja više desetina takvih provera svakoga dana. Nisam pravio nikakvu razliku kao čovek osim da sam označavao da je meta dopuštena. To je sačuvalo mnogo vremena. Ukoliko (operativci) budu označeni automatizovanom procedurom, i proverom utvrdim da je u pitanju muškarac, onda će biti data dozvola da se ta meta bombarduje, pod uslovom da se ispita dopušteni stepen kolateralne štete“.
U praksi, izvori navode da je ovo značilo da muškarca civila Lavender greškom označi, te da nema nadzornog mehanizma kojim bi se utvrdila greška. Prema navodima B, česta greška se dešavala „ukoliko je meta (pripadnik Hamasa) davala (svoj telefon) sinu, svom starijem bratu, ili nasumičnoj muškoj osobi. Ta osoba bi bila bombardovana u svojoj kući sa svojom porodicom. To se često dešavalo. To su bile najčešće greške koje bi pravio Lavender“, kaže B.
Drugi korak: Povezivanje meta sa porodičnim kućama – „Većina ljudi koji su ubijeni bili su žene i deca“
Sledeća faza u proceduri izvođenja likvidacija u izraelskoj vojsci jeste identifikovanje gde napasti metu koju je odabrao sistem Lavender.
U izjavi za +972 i Lokal kol, portparol Izraelskih odbrambenih snaga tvrdio je odgovarajući na ovaj članak da „Hamas smešta svoje operativne i borbena sredstva u središte civilnih naseobina, sistematski koristeći civilno stanovništvo kao ljudski štiti, i izvodi borbena dejstva iz civilnih objekata, uključujući osetljiva mesta kao što su bolnice, džamije, škole i objekti Ujedinjenih nacija. IDF je obavezan i deluje u skladu sa međunarodnim pravom, usmeravajući napade samo na vojne mete i vojne operativce“.
Fajnenšel tajms: Srbija se pravi da ne vidi da njena municija završava na ukrajinskom ratištu
Šest izvora sa kojima smo razgovarali donekle odražavaju slično mišljenje, navodeći da razgranat sistem Hamasovih tunela namerno prolazi ispod bolnica i škola; da Hamasovi militanti koriste bolnička kola da bi se kretali naokolo; i da je nebrojano mnogo vojnih sredstava smešteno nedaleko od civilnih zgrada. Izvori sa kojima smo razvovarali tvrde da u mnogim izraelskim napadima stradaju civili zbog ove Hamasove taktike – što je karakterizacija, kako upozoravaju grupe koje se bave ljudskim pravima uz pomoć koje se izbegava odgovornost Izraela za nanošenje žrtava.
Međutim, nasuprot zvaničnim izjavama izraelske vojske, izvori objašnjavaju da je glavni razlog velikog broja stradalih u izraelskom bombardovanju koji je bez presedana u dosadašnjim sukobima, jeste to što je vojska sistematski napadala mete u njihovim privatnim kućama, zajedno sa njihovom porodicama – delimično zbog toga što je lakše sa obaveštajne tačke gledišta da se obeleži porodična kuća korišćenjem automatizovanih sistema.
Zaista, nekoliko izvora naglasilo je da, nasuprot brojnim slučajevima kada su Hamasovi operativci bili uključeni u vojne aktivnosti iz civilnih područja, u slučaju sistematskih napada za likvidacije, vojska je rutinski namerno odabirala da bombarduje osumnjičene militante kada su se nalazili unutar civilnih domaćinstava iz kojih se nije obavljala nikakva vojna aktivnost. Ovaj izbor, govorili su, bio je odraz toga kako je osmišljen izraelski sistem masovnog nadzora u Gazi.
Izvori su izjavili za +972 i Lokal Kol da pošto svi u Gazi imaju privatnu kuću ili stan sa kojim mogu biti povezani, vojni nadzorni sistem mogao je lako i automatski da „poveže“ osobu sa porodičnim kućama. Kako bi se odredio trenutak kada operativac ulazu u svoju kuću u realnom vremenu, razvijeni su dodatni automatski softveri. Ovi programi pratili su hiljade pojedinaca istovremeno, identifikujući kada su kod kuće, i slali su automatski alarm oficiru za odabiranje meta, koji su potom označavali kuću za bombardovanje. Jedan od nekoliko ovih suftvera za praćenje, koji smo otkrili po prvi put u ovom članku nazvan je Gde je tatica?
Afšin Ostovar: Kako je iransko-izraelski rat istupio iz senke
„Smestite stotine (meta) u sistem i čekate da vidite koga možete da ubijete“, rekao je jedan izvor upoznat sa ovim sistemom. „To se zove lov širokom pretragom: iskopirate sa spiska koje je sistem za generisanje meta proizveo“.
Dokazi ovakve politike su takođe očevidni na osnovu dostupnih podataka: tokom prvog meseca rata, više od polovine žrtava – 6.120 ljudi – pripadalo je 1.340 porodica, od kojih su mnoge bile u potpunosti zbrisane dok su se nalazile unutar svojih kuća, prema podacima Ujedinjenih nacija. Udeo čitavih porodica koje su bile žrtve bombardovanja dok su se nalazile u svojim kućama u sadašnjem ratu je mnogo viši nego tokom izraelskih operacija u Gazi 2014. godine (koji je bio do sada najsmrtonostniji rat koji je Izrael vodio u ovoj oblasti), što dalje sugeriše da je ova politika bila naširoko prihvaćena.
Drugi izvor kaže da su svaki put kada je tempo likvidacija opadao dodatne mete bile dodavane u sistem Gde je tatica kako bi bili locirani pojedinci koji ulaze u svoje kuće i koji mogu stoga biti bombardovani. On navodi da je odluku koga uključiti u sustem praćenja mogao da donese relativno nižerangirani oficir u vojnoj hijerarhiji.
„Tokom jednog dana, potpuno po mom nahođenju, dodao sam nekih otprilike 1200 novih meta u sistem (za praćenje), zato što je broj napada (koje smo izvodili) opadao“, navodi izvor. „To je za mene imalo smisla. U retrospektivi, to mi deluje kao ozbiljna odluka koju sam doneo. I te odluke nisu donošene na visokom nivou“.
Izvor navodi da je tokom prve dve nedelja rata, „nekoliko hiljada“ meta bilo na početku uneto u programe za lociranje. Ove mete obuhvatile su sve članove Hamasove elitne specijalne jedinice Nukba (Nukhba), sve Hamasove anti-tenkovske operativce, i sve koji su stupili u Izrael tokom 7. oktobra. Ali nedugo potom, lista za likvidacije je drastično proširena.
„Na kraju svi su bili [označeni Lavenderom]“, objašnjavao je jedan izvor „Desetine hiljada. Ovo se desilo nekoliko nedelja kasnije, kada su izraelske brigade stupile u Gazu, i već je bilo manje neuključenih ljudi [ljudi] u severnim područjima“. Prema ovom izvoru, Lavender je čak obeležio i neke maloletnike kao mete bombardovanja. „Uobičajeno, operativci su stariji od sedamnaest godina, ali to nije bio uslov“.
Lavender i sistemi kao Gde je tatica? bili su stoga kombinovani sa smrtonosnim efektom, ubijajući čitave porodice, navode izvori. Dodavanjem imena sa spiska koji je generisao Lavender sistemu za praćenje kuća Gde je tatica?, objašnjava A, označena osoba bi bila smeštena u sistem tekućeg nadzora, i mogla bi biti napadnuta čim stupi u svoju kuću, čime bi se kuća obrušila na sve one koji se u njoj nalaze.
„Recimo da je izračunato (da je tu jedan) Hamasov (operativac) uz 10 (civila u kući“, rekao je A. „Obično, među ovih deset civila biće i žena i dece. Stoga, apsurdno, ispostavilo bi se da je većina ljudi koje ste ubili zapravo žene i deca“.
Prevod članka je objavljen uz dopuštenje autora
Izvor: 972 Magazine
Nastaviće se…