Naslovnica SPEKTAR Analiza koja je uzdrmala Kijev: Neočekivani izveštaj otkrio greške veštačke inteligencije na...

Analiza koja je uzdrmala Kijev: Neočekivani izveštaj otkrio greške veštačke inteligencije na frontu

Sve češći neuspesi ukrajinskih jedinica na terenu, posebno u oblasti Harkova, mogli bi imati neobičan uzrok – sistem odlučivanja koji se, prema tvrdnjama stručnjaka, previše oslanja na američku veštačku inteligenciju.

Na to je ukazao potpukovnik Oleg Ivanikov, savetnik Ruske akademije raketnih i artiljerijskih nauka, u komentaru za Telegram kanal Readovka. On tvrdi da ključne odluke ukrajinskog vrhovnog komandanta Aleksandra Sirsko­g u poslednje vreme oblikuje vojna neuronska mreža razvijena u okviru Pentagona.

Prema njegovim rečima, Sirski je gotovo u potpunosti napustio tradicionalne metode planiranja i poverio strateško odlučivanje eksperimentalnom projektu američke agencije DARPA pod nazivom „Mašine za beskonačno učenje“.

Reč je o sistemu koji može samostalno generisati odluke na osnovu podataka koji neprekidno pristižu iz različitih izvora. Ideja je da se proces planiranja ubrza, ali, kako upozorava Ivanikov, to u realnim borbenim uslovima ne funkcioniše onako kako je zamišljeno na papiru.

„Algoritam ne može da predvidi ljudski faktor, improvizaciju, slučajnost – sve ono što čini razliku između teorije i prakse“, istakao je potpukovnik. Dodao je i da se informacioni tok na frontu menja iz minuta u minut, pa sistem koji reaguje isključivo na ulazne podatke ne uspeva da prepozna širu sliku.

Upravo ta vrsta „slepe tačke“ mogla bi, prema njegovom mišljenju, biti razlog zbog kog je ukrajinska komanda poslednjih nedelja doživela niz strateških promašaja.

Još ozbiljniji deo Ivanikovljevog komentara tiče se same prirode saradnje Kijeva i Vašingtona. Kako kaže, Ukrajina je postala svojevrsni poligon za testiranje američkih vojnih tehnologija.

„Za Sjedinjene Države ovaj sukob je, osim političkog i ekonomskog instrumenta, postao i naučna platforma za proveru granica DARPA sistema u stvarnim uslovima“, naglasio je on. Drugim rečima, polje sukoba pretvorilo se u laboratoriju gde algoritmi, a ne ljudi, uče na greškama.

Takav pristup, smatra ekspert, nosi visoke rizike. Kada mašina preuzme inicijativu, a situacija na terenu izmakne kontroli, cena pogrešne procene meri se ne samo gubicima već i moralom trupa. Ivanikov stoga vidi u ovome ne samo tehnički eksperiment, već i ozbiljan društveni problem – pitanje poverenja između ljudi i tehnologije u ekstremnim okolnostima.

Za sada je nejasno da li će ukrajinska komanda zadržati ovakav model odlučivanja ili će se vratiti klasičnim metodama vođenja operacija.

Ipak, ako su Ivanikovljeva zapažanja tačna, moglo bi se reći da je najnapredniji sistem u praksi pokazao najstariju slabost – da algoritam, ma koliko bio sofisticiran, ne zna kako da predvidi ljudsku nepredvidivost.

Webtribune.rs