Maskinmorderens spøgelse fortsætter. Hvad tror præsident Putin på?
Teknologi

Maskinmorderens spøgelse fortsætter. Hvad tror præsident Putin på?

Tilhængere af militærrobotter (1) hævder, at automatiserede våben giver flere muligheder for at beskytte menneskeliv. Maskiner er i stand til at komme tættere på fjenden end soldater og vurdere truslen korrekt. Og følelser lammer nogle gange evnen til at træffe de rigtige beslutninger.

Mange fortalere for dræberrobotter er overbeviste om, at de vil gøre krige mindre blodige, fordi færre soldater vil dø. De bemærker, at robotter, selvom de ikke føler medlidenhed, er immune over for negative menneskelige følelser såsom panik, vrede og hævn, som ofte fører til krigsforbrydelser.

Menneskerettighedsaktivister bruger også argumentet om, at militæret har ført til en enorm reduktion af civile tab i løbet af det sidste halve århundrede, og robotiseringen af ​​hæren giver mulighed for en mekanisme til at håndhæve krigens love mere strengt. De hævder, at maskiner vil blive etiske, når de er udstyret med software, der vil tvinge dem til at adlyde krigens love.

Selvfølgelig deler et stort antal mennesker, herunder meget berømte, ikke denne mening i årevis. I april 2013 blev en international kampagne lanceret under sloganet (2). Inden for dens rammer kræver ikke-statslige organisationer et fuldstændigt forbud mod brug af autonome våben. Eksperter fra mange lande satte sig først for at diskutere dette emne på FN's konference om nedrustning i Genève i maj 2014. En rapport udgivet et par måneder senere af Human Rights Watch og videnskabsmænd fra Harvard University sagde, at de autonome ville være for farlige – de valgte deres egne mål og dræbte mennesker. Samtidig er det ikke særlig klart, hvem der skal stilles til ansvar.

2. Demonstration som en del af handlingen "Stop dræberrobotter"

Hvad en sværm af små droner kan

Tvister omkring dræberrobotter (ROU) har stået på i årevis og forsvinder ikke. De seneste måneder har bragt nye forsøg på at stoppe militærrobotter og en bølge af rapporter om nye projekter af denne type, hvoraf nogle endda bliver testet under rigtige kampforhold.

I november 2017, en video, der viser dødelige sværme af minidroner ., i skræmmende handling. Seerne har set, at vi ikke længere har brug for de tunge krigsmaskiner, kampvogne eller raketter kastet af Predators for at dræbe i massevis og med maskingevær. Lead director Stuart Russell, professor i kunstig intelligens ved Berkeley, siger:

-

Sidste forår halvtreds professorer Verdens førende universiteter har underskrevet en appel til Korea Institute of Advanced Science and Technology (KAIST) og dets partner Hanwha Systems. de meddelte, at de ikke ville samarbejde med universitetet og være vært for KAIST-gæster. Årsagen var konstruktionen af ​​"autonome våben" udført af begge institutioner. KAIST afviste mediernes rapporter.

Kort efter i USA mere end 3 Google-medarbejdere protesterede mod virksomhedens arbejde for militæret. De var bekymrede over, at Google samarbejdede med et regeringsprojekt med kodenavnet Maven, der har til formål at bruge kunstig intelligens til at genkende objekter og ansigter i militære dronevideoer. Virksomhedens ledelse siger, at målet med Maven er at redde liv og redde folk fra kedeligt arbejde, ikke aggression. Demonstranter var ikke overbevist.

Næste del af slaget var erklæringen eksperter i kunstig intelligens, inkl. arbejder på et Google-projekt og Elon Musk. De lover ikke at udvikle robotter. De opfordrer også regeringerne til at øge indsatsen for at regulere og begrænse disse våben.

Erklæringen siger til dels, at "beslutningen om at tage et menneskeliv aldrig bør tages af en maskine." Selvom verdens hære er udstyret med mange automatiske enheder, nogle gange med en høj grad af autonomi, frygter mange eksperter, at denne teknologi i fremtiden kan blive fuldstændig autonom, hvilket tillader drab uden involvering af en menneskelig operatør og kommandant.

Eksperter advarer også om, at autonome dræbermaskiner kan være endnu farligere end "atomvåben, kemiske og biologiske våben", fordi de let kan komme ud af kontrol. I alt blev der i juli sidste år underskrevet et brev i regi af Future of Life Institute (FGI) af 170 organisationer og 2464 personer. I de første måneder af 2019 opfordrede en gruppe medicinske videnskabsmænd tilknyttet FLI igen til et nyt brev for at forbyde udvikling af kunstig intelligens (AI) kontrollerede våben.

Sidste års august FN-møde i Gniewo om mulig lovregulering af militære "dræberrobotter" endte i succes ... maskiner. En gruppe lande, herunder USA, Rusland og Israel, blokerede for yderligere arbejde med at indføre et internationalt forbud mod disse våben (udkast til konvention om forbud eller begrænsning af brugen af ​​visse konventionelle våben, CCW). Det er ikke tilfældigt, at disse lande er kendt for deres arbejde med avancerede systemer af autonome og robotvåben.

Rusland fokuserer på kamprobotter

Præsident Vladimir Putin bliver ofte citeret for at sige om militære AI-systemer og kamprobotter:

-.

taler åbent om udviklingen af ​​autonome våben. Chefen for generalstaben for dets væbnede styrker, general Valery Gerasimov, fortalte for nylig det militære nyhedsbureau Interfax-AVN, at brugen af ​​robotter vil være et af hovedtrækkene i fremtidige krige. Han tilføjede, at Rusland forsøger fuldautomatisere slagmarken. Lignende kommentarer blev fremsat af vicepremierminister Dmitry Rogozin og forsvarsminister Sergei Shoigu. Formand for Føderationsrådets udvalg for forsvar og sikkerhed Viktor Bondarev sagde, at Rusland stræber efter at udvikle Roju teknologierdette ville gøre det muligt for drone-netværk at fungere som en enkelt enhed.

Dette er ikke overraskende, hvis vi husker, at de første teletanks blev udviklet i Sovjetunionen i 30'erne. De blev brugt i begyndelsen af ​​Anden Verdenskrig. I dag skaber Rusland også tank robotter bliver mere og mere selvstændige.

Putins stat sendte for nylig sin egen til Syrien Ubemandet kampkøretøj Uran-9 (3). enheden mistede kontakten med jordkontrolpunkter, havde problemer med ophængningssystemet, og dens våben fungerede ikke perfekt og ramte ikke bevægelige mål. Det lyder ikke særlig seriøst, men mange anser den syriske wipe for at være en god kamptest, der vil give russerne mulighed for at forbedre maskinen.

Roscosmos har godkendt en foreløbig plan om at sende to robotter til den internationale rumstation inden august i år. Fedor (4) i den ubemandede Union. Ikke som en belastning, men. Som i filmen RoboCop, bruger Fedor et våben og demonstrerer dødbringende skytte under skydeøvelser.

Spørgsmålet er, hvorfor skulle en robot i rummet være bevæbnet? Der er mistanke om, at sagen ikke kun er i jordansøgninger. I mellemtiden på Jorden viste den russiske våbenproducent Kalashnikov en visualisering slaven Igorekhvilket, selv om det vakte en del latter, signalerer, at firmaet for alvor arbejder på autonome kampkøretøjer. I juli 2018 annoncerede Kalashnikov, at han var ved at bygge et våben, som han bruger til at træffe "skyd eller ej skyd" beslutninger.

Til disse oplysninger skal tilføjes rapporter om, at den russiske våbensmed Digtyarev udviklede en lille autonom tank Nerekht som stille kan bevæge sig mod sit mål på egen hånd og derefter eksplodere med kraftig kraft for at ødelægge andre eller hele bygninger. Og Tank T14 Armata , de russiske væbnede styrkers stolthed, var designet til mulig fjernstyring og ubemandet kørsel. Sputnik hævder, at russiske militæringeniører arbejder på at gøre T-14 til et fuldt autonomt pansret køretøj.

Indsigelsesdirektivet

Det amerikanske militær har selv pålagt en ret klar grænse for graden af ​​autonomi for deres våben. I 2012 udstedte det amerikanske forsvarsministerium direktiv 3000.09, som siger, at mennesker skal have ret til at gøre indsigelse mod bevæbnede robotters handlinger. (selvom der kan være nogle undtagelser). Dette direktiv forbliver i kraft. Pentagons nuværende politik er, at den afgørende faktor i brugen af ​​våben altid skal være en person, og at en sådan dømmekraft skal være det. er i overensstemmelse med krigens love.

Selvom amerikanere har brugt flyvende, Predator, Reaper og mange andre supermaskiner i årtier, var de ikke og er ikke autonome modeller. De er fjernstyret af operatører, nogle gange fra en afstand på flere tusinde kilometer. En heftig diskussion om autonomi af maskiner af denne type begyndte med premieren på prototypen. X-47B drone (5), som ikke kun fløj selvstændigt, men også kunne lette fra et hangarskib, lande på det og tanke op i luften. Meningen er også at skyde eller bombe uden menneskelig indblanding. Projektet er dog stadig under afprøvning og revision.

5. Test af den ubemandede X-47B på et amerikansk hangarskib

I 2003 begyndte forsvarsministeriet at eksperimentere med en lille kampvognslignende robot. SPOES udstyret med maskingevær. I 2007 blev han sendt til Irak. programmet sluttede dog, efter at robotten begyndte at opføre sig uberegnelig og bevægede sin riffel uberegnelig. Som følge heraf opgav det amerikanske militær forskning i bevæbnede jordrobotter i mange år.

Samtidig har den amerikanske hær øget sine udgifter til operationer fra $20 millioner i 2014 til $156 millioner i 2018. I 2019 er dette budget allerede steget til $327 millioner. Dette er en kumulativ stigning på 1823% på få år. Eksperter siger, at så tidligt som i 2025 kan det amerikanske militær have en slagmark flere robotsoldater end mennesker.

For nylig er en masse kontroverser blevet forårsaget og annonceret af den amerikanske hær ATLAS projekt () - automatisk. I medierne blev dette betragtet som en overtrædelse af det førnævnte direktiv 3000.09. Det amerikanske militær afviser dog og forsikrer, at udelukkelse af en person fra beslutningstagningscyklussen er udelukket.

AI genkender hajer og civile

Forsvarere af autonome våben har dog nye argumenter. prof. Ronald Arkin, en robotiker ved Georgia Institute of Technology, udtaler i sine publikationer det I moderne krigsførelse er intelligente våben afgørende for at undgå civile ofre, da maskinlæringsteknikker effektivt kan hjælpe med at skelne mellem kombattanter og civile og vigtige og uvigtige mål.

Et eksempel på sådanne AI-færdigheder er patruljering af australske strande. droner Little Ripperudstyret med SharkSpotter-systemet udviklet af University of Technology Sydney. Dette system scanner automatisk vandet for hajer og advarer operatøren, når den ser noget usikkert. (6) Den kan identificere personer, delfiner, både, surfbrætter og genstande i vandet for at skelne dem fra hajer. Den kan opdage og identificere omkring seksten forskellige arter med høj nøjagtighed.

6. Genkendte hajer i SharkSpotter-systemet

Disse avancerede maskinlæringsmetoder øger nøjagtigheden af ​​luftrekognoscering med mere end 90 %. Til sammenligning genkender en menneskelig operatør i en lignende situation nøjagtigt 20-30% af objekterne i luftfotos. Derudover er identifikation stadig verificeret af et menneske forud for en alarm.

På slagmarken kan operatøren, der ser billedet på skærmen, næppe afgøre, om folkene på jorden er jagere med AK-47 i hænderne eller for eksempel landmænd med gedder. Arkin bemærker, at folk har en tendens til at "se, hvad de vil se", især i stressede situationer. Denne effekt bidrog til den utilsigtede nedskydning af et iransk fly af USS Vincennes i 1987. Selvfølgelig ville AI-kontrollerede våben efter hans mening være bedre end de nuværende "smarte bomber", som ikke er rigtigt sansende. Sidste august ramte et saudisk laserstyret missil en bus fuld af skolebørn i Yemen og dræbte fyrre børn.

"Hvis en skolebus er korrekt mærket, kan det være relativt nemt at identificere den i et autonomt system," argumenterer Arkin i Popular Mechanics.

Disse argumenter ser dog ikke ud til at overbevise forkæmpere mod automatiske mordere. Ud over truslen fra dræberrobotter skal en anden vigtig omstændighed tages i betragtning. Selv et "godt" og "opmærksomt" system kan blive hacket og overtaget af meget dårlige mennesker. Så mister alle argumenter til forsvar for militært udstyr deres styrke.

Tilføj en kommentar