
Tekniikan ja tekoälyn kehitys ovat tuoneet itsenäisesti toimivat asejärjestelmät jo käden ulottuville, mutta toistaiseksi tappajarobotit eivät ole tehneet näyttävää esiinmarssia taistelukentille. YK:ssa puuhataan parhaillaan uutta kansainvälistä sopimusta varmistamaan, ettei näin koskaan kävisi.
Uuden sopimuksen puolesta toimii myös kansainvälinen Stop Killer Robots –kampanja, jonka irlantilaisen tutkimuspäällikön Catherine Connollyn mukaan kyse ei ole siitä, tuleeko itsenäisille asejärjestelmille kansainvälistä sääntelyä, vaan milloin sitä tulee. YK:n pääsihteeri Antonio Guterres on asettanut laillisesti sitovalle järjestelylle kunnianhimoisen tavoitteen vuoteen 2026 mennessä.
YK:ssa syntynee jo tänä syksynä uusi päätöslauselma pohjustamaan tulevaa sopimusta.
Connollyn mukaan hankkeeseen myötämielisesti suhtautuvia valtioita on satakunta ja nyt on korkea aika toimia.
– Tiedämme, että tarvittava teknologia on kehittymässä, mutta emme vielä ole vaiheessa, jossa ihminen olisi poistettu (aseiden käytön) päätöksentekoketjusta, kansainvälisen oikeuden ja turvallisuuden tutkimuksen tohtori Connolly sanoo STT:n haastattelussa.
Sotilaatkin toivovat ennustettavuutta
Connollyn mukaan myös puolustusteollisuudessa yritykset ovat kaivanneet selkeämpiä kansainvälisiä pelisääntöjä sille, mikä on sallittua ja mikä ei.
– Emme siis välttämättä ole tässä vastakkaisilla puolilla, Connolly sanoo.
Sama koskee asevoimia. ”Tappajarobotteja” vastustavan kampanjan mukaan sallittujen asejärjestelmien pitäisi olla sellaisia, että ne toimivat ennustettavasti, ihminen kykenee ymmärtämään niiden toimintaa ja aseiden toiminta-aika ja -alue on jotenkin rajattu.
– Kyllä sotilaatkin toivovat asejärjestelmiensä toimivan siten kuin niiden on ajateltu toimivan, Connolly kuvaa yhteneviä näkemyksiä.
Hänen mukaansa kieltolistalle kuuluisivat aseet, jotka on suunnattu nimenomaan ihmisiä vastaan, mutta jotka toimivat ilman ”merkityksellistä ihmisen valvontaa”. Nämä aseet keräisivät sensoreillaan tietoa, valitsisivat sen perusteella kohteensa ja päättäisivät myös itsenäisesti kohteen tuhoamisesta.
– Eli emme siis tietäisi, missä, milloin ja ketä vastaan voimaa käytetään, Connolly tiivistää.
Kykyä on, kysyntää ei
Toistaiseksi tällainen tulevaisuuden näkymä ei tunnu miellyttävän monia valtioita ja niiden asevoimia. Connollyn mukaan erään suuren aseyhtiön johtaja oli todennut, että teknologiset edellytykset asejärjestelmien itsenäiseen päätöksentekoon ovat kyllä jo olemassa, mutta nämä kyvyt on rajattu pois ”asiakkaan pyynnöstä”.
– Eli jos asiakkaat niin haluaisivat, rajoitukset voitaisiin poistaa, Connolly perustelee sääntelyn kiireellisyyttä.
Teknologian kehitys saattaa hämärtää sitä, missä kulkee ihmisen tai koneen tekemän päätöksen raja. Esimerkiksi nykyaikaisen hävittäjäkoneen sensorit keräävät sellaisen määrän tietoa, ettei lentäjä kykenisi mitenkään käsittelemään sitä itse. Tämän vuoksi tietokoneet yhdistelevät ja käsittelevät valtavan tietomassan ja tarjoavat sitten päätelmänsä ihmiselle.
Connollyn mukaan kysymys on tärkeä, koska lukuisat tutkimukset todistavatniin kutsutusta vahvistusharhasta eli että ihminen ei ole hevin taipuvainen kyseenalaistamaan koneen hänelle tarjoamaa vaihtoehtoa.
– Ajatellaan, että koska tietokone neuvoi toimimaan näin, niin todennäköisesti se sitten on oikein, Connolly tiivistää.
Hänen mukaansa on perusteltua kysyä, kuinka valistuneena inhimillisenä päätöksenä voi pitää aseen laukaisemista tällaisessa tilanteessa.
– Toisaalta tärkeää on myös se, että ihmisellä kuitenkin on kyky kyseenalaistaa tai haastaa koneen tekemä ehdotus, Connolly sanoo.
Inhimillinen epäröinti voi olla sodankäynnin näkökulmasta päätöksentekoa hidastava haitta, mutta tässä sillä on oma itseisarvonsa.
Kone ei joudu vastuuseen
Toinen tärkeä periaatteellinen kysymys liittyy vastuuseen: konetta, eli itsenäisesti toimivaa asejärjestelmää, ei voi pitää tilivelvollisena sen toimista sodassa.
– Sodan oikeussääntöjen mukaan vastuu kuuluu ihmiselle, sitä ei voi delegoida koneelle, Connolly sanoo.
Hän myötää, että tekoälyn vaikutus voi olla myös myönteinen, koska tietoa väsymättä analysoiva kone ei tee sodassakaan samanlaisia inhimillisiä virheitä kuin kenties ihminen. Toisaalta siviilipuolella on Connollyn mukaan lukuisia esimerkkejä siitä, miten kehittyneetkin algoritmit ovat johtaneet kyseenalaisiin lopputuloksiin.
Tappajarobotti voisi esimerkiksi päätellä, että kyynärsauvan kanssa kulkeva siviili on kivääriä kantava taistelija, jonka saa tappaa, Connolly kuvailee. Vaikka asejärjestelmä olisi koneopetettu kuinka täydelliseksi tahansa, jäljelle jäisi edelleen perimmäinen kysymys vastuusta.
– Erehdyksen mahdollisuuden vähentäminen voi olla hyvä asia, mutta sen pitää rajoittua kohteen valintaan. Päätöksen iskeä kohteeseen täytyy pysyä aina ihmisellä, Connolly sanoo.
Niilo Simojoki