Näkökulmat Tappajarobotit

Algoritmit eivät tavoita ihmisyyttä

Autonomiset asejärjestelmät ja robottiaseet kehittyvät kovaa vauhtia. Emme voi paeta historiassa tehtyjä kauheuksia, mutta meillä on vielä mahdollisuus toimia, jotta kenenkään ei tarvitse kokea tappajarobottien aiheuttamaa tuhoa ja kärsimystä, kirjoittaa Sadankomitean puheenjohtaja Kaisu Kinnunen.
Esite autonomisista aseista
Autonomisista aseista on keskusteltu useiden vuosien ajan. Järjestöjen toiveissa on sopimus, joka kieltäisi ne. (Kuva: Jean-Marc Ferré / UN Photo, UN Geneva / CC BY-NC-ND 2.0)

Artikkeli on julkaistu alun perin Ydin-lehden numerossa 3/2020.

Pandemian aika on nostanut etenkin virtuaalisen teknologian entistä merkittävämmäksi osaksi elämäämme. Aina ei kuitenkaan muisteta, että maailmaa mullistavalla teknologian kehityksellä on myös varjopuolensa.

Yksi ihmiskuntaa koskettavista huolenaiheista liittyy tappajarobotteihin eli täysin autonomisiin asejärjestelmiin, jotka kykenevät itsenäiseen päätöksentekoon ja toimintaan. Jos annamme niille vallan hyökätä valitsemaansa kohteeseen ilman ihmisen väliintuloa, siirrämme päätöksen tappavan voiman käytöstä ihmiseltä koneelle.

Monelle tutumpi keskustelu liittyy samanlaisen tekoälyteknologian hyödyntämiseen valvonnassa. Ihmiset ovat yhä tietoisempia tietojensa luovuttamisesta erinäisiin palveluihin: useimmat ymmärtävät, että kuvan laittaminen nettiin tarkoittaa, ettei sitä saa sieltä enää pois. Monet ovat kuitenkin huolissaan yksityisyydestään, kun heidän tietojaan jaetaan kolmansille osapuolille – etenkin kun emme täysin tiedä, mihin niitä käytetään.

Tietojen luovuttamista ja niin sanottujen datapankkien kasvattamista ei voi välttämättä paeta. Dataa kerätään monin eri tavoin, ja sitä käytetään muun muassa valvontaan. Yhä tehokkaampia keinoja tunnistaa ja jäljittää ihmisiä perustellaan usein turvallisuudella, oli kyse sitten terrorismin vastaisesta toiminnasta tai ennaltaehkäisevän rikoksentorjunnan testauksesta.

Koronapandemian aikana keskustelu ihmisten liikkumisen seuraamisesta ja lisääntyneestä kontrollista on herättänyt monet pohtimaan, kuinka paljosta ihminen on valmis luopumaan turvallisuuden nimissä. Samalla voi pohtia, kuinka pitkä matka on siihen, että tämä sama teknologia aseistetaan.

Monet tekoälyn asiantuntijat ja robotiikan tutkijat ovat huolissaan autonomisen aseteknologian kehittämisestä. Koneoppimisen parissa työskennellyt Liz O’Sullivan nostaa esille erityisesti tekoälyn vinoumista johtuvan syrjivän luonteen ongelmia. Kasvojentunnistuksessa algoritmia opetetaan havaitsemaan ihmiskasvoja hyödyntämällä internetistä löytyvää dataa, joka usein saadaan meidän lataamistamme kuvista.

Jos autonomisen aseen algoritmeja opetetaan internetistä löytyvän kuvamateriaalin avulla, kaikki ihmisryhmät eivät ole aineistossa samalla tavalla edustettuja. Koneen on vaikeampi tunnistaa tilanteita vähemmän edustettujen ihmisten kohdalla, mikä tekee tiettyihin ryhmiin kuuluvista ihmisistä todennäköisempiä hyökkäyksen kohteita.

Samalla tavalla kuin robottiautoa ei voi syyttää sen aiheuttamasta liikenneonnettomuudesta, ei tappajarobotti tunne vastuuta tehdessään sotarikoksen.

Kone ei siis ole vapaa ennakkoluuloista, joita sille muodostuu algoritmiin syötetyn datan perusteella. O’Sullivan muistuttaa myös, että järjestelmät ovat alttiita virheille ja kyberhyökkäyksille. Niihin on mahdollista istuttaa haitallista teknologiaa tai harhaanjohtavaa dataa, jolloin kone lakkaa toimimasta odotetulla tavalla.

Viat tuntuvat musertavilta, kun on kyse yksityisyyden suojasta. Entä jos haavoittuvaisuus osuisi tappavaa voimaa käyttävään asejärjestelmään?

Koneella ei ole inhimillistä arviointikykyä, vaikka se pystyisi tekemään päätöksiä itsenäisesti. Kone yksinkertaisesti suorittaa tehtäviä siihen ohjelmoitujen tietojen ja tilanteessa prosessoimansa informaation pohjalta. Kone ei tunne empatiaa, eikä se kykene vastuunkantoon. Samalla tavalla kuin robottiautoa ei voi syyttää sen aiheuttamasta liikenneonnettomuudesta, ei tappajarobotti tunne vastuuta tehdessään sotarikoksen.

Päätöksentekoa elämän ja kuoleman kysymyksistä ei tulisi koskaan ulkoistaa koneelle. Tämän kynnyksen ylittäminen tarkoittaisi, että luovumme ihmisarvosta. Ihmisyyteen liittyvä kompleksisuus ei nimittäin ole vielä typistettävissä algoritmeihin.

Emme voi paeta historiassa tehtyjä kauheuksia, mutta meillä on vielä mahdollisuus toimia, jotta kenenkään ei tarvitse kokea tappajarobottien aiheuttamaa tuhoa ja kärsimystä.

Autonomisia asejärjestelmiä ei turhaan sanota sodankäynnin kolmanneksi vallankumoukseksi ruudin ja atomipommin keksimisen jälkeen. Väsymättömät ja arvaamattomasti keskenään toimivat tappajarobotit muuttaisivat sodankäynnin luonnetta. On mahdotonta ennustaa, millaista tuhoa ne voisivat saada aikaan.

Emme voi paeta historiassa tehtyjä kauheuksia, mutta meillä on vielä mahdollisuus toimia, jotta kenenkään ei tarvitse kokea tappajarobottien aiheuttamaa tuhoa ja kärsimystä.

Tappajarobotit saattavat tuntua kaukaisilta, mutta niiden kehittämisen mahdollistavaa teknologiaa on jo käytössä. Siksi on tärkeää, että ohjaamme teknologisen tutkimuksen kohti sovelluksia, jotka tuottavat hyvää. Digiteknologian kärkimaana Suomen on varmistettava, ettei teknologiaa käytetä väärin, ja ryhdyttävä edistämään täysin autonomiset asejärjestelmät kieltävää sopimusta.

Kirjoittaja on Sadankomitean puheenjohtaja.

Tappajarobotit ihmisoikeudetsoveltava teknologiaaseet & armeijakonflikti Sadankomitea

Lue myös

Mies ja nainen puolilähikuvassa

”Robotti ei ole fiksumpi kuin kastemato” – Googlelta irtisanoutunut ohjelmistoinsinööri Laura Nolan seuraa huolestuneena tappajarobottiteknologian kehitystä

Laura Nolan irtisanoutui Googlelta kuultuaan yhtiön olevan mukana Yhdysvaltain puolustusministeriön projektissa. Hänen sekä yritysten asekehitystä tutkineen Frank Slijperin mukaan armeijat kääntyvät nyt teknologiafirmojen puoleen kehittääkseen nopeammin robottiaseita, jotka tekisivät päätöksen ihmisten tappamisesta itsenäisesti.
Valkoisiin haalareihin pukeutuneita ihmisiä pilvenpiirtäjän edessä

Raportti: Asefirmat kehittävät jo tappajarobotteja – ”Autonomiset aseet ovat siirtymässä sci-fistä todellisuuteen”

Autonomisten aseiden uhka kasvaa, sillä yhä useammat valtiot ovat lisänneet niiden kehittelyä viime vuosina, selviää PAX-rauhanjärjestön tutkimuksesta. Kyselytutkimuksen mukaan muun muassa suomalaisista suurin osa kannattaa niiden kieltämistä.
Tietokoneen näppäimistö

(Teko)älykkäät puolustusvoimat?

Robottiaseet kehittyvät kovaa vauhtia, mutta Puolustusvoimien tutkimusjohtaja ei ole huolissaan tekoälyn vaikutuksista humanitaarisen lain rikkomiskynnyksen madaltumiseen. Uudet autonomiset asejärjestelmät kuitenkin ampuvat itsensä vastuukysymyksissä sodankäynnin sääntöjen ulottumattomiin, varoittaa Anna Heikkinen.

Tilaa uutiskirje

Saat kerran viikossa koosteen Maailma.netin uutisista, tapahtumista ja työpaikoista sähköpostiisi. Tietojasi käytetään vain uutiskirjeen lähettämiseen. Rekisteriseloste täällä.