Algoritmit eivät tavoita ihmisyyttä | Maailma.net Hyppää pääsisältöön

Hae

Hae sivuilta

Algoritmit eivät tavoita ihmisyyttä

Autonomiset asejärjestelmät ja robottiaseet kehittyvät kovaa vauhtia. Emme voi paeta historiassa tehtyjä kauheuksia, mutta meillä on vielä mahdollisuus toimia, jotta kenenkään ei tarvitse kokea tappajarobottien aiheuttamaa tuhoa ja kärsimystä, kirjoittaa Sadankomitean puheenjohtaja Kaisu Kinnunen.

Esite autonomisista aseista

Autonomisista aseista on keskusteltu useiden vuosien ajan. Järjestöjen toiveissa on sopimus, joka kieltäisi ne. Kuva: Jean-Marc Ferré / UN Photo, UN Geneva / CC BY-NC-ND 2.0.

Artikkeli on julkaistu alun perin Ydin-lehden numerossa 3/2020.

Pandemian aika on nostanut etenkin virtuaalisen teknologian entistä merkittävämmäksi osaksi elämäämme. Aina ei kuitenkaan muisteta, että maailmaa mullistavalla teknologian kehityksellä on myös varjopuolensa.

Yksi ihmiskuntaa koskettavista huolenaiheista liittyy tappajarobotteihin eli täysin autonomisiin asejärjestelmiin, jotka kykenevät itsenäiseen päätöksentekoon ja toimintaan. Jos annamme niille vallan hyökätä valitsemaansa kohteeseen ilman ihmisen väliintuloa, siirrämme päätöksen tappavan voiman käytöstä ihmiseltä koneelle.

Monelle tutumpi keskustelu liittyy samanlaisen tekoälyteknologian hyödyntämiseen valvonnassa. Ihmiset ovat yhä tietoisempia tietojensa luovuttamisesta erinäisiin palveluihin: useimmat ymmärtävät, että kuvan laittaminen nettiin tarkoittaa, ettei sitä saa sieltä enää pois. Monet ovat kuitenkin huolissaan yksityisyydestään, kun heidän tietojaan jaetaan kolmansille osapuolille – etenkin kun emme täysin tiedä, mihin niitä käytetään.

Tietojen luovuttamista ja niin sanottujen datapankkien kasvattamista ei voi välttämättä paeta. Dataa kerätään monin eri tavoin, ja sitä käytetään muun muassa valvontaan. Yhä tehokkaampia keinoja tunnistaa ja jäljittää ihmisiä perustellaan usein turvallisuudella, oli kyse sitten terrorismin vastaisesta toiminnasta tai ennaltaehkäisevän rikoksentorjunnan testauksesta.

Koronapandemian aikana keskustelu ihmisten liikkumisen seuraamisesta ja lisääntyneestä kontrollista on herättänyt monet pohtimaan, kuinka paljosta ihminen on valmis luopumaan turvallisuuden nimissä. Samalla voi pohtia, kuinka pitkä matka on siihen, että tämä sama teknologia aseistetaan.

Monet tekoälyn asiantuntijat ja robotiikan tutkijat ovat huolissaan autonomisen aseteknologian kehittämisestä. Koneoppimisen parissa työskennellyt Liz O’Sullivan nostaa esille erityisesti tekoälyn vinoumista johtuvan syrjivän luonteen ongelmia. Kasvojentunnistuksessa algoritmia opetetaan havaitsemaan ihmiskasvoja hyödyntämällä internetistä löytyvää dataa, joka usein saadaan meidän lataamistamme kuvista.

Jos autonomisen aseen algoritmeja opetetaan internetistä löytyvän kuvamateriaalin avulla, kaikki ihmisryhmät eivät ole aineistossa samalla tavalla edustettuja. Koneen on vaikeampi tunnistaa tilanteita vähemmän edustettujen ihmisten kohdalla, mikä tekee tiettyihin ryhmiin kuuluvista ihmisistä todennäköisempiä hyökkäyksen kohteita.

Samalla tavalla kuin robottiautoa ei voi syyttää sen aiheuttamasta liikenneonnettomuudesta, ei tappajarobotti tunne vastuuta tehdessään sotarikoksen.

Kone ei siis ole vapaa ennakkoluuloista, joita sille muodostuu algoritmiin syötetyn datan perusteella. O’Sullivan muistuttaa myös, että järjestelmät ovat alttiita virheille ja kyberhyökkäyksille. Niihin on mahdollista istuttaa haitallista teknologiaa tai harhaanjohtavaa dataa, jolloin kone lakkaa toimimasta odotetulla tavalla.

Viat tuntuvat musertavilta, kun on kyse yksityisyyden suojasta. Entä jos haavoittuvaisuus osuisi tappavaa voimaa käyttävään asejärjestelmään?

Koneella ei ole inhimillistä arviointikykyä, vaikka se pystyisi tekemään päätöksiä itsenäisesti. Kone yksinkertaisesti suorittaa tehtäviä siihen ohjelmoitujen tietojen ja tilanteessa prosessoimansa informaation pohjalta. Kone ei tunne empatiaa, eikä se kykene vastuunkantoon. Samalla tavalla kuin robottiautoa ei voi syyttää sen aiheuttamasta liikenneonnettomuudesta, ei tappajarobotti tunne vastuuta tehdessään sotarikoksen.

Päätöksentekoa elämän ja kuoleman kysymyksistä ei tulisi koskaan ulkoistaa koneelle. Tämän kynnyksen ylittäminen tarkoittaisi, että luovumme ihmisarvosta. Ihmisyyteen liittyvä kompleksisuus ei nimittäin ole vielä typistettävissä algoritmeihin.

Emme voi paeta historiassa tehtyjä kauheuksia, mutta meillä on vielä mahdollisuus toimia, jotta kenenkään ei tarvitse kokea tappajarobottien aiheuttamaa tuhoa ja kärsimystä.

Autonomisia asejärjestelmiä ei turhaan sanota sodankäynnin kolmanneksi vallankumoukseksi ruudin ja atomipommin keksimisen jälkeen. Väsymättömät ja arvaamattomasti keskenään toimivat tappajarobotit muuttaisivat sodankäynnin luonnetta. On mahdotonta ennustaa, millaista tuhoa ne voisivat saada aikaan.

Emme voi paeta historiassa tehtyjä kauheuksia, mutta meillä on vielä mahdollisuus toimia, jotta kenenkään ei tarvitse kokea tappajarobottien aiheuttamaa tuhoa ja kärsimystä.

Tappajarobotit saattavat tuntua kaukaisilta, mutta niiden kehittämisen mahdollistavaa teknologiaa on jo käytössä. Siksi on tärkeää, että ohjaamme teknologisen tutkimuksen kohti sovelluksia, jotka tuottavat hyvää. Digiteknologian kärkimaana Suomen on varmistettava, ettei teknologiaa käytetä väärin, ja ryhdyttävä edistämään täysin autonomiset asejärjestelmät kieltävää sopimusta.

Kirjoittaja on Sadankomitean puheenjohtaja.

Lisää uusi kommentti

Lue ohjeet ennen kommentointia