Sota & rauhaKirjoittanut Antti KurkoKuvat Ninni Kairisalo

Ylivertainen ase kiinnostaa suurvaltoja. Johtavat tutkijat pelkäävät hetkeä, jolloin tekoälylle annetaan lupa tappaa.

Terminaattorit ja robocopit saattavat olla pian todellisuutta. Asevalmistajat kehittävät kilpaa robotiikkaan ja tekoälyyn perustuvaa aseteknologiaa. Tulevaisuudessa päätös tappamisesta voi hyvin perustua algoritmeille eikä ihmisen yksittäiseen päätökseen. Teknologinen vallan­kumous tulee muuttamaan sodan­käyntiä yhtä merkittävästi kuin ruudin keksiminen aikanaan.

Lukuaika: 3 minuuttia

Ylivertainen ase kiinnostaa suurvaltoja. Johtavat tutkijat pelkäävät hetkeä, jolloin tekoälylle annetaan lupa tappaa.

Se joka hallitsee tekoälyä, hallitsee maailmaa”, totesi Venäjän presidentti Vladimir Putin  vuonna 2017. Putin viittasi tällä robotteihin, jotka on ohjelmoitu tuhoamaan.

Hollantilainen PAX-rauhanjärjestö julkaisi marraskuussa raportin, josta ilmenee, että yhä suurempi osa aseteknologiaa kehittävistä yrityksistä kehittää autonomisia asejärjestelmiä. Tämä tarkoittaa tekniikkaa, jossa asejärjestelmä pystyy suorittamaan tehtäviä itsenäisesti – kuten havainnoimaan ympäristöä ja paikantamaan kohteita. Tähän mennessä tekniikkaa on käytetty lähinnä puolustuskäytössä kuten ohjusten torjunnassa. Tulevaisuudessa järjestelmät pystyvät kuitenkin toimimaan yhä itsenäisemmin, jolloin niitä voidaan käyttää tehokkaasti myös hyökkäyksiin.

Tekoälyyn perustuva teknologia tulee yleistymään tulevaisuudessa yhteiskunnan eri sektorilla kuten hoiva-alalla ja liikenteessä. Mutta miten käy, kun roboteille annetaan aseet?

Robottiaseiden vastaisen verkoston koordinaattori  Suomesta on Tuuli Vuori Rauhanliitosta. Hän pitää teko­älyn arvaamatonta ja ihmismielelle vierasta käytöstä riskinä: pahimmassa tapauksessa tekoälyyn perustuvat järjestelmät saattavat aloittaa suursodan ennen kuin ihminen ehtii edes reagoida asiaan. 

mainos

Nopeus, jolla tietokone pystyy prosessoimaan ohjelmoituja asioita ja tekemään päätöksiä on ylivertainen ihmisen kykyihin nähden. Singaporelaisen Nanyangin teknologisen yliopiston tutkijat testasivat aikaisemmin tänä vuonna tekoälyn kykyä tunnistaa valokuvissa esiintyviä esineitä. Tulos oli huima. Tekoäly onnistui käymään läpi 1,2 miljoonaa eri kuvaa 90 sekunnin aikana eli se käytti 0,000075 sekuntia yhden kuvan tulkitsemiseen. Lopputulos oli kuitenkin kaukana täydellisestä. Ainoastaan 58 prosentissa kuvissa esiintyvistä esineistä se onnistui tunnistamaan oikein. 

”Tekoälyyn perustuvia päätöksiä saattaa olla vaikea ymmärtää. Pystyykö tietokone esimerkiksi tunnistamaan siviilejä taistelijoista tai erottamaan antautuvaa sotilasta?” Vuori pohtii.

Tekoälyn tutkijat ovat myös esittäneet vastaavan huolen. He ovat lisäksi huomauttaneet, että tekoälyn käytöksessä saattaa esiintyä ihmisten tekemän ohjelmoinnin kautta syntynyttä algoritmista syrjintää. Tälläkin hetkellä kasvojen tunnistus toimii paremmin vaaleampi-ihoisilla kuin tummilla ja kone tunnistaa paremmin miehen kuin naisen äänen.  

Myös perustavanlaatuisia eettisiä kysymyksiä nousee pintaan, kun päätös elävän henkilön tappamisesta siirtyy ihmiseltä koneelle. Voiko elämän päättäminen olla vain ohjelmoitu tehtävä jossa ei punnita ihmiselämän arvoa? Algoritmit häivyttävät tappamiseen liittyvät eettiset ongelmat ja tekevät siihen johtaneista vaiheista epäinhimillisen sarjan nollia ja ykkösiä. Entä kuinka kansainvälinen oikeus suhtautuu tulevaisuudessa robotin tekemään sotarikokseen? Osoittaako syyttävä sormi hyökkäyskäskyn antajaan, teknologian kehittäjään, laitteiden hankkijaan vai itse robottiin? 

Kansalaisjärjestöt ja tutkijat ovat huolissaan siitä, että mikäli robottiaseille ei aseteta rajoituksia, niitä tullaan näkemään käytössä laajasti jo lähitulevaisuudessa. Vuonna 2017 yli sadan johtavan tutkijan ryhmä 26:sta eri maasta esitti vaatimuksen autonomisten aseiden totaalikiellosta. Maineikasta ryhmää johtivat Teslan toimitusjohtaja Elon Musk ja Googlen syväoppivaa teko­älyä kehittävän yhtiön Deep­Mindin perustaja Mustafa Suleyman. 

Tähän mennessä esimerkiksi Yhdysvaltojen armeija ei ole halunnut luovuttaa päätösvaltaa ihmisen tappamisesta tekoälylle, koska tekoäly saattaa käyttäytyä arvaamattomasti. Huolimaton koodaus voi altistaa järjestelmän myös hakkeroinnille.

Mikäli autonomisia aseita ei kielletä, tullaan niitä näkemään yhä enemmän käytössä lähitulevaisuudessa. Niiden hankkiminen ja valmistaminen tulee olemaan edullisempaa ja nopeampaa kuin kalliiden hävittäjälentokoneiden. 

Turkkilainen aseyhtiö STM on kehittänyt Kargu-nimisen dronen, joka pystyy itsenäisesti löytämään kohteen ja hyökkäämään sitä vastaan. Kargut voidaan varustaa erilaisilla taistelukärjillä kuten räjähdyspanoksilla tai ammuksilla ja ne voivat lähestyä ­kohdetta yksittäin tai jopa 30 lennokin parvena. Tällaisen drone-parven torjuminen on ihmiselle lähes mahdoton tehtävä joten sitä vastaan on käytävä tekoälyn keinoin. Tämä synnyttää nopeasti kilpavarustelun kierteen, jossa valtiot varustavat itseään entistä älykkäämmillä, tehokkaammilla ja tuhovoimaisemmilla asejärjestelmillä. 

Oheinen STM-yhtiön esittelyvideo kuvaa Kargu-dronen ominaisuuksia.

Maailman valtiot kehittävätkin nyt tekoälyä kilpaa toistensa kanssa. Kiinan presidentti Xi Jinping on asettanut tavoitteeksi, että Kiina on johtava maa tekoälyn kehittämisessä kymmenen vuoden päästä. Tällä hetkellä maa tunnetaankin hyvin pitkälle kehitetystä kasvojentunnistustekno­logiastaan.

Asiantuntijoiden mielestä autonomisille asejärjestelmille tarvittaisiin nopeasti kansainvälinen sopimus, jossa asetettaisiin selvät rajat tekniikan käytölle ennen kuin se leviää yleiseen käyttöön.

Viimeksi asiaa käsiteltiin YK:n eräitä tavanomaisia aseita koskevan yleissopimuksen (CCW) puitteissa 13.–15.11. Genevessä. Suurin osa maista kannattaa ihmiskontrollia kriittisissä päätöksissä kuten hyökkäyksen aloittamisessa. Mailla on kuitenkin erilaisia tulkintoja useiden keskeisten käsitteiden kuten merkityksellisen ihmiskontrollin määritelmistä. Semaattisista erimielisyyksistä johtuen CCW:n kokouksen konkreettinen anti jäikin kansalaisjärjestöjen näkökulmasta laihaksi. Maat eivät onnistuneet edes käynnistämään neuvotteluja kansainvälisen sopimuksen synnyttämiseksi.

”Päätöksiä robottiaseiden sääntelystä tai totaalikiellosta jarruttavat eräät isot vaikutusvaltaiset maat kuten USA, Venäjä ja Iso-Britannia, joilla on omat isot kehitysohjelmansa käynnissä”, Tuuli Vuori sanoo. 

Keskustelu asiasta jatkuu, mutta ennen pitkää nämä aseet leviävät taistelu­käyttöön, jos niitä ei kielletä ennen sitä.

Robottiaseet halutaan kieltää myös nykyisessä hallitusohjelmassa

Enemmistö suomalaisista kannattaa autonomisten aseiden kieltämistä.

Kansalaiset ympäri Eurooppaa haluaisivat maidensa tukevan kansainvälisiä sopimusneuvotteluita autonomisten aseiden kieltämiseksi, selviää kymmenessä Euroopan maassa lokakuussa 2019 tehdyssä kyselyssä. Kansainvälisen YouGov-mielipidemittauslaitoksen kyselyssä 73 prosenttia kannatti ja 13 prosenttia vastusti kieltosopimusta. Mitattujen maiden joukosta kieltosopimuksen kannatus oli Suomessa matalin. Suomalaisita 60 prosenttia on sitä mieltä, että Suomen hallituksen on toimittava tappajarobotit kieltävän kansainvälisen sopimuksen aikaansaamiseksi. Merkillepantavaa on, että suomalaisista 28 prosenttia ei osannut tai halunnut kertoa kantaansa. Epävarmojen luku on yli kymmenen prosenttiyksikköä korkeampi kuin muissa maissa.

Rauhanliiton viestinnän ja vaikuttamistyön asiantuntijan Tuuli Vuoren mukaan tulos kertoo siitä, että Suomessa kansalaiskeskustelu autonomisista asejärjestelmistä on ollut hyvin vähäistä.

Tähän mennessä Suomi ei ole kannattanut sitovaa sopimusta, mutta Suomen kanta mainitaan nyt ensimmäistä kertaa maan hallitusohjelmassa:

”Suomi edistää kansainvälisissä neuvotteluissa autonomisten asejärjestelmien globaalia sääntelyä. Tavoitteena on kieltää tekoälyyn perustuvien asejärjestelmien kehittäminen ja tuotanto.”

Tällä hetkellä 30 maata on ilmaissut haluavansa kieltää täysin autonomiset asejärjestelmät. Mukana on vain yksi Euroopan Unioniin kuuluva maa, Itävalta. Muut maat ovat pääosin Latinalaisesta Amerikasta, Pohjois-­Afrikasta ja Lähi-idästä. Myös Kiina on ilmoittanut haluavansa kieltää kyseisten aseiden käytön, mutta ei kuitenkaan niiden kehittämistä ja tuotantoa.

  • 15.1.2020
  • Kirjoittanut Antti Kurko
  • Kuvat Ninni Kairisalo