”Se joka hallitsee tekoälyä, hallitsee maailmaa”, totesi Venäjän presidentti Vladimir Putin vuonna 2017. Putin viittasi tällä robotteihin, jotka on ohjelmoitu tuhoamaan.
Hollantilainen PAX-rauhanjärjestö julkaisi marraskuussa raportin, josta ilmenee, että yhä suurempi osa aseteknologiaa kehittävistä yrityksistä kehittää autonomisia asejärjestelmiä. Tämä tarkoittaa tekniikkaa, jossa asejärjestelmä pystyy suorittamaan tehtäviä itsenäisesti – kuten havainnoimaan ympäristöä ja paikantamaan kohteita. Tähän mennessä tekniikkaa on käytetty lähinnä puolustuskäytössä kuten ohjusten torjunnassa. Tulevaisuudessa järjestelmät pystyvät kuitenkin toimimaan yhä itsenäisemmin, jolloin niitä voidaan käyttää tehokkaasti myös hyökkäyksiin.
Tekoälyyn perustuva teknologia tulee yleistymään tulevaisuudessa yhteiskunnan eri sektorilla kuten hoiva-alalla ja liikenteessä. Mutta miten käy, kun roboteille annetaan aseet?
Robottiaseiden vastaisen verkoston koordinaattori Suomesta on Tuuli Vuori Rauhanliitosta. Hän pitää tekoälyn arvaamatonta ja ihmismielelle vierasta käytöstä riskinä: pahimmassa tapauksessa tekoälyyn perustuvat järjestelmät saattavat aloittaa suursodan ennen kuin ihminen ehtii edes reagoida asiaan.
Nopeus, jolla tietokone pystyy prosessoimaan ohjelmoituja asioita ja tekemään päätöksiä on ylivertainen ihmisen kykyihin nähden. Singaporelaisen Nanyangin teknologisen yliopiston tutkijat testasivat aikaisemmin tänä vuonna tekoälyn kykyä tunnistaa valokuvissa esiintyviä esineitä. Tulos oli huima. Tekoäly onnistui käymään läpi 1,2 miljoonaa eri kuvaa 90 sekunnin aikana eli se käytti 0,000075 sekuntia yhden kuvan tulkitsemiseen. Lopputulos oli kuitenkin kaukana täydellisestä. Ainoastaan 58 prosentissa kuvissa esiintyvistä esineistä se onnistui tunnistamaan oikein.
”Tekoälyyn perustuvia päätöksiä saattaa olla vaikea ymmärtää. Pystyykö tietokone esimerkiksi tunnistamaan siviilejä taistelijoista tai erottamaan antautuvaa sotilasta?” Vuori pohtii.
Tekoälyn tutkijat ovat myös esittäneet vastaavan huolen. He ovat lisäksi huomauttaneet, että tekoälyn käytöksessä saattaa esiintyä ihmisten tekemän ohjelmoinnin kautta syntynyttä algoritmista syrjintää. Tälläkin hetkellä kasvojen tunnistus toimii paremmin vaaleampi-ihoisilla kuin tummilla ja kone tunnistaa paremmin miehen kuin naisen äänen.
Myös perustavanlaatuisia eettisiä kysymyksiä nousee pintaan, kun päätös elävän henkilön tappamisesta siirtyy ihmiseltä koneelle. Voiko elämän päättäminen olla vain ohjelmoitu tehtävä jossa ei punnita ihmiselämän arvoa? Algoritmit häivyttävät tappamiseen liittyvät eettiset ongelmat ja tekevät siihen johtaneista vaiheista epäinhimillisen sarjan nollia ja ykkösiä. Entä kuinka kansainvälinen oikeus suhtautuu tulevaisuudessa robotin tekemään sotarikokseen? Osoittaako syyttävä sormi hyökkäyskäskyn antajaan, teknologian kehittäjään, laitteiden hankkijaan vai itse robottiin?
Kansalaisjärjestöt ja tutkijat ovat huolissaan siitä, että mikäli robottiaseille ei aseteta rajoituksia, niitä tullaan näkemään käytössä laajasti jo lähitulevaisuudessa. Vuonna 2017 yli sadan johtavan tutkijan ryhmä 26:sta eri maasta esitti vaatimuksen autonomisten aseiden totaalikiellosta. Maineikasta ryhmää johtivat Teslan toimitusjohtaja Elon Musk ja Googlen syväoppivaa tekoälyä kehittävän yhtiön DeepMindin perustaja Mustafa Suleyman.
Tähän mennessä esimerkiksi Yhdysvaltojen armeija ei ole halunnut luovuttaa päätösvaltaa ihmisen tappamisesta tekoälylle, koska tekoäly saattaa käyttäytyä arvaamattomasti. Huolimaton koodaus voi altistaa järjestelmän myös hakkeroinnille.
Mikäli autonomisia aseita ei kielletä, tullaan niitä näkemään yhä enemmän käytössä lähitulevaisuudessa. Niiden hankkiminen ja valmistaminen tulee olemaan edullisempaa ja nopeampaa kuin kalliiden hävittäjälentokoneiden.
Turkkilainen aseyhtiö STM on kehittänyt Kargu-nimisen dronen, joka pystyy itsenäisesti löytämään kohteen ja hyökkäämään sitä vastaan. Kargut voidaan varustaa erilaisilla taistelukärjillä kuten räjähdyspanoksilla tai ammuksilla ja ne voivat lähestyä kohdetta yksittäin tai jopa 30 lennokin parvena. Tällaisen drone-parven torjuminen on ihmiselle lähes mahdoton tehtävä joten sitä vastaan on käytävä tekoälyn keinoin. Tämä synnyttää nopeasti kilpavarustelun kierteen, jossa valtiot varustavat itseään entistä älykkäämmillä, tehokkaammilla ja tuhovoimaisemmilla asejärjestelmillä.
Oheinen STM-yhtiön esittelyvideo kuvaa Kargu-dronen ominaisuuksia.
Maailman valtiot kehittävätkin nyt tekoälyä kilpaa toistensa kanssa. Kiinan presidentti Xi Jinping on asettanut tavoitteeksi, että Kiina on johtava maa tekoälyn kehittämisessä kymmenen vuoden päästä. Tällä hetkellä maa tunnetaankin hyvin pitkälle kehitetystä kasvojentunnistusteknologiastaan.
Asiantuntijoiden mielestä autonomisille asejärjestelmille tarvittaisiin nopeasti kansainvälinen sopimus, jossa asetettaisiin selvät rajat tekniikan käytölle ennen kuin se leviää yleiseen käyttöön.
Viimeksi asiaa käsiteltiin YK:n eräitä tavanomaisia aseita koskevan yleissopimuksen (CCW) puitteissa 13.–15.11. Genevessä. Suurin osa maista kannattaa ihmiskontrollia kriittisissä päätöksissä kuten hyökkäyksen aloittamisessa. Mailla on kuitenkin erilaisia tulkintoja useiden keskeisten käsitteiden kuten merkityksellisen ihmiskontrollin määritelmistä. Semaattisista erimielisyyksistä johtuen CCW:n kokouksen konkreettinen anti jäikin kansalaisjärjestöjen näkökulmasta laihaksi. Maat eivät onnistuneet edes käynnistämään neuvotteluja kansainvälisen sopimuksen synnyttämiseksi.
”Päätöksiä robottiaseiden sääntelystä tai totaalikiellosta jarruttavat eräät isot vaikutusvaltaiset maat kuten USA, Venäjä ja Iso-Britannia, joilla on omat isot kehitysohjelmansa käynnissä”, Tuuli Vuori sanoo.
Keskustelu asiasta jatkuu, mutta ennen pitkää nämä aseet leviävät taistelukäyttöön, jos niitä ei kielletä ennen sitä.