Teknologia ei pelasta
Blogissa Antti Kurko suuntaa katseen tulevaan ja tarkastelee teknologian vaikutuksia meihin niin yksilön, yhteiskunnan kuin koko planeetan tasolla.
Kirjoittaja tekee mediatutkimuksen maisteriopintoja Tampereen yliopistossa ja on erityisen kiinnostunut mediateknologioiden vaikutuksesta ihmisiin ja ympäristöön.
Tekoälyyn perustuvien autonomisten asejärjestelmien, eli niin kutsuttujen tappajarobottien, kehittäminen kiinnostaa suurvaltoja. Sitä ei pitäisi tehdä, mutta tehdään, koska muutkin tekevät. Robotti on nopea tekemään päätöksiä, sen sensorit näkevät pidemmälle ja tarkemmin kuin omat aistimme. Se jaksaa valvoa eikä tunne pelkoa. Potentiaali on liian suuri hukattavaksi.
Saksanjuutalaista politiikan teoreetikkoa ja filosofia Hannah Arendtia pidetään yhtenä viime vuosisadan merkittävimmistä ajattelijoista. Arendt on kirjoittanut siitä, miten teknologinen kehitys on ajanut meidät pisteeseen, jossa kehitämme tiedettä ymmärtämättä sen seurauksia. Hän käytti esimerkkinä atomin halkaisua, joka on johtanut ydinaseiden valmistamiseen ja mahdollistanut kaiken elämän tuhoamisen maapallolta.
Puhuttaessa tekoälystä esiin nousee toisinaan myös singulariteetin käsite. Se tarkoittaa tilannetta, jolloin tekoäly on saavuttanut itsetietoisuuden ja sen älyllinen kapasiteetti ylittää ihmisen kyvyt. Tämä johtaisi tilanteeseen, jossa emme kykenisi enää hallitsemaan sitä, koska meidän olisi mahdotonta tai ainakin erittäin vaikeaa kontrolloida itseämme älykkäämpää järjestelmää. Singulariteetin toteutuminen tekisi tulevaisuuden ennustamisesta erittäin vaikeaa, koska emme voi kuin arvailla, miten meitä älykkäämpi ”olento” toimisi. Osittain tästä arvaamattomuudesta johtuen Cambridgen yliopiston eksistentiaalisten riskien tutkimuskeskus CSER luokittelee tekoälyn mahdollisesti ihmiskunnan olemassaoloa uhkaavaksi tekijäksi.
Suuri osa tekoälytutkijoista pitää singulariteettia todennäköisenä. Arvioissa sen tapahtumisen ajankohdasta on kuitenkin paljon eroa. Aikaisimmillaan sen on ennustettu toteutuvan kymmenen vuoden sisällä, mutta valtaosa tutkijoista arvioi sen koittavan 2050–60-lukujen aikana. Mikäli singulariteetti tulee tapahtumaan, niin hyvin todennäköisesti huomaamme sen vasta jälkikäteen. Samalla ottaisimme askeleen kohti tuntematonta.
Tekoälyä käytetään paljon myös hyvään, ja paljon puhutaan eettisestä tekoälyn kehittämisestä. Tekoälyn avulla on pystytty esimerkiksi paikallistamaan laittomia hakkuita Amazonian sademetsissä ja päästy nopeampaan ja tarkempaan sairauksien diagnosointiin. Sotilaallisten järjestelmien kehittäminen aiheuttaa kuitenkin ymmärrettävästi laajaa huolta.
Tutkijat ja kansalaisaktivistit ovat esittäneet huolensa siitä, että kynnys aloittaa sota voi madaltua, koska hyökkääjän ei tarvitse laittaa taistelutilanteisiin ihmissotilaita. Tuhotun robotin tilalle voidaan aina tuottaa uusi ja vähän parempi malli.
Ihmisten koodaamat järjestelmät ovat aina alttiita häiriöille, hakkeroinnille ja yllättävälle toiminnalle. Pahimmissa skenaarioissa on ennustettu, että tällaiset järjestelmät voisivat aloittaa suursodan ennen kuin ihminen ehtii edes reagoida asiaan.
Arendtin esittämät huomiot kannattaisi pitää mielessä, kun kehitämme tekoälyä ja varsinkin tekoälyyn pohjautuvia asejärjestelmiä. Ydinsodan uhan lisäksi emme tarvitse enää robottisodan uhkaa. Pessimismiin ei kannata kuitenkaan vajota. Meillä on vielä mahdollisuus keskustella tekoälyn etiikasta ja kieltää suunniteltuja asejärjestelmiä ennen kuin niitä otetaan käyttöön. Nyt meidän täytyy vain ottaa pallo itsellemme.