Pahuksen kekseliäs tekoäly

|
Blogimerkintä

Tekoälyllä ei ole etiikkaa. Silti hommat voivat mennä pahasti mönkään. Silloin vastuu kohdistuu ihmiseen, hänen epätäydellisyyteensä ja erehtyväisyyteensä.

Humen giljotiini tarkoittaa, että tosiasioista ei voi johtaa arvoja. Arvojen järjestelmää kutsutaan etiikaksi.

Tekoäly toimii logiikan säännöillä. Niinpä sillä ei ole etiikkaa. Selostuksen tekoälyn etiikasta voisi siten lopettaa tähän.

Tekoälyyn liittyy silti eettisiä kysymyksiä. Niissä vastuu kohdistuu ihmiseen, hänen epätäydellisyyteensä ja erehtyväisyyteensä.

RAJAA TEHTÄVÄ VEDENPITÄVÄSTI

Kaikessa tietojenkäsittelyssä pätee, että virheellisten tietojen pohjalta ei päästä oikeaan lopputulokseen kuin harvinaisen sattuman kautta. Eettisesti oikein olisi siis tehdä kaikkensa, että tekoälylle tarjottava tieto ei sisällä virheitä.

Tätä voidaan edistää muun muassa määrittämällä kynnysarvoja, tekemällä prosessi läpinäkyväksi ja tarkistamalla matkan varrella välituloksia. Määrittely voidaan antaa joko ”top down” eli säännöillä tai ”bottom up” eli kuvaamalla lopputulosta tai näiden yhdistelmillä.

Rakennusalalla on passeleita esimerkkejä tarkistustavoista. Kiintopisteestä rakennuspaikalle viety paikkatieto kuljetetaan toista reittiä lähtökohtaan, jolloin osuminen kertoo tarkkuudesta. Kun rakenne on laskettu yhdellä ohjelmalla, voidaan toisella testata rakenteen vahvuutta erilaisilla kuormituksilla. Mittaa kahdesti, leikkaa kerran, sanoo kangaskauppiaskin.

Mittaa kahdesti, leikkaa kerran, sanoo kangaskauppiaskin.

Bottien petollisuudesta on kertynyt hauskoja listoja. Joku tarjoaa tyhjän listan, kun sen on pitänyt laittaa tiedot oikeaan järjestykseen (tyhjässä listassa ei ole virheitä!). Toinen tekee pelissä itsemurhan ensimmäisen tason jälkeen, koska häviäisi kakkostasolla. Kolmas asettuu tehtävää suorittaessaan kameran eteen, jolloin kontrolli lakkaa.

Kaikille tapauksille on kuitenkin ominaista, että juristi saisi botit vapautettua syytteestä: ne ovat vain löytäneet porsaanreiän, jota ohjelmoija ei ole hoksannut sulkea.

Kun antaa tekoälylle tehtävän, se tulee rajata vedenpitävästi.

MÖNKÄÄN MENI: PARI ESIMERKKIÄ TOSIELÄMÄSTÄ

Pari esimerkkiä lähtötietojen ongelmista. Yksi tekoäly opetettiin ajamaan autoa pelkästään näyttämällä sille videoita liikenteestä. Jos materiaalissa näkyi yksikin liikennerikkomus, tekoäly on valmis toistamaan sen.

Toisessa tapauksessa haluttiin yhtenäistää tuomioistuinten rangaistuksia samanlaisissa jutuissa. Taustaksi ajettiin tietomassaa aikaisemmista tuomioista. Tuloksena oli, että tekoäly tarjosi etnisille vähemmistöille kovempia tuomioita kuin kantaväestölle. Ei se pannut omiaan, ainoastaan toisti tietokannan systemaattista vinoumaa.

Ei se pannut omiaan, ainoastaan toisti tietokannan systemaattista vinoumaa.

Tekoäly voi kyllä käsitellä arvostuksiakin, mutta vain loogisesti. Sille voidaan antaa esimerkiksi vaikkapa ryhmä lauseita, joissa asetetaan eri kombinaatioilla omenoita, päärynöitä, greippejä ja banaaneja paremmuusjärjestykseen. Näistä se selvittää koko joukon järjestyksen ja sen mahdolliset määrittämättömät osat. Jos hedelmien sijaan data on eettisiä väittämiä, näyttää tuloskin eettiseltä, mutta vain ihmisen näkökulmasta.

TEKOÄLY EI AJATTELE KUIN IHMINEN – JA HYVÄ NIIN

Yleisin ja hoopoin tekoälyn etiikkaa koskeva esimerkkikysymys on, että roboauton kuvitellaan valitsevan, kenen päälle se pakkotilanteessa ajaa.

Tekoälyn ohjaama auto on ensinnäkin hyvä välttämään tilanteita, joissa joudutaan ajamaan jonkun päälle, ja se pystyy kymmeniä kertoja sekunnissa korjaamaan omaa toimintaansa. Siltä ei myöskään vaadita sen enempää kuin ajokortin saaneelta ihmiseltä.

Toinen populääri ajattelemattomuus on olettaa, että tekoäly ajattelisi samoin kuin ihminen. Kauhukuvien luomiseen se kelpaa, mutta evoluutio on kasannut ihmiselle paljon geneettisesti periytyvää käyttäytymistä, josta osa on nykymaailmassa vahingollista, eikä sitä kukaan täyspäinen ohjelmoisi tekoälylle.

Esimerkiksi kosto oli aikanaan toimiva sanktio, mutta nykyisin poliisi, oikeuslaitos ja vakuutusyhtiöt antavat paremman suojan. Tekoäly ei vihastu, kanna kaunaa, haaveile vallasta tai ole mustasukkainen.

Tekoäly ei vihastu, kanna kaunaa, haaveile vallasta tai ole mustasukkainen.

VIIMEINEN SANA KUULUU IHMISELLE

Vastavuoroinen altruismi ja oman ryhmän jäsenten suojeleminen vierailta on tosin saatu kehittymään myös bottimaailmassa, samoin kuin aiemmin tietokonesimulaationa.

Tekoälyjärjestelmien suunnittelua varten on tarkistuslistoja, joissa käydään läpi virhemahdollisuuksia, riskejä, testaamista ynnä muuta hyödyllistä.

Niiden noudattaminen on sitä vaadittua etiikkaa. Ja jos tekoälyn ratkaisu voidaan alistaa ihmisen harkintaan, kannattaa näin menetellä juuri piilevien virheiden vuoksi. Vaikka tekoäly voittaa diagnosoinnissa lääkärin, viimeinen sana kuuluu ihmiselle.

Jatka keskustelua tekniikan eettisistä kysymyksistä TEKin suositussa Tekniikan etiikka -ryhmässä.