Välittävät tekoälyteknologiat

Mediaatioteoreettisia näkökulmia teknologiasuunnittelun etiikkaan

Otto Sahlgren

Tämä artikkeli kuuluu teemasarjaan Kone.

Teknologia ympäröi ihmistä. Kun ihminen toimii läpeensä teknologisella näyttämöllä, onko teknologia enää vain välineen roolissa? Jälkifenomenologisessa teknologian filosofiassa teknologia ymmärretään aktiivisesti ihmisen havaintoa ja toimintaa suuntaavana, mahdollisuuksia avaavana ja niitä rajoittavana, perimmältään juurettomana voimana. Eettisen teknologiasuunnittelun tavoitteena on tuottaa teknologiaa, joka tekee näitä asioita eettisesti kestävällä tavalla. Kun näyttämölle astuu itsenäisesti toimiva “älykäs” teknologia, muodostuu eettiselle suunnittelulle kuitenkin uusia haasteita.

Johdanto

Alati teknologisoituvassa maailmassa myös eettisen teknologiasuunnittelun merkitys kasvaa. Urbaanit ympäristömme, infrastruktuurimme, elinkeinomme ja päivittäinen toimintamme on rakennettu vahvasti teknologian varaan, jolloin ihmisestä tulee myös haavoittuvaisempi eettisesti kestämättömän teknologian vaikutuksille. Akrich ja Latour ovat esittäneet, että arkipäiväisetkin esineet voidaan ymmärtää eräänlaisina ”toimijoina”, osana laajempia toimijaverkkoja.[1] Latourille toimijaverkot “punoutuvat” tai “kerrostuvat” yhteyksissä orgaanisten että epäorgaanisten elementtien välillä. Toimijuudelle annetaan semioottinen määritelmä, “jokin, joka toimii” tai joka on “toiminnan lähde” verkossa.[2] Dikotomiat niin orgaanisen ja epäorgaanisen kuin toimijoiden ja niiden välisten yhteyksien  välillä eivät tässä mielessä näyttäydy mielekkäänä tai tarpeellisena; toimijaverkko on kokonaisuus, joka tuottaa toimijan. Esineille voidaan esimerkiksi delegoida vastuita ja tehtäviä, joita artefaktit kuuliaisesti seuraavat ilman ihmisen valvontaa. Esimerkiksi liikennevalot ohjaavat liikennettä ja kannustavat liikennesääntöjen mukaiseen toimintaan. Niiden käsikirjoitukseen tai tekniseen ”skriptiin” (engl. script) on täten rakennettu kutsuja ja käskyjä, joita käyttäjien toivotaan kuuntelevan. Sosiaalisen robotin keinotekoiset silmät kutsuvat käyttäjää kiinnittämään tarkkaavaisuuden niihin vuorovaikutuksessa, mutta palohälyttimen korvia raastava ääni käskee poistumaan rakennuksesta.

Teknologiasuunnittelijan kyky ennakoida, miten ihmiset käyttävät teknologiaa ja minkälaisia merkityksiä teknologiat saavat, heijastaa kirjailijalle ominaista taitoa rakentaa kutsuva narratiivi, johon lukija voi ottaa luontevasti osaa. Luonteva käsikirjoitus saa käyttäjän toimimaan suunnittelijan määräämän roolin mukaisesti. Tulkinta, joka käyttäjälle muodostuu vuorovaikutuksessa teknologian kanssa, ei ole kuitenkaan hakattu kiveen. Ihmiset voivat uhmata suunnittelijan odotuksia ennakoimattomilla tavoilla:

…[V]oi olla, että yksikään toimija ei täytä suunnittelijan hänelle näkemää roolia. Tai käyttäjä saattaa määritellä roolinsa itse. Jos näin tapahtuu, objekti säilyy khimerana[3], sillä vasta teknisen objektin ja sen käyttäjien kohdatessa jälkimmäiset tehdään todeksi tai epätodeksi.”[4]

Tehtävien ja vastuiden delegoiminen objekteille edellyttää siis, että käsikirjoitus on käyttäjän luettavissa. Artefaktin materiaalisten ominaisuuksien tulee heijastaa sille tarkoitettua funktiota, paikoin kutsua käyttäjää, paikoin käskeä. Eettisen teknologiasuunnittelun näkökulmasta huomiota on syytä kiinnittää siihen, että tehtävien delegoinnin ohjaavat artefaktien skriptit eivät ole kuitenkaan moraalisesti neutraaleja, vaan ”ei-ihmiset omaksuvat suunnittelijoidensa valikoivat asenteet.”[5]

Akrichin ja Latourin näkemys teknologiasta toimijana osittain kyseenalaistaa syvälle juurtuneen näkemyksen inhimillisestä vapaudesta, joka olisi täysin toimijaverkon ei-inhimillisistä tekijöistä riippumatonta – materiaalinen, teknologinen ja epäorgaaninen ohjaavat toimintaamme alati. Teknologiasuunnittelulla saattaa täten olla suurempi vaikutus myös toimintamme moraalisuuteen kuin olisimme kenties valmiita myöntämään. Kun teknologiaan upotetaan älyä ja kun teknologiat toimivat yhä verkottuneemmin, tulevat nämä vaikutukset yhä vaikeammin tarkasteltaviksi.

Vapaasta valinnasta välittyneisyyteen

Jälkifenomenologinen mediaatioteoria tukeutuu muun muassa Akrichin ja Latourin huomioihin kuvatessaan tapoja, joilla teknologia välittää ihmisen kokemusta, toimintaa ja tämän suhdetta maailmaan.[6] Jälkifenomenologia yhdistelee pragmatistista ja fenomenologista ajattelua tavoitteessaan analysoida erityisiä muotoja, joissa teknologioiden uppoutuminen keskelle inhimillistä kulttuuria ja yhteiskuntaa ilmenee. Tämä ”empiirinen käänne” näkyy jälkifenomenologisessa kirjallisuudessa muun muassa runsaassa tapaustutkimusten määrässä, joissa tarkastelun kohteena ovat yksittäiset teknologiat ja niiden tavat istua inhimillisen toiminnan erinäisiin konteksteihin.[7]

Mediaatioteorian keskeinen käsite, teknologinen välittyneisyys (technological mediation), viittaa ihmisen ja teknologian yhteenkietoutumiseen: jokapäiväinen toimintamme, kommunikaatiosta liikkumiseen, on suurelta osin teknologisesti välittynyttä. Teknologinen välittyneisyys käsitteenä ”koskee teknologian roolia ihmisen inhimillisessä toiminnassa (ymmärrettynä tapoina, joilla ihmiset ovat läsnä maailmassaan) ja inhimillisessä kokemuksessa (ymmärrettynä tapoina, joilla maailma on heille läsnä).”[8] Keskeinen piirre välittyneisyydessä on sille ominainen muuntovaikutus (transformation): toiminnan muoto ja suunta tulevat aina läpikäyneeksi hienovaraisempia tai radikaalimpia muutoksia, kun teknologia istuu osaksi tätä toimintaa. Esimerkiksi kaupankäynnin teknologinen kehitys on lähtenyt liikkeelle tavaran vaihdannasta, jonka jälkeen raha, kolikoina ja seteleinä, muodostui uudeksi vaihdantaa välittäväksi tekijäksi. Nykyään kauppaa käyvät ihmisten sijasta algoritmit, digitaalisesti ja nopeudella, jota ei ole ennen nähty. Muuntovaikutus ilmenee tavassa, jolla käytetty teknologia muokkaa myös ihmisen suhdetta itse toimintaan ja sen päämääriin; kaupankäynnin tapauksessa esimerkiksi datan käyttö ja algoritmisten mallien tehokkuus ovat muodostuneet välttämättömäksi osaksi itse toimintaa.

Mikään teknologia ei kuitenkaan palaudu täysin vain sen funktioon. Ihmisten kyvykkyydet, arvot ja asenteet sekä yhteisölliset ja kulttuuriset käytännöt vaikuttavat osaltaan siihen, kuinka luontevasti teknologia pystyy suorittamaan funktiotaan.[9] Teknologioiden ja ihmis(t)en yhteenkietoutumista voidaan tarkastella monistabiilisuuden (multistability) käsitteen kautta. Teknologiat ovat monistabiileja eli niillä ei ole kiinnitettyä käyttötapaa: teknologialla ei ole perimmäistä olemusta, vaan entiteettinä se saa potentiaalisesti useita eri käyttötapoja, merkityksiä ja tulkintoja riippuen käyttäjästä, käyttöympäristöstä ja kulttuurisesta kontekstista.[10] Lisäksi, koska teknologioilla ei ole perustavaa identiteettiä, niille annetut merkitykset voivat olla suhteellisen riippumattomia niille alun perin tarkoitetusta funktiosta. Valaisevana esimerkkinä teknologian monistabiilisuudesta toimii Lontoon kaupungin ympärivuorokautinen APNR-tiekamerajärjestelmä (automated plate number recording), jonka alkuperäinen tarkoitus oli vähentää ruuhkaa sekä automatisoida ruuhkamaksujen veloitus ruuhka-aikana ajavilta autoilijoilta. Kamerajärjestelmää alettiin kuitenkin käyttää kansallisen turvallisuustilanteen muutoksen ja arvioidun terrorismin riskin nousun myötä turvallisuus- ja valvontatehtäviin.[11] Teknologian monistabiilisuus merkitsee teknologisen determinismin eli näkemyksen, jonka mukaan yhteiskunnalliset rakenteet tulevat yksiselitteisesti määräytyneeksi teknologian kautta, hylkäämistä. APNR-järjestelmän tapaus ilmentääkin oivallisesti materiaalisen ja sosiaalisen maailman verkottumista. Yhtäältä muutos järjestelmän käyttötavassa oli seurausta antiterrorististen strategian implementoinnista, mutta toisaalta se, että järjestelmä oli jo paikallaan, helpotti sen käyttöönoton oikeuttamista valvonnan kohteille. Ilmiötä, jossa olemassa olevaa dataa sekä datatyökaluja otetaan uuteen käyttöön sääntely- ja valvontatarkoituksessa, kutsutaankin osuvasti ”hiipivän valvonnan” ilmiöksi (control creep)[12].  

Teknologisen maailman moraalisubjektit

Kysymys nousee: mikäli materiaalisen ja sosiaalisen suhde ei ole suoraviivainen, miten tulisi tarkastella ihmisen suhdetta teknologiaan, joka aktiivisesti vaikuttaa tämän käyttäytymiseen? Yhtenä vaihtoehtona on tarkastella tapoja, joilla teknologiat hienovaraisesti suuntaavat ihmisen kokemusta ja toimintaa käytön yhteydessä. Käyttäytymistieteissä tähän on viitattu nk. tuuppaamisena tai tönäisemisenä (nudging).[13] Tuuppaukset näkyvät esimerkiksi älypuhelinsovellusten ”push”-ilmoitusten muodossa, jotka ilmoittavat, että lukemattomia viestejä on saatavilla käyttäjälle, ja tuuppauksen johdosta käyttäjä saattaa todennäköisemmin avata sovelluksen. Tuuppaamista onkin kuvailtu osuvasti ”pehmeäksi paternalismiksi”, sillä vaikka tällaiset toiminnot vaikuttavat ohjaavasti käyttäytymiseen, niiden integroiminen teknologiaan pyritään tekemään tavalla, joka säilyttää käyttäjän valinnanvapauden. Mediaatioteorian näkökulmasta tuuppaamisen käsite näyttäytyy kenties kuitenkin riittämättömänä. Tuuppaus, ymmärrettynä käyttäjän toimintaa “pehmeästi” ohjaavana, yksittäisenä teknis-instrumentaalisena interventiona, on materian toimijuudesta riippumaton akti. Toisin sanoen suunta, jonka käyttäjän toiminta saa, ymmärretään vain inhimillisten toimijoiden valintojen tuotteena. Tällainen välineellinen näkökulma ei välttämättä riitä kuvaamaan prosessia, jossa ihmisen subjektiviteetti, autonomia ja vapaus muovautuvat ja pikemminkin tulevat rakennetuksi teknologian ja ihmisen yhteisessä performanssissa. Teknologinen objekti määrittää osaltaan performanssin näyttämön – sen, kuka on vapaa toimimaan, missä roolissa, ja miten. Se aktiivisesti rakentaa suhdetta ihmisen ja maailman välillä eikä ole vain “mykkä” väline ihmisten välissä.[14]

Verbeek on tarkastellut moraalisen subjektiviteetin muodostumista teknologisessa kontekstissa käyttämällä esimerkkinä raskausajan ultraäänikuvantamista.[15] Ultraääni- tai kaikututkimuksen avulla on mahdollista luoda sikiöstä visuaalinen representaatio, joka perustuu kudosten tiheyksien eroavaisuuksiin ja niistä seuraaviin eroihin äänen heijastumisessa. Obstetrinen ultraääniteknologia on kehittynyt kaksiulotteisista kolmiulotteisiin pysäytyskuviin ja viimeisimpänä reaaliajassa seurattavaan kolmiulotteiseen visuaaliseen syötteeseen. Verbeekin mukaan ultraääniteknologia muovaa aktiivisesti suhdetta vanhempien ja sikiön välillä eettisesti merkityksellisellä tavalla. Aktiivinen vaikutus voidaan löytää tarkasteltaessa tapaa, jolla sikiö esiintyy ultraäänikuvassa ja sitä, kuinka representaation myötä myös moraalisen päätöksenteon konteksti mahdollisesti muuttuu.

Ultraäänessä tuotetaan sikiöstä visuaalinen representaatio ruudulle, joka ilmentää erittäin spesifillä tavalla kyseisen teknologian intentionaalisuutta eli tapaa, jolla maailma aukeaa kyseiselle teknologialle. Teknologinen intentionaalisuus on materiaalista intentionaalisuutta, joka ei kuitenkaan tarkoita, että artefaktit toimisivat harkinnanvaraisesti tai voisivat tietoisesti muodostaa perusteita toiminnalleen. Teknologia voi ohjata ihmisen toimintaa vain ihmisen asettuessa jonkinlaiseen suhteeseen sen kanssa – materiaalinen intentionaalisuus ilmenee yhteydessä ihmisen intentionaalisuuteen.[16] Muun muassa visuaalisia ja auditiivisia teknologioita tarkastelleen amerikkalaisen jälkifenomenologin Don Ihden mukaan useat arkipäiväisetkin teknologiat välittävät havaintoamme, jolloin ihmisen intentionaalisuus on välittynyttä intentionaalisuutta.[17] Teknologiat, joiden kautta ihminen kokee maailman ja tulkitsee sitä, vahvistavat tai korostavat tiettyjä piirteitä havaintosyötteessä, mutta samalla muuntavat toisia piirteitä tai sulkevat niitä pois havainnosta. Ultraääniteknologian kohdalla tämä amplifikaation ja reduktion kaksinaisvaikutus ilmenee ensisijaisesti visuaalisessa havainnossa. Sonogrammin pohjalta ruudulle muodostuu valkeita muotoja kontrastoituna mustaan ympäristöön, minkä lisäksi representaatio eroaa myös kooltaan sikiön todellisesta koosta. Sikäli kuin laite vain toimii (kuva esittää tietyllä tarkkuudella sikiön ominaisuuksia jne.) representaatio on toki tarkka tai totuudenmukainen. Kuitenkin havaintokokemuksen näkökulmasta sikiö esiintyy ihmiselle tavalla, jolla maailma aukeaa ensisijaisesti (ultraääni)teknologialle.

Visuaalinen kuvantaminen muuntaa myös tulkinnallista ja tiedollista asetelmaa, jossa sikiötä koskevia moraalisia päätöksiä tehdään. Tullessaan tulkituksi ultraäänikuva personifioi ja sukupuolittaa sikiön sekä mahdollistaa sikiön tarkastelun ontologisesti erillisenä entiteettinä. Ultraäänikuvan visuaalinen kontrastirajapinta ”eristää syntymättömän [lapsen] äidistään.”[18] Ultraäänikuva sijoittaa sikiön uuteen asemaan, moraalisen päätöksenteon kohteeksi, ja siten kutsuu vanhempia asemoimaan itsensä uudelleen suhteessa syntymättömään lapseen.

Tämän lisäksi lääketieteellisestä näkökulmasta sikiöstä tulee potilas, jonka kehitystä voidaan ennustaa havaittujen visuaalisten piirteiden perusteella. Kuvantamisen johdosta sikiöön voidaan kohdistaa lääketieteellisiä interventioita, mikäli normaalikehityksessä havaitaan poikkeamia, jotka sellaisia edellyttävät. Välittyneisyys voi istua lopulta osaksi institutionaalista normia: esimerkiksi Suomen terveydenhuoltolain mukaan raskaana olevilla naisilla on oikeus varhaisraskauden yleiseen ultraäänitutkimukseen, kromosomipoikkeavuuksien seulontaan sekä vaikeiden rakennepoikkeavuuksien selvittämiseen ultraäänitutkimuksen avulla.[19] Kun välittyneisyydestä tulee normi, teknologian käytöstä ja eritoten siitä kieltäytymisestä tulee uudella tavalla merkittävä eettinen kysymys. Keskustelu oikeudesta ja/tai velvollisuudesta käyttää ultraääniteknologiaa onkin istunut keskeiseksi osaksi aborttikeskustelua, ja sen tarjoamaa “näkemällä tietämisen” mahdollisuutta on tarkasteltu kriittisesti muun muassa feministisessä tutkimuskirjallisuudessa.[20]  

Verbeek löytää amplifikaatiolle ja reduktiolle analogisen kaksinaisvaikutuksen myös toiminnan yhteydestä. Kuten Latour esitti, artefaktit voivat kutsua tietynlaiseen toimintaan (invitation) tai estää tiettyjä toiminnan muotoja (inhibition) käytön yhteydessä.[21] On huomattava, että kaksinaisvaikutus toimintaa välittävien teknologioiden kohdalla ei välttämättä edellytä kielellisiä vihjeitä, sillä teknologian materiaaliset ominaisuudet saattavat itsessään edellyttää joitakin toimintatapoja. Verbeekin esimerkki tästä on muovinen kahvikuppi, joka kutsuu heittämään itsensä pois käytön jälkeen, koska sitä ei ole suunniteltu kestämään useita käyttökertoja.[22] Täten teknologioiden materiaaliset ominaisuudet voivat vaikuttaa siihen, miten ihmisten moraalinen subjektiviteetti konstituoituu moraalisen päätöksenteon konteksteissa.

Painotettakoon tässä kohtaa, että Verbeekin argumenttia ei tule lukea teknologiapessimistisenä kritiikkinä, vaan pikemminkin huomiona siitä, että teknologia – edes viattomaan visuaaliseen representaatioon pyrkivä sellainen – ei ole vain neutraali väline, jolla tuotetaan tietoa moraalisen päätöksenteon tueksi. Teknologialla on aktiivinen rooli sen suhteen, miten ihmiset asemoivat itsensä erilaisissa konteksteissa ja mitä asioita he tulkitsevat merkityksellisiksi moraalisen päätöksenteon kannalta. Verbeek tukeutuukin moraalifilosofisessa tarkastelussaan Foucault’n ajatteluun, ja katsoo, että moraalinen subjektiviteetti ei ole koskaan annettu, vaan ihminen joutuu jatkuvasti reflektoimaan omaa asemaansa suhteessa moraaliseen koodistoon ja valtarakenteisiin, joiden keskelle hän on sijoittunut.[23] Hänen analyysinsä keskeinen anti onkin ajatuksessa, että moraalinen subjektiviteetti tulee konstituoiduksi osittain myös teknologioiden kautta.

Verbeek eettisestä teknologiasuunnittelusta

Eettisen teknologian suunnitteleminen edellyttää välineajattelun ylittämistä. Kun teknologiaa ajatellaan välineenä, jolla tuotetaan hyviä tai huonoja lopputulemia, myöskin eettisten kysymysten tarkastelu typistyy kysymykseksi siitä, hyväksymmekö jonkin teknologian käytön vaiko emme. Ihminen on kuitenkin auttamatta luomansa teknologisen verkoston keskellä, jossa materiaalinen konstituoi osaltaan hänen maailmansa sekä kontekstit, joissa moraali muodostuu. Suunnittelija ”materialisoi” moraalin rakentamalla teknologian – useimmiten tiedostamattaan – kuvastamaan omia asenteitaan ja ennakoimaan, kuinka käyttäjä tulee sen kanssa toimimaan.[24] Osaltaan välittyneisyys synnyttää vaikeuden ennakoida vaikutuksia, jotka ilmenevät vasta ihmisen ja teknologian vuorovaikutuksessa:

”Suunnittelijat eivät voi yksinkertaisesti rakentaa artefaktiin haluttua moraalin muotoa. Teknologioiden välittävä rooli ei ole vain suunnittelijoiden, jotka rakentavat käsikirjoituksia tai delegoivat vastuita, tekemisen tulosta. Se on riippuvaista myös käyttäjistä, jotka tulkitsevat ja ottavat teknologiat omakseen, sekä teknologioista itsestään, jotka voivat saada aikaan emergenttejä välittyneisyyden muotoja.”[25]

Verbeek näkee kuitenkin, että eettisempään teknologiasuunnitteluun voidaan pyrkiä integroimalla suunnitteluprosessiin välittyneisyysnäkökulma.[26] Teknologiasuunnittelijat voivat yhtäältä pyrkiä kuvittelemaan mahdollisia sivuvaikutuksia, joita ilmenee upotettaessa teknologia keskelle konkreettista toimintaympäristöä. Tätä vaihtoehtoa voidaan pitää minimaalisena, systeemikeskeistä mielikuvitusta painottavana lähestymistapana, jossa suunnittelijan vastuuna on irrottautua funktiokeskeisestä ajattelutavasta ja pyrkiä huomioimaan etukäteen laajempi sosiotekninen järjestelmä, jonka osaksi teknologia istutetaan. Tuotteita voidaan esimerkiksi pyrkiä suunnittelemaan tietty haaste mielessä. Tämä haaste voi olla esimerkiksi tuotteen materiaalinen, taloudellinen tai psykologinen elinaika. Ensimmäistä voidaan pidentää suunnittelemalla kestävämpiä tuotteita, toista suunnittelemalla esimerkiksi toiminnoiltaan päivitettäviä tuotteita, ja viimeistä sitouttamalla käyttäjä psykologisella tasolla tuotteeseen.[27]

Toisaalta eettisesti kestäviä välittyneisyyden muotoja voidaan pyrkiä eksplisiittisesti rakentamaan sisään teknologiaan esimerkiksi moraaliseen toimintaan kannustavien materiaalisten piirteiden muodossa. Teknologian ”moralisoiminen” tahtoo herättää kuitenkin kriittisiä ääniä, sillä sen voidaan katsoa vähentävän inhimillistä vapautta ja autonomiaa sekä edustavan teknokraattista suunnittelukulttuuria. Mikäli teknologia ei jätä tilaa ihmisen valinnalle, miten ihmisen toimintaa voitaisiinkaan pitää moraalisena itsessään? Verbeekille vapauden rajoittaminen ei kuitenkaan välttämättä tarkoita ihmisen arvon loukkaamista: rajoittaahan nopeushidastekin vapauttamme, mutta emme koe sen loukkaavan arvoamme.[28] Lisäksi ihmisen toiminta on jo teknologisesti välittynyttä, joten vastuullamme tulisi olla, että välittyneisyys saa eettisesti kestävän muodon. Verbeek kuitenkin tunnustaa teknokratian uhan ja katsoo, että teknologian moralisointi tulisi suorittaa demokraattisesti.[29] Teknologian suunnitteluprosessiin voidaan hänen mukaansa integroida kokeiluja, joissa mahdollisia esiin nousevia välittyneisyyden muotoja voitaisiin kokeellisesti testata kaikki relevantit sosiaaliset sidosryhmät (mm. sijoittajat, suunnittelijat, yhteiskunnalliset toimijat, potentiaaliset käyttäjät), mutta myös jo olemassa oleva teknologinen ympäristö huomioon ottaen.  Tämä tarkoittaa nk. konstruktiivisen suunnitteluprosessin[30] laajentamista kattamaan myös ei-inhimillisen toimijuuden ympäristön, jonka osaksi suunnittelun alainen teknologia on tarkoitettu istumaan.[31] Teknologian moralisointi edellyttää toisin sanoen, että kaikki sidosryhmät saavat äänensä kuuluviin, ja että olemassa oleva teknologinen ympäristö otetaan huomioon jo suunnitteluprosessin aikana. Latourin ajatuksiin nojaten Verbeek katsookin, että teknologioiden ja niihin liittyvien eettisten kysymysten tulisi olla yhdessä, julkisesti keskusteltavia asioita (res publica).[32]

Välittävät tekoälyteknologiat ja niiden moralisointi

Tekoälyteknologioiden moralisoinnin haasteeksi muodostuu niille ominainen autonomisuus ja sopeutuvaisuus sekä teknologian käyttöön liittyvien rajojen hämärtyminen. Tekoälyjärjestelmien avulla on mahdollista automatisoida laskennallisia prosesseja ja päätöksentekoa, jolloin järjestelmä pystyy toimimaan autonomisesti ilman tarvetta ihmisen ohjaukselle. Koneoppimisen keinoin opetettu tekoäly oppii siihen syötetyn datan pohjalta, jolloin sen toiminnasta tulee dynaamista ja muovautuvaa sen sijaan, että sen käyttäytymistä voitaisiin täydellisesti ennustaa joka tilanteessa. Lisäksi syväoppivien järjestelmien kohdalla suoritettuja prosesseja ei useimmiten pystytä tarkastamaan jälkikäteen niiden kompleksisuuden vuoksi. Jälkimmäiseen viitataankin usein algoritmisten ‘mustien laatikoiden’ ongelmana.[33] Tekoälyteknologian moralisoiminen saattaakin täten olla hankalampi haaste kuin perinteisten teknologioiden kohdalla, sillä järjestelmien autonomisuus ja sopeutuvaisuus tekevät teknologisesti välittyneestä toiminnasta yhä hankalammin osiinsa purettavaa – niiden skriptit eivät ole välttämättä luettavissa. Käyttäjälle saattaa myös olla epäselvää, missä, milloin, miten ja miksi tekoälyteknologia on käytössä. Esitän seuraavaksi kuitenkin kaksi huomioita tekoälyteknologisesta välittyneisyydestä, jotka saattavat osoittautua hyödyllisiksi niiden moralisoimisen kannalta.

1) Koska tekoälyteknologiat ja älykkäät artefaktit kykenevät suuntaamaan toimintaansa näennäisen itsenäisesti ja sopeutuvasti uusiin suuntiin, voidaan erityisenä piirteenä löytää näistä järjestelmistä materiaalisen intentionaalisuuden dynaamisempi luonne.

Neuroverkot kykenevät muokkaamaan omia parametrejään hienosäätäen niitä syötetyn datan pohjalta, jolloin niiden tapa suuntautua maailmaan muuttuu. Neuroverkkojen ”oppiminen” perustuu siis niiden kykyyn virittää mallin ominaisuuksia vastaamaan maailmasta saatua syötettä vahvistamalla nk. keinotekoisten neuronien välisiä yhteyksiä.[34] Todettakoon, että dynaaminen intentionaalisuus edellyttää yhä kuitenkin ihmisen, suunnittelijoiden ja käyttäjien, osallisuutta. Mallin rakentamiseen itsessään liittyy lukuisia valintoja suunnittelijan osalta: olennaisen datan, soveltuvien mittareiden ja käytettävien algoritmien valinta edellyttää aina ihmisen harkintaa.[35] Kestämättömät valinnat (joko tahalliset tai tahattomat) saattavat johtaa nk. algoritmisiin vinoumiin, jotka voivat ilmetä muun muassa järjestelmän toiminnasta seuraavina syrjivinä käytäntöinä.[36] Järjestelmien kompleksisuus voi kuitenkin estää tällaisten vinoumien löytämisen ennen käyttöönottoa, jolloin ei ole välttämättä mahdollista tietää, kenen vastuulla järjestelmään rakentunut malli – syrjivä skripti – lopulta on.

Palaten lyhyesti teknologisesti välittyneen havainnon amplifikaation ja reduktion kaksinaisvaikutukseen (ks. yllä), voidaan todeta, että havaintokokemuksellinen rakenne ei ole esimerkiksi kuvantunnistusalgoritmin tapauksessa staattinen. Toisin kuin esimerkiksi obstetrisessa ultraääniteknologiassa, visuaalista kuvaa analysoivissa algoritmisissa malleissa amplifikaatio ja reduktio elävät dynaamisesti, heijastaen malliin syötetyn datan ominaisuuksia. Mallin oppiessa erilaiset piirteet visuaalisessa syötteessä tulevat järjestelmälle merkityksellisemmiksi sikäli kuin niiden saamat painoarvot[37] ohjaavat mallin toimintaa. Generatiivisten kilpailevien verkkojen (generative adversarial networks tai GAN) avulla voidaan tuottaa esimerkiksi visuaalisia representaatioita, joista tavat, joilla maailma aukeaa tällaisille järjestelmille tulee näkyväksi myös ihmiselle.[38]

Yhtä lailla esimerkiksi suunnittelu-, optimointi-, luokittelu- ja suosittelutehtäviä suorittavien algoritmisten järjestelmien kohdalla kutsumisen ja estämisen kaksinaisvaikutus on dynaaminen. Suosittelualgoritmien avulla on esimerkiksi mahdollista suositella nettikaupan asiakkaalle tuotteita, jotka sopivat hänen kulutuskäyttäytymisensä pohjalta tuotettuun profiiliin. Millaiseen käyttäytymiseen järjestelmä käyttäjää ohjaa muokkautuu käytön yhteydessä jatkuvasti – ekologiset valinnat esimerkiksi saattavat kutsua myöhemmin vastaaviin valintoihin. Teknologian vaikutus kokemukseemme ja toimintaamme on aktiivista, mutta upotettu äly tekee siitä myös yhä enemmän reaktiivista. Dynaaminen kaksinaisvaikutus on myös läsnä ambienttia älykkyyttä[39] edustavissa teknologioissa, kuten digitaalisessa Persuasive Mirror -peilissä. Persuasive Mirror tuottaa käyttäjästä digitaalisen ennustekuvan visuaalisen syötteen ja käyttäjän elintapatottumuksiin perustuvan datan pohjalta.[40] Ennustekuvan tarkoitus on tarpeen mukaan motivoida käyttäjää tekemään elintapamuutoksia, ja peili antaa käyttäjälle visuaalisen kannustimen lisäksi suosituksia esimerkiksi ruokavalion ja liikunnan suhteen. Siinä, missä esimerkiksi ulkoilmakuntosali kutsuu käyttäjää liikkumaan, Persuasive Mirror yksilöi ja personifioi tämän kutsun. Kutsun ”vahvuuskin” vaihtelee dynaamisesti suhteessa käyttäjän toimintaan, mikä heijastuu näytöllä visuaalisesti esitetyssä digitaalisesti manipuloidussa kuvassa. Manipuloidun kuvan vaikutuksen analysoiminen tuuppaamisen (ks. yllä) käsitteen avulla ei välttämättä tavoita kokonaisvaltaista (havainto)kokemuksellista ja toiminnallista ulottuvuutta, joka Persuasive Mirrorin käyttöön liittyy – ihmistä ei vain tuupata toimimaan, vaan ihminen havaitsee itsensä ja kehonsa uudella tavalla teknologian välittämänä, jolloin vuorovaikutuksessa syntynyt tulkinta muuttaa myös suhdetta kehoon ja toimintatapoihin.

2) Tekoälyteknologinen välittyneisyys ei ole välttämättä episteemisesti läpinäkyvää. Yksilö ei aina tiedä tai edes voi tietää missä, milloin ja mihin tarkoituksiin teknologiaa käytetään.

Eettisen suunnittelun näkökulmasta haasteeksi muodostuu rajankäynti järjestelmän tuomien hyötyjen ja niiden läpinäkyvyyden välillä.  Tekoälyjärjestelmän prosessuaalinen ymmärrettävyys edellyttää usein kompromissia kompleksisuudessa, mikä voi johtaa puutteisiin ennusteiden tarkkuudessa ja tehottomuuteen toiminnassa. Läpinäkyvyyden haaste koskee myös esimerkiksi (sosiaalisten) robottien suunnittelua. Robotti voidaan saada näyttämään “älykkäältä” integroimalla robotin ulkoasuun ja käyttöliittymään inhimillisiä visuaalisia ilmeitä, esteettisiä piirteitä ja eleitä, mikä voi olla hyödyllistä käyttökokemuksen näkökulmasta. Käyttäjien antropomorfistisia taipumuksia hyödyntävää suunnittelua on kuitenkin kritisoitu runsaasti.[41]

Datan kerääminen ja sen käyttötavat ovat myös haaste eettisen teknologiasuunnittelun näkökulmasta. Datan monistabiilisuus mahdollistaa, että sitä voidaan hyödyntää useilla sovellusalueilla suurelta osin riippumatta sen alkuperäisestä käyttötarkoituksesta, kuten nähtiin APNR-järjestelmän tapauksessa. Koska dataa myös kerätään huimia määriä, ja koska datan keruun muodot sekä sen käyttötarkoitukset ovat usein käyttäjälle hämärän peitossa, on yksilön yhä vaikeampaa asemoida itseään suhteessa ympäröivään teknologiaan. Yrityksien keräämää dataa voidaan käyttää erinäisiin tarkoituksiin, joita käyttäjä ei välttämättä hyväksy, mutta joista hän ei ole myöskään tietoinen. Lisäksi, datan louhinnan yhteydessä järjestelmä voi johtaa yksilöä koskevaa sensitiivistä dataa (esim. sukupuoli tai etnisyys) muusta ei-sensitiivisestä datasta, vaikka niin käyttäjä kuin suunnittelijakaan ei olisi tietoisesti mahdollistanut sensitiivisen datan suoraa käyttöä järjestelmän toiminnassa.[42] Kun dataa kerätään ympäristöön upotetun teknologian avulla, nousee esiin myös kysymys siitä, milloin ihminen on teknologian käyttäjä ja milloin tuote; milloin häntä palvellaan ja milloin valvotaan.[43] Läpinäkyvyyttä ja selitettävyyttä algoritmisessa päätöksenteossa sekä datatyökalujen käytössä onkin peräänkuulutettu runsaasti tutkimuskirjallisuudessa[44] sekä tekoälyä käsittelevissä raporteissa[45].

Mediaatioteoria voi tarjota käsitteellisiä työkaluja tekoälyn eettisten kysymysten perkaamiseen, joskaan ei välttämättä lopullisia vastauksia niihin. Ympäristössämme vuorovaikuttavat ja paikoin näkymättömät autonomiset ja adaptiiviset teknologiat tekevät ihmisen toiminnan ja kokemuksen teknologisesta välittyneisyydestä dynaamista ja episteemisesti hämärärajaista. Tekoälyteknologian eettinen suunnittelu edellyttää osaltaan, että välittyneisyyden muotoja voidaan arvioida ja ennustaa asianmukaisesti, sidosryhmät ja olemassa oleva teknologinen ympäristö huomioiden. Tekoälyn moralisoiminen edellyttää lisäksi ymmärrettävyyden ja läpinäkyvyyden materialisoimista osaksi järjestelmien toimintaperiaatteita.  Nykyaikaiset verkottuneet älykkäät järjestelmät tekevät yhä vaikeammaksi välittyneisyyden muotojen analysoimisen, mikä edellyttää teknologiasuunnittelijoilta kyvykkyyttä ja halua toimia yhdessä sidosryhmien sekä myös muiden teknologia-alan toimijoiden kanssa.

Kirjallisuus

AccessNow. (2018). Mapping Regulatory Proposals for Artificial Intelligence in Europe.  (URL: https://www.accessnow.org/cms/assets/uploads/2018/11/mapping_regulatory_proposals_for_AI_in_EU.pdf).

AI Now. (2018).  AI Now Report 2018. (URL: https://ainowinstitute.org/AI_Now_2018_Report.pdf).

Akrich, M. 1992. The De-Scription of Technical Objects. Shaping Technology/Building Society, toim. W. E. Bijker & J. Law, 205-24. Cambridge: MIT Press.

Alpaydin, E. (2016). Machine Learning. Cambridge (Mass.): MIT Press.

Altmann, D., Andler, K., Bruland, K., Nakicenovic, N., & Nordmann, A. (2004). Converging technologies-shaping the future of European societies.

Barocas, S. & Selbst, A. D. (2016). Big data’s disparate impact. Calif. L. Rev., 104, 671.

Boden, M., Bryson, J., Caldwell, D., Dautenhahn, K., Edwards, L., Kember, S., Newman, P., Perry, V., Pegman, G., Rodden, T., Sorrell, T., Wallis, M., Whitby, B. & Winfield, A. (2017). Principles of robotics: regulating robots in the real world. Connection Science, 29(2): 124-129.

Bryson, J. J. (2010). Robots should be slaves. Close Engagements with Artificial Companions: Key social, psychological, ethical and design issues, 63-74.

Coaffee, J. (2004). Rings of steel, rings of concrete and rings of confidence: designing out terrorism in central London pre and post September 11th. International Journal of Urban and Regional Research, 28(1), 201-211.

Coeckelbergh, M. (2017). Using Words and Things: Language and Philosophy of Technology. Routledge.

Danks, D., & London, A. J. (2017, August). Algorithmic bias in autonomous systems. Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence, 4691-4697.

Dodge, M., & Kitchin, R. (2007). The automatic management of drivers and driving spaces. Geoforum, 38(2), 264-275.

Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., & Schafer, B. (2018). AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28(4), 689-707.

Ihde, D. (1990). Technology and the lifeworld. Bloomington: Indiana University Press.

Ihde, D. (2008). Introduction: postphenomenological research. Human Studies, 31(1), 1-9.

Kelleher, John D. and Tierney, Brendan. Data Science, 2018. Cambridge: MIT Press.

Latour, B. (1992). 10 Where Are the Missing Masses? The Sociology of a Few Mundane Artifacts.

Latour, B. (1996). On actor-network theory: A few clarifications. Soziale welt, 369-381.

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 2053951716679679.

Palmer, J. (2009). Seeing and knowing: Ultrasound images in the contemporary abortion debate. Feminist theory, 10(2): 173-189.

Schot, J., & Rip, A. (1997). The past and future of constructive technology assessment. Technological forecasting and social change, 54(2-3), 251-268.

Valtioneuvoston asetus seulonnoista 2011/339. Annettu Helsingissä 6. päivänä huhtikuuta 2011. (URL: http://www.finlex.fi/fi/laki/alkup/2011/20110339)  

Verbeek, P. P. (2006). Materializing morality: Design ethics and technological mediation. Science, Technology, & Human Values, 31(3), 361-380.

Verbeek, P. P. (2008a). Obstetric ultrasound and the technological mediation of morality: A postphenomenological analysis. Human Studies, 31(1), 11-26.

Verbeek, P. P. (2008b). Morality in design: Design ethics and the morality of technological artifacts. Philosophy and design (91-103). Springer, Dordrecht.

Verbeek, P. P. (2009). Ambient intelligence and persuasive technology: The blurring boundaries between human and technology. Nanoethics, 3(3), 231.V












































Viitteet    (↵ palaa tekstiin)
  1. Akrich 1992; Latour 1992 ja 1996

  2. Latour 1996, 373 (suom. O.S.)

  3. Mytologinen olento, joka koostuu usean eri eläimen osista. Khimeralla Akrich viittaa ratkaisemattomaan, epämääräisenä havaittuun entiteettiin, jolla ei ole selkeätä olemusta.

  4. Akrich 1992, 208 (suom. O.S.)

  5. Latour 1992, 158 (suom. O.S.)

  6. Verbeek 2006, 2008a ja 2008b

  7. Ihde 2008, 1–2

  8. Verbeek 2006, 363 (suom. O.S.)

  9. Verbeek 2006, 362

  10. Ihde 1990; Verbeek 2006, 365

  11. Ks. Coaffee 2004, Dodge & Kitchin 2007

  12. Kelleher & Tierney 2018, 196–197

  13. Sunstein 2014

  14. Coeckelbergh 2017, Verbeek 2008b

  15. Verbeek 2008a

  16. Verbeek 2008b, 95

  17. Ihde 1990

  18. Verbeek 2008a, 16 (suom. O.S.)

  19. Valtioneuvoston asetus seulonnoista 2011/339

  20. Ks. esim. Palmer 2009

  21. Latour 1992; Verbeek 2006, 366–368

  22. Verbeek 2006, 367

  23. Verbeek 2008a, 18

  24. Verbeek 2006

  25. Verbeek 2006, 372 (suom. O.S.)

  26. Verbeek 2006, 372

  27. Verbeek 2006, 373–375

  28. Verbeek 2006, 370

  29. Verbeek 2006, 370–371

  30. Konstruktiivisessa suunnitteluprosessissa pyritään ottamaan aktiivisesti huomioon yhteiskunnalliset sidosryhmät jo suunnitteluvaiheessa, eikä rajoituta vain potentiaalisten ongelmakohtien kartoittamiseen. Ks. esim. Schot & Rip 1997

  31. Verbeek 2006, 375–377

  32. Verbeek 2008b, 102

  33. Mittelstadt ym. 2016, 6

  34. Ks. esim. Alpaydin 2016, luku 4

  35. Ks. esim. Danks & London 2017; Kelleher & Tierney 2018, 46-47

  36. Ks. esim. Danks & London 2017; Barocas & Selbst 2016

  37. Arvo, joka kuvaa yhteyden vahvuutta yksittäisten neuronien välillä (engl. weight).

  38. Näytteitä generatiivisten kilpailevien verkkojen tuotoksista löytyy mm. sivulta https://skymind.ai/wiki/generative-adversarial-network-gan.

  39. Ennakoivaa ja adaptiivista tekoälyteknologiaa, joka on upotettu esineisiin tai ympäristöihin. Ambientti älykkyys voi olla huomaamatonta ja ihmisen toimintaan sopeutuvaa.

  40. Verbeek 2009, 232

  41. Boden ym. (2017, 127) katsovat, että robottien valmistajat voisivat hyödyntää näitä taipumuksia taloudellisen hyödyn tavoittelemisessa. Bryson on lisäksi kritisoinut tekoälyjärjestelmien ja robottien inhimillistämistä puoltavia näkemyksiä ja  katsoo, että “kutsumalla jotakin ihmiseksi, joka ei sitä ole, vie vain arvoa todelliselta ihmisyydeltä.” (Bryson 2010, 11)

  42. Barocas & Selbst 2017, 691-692

  43. Altmann ym. 2004, 33

  44. Ks. esim. Floridi ym. 2018; Mittelstadt ym. 2016.

  45. Ks. esim. AI Now 2018, AccessNow 2018.