Artikkeli

ma 21. kesäkuu 2021

Kirjoittaja: Esko Kivisaari, varatoimitusjohtaja

Kun musta kuningatar kohtaa mustan joutsenen – pohdintaa tiedonkäytön etiikasta vakuutustoiminnassa

Erään FINEn edeltäjän synty liittyi tilanteeseen, jossa Reino Paasilinnan osuva tv-ohjelma kritisoi vakuutus­alan käytäntöjä. Kehitys on kehittynyt, yhteydenpidon tavat ovat muuttuneet.

Nykyään tv:tä katsotaan suoratoistopalvelujen kautta. Aikojen muuttumisen kunniaksi otan kirjoitukseni pohjaksi Netflixin tuottaman Musta kuningatar -sarjan. Sarjassa nuori nainen murtautui shakkimaaliman tietoisuuteen ja peittosi lopulta kaikki vastustajansa. Menestyminen edellytti erilaisten pelien, aloitusten ja siirtojen analysointia ja oppimista. Sarjan kauniita piirteitä oli, että voitetut vastustajat eivät kantaneet kaunaa, vaan ryhtyivät auttamaan päähenkilöä menestymään yhä paremmin.

Shakin ja joidenkin muidenkin pelien maailmaa ovat järkyttäneet uutiset, joiden mukaan tekoälysovellukset ovat muuttuneet voittamattomiksi vastustajiksi. Kasvanut tiedon käsittelykapasiteetti ja kehittyneet tavat ohjelmoida haastavat ihmisen kyvyt hallita näitä monimutkaisia pelejä. Tekoälyn menestys on saanut monet kysymään, tarvitaanko ihmistä kohta enää mihinkään.

Kehityksen rinnalla käydään keskustelua siitä, millainen uuden tekniikan soveltaminen on reilua yksittäistä asiakasta kohtaan. Ongelma ei ole yksinkertainen. Tuonnempana kuvataan, miten yksittäisen vakuutetun tilanteen ja vakuutuskollektiivin välillä vallitsee jännite.

Musta kuningatar hallitsi shakin pitkälle ja tekoäly voi auttaa hänet täydellisyyteen. Onko sama täydellisyys mahdollista, kun pohditaan tekoälyn ja tiedon eettistä käyttöä vakuutustoiminnassa?

 

Tekoäly on paljon muutakin kuin tekoälyä

Tietojenkäsittelyn pioneeri Alan Turing on vuonna 1950 luonut  nimeään kantavan testin tekoälylle. Testin mukaan kone on älykäs silloin, kun sen kanssa keskusteleva henkilö ei pysty päättelemään, onko keskustelu­kumppanina ihminen vai kone. Tällaista tekoälyä on tavoiteltu koko tietotekniikan kehityksen ajan. Ainakin joillain alueilla nykyiset tekoälysovellukset alkavat täyttää Turingin testin vaatimukset.

Turingin testin täyttämiseen ei riitä taitavasti rakennettu sovellus tai kone. Kun nykyään puhutaan tekoälystä, asiaan liitetään paljon muutakin teknologista kehitystä, joka ei varsinaisesti ole missään mielessä tekoälyä, mutta jota ilman tekoälyä on mahdotonta rakentaa.

Keskeiset tekoälyn kehityksen mahdollistavat teknologiset edistysaskeleet liittyvät digitaalisen datan määrän räjähdysmäiseen kasvuun, sen tallennustekniikoiden kehittymiseen ja edelleen tietojenkäsittelyn nopeutumiseen. Pelkät tekniset laitteet eivät luonnollisesti hyödytä paljoakaan. Teknologian rinnalla niiden käytön teoria on edistynyt. Tältä osin puhutaan esimerkiksi datatieteestä tai ennusteanalytiikasta. Välttämättä kaikki datatieteessä ei ole uutta ajattelua. Usein voi olla kysymys siitä, että jo kauan sitten ymmärretty asia on muuttunut teoriasta käytännöksi, kun tehokkaammat tietokoneet ja kattavampi data ovat tehneet laskennan mahdolliseksi realistisessa ajassa.

 

Data ja vakuutus

Vakuutusala on ollut koko historiansa ajan eräänlainen ’dataholisti’. Vakuuttaminen onnistuu sitä paremmin, mitä enemmän dataa on käytettävissä ja mitä tehokkaammin sitä voidaan hyödyntää. Ongelma on ollut, että dataa ei ole ollut käyttökelpoisessa muodossa. Silloinkin kun sitä periaatteessa olisi saatavilla, sen kerääminen ja todentaminen on ollut kallista.

Toinen pullonkaula vakuutustoiminnassa on ollut saatavilla olevan datan käsitteleminen. Keräämisen tapaan myös käsittely on ollut kallista. Onkin luonnollista, että vakuutusala on koko tietokoneiden historian ajan ollut laitevalmistajien hyvä asiakas ja pyrkinyt saamaan käyttöönsä parhaat mahdolliset laitteet.

Tähän päivään saakka vakuutusala on kuitenkin tukeutunut varsin perinteisiin ennustemalleihin. Enemmän on ollut kysymys vanhojen menetelmien nopeammasta toteuttamisesta kuin siitä, että olisi pyritty laadullisesti parempaan digitaalisen datan hyödyntämiseen.

Kärjistettynä esimerkkinä voidaan todeta, että henkilövakuutuksen tyypillisiä perussuureita ovat olleet vakuutetun ikä ja sukupuoli. Nämä parametrit menettäisivät paljon merkityksestään, jos käyttöön saataisiin esimerkiksi henkilön päivittäistavarakaupan ostohistoria kymmenen vuoden ajalta, tieto kuntosalilla käynnistä, parturi-kampaamoiden käyttö ja ostotapahtumat apteekista. Näiden tietojen jälkeen haluttaessa saadaan vakuutetut varsin tarkasti jaettua iän ja sukupuolen mukaan, ja näiden parametrien lisäksi käytössä olisi runsaasti muuta vakuutettavuuteen vaikuttavaa tietoa. Tämä esimerkki on luonnollisesti tulkittava teoreettiseksi mahdollisuudeksi: sukupuolen käyttö vakuutettavuuden kriteerinä on yksiselitteisesti kiellettyä, eikä muukaan menettely saa epäsuorasti johtaa käytännössä sukupuolen mukaiseen jaotteluun.

 

Mitä on etiikka vakuutustoiminnassa?

Dataa käytetään vakuutustoiminnassa siksi, että pystyttäisiin mahdollisimman hyvin huolehtimaan riskienhallinnasta eli poolaamisesta: kerätään kaikilta vakuutetuilta mahdollisen vahingon kokoon suhteutettuna pienehköt vakuutusmaksut, joiden yhteismäärä riittää korvaamaan vahingot niille harvoille, joiden kohdalla riski toteutuu. Vakuutuksen tuote on tämän mukaan kaikkien saama turva vahingon varalta – vakuutuskorvaus ei ole tuote. Paremmalla tiedolla vakuutetuista voidaan huolehtia, että kukin maksaa riskiinsä nähden oikean suuruisen vakuutusmaksun.

Vakuutustoiminnan perusteisiin sisältyy jännite toisaalta vakuutuskollektiivin ja toisaalta yksittäisen asiakkaan välillä:

  • vakuutuskollektiivi muodostuu asiakkaista, jotka haluavat jakaa riskit toistensa kanssa niin, ettei kukaan yksittäinen vakuutettu voi asiattomasti hyötyä pääsystä riskien jakamisen piiriin, ja
  • yksittäinen asiakas haluaa turvaa itselleen sattuvien vahinkojen varalta ja hän haluaa päästä osaksi vakuutuskollektiivia kohtuullisilla ehdoilla ja kohtuullisella vakuutusmaksulla.

Vakuutustoiminnan peruspiirteisiin kuuluu vastuunvalinta, ts. se, miten vakuutuskollektiivia hoitava vakuu­tus­laitos huolehtii siitä, että liian riskilliset kohteet eivät pääse osaksi kollektiivia. Vakuutuslaitos pyrkii hinnoittelemaan kohteen oikein. Se voi asettaa rajoituksia sille, mitkä riskit kohteen osalta katetaan, ja määritellä kustakin riskistä perittävän vakuutusmaksun. Se voi edelleen äärimmäisessä tapauksessa kokonaan kieltäytyä jonkin kohteen liittämisestä kollektiiviin eli evätä vakuutuksen. Esimerkkinä voidaan sanoa, että kuolemaan johtavaa sairautta jo vakuutusta hakiessaan poteva ei voi päästä mukaan henkivakuutukseen ainakaan ilman huomattavia rajoitteita.

Edellinen kuvaa vakuutusta sellaisena, kuin sitä harjoitetaan yksityisvakuutuksena. Lakisääteisessä vakuu­tuksessa vastuunvalinta on huomattavasti lievempää. Lakisääteisessä vakuutuksessa toteutetaan tulon­siirtoa. Se on mahdollista, sillä vakuutukseen osallistuminen on pakollista. Yksityisvakuutuksessa liian salliva vastuunvalinta johtaa valikoitumisen kierteeseen: vakuuttamisen ollessa vapaaehtoista yhä harvempi haluaa osallistua kollektiiviin, jossa muut vakuutetut ovat järjestelmällisesti liian riskillisiä.

 

Tekoälyn ja muun teknologian tuoma murros vakuutustoimintaan

Tekoälyllä ja muulla teknologisella kehityksellä on mahdollisuus vaikuttaa syvällisesti lähes kaikkiin vakuutuksen osa-alueisiin. Uuden teknologian käyttöönotolle on tyypillistä, että muutos on niin sanotusti eksponentiaalista: alussa hitaasti ja huomaamatta muuttuvat asiat monikertaistuvat vuosien mittaan, ja ne muuttuvat eri toimialoja mullistaviksi eli disruptiivisiksi ilmiöiksi. Kehityksen kelkkaan saattaa olla mahdotonta tai vähintäänkin vaikeaa päästä mukaan enää siinä vaiheessa, kun varsinainen mullistus on jo käynnissä.

Mullistuksen havaitseminen ajoissa on vaikeaa. Valtaosa pienistä signaaleista häviää ajan mittaan. Vain muutama harva ilmiö johtaa ajan mittaan mullistuksiin. Kaikkien mahdollisten ilmiöiden seuraaminen johtaa rönsyilyyn, joka sekään ei ole millekään yritykselle hyväksi.

Tietotekniikan kehityksen aiheuttamia mullistuksia on ennustettu jo ensimmäisistä tietokoneista alkaen. Suuret lupaukset ovat yleensä jääneet lunastamatta. Tietotekniikan kehitys on kuitenkin teknisellä tasolla noudattanut varsin hyvin ns. Mooren lakia: tehot kaksinkertaistuvat lyhyin väliajoin samalla, kun kustannukset puolittuvat. Tämä eksponentiaalinen kehitys luo vakaata uskoa siihen, että tekoälyllä ja muulla tietotekniikalla on potentiaali saada aikaan asioita, joiden laajuutta on nykypäivänä vaikea ennustaa.

Vakuutus voimakkaasti dataa hyödyntävänä toimialana kuuluu aloihin, joihin teknologian kehitys voi vaikuttaa huomattavasti keskimääräistä enemmän. Keskeisiä vakuutusalaan vaikuttavia teknologioita ja trendejä ovat muun muassa seuraavat:

  • esineiden internet (Internet of Things), joka kytkee yhä useammat arkipäivämme esineet verkkoon ja mahdollistaa datan keräämisen sekä ehkä myös sen, että esine voi itse ilmoittaa vaurioitumisestaan,
  • tiedon tallentamisen helpottuminen edullisten pilvipalveluiden myötä,
  • digitaalisen datan määrän valtava kasvu (nimellä Big Data tunnettu ilmiö),
  • kuluttajakäyttäytymisen murros uusien sukupolvien tietotekniikkataitojen myötä sekä siinä, että palvelua ei haluta odottaa,
  • tekoälysovellusten mahdollistuminen,
  • data-analytiikan uudet työkalut,
  • alustatalouden suurten toimijoiden hallitseva rooli,
  • sopimusten teko virtuaalimaailmassa lohkoketjujen (blockchain) avulla,
  • robotiikan kehittyminen, sekä
  • teknologian mahdollistama siirtymä esineiden omistamisesta niiden hallintaan vain, kun niitä tarvitaan.

Käytännön vakuutustoiminnassa vaikutuksia voi tulla usealle alueelle. Uuden teknologian käytön pioneereihin kuuluva Lemonade-yritys toteaa etusivullaan: ’Unohda kaikki, mitä tiedät vakuutuksesta’. Isoja vaikutuksia voivat mahdollisesti olla muun muassa:

  • uudenlaisen tiedon saaminen sekä tiedon käytön nopeutuminen ja halpeneminen muuttavat vakuutusten hoidon kustannusrakennetta niin, että vakuutuksen hinta lähenee riskin odotusarvoa (toisin sanoen vakuutuksen hoidon kustannukset lähes poistuvat),
  • alustatalous voi muuttaa vakuutustuotteen logiikkaa niin, että vakuutusturva on erottamattomana osana muuta palvelua,
  • esineiden omistamisen muuttuminen poistaa tarpeen ottaa vakuutus erikseen esimerkiksi autoa varten,
  • liikenteen automatisoituminen tms. siirtänee vastuun liikennevälineen kuljettajalta liikennevälineen valmistajan vastuukysymykseksi,
  • kotivakuutus voi esineiden internetin tms. kautta muuttua kokonaisuudeksi, joka ottaa tarkalleen huomioon irtaimiston määrän ja laadun, ja myös rakennuksen koko elinkaaren rakentamisesta purkamiseen saakka,
  • henkilövakuutus voidaan liittää osaksi älyrannekkeita tms. laitteita, jotka jatkuvasti mittaavat terveydentilaan, liikuntaan ja ravintoon ym. käyttäytymiseen liittyviä asioita, ja
  • yritysvakuutus on perinteisestikin ollut kuluttajavakuutusta yksilöidympää, mutta yrityksen eri osien kytkeytyminen verkkoihin mahdollistaa yhä tarkemmin kunkin yrityksen riskejä vastaavan vakuuttamisen, jossa tietoturvariskit painottunevat aiempaa enemmän

 

Miten tekoäly haastaa vakuutustoiminnan etiikan?

Tekoäly tuskin miltään osiin tuo esiin aidosti uusia vakuuttamisen ongelmia. Kyse on enemmän siitä, että monet perinteiset vakuutustoiminnan eettiset kysymykset muuttavat muotoaan. Osittain tekoäly antaa mahdollisuuden toimia aiempaa paremmin ja reilummin, osittain se taas kärjistää alan historiasta tuttuja ongelmia.

Parhaimmillaan tekoäly antaa aiempaa paremman mahdollisuuden hinnoitella riskit mahdollisimman hyvin riskiä vastaavasti. Tämä voi kasvattaa vakuutuksen kattavuutta tuoden ennen katveeseen jääneet kohteet vakuutuksen piiriin. Edelleen tekoäly voi tehostaa hoitoprosesseja ja tuottaa asiakkaille turvaa aikaisempaa alhaisemmin hinnoin. Alempi hinta on jo sinällään hyvä asia, mutta se voi lisäksi tehdä mahdolliseksi vakuuttaa asioita, jotka liian kalliit hoitokulut tekivät aiemmin vakuutuskelvottomiksi. Tekoälyn mahdolli­suudet näillä alueilla ovat huomattavat.

Samalla tekoäly voi muuttaa ja kärjistää perinteisiä vakuuttamisen ongelmia. Hankalin kysymyksistä koskee yksilön reiluja mahdollisuuksia saada vakuutus. Vakuutusyhtiön keskeinen tehtävä on huolehtia siitä, että riskin­jakoa ei hyödynnetä asiattomasti oman edun tavoitteluun. Riskipoolin suojelemiseksi yhtiöllä on tarve huolehtia siitä, että riskillisemmiltä kohteilta peritään korkeampi maksu ja ääritapauksessa vakuutus evätään kokonaan.

Tämä voi johtaa haavoittuvassa asemassa olevien asiakkaiden väärään kohteluun. Asiassa voidaan törmätä myös yhteiskunnalliseen hyväksyttävyyteen, kuten ehdottomaan kieltoon käyttää esimerkiksi sukupuolta tai etnistä taustaa hinnoittelun tai vakuutettavuuden kriteerinä. On yksinkertaista kieltää tällaisten tekijöiden suora käyttö hinnoittelun tai vakuutettavuuden kriteerinä. Vaikeampi on välttää sitä, että epätasa-arvoista kohtelua tulee mukaan kiertotietä: joidenkin itsessään hyväksyttävien kriteerien käyttö saattaa jakaa asiakkaat luokkiin, jotka käytännössä vastaavat esimerkiksi sukupuolen mukaan tehtyä jakoa. Analytiikka voi edelleen johtaa ns. intersektionaaliseen syrjintään, jossa yksilö samanaikaisesti kuuluu useamman eri tekijän kautta haavoittuvaan asemaan. Matemaatikko löytää nykyisin käytössä olevan termin takaa alkeisjoukko-opin yksinkertaisen joukkojen leikkauksen eli intersektion käsitteen.

Vakuutuksen perinteisiin piirteisiin kuuluu informaatioasymmetria.  Tällä tarkoitetaan, että yleisesti ottaen asiakas on tiennyt tilanteestaan enemmän kuin vakuutusyhtiö. Asiakas on esimerkiksi henkivakuutusta ottaessaan ollut vakuutusyhtiötä paremmin selvillä sekä omasta terveydentilastaan että sukutaustassaan mahdollisesti piilevistä terveysriskeistä. Tästä on syntynyt ns. epätietoisuuden verho, joka on joskus antanut asiakkaille paremman mahdollisuuden päästä mukaan vakuutuskollektiiviin. Tämä inklusiivisuus on näkynyt vakuutuskollektiivissa paineena pitää vakuutusmaksuja korkeampina kuin mihin ehkä parhaalla analytiikalla voisi päästä.

Tekoäly ja kehittyvä data-analytiikka voivat ainakin joillakin alueilla muuttaa tilannetta informaatio­asymmetrian osalta. Jo aiemmin mainittiin mahdollisuus päästä dataa hyödyntämällä syvemmälle kuin mihin pelkän iän ja sukupuolen käyttö johtaa. Vakuutusyhtiöllä voi olla mahdollisuus sekä kerätä aiempaa enemmän dataa että analysoida dataa menetelmillä, jotka eivät ole yksittäisen asiakkaan käytettävissä. Asiakas voi esimerkiksi GDPR:n (EU:n tietosuoja-asetus eli General Data Protection Regulation) turvin pitkälle kontrolloida sitä, mitä häntä koskevaa dataa voidaan käyttää analytiikassa. Asiakkaalla ei kuitenkaan ole käytettävissään sellaisia analyysityökaluja, joita vakuutusyhtiöllä on. Joillakin alueilla informaatioasymmetria voi tämän johdosta kääntyä vakuutusyhtiön hyväksi. Tämän tilanteen hallitseminen edellyttää vakuutusyhtiöltä vastuullisuutta.

Mainittuun seikkaan liittyen on myös väläytelty mahdollisuutta, että perinteinen vakuutustoiminta olisi tulossa tiensä päähän. Tämä perustuu ajatukseen, että kehittyvä analytiikka jakaa vakuutuskohteet yhä pienempiin ja pienempiin ryhmiin. Tämän on joskus sanottu johtavan siihen, että perinteinen vakuutus­pohjainen riskien tasaaminen ei olisi enää mahdollista.

Tämä on virheellinen johtopäätös. Myös perinteisessä vakuutustoiminnassa riskikollektiiviin on kuulunut erilaisia ja eri tavoin hinnoiteltavia riskejä. Uusilla tekniikoilla tullaan saamaan jaottelu erilaisiin riskeihin aiempaa tarkemmaksi, ts. kunkin riskin osalta maksetaan mahdollisimman tarkasti kohteen riskillisyyttä vastaava vakuutusmaksu. Tämä riskillisyys on kuitenkin vain todennäköisyys riskin toteutu­miselle. Korvauksia ei makseta riskin todennäköisyyden mukaan, vaan silloin, kun riski on oikeasti toteutunut. Riskin toteutuminen tulee uudessakin maailmassa säilymään sattumanvaraisena. Parempi analytiikka ei tuhoa vakuutuksen ideaa, vaan antaa aiempaa paremmat mahdollisuudet toteuttaa riskien jakamista reilusti.

 

Mitä erilaisia etiikan suuntauksia reilussa vakuutustoiminnassa voisi noudattaa?

Vaatimus harjoittaa vakuutustoimintaa eettisesti kuulosta ensi alkuun helpolta. Miksei vain määritellä etiikan tavoitteiden mukaisen hyvän elämän periaatteita, ja soviteta näitä vakuutuksen prosesseihin?

Digitaalisissa palveluissa noudatettavan etiikan eli digietiikan käsite on nykyisessä merkityksessään varsin uusi ilmiö. Nykymuodossa sitä on kehitelty tämän vuosisadan alusta lähtien. Aiemmin asiaa on mietitty siltä pohjalta, miten tekoälyä estetään tuhoamasta koko ihmiskunta. Viittaan tässä esimerkiksi tieteiskirjailija Isaac Asimovin kolmeen sääntöön vuodelta 1942: Robotti ei saa vahingoittaa ihmistä, sen tulee noudattaa ihmisen käskyjä, ja se saa suojella itseään vain siihen saakka, kun se ei riko kahta ensimmäistä sääntöä. Nykyisin tekoälyn suorittaessa varsin maanläheisiä toimia Asimovin ajatuksista ei ole sanottavaa hyötyä, mutta ne ovat varmasti relevantteja esimerkiksi tekoälyyn pohjautuvien aseiden kehittämisessä.

Nykyinen digietiikka tai sitä lähellä oleva informaatioetiikka on kehittynyt monen alueen vuorovaikutuk­sesta. Siihen ovat vaikuttaneet keskeisesti filosofia, tietojenkäsittelytiede ja yhteiskuntatiede sekä muutkin oppisuunnat. Digietiikka tarkastelee digimaailman ja ihmisen vuorovaikutusta pyrkimyksenä säilyttää ihmisarvo ja hallita muuttuvia valtasuhteita. Se liittyy läheisesti reiluuden ja syrjimättömyyden käsitteisiin. Siihen liittyen on kehitetty eettisesti kestävän suunnittelun ja yritysten digitaalisen vastuun (corporate digital responsibility, CDR) käsitteitä, joilla pyritään hallitsemaan ja hillitsemään digitaalisten tekniikoiden ja datan käytön aiheuttamia riskejä.

Yritysten digitaalisessa vastuussa lähdetään siitä, että digitaalisten tekniikoiden ja datan eettisessä käytössä kyse ei ole vain teknologisista haasteista ja esimerkiksi eettiseen päättelyyn pystyvien algoritmien luomisesta. Se vaatii organisaatioita kehittämään ja toteuttamaan kattavan ja ristiriidattoman normiston, jolla hallitaan digitaalisen teknologian kehittämistä ja käyttöönottoa sekä datan hyödyntämistä.

Etiikan historiassa on monia yrityksiä luoda kaiken kattava rakennelma, jota noudattaen toimitaan eettisesti. Perusjakona on joko tietyn toiminnan syiden tai vaikuttimien arviointi, tai toiminnan eettisyyden päättely sen seurauksista. Syiden tai vaikuttimien arvioinnista lähteviä etiikan lajeja kutsutaan velvollisuusetiikoiksi eli deontologisiksi etiikoiksi. Ehkä tunnetuin deontologisen etiikan laji on Immanuel Kantin kategorinen imperatiivi: toiminta voidaan etukäteen todeta oikeaksi, jos sen tekijä voi haluta toimintavan muodostuvan yleiseksi säännöksi.

Seurausetiikan (tunnetaan myös nimillä tarkoitusperäetiikka, seuraamusetiikka, teleologinen etiikka tai konsekventialismi) mukaan teon moraalinen arvo määräytyy sen seurausten mukaan. Seurausetiikan mukaan keinot ja niiden seuraukset pitää ottaa huomioon seurauksina. Tunnetuin tämän suuntauksen mukainen malli on Jeremy Benthamin hyötyetiikka eli utilitarismi.

Molempien mallien ongelmana on, että puhtaassa muodossaan ne johtavat ratkaisuihin, joita ei parhaalla tahdollakaan voi pitää eettisinä. Velvollisuusetiikasta johdetaan tarve puhua totta, muttei kuitenkaan voi olla oikein kertoa tunnetulle sarjamurhaajalle hänen etsimiensä henkilöiden olinpaikkoja. Utilitarismi johtaa ongelmallisiin ratkaisuihin, joissa yksilö voidaan uhrata kokonaisedun hyväksi.

Normatiivisten etiikan lajien ohella Thomas Hobbesin ja John Locken sopimusetiikka voisi myös antaa malleja eettiselle ajattelulle. Sopimusten tekeminen voisi mahdollisesti tapahtua John Rawlsin ajattelua mukaillen niin, että osapuolet luovat sopimuksen tietämättä sitä tehdessään omaa asemaansa silloin kun sopimusta sovelletaan. On kuitenkin vaikea ajatella tällaista mallia enempänä kuin teoreettisena rakennelmana. Ainakin sen pohjalta on vaikea arvioida tietyn yksittäisen toimen eettisyyttä .

Vakuutustoiminnan käytännön soveltamista ajatellen olisi toki toivottavaa, että käytössä olisi normatiivinen etiikka, joka pienemmin tai suuremmin ponnistuksin olisi automatisoitavissa tai ainakin kehittyvän tekoälyn toteutettavissa. Edellä kuvattujen esimerkkien valossa tämä ei vaikuta kovinkaan todennäköiseltä.

Etiikan alueella tunnetaan edellä mainittujen kahden vaihtoehdon ohella hyve-etiikka, jonka mukaan moraalissa tärkeintä ovat toimivan henkilön hyveet ja paheet sekä luonne. Hyve-etiikka pyrkii määrittä­mään ne luonteenpiirteet ja ominaisuudet, joita hyveellisellä ihmisellä on. Tämä malli voi tarjota hyvän pohjan myös tekoälyyn liittyvien ratkaisujen arviointiin.

Hyve-etiikan sinänsä lupaavaa rakennelmaa vaikeuttaa se, että sitä esiintyy useissa muodoissa, jotka eivät ainakaan kaikilta osin johda samoihin tuloksiin. Hyve-etiikassa tunnetaan muun muassa Aristoteleen, Konfutsen ja Buddhan ajattelu. Sikäli kun hyve-etiikkaa onnistuttaisiin toteuttamaan tekoälyssä, olisi vielä valittava, minkä ajattelijan mukaista menettelyä noudatettaisiin.

Edellä kirjoitettu kuvaa vaikeuksia, joita kohdataan pyrittäessä kattavasti liittämään  eettisyys osaksi tekoälyn käyttöä vakuutustoiminnassa. Johtopäätökseksi tulee, että ihmisen tekemää, mielellään hyveellisyyteen pohjautuva arviota voidaan tuskin koskaan täysin ohittaa. Toistaiseksi tekniikka on tasolla, jossa etiikka ohjelmoituna ilmeisesti muodostuisi varsin kasuistiseksi ajatteluksi. Kasuistisessa etiikassa lähdetään yksittäistapauksista pyrkimättäkään luoda yleisempiä periaatteita moraalisten ongelmien ratkaisemiseksi. Kasuistinen etiikka epäonnistuu, kun vastaan tulee tapaus, jota vastaavaa ei ole ennen tavattu.

 

EIOPA ja tekoälyn eettiset ongelmat vakuutustoiminnassa

Euroopan vakuutus- ja lisäeläkeviranomainen (European Insurance and Occupational Pensions Authority, jatkossa EIOPA) on seurannut tekoälyn ja siihen liittyvän teknologian käyttöä vakuutusalalla. EIOPA toteutti tutkimuksen[1] tekniikoiden käytöstä liikenne- ja sairausvakuutuksessa vuonna 2019. Tutkituista vakuutusyrityksistä 31 prosenttia käytti tekoälyä toiminnoissaan ja tämän lisäksi 24 prosenttia oli parhaillaan ottamassa tekoälysovelluksia käyttöön.

Tutkimusosoitti, että EIOPAn on syytä paneutua aiheeseen syvällisemmin. EIOPA nimesi laajasti eri sidosryhmistä koostuvan asiantuntijaryhmän (EIOPA’s Consultative Expert Group of Digital Ethics in Insurance, jatkossa GDE) kehittämään vakuutuksessa sovellettavia vastuullisuuden periaatteita digitaalisia tekniikoita käytettäessä. EIOPA päätyi rajaamaan tarkastelun tekoälyn soveltamiseen vakuutusalalla, sillä tämä liitti tarkastelun kiinteämmin muuhun eurooppalaiseen eri toimialoja koskevaan työhön. Tämän artikkelin kirjoittaja oli Euroopan aktuaarijärjestön (Actuarial Association of Europe, AAE) esittämä asiantuntija­ryhmän jäsen ja yksi sen kolmesta puheenjohtajasta.

Nykyisellään on jo olemassa varsin laaja vakuutusyrityksiä koskeva lainsäädännön kehikko, joka on sovellettavissa myös tekoälyn käyttöön näissä yrityksissä. Mainitun kehikon keskeisiä osia ovat Solvenssi II -direktiivi, vakuutusten jakelua koskeva direktiivi (Insurance Distribution Directive, IDD) ja jo aiemmin mainittu tietosuoja-asetus GDPR. Tulossa on edelleen tietosuojaa koskeva direktiivi (e-privacy Directive ePD). Tekoälyn käyttöön sopii esimerkiksi Solvenssi II -direktiivin määräys, jonka mukaan vakuutus­yrityksellä pitää olla tehokas hallintojärjestelmä, joka mahdollistaa liiketoiminnan vakaan ja järkevän johtamisen.

Nykyinen lainsäädäntö muodostaa perustan, jolla myös tekoälyn käyttöä hallitaan. Lainsäädännön osia tulee kuitenkin soveltaa systemaattisesti ja niiden merkitystä on syytä avata sen täsmentämiseksi, miten niitä sovelletaan tekoälyn käytössä. Digitaalisen teknologian käytössä ja datan hyödyntämisessä tarvitaan lainsäädäntökokonaisuuden lisäksi kattavaa ajattelua sen suhteen, miten puhtaan lain kirjaimen täyttämisen lisäksi toimitaan tavalla, joka on yhteiskuntien yleisen edun kanssa sopusoinnussa.

Pääperiaatteiden lisäksi GDE on luonut lisäohjeistusta sille, miten periaatteita noudatetaan koko tekoälysovelluksen elinkaaren aikana. Esimerkkinä voidaan todeta, että suhteellisuusperiaatteen noudattamisessa otetaan käyttöön GDE:n luoma vaikutusarvio sovellusten luokitteluun niihin sisältyvän riskin mukaisesti. Riippuen vaikutusarvion tuloksesta tarkoituksena on, että vakuutusyritys soveltaa periaatteita suhteutettuna kunkin tapauksen riskeihin. Tekoälyä käytetään hyvin monenlaisissa käyttötarkoituksissa. On luontevaa, että tiukimmin periaatteita sovelletaan silloin, kun vaikutukset asiakkaisiin ovat kriittisimmät, tai kun toiminto voi vaarantaa koko vakuutusyrityksen toiminnan.

Keskeinen vakuutuksen ongelma liittyy vakuutuksen myöntämiseen ja vakuutusmaksuun. GDE tarkasteli erilaisten tariffitekijöiden asianmukaisuutta ja tarpeellisuutta. Erityisesti korostettiin tarvetta ymmärtää, että kahden muuttujan keskinäinen riippuvuus ei merkitse niiden syy-seuraussuhdetta: suuret datamassat voivat tuottaa eri muuttujien välille mielenkiintoisia näennäisiä, sattumanvaraisia riippuvuussuhteita, joita ei tule tulkita syy-seuraussuhteiksi ilman asioiden tarkempaa analyysia.

GDE suhtautui edelleen varauksellisesti optimointitekniikoihin, joiden päämääränä on vain hyödyntää asiakkaiden maksuhalukkuutta esimerkiksi näiden muuhun todettuun ostokäyttäytymiseen perustuen. Tämän rinnalla houkutuksena voi olla käyttää korvauskäsittelyssä menettelyjä, joissa arvioidaan korvauksenhakijan suostuvaisuutta asian sopimiseen hänelle vähemmän edullisella tavalla.

GDE pitää tärkeänä sovellettujen tekniikoiden läpinäkyvyyttä ja ymmärrettävyyttä. Asiakkaalle tulee mahdollisuuksien mukaan tarjota myös niin sanottuja kontrafaktuaalisia selityksiä. Tämä antaa heille mahdollisuuden ymmärtää tariffitekijöiden merkitystä, ja muuttaa käyttäytymistä niin, että heidän on mahdollista päästä edullisemman tariffin piiriin.

Tekoälyllä voi olla lupaavia sovelluksia myös vakuutusyhtiöihin kohdistuvan petosrikollisuuden torjunnassa. Tämä vaatii kuitenkin aina vahvaa ihmisen suorittamaa harkintaa ylilyöntien välttämiseksi. Haasteena on sovittaa vakuutusyrityksen perusteltu tavoite torjua rikollisuutta asiakkaan oikeuteen saada läpinäkyviä ja ymmärrettäviä selityksiä: petosrikollisuuden torjunnassa täysi läpinäkyvyys on mahdotonta toteuttaa, jos samalla halutaan tehokkuutta rikollisuuden torjunnassa.

GDE tiedosti työtä tehdessään, että tekoäly on voimakkaasti kehittyvä alue. Ryhmä pyrki parhaansa mukaan vastaamaan niihin ongelmiin, joita ilmeni tekoälyssä siinä muodossa, kuin sitä sovellettiin ryhmän toiminnan aikana. Ryhmä piti itsestäänselvyytenä tarvetta periaatteiden ja suositusten ajoittaiseen arviointiin, jotta ne pysyvät ajan vaatimusten tasalla.

 

EU:n komission asettama tekoälyä käsitellyt korkean tason asiantuntijaryhmä

Pelkkä vakuutuksiin sovellettavan lainsäädännön noudattaminen ei riitä varmistamaan tekoälyn eettistä käyttöä. Eurooppalaisessa keskustelussa on kehitelty ohjenuoria, joiden avulla tähdätään eettiseen ja luottamuksen ansaitsevaan tekoälyn käyttöön. Merkittävä toimija tällä alueella oli EU:n komission asettama korkean tason tekoälyn käyttöä pohtinut asiantuntijaryhmä (European Commission’s High Level Expert Group on Artificial Intelligence, jatkossa AI HLEG). Ryhmän puheenjohtajana toimi Pekka Ala-Pietilä. GDE on käyttänyt AI HLEG:n työtä pohjana kehittäessään vakuutussektorille sovellettavissa olevat kuusi tekoälyn eettistä ja luottamuksen ansaitsevaa käyttöä koskevaa pääperiaatetta. GDE on ottanut kehittelyssä AI HLEG:n työn lisäksi huomioon vakuutustoiminnan luonteen.

AI HLEG käsitteli raportissaan reiluutta ja sen selkeää ja vakaata määrittelyä. Ryhmä päätyi reiluuden määrittelyssä toisaalta menettelyn ja toisaalta lopputulosten reiluuteen. Tästä jaottelusta voi haluttaessa löytää yhteyden aiemmin kuvattuun eroon velvollisuus- ja seurausetiikan muotojen välillä.

Menettelyyn liittyvään ulottuvuuteen liitetään sen reiluus asiakasta kohtaan. Vakuutuspuolella voidaan etsiä kriteereitä reiluuden toteuttamiseen vakuutusten tarjoamisesta annetusta direktiivistä (IDD). Sen mukaan vakuutusten tarjoamisessa pitää menetellä rehellisesti, reilusti ja ammattimaisesti kunnioittaen asiakkaiden etuja. Tarjottujen vakuutustuotteiden pitää sopia asiakkaiden vaatimuksiin ja tarpeisiin. Asiakkaille pitää antaa ymmärrettävässä muodossa todenmukaista tietoa, joka antaa mahdollisuuden tehdä päätöksiä riittävillä tiedoilla. Menettelyn reiluudessa edellytetään läpinäkyvyyttä ja ymmärrettävyyttä, joka vahvistaa yrityksen vastuuta. Lisäksi asiakkaalle tulee taata toimiva muutoksen­haku. Edelleen yritykseltä edellytetään toimia, joilla poistetaan harhaisuutta käytetystä datasta.

Reiluuden toinen ulottuvuus AI HLEG:n ajattelussa liittyy lopputuloksen reiluuteen. Tältä osin tarkastellaan, miten vakuutusten tarjoamisessa toteutuvat asiakkaalle kohtuulliset kustannukset, ja tarkoituksellisen tai harhaisesta datasta aiheutuvan syrjinnän estäminen. Lopputulosten osalta kiinnitetään myös huomio etujen ja kustannusten jakautumiseen yrityksen ja sen asiakkaiden kesken. Lopputulosten reiluuteen liittyen on käynnissä tutkimusta siitä, millaisilla mittareilla tekoälysovellusten reiluutta voidaan mitata. Tämän kehityksen tuloksia tulee tehokkaasti hyödyntää. AI HLEG korostaa, että yritysten tulee testata tekoälysovelluksiensa toimivuutta erityisesti haavoittuvassa asemassa olevien asiakkaiden suojelun, laittoman syrjinnän estämisen ja osallisuutta varmistavien tuotteiden saatavuuden kannalta.

AI HLEG:n ehdotuksia seuraten vakuutusyritysten tulee osana yhteiskuntavastuutaan ja sopeutuen kilpailuun vapailla markkinoilla etsiä tekoälyn ja muiden digitaalisten tekniikoiden käytössä tasapaino sidosryhmien erilaisten ja muuttuvien tavoitteiden välillä. Kuluttajat etsivät hyvää vakuutusturvaa mahdollisimman edullisella hinnalla. Vakuutusyritys puolustaa yrityksen ja sen omistajien etua pyrkien voitolliseen liiketoimintaan kilpailluilla markkinoilla. Vakuutuskollektiivin intressit poikkeavat usein yksittäisen asiakkaan eduista sikäli, että kollektiivin edun mukaista ei ole liian riskillisten vakuutettujen mukaan ottaminen. Yhteiskunnan intressissä on, että vakuutus tuottaa turvaa, terveyttä ja hyvinvointia koko väestölle. Vakuutus tuottaa mielenrauhaa kuluttajalle, kun vakuutus korvaa taloudellisen menetyksen niille vakuutetuille, joita vakuutettu vahinko kohtaa. Mielenrauha tekee kuluttajalle mahdolliseksi harjoittaa järkevää ja haluttua toimintaa silloinkin, kun siihen liittyy riskejä, joita ilman vakuutusta ei voisi ottaa. Yhteiskunnan intressissä ei ole ainoastaan vakuutus suorilta vaikutuksiltaan vaan lisäksi se, minkä vakuutus sivutuotteenaan tekee mahdolliseksi.

 

EIOPAn GDE-ryhmän luomat periaatteet

GDE kiteytti suosituksensa seuraaviin kuuteen periaatteeseen.

GDE katsoo, että vakuutusyritysten tulee soveltaa suhteellisuusperiaatetta. Tämän toteuttamiseksi kunkin tekoälysovelluksen osalta tulee tehdä vaikutusarvio, jonka tulosten perusteella määräytyy, miten laajasti erilaisia hallinnollisia toimia on kussakin tapauksessa sovellettava. Toimien laajuuden tulee määräytyä sen mukaan, miten laajat ja riskilliset vaikutukset tarkasteltavalla sovelluksella on erityisesti asiakkaaseen, mutta myös vakuutusyritykseen. Vakuutusyrityksen tulee suoritetun arvion pohjalta päättää, millaisella toimenpiteiden kokonaisuudella saavutetaan eettinen ja luottamuksen ansaitseva tekoälyn käyttö.

Vakuutusyrityksen tulee noudattaa tekoälyä käyttäessään reiluuden ja syrjimättömyyden periaatetta. Tässä tulee tasapuolisesti ottaa huomioon kaikkien sidosryhmien tarpeet. Osana vakuutusyrityksen yhteiskuntavastuuta tulee huolehtia vakuutuspalvelujen tarjoamisesta mahdollisimman laajalle asiakaskunnalle ja välttää olemassa olevien epätasa-arvo-ongelmien vahvistamista. Erityistä huomiota tulee kiinnittää vakuutustuotteisiin, joiden ulkopuolelle jääminen voi aiheuttaa syrjäytymistä. Suomessa esimerkkinä tällaisesta vakuutustuotteesta voi olla kotivakuutus, jota ilman vuokra-asunnon saaminen voi olla vaikeaa. Huomattavaa harkintaa on harjoitettava esimerkiksi asiakkaan luottokelpoisuuden käytössä tariffitekijänä. Jo mainitut asiakkaiden maksuhalukkuutta optimoivat menettelyt voivat myös olla tämän periaatteen vastaisia.

Tiedon reilussa käytössä olennaista on, että sitä käytetään vain, kun käytölle on perusteltu tarve. Erityisesti asiakkaita päätöksenteossa avustavissa sovelluksissa on tärkeää kunnioittaa asiakkaan ihmisarvoista kohtelua. Reilun käytön takaamiseksi vakuutusyrityksen on syytä varmistua, että päätöksen tekoon ei tule tahattomia vääristymiä. Erityisesti merkittäviä riskejä sisältäviä sovelluksia varten tarvitaan reiluuden ja syrjimättömyyden mittaristo, jota vasten sovelluksen toimintaa voidaan arvioida. Vakuutusyritysten tulee myös dokumentoida huolellisesti toimet, joihin se on ryhtynyt reiluuden ja syrjimättömyyden saavuttamiseksi.

Vakuutusyritysten tulee noudattaa läpinäkyvyyden ja ymmärrettävyyden periaatetta sovellettuna kuhunkin sovellukseen ja sen kohteena oleviin sidosryhmiin. Suositeltavaa on käyttää mahdollisimman helposti ymmärrettäviä tekoälysovelluksia vaikutusarviossa korkean riskin sovellukseksi luokitelluissa tapauksissa. Tekoälysovellukset voivat kuitenkin olla luonteeltaan liian monimutkaisia, ‘mustan laatikon’ luonteisia, mikä voi  tehdä täyden ymmärrettävyyden ulkopuoliselle sidosryhmälle mahdottomaksi. Tällaisessa tapauksessa mukaan on liitettävä muita hallinnollisia toimia korostamaan yrityksen vastuullisuutta ja antamaan mahdollisuus riittävään muutoksenhakuun. Ymmärrettävyydessä tulee painottaa sidosryhmälle merkityksellisten tietojen antamista mahdollisimman helpossa muodossa. Osana läpinäkyvyyttä vakuutusyrityksen tulee tehdä selkoa käytetystä datasta. Edelleen asiakkaalle on tehtävä selväksi, jos hän on vuorovaikutuksessa ihmisen sijasta tekoälysovelluksen kanssa.

Vakuutusyritysten tulee varmistaa inhimillisen valvonnan periaatteen toteutuminen. Vakuutusyrityksen organisaatiorakenteen tulee määritellä ja dokumentoida työntekijöiden roolit ja vastuut koko tekoäly­sovelluksen elinkaaren ajalle. On luonnollista, että roolit ja vastuut voivat vaihdella sovelluksesta toiseen esimerkiksi suhteellisuusperiaatteeseen nojautuen. Vakuutusyritysten tulee myös arvioida tekoälyn käytön vaikutus työntekijöiden työhön ja tarjota henkilökunnalle riittävä koulutus.

Tietosuoja-asetus GDPR ja muu kansallinen tai eurooppalainen lainsäädäntö muodostavat pohjan tiedon hallinnan periaatteelle. Luotettavaa tiedon hallintaa tarvitaan koko tekoälysovelluksen elinkaaren ajalle ja se tulee suhteellisuusperiaatetta soveltaen määritellä kullekin sovellukselle sen riskillisyys huomioon ottaen. Vakuutusyrityksen tulee varmistua, että käytetty tieto on tarkkaa, kattavaa ja tarkoitukseen sopivaa. Tiedonhallinnan standardien tulee kattaa sekä itse hankittu että ulkoisista lähteistä hankittu tieto. Erityisesti riskialttiiden sovellusten osalta tiedon hallinnan tulee perustua tietosuojan kannalta turvallisiin ratkaisuihin. Tiedonhallinnan prosessit ja käytetyt menetelmät tulee dokumentoida huolellisesti.

Vakuutusyritysten tulee noudattaa periaatetta kestävyydestä ja toimivuudesta. Sekä itse kehitettyjen että ulkoistettujen tekoälysovellusten osalta on varmistuttava niiden kestävyydestä ottaen huomioon niiden käyttötarkoitus ja virheellisestä toiminnasta aiheutuva mahdollinen vahinko. Tekoälysovellusten tulee soveltua niiden ajateltuun käyttötarkoitukseen ja niiden toimivuutta tulee arvioida jatkuvasti. Toimivuutta on syytä varmistaa soveltuvan mittariston avulla. Tekoälyn osalta on edelleen eri menetelmin syytä varmistua, että sovellusten toiminta on vakaata ajan kuluessa. Tekoälysovellukset tulee toteuttaa IT-ympäristössä, jonka turvallisuudesta esimerkiksi tietoturvaloukkausten varalta on huolehdittu.

 

Reiluus tekoälyn käytön pohjana

Keskeisen alueen GDE:n työssä muodosti sen linjaaminen, miten tekoälyä voidaan vakuutusalalla toteuttaa reilusti. Ryhmän läpinäkyvyyttä, ymmärrettävyyttä sekä sovellettavaa hallintomallia koskevien linjausten keskeinen tehtävä on tukea reiluuden saavuttamista sekä tehdä näkyviksi ne tilanteet, joissa ei toimita reilusti. Läpinäkyvyydellä ja ymmärrettävyydellä sekä hallintomallilla on luonnollisesti muitakin kuin reiluuteen liittyviä tavoitteita erityisesti siltä osin, kun niistä puhutaan muussa mielessä kuin asiakkaan kohtelussa.

Tekoäly mahdollistaa asiakkaiden luokittelun suurta määrää erilaista dataa käyttäen. Digitaalisessa muodossa olevaa dataa syntyy esimerkiksi sosiaalisen median käytössä. Samoin dataa saadaan erilaisista älylaitteista kuten älyrannekkeista. Karttuva data hämärtää vakuutuksessa tunnettua ‘tietämättömyyden verhoa’, jolla on oma roolinsa vakuutuskollektiivin eli poolin luomisessa. Vaarana on, että erilaista dataa käyttävät luovat yksilön käyttäytymiselle normiston, josta poikkeaminen johtaa korkeampien vakuutusmaksujen perimiseen.

Riskien määrittelyssä kollektiivisista ja yhteiskunnallisista tekijöistä yksilötasolle siirtyminen pitää sisällään syvällisiä reiluun kohteluun liittyviä ongelmia. Vastuullisuus muodostuu tärkeäksi tekijäksi ja saattaa yksilön vastuuseen tekemisistään ja käyttäytymisestään suhteessa vakuutuksen saamiseen. Samalla jotkin yksilön ympäristöön tai geeniperimään liittyvät seikat voivat väistämättä johtaa syrjintään ja syrjäytymiseen etenkin silloin, kun yksilö ei voi toimillaan vaikuttaa näihin tekijöihin.

Datan reilu ja vastuullinen käyttö korostuu uusien tiedon lähteiden tullessa käyttöön. Tällaisia lähteitä voivat olla DNA-tietovarastot, pankkitiliin tai luottokortin käyttöön liittyvä data, erilaisen laitteiden (esineiden internet IoT eli Internet of Things) keräämä data, ajoneuvojen keräämä data, älylaitteet tai sosiaalinen media. Tällaiset lähteet voivat paljastaa arkaluonteista tietoa yksilön elämästä ja käyttäytymisestä, joten vastaavan datan käytön reiluuden varmistaminen on tärkeää.

Vakuutustoiminnan reiluus kytkeytyy siihen, miten vakuutus tuottaa yhteiskunnallista hyvää. Vakuutusalan toivotaan mahdollistavan sellaisen vakuutusmuodossa toteutettavan riskien jakamisen, joka on luotettavaa, toimivaa ja tuotteiltaan helposti vertailtavaa sekä antaa kuluttajille mahdollisuuden tehdä perusteltuja valintoja.

Reilun vakuutustoiminnan ominaisuuksin kuuluu, että yhteiskunnan toiminnan kannalta olennaisiin riskeihin on tarjolla turvaa. Reiluuteen kuuluu, että haavoittuvassa asemassa olevat saavat riittävän kattavat, mutta sopivan yksinkertaiset ja kustannuksiltaan edulliset ratkaisut turvantarpeisiinsa.

Eri maissa olennaiset vakuutustuotteet vaihtelevat. Joka tapauksessa kussakin maassa pitäisi olla tarjolla hyvä turva sellaisilla alueilla, joilla turvan puute johtaa muuhun yhteiskunnalliseen syrjäytymiseen. Joissakin tilanteissa yksityisten vakuutusyritysten on mahdotonta tarjota kattavaa turvaa siedettävin kustannuksin. Tulvavakuutus erittäin tulvaherkillä alueilla voi olla esimerkki tästä. Silloin yhteiskunnan on luotava politiikkatoimin edellytykset turvan saamiselle. Yksityisen ja julkisen sektorin kumppanuudella voidaan luoda edellytykset vakuutuksen kautta tapahtuvalle riskien jakamiselle.

Keskeinen tekijä reiluudessa on asiakkaan ihmisarvoinen kohtelu. Tällä alueella on havaittavissa mahdollisia uhkaavia teknologian tuottamia tilanteita Ilman, että vedotaan erilaiseen dystopiakirjallisuuteen. Vakuutus­yrityksille seurauksena on huomattavia vastuullisen toiminnan velvoitteita.

Ihannetilanteessa sääntely pysyy ajan tasalla suhteessa teknologian kehitykseen. Erityisesti tekoälyn nopeasti kehittyvällä alueella tämä tavoite on haasteellinen. Yrityksillä on korostunut vastuu huolehtia toimintansa eettisyydestä yli sen, mitä vain lainsäädännön noudattaminen vaatii. Finanssialalla vuoden 2008 kriisin jälkeen erityisen merkityksen sai varovaisuusperiaate (precautionary principle). Tätä periaatetta on syytä soveltaa myös tekoälyn hyödyntämisen yhteydessä reiluuden varmistamiseksi.

Tekoäly johtaa parhaimmillaan siihen, että vakuutuksen ja muiden finanssipalveluiden saavutettavuus paranee. Tarkempi ja yksilöidympi asiakkaiden profilointi tekee mahdolliseksi vakuutuksen saamisen joillekin aiemmin syrjäytyneille asiakkaille. Samalla uhkana on, että jotkin asiakkaat luokitellaan tarkemmilla menettelyillä liian riskillisiksi ja he jäävät vaille vakuutusta. Samoin voi käydä asiakkaille, jotka kieltäytyvät itseään koskevan datan käytöstä. Tekoälyn käytön yleistyessä erityistä huolta tulee kohdistaa haavoittuvassa asemassa olevien asiakkaiden tilanteeseen, jotta vallitsevia epätasa-arvon piirteitä lievitetään sen sijasta, että tekoälyn käyttö vahvistaisi niitä. On myös syytä todeta valtiovallan keskeinen rooli yhdenvertaisen kohtelun toteutumisessa, koska vakuutusala voi huolehtia vain liiketoimintansa luonteeseen kuuluvista alueista.

Euroopan komissio on tilannut tutkimuksen, jossa syrjäytyminen vakuutusyhteydessä määritellään ’prosessiksi, jossa ihmisillä on vaikeuksia normaaleilla markkinoilla hankkia ja käyttää tuotteita, jotka vastaavat heidän tarpeitaan ja tekevät heille mahdolliseksi elää normaalia elämää siinä yhteiskunnassa, johon he kuuluvat’. Nykyisessä digitaalisiin palveluihin tukeutuvassa maailmassa datan laaja saatavuus yhdessä koko ajan tehokkaampien algoritmien kanssa tarjoaa vakuutusyrityksille kasvavat mahdollisuudet yhä tarkempiin riskiarvioihin.

Riskien parempi ymmärtäminen ja analysointi yhdistettynä erilaisiin riskejä vähentäviin menetelmiin voi vähentää syrjäytymisen uhkaa sellaisten asiakkaiden kohdalla, jotka eivät aiemmin korkean riskillisyytensä takia ole voineet saada vakuutusta kohtuullisella vakuutusmaksulla. Esimerkkinä voivat olla nuoret autonkuljettajat, joiden ajoa monitoroidaan telematiikalla, tai diabetes-potilaat, jotka käyttävät elintoimintoja monitoroivaa älylaitetta.

Tämän vastapainona toiset korkean riskin asiakkaat voivat kohdata vaikeuksia vakuutuksen saamisessa kohtuullisella hinnalla. DNA-tietojen käyttö voi paljastaa muuten pimentoon jääviä terveysriskejä, jotka voivat estää sairaus- tai henkivakuutuksen saamisen. Ilmastonmuutoksen aiheuttama tulvien lisääntyminen voi johtaa vakuutuksen saamisen vaikeutumiseen alueilla, joilla tarkempien riskiarvioiden perusteella riski muuttuu liian suureksi ja kalliiksi.

On mahdollista, että puhtaasti huomattavan riskialttiiden asiakkaiden lisäksi on myös muita ryhmiä, joille voi aiheutua haittaa ja joiden kohteluun on syytä kiinnittää huomiota. Muun muassa vähävaraiset, fyysisesti tai psyykkisesti sairaat tai iäkkäät voivat kohdata vaiheuksia, jotka aiheuttavat yhteiskunnallista syrjäytymistä. Tällaiset vaikeudet voivat ilmaantua saman yksilön osalta eri aikoina, ja vaikeudet voivat lisääntyä digitalisaation myötä.

Hiljattainen OECD:n raportti[2] totesi, että lisääntyvästi haavoittuvassa asemassa ovat kuluttajat, joilla on vähemmän kokemusta digitaalisista ympäristöistä ja huonompi pääsy niihin. Vakuutusalalla Iso-Britannian valvontaviranomainen (Financial Conduct Authority, FCA) julkaisi hiljattain vahinkovakuutusta koskevan tutkimuksen[3], jonka mukaan joka kolmas korkeampia vakuutusmaksuja maksava kuluttaja kuului vähintään yhteen haavoittuvassa asemassa olevien asiakkaiden ryhmään. Tutkimuksen johtopäätöksiin kuului edelleen, että vähävaraisemmat kotitaloudet maksoivat kotivakuutuksesta varakkaampia asiakkaita korkeampia vakuutusmaksuja.

Haavoittuvaan asemaan kuluttaja voi joutua monista syistä. Esimerkkejä henkilökohtaisista riskitekijöistä ovat korkea tai alhainen ikä, vähävaraisuus tai köyhyys, alhainen koulutustaso, etniseen vähemmistöön kuuluminen, maahanmuutto, opiskelu tai uhanalainen asuinpaikka (esimerkiksi köyhä asuinalue tai ilmastonmuutoksen myötä kasvavan tulvariskin piiriin kuuluva alue). Haavoittuvuutta voi lisätä myös elämäntilanteen muuttuminen, kuten työttömyys, kodittomuus, avioero, velkaantuminen ja maksuhäiriöt, vankeus, tapaturmat ja joutuminen kotiväkivallan uhriksi.

Elämäntilanteen muutos voi aiheutua myös terveydentilan muutoksesta, jolloin haavoittuvuutta lisäävät esimerkiksi vammaisuus, perinnöllinen sairaus sekä mielenterveyden häiriöt ja psykoterapian käyttö. Naisilla oma riskitekijänsä on raskaus. Haavoittuvaan asemaan voi joutua myös, jos taidot digitaalisten palvelujen käytössä ovat puutteelliset tai jos pääsy digitaalisten palvelujen piiriin on muusta syystä vaikeaa tai mahdotonta. Kuluttaja voi joutua haavoittuvaan asemaan suhteessa digitaalisiin palveluihin, jos hän syystä tai toisesta on haluton jakamaan henkilökohtaista tai arkaluonteista dataa riskiarvioita varten.

Tekoälysovellukset voivat vahingoittaa haavoittuvassa asemassa olevia kuluttajia, jos niiden käyttämä data jaottelee ihmisiä suoranaisesti sellaisten tekijöiden mukaan, joiden käyttö on kiellettyä tai kyseenalaista. Käytettyyn dataan voi sisältyä näiden tekijöiden ohella muuttujia, jotka korreloivat läheisesti kiellettyjen tai kyseenalaisten tekijöiden kanssa. Puhtaan datan lisäksi käytetty tietovaranto sisältää usein myös johtopäätöksiä muuttujien merkityksestä. Tällaiset johtopäätökset voivat sisältää inhimillisiä ennakkoluuloja, jotka tulevat näin osaksi sinänsä neutraalilta tuntuvaa dataa. Vakuutusalalla tällaisia johtopäätöksiä voi liittyä esimerkiksi vahinkokäsittelyyn tai petosten torjuntaan. Data muodostuu tällöin harhaiseksi voimistaessaan inhimillisiin ennakkoluuloihin perustuvia päätelmiä.

Käytettyyn tietovarantoon voi liittyä myös ongelmia siinä, miten se on kerätty. Jos data on kerätty puutteellisella huolellisuudella, se voi edustaa huonosti todellista jakautumaa. Tätä dataa käyttävä tekoäly tai tätä data käyttäen opetettu tekoäly ei luonnollisesti voi olla ennustearvoltaan kovinkaan hyvä.

Tekoälysovellukset ovat erityisen käyttökelpoisia, kun etsitään dataan sisältyviä säännönmukaisuuksia tai syy-seuraussuhteita. Tekoäly luokittelee sen opettamiseen käytettyä dataa ja luo sen perusteella malleja käytettäväksi ennusteisiin uuden sovellukselle ennestään tuntemattoman datan osalta. Mikäli sovelluksen pohjana oleva data on virheellistä, epätarkkaa tai harhaista, tämä johtaa tekoälysovelluksen yleensä tahattomaan virheelliseen toimintaan.

Yleisenä oletuksena on, että mitä enemmän dataa on käytettävissä, sitä parempi tekoälysovelluksesta saadaan. Laajojen tietovarantojen ominaisuus on, että sieltä löytyy voimakkaalla käsittelyllä runsaasti korrelaatioita erilaisten muuttujien välille. On tärkeä muistaa, että korrelaatiosta ei sinällään voi päätellä syy-seuraussuhdetta. Suuret tietovarannot voivat johtaa valheellisiin johtopäätöksiin. Siksi havaittujen päättelysääntöjen järkevyys ja asianmukaisuus on tärkeää testata huolellisesti. Huolimattomuus tällä alueella voi johtaa siihen, että tekoäly tekee virheellisiä ennusteita tarkastellessaan uutta dataa tai pahimmillaan johtaa syrjintään joitakin kuluttajien ryhmää kohtaan.

Harhaisuuden täydellinen poistaminen tietovarannosta on mahdotonta. Jotkin muuttujat tai ihmisryhmät painottuvat väistämättä toisia enemmän. Esimerkkinä voi mainita, että ainakin nykymaailmassa automerkkien ja kuljettajien välillä on selvä painotus sukupuolen mukaan. Joissakin autotyypeissä kuljettajat ovat valtaosin vain toisen sukupuolen edustajia. Vaikka harhaisuuden täysi poistaminen on mahdotonta, vakuutusyritysten tulee tehdä kaikki mahdollinen harhaisuuden vähentämiseksi. Suoraan diskriminaatioon johtavat muuttujat on luonnollisesti eliminoitava datasta, sikäli kun niiden käyttöä joihinkin rajattuihin tarkoituksiin ei ole laissa erikseen sallittu. Kiellettyjen muuttujien kanssa voimakkaasti korreloivat muuttujat on myös poistettava epäsuoran diskriminaation estämiseksi. Tällaisen jälkimmäisen muuttujan käyttö saattaa tosin joissain rajatuissa tapauksissa olla lain mukaan sallittua.  Käytön tulee tällöinkin olla välttämätöntä ja hyväksyttävää.

EU:n perusoikeuskirjan 21 artikla sisältää syrjintäkiellon ja määrittelee tekijät, joiden perusteella ihmisiä ei saa asettaa eriarvoiseen asemaan. Tekijöihin kuuluvat sukupuoli, rotu[4], ihonväri, etninen tai yhteiskunnal­linen alkuperä, geneettinen perimä, kieli, uskonto tai uskomus, poliittinen tai muu mielipide, vähemmistö­ryhmään kuuluminen, vammaisuus, ikä, seksuaalinen suuntautuminen tai kansallisuus. Erikseen on syytä huomata, että vakuutusyhteydessä joidenkin tekijöiden käyttö on kuitenkin rajatusti mahdollista.

Tekoälysovellusten luomisessa sinänsä kiellettyjä tekijöitä käytetään hyväksi ns. kontrollimuuttujina. Tarkoituksena on silloin varmistaa, ettei malliin synny vahingossa harhaisuutta, joka johtaa jonkin ryhmän syrjintään. Tällainen muuttujien käyttö on sallittua, koska se tähtää laittoman syrjinnän havaitsemiseen ja estämiseen. Erityistä varovaisuutta tulevat vaatimaan neuroverkkoihin ja syväoppimiseen liittyvät sovellukset, jotka voivat löytää monimutkaisia ja epälineaarisia korrelaatioita erilaisten muuttujien välillä. Tahattoman syrjinnän poistaminen tällaisista malleista on vaikea, mutta välttämätön velvollisuus.

Reiluuden toteuttaminen tekoälysovelluksissa on haasteellisuutensa takia synnyttänyt uuden akateemisen tutkimusalueen, jolla on sovellusmahdollisuuksia monilla alueilla mukaan lukien vakuutus. Tämä reilun koneoppimisen tutkimus (Fair Machine Learning) etsii kestäviä ratkaisuja eri alueilla. Oppisuunta kyseenalaistaa nykyisen pyrkimyksen saavuttaa reiluus ja syrjimättömyys vain poistamalla harhaisuutta siitä datasta, jota käytetään tekoälysovelluksen opettamiseen. Harhaisuuden poistaminen törmää edellä mainittuun ongelmaan, jossa neuroverkot ym. löytävät erilaisia vaikeasti havaittavia korrelaatioita ja osaavat joissain tapauksissa palauttaa dataan siitä kertaalleen poistetun syrjinnän. Erityisesti tällä alueella sinänsä kielletyt muuttujat voidaan joutua jättämään osaksi dataa kontrollimuuttujiksi, joiden avulla varmistetaan, että sovelluksen toiminta ei johda tahattomaan syrjintään tai toimi muuten epäreilusti.

Reiluuden saavuttamiseksi on kehitetty mittausmenetelmiä ja testejä, joiden avulla sovelluksia voidaan arvioida. Demografisen pariteetin avulla voidaan asettaa sovellukselle vaatimus antaa myönteinen vastaus tasavertaisesti. Esimerkiksi rekrytointiprosessiin voidaan asettaa vaatimus haastatella sekä mies- että naishakijoita samassa suhteessa. Kalibroinnissa ongelmaa lähestytään vaatimalla, että sovellus tuottaa samassa suhteessa positiivisia ja negatiivisia ennusteita eri ryhmille. Esimerkki voi olla lääke­tieteessä vaatimus, että sovelluksen tulee antaa diagnooseja samassa suhteessa eri väestöryhmille tilanteessa, jossa diagnoosi sinänsä on yhtä yleinen kaikille. Samankaltaisia tutkittavia lähestymistapoja on useita. Asialla on ilmeiset soveltamisen mahdollisuudet myös vakuutuksessa.

 

Läpinäkyvyyden ymmärrettävyyden vaatimus

Olennainen tekijä tekoälyn hyväksyttävyydessä on, että vakuutusyritykset ovat läpinäkyviä sen suhteen, miten ne käyttävät dataa. Niiden tulee pystyä asianmukaisesti tekemään käyttämänsä mallit ymmärret­täviksi erityisesti kuluttajille, mutta myös valvojille ja muille sidosryhmille.

Tekoälysovellukset pystyvät parhaimmillaan tukemaan kuluttajien päätöksentekoa. Vakuutusyrityksiä voidaan edellyttää kuvaamaan tekoälyn tuottamia hyötyjä ja sitä, miten ne kunnioittavat yksilön itsemääräämisoikeutta. Ratkaisujen tuottamien hyötyjen pitää olla hyväksyttävässä tasapainossa aiheutuvien haittojen kanssa. Haittoja voi syntyä esimerkiksi silloin, kun sovelluksilla pyritään hyödyntämään kuluttajan maksuhalukkuutta tai suostuvaisuutta tietyn kaltaiseen kohteluun korvaustapauksessa. Haittoihin tulee suhtautua erityisellä huolellisuudella silloin kun niitä voi aiheutua haavoittuvassa asemassa oleville kuluttajille tai jos niihin liittyy syrjinnän mahdollisuus.

Dataa ei saa GDPR:n mukaan käyttää muihin tarkoituksiin kuin mihin sitä on kerätty. Sitä ei myöskään saa käyttää kuluttajan etujen vastaisesti. Telematiikan avulla voidaan kerätä tietoa kaupankäyntitottumuksista, pikaruokaravintoloissa käymisestä, ystäväpiiristä ja ehkä myös mielenterveysongelmista. On selvää, että tällaisen tiedon käyttö ei ole sallittua vakuutustoiminnassa. Se pitää oma-aloitteisesti poistaa analysoitavan tietoaineiston joukosta myös vakuutusten hinnoittelussa.

Läpinäkyvyys ja ymmärrettävyys eivät ole uusia ongelma-alueita vakuutusalalla tai muussakaan finanssiliiketoiminnassa. Finanssialaa koskevan sääntelyn ytimessä on vaatimus antaa kuluttajille tietoa läpinäkyvässä muodossa. Asiaa kuvaa vaatimus antaa kuluttajalle yksinkertainen ja käyttäjäystävällinen avaintietolomake, jonka tarkoituksena on auttaa valistuneen päätöksen teossa.

Paraskaan läpinäkyvyys ja ymmärrettävyys ei kuitenkaan ole vielä riittävää. Se pitää yhdistää vakuutusyrityksen hyvään hallintoon kuluttajien kannalta parhaan lopputuloksen saavuttamiseksi. Läpinäkyvyys ja ymmärrettävyys liittyvät läheisesti reiluuden ja syrjimättömyyden vaatimuksiin. Ilman läpinäkyvyyttä ja ymmärrettävyyttä reiluuden ja syrjimättömyyden ongelmat jäävät piiloon. AI HLEG on todennut, että läpinäkyvyys ja ymmärrettävyys muodostavat tärkeän elementin siinä, miten tekoälyn käyttöä kohtaan luodaan luottamusta. Läpinäkyvyys ja ymmärrettävyys muodostavat erittäin olennaisen osan eettisen ja luottamusta herättävän tekoälyn käytön toteutumisessa.

Tekoälyn käytön edistyminen korostaa tarvetta panostaa läpinäkyvyyteen ja ymmärrettävyyteen. Uudet vakuutusyhtiön sisäiset ja ulkopuolisilta tarjoajilta ostetut tietovarannot on otettava huomioon. Kerättävän tiedon luonne (esineiden internet IoT, sosiaalinen media, telemaattinen data jne.) sekä datan jalostaminen ja tiivistäminen edellyttävät toimia.

Sovellusten monimutkaistuminen voi käytännössä tehdä ne ’mustan laatikon’ kaltaisiksi. Tämä koskee erityisesti neuroverkkotekniikalla tai syväoppimisella toteutettuja järjestelmiä. Tällaiset sovellukset voivat tuottaa hyvin tarkkoja ennusteita, mutta niiden toiminnan tarkka kuvaaminen voi olla sovellusten kehittäjillekin käytännössä mahdottomuus.

Seurauksena on, että läpinäkyvyyden ja ymmärrettävyyden toteuttaminen muodostuu erittäin vaikeaksi: on mahdotonta yksiselitteisesti kuvata, miten jokin tietty suure vaikuttaa sovelluksen tarjoamaan päätelmään. Asiaan kehitetään aktiivisesti työvälineitä (muutamia tunnettuja ovat peliteoriaan pohjautuva SHapley Additive exPlanations eli SHAP, ja sen vaihtoehtona oleva mallin ennusteita kuvaava Local Interpretable Model-agnostic Explanations eli LIME), mutta ne ovat toiminnaltaan toistaiseksi varsin rajoittuneita.

Vaikeutena mustan laatikon käytössä on, että kuluttaja ei välttämättä lainkaan ymmärrä, miksi vakuutus evättiin tai miten hänen pitäisi muuttaa käyttäytymistään saadakseen vakuutusmaksuaan alemmas. Väärien päätösten kuvaaminen ja muutoksenhaku voivat muodostua vaikeiksi. Vakuutusyrityksen kannalta mustien laatikoiden ongelmana on, että niiden auditointi on vaikeaa. Yrityksen voi olla vaikea selvittää, millaisissa olosuhteissa malli toimii väärin. Virheellisesti toimiva malli voi pahimmillaan johtaa vakavaraisuusongelmiin tai menettelytapoja koskevan sääntelyn rikkomiseen (huonosti ymmärretty malli voi johtaa esimerkiksi tahattomaan syrjintäkiellon rikkomiseen).

Vaikeuksien ohella voidaan todeta, että tekoäly myös helpottaa läpinäkyvyyden ja ymmärrettävyyden toteuttamista vakuutuksessa. Digitaaliset sovellukset väistämättä tavalla tai toisella tallentavat päätöspolkunsa, jota ei koskaan voida täydellisesti saavuttaa inhimillisen toimijan ollessa kyseessä. Inhimillisellä toimijalla saattaa olla tiedostamattomia toimintaan vaikuttavia ennakkoluuloja, joiden vaikutusta tehtyihin päätöksiin on vaikea havaita. Tekoälysovellukset jättävät digitaalisen jäljen, jolloin päätösprosessi voidaan paremmin analysoida.

Perinteisesti ihmisen tekemä vahinkokäsittely tarjoaa hyvän esimerkin. Tiedostetut tai tiedostamattomat ennakkoasenteet ovat voineet vaikuttaa korvauspäätöksiin tavalla, jonka analysointi on ollut vaikeaa. Automatisoiduissa digitaalisissa prosesseissa päätöspolku voidaan analysoida syntyneen digitaalisen jäljen perusteella.

Kuluttajien odotukset läpinäkyvyydelle ja ymmärrettävyydelle poikkeavat siitä, mitä valvova viranomainen ja tilintarkastajat tarvitsevat. Lisäksi yrityksen johdolla ja hallituksella on oltava riittävä ymmärrys yrityksen käyttämästä tekoälystä. Hallituksen vastuuta korostaa se, että puutteellisesti toimiva sovellus voi altistaa yrityksen julkiselle skandaalille, joka voi vaarantaa yrityksen toiminnan jatkuvuuden.

On myös syytä huomata, että sama läpinäkyvyyden ja ymmärrettävyyden taso on mahdottomuus samanlaisena kaikille sidosryhmille. Valvova viranomainen on luonnollisesti oikeutettu kaikkeen tietoon silloinkin, kun se koskee kilpailullisesti arkaluonteisia asioita. Muussa läpinäkyvyydessä on huolehdittava, että yrityksen kilpailijat eivät saa käsiinsä arkaluonteista tietoa.

Vakuutusyrityksen tulee pyrkiä mahdollisimman pitkälti käyttämään ymmärrettäviä tekoälysovelluksia. Tämä vaatimus on erityisen korostunut silloin, kun kyseessä on sovellus, jolla on merkittävä vaikutus kuluttajan asemaan tai kun sovelluksen virheellinen toiminta voi vaarantaa koko vakuutusyrityksen. Tällaisissa tapauksissa yritys ei voi tinkiä ymmärrettävyyden vaatimuksesta silloinkaan, kun tämä vähentää sovelluksen tehoa. Joka tapauksessa, ja kuten AI HLEG toteaa, yksilölle on aina tehtävä selväksi, milloin hän asioi ihmisen sijasta tekoälysovelluksen kanssa.

Mallin ja sovelluksen valinta vaikuttaa ymmärrettävyyteen. Usein sovelluksen tehon tai tarkkuuden ja sen ymmärrettävyyden välillä vallitsee kilpailutilanne. Esimerkkinä voidaan sanoa, että päätöspuut tarjoavat korkeatasoista ymmärrettävyyttä, mutta samalla ne eivät ehkä ole yhtä tarkkoja kuin neuroverkkoja käyttävät sovellukset. Jälkimmäiset jättävät toivomisen varaa ymmärrettävyydessä. Kirjallisuudesta (erityisesti viitaten Alan Turing Instituten työhön) voidaan löytää kolme mahdollisuutta parantaa läpinäkyvyyttä ja ymmärrettävyyttä:

  • kun ymmärrettävyyden vaatimus on korkea, tulee suosia päätöspuita tai lineaarista regressiota. Tällaisten mallien ymmärrettävyys on suuri ja niiden toiminnan logiikka on helppo kuvata. Edistyneempiä malleja tulee käyttää vasta kun yksinkertaisemmalla ei tulla toimeen.
  • mustan laatikon kaltaiseen sovellukseen tulee liittää ymmärrettävyyttä parantavia ominaisuuksia (esimerkiksi edellä mainitut LIME tai SHAP). Puutteet ymmärrettävyydessä tulee dokumentoida riittävästi ja mallia tulee testata laajasti, jotta vältytään liialliselta luottamukselta mallin virheettömään toimintaan.
  • kolmannen mahdollisuuden luovat ns. haastajamallit. Silloin ymmärrettävyyden hyvin toteuttavan sovelluksen rinnalla käytetään mustaan laatikkoon perustuvaa mallia, jonka opettamiseen ja kalibroimiseen on käytetty samaa dataa mainitun ymmärrettävän sovelluksen kanssa. Malli voi parantaa sovelluksen toimintaa sillä varauksella, että jos haastajana käytetyn mustan laatikon ominaisuuksia liitetään alkuperäiseen ymmärrettävään malliin, syntynyt päättelymenetelmä pitää dokumentoida ja tehdä ymmärrettäväksi.

Kuluttajalle tarjottavien selvitysten tulee olla mielekkäitä ja niiden tulee antaa pohja valistuneille päätöksille. Tämä voi esimerkiksi tarkoittaa, että kuluttaja ymmärtää tekijät, jotka vaikuttavat hänen vakuutusmaksuunsa. Kuluttajille annettavan informaation tulee olla helposti ymmärrettävää, mutta muille paremmat tekniset valmiudet omaaville sidosryhmille (esimerkiksi tilintarkastajat) voidaan antaa kattavampaa informaatiota, jotta nämä pystyvät hoitamaan tehtävänsä.

Päätöksenteon pohjana voidaan käyttää suoraan asiakkaalta saadun datan lisäksi muilta ulkoisilta tahoilta saatua informaatiota. GDPR vaatii, että vakuutusyrityksen tulee kertoa asiakkaalleen mitä tietoa on käytetty, mikä on tiedon lähde ja mikä on tiedon käyttötarkoitus. GDPR antaa edelleen asiakkaalle mahdollisuuden vaatia vakuutusyhtiötä tuhoamaan häntä koskeva tieto.

Laajenevat tietolähteet tekevät vakuutusyrityksille mahdolliseksi luokitella asiakkaita yhä tarkemmin ja kehittää kunkin asiakkaan tarpeita vastaavia yhä räätälöidympiä tuotteita. Laaja tuotevalikoima hyödyttää asiakasta mutta samalla se voi tehdä tuotteiden vertailun työläämmäksi. Kehittyvä eurooppalainen lainsäädäntö (erityisesti jo mainittu IDD ja myös Packaged Retail and Insurance-based Investment Products eli PRIIPs) on kiinnittänyt huomiota tuotteiden vertailuun ja asettanut vaatimuksia vakuutusyrityksille. Näitä vaatimuksia on luonnollisesti noudatettava myös tekoälyn maailmassa.

Erityinen haaste muodostuu siitä, että kuluttajat eivät kokemuksen mukaan lue vakuutustensa ehtoja huolellisesti. Suomalaisessa yhteydessä tältä osin on syytä muistaa, että vakuutussopimus on voimassa siinä muodossa kuin asiakkaalla oli sopimuksesta saamiensa tietojen perusteella aihetta käsittää. Tämä korostaa vakuutusyrityksen vastuuta ymmärrettävän informaation antamisessa.

Oma osansa tekoälyyn pohjautuvia palveluita ovat verkkosivujen tarjoamat chat-sovellukset. Samalla kun nämä parantavat palvelua, asiakkaan on aina oltava selvillä, milloin hän on inhimillisen asiakaspalvelijan sijasta tekemisissä tekoälysovelluksen kanssa.

 

Tekoälyn käytön haasteet vakuutusyhtiön hallintomallille

Tekoäly asettaa haasteita myös vakuutusyhtiöiden hallintomallille, jonka on osaltaan taattava asiakkaiden reilu ja syrjimätön kohtelu. Hallintomallin on turvattava tekoälysovelluksen asianmukainen toiminta koko sen elinkaaren ajan. Osana tätä on varmistettava, että käytetyt tietovarannot ovat tarkat, riittävät ja ne vastaavat käyttötarkoitustaan. Osana hallintomallia on huolehdittava, että asiakas saa tiedon siitä, mitä dataa hänen osaltaan käytetään ja tälle käytölle on asiakkaan antama suostumus.

Solvenssi II -direktiivin 41 artiklan mukaan vakuutusyrityksellä pitää olla riittävän läpinäkyvä organisaatiorakenne, jossa vastuut on jaettu asianmukaisesti ja selkeästi ja jossa tiedon kulku on tehokasta. Direktiivi edellyttää määrättyjen toimintojen perustamista (sisäinen tarkastus, aktuaaritoiminto, sääntelyn noudattamista seuraava compliance-toiminto ja riskienhallintatoiminto). GDPR:n 37 artikla edellyttää tietosuojavastaavan (Data Protection Officer, DPO) nimeämistä. Direktiivi ja asetus huolehtivat siis jo suuresta osasta hallintovaatimuksia. Tämän lisäksi yrityksen muut tahot, erityisesti johto ja hallitus sekä data-asiantuntijat, ovat tärkeässä asemassa turvaamassa tekoälyn käytön asianmukaista toteuttamista.

AI HLEG katsoi, että tekoälysovellukset vaativat aina ihmisen suorittamaa valvontaa, jotta voidaan varmistua niiden toimivan tarkoitetulla tavalla eivätkä ne aiheuta haitallisia sivuvaikutuksia. Ihmisen suorittama valvonta merkitsee tämän osallisuutta tekoälysovelluksen suunnitteluun, toiminnan valvontaan, ylläpitoon ja jatkokehittämiseen.

Tekoäly tekee koko ajan laajemmin mahdolliseksi erilaisten tehtävien ja prosessien automatisoinnin. Ihmisen vastuuta ja osallisuutta ei voida kuitenkaan väistää käytettävien tietovarantojen valinnassa ja tekoälysovellusten opettamisessa sekä soveltuvien algoritmien valinnassa. Ihmisellä on ratkaiseva rooli mallien kalibroinnissa sekä sovelluksen toimien seuraamisessa haitallisten lopputulosten välttämiseksi.

Vaatimus inhimillisestä roolista tulee suhteellisuusperiaatteen mukaisesti sovittaa tarkasteltavan sovellukseen luonteeseen ja sen vaikutusten laajuuteen. Monimutkainen järjestelmä, jolla voi olla riskialttiita vaikutuksia, vaatii laajempaa ihmisen osallisuutta. Sovellukset, joiden läpinäkyvyyttä ja ymmärrettävyyttä ei onnistuta riittävästi järjestämään, vaativat rinnalleen tiukempaa hallinnollista otetta ja ihmisen roolia.

Osana hallinnon toimenpiteitä vakuutusyrityksen edellytetään dokumentoivan tekoälyyn pohjautuvat toimensa perusteellisesti. Dokumentoinnin tulee kuvata prosessit sekä henkilökunnan erilaiset roolit ja vastuut sovellusten käyttämisessä. Dokumentointi on pidettävä ajan tasalla muutenkin, mutta erityisesti silloin, kun tekoälysovelluksia päivitetään.

Hallintomallin on vahvistettava yrityskulttuuria sen varmistamiseksi, että koko henkilökunta noudattaa yrityksen arvoja ja pyrkii takaamaan tekoälyn eettisesti kestävän käytön. Erityisesti vaikutuksiltaan kriittisten tekoälysovellusten osalta tiedon kulun kitkattomuus suorittavalta tasolta johdolle ja päinvastoin pitää varmistaa. Hallintomallissa on huomattava suhteellisuusperiaatteen lisäksi vakuutusyritykselle annettu vapaus toteuttaa hallintomallin käytäntö monella erilaisella, kunkin yrityksen käytäntöön sopivalla tavalla, kunhan hallinnolle asetetut vaatimukset saadaan täytettyä.

Vakuutusyrityksen on edelleen tarjottava henkilökunnalleen riittävä koulutus. Tekoälyn käytöllä on vaikutus työntekijöihin ja näiden oikeuksiin sekä työntekijöiltä vaadittavaan tietojenkäsittelyyn liittyvään osaamiseen. Siirtymisen tekoälyn käyttöön tulee tapahtua reilusti myös työntekijöitä ajatellen ottaen huomioon ihmisoikeudet ja yksilön itsemääräämisoikeus. Tämä on muistettava erityisesti, kun tekoälyä käytetään ohjaamaan tai arvioimaan työntekijöiden, vakuutuksen välittäjien ja myyntiedustajien työtä.

Vakuutusyrityksen pitää hallinnollisilla toimilla tukea tavoitetta tehdä tekoälyratkaisuista sidosryhmille ymmärrettäviä. Suhteellisuusperiaatetta noudattaen vakuutusyrityksen tulee toteuttaa riittävä tietohallinto ja tiedon käytön dokumentointi. Suhteellisuusperiaatteen soveltamisessa erityinen paino annetaan sille, miten kriittisiä kunkin sovelluksen vaikutukset voivat olla.

Tietosuoja-asetus GDPR antaa hyvän perustan tietohallinnon asianmukaiselle järjestämiselle. GDPR sellaisenaan määrittelee myös vakuutusalaa koskevat kattavat vaatimukset tietohallinnolle yleensä ja erityisesti yksittäistä henkilöä koskevan tiedon hallinnalle. Myös yksilötasoa yleisemmän datan käytölle on ilman erityistä GDPR:stä johtuvaa sääntelyäkin asetettava korkeat vaatimukset erityisesti silloin, kun sen käyttö voi vaikuttaa merkittävästi asiakkaiden kohteluun. Vakuutusyritysten kannalta keskeinen on GDPR:n vaatimus, että datan käytölle tulee olla lain mukainen peruste, esimerkiksi kuluttajan antama suostumus.

GDPR:n artikla 5(1) sisältää tärkeitä periaatteita datan käytöstä kuten sen, että yksilölle kerrotaan datan käytön tarkoitus ja että kaikki myöhempi tämän datan käyttö on sopusoinnussa alkuperäisen tarkoituksen kanssa. GDPR:n mukaan yritys ei saa myöskään kerätä turhaa dataa, toisin sanoen vain käytön kannalta merkityksellistä dataa voidaan kerätä ja käsitellä.

GDPR:n 25 artikla määrää, että vakuutusyritysten on toteutettava tietosuojan vaatimukset kaikessa tiedon käsittelyssä ja liiketoiminnasta koko tekoälysovelluksen elinkaaren ajan suunnitteluvaiheesta alkaen. Vakuutussääntelyssä Solvenssi II -direktiivi sisältää sisäisten mallien laatua koskevia määräyksiä, jotka soveltuvat myös tekoälyyn pohjautuvien sovellusten kehittelyyn. Aktuaaripuolella IAA (International Actuarial Association) on osana suosituksiaan ohjeistanut mallien tekemistä. Uutena elementtinä vaatimuksia asettaa finanssialan digitaalisesta häiriönsietokyvystä annettava asetus (DORA eli proposal for a Regulation on digital operational resilience for the financial sector).

Toimiva tekoälyn käyttö riippuu voimakkaasti käytettävissä olevasta datasta. Luotettavan ja tarkan koneoppimiseen perustuvan sovelluksen kannalta datan laatu on kriittinen tekijä. Solvenssi II -direktiivin perusteella annetun delegoidun asetuksen (2015/35) artiklan 231 vaatimukset sisäisissä malleissa käytettävästä datasta voidaan kiteyttää seuraavasti:

  • tieto on tarkkaa, kun se ei sisällä olennaisia virheitä, sen sisältämät tiedot ovat johdonmukaisia, ja tietojen kerääminen on oikeaaikaista ja johdonmukaista eri aikoina.
  • tieto on täydellistä, kun se sisältää riittävästi menneitä kausia koskevaa informaatiota ja tietoa on kaikista merkittävistä parametreista ilman, että merkityksellistä tietoa on jätetty ottamatta huomioon ilman hyvää perustelua.
  • tieto on asianmukaista, kun se on yhdenmukaista käyttötarkoituksensa kanssa, se ei sisällä olennaisia estimointivirheitä, ja se on yhdenmukaista käytettyjen menetelmien kanssa.

Nämä periaatteet soveltuvat hyvin myös tekoälyn käyttöön ja niitä tulisi soveltaa tekoälysovelluksen koko elinkaaren ajan.

AI HLEG kiinnitti erityistä huomiota tekoälysovellusten kestävyyteen ja toimivuuteen. Ilman näitä ominaisuuksia sovellutukset eivät ole luottamuksen arvoisia. Tämä koskee sekä sovellusten teknistä että eettistä puolta. Tekoälyn tulee toimia luotettavasti ja se ei saa aiheuttaa vahinkoa. Tämän saavuttamiseksi tekoälysovelluksen osalta tarvitaan ympäristöanalyysia sekä toiminnalliselta että yhteiskunnalliselta pohjalta.

Vakuutusyritysten tulee noudattaa periaatetta kestävyydestä ja toimivuudesta. Sekä itse kehitettyjen että ulkoistettujen tekoälysovellusten osalta on varmistuttava niiden kestävyydestä ottaen huomioon niiden käyttötarkoitus ja virheellisestä toiminnasta aiheutuva mahdollinen vahinko. Tekoälysovellusten tulee soveltua ajateltuun käyttötarkoitukseensa ja niiden toimivuutta tulee arvioida jatkuvasti. Toimivuutta on syytä varmistaa soveltuvan mittariston avulla. Tekoälysovellusten osalta on edelleen eri menetelmin syytä varmistua, että niiden toiminta on vakaata ajan kuluessa. Tekoälysovellukset tulee toteuttaa IT-ympäristössä, jonka turvallisuudesta esimerkiksi tietoturvaloukkausten varalta on huolehdittu.

Mallien kalibrointi, todentaminen ja dokumentointi on olennainen ja vakiintunut menettely vakuutusalalla. Se perustuu tilastollisen päättelyn keskeiseen asemaan vakuutuksessa. Automaation kehittyessä, mallien monimutkaistuessa ja epälineaaristen mallien myötä mallien hallinnalle asetettavat vaatimukset kiristyvät.

Kestävyyden ja toimivuuden kannalta luotettava toiminta ja tarkka ennustekyky ovat olennainen osa tekoälyä. Mitä paremmin ja luotettavammin sovellus toimii, sitä enemmän sen tuloksiin luotetaan. Tämä johtaa edelleen mahdollisuuteen estää haitallisia sivuvaikutuksia. Tekninen luotettavuus ei kuitenkaan yksin riitä, vaan sovellusta pitää käyttää hyväksyttävällä tavalla siihen tarkoitukseen, johon se on suunniteltu.

 

Aika kohdata musta joutsen

Tämän kirjoitelman lukija toivottavasti on jo alkanut ihmetellä, mihin kirjoitelman otsikossa viitattiin mustalla joutsenella. Nyt on aika päästää musta joutsen vauhtiin.

Kirjoitus lähti liikkeelle Netflix-sarjan Mustasta kuningattaresta. Inhimilliset saavutukset shakissa herättävät kunnioitusta. Samalla tekoäly ylittää ihmisten kyvyt shakissa ja vastaavissa peleissä.

Musta kuningatar saa haasteen mustalta joutsenelta. Ainakin toistaiseksi tekoäly ei ’luo uutta’ kuin vain rajatuissa sääntöympäristöissä.

Tekoäly pärjää hyvin ongelmissa, joissa säännöt säilyvät ennakoitavina. Tekoäly voittaa niin kauan, kun shakkilaudalla on kiellettyä mennä pelilaudan ulkopuolelle tai ratsu ei voi muuttua kenguruksi. Se voi laskea kaikki vaihtoehdot ihmistä nopeammin ja valita voittavat strategiat.

Mutta entäpä kun säännöt muuttuvat kesken kaiken? Mitä tapahtuu, kun peliin tulee mukaan musta joutsen, jota ei pitänyt olla olemassakaan?

Kirjoituksessani mietin vakuutustoiminnan tiedon käytön eettisiä ulottuvuuksia. Ongelmat ovat suoraviivaisia niin kauan, kun säännöt ovat selvät ja kaikki tapaukset riidattomasti luokiteltavissa. Tällaiset ongelmat saadaan tekoälyllä ratkaistua oikein. Osittain myös tiukat rajat rikkovat tapaukset voidaan koneoppimisen kautta saada hoidettua kunnolla.

Tiedonkäytön etiikka tuo näkyviin mustia joutsenia. Niiden kanssa musta kuningatar ei ainakaan vielä saa apuunsa täydellistä tekoälyä. Inhimillinen päätösten tekijä ainakin toistaiseksi säilyttää perustellun paikkansa. Etiikkaa ei voi ohjelmoida, vaan sen mukaan toimiminen vaatii inhimillistä ajattelua. Pyrkimyksessä tekoälyn ja tiedon eettiseen käyttöön törmätään silloin tällöin uusiin tilanteisiin, joissa toimimiseen kasuistiset mallit eivät riitä.

Eettisen toiminnan peruskiveksi muodostuu pyrkimys reiluuteen, kun sovitetaan yhteen toisaalta yksittäisen asiakkaan ja toisaalta vakuutuskollektiivin edut. Reiluus muodostuu lainsäädännön vaatimuksista ja erilaisista sopimuksista ja suosituksista, joiden pohjalta toimintaa voidaan arvioida. Pyrkimys reiluuteen ei saa luottamusta ilman, että toimijat noudattavat läpinäkyvyyttä ja ymmärrettävyyttä. Niiden perusteella toimet voidaan arvioida ja vakuutusala voi käydä eri tahojen kanssa keskustelua paremman reiluuden saavuttamiseksi. Reiluuden, läpinäkyvyyden ja ymmärrettävyyden varmistamiseksi vakuutusyrityksen hallinto tulee järjestää niin, että tavoitteet voidaan uskottavasti saavuttaa.

 

[1] EIOPA, Big Data Analytics in motor and health insurance, May 2019, https://register.eiopa.europa.eu/Publications/EIOPA_BigDataAnalytics_ThematicReview_April2019.pdf

[4] Tämän käsitteen käyttöön on syytä suhtautua kriittisesti, sillä biologisesti ihmiskunnassa ei ole eri rotuja.