Varma lähti viime syksynä rakentamaan ohjeita tekoälyn eettisesti kestävään hyödyntämiseen. Tarve ohjeisiin nousi tekoälyteknologian nopeasta kehityksestä ja tilanteista, joihin aiemmat ohjeistukset eivät tarjonneet riittävästi vastauksia tai työkaluja. Uudet ohjeet tuodaan osaksi kaikkien varmalaisten arkea, ja työpajoihin osallistuneet varmalaiset vievät eettisen ajattelun osaamista mukanaan muille varmalaisille.
– Tekoälyn eettiset ohjeet ovat nyt monessa suomalaisessa yrityksessä työpöydällä. Haemme kaikki tekoälystä hyötyä ja tehokkuutta työtehtäviimme, mutta samalla meillä on vastuu käyttää tekoälyä eettisesti. Varmassa tämä korostuu erityisesti toiminnossamme, jossa kehitetään tekoälyjärjestelmiä, hankitaan niitä ulkopuolisilta toimittajilta ja päätetään niiden käyttöönotosta. Riskien kartoittamiseen ja eettiseen arvioimiseen on oltava osaamista ja hyviä työkaluja, toteaa data- ja digipalvelujohtaja Mika Nikkola.
Kohti eettisesti kestävää tekoälyarkea
Varman tekoälyn eettinen ohjeistus rakennettiin työpajoissa, joissa eri puolilta Varmaa tulleet asiantuntijat saivat pohjatietoa etiikasta sekä tunnistivat tämänhetkisiä ja mahdollisesti tulevaisuudessa eteen tulevia tekoälyn käyttökohteita. Samalla keskusteltiin siitä, minkälaista eettistä pohdintaa näiden käyttökohteiden kohdalla tulisi tehdä. Työryhmän ajattelutyötä johti eetikko, teologian tohtori Anna Seppänen, jolla oli jo aiempaa kokemusta yritysten eettisten ohjeiden rakentamisesta. Seppänen vaikuttui työpajaan osallistuneiden varmalaisten omistautumisesta ja aktiivisuudesta koko projektin ajan.
– Näin varmalaisissa poikkeuksellista sitoutuneisuutta ja keskittymistä eettisiin keskusteluihin. Ja koska tekoälyn vastuullinen käyttö edellyttää eri alojen yhteistyötä, oli todella hienoa, että mukana oli asiantuntijoita eri liiketoiminnoista, IT:stä, vastuullisuudesta, HR:stä, viestinnästä ja juridiikasta. Tällaista en ole aiemmin nähnyt yrityksissä, vaikka yhteistyön merkitys kyllä tunnistetaan tärkeäksi, arvioi Seppänen.
Tekoälytekniikat ovat tulleet kaikkien työpöydälle, ja nopea kehitys on lisännyt tarvetta viedä myös eettistä ajattelua eteenpäin.
– Monet saattavat pitää tekoälyn saapumista ahdistavana asiana, johon liittyy uhkia, kuten työpaikkojen menetys tai työn muutokset. Tekoälyn etiikassa kohtaa myös kaksi ilmiötä, jotka ovat työelämässä vaikeita, tekoäly ja etiikka. Siksi koen myös merkittävänä työhyvinvointitekona, että henkilöstölle tarjotaan tekoälyosaamista, sillä se ehkäisee tätä eettistä stressiä. Tekoälyn eettiset ohjeet voivat toimia osaamisen lisäämisen välineenä, eivät vain pelkkänä ohjeena.
Tekoälyyn liittyvällä eettisellä ajattelulla on hyvä olla yhteiset ohjeet, mutta vasta kyky asettaa ne arjessa omaan kontekstiinsa tekee niistä merkityksellisiä.
– Jännite ohjeiden ja jokapäiväisen soveltamisen välillä on osa soveltavaa etiikkaa ja tekoälyn etiikkaa. Asiaa ei kannata kuitenkaan suurennella. Jos jossain prosessissa tai palvelussa hyödynnetään tekoälyä, niin ei asian ei tarvitse olla sen ihmeellisempää kuin, että ottaa sinne prosessiin aikaa, jolloin skannaa ohjeiston avulla, mitä eettisiä kysymyksiä tähän liittyy. Miten kysymyksiin voidaan vastata ja löytää itse ratkaisuja vai tarvitaanko apua muilta? Suuren ilmiön edessä ei pidä halvaantua. Pienikin pohdinta on paljon enemmän kuin ei mitään, rohkaisee Seppänen.
Anna Seppänen luotsaa Varman tekoälyn eettisten ohjeiden työryhmän työpajaa.
Varma halusi panostaa ohjetyöryhmän kokoon ja työpajojen määrään, jotta jokainen osallistuja veisi prosessin päätyttyä tekoälyyn liittyvää eettistä ajattelua mukanaan omaan tiimiinsä.
– Uskon, että moni työpajoihin osallistunut koki tämän ajatusmatkan tärkeäksi ja vie oppimaansa eteenpäin. Voimme nyt tunnistaa yhdessä tekoälyn eettisiä mahdollisuuksia ja riskejä, punnita niitä eri näkökulmista ja viedä päätökset arjen teoiksi Varman hyödyksi. Oleellista on tietää, millä ehdoilla tekoälyn käyttöä voidaan Varmassa pitää eettisesti kestävänä. Oikein käytettynä se auttaa meitä lisäämään toimintamme tehokkuutta ja laatua, kertoo itsekin työpajoihin osallistunut Nikkola.
Varman tekoälyn eettiset ohjeet valmistuivat yhteistyöstämisen tuloksena vuoden alussa. Nyt mukaan otetaan kaikki varmalaiset ja ohjeet tulevat jatkossa olemaan kiinteä osa uuden varmalaisen perehdytysmateriaalia. Julkaisemalla ohjeet myös ulkoisesti ja uutisoimalla aiheesta Varma haluaa kertoa harkitusta ja vastuullisesta teknologian kehitystyöstään.
– Minulle kirkastui työpajojen aikana se, miten tärkeää on, että Varma yhteiskunnallisena toimijana kertoo avoimesti omasta tekoälyyn liittyvästä toimintamallistaan. Herättää luottamusta tietää, että asioita on pohdittu ja että eettiset ohjeet ovat osa Varman prosesseja, toteaa Seppänen.
Varman ohjeet tekoälyn eettiseen hyödyntämiseen
Varman tekoälyn eettisissä ohjeissa ilmaistaan, mitä tekoälyn eettisesti kestävä hyödyntäminen edellyttää ja mihin varmalaiset ovat sitoutuneet. Ohjeet hyväksyttiin Varman johtoryhmässä 16.2.2024 ja niistä on tehty Varman sisäiseen käyttöön laajempi versio, jossa kuvataan tarkemmin ohjeiden soveltamista arkeen.
Tekoälyn hyödyntäminen Varman perustehtävän vastuullisessa toteuttamisessa
Tekoälyn eettisesti kestävässä hyödyntämisessä tavoitteemme on
- lisätä Varman toiminnan tehokkuutta ja laatua. Varman perustehtävä on turvata työeläkkeet, ja siksi laatu ja tehokkuus ovat meille myös eettisiä velvollisuuksia. Hyödynnämme tekoälyjärjestelmiä, kun ne auttavat lisäämään toimintamme tehokkuutta ja laatua.
- edistää asiakkaidemme parasta. Otamme kaikessa toiminnassamme huomioon Varman vakuutuksenottajien, vakuutettujen ja edunsaajien edut. Tavoitteemme on, että tekoälyjärjestelmät tuottavat asiakkaillemme hyvää esimerkiksi nopeamman tai virheettömämmän asiakaspalvelun muodossa.
- tukea varmalaisten kestävää työelämää. Varmassa vastuullisuuteen kuuluu kestävä työkulttuuri. Tekoälyjärjestelmien käytön tavoitteena on edistää varmalaisten hyvää työelämää vaikkapa sujuvoittamalla asiantuntijatyön rutiineja.
Tekoälyn hyödyntämisen rajat eettisten riskien torjumiseksi
Eettisesti kestävän tekoälyn hyödyntämisen ehdottomia edellytyksiä Varmassa ovat
- kiellettyjen ja eettisesti kestämättömien tekoälyn käyttökohteiden sulkeminen pois. EU:n tekoälyä koskeva sääntely rajaa tietyt käyttötarkoitukset kokonaan pois. Sääntelyn noudattaminen on meille luovuttamaton lähtökohta. Lisäksi voimme Varmassa sulkea tekoälyn käyttökohteita pois oman eettisen harkintamme perusteella.
- tekoälyjärjestelmien eettisten riskien tunnistaminen, ja järjestelmän kehittämisestä ja käytöstä vetäytyminen tarvittaessa. Ennen tekoälyjärjestelmän käyttöönottoa arvioimme sen eettisiä riskejä suhteessa tavoiteltuihin vaikutuksiin. Vaikka tavoitellut hyödyt olisivat merkittäviä, emme ota käyttöön tekoälyjärjestelmiä, joihin liittyy liian suuria riskejä. Tekoälyjärjestelmän käyttö voidaan eettisen harkinnan perusteella lopettaa milloin tahansa. Varmalaiset ja Varman ulkopuoliset henkilöt voivat tuoda myös tekoälyn hyödyntämiseen liittyviä eettisiä huolia turvallisesti ja nimettömänä esille eettisten rikkeiden ilmoituskanavan (Whistleblowing-palvelu) kautta.
- asiakkaidemme, eläkkeensaajien, kumppaniemme ja muiden ryhmien keskeisten oikeuksien suojeleminen. Tekoälyjärjestelmien hyödyntämisessä tarkastelemme Varman perustehtävän kannalta keskeisiä oikeuksia. Emme hyödynnä tekoälyjärjestelmää, jos tunnistamme siinä uhan tärkeiden oikeuksien toteutumiselle, eikä uhan torjumiseksi ole riittäviä keinoja.
Toimintatavat eettisen kestävyyden turvaamiseksi tekoälyn hyödyntämisessä
Tekoälyn hyödyntämisessä turvaamme eettistä kestävyyttä
- säilyttämällä vastuun ja hallinnan ihmisillä. Tekoälyjärjestelmät ovat mukautuvia, oppivia ja monimutkaisia. Tästä huolimatta mielekkään vastuun ja hallinnan on oltava ihmisellä, jotta voimme pitää huolta siitä, että tekoälyn hyödyntäminen edistää ihmisten asettamia tavoitteita.
- varmistamalla riittävä läpinäkyvyys ja ymmärrettävyys. Läpinäkyvyyttä ja ymmärrettävyyttä ei aina voi täysin toteuttaa esimerkiksi järjestelmän turvallisuuden varmistamiseksi. Me pyrimme tarkoituksenmukaiseen ja riittävään läpinäkyvyyteen ja ymmärrettävyyteen, jotta tarvittaessa myös Varman ulkopuoliset tahot voivat arvioida ratkaisujemme eettistä kestävyyttä.
- arvioimalla aktiivisesti ja moninäkökulmaisesti tekoälyjärjestelmän vaikutuksia. Kun tunnistamme, että jossakin tekoälyjärjestelmässä tai käyttökohteessa riski ei-toivotuille vaikutuksille on vähäistä suurempi, kuljetamme erityisen tarkkaa eettistä arviointia mukana kaikissa tekoälyjärjestelmän kehityksen ja käytön vaiheissa.
Varman tekoälyn eettiset ohjeet
Lue lisätietoa toimintaamme ohjaavista periaatteista Näin me toimimme -sivulta.
STT:n tiedote Uudet tekoälyn eettiset ohjeet ohjaavat tekoälyn hyödyntämistä Varmassa