Vastuullinen tekoäly: kompakti opas niille, jotka haluavat toimia oikein

Tekoäly puhuttaa, kiinnostaa ja usein myös pelottaa. Sen avulla luvataan tehokkuutta, uudenlaista asiakaskokemusta ja jopa uusia palveluinnovaatioita. Mutta samalla se tuo mukanaan kysymyksiä, joihin ei ole vielä vakiintuneita vastauksia: voiko tekoälyyn luottaa? Kenen ehdoilla sitä kehitetään? Kuka kantaa vastuun, jos jokin menee pieleen?

Tekoäly puhuttaa, kiinnostaa ja usein myös pelottaa. Sen avulla luvataan tehokkuutta, uudenlaista asiakaskokemusta ja jopa uusia palveluinnovaatioita. Mutta samalla se tuo mukanaan kysymyksiä, joihin ei ole vielä vakiintuneita vastauksia: voiko tekoälyyn luottaa? Kenen ehdoilla sitä kehitetään? Kuka kantaa vastuun, jos jokin menee pieleen?

Jos olet miettinyt samoja kysymyksiä ja haluat hyödyntää tekoälyä eettisesti, kestävästi ja läpinäkyvästi, jatka lukemista. Koska teknologia itsessään ei ole hyvä tai paha, mutta sen käyttötavat voivat olla kumpia vaan.

Tietosuoja ja salassapito – perustukset kuntoon

Tekoälyn vastuullisuuden kivijalka on tietosuoja. Vaikka GPT-4 ei osaa ”muistaa” yksittäistä keskustelua (ilman että sen niin sallitaan), sen taustalla olevat teknologiat ja kielimallin tarjoajat voivat silti tallentaa ja analysoida sille syötettyä tietoa eli dataa, ellei toisin sovita.

Siksi tekoälyä hyödyntävän tahon pitää…

  • Tunnistaa, mitä dataa tekoälylle annetaan ja ei anneta: Jos mukana on henkilötietoja (nimi, sähköposti, IP-osoite, palaute), sovelletaan GDPR:ää.
  • Varmistaa, ettei syötettyjä tietoja (esim. asiakkaan liikesalaisuuksia) käytetä kaikkien käytössä olevan kielimallin kouluttamiseen: Tämä edellyttää useimmissa työkaluissa maksullista yritystason lisenssiä (esim. OpenAI, Google Cloud, Microsoft Copilot). HUOM! Maksullinen yksityiskäyttöön tarkoitettu tili ei vielä tarjoa tätä “suojausta”. Tarkista aina kunkin tilin käyttöehdot palveluntarjoajalta. 
  • Toteuttaa tietoturvaa huolellisesti: Pelkkä tekoälyn käyttöön tarkoitettu chatti ei riitä. Hallittuun käyttöön tarvitaan samanlaiset ratkaisut kuin minkä tahansa ohjelmiston kanssa työskennellessä. Käytännössä siis hallintapaneelit, käyttöoikeuspolitiikat, lokitiedot ja riskianalyysi on tehtävä myös tekoälyn käyttöön. 
  • Kouluttaa henkilöstö asianmukaisesti: Kun käyttöön otetaan uusi ERP tai jokin muu iso järjestelmä, henkilöstö koulutetaan perinpohjaisesti. Sama koskee myös organisaation käyttöön valittua tekoälysovellusta. Ilman kattavaa koulutusta riskien toteutuminen on enemmänkin sääntö kuin poikkeus.

Eettiset reunaehdot – teknologiaa ihmistä varten

Tekoälyn kehittyy valtavaa vauhtia, mutta sen käyttöön liittyvä moraali laahaa perässä. Siksi eettinen pohdinta ei vastuullisesti toimivassa organisaatiossa saa jäädä jälkeen. Muutamia keskeisiä kysymyksiä, mitä on syytä pohtia jo ennen tekoälyn käyttöönottoa tai viimeistään heti, kun sen käytöstä on jo vähän käytännön kokemusta:

1. Läpinäkyvyys

Tuleeko käyttäjälle (työntekijä, asiakas, yhteistyökumppani) selväksi, milloin hän on tekemisissä tekoälyn kanssa? Voiko hän saada selityksen, miksi tietty vastaus tai suositus annettiin?

2. Vastuunjako

Jos tekoäly antaa virheellisen ohjeen, kuka on vastuussa? Kehittäjä, käyttäjä vai alusta? Vastuun siirtely teknologialle on eettisesti ongelmallista. Pääsääntö on toki se, että käyttäjä on vastuussa siitä, miten tekoälyn tuottamaa tietoa hyödyntää ja että lähteet ja tiedon oikeellisuus on tarkistettu.  

3. Vinoumat ja syrjintä

Koulutusdata vaikuttaa siihen, mitä malli pitää ”normaalina”. Jos data on puolueellista, tulokset voivat olla syrjiviä – usein huomaamatta. Onko järjestelmä arvioitu tältä osin? Vinoutuneen tiedon tuottaminen on toki aivan yhtä mahdollista, vaikka käyttäisi lähteenään hakukonetta tai kirjastoa. Kaikkihan riippuu lähteistä ja niiden tulkinnasta. Siksi tämäkin näkökulma ja sen tulkinta jää aika lailla käyttäjän harteille. 

4. Manipulaation mahdollisuus

Kun kielimallit osaavat kirjoittaa uskottavaa tekstiä ja simuloida ihmistä, niiden käyttö väärin (esim. valeuutiset, huijausviestit, deepfake-sisällöt) on todellinen riski. Vastuullisesti toimiva työyhteisö tai organisaatio ei luonnollisestikaan tuota tämänkaltaista sisältöä, vaan uhka on enemmänkin medialukutaidon riittämättömyydessä ja sen seuraksena vääränlaisten lähteiden käytössä.

Yhteiskunnallinen näkökulma ja ympäristövastuu: näkymättömät vaikutukset näkyviksi

Tekoälyn vastuullisuus ei rajaudu  eettisiin valintoihin ja tietosuojaan. Vastuullisesti tekoälyä hyödyntävä organisaatio huomioi myös seuraavat näkökulmat:

Ilmastovaikutukset

Suurten kielimallien koulutus voi kuluttaa satoja tonneja hiilidioksidia. Jatkuva käyttö, etenkin ilman optimointia, kasvattaa energiankulutusta.

Kannattaakin kysyä:

  • Tarvitaanko isoja malleja kaikkeen, vai voisiko kevyt ratkaisu riittää?
  • Voidaanko tekoälyn käyttöä ajoittaa tehokkaasti (esim. paljon energiaa vaativat laajan aineiston käsittelyt tehdään yöaikaan tai kun fossiilivapaata energiaa on saatavilla enemmän) tai valita hiilineutraali palveluntarjoaja?

Vaikutus työelämään

Automatisointi voi vapauttaa aikaa. Tai syrjäyttää työntekijöitä tai ehkä tarkemmin nykyisiä osaamisia. Vastuullinen tekoälyn käyttöönotto sisältääkin:

  • osaamisen päivittämistä
  • työnkuvan ja työroolien uudelleenmäärittelyä
  • läpinäkyvää viestintää henkilöstölle
  • jatkuvaa kouluttamista sekä yleisesti että roolikohtaisesti

Kannattaa muistaa, että tekoäly ei ole neutraali työkalu. Sen käyttöönotto muuttaa organisaatiota – siksi siihen liittyvä muutosjohtaminen on myös vastuullisuuskysymys.

Kohti käytännön vastuullisuutta – checklist päättäjille

Vastuullinen tekoälyn käyttö ei ole salatiedettä. Kuten mikä tahansa strateginen muutos tai työkalu, se vaatii systematiikkaa, priorisointia ja rehellisyyttä.

Tässä muistilista organisaatioille:

Tunnista tekoälyn käyttötarkoitukset ja niihin liittyvä data
Arvioi riskit – eettiset, oikeudelliset, tekniset ja sosiaaliset
Valitse työkalut läpinäkyvyyden ja tietoturvan perusteella
Viesti avoimesti tekoälyn käytöstä asiakkaille ja henkilöstölle
Kouluta tiimi ymmärtämään sekä mahdollisuudet että rajat
Seuraa kehitystä ja päivitä yhteisiä sääntöjä säännöllisesti

Tekoälyn kehitys ei pysähdy – mutta me voimme päättää, mihin suuntaan sitä ja sen käyttöä ohjataan. Organisaatiot, jotka panostavat vastuullisuuteen nyt, eivät ainoastaan minimoi riskejä. Ne myös rakentavat luottamusta, houkuttelevat osaajia ja vahvistavat brändiään.

Lähteet:

Tietosuoja ja lainsäädäntö:

Eettiset periaatteet ja hyvät käytännöt:

Ympäristövaikutukset ja resurssitehokkuus:

  • ”The Carbon Footprint of Machine Learning Training” – Lacoste et al. (2019)
  • MIT Technology Review: Training a single AI model can emit as much carbon as five cars in their lifetimes

Tämä artikkeli on toteutettu tekoälyn avustamana, mutta lopullinen teksti on asiantuntijan tekemä. Artikkelissa ei ole hyödynnetty sensitiivisiä tai tietosuojan alaisia tietoja. Lähdetarkistus on tehty asianmukaisesti. Artikkelin kuva on viimeistelty tekoälyn avulla, alkuperäinen kuva ladattu Pexels-kuvapankista, jonka lisenssi sallii kuvien käytön ja muokkaamisen haluamallaan tavalla.  

Tykkäsitkö? Jaa ihmeessä eteenpäin!

Olisiko jo aika tehdä paremmin?

Juuri nyt on aika toimia. Kun tavoitteenasi on tehdä bisnestä kestävämmin, innostaa henkilöstä vastuullisuuteen tai viestiä hyvistä teoista, meiltä löytyy apu. 

Learn how we helped 100 top brands gain success