Euroopan Unionin pitkään valmisteltu tekoälysäädös on viimeisten silausten vaiheessa ja astunee voimaan ennen syksyä. Valmisteluun kiinteästi osallistunut Anna-Mari Wallenberg kertoi MAL-lehdelle mielellään, mistä on kysymys.
Wallenberg väitteli tohtoriksi tieteenfilosofiasta ja toimii kognitiotieteen yliopistonlehtorina Helsingin yliopistossa. Tekoälyn kehitys rupesi 2010-luvulla etenemään suurin hyppäyksin, ja sekä tekoälyhype että kriittisten puheenvuorojen painokkuus nousivat voimakkaasti. Vuonna 2020 EU:n komissio katsoi aiheelliseksi tuottaa asiasta niin valmistajien kuin ihmisoikeusaktivistienkin näkökantoja huomioon ottavan white paper’in. Näin EU alkoi valmistella tekoälyn käytön sääntelyä. Suomessa valmistelua koordinoi Työ- ja elinkeinoministeriö (TEM).
Ajatus, että tekoälyn käytölle on syytä luoda juridisia pelisääntöjä, ei tunnu toivottomalta, kun ajattelee, miten hyvin GDPR on omaksuttu turvaamaan henkilötietojen yksityisyyttä Euroopassa ja esimerkin voimalla osin muuallakin.
Toisaalta ei ole vaikea ymmärtää niitäkään, jotka pelkäävät EU:n sääntelevän itsensä hengiltä, kun tämän komission aikana on valmisteltu viitisen muutakin datasäädöstä. Wallenberg huomauttaa, että tekoälyn kehitys ei noudata teknologiateollisuuden normaaleja kaavoja kuten suurten aineellisten resurssien kokoamisen välttämättömyyttä: Internet, datakeskukset ja suurteholaskenta on jo nyt saatettu alustaksi, jolla asiantunteva ja innovatiivinen ja toimija voi tehdä pienillä omilla resursseilla suuria asioita.
Säädöksen rakenne
Wallenberg kertoo, että tekoälysäädöksen rakenne seuraa tuoteturvallisuuslainsäädännön logiikkaa. Erityyppisiin sovelluksiin liitetään riskitasoja, ja kyseessä ovat riskit kansalaisten perusoikeuksien toteutumiselle.
Vaikeuksia oli toki jo tekoälyn määrittelemisessä. Lopulta päädyttiin käyttämään ”OECD:n määritelmää”: tekoälykäs järjestelmä oppii itsenäisesti sääntöjä ja on toiminnassaan autonomisesti adaptiivinen (mukautuva).

Riskitasoja on asetuksessa neljä:
- riski, jota on mahdoton hyväksyä
- korkea riski
- rajoitettu riski
- minimaalinen riski.
Riskit, joita ei voida hyväksyä
Säädös kieltää tekoälysovellukset, joiden voidaan katsoa selvästi uhkaavan ihmisten turvallisuutta, toimeentuloa ja perusoikeuksia. Esimerkkeinä mainitaan sosiaalinen pisteyttäminen hallitusten toimesta ja vaaralliseen käyttäytymiseen kehottavat puhuvat lelut.
Tässä yhteydessä on syytä huomata, että tekoälyn sotilaalliset sovellukset on rajattu säädöksen ulkopuolelle. Näidenkin sääntelyä maailmassa kyllä yritetään, sillä YK:n piirissä on käynnissä neuvotteluprosessi tappajarobotit kieltävästä sopimuksesta.
Korkea riski: vastuun antaminen tekoälylle
Korkean riskin järjestelmiksi luokitellaan sellaiset, joissa tähän asti jonkun ihmisen vastuulla ja arvostelukyvyn varassa ollut tehtävä annetaan tekoälyn huoleksi. Tällainen sovellus voidaan korkeasta a priori riskitasosta huolimatta sallia, jos se läpäisee perusteellisen arvioinnin. Vaatimukset täyttävä järjestelmä voidaan asettaa EU:ssa markkinoille, kun se on julistettu kriteerit täyttäväksi ja saanut tästä CE-merkinnän. Jos järjestelmään tehdään oleellisia muutoksia, se on pantava uudelleen arviointiin.
Tähän luokkaan lasketaan hyvin monenlaisia tekoälyn sovelluksia, ja jo pelkkä listan pituus osoittaa, miten suurten muutosten kynnyksellä saatamme olla:
- kriittiset infrastruktuurit kuten liikennejärjestelmät
- valintamenettelyt opetuslaitoksiin ja työharjoitteluun – nämä päätökset voivat olla ratkaisevia ihmisen koko ammattiuralle
- tuotteiden turvallisuuskriittiset komponentit, esimerkkinä robottikirurgia
- työhönotto sekä hallinnolliset päätökset työelämässä
- keskeiset yksityiset ja julkiset palvelut, esimerkkinä lainojen myöntäminen
- oikeudelliseen päätöksentekoon liittyvät sovellukset
- pakolaisten vastaanotto ja maahanmuutto
- demokratian toimintaan liittyvät prosessit
Moninaisia ovat myös tällaisten sovellusten arviointikriteerit, kuten nämä:
- pätevät riskiarviot ja riskienhallinta
- järjestelmien syöttötietojen laadukkuuden takaaminen
- lokitietojen kerääminen ja tulosten jäljitettävyys
- tarkka dokumentaatio systeemistä ja sen tarkoituksesta
- selkeät ja asianmukaiset käyttöohjeet
- selvitys riskien minimoimisen takaavista ihmisen suorittaman yleistason valvonnan menettelyistä
- korkea robustisuus, turvallisuus ja toimintatarkkuus
Nämä kriteerit ovat minusta hyvin motivoituja, sellaisia, jotka tekoälykkäältä systeemiltä mielellään edellyttäisi, jos sille annetaan kuvatun kaltaisia vastuullisia tehtäviä. Jotkut niistä ovat niin vaativia, että niiden käytännöllinen tulkinta lienee vähitellen etenevä prosessi. Esimerkiksi tekoälyn black box -tyyppisten päätösten selittäminen on vielä paljolti tutkimuksellinen haaste, vaikkei käsittääkseni toivoton.
Rajoitettu riski: toden ja lumeen erottaminen
Rajoitetun riskin sovelluksiksi luokitellaan sellaiset, joissa on kysymys tekoälyn luomusten erottamisesta reaalimaailman ilmiöistä. EU:n tekoälysäädös vaatii järjestelmiltä läpinäkyvyyttä sen suhteen, milloin kommunikoidaan tekoälyn kanssa. Tämä vaatimus koskee esimerkiksi chat-palveluja. Myös tekoälyn generoimat kulttuurituotteet – tekstit, kuvat, videot, musiikki jne – on sellaisiksi merkittävä. Syväväärennökset (deep fake) on siis kielletty.
Minimaalinen tai olematon riski:
uusia algoritmeja vaarattomiin tarkoituksiin
Tämä luokka käsittää valtaenemmistön nykyisistä tekoälysovelluksista, ja kenties tekoälyn suurin vaikutus käytännön elämään tuleekin tätä kautta. Esimerkiksi kielten automaattisen kääntämisen kokonaisvaikutus lienee vasta alullaan, erittäin vaikeiden optimointitehtävien kuten proteiinien laskostumisen ratkaisu alkaa juuri nyt mullistaa biokemiaa ja lääketiedettä, jne. On hyvä ymmärtää, että myös tällaisilla sovelluksilla on lopulta valtavia vaikutuksia ihmisten työhön ja elämään – ei vain sellaisilla, joilla ihmistyöstä yritetään syystä tai toisesta päästä eroon.
Sanktiot
Tekoälysäädökseen liittyvien sanktioiden pääsääntö on Wallenbergin mukaan yksinkertaisesti se, että sitä rikkova yritys voi saada todella suuria sakkoja. Vastaaviahan on jo nähty GDPR:n yhteydessä. Viranomainen voi tarvittaessa myös kieltää tekoälyä säädöksen vastaisesti hyödyntävän järjestelmän tai tuotteen.
Säädöksen voimaantulo – mistä tietoa?
Tekoälysäädös hyväksyttiin lopullisesti alkukesästä 2024. Säädös on paksun kirjan kokoinen eli noin 500 sivun laajuinen tekstikokonaisuus, jota ollaan parhaillaan kääntämässä kaikkien EU:n jäsenvaltioiden kielille. Säädöksen odotetaan astuvan voimaan tämän kesän aikana, ja se ohittaa jäsenvaltioiden lainsäädännön. Kiellettyjen käytänteiden osalta siirtymäaika on 6 kuukautta säädöksen julkaisemisesta.
Koska säädöksestä nousee sen julkaisemisen jälkeen varmasti suurtakin epätietoisuutta siitä, mitä se käytännössä edellyttää ja miten nopeasti, ja erilaisia huhuja voi lähteä liikkeelle, Wallenberg suosittelee seuraamaan asian vastuuministeriön TEM:n viestintää täsmällisen tiedon lähteenä.
Tämän artikkelin lähteenä on Anna-Mari Wallenbergin haastattelun ohella käytetty lähinnä EU:n verkkosivua AI Act, digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai. •
Ilkka Norros
Kuvat: Pixabay