Skip to content
Menu
  • Etusivu
  • Artikkeli
  • MAL-Lehti
    • 2025
      • Lehti 1-2025
    • 2024
      • Lehti 1-2024
      • Lehti 2-2024
    • 2023
      • Lehti 3-2023
      • Lehti 2-2023
      • Lehti 1-2023
    • 2022
      • Lehti 1-2022
      • Lehti 2-2022
      • Lehti 3-2022
    • 2021
      • Lehti 1-2021
      • Lehti 2-2021
      • Lehti 3-2021
      • Lehti 4-2021
    • 2020
      • Lehti 1-2020
      • Lehti 2-2020
      • Lehti 3-2020
      • Lehti 4-2020
    • 2019
      • Lehti 1-2019
    • 2018
      • Lehti 1-2018
    • 2017
      • Lehti 1-2017
      • Lehti 2-2017
      • Lehti 3-2017
    • 2016
      • Lehti 1-2016
      • Lehti 2-2016
      • Lehti 3-2016
    • 2015
      • Lehti 1-2015
      • Lehti 2-2015
    • 2014
      • Lehti 1-2014
      • Lehti 2-2014
      • Lehti 3-2014
    • 2013
      • Lehti 1-2013
      • Lehti 2-2013
      • Lehti 3-2013
    • 2012
      • Lehti 1-2012
      • Lehti 2-2012
      • Lehti 3-2012
      • Jaakko Ojala, YK: ilmastoneuvottelut 1992 – 2012
    • 2011
      • Lehti 1-2011
      • Lehti 2-2011
      • Lehti 3-2011
    • Lehti SMFL kootut 2005-2009
  • Elokuvat
  • Historia
  • Kirjat
  • Mahtavaa Matematiikkaa
  • Nuoret
  • Piilomatemaatikko Manninen
  • Toimitus
  • Uratarinat
  • Uutiset
EU:n tekoälysäädös tulossa

EU:n tekoälysäädös tulossa

Posted on 28.6.202422.2.2025

Euroopan Unionin pitkään valmisteltu tekoälysäädös on viimeisten silausten vaiheessa ja astunee voimaan ennen syksyä. Valmisteluun kiinteästi osallistunut Anna-Mari Wallenberg kertoi MAL-lehdelle mielellään, mistä on kysymys. 

Wallenberg väitteli tohtoriksi tieteenfilosofiasta ja toimii kognitiotieteen yliopistonlehtorina Helsingin yliopistossa. Tekoälyn kehitys rupesi 2010-luvulla etenemään suurin hyppäyksin, ja sekä tekoälyhype että kriittisten puheenvuorojen painokkuus nousivat voimakkaasti. Vuonna 2020 EU:n komissio katsoi aiheelliseksi tuottaa asiasta niin valmistajien kuin ihmisoikeusaktivistienkin näkökantoja huomioon ottavan white paper’in. Näin EU alkoi valmistella tekoälyn käytön sääntelyä. Suomessa valmistelua koordinoi Työ- ja elinkeinoministeriö (TEM). 

Ajatus, että tekoälyn käytölle on syytä luoda juridisia pelisääntöjä, ei tunnu toivottomalta, kun ajattelee, miten hyvin GDPR on omaksuttu turvaamaan henkilötietojen yksityisyyttä Euroopassa ja esimerkin voimalla osin muuallakin. 

Toisaalta ei ole vaikea ymmärtää niitäkään, jotka pelkäävät EU:n sääntelevän itsensä hengiltä, kun tämän komission aikana on valmisteltu viitisen muutakin datasäädöstä. Wallenberg huomauttaa, että tekoälyn kehitys ei noudata teknologiateollisuuden normaaleja kaavoja kuten suurten aineellisten resurssien kokoamisen välttämättömyyttä: Internet, datakeskukset ja suurteholaskenta on jo nyt saatettu alustaksi, jolla asian­tunteva ja innovatiivinen ja toimija voi tehdä pienillä omilla resursseilla suuria asioita.

Säädöksen rakenne

Wallenberg kertoo, että tekoälysäädöksen rakenne seuraa tuoteturvallisuuslainsäädännön logiikkaa. Erityyppisiin sovelluksiin liitetään riskitasoja, ja kyseessä ovat riskit kansalaisten perusoikeuksien toteutumiselle. 

Vaikeuksia oli toki jo tekoälyn määrittelemisessä. Lopulta päädyttiin käyttämään ”OECD:n määritelmää”: tekoälykäs järjestelmä oppii itsenäisesti sääntöjä ja on toiminnassaan autonomisesti adaptiivinen (mukautuva). 

Kuvituskuva.

Riskitasoja on asetuksessa neljä:

  • riski, jota on mahdoton hyväksyä
  • korkea riski
  • rajoitettu riski
  • minimaalinen riski.

Riskit, joita ei voida hyväksyä
Säädös kieltää tekoälysovellukset, joiden voidaan katsoa selvästi uhkaavan ihmisten turvallisuutta, toimeentuloa ja perusoikeuksia. Esimerkkeinä mainitaan sosiaalinen pisteyttäminen hallitusten toimesta ja vaaralliseen käyttäytymiseen kehottavat puhuvat lelut.

Tässä yhteydessä on syytä huomata, että tekoälyn sotilaalliset sovellukset on rajattu säädöksen ulko­puolelle. Näidenkin sääntelyä maailmassa kyllä yritetään, sillä YK:n piirissä on käynnissä neuvotteluprosessi tappajarobotit kieltävästä sopimuksesta.

Korkea riski: vastuun antaminen tekoälylle
Korkean riskin järjestelmiksi luokitellaan sellaiset, joissa tähän asti jonkun ihmisen vastuulla ja arvostelukyvyn varassa ollut tehtävä annetaan tekoälyn huoleksi. Tällainen sovellus voidaan korkeasta a priori riskitasosta huoli­matta sallia, jos se läpäisee perusteellisen arvioinnin. Vaatimukset täyttävä järjestelmä voidaan asettaa EU:ssa markkinoille, kun se on julistettu kriteerit täyttäväksi ja saanut tästä CE-merkinnän. Jos järjestelmään tehdään oleellisia muutoksia, se on pantava uudelleen arviointiin.

Tähän luokkaan lasketaan hyvin monenlaisia tekoälyn sovelluksia, ja jo pelkkä listan pituus osoittaa, miten suurten muutosten kynnyksellä saatamme olla:

  • kriittiset infrastruktuurit kuten liikennejärjestelmät
  • valintamenettelyt opetuslaitoksiin ja työharjoitteluun – nämä päätökset voivat olla ratkaisevia ihmisen koko ammattiuralle
  • tuotteiden turvallisuuskriittiset komponentit, esimerkkinä robottikirurgia
  • työhönotto sekä hallinnolliset päätökset työelämässä 
  • keskeiset yksityiset ja julkiset palvelut, esimerkkinä lainojen myöntäminen
  • oikeudelliseen päätöksentekoon liittyvät sovellukset
  • pakolaisten vastaanotto ja maahanmuutto
  • demokratian toimintaan liittyvät prosessit

Moninaisia ovat myös tällaisten sovellusten arviointikriteerit, kuten nämä:

  • pätevät riskiarviot ja riskienhallinta
  • järjestelmien syöttötietojen laadukkuuden takaaminen
  • lokitietojen kerääminen ja tulosten jäljitettävyys
  • tarkka dokumentaatio systeemistä ja sen tarkoituksesta
  • selkeät ja asianmukaiset käyttöohjeet
  • selvitys riskien minimoimisen takaavista ihmisen suorittaman yleistason valvonnan menettelyistä
  • korkea robustisuus, turvallisuus ja toimintatarkkuus

Nämä kriteerit ovat minusta hyvin motivoituja, sellaisia, jotka tekoälykkäältä systeemiltä mielellään edellyttäisi, jos sille annetaan kuvatun kaltaisia vastuullisia tehtäviä. Jotkut niistä ovat niin vaativia, että niiden käytännöllinen tulkinta lienee vähitellen etenevä prosessi. Esimerkiksi tekoälyn black box -tyyppisten päätösten selittäminen on vielä paljolti tutkimuksellinen haaste, vaikkei käsittääkseni toivoton.

Rajoitettu riski: toden ja lumeen erottaminen
Rajoitetun riskin sovelluksiksi luokitellaan sellaiset, joissa on kysymys tekoälyn luomusten erottamisesta reaalimaailman ilmiöistä. EU:n tekoälysäädös vaatii järjestelmiltä läpinäkyvyyttä sen suhteen, milloin kommunikoidaan tekoälyn kanssa. Tämä vaatimus koskee esimerkiksi chat-palveluja. Myös tekoälyn generoimat kulttuurituotteet – tekstit, kuvat, videot, musiikki jne – on sellaisiksi merkittävä. Syväväärennökset (deep ­fake) on siis kielletty.

Minimaalinen tai olematon riski: 
uusia algoritmeja vaarattomiin tarkoituksiin

Tämä luokka käsittää valtaenemmistön nykyisistä tekoäly­sovelluksista, ja kenties tekoälyn suurin vaikutus käytännön elämään tuleekin tätä kautta. Esimerkiksi kielten automaattisen kääntämisen kokonaisvaikutus lienee vasta alullaan, erittäin vaikeiden optimointi­tehtävien kuten proteiinien laskostumisen ratkaisu alkaa juuri nyt mullistaa biokemiaa ja lääketiedettä, jne. On hyvä ymmärtää, että myös tällaisilla sovelluksilla on lopulta valtavia vaikutuksia ihmisten työhön ja elämään – ei vain sellaisilla, joilla ihmistyöstä yritetään syystä tai toisesta päästä eroon.

Sanktiot

Tekoälysäädökseen liittyvien sanktioiden pääsääntö on Wallenbergin mukaan yksinkertaisesti se, että sitä rikkova yritys voi saada todella suuria sakkoja. Vastaaviahan on jo nähty GDPR:n yhteydessä. Viranomainen voi tarvittaessa myös kieltää tekoälyä säädöksen vastaisesti hyödyntävän järjestelmän tai tuotteen. 

Säädöksen voimaantulo – mistä tietoa?

Tekoälysäädös hyväksyttiin lopullisesti alkukesästä 2024. Säädös on paksun kirjan kokoinen eli noin 500 sivun laajuinen tekstikokonaisuus, jota ollaan parhaillaan kääntämässä kaikkien EU:n jäsenvaltioiden kielille. Säädöksen odotetaan astuvan voimaan tämän kesän aikana, ja se ohittaa jäsenvaltioiden lainsäädännön. Kiellettyjen käytänteiden osalta siirtymäaika on 6 kuukautta säädöksen julkaisemisesta.

Koska säädöksestä nousee sen julkaisemisen jälkeen varmasti suurtakin epätietoisuutta siitä, mitä se käytännössä edellyttää ja miten nopeasti, ja erilaisia huhuja voi lähteä liikkeelle, Wallenberg suosittelee seuraamaan asian vastuuministeriön TEM:n viestintää täsmällisen tiedon lähteenä.

Tämän artikkelin lähteenä on Anna-Mari Wallenbergin haastattelun ohella käytetty lähinnä EU:n verkko­sivua AI Act, digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai. •

Ilkka Norros

Kuvat: Pixabay

Uusimmat

  • Matematiikka ja luonnontieteet tuovat joustavuutta energiankäyttöön
  • Aivojen hoitoa
  • Missä määrin tekoälyä voi ymmärtää?
  • Kvanttitietokoneiden ja tavallisten tietokoneiden yhteispeli
  • Flogistonin viimeiset liekit

Arkisto

Takaisin etusivulle
©2025 | WordPress Theme by Superbthemes.com