Skip to content
Menu
  • Etusivu
  • Artikkeli
  • MAL-Lehti
    • 2026
      • Lehti 1-2026
    • 2025
      • Lehti 1-2025
      • Lehti 2-2025
      • Lehti 3-2025
    • 2024
      • Lehti 1-2024
      • Lehti 2-2024
    • 2023
      • Lehti 3-2023
      • Lehti 2-2023
      • Lehti 1-2023
    • 2022
      • Lehti 1-2022
      • Lehti 2-2022
      • Lehti 3-2022
    • 2021
      • Lehti 1-2021
      • Lehti 2-2021
      • Lehti 3-2021
      • Lehti 4-2021
    • 2020
      • Lehti 1-2020
      • Lehti 2-2020
      • Lehti 3-2020
      • Lehti 4-2020
    • 2019
      • Lehti 1-2019
    • 2018
      • Lehti 1-2018
    • 2017
      • Lehti 1-2017
      • Lehti 2-2017
      • Lehti 3-2017
    • 2016
      • Lehti 1-2016
      • Lehti 2-2016
      • Lehti 3-2016
    • 2015
      • Lehti 1-2015
      • Lehti 2-2015
    • 2014
      • Lehti 1-2014
      • Lehti 2-2014
      • Lehti 3-2014
    • 2013
      • Lehti 1-2013
      • Lehti 2-2013
      • Lehti 3-2013
    • 2012
      • Lehti 1-2012
      • Lehti 2-2012
      • Lehti 3-2012
      • Jaakko Ojala, YK: ilmastoneuvottelut 1992 – 2012
    • 2011
      • Lehti 1-2011
      • Lehti 2-2011
      • Lehti 3-2011
    • Lehti SMFL kootut 2005-2009
  • Elokuvat
  • Historia
  • Kirjat
  • Mahtavaa Matematiikkaa
  • Nuoret
  • Piilomatemaatikko Manninen
  • Toimitus
  • Uratarinat
  • Uutiset

Tekoäly ja ihmisen osaaminen

Posted on 5.3.202611.3.2026

Filosofian dosentti Jaana Parviaisen haastattelu

Koulussa englanninopettajani huomautti joskus, että jos aivoja ei käytä, ne surkastuvat… Tämä opetus mielessäni olin tammikuussa järjestämässä Tekniikka elämää palvelemaan -yhdistyksen keskustelutilaisuutta, jossa esitelmän piti Tampereen yliopiston filosofian dosentti Jaana Parviainen otsikolla ”Voiko tekoäly rapauttaa osaamista?”. Keskustelua riitti pitkään, kun monet jakoivat kokemuksiaan ja näkemyksiään aiheesta. Haastattelin Parviaista MAL-lehdelle hänen esityksensä teemoista.

Ilkka Norros: Esityksesi alussa luonnehdit suuriin kielimalleihin perustuvaa tekoälyä olemukseltaan stokastiseksi papukaijaksi, jolta puuttuu ymmärrys todellisuudesta. Voisiko tällaisen papukaijan ilmaantuminen keskuuteemme myös herättää meitä pohtimaan ja selvittämään tietoteorian ongelmia uudenlaisella selkeydellä? Onko tekoäly jo noussut isoksi aiheeksi filosofian opetuksessa ja tutkimuksessa yliopistolla?

Jaana Parviainen: Suuria kielimalleja ei ole suunniteltu kuvaamaan maailmaa totuudenmukaisesti, siksi niitä kutsutaan stokastiseksi papukaijaksi. Ne toistelevat koulutetun datan ja monimutkaisten algoritmien pohjalta satunnaisesti erilaisia fraaseja kuten papukaijat tekevät. Papukaija latelee sille opetettuja sanoja, vaikka se ei ymmärrä sanojen merkitystä ja yhteyttä maailmaan. Kun papu­kaija tarpeeksi usein toistaa satunnaisesti oppimiaan sanoja, meistä ihmisistä vaikuttaa siltä, että se välillä onnistuu kuvaamaan jotain tilannetta hyvinkin osuvasti. 

Usein väitetään harhaanjohtavasti, että suuriin kieli­malleihin pohjautuva tekoäly ”hallusinoisi”. Tekoälyn näkökulmasta katsottuna se ei ”hallusinoi”, vaan tuottaa pelkästään todennäköisiä sanoja tai tokeneja (sanan osia) edellisten sanojen pohjalta. Näin ollen tilastollisessa mielessä se ei tee virheitä, vaikka sisältö meidän ihmisten mielestä olisi välillä puuta heinää.

Koska suuria kielimalleja ei ole koskaan suunniteltu totuuden tavoitteluun, esimerkiksi tiedon etsintään, ne eivät ole tietokantojen tai edes hakukoneiden ja Wikipedian kaltaisia informaatiolähteitä. Ongelma on, että monet – jopa asiantuntijatehtävässä olevat henkilöt – eivät näytä ymmärtävän perustavaa tietoteoreettista eroa esimerkiksi ChatGPT:n ja hakukoneen välillä. Valitettavasti kielimallien käyttö tiedonhaun työkaluina on jo normalisoitunut työssä ja vapaa-ajalla, joten tilannetta on tässä vaiheessa enää vaikea korjata. Tämän tilanteen systeemisiä seurauksia voi vain ennustaa, mutta ainakin kielimallien nykyisenlainen käyttö tullee lisäämään informaatiosaasteen määrää merkittävästi. Tulevaisuudessa voi olla vaikea löytää luotettavia tiedon lähteitä, kun tekoälyliete (slop) saastuttaa vähitellen yhteiskunnan kannalta kriittisiä tietolähteitä. 

Ja sitten vastaus varsinaiseen kysymykseesi. Opetuksen ja tutkimuksen osalta yliopistoissa on suhtauduttu suuriin kielimalleihin alistuvasti ja reaktiivisesti, tarjoamalla opiskelijoille ja henkilökunnalle lähinnä ns. eettistä ohjeistusta tekoälyn käytöstä. Minusta yli­opistojen pitäisi ottaa rohkeampi strateginen näkö­kulma siihen, miten yliopistot säilyttävät asemansa yhteiskunnan keskeisenä episteemisenä instituutiona, kun kielimallit mylläävät kollektiivisen tiedontuotannon mekanismeja. Toistaiseksi yliopistojen tutkimus- ja opetus­resurssit on valjastettu tekoälyn kehitystyöhön. Sen sijaan tekoälyn yhteiskuntakriittinen tutkimus ja siihen pohjautuva opetus on aliresursoitu yliopistoissa.

I.N.: Kerroit amerikkalaisesta tutkimuksesta, jonka mukaan opiskelijat erottuvat väestöryhmien joukossa aktiivisimpina ChatGPT:n käyttäjinä. Opettajalle on tärkeää sekä se, että opiskelijat oppivat, että se, että hän voi todeta kunkin oppineen. Miten tekoälyn käyttö näkyy sinun yliopistosi arjessa, millaisia uusia tapoja ja millaisia haasteita se on tuonut? 

J.P.: Tosiaan mainitsemani lähde keräsi anonyymia dataa ChatGPT:n käytöstä viime kevään ja kesän osalta. Datasta pystyi päättelemään, että toukokuussa koulujen loppukokeiden aikaan Yhdysvalloissa tokeneiden tuotannon määrä kipusi korkealle ja romahti heti kesälomien alettua. Tämän seurauksena pääteltiin, että ChatGPT:n käyttö on normalisoitunut opiskelijoiden keskuudessa Yhdysvalloissa, mutta on vaikea arvioida, miten paljon suomalaisopiskelijat tai omat opiskelijani käyttävät näitä työkaluja. 

Alustavan kansainvälisen kasvatustieteellisen tutkimuksen valossa voidaan sanoa, että jos kielimallien käyttöä opetuksessa ei mitenkään rajoiteta, oppimis­tulokset heikentyvät. ”Kysy-ChatGPT:ltä” asenteen omaksuneet opiskelijat altistuvat oppimisen välttämiseen, mikä voi johtaa oppimismotivaation katoamiseen. Omat kognitiiviset resurssit jäävät ohuiksi, koska omat taidot eivät ”kasaannu” ja kehity. Esimerkiksi kyky etsiä tietoa ja arvioida asiantuntijoita tai informaatiolähteen luotettavuutta heikkenee.  Tutkijat muistuttavat, että joillekin opiskelijoille voi kehittyä eräänlainen ”tekoäly­riippuvuus”. Annetuista tehtävistä syntyvän stressin seurauksena syntyy pakonomainen selviytymismalli turvautua kaikessa tekoälyn apuun. 

I.N.: Sanoit, että tekoälyn käyttö vaatisi pedagogiikkaan uudistuksia, mutta tällaisten kehittämiseen ei ole vielä osoitettu erityisiä resursseja. Minkä tyyppisiä uudistuksia tämä voisi tarkoittaa?

J.P.: Täytyy muistaa, että kielimalleja ei kehitetty opetusteknologiaksi, mutta kielimallien seurauksena teknologiateollisuus pakottaa koulutusjärjestelmän muokkaamaan pedagogisia toimintatapojaan. Jotkut kutsuvat suuria kielimalleja ”plagiointityökaluiksi”. Minusta plagiointityökaluja pitäisi tarkastella opiskelijoiden oikeuksien näkökulmasta: ne pahimmassa tapauksessa riistävät opiskelijoiden oikeudet oppia ja kehittää osaamistaan. 

Monet opettajat kokevat, että he ovat velvollisia turvaamaan opiskelijoiden oikeudet oppimiseen. Yli­opistossa pedagogisten menetelmien kehittäminen on lähinnä opettajien oman kiinnostuksen ja oma­toimisuuden varassa. Koska aikaa menetelmien kehittämiseen ei ole, on joltain osin käännetty kelloa taaksepäin. Esimerkiksi osa opettajista käyttää sähköisten tenttien tai esseiden sijasta paperisia tai suullisia tenttejä, jotta opiskelijat eivät kirjoittaisi töitään tekoälyn avulla. 

Toki kielimalleista voi olla pedagogiikan kannalta hyötyä opiskelijoille ja opettajille, jos niitä pystytään käyttämään siten, että ne edistävät osaamista. Tosin silloin on tarpeen arvioida tekoälyn käytön kokonaishyödyt- ja haitat myös ekologisesta näkökulmasta, vertailemalla tekoälyn kuluttaman veden ja sähkön määrää suhteessa perinteisiin työkaluihin.

I.N.: Kuten totesit, automaation yleinen sääntö on, että se toisaalta vähentää osaamista syrjäyttäessään työtehtäviä, mutta toisaalta luo uudenlaisia tehtäviä uusine osaamisvaatimuksineen. Tekoäly on työelämän muutostekijänä vasta alkutaipaleellaan, mutta kerroit jo joistakin empiirisistä tutkimuksista maailmalla. ­MALin jäsenet ovat korkeasti koulutettuja asiantuntijoita – ­millaisia uusia ilmiöitä ja kehittämishaasteita on havaittu asiantuntija­työn osalta?

J.P.: Tekoäly muuttanee ennen kaikkea asiantuntijatyön sisältöjä ja tehtävien muotoiluja. Pelkään, että syntyy joukko uusia tekoälyyn liittyviä piiloisia tehtäviä, joita ei huomioida työtehtävien aikataulutuksessa. Esimerkiksi tekoälyn avulla voidaan kirjoittaa raportti näennäisen nopeasti, mutta raportin virheiden korjaamiseen, olennaisiin lisäyksiin ja lauseiden muotoiluun voi kulua lähes yhtä pitkä aika, kuin mitä kokenut asiantuntija tekisi ilman tekoälyä. Myös palkattoman työn määrä yhteiskannallisella tasolla lisääntynee, koska monenlaista erikoisasiantuntemusta tarvitaan erottamaan tekoälyn tuottama liete oikeasta informaatiosta. 

Lupaukset siitä, että tekoäly lisäisi työn tuottavuutta, eivät ainakaan vielä näytä toteutuvan. Joissakin laajoissa empiirisissä tutkimuksissa on havaittu, että kielimallien käyttö ei hyödytä taloudellisesti työ­tekijöitä palkan korotusten muodossa tai organisaatioita työn tuottavuuden kannalta. 

Riippumatta siitä lisääkö tekoäly organisaation tuottavuutta, asiantuntijatyötä automatisoidaan tehokkuuden ja taloudellisten säästöjen toivossa. Automaation myötä työt saattavat hoitua hitusen nopeammin, mutta pitkällä aikavälillä automaatiolla voi olla kielteisiä seurauksia organisaatiolle. Organisaation koko osaaminen voi alkaa rapautua, jos asiantuntija ei saa säännöllistä harjoitteluja ja kannustimia ylläpitää inhimillistä osaamista. Jos esimerkiksi onkologi tai patologi ei saa harjoitusta syöpien tunnistamisessa, vaan sairaalat automatisoivat kudosnäytteiden seulonnan tekoälyn avulla tehtäväksi, johtavien lääkärien kyvyt voivat rapautua. Tällöin myöskään nuoret lääkärit eivät kehity kokeneiden lääkärien johdolla. Pahimmassa tapauksessa asiantuntijat eivät enää pysty niihin tehtäviin, jotka heidän oletetaan hallitsevan esimerkiksi tilanteissa, joissa teknologiaa ei ole saatavilla. 

I.N.: Kiinnitit huomiota siihen, että suurten kieli­mallien tekoäly on digijättien luomus, ja näillä yrityksillä on omat intressinsä. Miten meidän pitäisi ottaa tämä asia huomioon?

J.P.: Generatiivisen tekoälyn kehitystä ohjaavat teknojättien liiketaloudelliset intressit, joten käyttöliittymät on suunniteltu mahdollisimman helposti käytettäviksi ja käyttäjiä koukuttaviksi sovelluksiksi. Tekoäly mielistelee käyttäjäänsä, jotta käyttäjä olisi mahdollisimman pitkään sovelluksen ääressä. Teknoyhtiöt tarjoavat perus­mallejaan käyttäjille yleensä ilmaiseksi, mutta ”ilmaisuus” on moni­tulkintaista: käyttäjä luovuttaa oman datansa samalla ilmaiseksi teknoyhtiön käyttöön. Täytyy muistaa, että kielimallit ovat ensisijaisesti kaupallisia tuotteita eikä niitä ole suunniteltu opetukseen tai asiantuntija­työhön, vaikka niitä markkinoidaan avustajina. 

Nykyään monet käyttävät kielimalleja ”kavereina” ja valmentajina, jopa romanttisina kumppaneina ja terapeutteina. Jatkuvan myönteisen palautteen vaarana on, että käyttäjä joutuu huomaamattaan manipuloitavaksi. On jopa väitetty, että jatkuva päivittäinen käyttö keskustelevan tekoälyn kanssa voi vahvistaa omia harhaluuloja ja laukaista psykoosin kaltaisen tilan. Vaikka tutkimus osoittaisi kielimallien aiheuttavan joillekin mielenterveysongelmia, digijättejä on vaikea saada tästä vastuuseen.

Nykykeskustelussa amerikkalaiset digijätit näyttäytyvät helposti pahiksina, kun taas eurooppalaiset teknoyhtiöt paistattelevat hyviksinä. Nähdäkseni eurooppalaiset noudattavat samankaltaista ansainta­logiikkaan kuin amerikkalaisyhtiöt eivätkä niiden tekoäly­mallit poikkea merkittävästi amerikkalaisista tekno­veljistään. Kun pohditaan sitä, pitäisikö eurooppalaisten kehittää eettisesti kestävämpiä tekoäly­työkaluja, jotka edistäisivät oppimista eivätkä rapauttaisi osaamista, voidaan kysyä, mikä taho niitä voisi kehittää. Käytännössä kaikki julkisen sektorin tietojärjestelmät ovat yksityisten yritysten kehittämiä tai jonkinlaisen yhteistyön tulosta. Julkinen sektori ulkoisti jo kauan sitten lähes kokonaan oman teknologia­osaamisensa yksityisille tekno­yrityksille. Vaikka rahoitusta ”eettisesti kestäviin” tekoäly­työkalujen kehitykseen jostain löytyisikin, valitettavasti näyttää siltä, eurooppalaisten tekno­yhtiöiden arvomaailma ei poikkea merkittävästi amerikkalaisyhtiöstä, siksi tuotokset ovat yhden­mukaisia. Tämä on aika pessimistinen arvio, mutta niin kauan kuin julkiset organisaatiot eivät pysty kehittämään digitaalista omavaraisuuttaan ja linjaamaan omaa teknologiapolitiikkaansa, ne ovat teknologiayhtiöiden ansaintalogiikan vietävissä. •


Ilkka Norros

Uusimmat

  • Tekoälyn toimiva soveltaminen vaatii asiantuntemusta
  • Talven kuultavansininen ihme
  • Tšernobyl 26.04.1986
  • Tšernobylin jälkipyykki
  • Tšernobyl vuonna 2026

Arkisto

Takaisin etusivulle
©2026 | WordPress Theme by Superbthemes.com