Kuva: pixabay
Tekoälypuhetta pursuaa nyt joka tuutista. Aiheeseen liittyvistä eettisistä kysymyksistä ja turvallisuusnäkökohtiin liittyvistä ongelmista on kirjoitettu laajalti, ja hyvä niin. Tässä tarinassa keskitytään kuitenkin nk. ”selitettävän tekoälyn” rooliin yhtenä modernin tekoälyn tärkeimmistä osa-alueista. Lisäksi ruoditaan aiheeseen liittyvää matematiikkaa ja ihan vähän filosofiaakin.
Tarve väitteiden selittämiselle ja perustelulle
Yksi modernin tekoälyn keskeisimmistä ongelmista on tekoälyjärjestelmien black box -luonne. Tämä tarkoittaa, että saamme vaikuttavia vastauksia mitä monimutkaisimpiin kysymyksiin, mutta järjestelmät eivät kuitenkaan tarjoa minkäänlaisia syitä sille, miksi saimme juuri kyseiset vastaukset, emmekä jotain muuta. Black box -ongelma mainitaankin lähes kaikissa tekoälyn tulevaisuutta käsittelevissä katsausartikkeleissa merkittävänä haasteena – samanveroisena eettisten ja turvallisuusnäkökohtiin liittyvien kysymysten kanssa. Esimerkiksi OECD:n vuoden 2023 raportissa ”Artificial Intelligence in Science” on osio, joka on omistettu tekoälyn tulevaisuuden haasteille, ja yksi osion kahdeksasta luvusta keskittyy nimenomaan tekoälyn tulkittavuuskysymyksiin. Vastaavasti Harvard Business Review listaa vuoden 2024 toukokuussa ilmestyneessä artikkelissa tekoälyn riskejä, joista black box -ongelma on päässyt kolmannelle sijalle, heti disinformaation ja turvallisuusnäkökohtien jälkeen ja selvästi ennen seitsemäntenä mainittua suurten kielimallien hallusinointiongelmaa. Sama viesti toistuu lähes kaikissa kattavissa tekoälykatsauksissa. Tekoälyn tutkijoille ongelma on tuttu vuosikymmenten takaa. Asiaan liittyvästä työstä on kasvanut kokonainen tutkimusala, selitettävä tekoäly. Vastaava englanninkielinen termi on ”explainable AI”, tai XAI.
Vaikka tekoälypuhetta ja tekoälyä käsitteleviä artikkeleja on tällä hetkellä runsaasti tarjolla eri medioissa, on XAI jäänyt yllättävän vähälle huomiolle. Sen sijaan kielimallien ja generatiivisen tekoälyn ominaisuudet sekä yleisluontoinen tekoälylainsäädännön ja eettisten näkökohtien ruotiminen on keskiössä. Silti lienee turvallista ennustaa, että XAI tulee saamaan selvästi nykyistä enemmän huomiota lähitulevaisuudessa. Vaikka XAI:sta kirjoitetaan paljon tekoälyä koskevissa asiantuntijaraporteissa, ei XAI:n merkityksen ymmärtäminen vaadi minkäänlaista erityisosaamista. Merkityksen taustalla on yksinkertaisesti se, että saatuamme vastauksia ”mitä” -kysymyksiimme, esitämme tyypillisesti heti perään tarkentavan ”miksi” -kysymyksen. Selitettävä tekoäly on olemassa tätä perustavanlaatuista, ymmärtämiseen liittyvää tarvetta varten.
Selitettävän tekoälyn tarve näkyy myös lainsäädännön eri tasoilla. Tekoälytutkijoiden rahoitushakemuksissa ja katsausartikkeleissa on viime aikoina perusteltu selitettävän tekoälyn tarvetta ennen kaikkea lainsäädännöllä. Aihealueen piirissä työskennelleet ja etenkin rahoitushakemuksia arvioineet tutkijat ovat lähes varmasti lukeneet useampaan kertaan, että Euroopan Unionin General Data Protection Regulation (GDPR) mainitsee yksilöiden oikeuden saada selitys heitä koskeviin automatisoituihin päätöksiin. Tällainen ”Right to Explanation” on varsin perusteltu, koska jos vaikkapa saa automaattisen hylkäyspäätöksen vakuutushakemukselleen, on inhimillistä tiedustella välittömästi, että mihin tämä nyt sitten taas kerran perustui. Selitysten arvo on siis suuri yhteyksissä, joissa tehdään yksilöitä koskevia päätöksiä. Myös turvallisuusdimensioita sisältävissä asiayhteyksissä selitykset ovat välttämättömiä. GDPR:n jälkeen uusia, entistä suoremmin nimenomaan tekoälyä koskevia säännöskokoelmia onkin ilmestynyt rahoituksenhakijoiden iloksi.
Lienee perusteltua vielä mainita, että käytännön sovellusten lisäksi selitettävän tekoälyn merkitys on suuri myös tieteellisestä näkökulmasta. Tieteessä itsessään on harvoin tyydyttävää saada tietoa jonkin ilmiön olemassaolosta ilman, että syitä sen taustalla avataan. Tilanne on samankaltainen kuin matematiikassa: teoreemat ovat mukavia, mutta usein vasta todistukset lisäävät ymmärrystä riittävällä tavalla.

Selitettävyyden peruskäsitteitä
Selitettävä tekoäly kattaa useita eri lähestymistapoja eri käyttötarkoituksia varten. Näiden valaisemiseksi tarkastelemme tässä luokittelutehtäviä, joissa AI-malli M ottaa syötteeksi datatietueen x, joka voisi olla esimerkiksi sarja lääketieteellisessä diagnosointitarkoituksessa tehtyjä, yhtä potilasta koskevia mittaustuloksia. Malli käsittelee tietueen x, tulostaen lopulta sopivan luokittelupäätöksen. Teknisesti ottaen M on funktio, jonka syötteenä ovat tietueet ja maalijoukkona äärellinen kokoelma luokkia. Yksinkertaisimmassa tapauksessa luokkina voisi olla vaikkapa 0 ja 1, missä 1 vastaa positiivista diagnoosia (esim. sairaustapauksen toteaminen) ja 0 taas sitä, että kriteerit positiivisesta diagnoosista eivät tämän luokittelijan mukaan täyty.
Nk. lokaali selittäminen tarkoittaa sitä, että pyritään avaamaan syitä sille, miksi tietty tietue x luokiteltiin kuuluvaksi luokkaan y. Tarkastellaan esimerkiksi koneoppimisen kentällä laajalti testikäytössä olevaa Wisconsin Breast Cancer -datajoukkoa, jossa tietueet vastaavat kasvainlöydöksen vuoksi dataan rekisteröidyn potilaan tietoja. Datajoukosta rakennetun luokittelijan tehtävänä on arvioida, onko syötteenä annetulta henkilöltä x löydetty kasvain hyvänlaatuinen (luokka 1) vai ei (luokka 0). Lokaali selitys sille, että potilas x kuuluu luokkaan 1 voisi olla vaikkapa, että solukokojen tasaisuutta koskevan mittauksen tulos oli viitearvon rajoissa.
Käytännössä yksittäistä luokittelijaa koskeva lokaali selitys voi pahimmassa tapauksessa olla virheellinen, mutta riittävän pienellä virhetodennäköisyydellä varustettu selitysmekanismi on kuitenkin vastuullisesti käytettynä hyödyllinen. Wisconsin Breast Cancer -datajoukosta rakennetulla neuroverkolla voidaan luokittelu tehdä 97% tarkkuudella, mutta neuroverkko ei anna minkäänlaista perustelua tai selitystä luokittelupäätöksille. Samasta datajoukosta voidaan kuitenkin kouluttaa myös selityksiä tarjoavia luokittelijoita, joilla on sama tarkkuus kuin neuroverkolla, mistä lisää myöhemmin. Yleisesti ottaen, selityksellä varustettu luokittelu on lähes kaikissa yhteyksissä selvästi tyydyttävämpi kuin pelkkä luokittelutulos.
Globaali selittäminen on lokaalia vaativampaa. Tavoitteena ei ole nyt ainoastaan antaa syitä yksittäisten luokittelupäätösten taustalla, vaan ymmärtää annetun luokittelijan toimintaperiaate kokonaisuudessaan. Toimintalogiikan voi tietysti selittää monilla eri tavoilla. Vaativin näistä koskee nk. ”inherently interpretable” -malleja, jotka ovat niin yksinkertaisia, että niiden toiminta millä tahansa syötteellä on helposti ymmärrettävissä. Termi ”inherently interpretable” voisi kääntyä vaikkapa luontaiseksi (tai itseiseksi) tulkittavuudeksi.
Esimerkkejä luontaisesta tulkittavuudesta
Allekirjoittanut on tutkimusryhmänsä avustamana kehittänyt menetelmiä, joilla luontaisesti tulkittavia luokittelijoita voidaan tuottaa. Olemme havainneet, että usein tällaiset luokittelijat ovat paitsi verrattain tarkkoja, myös tietyllä tapaa huvittavia. Esimerkiksi koneoppijoiden laajalti testikäytössä hyödyntämä Statlog German Credit -datajoukko on osoittautunut tässä mielessä erityiseksi. Datajoukon tietueet ovat lainaa hakeneita henkilöitä, ja luokittelutehtävänä on arvioida luottoriskittömyyttä koskien lainan myöntämistä. Neuroverkko antaa kohtalaisen tarkan tuloksen, mutta valtavan kokoisena matemaattisena hirviönä neuroverkon toimintaperiaate on täysin tulkitsemattomissa. Tutkimusryhmäni kanssa kehittämäni menetelmä tuottaa seuraavan, neuroverkon tarkkuuteen käytännössä yltävän luokittelijan:
EI (saldo_alle_nollan JA hakee_yli_mediaanikestoista_lainaa)
TAI työskentelee_johtotehtävissä.
Tämän Boolen kaavan toimintaperiaate on välittömästi ymmärrettävissä, eikä neuroverkko toimi juurikaan tarkemmin. Huomautettakoon tässä, että kyseessä on siis kaava, jonka kehitetty metodi puskee ulos täysin automaattisesti, eikä tarkoitus ole väittää, että tätä luokittelijaa pitäisi käytännössä käyttää missään yhteydessä. Sitä paitsi, myös luokittelijoiden tarkkuuteen liittyvä virhe täytyy aina ottaa huomioon, käytettiin sitten moderneja black box -menetelmiä tai selitettävissä olevia malleja.
Aikaisemmin mainitusta Wisconsin Breast Cancer -datasta menetelmämme rakentaa luokittelijan
EI ( P≥6 TAI Q≥7 TAI R≥5 )
missä P, Q ja R viittaavat kliinisiin mittausparametreihin, ja annetut luvut ovat vastaavia mittausarvoja. Tämä Boolen kaavana muotoiltu luokittelija on erityisalan asiantuntijalle välittömästi kokonaisuudessaan ymmärrettävissä, ja sen tarkkuus on sama 97% minkä neuroverkkokin antaa. Neuroverkkojen sisältämät parametrimäärät ovat suuria, joten tällaisen yksinkertaisen mutta yhtä tarkan Boolen kaavan olemassaolon voisi ajatella harvinaiseksi poikkeukseksi. Näin ei kuitenkaan ole, vaan todella usein lyhyt ja globaalisti tulkittavissa oleva luokittelija voidaan löytää. Ei tietysti kuitenkaan aivan aina, sillä muutenhan moderneista black box -metodeista voitaisiin kokonaan luopua ja kaikki maailman data tiivistää murto-osaan nykyisestä. Tosin varsin merkittävä osa siitä kyllä voitaisiinkin tiivistää, mutta tiivistäminen on resursseja vievää puuhaa.
Pitäisikö black-box -malleja tulkita vai korvata ne välittömästi tulkittavilla malleilla?
Selitettävyydelle on myös muita jakolinjoja kuin erottelu lokaaliin ja globaaliin. Yksi tärkeä dimensio koskee sitä, onko selitysjärjestelmät kehitetty valaisemaan jo olemassa olevan black box -mallin toimintaa, vai onko systeemi rakennettu alusta asti suoraan datan perusteella siten, että luokituspäätösten lisäksi myös selitykset ovat helposti saatavilla.
Yksi tunnetuimmista XAI-menetelmistä on LIME (Local Interpretable Model-Agnostic Explanations). Se tuottaa lokaaleja selityksiä olemassa oleville black box -malleille. LIME selittää black box -mallin M luokittelupäätöksen syötteellä x tuottamalla regressiosuoran, joka vastaa mallin M toimintaa x:n välittömässä lähiympäristössä. Itse regressiosuora toimii x:n luokittelun selityksenä tai perusteluna. LIME on siis lokaaleja selityksiä tuottava järjestelmä, joka tulkitsee olemassa olevan black box -mallin päätöksiä. Yllä esitelty, Boolen kaavoihin perustuva metodi taas tuottaa globaalisti tulkittavissa olevia luokittelijoita, joita suotuisissa tapauksissa voi käyttää black box -mallien sijaan, jolloin siis mitään black box -mallia ei tarvita lainkaan.
LIME:n ohella toinen, laajalti tunnettu selitysjärjestelmä SHAP (SHapley Additive exPlanations) on alun perin peliteoreettisiin tarkasteluihin pohjautuva systeemi, joka tuottaa listauksen luokittelupäätöksiin vaikuttavien attribuuttien suhteellisista kontribuutioista päätökselle. Kontribuutio annetaan attribuutin painona. SHAP:ia on käytetty laajalti olemassa olevien black box -mallien lokaaliin selittämiseen. Järjestelmän käyttömahdollisuuksissa on kuitenkin joustavuutta, ja esimerkiksi globaali selittäminen on myös mahdollista.
Selitettävän tekoälyn rajoista
Selitettävyys kulminoituu paljolti tiivistämiseen. Tästä avautuu matemaatikolle monta mielenkiintoista leikkikenttää, joille rakentaa. Tiivistämislähtöinen ajattelutapa johtaa suoraan informaatioteoriaan ja esimerkiksi Kolmogorov-kompleksisuuteen liittyviin tarkasteluihin. Kolmogorov-kompleksisuuden idea on, että olion x täydelliseen kuvailuun käytettävän ilmaisun minimipituus vastaa x:n sisäistä kompleksisuutta. Intuitiivisesti ottaen siis yksinkertaisten olioiden kuvailu onnistuu verrattain lyhyillä ilmaisuilla, kun taas monimutkaiset oliot vaativat pitkiä ja monimutkaisia kuvailuja. Hankalista asioista on siis hankala puhua.
Alkuperäinen Kolmogorov-kompleksisuus ei toki rakennu näin vapaamuotoiselle ajattelulle, vaan perustuu tarkkaan määritelmään sekä kuvailtavista olioista että niiden kuvauksiin käytettävästä järjestelmästä. Yllä annettu vapaamuotoinen ja intuitiivinen ajattelutapa on kuitenkin sikäli hedelmällinen, että siitä on helppo johtaa uusia formaaleja viitekehyksiä, joissa kuvailujen pituuteen liittyviä tuloksia voidaan todistaa muodollisesti, ja näin saaduilla tuloksilla on suoria yhteyksiä modernin tekoälyn selitettävyyskysymyksiin. Esimerkkinä tästä mainittakoon, että allekirjoittanut on kollegojensa kanssa todistanut asymptoottisen vastaavuuden logiikkapohjaisten luokittelijoiden pituuden ja vastaavien luokkien ”sisäisen monimutkaisuuden” välillä. Epämuodollisesti tulos sanoo, että selitettävyyden aste pienenee luokittelutehtävässä käytettävien luokkien monimutkaisuuden kasvaessa. Tällä tapaa epäformaalisti kuvailtuna väite saattaa kuulostaa jopa itsestään selvältä, mutta taustalla oleva muodollinen yhteys ei ole helposti arvattavissa eikä ainakaan todistamatta selvä. Informaatioteorian tuntijoille ja fyysikoille kerrottakoon, että luokkien monimutkaisuus määriteltiin tässä yhteydessä Boltzmann-entropian avulla.
Selitettävyyden rajoja tarkasteltaessa on luonnollista aloittaa käytettävän AI-mallin ilmaisuvoiman kartoittamisesta. Ilmaisuvoimalla tarkoitetaan karkeasti ottaen mallin erottelukykyä, eli sitä, kuinka tarkkoja rakenteellisia eroja malli pystyy tunnistamaan. Moderni muodollinen logiikka on omiaan näihin tarkasteluihin, sillä logiikan alalla ilmaisuvoimakysymyksillä on todella pitkä historia. Yksi aktiivisimmista tutkimusaiheista tällä tutkimuskentällä on viime vuosina ollut nk. graafineuroverkkojen (Graph Neural Network, tai GNN) ilmaisuvoima. Tyypilliset GNN-mallit onkin onnistuttu todistamaan ilmaisuvoimiltaan ekvivalenteiksi erilaisten logiikoiden kanssa. Kyseisten logiikoiden ilmaisuvoima taas tunnetaan tarkasti, joten logiikoiden ja GNN-mallien välinen ekvivalenssi implikoi myös tarkat karakterisaatiot GNN-mallien ilmaisuvoimalle.
Aiheen tutkimuksessa keskeisimpiä loogisia järjestelmiä ovat olleet nk. modaalilogiikat, joiden esiintyminen tekoälytutkimuksen tällä saralla on sikäli kiehtovaa, että perinteisesti modaalilogiikoiden pääasiallisena toiminta-alueena on ollut filosofinen logiikka sekä aivan toisenlaiset tietojenkäsittelytieteeseen liittyvät sovellukset. Omassa työssäni olen tutkimusryhmäni kanssa onnistunut muun muassa todistamaan, että nk. rekursiiviset GNN-mallit vastaavat täydellisesti erästä sääntöpohjaista modaalilogiikkaa, jossa rekursiivisuus hoidetaan sääntöjen päivityksen kautta.

Sääntöpohjaisen ja modernin tekoälyn eroista
Sääntöpohjaisten systeemien käyttäminen uusimpien syväoppimismallien täydelliseen karakterisointiin on sikäli mielenkiintoista, että usein modernin tekoälyn ja sääntöpohjaisten, symbolisten järjestelmien on ajateltu olevan jollain tapaa täysin eri maailmasta. Tarkempaa matemaattista tarkastelua tällainen ajattelu ei kuitenkaan ainakaan kirjaimellisesti tulkiten kestä, sillä kuten yllä kuvattu vastaavuus GNN-mallien ja sääntöpohjaisten järjestelmien välillä vihjaa, voidaan tyypilliset syväoppimismallit muotoilla sääntöpohjaisesti symbolisen paradigman formalismeilla, ja päinvastoin. Yksi selitys tälle näennäisesti yllättävälle yhteydelle on se, että todellisen maailman neuroverkot eivät käytä reaalilukuja yhtään mihinkään, koska laskenta perustuu tosi asiassa liukulukuihin. Täten neuroverkkojen tämänhetkiset toteutukset ovat lopulta symbolisia ja diskreettejä järjestelmiä, mikä ei tosin yllätä, kunhan huomioi sen, että lopulta ne toteutetaan klassista laskentaa suorittavilla tietokoneilla.
Lisähuomiona symbolisen ja modernin AI:n eroavaisuuksiin liittyvistä uskomuksista nostettakoon se, että merkittävin ero ei perustu siihen, käytetäänkö symbolista lähestymistapaa vai jotain muuta (mitä muuta?). Merkittävä ero on siinä, luodaanko järjestelmät eksplisiittisesti ohjelmoimalla ne valmiiksi asti, kaikki välivaiheet tarkkaan suunnitellen, vai käytetäänkö sen sijaan epäsuoria (esim. tilastollisia) opetusmenetelmiä. Ero ei ole täysin erilainen, kuin ikivanha filosofinen kiista rationalismin ja empirismin välillä. Molemmissa lähestymistavoissa on totta kai omat hyvät puolensa, ja näkökulmia on hedelmällistä sekoittaa monella tapaa.
Diskretisoinnin lisäksi liukulukujen ottaminen tosissaan johtaa myös moniin muihin kiehtoviin havaintoihin. Neuroverkkoihin liittyvä teorianmuodostus on tietyllä abstraktiotasolla luonnollista muotoilla lineaarialgebran kielellä, pippuroituna epälineaarisilla aktivaatiofunktiolla, mutta tällainen lähestymistapa ei kuitenkaan aina riitä. Liukulukujen summahan ei noudata edes liitännäisyyttä, joten kaikenlaista pientä jää pimentoon reaalilukupohjaisessa teoretisoinnissa. Tästä seuraa matemaatikolle paljon mukavia puuhastelumahdollisuuksia.
Lopuksi
Vaikka selitettävyyskysymys on systemaattisesti esillä tulevaisuutta koskevassa tekoälypuheessa, ei suomenkielisessä Wikipediassa tätä juttua kirjoitettaessa ole edes aihetta käsittelevää sivua. Jos ei muuta, niin ainakin tämän uskaltaa ennustaa muuttuvan melko pian. Kävipä miten hyvänsä, XAI:n merkitys ja näkyvyys tulee melko varmasti kasvamaan lähitulevaisuudessa monenlaisissa käytännön sovelluksissa. Matemaatikolle selitettävä tekoäly – ja tekoäly ylipäätään – tarjoaa joka tapauksessa paljon kiinnostavaa tutkittavaa. Sitä riittänee myös seuraavan tekoälytalven varalle. Toivoa voi, että meneillään olevan tekoälykesän tuotteena syntyy myös järjestelmiä, joiden avulla matematiikan tutkimuksen arki muokkautuu suuntaan, jossa matemaattisille ideoille voidaan antaa entistä enemmän tilaa, ja aikaisempaa selvästi suurempi osa rutiininomaisemmasta toiminnasta voidaan jättää koneille. Aika näyttää, kuinka nopeaa kehitys on. •
Symbolinen vs. moderni syväoppiva tekoäly
Symbolinen tekoäly perustuu ongelmien ratkaisemiseen esimerkiksi erilaisia logiikka-pohjaisia sääntöjoukkoja käyttämällä. Symboliseen teköälyyn saatetaan viitata termillä ”Good old-fashioned AI”.
Syväoppiva tekoäly perustuu tyypillisimmin neuroverkkoihin, jotka on koulutettu suurella määrällä dataa.
Artikkelin kannalta merkittäviä julkaisuja:
- Veeti Ahvonen, Damian Heiman, Antti Kuusisto: Descriptive Complexity for Neural Networks via Boolean Networks. 32nd EACSL Annual Conference on Computer Science Logic, CSL 2024.
- Veeti Ahvonen, Damian Heiman, Antti Kuusisto, Carsten Lutz: Logical characterizations of recurrent graph neural networks with reals and floats. Advances in Neural Information Processing Systems 38: Annual Conference on Neural Information Processing Systems 2024, NeurIPS 2024.
- Reijo Jaakkola, Tomi Janhunen, Antti Kuusisto, Masood Feyzbakhsh Rankooh, Miikka Vilander: Interpretable Classifiers for Tabular Data via Feature Selection and Discretization. Proceedings of the 4th International Workshop on Data meets Ontologies in Explainable AI co-located with the 27th European Conference on Artificial Intelligence ECAI 2024.
- Reijo Jaakkola, Tomi Janhunen, Antti Kuusisto, Masood Feyzbakhsh Rankooh, Miikka Vilander: Short Boolean Formulas as Explanations in Practice. Logics in Artificial Intelligence – 18th European Conference, JELIA 2023.
- Reijo Jaakkola, Antti Kuusisto, Miikka Vilander: Relating description complexity to entropy. Journal of Computer and System Sciences 149, 2025.
- Scott M. Lundberg, Su-In Lee: A Unified Approach to Interpreting Model Predictions. Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems, NIPS 2017.
- Marco Túlio Ribeiro, Sameer Singh, Carlos Guestrin. ”Why Should I Trust You?”: Explaining the Predictions of Any Classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD 2016.
Antti Kuusisto, Associate Professor, Tampereen yliopisto