Aurinkoista kesää kaikille!
Julkaisut

Miksi Tekoälyn hyödyntäminen formatiivisen arvioinnissa ei välttämättä tee tekoälypalvelusta  suuririskistä? (FRIA-tulkinta)

Julkaistu 27.5.2025 Muokattu 27.5.2025
Vihreällä taustalla ihmisiä tietokoneiden kanssa.

"Katso, kuinka kaunis onkaan tämä maa, tämä Suomen maa, tämä meidän isänmaamme! Ja kuinka rikas onkaan sen kieli, se meidän äidinkielemme!" Tällä tavalla ylisti Aleksis Kivi kieltämme Lea-näytelmässä. Kuitenkin kielen ja kulttuurin yhteensovittaminen aiheuttaa merkittävän ongelman, kun tulkitsemme monikielisen yhteisön (EU:n) laatimia ja kaikille virallisille kielille käännettyjä ohjeistuksia. Haasteen luo myös säännösten antajien viidakko, joka jokaisen opetuksen järjestäjän tulisi tietää.

Tekoäly saapui ja se tulee ottaa käyttöön edistämään oppimista ja opettamista. Tämä on Euroopan unionin eri toimijoiden yksiselitteinen ohje. AI Act on keskeinen ohjaava dokumentti, mutta kannattaa palauttaa mieleen myös Tekoälyn ja datan käyttö opetuksessa ja oppimisessa – eettiset ohjeet opettajille. Oppaan tavoitteena on: "että opettajat voivat suhtautua tekoälyjärjestelmiin myönteisesti mutta harkiten ja eettisesti kestävällä tavalla sekä hyödyntää tehokkaasti niiden tarjoamat mahdollisuudet." Opas on erittäin selkeä ja hyvää luettavaa kaikille opettajille.

Keskeiset käsitteet AI Actissa opetuksen järjestäjän näkökulmasta ovat: Suuririskiset toimet (High risk AI systems, liite 3 ja luku 3), jotka edellyttävät laajasti testattua ja dokumentoitua prosessinohjausta opetuksen järjestäjältä. Tähän tulee sisällyttää perusoikeuksien vaikutusten arviointi (FRIA) ja rajatapauksissa tulee tarkastella toimia perusoikeuksien varmistamisen näkökulmasta. Luvussa 2 esitetyt toimet ovat yksiselitteisesti kiellettyjä. Opetuksen kannalta oleellisimpia näistä ovat:

  • Tekoälyn avulla tapahtuva opiskelijan vilpin havaitseminen
  • Tunteiden tunnistaminen
  • Henkilöstöhallintoon liittyvät toimet 

Yleiskäyttöiset tekoälymallit (esim. ChatGPT) tulevat saamaan CE-merkinnän ja ovat tällöin AI Officen valvonnassa tulevaisuudessa. Yleiskäyttöiset tekoälymallit eivät ole automaattisesti suuririskisiä, mutta opetuksen järjestäjän vastuulle tulee ohjeistaa ja kouluttaa henkilöstö ja valvoa tekoälyn käyttöä.

Tällä hetkellä tekoälyn käyttöön haasteita tuottaa komission European AI Officen valtava työmäärä jatkuvasti muuttuvalla tekoälykentällä. Hyvää varmasti tulee, mutta se vie aikaa. AI Officen tehtävänä on toimia tekoälyä valvovana elimenä koko unionin alueella. AI Actin ja unionin tavoitteena on turvata kansalaistensa perusoikeudet ja tietenkin tuo kaikkien rakastama henkilötietojen suoja. Näiden sovittaminen yleiskäyttöisiin ja jatkuvasti kehittyviin tekoälypalveluihin ei ole helppoa. Palvelut ovat jo käytössä, ja niiden käyttö vaatii ohjeistusta kaikilla tasoilla.

Suomalaisten opetuksen järjestäjien tulee ohjeistaa henkilöstö ja oppilaat, mutta sitäkään ei ole tehty helpoksi. Kaikki voivat ymmärtää ja hyväksyä AI Actin kielletyt toimet tekoälyllä, kuten yksilön manipuloinnin, rodullisen profiloinnin tai ihmisten hyvyyspisteytyksen. Kuitenkin kun siirrytään arvioimaan suuririskisiä toimia, tulee vastaan haasteita tulkintojen sekä kielellisten ja kulttuurillisten erojen takia. Oppilaan kasvua ja kehitystä ei saa ohjata tekoälyllä ilman suuririskisen toimen prosesseja. Tällainen toiminto voisi tarkoittaa esimerkiksi sitä, että:

  • Botti juttelee ekaluokkalaisen kanssa ja antaa ohjeita sekä tehtäviä, joiden avulla oppilas ylittää vuosiluokan tai kulkee jopa koko koulupolun.
  • Ylioppilaskirjoituksissa tekoäly lukee tehtävät ja nappaa numerot valmiista tekoälyllä tuotetusta matriisista, ja sen perusteella valikoituu kansakuntamme tulevat lääkärit ja opettajat opintojensa pariin. 

Tällaisia toimia ei (ainakaan vielä) kannata lähteä suunnittelemaan.

Kuitenkin samassa asetuksessa määritellään, että oppilaan tulee saada ymmärrys tekoälyn toimimisesta ja tekoäly tulee valjastaa oppilaan oppimisen avustajaksi. Samalla linjalla on myös Opetushallituksen tekoälyohjeistus ja Tekoälyn ja datan käyttö opetuksessa ja oppimisessa. Tämä siis edellyttää, että tekoälyä käytetään ja siitä otetaan hyötyä koulujen arjessa.

Jotta pääsemme alkuperäiseen ongelmaan käsiksi, tulee meidän tarkastella kahta eri kieliversiota tuosta AI Actin ongelmallisesta tekstistä:

"Tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi arvioitaessa oppimistuloksia, myös silloin kun kyseisiä tuloksia käytetään luonnollisten henkilöiden oppimisprosessin ohjaamiseksi yleissivistävissä ja ammatillisissa oppilaitoksissa kaikilla tasoilla" (Liite III, 3b)

Jos tätä kohtaa tarkastellaan muiden suuririskisten ja kiellettyjen toimien rinnalla, termi oppimistulosten arviointi tulee sijoittaa arvioinnin lähimmäksi summatiivisen arvioinnin käsitettä.

Samoin oppimisprosessin ohjaus voi säikäyttää, mutta tämäkin tarkoittaa laajempaa opintopolun ohjaamista, kuten hakeutumista valinnaisaineeseen tehtyjen suoritusten perusteella tai valikoitumista automaattisesti painotusluokille tai jatko-opintoihin. Ei siis sitä ohjaamista, joka auttaa oppilasta kirjoittamaan tulevaisuudessa paremmin.

AI systems intended to be used to evaluate learning outcomes, including when those outcomes are used to steer the learning process of natural persons in educational and vocational training institutions at all levels. (Annex III, 3b)

Englanniksi tekstin "outcomes" viittaa huomattavasti selkeämmin tuloksiin, toisin kuin suomenkielinen versio. Jo tästä voimme alkaa miettiä, onko yksittäisen ainekirjoituksen arvioiminen ja kirjoitustaidon kehittäminen tekoälyn avulla enää suuririskistä, varsinkaan jos se tehdään avoimesti ja opettajan ohjauksessa. Myös opintojen ohjaus määritellään selkeämmin englanninkielisessä versiossa siten, että meillä on ainekirjoitus, joka arvioidaan, ja näiden arviointien pohjalta tekoäly ohjaisi oppijan opintopolkua.

Myös komission tarkentavalla ohjesivustolla listatut suuririskiset toimet ovat sellaisia, jotka loukkaavat mahdollisesti terveyttä, turvallisuutta tai perusoikeuksia. 

AI use cases that can pose serious risks to health, safety or fundamental rights are classified as high-risk.” 

Oppimisen tehostaminen tekoälyn avulla ei sitä ole, mutta pelkän tekoälyn varaan jätetty opetus ja oppiminen on. Tämän häilyvän rajan vuoksi on erittäin tärkeää, että opetuksen järjestäjä laatii selkeät ohjeet tekoälyn käytölle ja valvoo niitä, sillä vastuu on yksin opetuksen järjestäjällä.

Koulumaailmassa arviointi on jatkuvaa ja monitasoista toimintaa, jota opettaja toteuttaa päivittäin. Arvioinnin kohteena voi olla esimerkiksi:

  • Kieliopin hallinta - tuliko tähän pilkku? 
  • Oppilaan kokonaissuoritus aineessa - Matin äidinkielen numero kevättodistuksessa.
  • Taitojen karttuminen - lauloiko Miika nuotin vierestä musiikintunnilla?
  • Oppimisen etenemistä - oppiiko Sirva Pohjanmaan joet vai osaako jo?
  • Oppilaan hyvinvointia ja sen vaikutusta kouluympäristöön - onko Heikin mieliala turvallisuusriski?

Suomessa oppiminen ja perusopetus ovat jokaisen lapsen perusoikeus. Perustuslaki velvoittaa julkista valtaa turvaamaan kaikille yhtäläisen mahdollisuuden saada kykyjensä ja erityisten tarpeidensa mukaista opetusta – perusopetuksen lisäksi myös muuta koulutusta – sekä kehittää itseään varallisuudesta riippumatta.

Tekoäly tarjoaa uusia mahdollisuuksia yksilöllisen oppimisen tukemiseen. Sen avulla voidaan toteuttaa jatkuvaa arviointia ja ohjata oppilasta oppimisprosessissaan. Perusopetuslaki itsessäänkin edellyttää monipuolista ja oppimista edistävää arviointia, mutta samalla se määrää antamaan perustellun arvosanan laaja-alaisen näytön perusteella.

Tässä piilee haaste: "arviointi"-termin laajuus hämärtää eroa sen välillä, mikä arviointi tukee aktiivisesti oppimista ja mikä taas kuvaa oppilaan senhetkistä osaamisen tasoa. Jotta tekoälyn käyttöä opetuksessa voitaisiin rajata mielekkäästi, on tärkeää keskittyä sen vahvuuksiin. Tämän vuoksi perinteiset termit, kuten formatiivinen arviointi (tai opetuksen aikainen arviointi), kuvaavat parhaiten sitä arvioinnin osa-aluetta, jossa tekoäly voi parhaiten palvella oppimisen edistämistä.

AI Act on asetus, ja sen tulee olla voimassa kaikissa EU:n jäsenvaltioissa heti. Jokainen jäsenvaltio laatii kansallisen lainsäädäntönsä, jossa määritellään jäsenvaltioille niiden omiin oikeuskäytäntöihin sopivat tarkennukset. Toivon hartaasti, että eduskunnalla on rohkeutta kirjata asiat selkeästi, ettemme ole samassa tilanteessa kuin GDPR:n kanssa: korkein hallinto-oikeus joutui määrittelemään voimassa olevat ohjeistukset perusopetukseen kahdeksan vuotta lain voimaantulon jälkeen.

Kuinka toimia nyt? Suosituksemme on kääriä hihat ylös, määritellä ohjeistukset opiskelijoille ja opetushenkilöstölle, kouluttaa heidät, dokumentoida tietosuojan vaikutustenarviointi ja arvioida perusoikeuksien turvallisuus. Viimeisimpänä vinkkinä on, että tekoälyn avulla tehtävät prosessit ovat avoimia ja kaikkien tiedossa, että Copilot, Gemini tai joku muu kielimalli antaa palautetta minulle.

Google Geminin tekemä tiivistelmä keskeisistä AI Actin sisällöistä opetukseen

Suuririskisiä toimia ovat: 

  • Automaattinen päätöksenteko oppimistulosten arvioinnissa
  • Yksilölle soveltuvan koulutustason arviointi
  • Yleissivistävän tai ammatillisen koulutuksen tasoon vaikuttaminen, jota henkilö myöhemmin saa tai johon hän voi päästä
  • Kielletyn käyttäytymisen havaitseminen (esim. kokeiden aikana)
  • Työllistämiseen, rekrytointiin ja henkilöstöhallintoon liittyvät teköälyn tekemät tukitoimet.

Palvelut, jotka tekevät seuraavia toimia, ovat yksiselitteisesti kielletty:

  • manipuloi yksilön päätöksentekoa
  • biometrinen luokittelu (ei tunnistautuminen)
  • ihmisen sosiaalinen pisteyttäminen
  • kasvontunnistus julkisissa tiloissa
  • tunteiden tunnistaminen työpaikoilla ja oppilaitoksissa

Kun tekoälypalvelua arvioinnissa käytetään ainoastaan formatiivisen arvioinnin tukena, se ei välttämättä tee siitä suuririskistä palvelua seuraavista syistä:

  • Ei vaikuta suoraan summatiivisiin päätöksiin: Formatiivinen arviointi keskittyy oppimisen ohjaamiseen ja palautteen antamiseen kehittymisen tueksi. Kun tekoälyä käytetään tähän tarkoitukseen, sen tuottama palaute ei suoraan määritä arvosanoja, todistuksia tai päätöksiä opiskelijan etenemisestä tai pääsystä koulutukseen.
  • Opettajan kontrolli ja vastuu: Järjestelmä toimii opettajan apuvälineenä. Opettaja on edelleen vastuussa lopullisesta palautteesta ja arvioinnista, eikä tekoäly saa tehdä itsenäisiä, sitovia päätöksiä opettajan puolesta..

Toimi seuraavasti:

  • Käytä tukena, älä korvaajana: Hyödynnä tekoälyä ideoiden, palauteluonnosten tai erilaisten näkökulmien tuottamiseen formatiivista arviointia varten. Tekoälytyökalu ei korvaa opettajan ammatillista harkintaa.
  • Opettaja vastaa aina arvioinnista: Sinä olet opettajana vastuussa kaikesta opiskelijalle antamastasi palautteesta ja arvioinnista. Tämä pätee myös silloin, kun olet käyttänyt tekoälyä sen muotoilussa.
  • Läpinäkyvyys: Kerro selkeästi opiskelijoille, että käytät tekoälyä apuvälineenä palautteen monipuolistamiseksi, korostaen kuitenkin aina omaa rooliasi lopullisena arvioijana.
Jaa sivu: