Siirry sisältöön

Uusi tekoälyasetus – mitä on luvassa?

11.04.2022

Euroopan unionin teknologialiitännäisen lainsäädännön verkko tihenee, kun joukkoon saadaan komission 21.4.2021 ehdottama tekoälyasetus sääntelemään erilaisia tekoälyjärjestelmiä sekä niiden tarjoajia ja käyttäjiä.

Asetusehdotuksessa tekoäly määritellään ohjelmistoksi, joka voi tuottaa ihmisen määrittelemien tavoitteiden saavuttamiseksi tuloksia, kuten sisältöjä, ennusteita, suosituksia tai päätöksiä, jotka vaikuttavat ympäristöihin, joiden kanssa järjestelmät ovat vuorovaikutuksessa. Mikäli järjestelmäkuuluu asetuksen soveltamisalaan, asetuksen velvoitteet tulevat sovellettavaksi riippuen siitä, mihin tarkoitukseen tekoälyä käytetään. Asetuksessa tekoälyjärjestelmät jaetaan neljään eri riskikategoriaan.

Riski, joka ei ole hyväksyttävissä

Ensimmäiseen kategoriaan kuuluvat sellaiset tekoälyjärjestelmät, joiden käytöstä aiheutuva riski ei ole hyväksyttävissä. Tähän riskikategoriaan kuuluvien järjestelmien katsotaan aiheuttavan niin selvää uhkaa ihmisten turvallisuudelle, toimeentulolle ja oikeuksille, että niiden käyttö kielletään kokonaan. Esimerkkeinä voidaan mainita ihmisiä manipuloivat subliminaaliset tekniikat sekä sosiaalista pisteytystä käyttävät valtioiden järjestelmät.

Suuri riski

Tähän kategoriaan kuuluvien tekoälyjärjestelmien sekä niiden tarjoajien ja käyttäjien tulee täyttää nimenomaiset tekoälyasetukseen sisällytetyt vaatimukset ja velvollisuudet. Näiden vaatimusten yksityiskohtaisempi esittely jääköön odottamaan seuraavaa blogikirjoitusta.

Suuren riskin tekoälyjärjestelmiksi luokitellaan sellaiset järjestelmät, jotka ovat tarkoitettu käytettäväksi tuotteen turvakomponenttina tai ovat itsessään sellaisia tuotteita, jotka kuuluvat asetuksessa luetellun unionin yhdenmukaistamislainsäädännön alaan ja jotka lisäksi edellyttävät kolmannen osapuolen suorittamaa vaatimustenmukaisuuden arviointia kyseisen tuotteen saattamiseksi markkinoille tai käyttöön ottamiseksi. Edellä mainitun lisäksi suuririskisinä järjestelminä pidetään asetuksen liitteessä III tarkoitettuja tietyillä aloilla käytettyjä tekoälyjärjestelmiä, jotka aiheuttavat terveys- ja turvallisuushaitan riskin tai perusoikeuksiin kohdistuvan kielteisen vaikutuksen riskin.

Tällaisia asetuksen liitteessä III mainittuja tekoälyjärjestelmiä ovat muun muassa järjestelmät, joita on tarkoitus käyttää kriittisen infrastruktuurin hallinnassa ja toiminnassa turvakomponentteina; oikeudenkäytössä ja demokraattisissa prosesseissa; yleissivistävässä ja ammatillisessa koulutuksessa, kun tekoäly voi määrätä oppilaitokseen pääsystä; sekä olennaisten yksityisten ja julkisten palveluiden yhteydessä luonnollisten henkilöiden luottokelpoisuuden arviointiin.

Asetusehdotuksessa on lisäksi esitetty, että kehityksen myötä asetuksen sisältöä voidaan mukauttaa tekoälyn uusiin käyttötarkoituksiin ja sovelluksiin. Käytännössä komissio voisi laajentaa tietyillä ennalta määritellyillä alueilla käytettävien suuririskisten tekoälyjärjestelmien luetteloa soveltamalla tiettyjä kriteerejä ja riskinarviointimenetelmiä.

Vähäinen tai minimaalinen riski

Viimeiset kategoriat koskevat vähäistä ja minimaalista riskiä aiheuttavia tekoälyjärjestelmiä. Vähäisen riskin luokkaan kuuluvien tekniikoiden käyttöä rajoitetaan varsin vähän, ja asetuksen luomat vaatimukset ja velvoitteet koskevatkin lähinnä läpinäkyvyyttä; käyttäjien tulee ymmärtää olevansa vuorovaikutuksessa koneen kanssa. Vähäriskisten tekoälyjärjestelmien tarjoajille kuitenkin ehdotetaan laadittavaksi alan omia vapaaehtoisia käytännesääntöjä. Sellaisten tekoälyjärjestelmien käyttöön, joista aiheutuvaa riskiä pidetään minimaalisena tai olemattomana, ei asetuksella puututtaisi.

Mitä seuraavaksi?

Komission tekoälyasetuksen käsittely unionissa jatkuu yhä. Komissio on arvioinut, että sääntely voisi tulla voimaan jo vuoden 2022 jälkimmäisellä puoliskolla ja sitä voitaisiin alkaa soveltaa 24 kuukauden siirtymäajan jälkeen aikaisintaan loppuvuodesta 2024. 

Kasperi Kökkö


Aiheeseen liittyvät julkaisut