Yritykset ja tekoälylaki – Mitä yritysten täytyy tietää tulevasta muutoksesta?

LAB-ammattikorkeakoulun tietojenkäsittelyn lehtori Aki Vainio kertoo, että EU:n tekoälyasetuksessa tekoälyn käyttö jaotellaan neljään eri luokkaan: minimaaliseen riskiin, avoimuuteen liittyvään riskiin, suureen riskiin ja ei-hyväksyttävään riskiin. Mitä korkeampi riski, sitä tiukempi sääntely tekoälyominaisuudella tulee olemaan.
”Luokittelujärjestelmä varmistaa, että nykyiset ja uudet markkinoille tulevat tekoälytyökalut- ja -järjestelmät sopivat olemassa oleviin luokituksiin ilman tarvetta erilliselle sääntelylle. Näin voidaan hallita riskejä ja ennakoida tekoälyn kehitystä”, Vainio kertoo.
Tekoälylukutaito vaatimuksena
Esimerkkinä korkeampaan riskiluokkaan kuuluvasta tekoälystä Vainio mainitsee rekrytointiin käytettävät työkalut. Niitä hyödynnetään muun muassa työhakemusten analysoinnissa, suodattamisessa ja työnhakijoiden arvioinnissa. Asetus asettaa tiukkoja vaatimuksia sekä järjestelmien tarjoajille että työnantajille.
”Tekoäly tekee rekrytointipäätöksiä koulutusmateriaalinsa perusteella ja pyrkii löytämään keskiarvon. Tämä voi pahimmassa tapauksessa johtaa siihen, että se sivuuttaa poikkeuksellisen hyvät ehdokkaat, koska ne eivät vastaa sen aiemmin oppimia malleja”, Vainio sanoo.
Laki velvoittaa tekoälyä käyttäviä yrityksiä kouluttamaan työntekijöitä tunnistamaan tekoälyn riskit sekä omaksumaan riittävän tekoälylukutaidon. Kouluttautumisen taso riippuu siitä, mihin riskiluokkaan kyseinen tekoälytoiminto kuuluu: suurempaan riskiin liittyvän tekoälyn käyttäjien, kuten rekrytoinnista vastaavien henkilöiden, tulee kouluttautua monipuolisemmin kuin esimerkiksi työntekijöiden, jotka hyödyntävät tekoälyä vain tekstinkäsittelyssä.
Tukiäly apuna päätöksenteossa
Tekoälyn käyttöä sisällöntuotannossa säätelevät jo olemassa olevat tietosuoja- ja tekijänoikeuslait. Vaikka lakisääteisiä vaatimuksia tekoälyn käytön merkitsemiselle ei vielä ole, Vainio suosittelee sen ilmoittamista.
"Kuluttajille suunnatussa sisällössä, kuten mainoksessa, tulisi mainita tekoälyn käytöstä. Vaikka lopullinen teksti tai kuva harvoin syntyy kokonaan tekoälyn avulla, sen käyttö apuvälineenä kannattaa tuoda esiin kuluttajille selkeyden ja läpinäkyvyyden vuoksi.”
Tekoälyasetuksen mukaan syväväärennökset (deep fake), eli tekoälyllä tuotetut aidolta näyttävät sisällöt tulee ilmoittaa selkeästi tekoälyllä tuotetuiksi. Kyseinen sisältö kuuluu suuren riskin luokkaan, sillä syväväärennöstekniikkaa voidaan käyttää myös disinformaation jakamiseen, harhaanjohtamiseen tai jopa identiteettivarkauksiin.
Vainion mukaan tekoälytyökaluja markkinoidaan yrityksille usein väärin, jolloin niiden todellisia hyötyjä ei ymmärretä.
"Tekoälyä ei tulisi nähdä vain automaattisena tehtävien suorittajana, vaan sitä tulisi hyödyntää tukiälynä. Tekoälytyökalujen arvokkain käyttö liittyy ajattelun tukemiseen ja yhteistyöhön, mikä auttaa ihmisiä tekemään parempia päätöksiä ja löytämään uusia näkökulmia”, Vainio summaa.
Mitä yritysten tulee tietää tulevasta laista? |
Tavoite: Suojata turvallisuutta, terveyttä ja perusoikeuksia tekoälyn käytössä. Riskiluokitus: Neljä tasoa (minimaalinen, avoimuus, suuri, ei-hyväksyttävä), joissa korkeampi riski tarkoittaa tiukempaa sääntelyä. Sääntelyn aikataulu: Asetuksen vaatimukset astuvat voimaan vaiheittain vuosina 2025–2027. Velvoitteet: Yritysten on koulutettava työntekijöitä tekoälyn riskeistä ja varmistettava riittävä tekoälylukutaito. Merkintävaatimukset: Syväväärennökset on ilmoitettava tekoälyn tuottamiksi, ja kuluttajille suunnatun sisällön tekoälyavusteisuus suositellaan ilmoitettavaksi. Sisällön muokkaus: Jos tekoäly muokkaa tai luo sisältöä, yrityksen on ilmoitettava tästä, ellei kyseessä ole taiteellinen tai satiirinen sisältö. Tekoälyn käytön ilmoittaminen: Yritysten on informoitava käyttäjiä, kun he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, ellei tämä ole ilmeistä. Tekoälyn rooli: Yritysten tulisi hyödyntää tekoälyä päätöksenteon tukena, ei automaattisena ratkaisijana. Mahdolliset sanktiot: Asetuksen rikkomisesta voi seurata merkittäviä sakkoja, jotka ovat verrattavissa GDPR:n sanktioihin. Valvonta ja ohjeistus: EU:n tekoälyvirasto kehittää ohjeita tekoälyn tuottaman sisällön tunnistamiseen ja merkitsemiseen. |
Artikkelissa on käytetty lisätietolähteenä EU Artificial Intelligence Act -sivua.