EU:n uusi tekoälysääntely – kompastuskivi vai valttikortti? - OSA 2

Jatkona edelliseen postaukseemme tekoälystä, pohdimme seuraavaksi tarkemmin, miten ehdotettu tekoälyasetus suhtautuu kuluttajiin ja yrityksiin. Uudella tekoälyasetuksella halutaan varmistaa, että eurooppalaiset voivat luottaa tekoälyyn ja sen käyttöön mahdollisimman laajasti. Yrityksien näkökulmasta tämä tarkoittaa sitä, miten kuluttajat ja muut käyttäjät luottavat yritysten palveluihin ja tuotteisiin, joissa tekoälyä on hyödynnetty.

Teknologia

Käyttäjien luottamuksen turvaaminen

Kielto- ja riskiperusteisten käyttötarkoitusten luokittelun ja sen myötä tulevien velvoitteiden ohella sääntelyssä asetetaan läpinäkyvyysvelvoitteita. Tavoitteena läpinäkyvyys- ja informointivelvoitteilla on käyttäjien luottamuksen lisääminen tekoälyjärjestelmiin.

Ehdotuksen mukaan käyttäjille tulee ilmoittaa siitä, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, paitsi jos tämä on olosuhteiden ja käyttöyhteyden perusteella ilmeistä. Monella toimijalla sekä yksityisellä että julkisella sektorilla on jo nykyisin käytössä esimerkiksi erilaisia chatbotteja, joiden käytön yhteydessä käyttäjille ilmoitetaan, että he ovat vuorovaikutuksessa tekoälyyn pohjautuvan järjestelmän, ei aidon ihmisen kanssa.

Lisäksi asetuksessa huomioidaan tietyt käyttötavat, kuten sisältöjen manipulointi, joista tulee selvästi ilmoittaa käyttäjälle. Tekoälyä voidaan hyödyntää esimerkiksi luomalla aitoa henkilöä muistuttava tekoälypohjainen ”henkilö”, joka vaikuttaa käyttäjälle totuudenmukaiselta (ns. deep-fake eli syväväärennös). Näistä meillä on jo maailmalta monia, julkisuuden henkilöitä muistuttavia esimerkkejä ja ne ovat usein niin autenttisia, että käyttäjän on vaikea havaita sitä, että kyse on väärennöksestä, eikä aidosta henkilöstä. Tähän asetus pureutuu erikseen edellyttämällä, että käyttäjälle informoidaan sisällön manipuloinnista, jos esimerkiksi henkilö, esine, paikka tai objekti voi vaikuttaa virheellisesti aidolta tai totuudenmukaiselta.

Lähtökohtaisesti avoimuus edistää palvelun luotettavuutta ja käyttäjällä tulee olla perustellusti oikeus luottaa hänen kanssaan vuorovaikutuksessa olevien toimijoiden oikeellisuuteen, kuten henkilöiden identiteettiin. Esimerkiksi kuluttaja voi tuntea olonsa huijatuksi, jos hän perustaa päätöksensä virheelliseen käsitykseen toimijan identiteetistä ja silloin on perusteltua, että käyttäjä on tietoinen sisällön manipuloinnista. Asetus sisältää myös poikkeukset ilmoitusvelvollisuudesta niitä tilanteita varten, kun ilmoitusvelvollisuuden ei katsota erityisestä syystä olevan tarpeen, esimerkiksi kun kyse on sananvapautta koskevan oikeuden käyttämisestä tai rikosten paljastamisesta.

Asetuksessa läpinäkyvyysvaatimus on kuitenkin melko laaja ja rajanveto sen suhteen, mikä on lopulta käyttäjän kanssa vuorovaikutuksessa oleva tekoälyjärjestelmä ja mikä ei, voi olla monessa tilanteessa vaikeaa. Tekoälyn käytöstä ilmoittamista voisi verrata myös muihin ilmoitusvelvoitteisiin. Esimerkiksi tuotesijoittelusta tulee lain nojalla ilmoittaa kuluttajille. Tuotesijoittelun tavoitteena on kuitenkin jo lähtökohtaisesti pyrkiä vaikuttamaan kuluttajan ostokäyttäytymiseen toisin kuin tekoälyjärjestelmien, joiden tarkoituksena ei välttämättä ole vaikuttaa asiakkaan käyttäytymiseen tai päätöksentekoon. Siksi voi olla tarpeen pohtia, onko käyttäjälle kaikissa tilanteissa olennaista tietää, että hänen käyttämässään järjestelmässä on hyödynnetty tekoälyä.

Keppi vai porkkana yrityksille?

Miten ehdotettu tekoälyasetus vaikuttaa yritysten väliseen kilpailuun ja kilpailukentän tasapuolisuuteen? Edellisessä postauksessamme mainitsimme, että asetuksen soveltamisala kaipaa täsmentämistä. Samalla alalla keskenään kilpailevat yritykset voivat käyttää erilaisia järjestelmiä samaan tarkoitukseen ja osaan niistä saatetaan soveltaa asetusta ja osaan ei, mikä voi johtaa epätasapuoliseen kilpailuun toimijoiden välillä.

Suuririskisiksi luokiteltuihin tekoälyjärjestelmiin kohdistuisivat raskaat velvoitteet. Pienemmillä yrityksillä ei välttämättä ole tarvittavia resursseja velvoitteiden täyttämiseen, jolloin alalle tulon kynnys voi nousta erityisesti niillä sektoreilla, joita koskevat voimakkaat velvoitteet. Ehdotus sisältää myös mahdollisuuden määrätä melko kovat sanktiot, jos asetuksen velvoitteita ei noudateta. Silloin yritykset saattavat lopettaa tai jättää aloittamatta erilaisten tekoälyyn perustuvien ratkaisujen kehittämisen omassa liiketoiminnassaan tai siirtää kehittämistyön edullisempiin maihin. Luonnoksessa hallinnolliset sakot olisivat rikkomuksesta riippuen enimmillään 10-30 miljoonaa euroa tai 2-6 prosenttia yrityksen liikevaihdosta. Sanktiot voisivat kuitenkin vaihdella jäsenvaltioittain, sillä jäsenvaltiot voisivat säätää niistä tarkemmin kansallisessa laissaan.

Mitä elementtejä asetus sisältää, jotka voisivat erityisesti edistää yritysten innovaatiotoimintaa tekoälyn saralla? Komissio kehottaa muun muassa jäsenvaltioita tarjoamaan yrityksille innovaatioiden kehittämiseen ”hiekkalaatikkoa” eli testiympäristöä, jossa erilaisia tekoälymenetelmiä voisi testata. Hiekkalaatikko vastannee tuotekehityksessä tehtävää tuotetestausta rajoitetussa ympäristössä ja se voi olla yrityksille hyödyllinen uusien tekoälyjärjestelmien testauksessa. Yritykset olisivat kuitenkin edelleen vastuussa hiekkalaatikolla kolmansille tapahtuneista vahingoista, mutta testausympäristössä riski on yrityksille rajatumpi kuin avoimessa ympäristössä. Jäsenvaltioilla ei kuitenkaan olisi velvoitetta testiympäristöjen luomiseen, vaan tämä olisi jäsenvaltioille vapaaehtoista.

Tasapainoilua eri tavoitteiden välillä

Sisämarkkinakomissaari Thierry Breton on lausunut, että tekoälyasetuksella pyritään vahvistamaan Euroopan asemaa maailmanlaajuisena tekoälyn huippuosaamisalueena aina suunnittelupöydältä markkinoille saakka ja varmistamaan, että tekoälyn käyttö Euroopassa tapahtuu arvojemme ja sääntöjemme mukaisesti. Toteutuuko tämä kuitenkaan käytännössä vai voiko sääntelyehdotus lopulta estää innovaatioita ja niihin kannustamista?

Olennaista on, että asetuksessa löydetään tasapaino käyttäjien suojaamisen ja yritysten innovaatiotoiminnan mahdollistamisen välille sekä rajataan asetuksen soveltamisala selkeäksi ja ennustettavaksi. Turvallinen ja luotettava tekoäly on niin käyttäjien kuin yritysten etu, mutta liiallinen sääntely voi myös estää tulevaisuudessa hyödyllisten järjestelmien kehittämisen.

Jäämme mielenkiinnolla seuraamaan tekoälyasetuksen käsittelyä EU:ssa ja sitä, millaiseksi asetus kehittyy jatkovalmistelussa ja EU:n neuvoston ja parlamentin käsittelyssä.

Lue aiheesta osa 1: