Digital Omnibus – ehdotukset tekoälyasetuksen kannalta

Euroopan Unionissa on herätty alueen kilpailukykyä heikentävän digisääntelyn karsimistalkoisiin. Erityisesti tekoälyn osalta on huomattu, että tarvitaan yksinkertaisempaa ja ketterämpää ohjausta, kun Eurooppa on jäämässä jälkeen kuumana käyvässä tekoälykilvassa. Erinäisten selvitysten lopputulemana komissio päätyi lopulta antamaan tekoälyn sääntelyn yksinkertaistamista ajavan ehdotuksensa 19.11.2025. Tässä artikkelissa käsitellään pääkohdat tästä niin sanotusta digitaalisesta omnibuspaketista, keskittyen erityisesti tekoälyasetukseen kohdistuviin ehdotettuihin muutoksiin ja niiden käytännön merkitykseen. Samaan aikaan esiteltyjä data-asetukseen ehdotettuja muutoksia on käsitelty omassa artikkelissaan täällä.
Mikä ihmeen Omnibus?
Omnibus-lainsäädännöllä tarkoitetaan yleensä lakiesitystä, jossa ehdotetaan muutoksia useisiin eri lakeihin samalla kertaa. Vaikka tälle käsitteelle ei ole yhtä yleisesti hyväksyttyä määritelmää, omnibuseille on ominaista, että niissä käsiteltävät aiheet ovat sekä samankaltaisia että laaja-alaisia.
Nyt julkaistu digitaalinen omnibuspaketti sisältää ehdotuksia useita eri säädöksiä koskeviksi muutoksiksi. Paketti on jaettu kahteen osaan: Ensimmäinen osa keskittyy erinäisiin dataan liittyviin säädöksiin sekä henkilötietoihin liittyviin säädöksiin. Toisessa osassa keskitytään puhtaasti tekoälyasetukseen. Kahtiajaon tarkoituksena saattaa olla se, että esitysten kiireellisempi osio, eli tekoälyasetusta koskevat muutokset, saataisiin käsiteltyä mahdollisimman nopeasti.
Tekoälyasetukseen ehdotetut muutokset
Tekoälyasetusta yksinkertaistavilla toimilla pyritään varmistamaan tekoälyasetuksen säännösten sujuva, oikea-aikainen ja oikeasuhtainen implementointi. Ehdotuksen tavoitteena on vahvistaa unionin kilpailukykyä ja vähentää sääntelytaakkaa, kuitenkin samalla huomioiden unionin arvoja koskevien korkeiden standardien noudattaminen.
Sidosryhmäkuulemisten perusteella komissio tunnisti tiettyjä keskeisiä täytäntöönpanon haasteita. Erityisesti kansallisten toimivaltaisten viranomaisten ja vaatimustenmukaisuuden arviointielinten hidas nimeäminen sekä harmonisoitujen standardien ja ohjeistusten puute tekoälyasetuksen suuririskisiä tekoälyjärjestelmiä koskevien vaatimusten osalta koettiin ongelmalliseksi.
Suuririskisiä tekoälyjärjestelmiä koskevat vaatimukset
Ehdotuksen mukaan suuririskisten tekoälyjärjestelmien vaatimukset tulisivat voimaan vasta, kun niiden noudattamista koskevia standardeja ja muita työkaluja on viranomaisten toimesta julkaistu saataville. Koska standardeja, yhteisiä eritelmiä tai ohjeita ei ole saatavilla eikä jäsenvaltioiden kansallisia viranomaisiakaan ole vielä kattavasti asetettu, vaikeutuu tekoälyasetuksen moninaisten velvoitteiden noudattaminen merkittävästi. Ehdotuksessa suuririskisiin tekojärjestelmiin kohdistuvien vaatimusten voimaantuloon annettaisiin, järjestelmän luokittelun mukaan, 6–12 kk siirtymäaika siitä hetkestä alkaen, kun komissio ilmoittaa riittävien soveltamisohjeiden olevan saatavilla.
Tarkkaa päivämäärää ei siis esityksessä anneta, vaan velvoitteiden soveltuminen sidotaan tukiresurssien saataville tuloon. Velvoitteiden soveltaminen alkaisi kuitenkin viimeistään joulukuussa 2027 (liitteen III mukaiset käyttötarkoitukset) tai elokuussa 2028 (liitteen I mukaiset käyttötarkoitukset), huolimatta siitä onko riittävää tukea julkaistu saataville.
Jo markkinoilla olevat, ennen edellä mainittuja määräaikoja julkaistut suuririskiset järjestelmät vapautettaisiin velvoitteista. Kuitenkin, mikäli tällaisia järjestelmiä myöhemmin merkittävästi muutettaisiin velvoittavuuden alkamisen jälkeen, tulisivat velvoitteet soveltumaan täysimääräisesti.
Ehdotus on sikäli poikkeuksellinen, että sillä pyritään muuttamaan lainsäädäntöä, joka ei ole vielä ennättänyt edes tulla sovellettavaksi. Tämä kertoo osaltaan siitä kiireestä, jolla tekoälyasetus viimeisteltiin. Aivan kaikkia vaikutuksia ja käytännön haasteita ei ehkä osattu ennakoida riittävällä tavalla. Teknologia myös kehittyy valtavin harppauksin jatkuvasti, jolloin EU:n kaltaisessa massiivisessa ja hitaasti liikkuvassa koneistossa ollaan lähes välttämättä jatkuvasti takamatkalla sääntelyn perustuessa eilispäivän ymmärrykseen ja tilanteeseen. Määräaikojen pidentäminen ja sitominen viranomaisten julkaisemiin tukimateriaaleihin toki helpottaa velvoitteiden noudattamista, mutta ei vielä poista niitä.
Suuririskisiin järjestelmiin kohdistuva vaatimuksia kyllä myös hieman kevennetään. Esimerkiksi rekisteröintitaakkaa EU-tietokantaan oltaisiin keventämässä sellaisten suuririskisten järjestelmien osalta, joita koskee poikkeus vaatimuksista vaikkapa siksi, että niitä käytetään vain rajattuihin tai menettelyllisiin tehtäviin (tai muu artikla 6 (3) mukainen poikkeus). Poikkeusarviointi tulee kuitenkin edelleen dokumentoida ja tarvittaessa perustella viranomaiselle. Varsinainen arviointityö ei siis poistu, mutta sen voisi toteuttaa puhtaasti sisäisenä työnä esimerkiksi silloin, kun otetaan käyttöön rekrytoinnissa käytettäviä avustavia tekoälyjärjestelmiä.
Tekoälylukutaito
Tekoälylukutaidon edistämisen vaatimus on tekoälyasetuksessa asetettu tarjoajille ja käyttäjille, mutta ehdotuksessa tämä vaatimus siirrettäisiin komissiolle ja jäsenvaltioille. Velvoite tuli voimaan ensimmäisten joukossa jo helmikuussa 2025, eli tältä osin ehdotetaan jo voimassa olevan velvoitteen uudelleen suuntaamista.
Tekoälylukutaitovaatimuksen sisältö oli jo alun perin melko epämääräinen ja vaikutti enemmän julistuksenomaiselta tavoitelausumalta kuin eksaktilta velvoitteelta. Ehdotettu muutos helpottaisi sikäli organisaatioiden taakkaa, että velvoitteen sisältöä ja merkitystä ei tarvitsisi enää arvailla. Nimenomaisen tekoälylukutaidon edistämisvelvoitteen puuttuessakin toki fiksusti toimivat organisaatiot pyrkivät kouluttamaan henkilöstöään ja tarjoamaan mahdollisuuksia organisaation ”tekoälymaturiteetin” nostamiseen. Osaava ja ymmärtävä henkilöstö on nimittäin aivan avainasemassa tunnistamaan ja toteuttamaan tekoälyn mahdollistamia prosesseihin liittyviä tehostamisideoita, uusia tuotteisiin ja palveluihin liittyviä liiketoimintamahdollisuuksia ja muita toiminnan järkeistämishankkeita.
Muut muutokset
Ehdotuksella esitetään myös muita muutoksia:
Generatiivista tekoälyä koskevia, tuotetun materiaalin merkitsemistä koskevia vaatimuksia lykätään helmikuuhun 2027, mikäli järjestelmä on markkinoilla ennen elokuuta 2026.
Pieniä ja keskisuuria yrityksiä koskevien helpotusten laajentamista myös pieniin keskisuuriin yrityksiin (small mid-caps), joka kasvattaisi kevennyksistä nauttivien organisaatioiden kokoluokkaa jo merkittävästi.
Yleiskäyttöisten tekoälymalleihin perustuvien järjestelmien ja erittäin suurilla alustoilla ja hakukoneissa olevien järjestelmien osalta valvonta keskitettäisiin AI-toimistolle.
Erityisten henkilötietoryhmien datan käsittelyn oikeutta vinoumien havaitsemiseksi ja korjaamiseksi laajennettaisiin suuririskisistä järjestelmistä myös muihin tekoälyjärjestelmien kategorioihin. Tällaiseen käsittelyyn tulisi kuitenkin edelleen soveltaa asianmukaisia suojatoimenpiteitä.
Tekoälyn testiympäristöjä koskevaa sääntelyä laajennettaisiin.
Aikataulutus ja muutosten käsittely
Ehdotettuja muutoksia ollaan arvioiden mukaan edistämässä kiireellisellä aikataululla oikeusvarmuuden edistämiseksi. Ilman muutoksia asetuksen suuririskisiä käyttötarkoituksia koskevat velvoitteet ovat tulossa voimaan vuoden 2026 elokuussa. Ehdotuksen mukainen määräajan pidennys antaisi näiden järjestelmien tarjoajille ja käyttöönottajille paremmat mahdollisuudet vaatimusten noudattamiseen. Viime aikoina paljon mediatilaa saaneen tekoälyasetuksen implementoinnin haasteiden ja sen etenemisen pysäyttämisestä pyörineen huhumyllyn valossa onkin oletettavaa, että ehdotettujen muutosten eteenpäin vieminen on EU:n prioriteettilistalla korkealla.
Yhteenveto
Muutosten keskeinen tavoite on vähentää sääntöjen noudattamisesta johtuvaa hallinnollista taakkaa ja tukea unionin alueelle sijoittautuneiden toimijoiden kilpailukykyä globaalissa tekoälykilpajuoksussa. Muutokset keventäisivät voimaan tullessaan vaatimusten noudattamiseen liittyviä paineita ja lykkäisivät hieman niiden aikatauluja. Kokonaisuutena AI Act on kuitenkin edelleen melko vaativa raamitus tekoälyjärjestelmiä kehittäville tahoille erityisesti, kun käyttötarkoitus kuuluu suuririskiseen kategoriaan.
Fondian asiantuntijat tukenasi
Fondian tekoälyn sääntelyn asiantuntijat ovat tukenasi omissa tekoälyyn liittyvissä projekteissasi, olit sitten kehittämässä itse tekoälytyökaluja tai ottamassa niitä käyttöön.