Tekoälyvastuudirektiivi
Kirjoittajat: Louise Malmberg, Arttu Ruukki
Teknologia kehittyy nopeasti, eikä lainsäätäjien ole helppo pysyä perässä. Yhä tärkeämmäksi kysymykseksi sekä loppukäyttäjien, yritysten että oikeuslaitoksen taholta ovat nousseet tekoälyyn liittyvät vastuukysymykset.
Tekoälyjärjestelmiä käytetään jo laajalti. Valitettavasti on jo tullut ilmi tapauksia, joissa tekoälyjärjestelmien käyttö on aiheuttanut vahinkoa yksilöille. Olemme nähneet esimerkkejä tekoälyjärjestelmien käytön aiheuttamista virheistä ja puolueellisuudesta pankkien lainanantoa koskevassa päätöksenteossa ja viranomaisten sosiaaliturvaetuuksien myöntämisprosesseissa, eivätkä nämä ole ainutkertaisia tapauksia.
EU:n jatkaessa digitaalisten markkinoiden ja talouden sääntelyn rakentamista, on ehdotettu tekoälyvastuudirektiiviä, jonka tarkoituksena on vahvistaa tekoälyjärjestelmien aiheuttamista vahingoista kärsivien oikeussuojaa.
Mitä?
Tekoälyvastuuta koskevan direktiivin tarkoituksena on täsmentää sääntöjä sopimuksenulkoisesta siviilioikeudellisesta vastuusta tekoälyjärjestelmien myötävaikutuksella aiheutetuista vahingoista. Tällä pyritään helpottamaan tekoälyyn liittyvän todistelun hankaluutta. Direktiivillä pyritään siis varmistamaan, että perustellut korvausvaatimukset eivät kaadu siihen, että todistelu on vahingonkärsijälle vaikeaa. Yksilöillä tulee siis olla yhtäläiset mahdollisuudet saada korvausta tekoälyn aiheuttamista vahingoista kuin muistakin syistä vahinkoa kärsineillä.
Miksi?
Nykyisessä kansallisessa lainsäädännössämme vahinkoa kärsineen tahon on lähtökohtaisesti näytettävä syntyneen vahingon lisäksi myös se, että vahingon aiheuttaja on toiminut väärin tai jättänyt toimimatta riittävän huolellisesti. Kun tällaista periaatetta sovelletaan tekoälyjärjestelmien aiheuttamaan vahinkoon, voi vahingon aiheuttajan tuottamuksen näyttäminen muodostua vahingon kärsijälle mahdottomaksi, erityisesti jos tekoälyjärjestelmä toimii itsenäisesti ilman ihmisohjausta. Tekoälyjärjestelmän syötteet ja toiminta voivat olla jopa täysin näkymättömiä, jolloin kyseessä on niin sanottu "musta laatikko" -järjestelmä.
Sen vuoksi tekoälyvastuuta koskevalla direktiivillä pyritään täsmentämään vahingonkorvaussääntelyä niin, että perusteltuja vaatimuksia ei estetä todisteluun liittyvien käytännön vaikeuksien vuoksi.
Miten?
Direktiivissä ehdotetaan esimerkiksi, että 1) tuomioistuimille annetaan mahdollisuus määrätä tekoälyn tarjoajat luovuttamaan todistusaineistoa ja 2) otetaan käyttöön syy-yhteysolettama.
1) Mahdollisuus määrätä todisteiden luovuttamisesta
Direktiivissä ehdotetaan, että tuomioistuimen olisi voitava määrätä tekoälyjärjestelmän tarjoaja luovuttamaan näyttöä suuririskisistä tekoälyjärjestelmistä, joiden väitetään aiheuttaneen vahinkoa. Suuririskisyys määrittyisi tekoälyasetuksessa ehdotettujen riskiluokitusten mukaisesti. Tuomioistuinten on tällöin rajoitettava luovutusmääräys siihen, mikä on välttämätöntä ja oikeasuhteista ottaen huomioon muut edut, kuten liikesalaisuudet ja vaikkapa kansallista turvallisuutta koskevat tiedot.
Muiden kuin suuririskisten tekoälyjärjestelmien osalta tätä sääntöä sovelletaan vain silloin, kun tuomioistuin toteaa, että kantajan on poikkeuksellisen vaikeaa osoittaa syy-yhteys.
2) Todistustaakka ja syy-yhteysolettama
Jotta vahinkoa kärsiville henkilöille voitaisiin myöntää oikeutettu korvaus, direktiivissä ehdotetaan, että aiheutuneen vahingon ja tekoälyjärjestelmässä tunnistetun virheen välillä on oletettu syy-yhteys. Virheellä tarkoitetaan jonkin sellaisen unionin tai kansallisen lainsäädännön noudattamatta jättämistä, jonka tarkoituksena on suojella tapahtuneelta vahingolta. Virhe on siis vaikuttanut tekoälyjärjestelmän tuotokseen tai siihen, että tekoälyjärjestelmä ei ole pystynyt tuottamaan oikeanlaista tuotosta.
Kantajan on edelleen osoitettava, että tekoälyn tuotos on aiheuttanut sille vahinkoa. Kantajan ei kuitenkaan tarvitse osoittaa, että tuotoksen aiheuttama vahinko johtui tekoälyjärjestelmän virheestä, paitsi jos kantaja voisi sen kohtuullisin toimin tehdä (esimerkiksi pyytämällä tuomioistuinta määräämään todisteiden luovuttamisesta).
Yksinkertaistaen voidaan todeta, että jäljempänä kohdassa 1) mainittu edellytys täyttyy, jos hakija voi osoittaa, että jäljempänä kohdassa 2) mainittu edellytys täyttyy.
1) Tekoälyjärjestelmän virhe vaikuttaa tiettyyn tuotokseen.
2) Tekoälyjärjestelmän tuotos aiheuttaa vahinkoa.
Direktiivi on toistaiseksi vasta ehdotus, joka on vielä lopullisesti hyväksyttävä ja saatettava osaksi kansallista lainsäädäntöä. Myöskään tekoälyasetusta ei ole vielä hyväksytty, mutta se on tarkoitus hyväksyä pian.
Toisin kuin tekoälyvastuuta koskevaa direktiiviä, tekoälyasetusta (sen tultua voimaan) sovelletaan suoraan koko EU:ssa, eikä sitä tarvitse panna täytäntöön kansallisella tasolla. Asetus hyväksytään oletettavasti vuoden 2023 loppuun mennessä, mikä tarkoittaisi, että sitä alettaisiin soveltaa vuonna 2025.
Fondia suosittelee asiakkailleen, että tekoälypohjaisten työkalujen kehitystyö tehdään tiedostaen niihin liittyvä tuleva sääntelykehys ja ottaen kokonaisvaltaisesti huomioon tällaisiin työkaluihin liittyvät riskit. Näin vältetään tarpeettomat ongelmat ja seuraamukset.
Fondian tekoälyyn keskittynyt asiantuntijaryhmä seuraa tämän direktiivin ja muiden siihen liittyvien säädösten kehitystä. Ota rohkeasti yhteyttä, jos sinulla on kysyttävää tai tarvitset apua.