AI vastutuse direktiiv
Autorid: Louise Malmberg
Tehnoloogia areneb kiiresti ja seadusandjatel ei ole lihtne sellega sammu pidada. Üha olulisemaks küsimuseks nii lõppkasutajate, ettevõtete kui ka kohtusüsteemi poolt on olnud tehisintellektiga seotud vastutusküsimused.
Tehisintellekti süsteeme kasutatakse juba laialdaselt ja kahjuks on juba esinenud juhtumeid, kus tehisintellekti süsteemi kasutamine põhjustab üksikisikutele kahju. Esineb näiteid valede ja erapoolikute otsuste kohta, mida ametiasutused on teinud tehisintellekti süsteemide abil sotsiaalabi ja sotsiaalkindlustushüvitiste otsustusprotsessides või pangad laenude andmisel, ja loetelu jätkub.
Kuna EL jätkab digituru ja -majanduse reguleerimist, on tehtud ettepanek võtta vastu tehisintellektiga seotud vastutuse direktiiv, mille eesmärk on tugevdada tehisintellekti süsteemide poolt tekitatud kahju kannatanud isikute õiguskaitset.
Mida?
Tehisintellektiga seotud vastutuse direktiivi (AI vastutuse direktiiv) eesmärk on kehtestada eeskirjad lepinguvälise tsiviilvastutuse kohta sellise kahju puhul, mille tekkimisega on seotud tehisintellektisüsteemid. Vastavad sätted aitaksid lahendada raskused, mis on seotud tehisintellektiga seotud tõendite esitamisega. Direktiiv üritab tagada, et põhjendatud nõudeid ei takistataks tõendamisraskused ja et üksikisikutel oleksid võrdsed võimalused saada hüvitist tehisintellekti põhjustatud kahju eest, sarnaselt neile, kes kannatavad kahju muul viisil.
Miks?
Praeguste siseriiklike õigusaktide kohaselt peab kahju kannatanud isik/ettevõtja näitama, et isik on tegutsenud vääralt või jätnud tegutsemata, kui ta oleks võinud tegutseda. Kui vastavat põhimõtet kohaldada tehisintellekti suhtes, võib inimesel olla väga raske seda tõestada, kui tehisintellektisüsteem tegutseb iseseisvalt ja inimese teost sõltumatult. Tehisintellekti sisendid ja "teod" võivad olla isegi täiesti nähtamatud, nn musta kasti efekt.
Mistõttu on AI vastutuse direktiivi eesmärk kohandada regulatsiooni, et põhjendatud nõudeid ei takistataks tõendamisraskused.
Kuidas?
Näited direktiivi soovitustest:
1) anda kohtutele võimalus nõuda, et tehisintellektisüsteemi pakkujad tagaksid juurdepääsu vajalikele tõenditele, ja
2) kehtestada põhjusliku seose eeldus.
Tõendite avalikustamine
Direktiivis tehakse ettepanek, et kohus peaks saama nõuda, et tehisintellektisüsteemi pakkuja tagaks juurdepääsu tõenditele kõrge riskiga tehisintellektisüsteemide kohta (vastavalt tehisintellekti seaduses esitatud riskimääratlusele), mis väidetavalt on tekitanud kahju. Kohtud peavad arvestama, et vastav korraldus oleks vajalik ja proportsionaalne, võttes arvesse muid huve, näiteks ärisaladusi ja riigi julgeolekut käsitlevat teavet.
Muude kui kõrge riskitasemega tehisintellektisüsteemide puhul kehtib põhjusliku seose eeldus ainult siis, kui kohus otsustab, et hageja jaoks on liiga raske seost tõendada.
Tõendamiskohustus ja põhjusliku seose eeldus
Kannatanul võib olla keeruline tõendada põhjuslikku seost sellise kohustuse täitmata jätmise ja kahju vahel, mille on põhjustanud tehisintellektisüsteemi loodud väljund või tehisintellektisüsteemi suutmatus väljundit luua. Selleks, et kannatanud isikud saaksid õigustatud juhtudel hüvitist, tehakse direktiivis ettepanek eeldada, et tekitatud kahju ja tehisintellektisüsteemi poolt hoolsuskohustuse rikkumine on omavahel seotud.
Hageja peab siiski näitama, et ta on kandnud kahju, mille on põhjustanud tehisintellektisüsteem (st selle väljund või selle suutmatus väljundit luua). Kuid hageja ei pea tõendama, et kahju põhjustanud väljund tulenes tehisintellekti süsteemi veast, välja arvatud juhul, kui hageja suudab seda mõistlike jõupingutustega tõendada (näiteks taotledes kohtult tõendite avalikustamist).
Lihtsustatult, kui kannatanu suudab tõendada, et AI süsteemi väljund põhjustab individuaalset kahju, siis eeldatakse, et AI süsteemi viga mõjutab seda väljundit.
Direktiiv on hetkel veel ettepanek ja see tuleb esmalt lõplikult heaks kiita. Kuna tegemist on EL direktiiviga, tuleb see ka pärast heaks kiitmist siseriiklikusse õigusesse üle võtta. Ka direktiivis välja toodud tehisintellekti määrust ei ole veel heaks kiidetud, kuid eeldatavasti võetakse see peagi vastu.
Erinevalt AI vastutuse direktiivist on tehisintellekti määrus (kui seda hakatakse kohaldama) vahetult kohaldatav kogu ELis, ilma et seda oleks vaja siseriiklikult rakendada. On oodata, et Euroopa Komisjon kiidab määruse lõplikult heaks 2023. aasta lõpuks ja see muutub kohaldatavaks 2025. aastal.
Fondia soovitab oma klientidel teadlikult rakendada ja/või arendada tehisintellektipõhiseid tööriistu arvestades terviklikku lähenemisviisi, et vältida tarbetuid riske või isegi sanktsioone või kahjusid.
Fondia andmete ja tehisintellekti meeskond jälgib jätkuvalt selle direktiivi ja muude sellega seotud määruste arengut. Kui teil on küsimusi või vajate abi, võtke meiega julgelt ühendust.