Baggrund og Problem
Problem
Kunstig intelligens er et vidt begreb, der dækker bredt fra algoritmer, der understøtter almindelige automatiserings-processer, til neurale netværk, der kan simulere menneskelig kognition.
Kunstig intelligens er så nyt, at Kommissionen stadig er i gang med at udvikle sin politik for området. Aspekter af teknologien er dækket af gældende lovgivning i GDPR, men selve udviklingen, kravene til og i et vist omfang brugen af kunstig intelligens er ikke reguleret. Kommissionens fokus har derfor indtil videre været rettet mod etiske overvejelser omkring brugen af teknologien, og reguleringen er i første omgang ”soft law” i form af retningslinjer for etisk brug af kunstig intelligens. Det samme gælder nationalt, hvor Finanstilsynet har publiceret en vejledning om superviseret brug af machine learning, som er et katalog over overvejelser, virksomhederne bør gøre sig i forbindelse med brug af teknologien.
Kommissionen lancerede i foråret 2019 etiske retningslinjer for brug af kunstig intelligens, som forventes endeligt offentliggjort primo 2020. Retningslinjerne er søgt operationaliseret i en checkliste med en række krav, som virksomhedernes brug af AI skal leve op til.
I mange brancher er almindelige sagsbehandlingsprocesser i vidt omfang automatiserede ved hjælp af softwarerobotter. Det er typisk støttesystemer, der understøtter sagsbehandlingen og derfor ikke udgør nogen risiko for forbrugerne. Disse processer er i høj grad uproblematiske, men risikerer at blive omfattet af begrebet kunstig intelligens, hvis det defineres bredt. Det vil indebære at de almindelige automatiserings-processer i selskaberne risikerer at blive omfattet af bla. øgede governance krav, selvom risikoen ved disse systemer er meget lav eller ikke-eksisterende – med større administrative byrder til følge. Tilgangen til regulering af kunstig intelligens bør derfor fokusere på de systemer og applikationer, der er en reel risiko ved.
Adgang til data og datadeling er essentielt for at kunne udvikle og forbedre AI-systemer. Derfor giver det god mening at styrke mulighederne for partnerskaber om deling af data mellem virksomheder eller mellem virksomhederne og det offentlige, hvor data enten er anonymiserede eller hvor der kan ske digital udveksling af data, med samtykke eller anden behandlingshjemmel. I denne sammenhæng ligger offentlige institutioner inde med vigtige datakilder på grund af antallet af relevante datasæt og kvaliteten af disse. Effektiviteten af algoritmer afhænger i høj grad af kvaliteten, nøjagtigheden og fuldstændigheden af de tilgængelige data. Fra et forsikringsperspektiv kan adgang til granulære data fra flere kilder føre til en mere præcis prisfastsættelse, bedre svindelefterforskning, sænkning af omkostnings-margener og forbedrede tjenester til kunderne. Tekniske krav såsom interoperabilitet og standardisering af data bør derfor adresseres.
Berørt EU-regulering
EU-Kommissionen har netop offentliggjort sin hvidbog for arbejdet med regulering af kunstig intelligens. Her lægger Kommissionen op til at regulere brugen af kunstig intelligens både i forhold til indholdsmæssige krav, governance krav og produktsikkerhedskrav. GDPR.
Berørt dansk lovgivning
Produktsikkerhedsloven.
Berørte virksomheder
Hele den finansielle sektor samt en stor del af det øvrige danske erhvervsliv.
Begrundelse
En fælles europæisk afbalanceret regulering af brugen af kunstig intelligens er vigtig for at muliggøre det potentiale teknologien rummer for øget innovation og effektivisering. Det er samtidig vigtigt at undgå særregulering i de enkelte medlemsstater og fragmentering af det indre marked på området.
Forventede konsekvenser for erhvervslivet
Der er et stort vækstpotentiale i brugen af kunstig intelligens indenfor rigtige mange sektorer i det danske erhvervsliv. AI-reguleringen bør holdes på et horisontalt niveau og så der ikke skabes forskellige særreguleringer vertikalt. Bliver reguleringen vertikal risikerer virksomhederne at mødes med forskellig regulering til AI alt efter, hvilken sektor/branche, som deres produkter falder ind under. Detaljeret regulering af kunstig intelligens, vil medføre flere administrative byrder og kan have negative effekter for både erhvervslivet og forbrugerne – i form at mindre økonomisk effektivitet og mindre innovation på området.
Anbefaling
Det anbefales, at der fra dansk side arbejdes for at:
- Sikre, at reguleringen bliver risikobaseret og proportional, så almindelige RPA-processer (robot automatiserings-processer), der ikke udgør nogen eller meget lav risiko for forbrugerne, ikke rammes af unødvendige skrappe krav og kravene i reguleringen afspejler den reelle risiko ved teknologien.
- Sikre, at der tages højde for eksisterende regulering, før der skrides til nye lovgivningstiltag.
- Unødvendig detailregulering undgås.
- Sikre adgang til data af høj kvalitet, som er en forudsætning for at øge anvendelsen og mulighederne for kunstig intelligens – regeringen bør igangsætte en fokuseret indsats for at sikre tilgængeligheden af relevante offentlige data og styrke mulighederne for partnerskaber med offentlige myndigheder omkring til deling af data, hvor data enten er anonymiserede eller hvor der kan ske digital udveksling af data, med samtykke eller anden behandlingshjemmel.
- Der er fokus på om rammerne for produktsikkerhed og produktansvar dækker brugen af kunstig intelligens.
- Sikre AI-reguleringen holdes på et horisontalt niveau og ikke sker i forskellige særreguleringer vertikalt. Bliver reguleringen vertikal risikerer virksomhederne at mødes med forskellig regulering til AI alt efter, hvilken sektor/branche etc, som deres produkter falder ind under.
Særlige hensyn
Danmarks styrkeposition indenfor data etik. I Danmark er der allerede lagt et grundlæggende arbejde med etiske retningslinjer og krav til virksomhederne.
AI-hvidbogen lægger også op til, at der etableres en ny frivillig mærkningsordning, som produkter, der ikke kategoriseres som højrisikoanvendelse, kan anvende. Det opfordres til, at man på europæisk niveau tænker ansvarlig data- og teknologianvendelse og it-sikkerhed sammen, når der overvejes at introducere nye mærker indenfor det digitale område. Dvs. at man ikke vælger at introducere et særskilt AI-mærke, og måske senere et dataetikmærke og et it-sikkerhedsmærke i EU-regi, men etablerer et mærke, der dækker it-sikkerhed og ansvarlig dataanvendelse. Det er ambitionen at indhente danske erfaringer på området, som kan spilles ind på europæisk niveau. Det er derfor ikke ambitionen, at det danske mærke nødvendigvis skal eksistere om 10 år, men at det kan have banen vejen for et europæisk mærke. Det samme gælder forsikrings- og pensionsbranchen, der er i færd med at implementere egne dataetiske principper. Dette arbejde kan understøtte ansvarlig anvendelse af kunstig intelligens.
Det er vigtigt at sikre transparens og forbrugernes rettigheder, når der anvendes algoritmer der kan have konsekvenser for denne gruppe. Samtidig er det væsentligt at få balanceret hensynet til forbrugerne med hensynet til beskyttelse af virksomhedernes forretningshemmeligheder, herunder kode og opbygning af anvendte algoritmer.
Regeringen bør derudover sikre, at der på europæisk niveau er fokus på arbejdstagerrettigheder i relation til det videre arbejde med kunstig intelligens.
Igangværende dansk indsats
Finanstilsynet har offentliggjort retningslinjer for brug af superviseret machinelearning. Den tidligere regering offentliggjorde en national strategi for kunstig intelligens i 2019. Det er forslagsstillerens forståelse at regeringen arbejder på at beslutte om den skal videreføres.
Sikker Digital har derudover netop udgivet en vejledning om tiltag til at sikre brugen af kunstig intelligens til danske virksomheder og myndigheder.
I forhold til adgang til data, er grunddataprogrammet hjørnestenen i at sikre gennemførelsen af PSI-direktivet.
Regeringens svar
Svar til Regelforum
Regeringen tiltræder anbefalingen og arbejder for, at kommende EU-regler for kunstig intelligens baseres på en proportionel og risiko-baseret tilgang, hvor der tages højde for eksisterede lovgivning, og hvor nye horisontale krav afgrænses til den del af teknologien og anvendelsen, der kan udgøre en reel risiko. Samtidig vil regeringen arbejde for, at eksisterende EU-lovgivning såsom produktsikkerhedsdirektivet og produktansvarsdirektivet er i stand til at håndtere brugen af kunstig intelligens.
Da en europæisk ramme for kunstig intelligens generelt skal resultere i at øge pålideligheden inden for teknologien, vil regeringen arbejde for, at der etableres en frivillig europæisk mærkningsordning, der skal skabe incitamenter for virksomheder og andre aktører til at
udvikle og anvende etisk, pålidelig og ansvarlig kunstig intelligens. Sigtet er, at flest mulige erfaringer fra det danske arbejde med mærket for IT-sikkerhed og ansvarlig dataanvendelse overføres til en europæisk mærkningsordning.
Herudover finder regeringen, at initiativer vedrørende dataadgang og -anvendelse bør adresseres selvstændigt som opfølgning på Kommissionens datastrategi, der blev præsenteret i februar 2020, jf. anbefaling TIV 4 En europæisk datastrategi.