Forklarbarhet i algoritmisk velferdsforvaltning

Demokrati og rettssikkerhet ved bruk av maskinlæringsmodeller i saksbehandlingen

2021-06, Åse Haram

Bildet kan inneholde: globus, paragraftegn, tekst

Omslag CompLex 2021-06

Les hele utgivelsen CompLex 2021-06 (pdf)

Sammendrag

Maskinlæringsmodeller kan benyttes til å påvise sammenhenger i store datasett, til å profilere, klassifisere og predikere. I modelleringen benyttes avanserte algoritmer og store mengder data, og modellene kan derfor være lite forklarbare, det vil si lite forståelige, forutberegnelige og etterrettelige.

Dersom maskinlæringsmodeller skal anvendes i forvaltningens saksbehandlingssystemer, til å automatisere vurderinger eller som beslutningsstøtte til saksbehandlere, må det være mulig å overholde offentlighetsprinsippet og borgernes innsynsrett. I enkeltsaker må dessuten partens rett til kontradiksjon, personvern, privatliv og ikke-diskriminering ivaretas. Modellenes og systemenes forklarbarhet er derfor en betingelse for et velfungerende demokrati og rettssikre forvaltningsavgjørelser.

I denne oppgaven presenterer jeg forklaringsbegreper og forklaringsmetoder fra den tekniske litteraturen om maskinlæring, og drøfter hvordan disse kan tilpasses forvaltningskonteksten. Gjennom analyse av flere eksempler på algoritmiske beslutningssystemer ser jeg på hvordan disse begrepene og metodene kan bidra til overholdelse av de rettslige krav til forklaring som følger av Grunnloven, forvaltningsretten, EMK og GDPR.

Jeg kommer blant annet frem til at det er et behov for regler for dokumentasjon av algoritmiske beslutningssystemer, og løsninger for å publisere eller gi innsyn som er meningsfulle for borgerne. Dette er nødvendig for å realisere offentlighetsprinsippet og den aktive informasjonsplikten. I noen tilfeller kan det være behov for å legge til rette for medvirkning fra interessenter eller berørte, for å sikre at modellen bygger på et saklig og representativt utvalg av data og at egenskapen den predikerer for (utgangsvariabelen) er relevant.

Når det kommer til enkeltavgjørelser rettet mot en part vil disse måtte forklares både lokalt (på enkeltprediksjonsnivå) og globalt (på overordnet modellnivå), og det bør fremgå av en form for systembeskrivelse hvordan systemet er innrettet og utøver myndighet. En gjennomgang av noen utvalgte lokale forklaringsmetoder for komplekse modeller, herunder approksimasjoner og kontrafaktiske forklaringer, tyder på at slike metoder ikke tilfredsstiller forvaltningslovens krav til begrunnelse. Det tilsier at enklere og mer forklarbare modeller bør velges i automatiserte avgjørelser. Det kan være mindre problematisk å ta i bruk 5 komplekse modeller som beslutningsstøtte, under forutsetning av at saksbehandlerne har tilstrekkelig kompetanse til å forstå modellen og anvende prediksjonene på en forsvarlig måte.

Kravet til forklarbarhet skjerpes for systemer som har mye personopplysninger, personopplysninger av sensitiv karakter (eller proxier for sensitive egenskaper) i datagrunnlaget, fordi dette fører med seg en risiko for diskriminering og usaklig forskjellsbehandling. Da må forvaltningsorganet sørge for dokumentasjon på at risikoen er håndtert gjennom tiltak som rettferdighetsteknikker, sosioteknisk analyse eller algoritmisk konsekvensanalyse.

Jeg konkluderer også med at algoritmisk forvaltning, og kontrollen med denne, i større grad vil kreve systemperspektiv enn det har vært tradisjon for i forvaltningsretten. Selv om både GDPR og den kommende AI-lovgivningen fra EU inneholder systemkrav, må også forvaltningsretten tilpasse seg teknologien. Man bør vurdere egne saksbehandlingsregler for algoritmisk forvaltning, noe som blant annet kan omfatte et endret begrunnelseskrav.

Publisert 18. jan. 2022 11:19 - Sist endret 18. jan. 2022 11:26