KI kan ha skjulte ?fordommer? mot kvinner

KI-systemer oppfattes gjerne som n?ytrale. Passer vi ikke p?, kan algoritmene legge til rette for diskriminering av kvinner.

Bildet kan inneholde: mallet, rett.

RETTFERDIG? KI kan brukes til ? anbefale hvem som skal f? tilgang til viktige goder og tjenester p? tvers av hele samfunnet. Men hva baseres anbefalingene p??

Av Helene Lindqvist, Institutt for offentlig rett
Publisert 7. mars 2025

Bruk av kunstig intelligens sprer seg til stadig flere samfunnsomr?der – fra helsevesen til ansettelser og forsikringer. Store mengder informasjon organiseres raskt og effektivt n?r beslutninger skal tas.?

Her er det viktig ? v?re p? vakt. KI kan bl?se liv i gamle fordommer og ulikheter, og f?re til helt nye typer forskjellsbehandling. Det kan skje raskt og systematisk, uten at det oppdages.?

– KI kan i verste fall f?re til et tilbakeslag for kvinnekampen, sier professor Vibeke Blaker Strand ved Institutt for offentlig rett.??

Ogs? andre og helt nye grupper kan rammes.?

KI har aldri skylda

Forskjellsbehandling som ikke har noen god begrunnelse, kan v?re diskriminering.?

Men dagens likestillings- og diskrimineringslov er ikke tilstrekkelig tilpasset forskjellsbehandlingen som kan oppst? ved bruk av KI, hevder professoren.

I fjor sto hun bak utredningen ?Algoritmer, kunstig intelligens og diskriminering?, skrevet p? oppdrag for Likestillings- og diskrimineringsombudet. I disse dager gis utredningen ut p? engelsk i bearbeidet form.

– Det er viktig at jurister tar plass i diskusjonen rundt KI, b?de for ? bidra til ? muliggj?re bruk av ny teknologi og for ? sette grenser for den, framhever Strand.?

Med utgangspunkt i sp?rsm?l som ?hvem skal vernes??, ?hvordan kan diskriminering bevises?? og ?hvem har ansvaret?? foresl?r hun ? endre regelverket p? flere punkter.

Blant forslagene er ? innf?re en s?kalt aktivitets- og rapporteringsplikt for myndigheter og arbeidsgivere som bruker KI i beslutninger. Dette for ? sikre at problematikk knyttet til diskriminering ikke blir oversett n?r algoritmiske systemer tas i bruk.

En ting er likevel klart: Man kan ikke skylde p? KI n?r noe g?r galt. Ansvaret for ikke ? diskriminere ligger hos virksomheten som tar i bruk KI.?

– Det er viktig ? f? h?ndhevet et vern mot diskriminering i m?te med algoritmiske systemer. For eksempel ved at enkeltpersoner eller organisasjoner kan g? til sak om det viser seg at et system diskriminerer, sier Strand.

Foretrakk maskuline s?kere

Maskiner har verken f?lelser eller fordommer. Men dataene som brukes til ? trene KI-systemer er som regel p?virket av mennesker:

– KI kan dra med seg gammelt ?slagg? som f?rer til urettferdig forskjellsbehandling. Denne kan f? en litt annen klesdrakt enn tidligere, og skjer med st?rre teknisk kompleksitet. Men for den enkelte som rammes er resultatet det samme, sier professoren.?

Som eksempel viser hun til Amazon, som for noen ?r tilbake droppet sitt KI-baserte rekrutteringsverkt?y. Det viste seg nemlig ? diskriminere kvinnelige jobbs?kere.

Fordi systemet var trent p? historiske ansettelsesdata dominert av menn, ble gamle kj?nnsstereotypier utilsiktet bygget inn i algoritmene.

– Systemet favoriserte s?knader skrevet i en ?maskulin stil?, der s?keren framhevet egne lederegenskaper og solgte seg inn p? en bestemt m?te. Kvinnelige s?kere n?dde ikke opp, fordi de solgte seg inn annerledes, beskriver Strand.

Portrett av Vibeke Blaker Strand.
TVERRFAGLIGHET: – Det er viktig at jurister tar plass i diskusjonen rundt KI, b?de for ? bidra til ? muliggj?re bruk av ny teknologi og for ? sette grenser for den, sier professor Vibeke Blaker Strand. Foto: UiO

Kan p?virke helsetjenester

Dagens regelverk om likestillings- og diskrimineringsvern er s?rlig utviklet med tanke p? likestilling i arbeidslivet. Det passer d?rlig med utviklingen i samfunnet, p?peker professoren: ??

KI kan brukes til ? anbefale hvem som skal f? tilgang til viktige goder og tjenester p? tvers av hele samfunnet. Det kan v?re alt fra helsetjenester til leie av boliger. Andre eksempler Strand trekker fram, er hvem som skal kontrolleres av politi eller tollvesen og risikokartlegging gjort av banker og forsikringsselskaper.

Fordi systemene h?ndterer store mengder data, kan diskrimineringen skje mer systematisk og i enda st?rre skala enn tidligere.

– En oppdatert lov m? ta h?yde for at den nye teknologien tas i bruk p? tvers av hele samfunnet, sier professoren.

Utfordringen tas allerede tak i flere steder. Et 澳门皇冠体育,皇冠足球比分sprosjekt mellom Akershus universitetssykehus og Datatilsynet s? n?rmere p? et KI-system laget for ? avdekke risiko for hjertesvikt. Her fant de en potensiell risiko for skjevheter knyttet til etnisitet. ?rsaken var at tidligere pasienters etnisitet ikke var del av datagrunnlaget.

– Jurister, IT-utviklere og andre faggrupper m? 澳门皇冠体育,皇冠足球比分e for ? sikre at KI-systemer testes og kontrolleres for diskriminerende virkninger, sl?r Strand fast.

Utdatert?

Likestillings- og diskrimineringsloven forbyr b?de direkte og indirekte diskriminering p? grunn av en rekke konkrete forhold. Blant disse er kj?nn og kj?nnsidentitet, etnisitet, religion og funksjonsnedsettelse.

I m?te med KI kan det imidlertid v?re vanskelig ? avdekke b?de om og hvordan diskriminering har skjedd.

– Noen systemer er s? komplekst satt sammen at mennesker ikke fullt ut kan forst? hvorfor de handler slik de gj?r. Man vet ikke alltid helt hva som er lagt vekt p? i anbefalingene, sier Strand.

Dagens liste over vernede grupper kan dessuten v?re utdatert, if?lge professoren. Blant forslagene hennes er ? lovfeste et vern mot algoritmisk diskriminering via s?kalte ?stedfortrederfaktorer?:

Uten at det er relevant, kan KI legge vekt p? faktorer som bostedsadresse, ?konomi eller utdanningsniv?. Slik kan noen grupper, for eksempel visse etniske minoriteter, komme skjevt ut n?r beslutninger tas. Dette uten at systemet har forholdt seg til etnisitet.

M? ikke vannes ut

Nye og noen ganger overraskende grupper, som hundeeiere, kan ogs? komme skjevt ut.

– Man b?r vurdere ? etablere et vern mot algoritmisk diskriminering for nye grupper. For eksempel kan dagens regelverk suppleres med en ?pen sekkekategori kalt ?andre vesentlige forhold? ved en person, foresl?r professoren.

Samtidig er det viktig at en slik utvidelse ikke vanner ut vernet av kvinner og andre allerede vernede grupper, p?peker hun:

– Det ligger lang historikk bak dagens lovverk, framhever Strand.

Referanser

Vibeke Blaker Strand (2024): ?Algoritmer, kunstig intelligens og diskriminering: En analyse av likestillings- og diskrimineringslovens muligheter og begrensninger? Utredning skrevet p? oppdrag fra Likestillings- og diskrimineringsombudet
Hjerterom for etisk AI: Sluttrapport fra sandkasseprosjektet til Ahus (EKG AI) (2023)

Publisert 7. mars 2025 06:00 - Sist endret 10. nov. 2025 09:33