BEVISSTGJØRING: Dersom datasettene vi mater inn i algoritmene er basert på historisk skjeve data kan KI-systemer føre til diskriminering, skriver Monica Paulsen, forbundsleder i Negotia. (Foto: Negotia)

Er vi forberedt på likestillingsfellene i den nye teknologien?

KOMMENTAR: Uten et etisk og bevisst forhold til ansvarlig bruk vil kunstig intelligens kunne videreføre menneskelige fordommer, skriver Monica Paulsen i Negotia.

Publisert Sist oppdatert

I 2018 ble det kjent at Amazon hadde utviklet et rekrutteringsverktøy, hvor målet var finne de beste kandidatene automatisk ved hjelp av maskinlæring. Resultatet ble imidlertid et program som diskriminerte kvinner til fordel for mannlige søkere. Dette er kanskje det mest kjente eksempelet på likestillingsfellene som lurer med kunstig intelligens.

Mulighetene innen kunstig intelligens er enorme for norsk arbeidsliv, men for å ta de fullt i bruk må teknologien komme alle til gode. En av ti norske virksomheter brukte KI i 2021, og for de største foretakene var tallet tre av ti. Hvilke sikringer har de for å hindre at programmene inneholder skjevheter som kan gi lignende diskriminering som det Amazon oppdaget?

Uten et etisk og bevisst forhold til ansvarlig bruk vil kunstig intelligens kunne videreføre menneskelige fordommer. Systemene påvirkes av kvaliteten på datasettene de trenes på og hvem det er som utvikler systemene, koder datasettene og programmerer algoritmene.

Dersom datasettene vi mater inn i algoritmene er basert på historisk skjeve data kan KI-systemer føre til diskriminering. Som i eksempelet med Amazon, hvor systemet vurderte mannlige søkere som best, fordi datasettene som algoritmen lærte av hadde en overvekt av menn.

Dersom datasettene vi mater inn i algoritmene er basert på historisk skjeve data kan KI-systemer føre til diskriminering.

Undersøkelser viser at menn oppgir oftere enn kvinner at de har kjennskap til og synspunkter på algoritmer. I tillegg har de som har opplevd diskriminering lavere tillit til KI. Dersom menn i større grad enn kvinner kan nyttiggjøre seg av mulighetene som ligger i digitalisering er det et likestillingsproblem.

Unngå likestillingsfellene

Det krever bevisst innsats å hindre at vi ikke får et teknologisk likestillingsgap mellom kvinner og menn. Først og fremst må vi få mer mangfoldige perspektiver inn i utviklingen av ny teknologi. Bare 29 prosent av ansatte i it-bedrifter i Norge er kvinner. Det er ikke godt nok. Ikt-utdanningene må tiltrekke seg flere jenter, og bedriftene i teknologisektoren må legge en særskilt innsats i å oppfordre kvinner til å søke.

Videre må vi stille krav og ha forventninger til de etiske vurderingene i utvikling og bruk av KI. Negotia har vært en pådriver for dette – og i 2020 fikk vi etiske retningslinjer for bruk av KI. Det er myndighetenes ansvar å kontinuerlig jobbe for at befolkningen kan ha tillit til teknologien vi er omgitt av.

I tillegg til gode prinsipper på bunn må vi bygge kunnskap for å sette folk i stand til å gjøre selvstendige kritiske vurderinger av de digitale systemene vi bruker på jobb og i livet. Negotia, sammen med Finansforbundet og Nito, har vist vei ved å utvikle en digital veileder, gratis for alle. Den gir tillitsvalgte, ledere og ansatte kunnskap om KI. Gjennom kompetansebygging får vi datatillitsvalgte som i fremtiden kan bistå virksomhetene med å styre bruken og effekten av KI-systemer, slik at de ikke virker mot sin hensikt.

Det krever bevisst innsats å hindre at vi ikke får et teknologisk likestillingsgap mellom kvinner og menn.

Ved hjelp av kunnskapsbygging om teknologien vi er omgitt av, tydelige krav og forventninger til utvikling og bruk av kunstig intelligens, og bevisst innsats over tid for å bygge en mer likestilt teknologisektor, kan vi unngå likestillingsfellene i algoritmene.