Ny teknologi som maskinlæring og kunstig intelligens kan fremme ligestilling og diversitet, hvis vi udvikler algoritmer, hvor vi er opmærksomme på at fjerne menneskelig bias. Omvendt kan vi sætte områderne årtier tilbage, hvis vi ikke taler om udfordringerne.
Automatisering er et afgørende konkurrenceparameter for amerikanske Amazon. Også når det kommer til at udpege kommende talentfulde medarbejdere. Selskabet bruger kunstig intelligens til at udpege de bedst egnede kandidater. Men for få år siden opdagede Amazon, at algoritmerne foretrak mandlige ansøgere til tekniske stillinger frem for kvindelige. Det skete, da algoritmerne bygger på tidligere erfaringer, og da mænd traditionelt fylder mere i tekniske job, så blev bias forstærket med den kunstige intelligens.
Samme menneskelige bias er blevet til uheldige og skævvredne udfald inden for en række andre områder, hvor kunstig intelligens og maskinlæring vinder indpas, som inden for retsvæsenet, hvor der er eksempler på, at sorte dømmes hårde end hvide, eller inden for finansverdenen, hvor førstegangskøbere på boligmarkedet vurderes på forkerte kriterier.
Kvantespring på ligestilling
De fleste eksempler er stadig amerikanske. Men lige nu rykker kunstig intelligens ind på en række vigtige pladser i menneskers liv og færden. Det giver os en once in a lifetime-mulighed for at fjerne nogle af de mere eller mindre ubevidste bias, som menneskelige beslutninger har, og i stedet tage nogle vigtige kvantespring for eksempel i forhold til ligestilling.
Det mener stifter af og CCO i Queue-it, Camilla Valentin. Hun er også medstifter af netværket Women in Tech og selv udnævnt til en af Europas 50 mest inspirerende tech-kvinder. Vi satte Camilla Ley Valentin stævne i Trygs iværksættermiljø The Camp, hvor Queue-it bor, til en snak om digital ligestilling og behovet for, at vi sætter emnet på den offentlige agenda.
Dataetik på agendaen
Timingen er brandvarm. I sidste uge blev det regeringsnedsatte Dataetiske Råd offentliggjort, og netop det panel bør sætte spotlys på den digitale ligestilling, mener Camilla Ley Valentin. ”De systemer og algoritmer, vi udvikler nu, kan sætte ligestillingen årtier tilbage og påvirke udviklingen i en meget negativ retning. Men de kan også bruges til at fremme ligestillingen, hvis vi forstår at udvikle det rigtigt. Og det er lige nu, det sker, ikke om fire år,” siger Camilla Ley Valentin.
De fleste startups har ikke overskud og interesse for, hvad der sker politisk. Men de nye løsninger vil komme fra startups
Udfordringen er global. Og kunstig intelligens bruges allerede verden over til at træffe kritiske beslutninger ud fra. Men lige som eksemplerne på, hvor galt det kan gå, kommer fra USA, så er man også her længere med opmærksomheden og løsninger på området. ”Digital ligestilling er bare ikke på dagsordenen i den politiske debat herhjemme. Men det kan have enorme konsekvenser, hvis vi ikke bruger taletid på det,” konstaterer Camilla Ley Valentin.
Kontaktpunkt for startups
Hun mener dog, at der er lagt op til gode takter i forlængelse af regeringens AI-strategi og det senest afholdte Digitalt Topmøde samt med nedsættelsen af Dataetisk Råd. Men et er, at vi skal have øje for de skjulte bias, når vi udvikler nye algoritmer. Noget andet er, at debatten skal nå ud til de danske startups, hvor de nye teknologier vil komme fra, påpeger hun.
”De fleste startups har ikke overskud og interesse for, hvad der sker politisk. Men de nye løsninger vil komme fra startups. De små virksomheder har ikke de samme snitflader til Dataetisk Råd og det politiske miljø, som større selskaber har. Derfor er det vigtigt, at debatten når helt ud til de nye startups og til brugerne, så AI kan bruges til at træffe bedre beslutninger og øge menneskers overlevelsesrate fremfor, at vi udvikler uhensigtsmæssig teknologi,” siger Camilla Ley Valentin.
Helt konkret efterlyser hun et kontaktpunkt, hvor startups har let adgang til viden om etiske bias. Et offentligt forankret kontaktpunkt med stærke private aktører med viden om området, lyder hendes bud: ”Det skal være både agilt og ufarligt for startups at henvende sig til et sådant kontaktpunkt, hvor man skal kunne henvende sig uden at blive dømt ude,” mener hun.