Ny forskning: Drop ChatGPT hvis I bekymrer jer om inklusion!

Brugen og begejstringen for ChatGPT er næsten endeløs. Men hvis vi ønsker diversitet i økosystemet, skal vi måske holde lidt igen. Jobannoncer skrevet af ChatGPT er nemlig 40 % mere biased end dem skrevet af mennesker, viser ny forskning.

Velbegrundet frygt for AI-bias

ChatGPT skaber i øjeblikket bølger i alle sektorer, men ny forskning tyder på, at vi bør bruge det med forsigtighed, især når det kommer til at skabe inkluderende jobannoncer for at tiltrække en mere mangfoldig talentmasse. 

Forskningen fra Develop Diverse, som tilbyder løsninger til inkluderende sprog, viser, at frygten omkring AI-bias er meget velbegrundet. De udvalgte tilfældigt mere end 7000 offentligt tilgængelige jobannoncer skrevet af mennesker fra 15 brancher, og fik derefter ChatGPT til at oprette en annonce for hver af de 7000+ stillinger baseret på jobtitler. 

Analysen afslørede, at jobannoncer skrevet af ChatGPT i gennemsnit er 40 % mere partiske end dem, der er skrevet af mennesker, især i forhold til marginaliserede etniciteter (42 %), fysiske handicap (41 %) og neurodiversitet (41 %). 

Måske ikke overraskende, at da ChatGPT blev analyseret for bias mod mænd, var der kun 9 % større sandsynlighed for at vise bias sammenlignet med 41 %, når det blev vurderet for bias mod kvinder. 

Tilsvarende var den 26 % mere forudindtaget over for majoritets etniske grupper sammenlignet med 42 % for minoritets etniske grupper. Status quo for hvide mænd, der får de bedste job, vil ikke blive ændret af ChatGPT skriver jobannoncer, tyder det på.

*Inklusionsscore: Det definerer, hvor inkluderende en tekst er. Intervallet er 0-100, hvilket er en score på 0 en ikke-inklusiv tekst og en score på 100 en inklusiv tekst. For at en jobannonce skal betragtes som inkluderende, skal scoren være over 90.

**Marginaliserede etniske grupper: Etniske grupper, som er underprivilegerede eller er underrepræsenterede i det samfund, de befinder sig i. De er marginaliserede grupper.

***Nonkonforme: Omfatter alle, der ikke passer ind i kønsnormer, såsom nonbinære personer og andre LGBTQ+-personer. Kønsnormer er bygget på et binært verdenssyn, med biologisk køn og heteroseksualitet som forventningen.

 

Jobannoncer oprettet af ChatGPT er partiske

AI er veldokumenteret til at demonstrere bias. Den bruger information hentet fra internettet, som følger traditionelle samfundsmæssige skævheder på tværs af køn, alder, etnicitet, handicapstatus og neurodiversitet. Det betyder, at hvis datainputtet er biased, så er dets output også.

ChatGPT bruger også kun data før 2021, så enhver potentiel reduktion i sprogbias over de sidste to år er ikke inkluderet under modeltræningen.

Efter at Develop Diverses Data Science team bad ChatGPT om at skrive jobannoncer, var de interesserede i dets evne til specifikt at skrive inkluderende jobannoncer. Resultaterne viste, at ChatGPT havde en dårlig forståelse af, hvad det betød at skabe inkluderende sprog, da det inkluderende jobannoncesprog ikke adskilte sig væsentligt fra andre jobannoncer, det genererede.

 

Brug af ChatGPT til inkluderende jobannoncer er bekymrende

Jenifer Clausell-Tormos, CEO og founder af Develop Diverse udtaler, at “mens Microsoft aktivt søger at fremme diversitet og inklusionsinitiativer, for eksempel via Bill Gates Foundation, kan ChatGPT negativt påvirke virksomheder til at ødelægge det arbejde, der har været gjort omkring inklusion og mangfoldighed i jobannoncer de seneste år.”

Hun uddyber, at ChatGPT har sin plads på arbejdspladsen, men har brug for et trænet menneskeligt øje: ”Brugt alene forstærker det de bias og stereotyper, vi prøver hårdt på at fjerne. Det betyder, at når ChatGPT bruges i kommunikation på arbejdspladsen, vil det skade virksomhedskulturen og virksomhedens mangfoldighed ved at forstærke stereotyper gennem intern og ekstern kommunikation.”

 

Drop ChatGPT hvis I bekymrer jer om inklusion

Develop Diverse anbefaler HR- og rekrutteringsteams at lade være at bruge ChatGPT, hvis de bekymrer sig om mangfoldighed og inklusion – og ønsker sig at være inkluderende overfor jobansøgere. De jobannoncer, der genereres fra ChatGPT, er for generiske og er ikke repræsentative for en egentlig jobannonce. Der er en risiko for, at medarbejdere der er tidspresset, vil bruge ChatGPT og utilsigtet fastholde bias.

Ifølge Jenifer Clausell-Tormos, CEO og grundlægger af Develop Diverse, er der grund til bekymring med omkring seneste mediedækning af OpenAI (virksomheden bag ChatGPT) som rapporteret af “Time”:

I søgningen efter at få ChatGPT til at bruge mindre “giftigt” sprog (som hadefulde ytringer), brugte OpenAI outsourcede arbejdere, som ikke altid blev betalt, hvad vi ville betragte som en rimelig løn. De arbejdede heller ikke under optimale forhold. 

I betragtning af at AI-modeller afhænger af mennesker, er vi nødt til at sikre, at de mennesker, der skaber dem, ikke påvirkes negativt i kapløbet om at blive de bedste. Vi har brug for, at mennesker har gode, retfærdige og pålidelige AI-modeller. Så lad os passe på dem.”

Danske Bank er en af mange virksomheder, der har set klare forbedringer i mangfoldigheden af deres kultur ved at bruge softwareplatformen Develop Diverse. I et pilotprojekt med Danske Bank, der dækkede 40 jobannoncer, steg antallet af kvalificerede kvindelige ansøgere med 81 % og mandlige ansøgere med 39 %, da bias blev fjernet fra stillingsannoncerne.

 

Om Develop Diverse:

Alt hvad Develop Diverse foretager sig, er med missionen om at skabe lige muligheder på arbejdspladsen. Deres innovative teknologi hjælper alle i en virksomhed til at skrive inkluderende og lære om deres egne bias på en nem, enkel og effektiv måde. Det gør de via en “software-as-a-service” platform, der i realtid registrerer ord med bias og foreslår inkluderende alternativer. Ved at gøre det oplyser softwaren brugeren om, hvilke grupper af mennesker der ikke er inkluderet, og hvorfor et sådant ord er forudindtaget eller ikke-inkluderende. Gennem denne proces er organisationer i stand til både at tiltrække diversitet og lægge grundlaget for en kultur af inklusion og tilhørsforhold.

Kategorier og definitioner brugt i Develop Diverses analyse (klik for at udvide)