En ny undersøgelse afslører alarmerende kønsbias i populære AI-værktøjer, som flere bruger til at forhandle løn.
Lige nu læser andre
Forskere fra tre tyske universiteter har påvist, at sprogmodeller som ChatGPT giver kvinder markant lavere lønanbefalinger end mænd – selv når CV og kvalifikationer er identiske.
I et opsigtsvækkende eksempel blev en mandlig kandidat rådet til at forhandle en årsløn på 400.000 dollars, mens en kvindelig kandidat med samme baggrund blev anbefalet at bede om 280.000 dollars.
Undersøgelsen omfattede fem sprogmodeller, herunder GPT-4o mini og Claude 3.5 Haiku. Forskellene var størst inden for medicin, jura og erhvervsadministration, men også til stede på tværs af flere sektorer. “Prompterne adskilte sig kun med to bogstaver: ‘mand’ eller ‘kvinde’,” forklarer professor Ivan Yamshchikov fra THWS.
Skriver mediet mtsprout.
Bias rækker længere end køn
Modellerne viste også forskelsbehandling baseret på kulturel baggrund og opholdstatus. Kandidater med sort eller latinamerikansk baggrund fik lavere lønanbefalinger, mens asiatiske expats blev vurderet højest. Kvindelige flygtninge med farvet baggrund blev konsekvent placeret i de laveste lønskalaer – uanset erfaring og uddannelse.
“Skrald ind, skrald ud”
Læs også
Ifølge forskerne er problemet grundlæggende: AI-modeller trænes på store mængder data, der uundgåeligt indeholder forudindtagethed. Resultatet er, at modellerne – trods et ry for objektivitet – genskaber samfundets stereotyper og uligheder.
Disse bias kan få alvorlige konsekvenser. Hvis jobansøgere stoler blindt på AI som rådgiver, risikerer de at sænke egne forventninger og forhandle dårligere vilkår. Samtidig øges risikoen for, at lønforskelle og diskrimination cementeres fremfor udfordres.
Forskerne advarer om, at illusionen om neutralitet er en af de farligste egenskaber ved kunstig intelligens. I takt med at flere bruger AI til karrierevejledning og lønforhandling, kan konsekvenserne sprede sig bredt – og gøre det sværere at sikre reel ligestilling.