Hvad kræver det at blive Great Place To Work certificeret? Find ud af det her!
MENU

Pas på, jeres AI-rekruttering er biassed – og det kan koste jer talent

 Pas på, jeres AI-rekruttering er biassed – og det kan koste jer talent
Effektiv rekruttering kan koste dyrt, hvis mennesket forsvinder.

Flere organisationer bruger i dag kunstig intelligens til at sortere og udvælge kandidater. Men når rekruttering automatiseres, risikerer virksomheder at gøre deres blinde vinkler permanente – og frasortere netop de profiler, de har brug for. Derfor bliver spørgsmålet ikke kun, hvem I ansætter – men hvem I aldrig får øje på.

 

AI har for alvor gjort sit indtog i rekrutteringen. CV-screening, tests og automatiserede svar har gjort processerne hurtigere – men ikke nødvendigvis bedre.

Mange kandidater oplever, at rekruttering er blevet mere teknisk og mindre menneskelig, fordi algoritmer i stigende grad fungerer som første sortering. Det afgørende spørgsmål er derfor ikke kun, hvem der ansættes – men hvem der overhovedet bliver set.

“AI i rekruttering er ikke et neutralt værktøj,” siger Morten Lauridsen, CEO i Great Place To Work Danmark.

“Det er et valg, der former, hvilke mennesker organisationen giver adgang.”

 

Når algoritmen bliver den nye norm

AI-systemer fremstilles ofte som objektive. Men i praksis lærer de af historiske data. Og historiske data afspejler tidligere beslutninger, præferencer og forestillinger om, hvad en ‘rigtig kandidat’ er.

Det betyder, at algoritmer let kommer til at favorisere bestemte uddannelsesveje, karriereforløb og måder at formulere sig på. Profiler, der falder uden for normen, risikerer at blive sorteret fra, før et menneske har læst deres ansøgning.

“Hvis vi ikke er bevidste om det, risikerer vi at automatisere vores egne fordomme,” siger Morten Lauridsen.

“Så bliver AI ikke et redskab til bedre beslutninger – men til hurtigere frasortering.”

 

Når talent falder uden for skabelonen

AI-baseret rekruttering bygger i høj grad på mønstergenkendelse. Det gør processer hurtigere og mere ensartede, men det har en bagside: Kandidater, der ikke passer ind i standardiserede formater, risikerer at blive sorteret fra tidligt i processen.

Det gælder blandt andet neurodivergente kandidater, som ofte har profiler, der afviger fra normen. CV’er med spring, anderledes sprogbrug eller atypiske karriereveje kan blive tolket som støj i systemet – snarere end som tegn på potentiale.

Når algoritmer anvendes som første filter, kan det betyde, at kompetencer, motivation og problemløsningsevner aldrig når frem til en menneskelig vurdering.

“Neurodiversitet udfordrer vores forestilling om, hvordan talent ser ud,” siger Morten Lauridsen.

“Når algoritmer får lov til at definere normalitet, risikerer vi at lukke døren for perspektiver, der netop kunne styrke innovation og kvalitet i organisationen.”

 

LÆS OGSÅ: Neurodiversitet – Hvad er det? Hvorfor er det vigtigt? Og hvordan arbejder du med det på arbejdspladsen

 

Bias i sproget – og i algoritmen

Men problematikken stopper ikke ved neurodiversitet. De samme mekanismer gør sig gældende på tværs af køn, etnicitet og andre former for diversitet.

Algoritmer læser ikke mennesker. De læser mønstre i data – og data er gennemsyret af sprog. Forskning fra Center for Economic Policy Research (CEPR) viser, at mænd og kvinder systematisk beskrives forskelligt i job- og kompetencevurderinger. Kvinder forbindes oftere med ord som “hardworking” og “reliable”, mens mænd hyppigere beskrives som “brilliant” og “talented”.

”Når sådanne sproglige mønstre indgår i træningsdata eller screeningsværktøjer, risikerer AI at videreføre – og forstærke – eksisterende stereotyper. Det sker ikke af ond vilje, men som en konsekvens af, hvordan historiske vurderinger er blevet formuleret og gemt,” siger Morten Lauridsen.

Neurodiversitet bliver derfor ikke et særtilfælde, mener Morten Lauridsen.

”Det bliver et tydeligt eksempel på et bredere strukturelt problem: Hvis algoritmer ikke aktivt udfordres, reproducerer de de normer, organisationer ellers gerne vil gøre op med.”

 

HR’s og ledelsens blinde vinkler

I mange organisationer er fokus rettet mod time-to-hire, compliance og effektivitet. Langt færre stiller de grundlæggende spørgsmål til, hvordan sorteringen faktisk foregår:

  • Hvilke profiler favoriserer vores systemer?
  • Hvilke typer erfaring og sprog bliver belønnet?
  • Og hvem bliver systematisk sorteret fra – uden at vi opdager det?

“Teknologi fjerner ikke ansvar,” siger Morten Lauridsen.

“Tværtimod skærper den kravet til faglig dømmekraft – også i rekruttering.”

 

Når effektivitet udfordrer ordentlighed

Automatiserede svar og strømlinede processer kan være effektive set fra organisationens side. Men set fra kandidatens perspektiv kan de opleves som distancerende – og i nogle tilfælde respektløse.

Her står virksomheder i et dilemma: Jo mere rekrutteringen optimeres, desto større er risikoen for, at relationen til kandidaten forsvinder. Det kan skade både employer brand og adgangen til talent på længere sigt.

“Rekruttering er ikke kun en selektion. Det er også et møde mellem mennesker. Hvis kandidater reduceres til datapunkter, mister organisationen noget, der ikke kan automatiseres,” siger Morten Lauridsen.

 

 

Sådan bruger I AI uden at miste mennesket

AI kan være et stærkt redskab i rekruttering – hvis det bruges med omtanke og tydeligt ansvar. Erfaringen peger på tre principper:

  • Brug AI som støtte, ikke som endelig dommer
  • Undersøg og udfordr jeres systemer for bias – løbende
  • Sørg for, at et menneske altid har det sidste ord

“Det handler ikke om at fravælge teknologi,” siger Morten Lauridsen.

“Det handler om at sikre, at teknologi understøtter faglighed, mangfoldighed og ordentlighed – ikke erstatter dem.”

 

AI-rekruttering – tre opmærksomhedspunkter

  • Algoritmer er ikke neutrale, men bygger på historiske mønstre

  • Standardiserede systemer kan frasortere neurodivergente profiler

  • Effektivitet må ikke ske på bekostning af ansvar og relation


7 korte råd: Så bruger I AI i rekruttering med omtanke

  • Lad AI sortere – men aldrig beslutte.

    Brug algoritmer som støtte, ikke som dommer. Det sidste valg skal altid være menneskeligt.

  • Test jeres system for blinde vinkler.

    Spørg aktivt: Hvem sorteres fra – og hvorfor? Kortlæg jeres filtre, så I ved præcist, hvad der fravælges, og på hvilket grundlag.

  • Brug blind screening, hvor det giver mening.

    Fjern navn, køn, alder og andre irrelevante markører i den tidlige udvælgelse.

  • Gør kravene tydelige – ikke snævre.

    Overpræcise stillingsopslag risikerer at frasortere potentiale, før dialogen begynder.

  • Se rekruttering som relation, ikke kun proces.

    Effektivitet må aldrig erstatte ordentlighed – kandidater husker, hvordan de blev mødt.

  • Skab en manuel modvægt.

    Indfør faste stop-punkter, hvor mennesker gennemgår AI-fravalg.

  • Følg op på, hvem I ansætter.

    Ligner de hinanden – eller er diversiteten faktisk stigende over tid?