Inzicht krijgen in vooroordelen in recruitment AI
Het idee achter recruitment is eenvoudig: de perfecte kandidaat vinden voor een vacature, iemand die aan alle criteria voldoet om uit te blinken in een bepaalde functie.
In de praktijk spelen factoren die niet noodzakelijk zijn om de baan naar tevredenheid uit te voeren een rol in het selectieproces. Recruiters kunnen bijvoorbeeld rekening houden met etniciteit, geslacht, of opleiding bij het nemen van zo’n beslissing; vaak zonder het door te hebben. De recruiter is zich in de meeste gevallen niet eens bewust van dit effect. Dit wordt ‘onbewuste bias’ genoemd.
Diverse onderzoeken hebben aangetoond dat onbewuste bias in HR een belangrijke factor is bij het veroorzaken van een oneerlijke verdeling van kansen en het verminderen van diversiteit op de arbeidsmarkt. Het is van vitaal belang om deze vooroordelen te begrijpen en aan te pakken om eerlijkheid en diversiteit in het recruitmentproces te bevorderen. Daarom zet Textkernel zich in om de impact van vooroordelen in AI-werving te beperken.
Versterking van ethische en inclusieve recruitment oplossingen
We zetten ons in voor verantwoorde AI in recruitment, waarbij we prioriteit geven aan ethische praktijken en inclusiviteit voor een slimmere, eerlijkere toekomst.
Vooroordelen beperken en verantwoorde AI garanderen
Verantwoord gebruik van AI voor ethische resultaten
Het gebruik van AI kan een tweesnijdend zwaard zijn. Het kan serieuze schade toebrengen als het onzorgvuldig wordt gebruikt, maar het kan tegelijkertijd eerlijkheid bevorderen en vooroordelen verminderen, mits het verantwoord wordt ingezet. En dat is cruciaal om ethische uitkomsten te garanderen.
Bij sommige toepassingen waarbij AI wordt gebruikt, zoals spamfilters, is het onwaarschijnlijk dat vooroordelen optreden. Er zijn echter steeds meer verhalen in het nieuws over AI die bevooroordeelde beslissingen neemt die het leven van mensen kunnen beïnvloeden. Denk aan een bank die een lening weigert of een grote werkgever die kandidaten afwijst op basis van geslacht of ethische achtergrond. De rode draad in deze gevallen is dat AI menselijke beslissingen probeert na te bootsen in situaties die gevoelig zijn voor vooroordelen, omdat AI juist deze menselijke kwaliteiten van gezond verstand, intuïtie en empathie mist.
We moeten ons afvragen of AI wel het juiste gereedschap is voor deze taak. Als bias een probleem is, is het makkelijke antwoord vaak nee. Maar zo makkelijk is het niet. AI die zorgvuldig wordt gebruikt, kan bias aanzienlijk verminderen.
Bij Textkernel verdelen we het matchingsproces voor kandidaten in twee stappen: het begrijpen van documenten en het daadwerkelijke matchen. Terwjil het extraheren van gegevens uit een cv of vacature op een verantwoorde manier kan gebeuren met een minimaal risico op bias, is voor het matchen van kandidaten en vacatures een transparantere aanpak nodig die te controleren is.
Om bias in AI te beperken, zijn ‘checks and balances‘ noodzakelijk. Daarom hebben wij, net als techgiganten zoals Google en IBM, onze processen voor het beperken van bias geformaliseerd in een Fairness Checklist. Deze checklist helpt ons mogelijke vooroordelen te identificeren en aan te pakken, zodat we veilige, onbevooroordeelde software kunnen ontwikkelen.
Een voorbeeld van verantwoorde AI in de praktijk is bijvoorbeeld beroepsnormalisatie, het proces waarbij een vrije functietitel wordt omgezet in een gestandaardiseerd concept. Hoewel dit proces een lager risico op vooroordelen met zich meebrengt, onderstreept het het belang van verantwoorde AI-implementatie, omdat het resultaat alleen afhangt van de functietitel zelf, zonder persoonlijke kenmerken zoals etniciteit of religie.
Verantwoorde AI in de praktijk
Hoe de AI-oplossingen van Textkernel vooroordelen beperken
Textkernel is voorstander van verantwoordelijke AI. Wij gebruiken robuuste en transparante technieken voor het begrijpen, sourcen en matchen van documenten en kandidaten om vooroordelen te verminderen.
Documenten begrijpen
Verbeteren van gegevensextractie, standaardisatie en verrijking om bias te verminderen en het begrijpen van documenten te verbeteren.
Source & Match
Verbeter de nauwkeurigheid van sourcing en matching met AI-gestuurde zoekopdrachten en verrijkte criteria die de zoeknauwkeurigheid verbeteren.
Gebruik van verantwoorde AI
Zorgen voor transparantie en controle in AI-gestuurde processen om bias te verminderen en eerlijke en ethische AI-praktijken te bevorderen.
Leidraad voor Textkernel’s ethische aanpak
De AI-principes van Textkernel
Bij Textkernel zit de benadering van verantwoorde AI ingebakken in onze principes. Wij zijn ervan overtuigd dat AI moet dienen als een hulpmiddel dat wordt gestuurd door mensen, en niet als een besluitvormer zonder supervisie. Transparantie, diversiteit en gegevensbeveiliging zijn allemaal van vitaal belang voor ons.