Contact Inloggen Demo
088 49 59 000

Kantoorgebouw De Blend

Vleutensevaart 100

3532 AD Utrecht (NL)

Kun je met AI eerlijke selectie doen?

Bedrijven gebruiken algoritmen om beslissingen te nemen zoals werkschema's opstellen, de prestaties van werknemers te analyseren en zelfs te beslissen of werknemers aan het werk mag komen en kunnen blijven. Maar hoewel AI problemen oplost, creëert het nieuwe - en een van de meest lastige is hoe je ervoor kunt zorgen dat beslissingen die door AI worden gevormd of genomen, eerlijk zijn en ook zo worden beschouwd. 

Volgens David De Cremer, professor aan de National University van Singapore, moeten bedrijven stoppen met denken aan eerlijkheid - een ingewikkeld concept - als iets dat ze kunnen aanpakken met de juiste geautomatiseerde processen. 

Onderzoek heeft aangetoond dat eerlijkheidspercepties, naast distributieve eerlijkheid die algoritmen tot op zekere hoogte hebben, kunnen meebrengen hoe eerlijk de organisatie omgaat met haar werknemers en klanten, of ze op transparante manieren communiceert en of ze als respectvol naar de gemeenschap wordt beschouwd.
Organisaties die AI gebruiken om deel te nemen aan besluitvorming, wordt geadviseerd om de nodige tijd en energie te steken in het opbouwen van de juiste werkcultuur: een met een betrouwbaar en eerlijk organisatie imago.

De auteur doet op Harvard Business Review drie aanbevelingen:

1) Beschouw eerlijkheid als een daad

Algoritmen zijn bedoeld om de foutpercentages zo veel mogelijk te verminderen om de optimale oplossing te vinden. Maar hoewel dat proces kan worden gevormd door formele criteria van eerlijkheid, laten algoritmen de perceptuele aard van eerlijkheid buiten beschouwing en dekken ze geen aspecten in zoals het gevoel van mensen met respect behandeld te willen worden.
Algoritmen zijn grotendeels ontworpen om optimale voorspellingsmodellen te creëren die rekening houden met technische kenmerken om formele rechtvaardigheidscriteria te verbeteren. Ook als deze niet voldoen aan de verwachtingen en behoeften van de menselijke eindgebruiker.
Aanbeveling: organisaties moeten aanzienlijk investeren in de ethische ontwikkeling van hun managers.

2) Beschouw AI-eerlijkheid als een onderhandeling tussen nut en menselijkheid

Algoritmisch oordeel blijkt nauwkeuriger en voorspellend te zijn dan menselijk oordeel bij een reeks specifieke taken, waaronder de toewijzing van banen en beloningen op basis van prestatie-evaluaties. Het is logisch dat bij het zoeken naar een beter functionerend bedrijf, algoritmen voor die taken steeds meer de voorkeur krijgen boven mensen. Statistisch gezien kan die voorkeur terecht lijken. Het beheren van de workflow en de toewijzing van middelen op (bijna) perfect rationele en consistente manieren is echter niet noodzakelijk hetzelfde als het opbouwen van een humaan bedrijf of samenleving.

Aanbeveling: leiders moeten duidelijk zijn over welke waarden het bedrijf wil nastreven en welke morele normen ze graag op het werk zouden willen zien. Ze moeten daarom duidelijk zijn over hoe ze zaken willen doen en waarom.

3) Onthoud dat AI-eerlijkheid de perceptie van verantwoordelijkheid inhoudt

De eerlijkheid van AI als besluitvormer hangt echt af van de keuzes die worden gemaakt door de organisatie die het toepast, die verantwoordelijk is voor de resultaten die de algoritmen genereren. De gepercipieerde eerlijkheid van de AI zal worden beoordeeld door de lens van de organisatie die het gebruikt, niet alleen door de technische kwaliteiten van de algoritmen.
Aanbeveling: de datawetenschappers van een organisatie moeten de waarden en morele normen die het leiderschap heeft vastgesteld, kennen en ermee instemmen. Bij de meeste organisaties bestaat er een kloof tussen wat datawetenschappers bouwen en de waarden en bedrijfsresultaten die organisatieleiders willen bereiken.

AI_selectie
Meer weten over innovatieve testen ?

Neem gerust contact op

Contact