Pas op voor deze futuristische achtergrondcontroles

Tientallen mensen zijn op zoek naar werk. Door AI aangedreven achtergrondcontroles kunnen in de weg staan.

Dit verhaal maakt deel uit van een groep verhalen genaamd hercoderen

Ontdekken en uitleggen hoe onze digitale wereld verandert - en ons verandert.





Open source-logo

De werkloosheid bereikte in mei het hoogste niveau sinds de Grote Depressie, maar bedrijven als Postmates en Uber zijn tijdens de pandemie doorgegaan met het aannemen van nieuwe werknemers. Als je echter geïnteresseerd bent in dit soort optreden, is de kans groot dat je een AI-aangedreven achtergrondcontrole van een bedrijf als Checkr moet doorstaan. Dit is misschien niet zo eenvoudig als het klinkt.

Checkr loopt voorop in een nieuwe en potentieel problematische vorm van werving, een die wordt aangedreven door nog steeds opkomende technologie. Degenen die snel extra werk hopen te krijgen, klagen dat Checkr en anderen die AI gebruiken om achtergrondcontroles uit te voeren, dat niet zijn fouten aanpakken en fouten op hun crimineel legt verslagen vast. In deze gevallen kan een storing in het systeem iemand een baan kosten.

Maar dit is niet bepaald een nieuw probleem. In de afgelopen jaren heeft Checkr te maken gehad met: een hele reeks rechtszaken voor het maken van fouten die mensen de felbegeerde kansen op werk hebben gekost, volgens de juridische gegevens. Een klacht van een man die voor Uber hoopte te rijden, beweerde dat hij ten onrechte in verband werd gebracht met een veroordeling voor moord die eigenlijk toebehoorde aan iemand met een vergelijkbare naam. Een andere persoon die hoopte te werken voor de ride-share-gigant klaagde dat hij ten onrechte verschillende misdrijven had begaan - waaronder het bezit van een gereguleerde substantie - misdaden die toebehoorden aan een andere persoon met dezelfde naam.



Checkr is een van de vele bedrijven die aspecten van het wervingsproces automatiseren en kosten besparen. Sommige van deze bedrijven gebruiken kunstmatige intelligentie om: door cv's scannen , gezichtsuitdrukkingen analyseren tijdens video-sollicitatiegesprekken , strafregisters vergelijken en zelfs het gedrag van sollicitanten op sociale media beoordelen. En in een pandemie, waar de bedrijven die nog steeds aanwerven waarschijnlijk al een golf van sollicitaties zien en enthousiast zijn om manieren te vinden om het wervingsproces te stroomlijnen, klinkt technologie die het inhuren sneller en gemakkelijker maakt aantrekkelijk.

Maar experts hebben hun scepsis geuit over de rol die AI daadwerkelijk kan spelen bij het aannemen van personeel. De technologie werkt niet altijd en kan vooroordelen en privacy problemen. Het roept onvermijdelijk ook grotere vragen op over hoe krachtig AI zou moeten worden.

AI kan bedrijven helpen uw strafblad te bestuderen

Wanneer u in aanmerking komt voor een baan, gebruiken antecedentenonderzoekers doorgaans persoonlijke informatie die door u is verstrekt om meer te weten te komen over uw strafblad en andere informatie over uw identiteit. Dat kan het verzamelen van alle soorten gegevens inhouden, inclusief maar niet beperkt tot informatie uit registers van zedendelinquenten, wereldwijde observatielijsten, databases met staatsstrafregisters en het Public Access to Court Electronic Records (PACER)-systeem. Soms moet een aanbieder van antecedentenonderzoek een gerechtsgebouw raadplegen om naar meer records te zoeken, een proces dat op dit moment misschien niet mogelijk is vanwege door pandemie vereiste sluitingen.



In de afgelopen jaren is het pionierswerk van Checkr geweest met het gebruik van kunstmatige intelligentie om het proces van het analyseren van deze records te versnellen, hoewel andere startups, zoals het in het VK gevestigde Onfido en in Israël gevestigde ik begrijp , hebben gewerkt of werken aan soortgelijke systemen. Ondertussen maken ook meer traditionele bedrijven voor achtergrondcontrole gebruik van AI. GoodHire heeft bijvoorbeeld gebruikt machine learning om de identiteit te verifiëren van mensen die een online antecedentenonderzoek voltooien.

Checkr is een favoriet geworden van bedrijven in de gig-economie, waaronder Uber, Instacart , verzonden , postgenoten , en Tillen . Op zijn website stelt Checkr dat AI uiteindelijk de kosten van het aantrekken van nieuwe medewerkers kan verlagen door op twee manieren te helpen bij het verwerken van achtergrondcontroles. Ten eerste helpt de technologie te verifiëren dat een bepaald strafblad toebehoort aan de persoon wiens achtergrond wordt gecontroleerd. Ten tweede helpt de AI bij het vergelijken van de namen van strafrechtelijke vervolgingen die op verschillende plaatsen verschillende namen hebben. Wat op de ene plaats als kleine diefstal kan worden gemeld, kan ergens anders als kleine diefstal worden gemeld.

maar als rechtszaken tegen Checkr suggereren: , kunnen deze diensten fouten maken, zelfs met het gebruik van AI. Veel van deze klachten beweren dat het bedrijf mensen koppelde aan strafregisters van anderen met dezelfde of vergelijkbare namen.



Verwant

Kunstmatige intelligentie zal helpen bepalen of u uw volgende baan krijgt

De drempelvraag is of we de juiste persoon wel hebben gevonden, legt Aaron Rieke, directeur van de digitale rechtengroep Upturn, uit. Als je een gewone naam hebt, is dat niet triviaal om te doen, en de laatste 20 jaar zijn er veel problemen met het matchen van databases op dat basisniveau.



Andere klachten tegen Checkr zeggen dat out-of-context of verouderde records uiteindelijk ook in hun rapporten worden opgenomen.

Checkr gaf geen specifiek commentaar op de rechtszaken, maar Kristen Faris, vice-president industriestrategie van het bedrijf, vertelde Recode dat mensen betrokken zijn bij zowel het beoordelings- als het kwaliteitsborgingsproces om de nauwkeurigheid van de rapporten te garanderen.

In de traditionele wereld, waar je offshore-arbeid gebruikt om deze criteria toe te passen, heb je een veel lagere nauwkeurigheid, alleen vanwege de handmatige processen die ermee gemoeid zijn, zei Faris.

AI kan ook uw sociale media en al het andere dat openbaar is op internet screenen

De meeste antecedentenonderzoeken zijn meestal gericht op strafregisters, maar sommige diensten zijn begonnen met het opnemen van informatie over een persoon die online beschikbaar is, inclusief hun aanwezigheid op sociale media. Sommige managers zoeken al sociale media-activiteiten van potentiële medewerkers op, maar bedrijven zoals Good Egg verkopen achtergrondcontroles op sociale media , terwijl anderen zoals Intelligo AI kunnen gebruiken om deze platforms te screenen.

Ik denk dat wanneer mensen hun echte naam gebruiken in openbare fora online, de realiteit is dat die informatie in een antecedentenonderzoek kan worden gezogen, zei Rieke, de pleitbezorger van digitale rechten.

Dit is wat er gebeurde met Kai Moore eerder dit jaar, toen hun werkgever van salarissysteem veranderde en opnieuw een antecedentenonderzoek van de werknemers vereiste. Moore verwachtte een herziening van wat doorgaans in dit proces wordt opgenomen: informatie over hun strafblad en bevestiging van hun identiteit. Maar wat ze niet hadden verwacht, was een rapport van 300 pagina's van Fama Technologies over hun sociale-mediageschiedenis, inclusief documentatie van hun tweets, retweets en Likes.

Nog zorgwekkender was hoe hun online activiteit werd beoordeeld. Een bericht dat Moore leuk vond met de zin Big Dick Energy werd gemarkeerd wegens seksisme en onverdraagzaamheid. Tweets die ze als favoriet hadden over alcohol, werden als slecht gemarkeerd, terwijl een die de hel noemde bij het bespreken van LGBTQ-identiteit en religie, werd gemarkeerd vanwege taal.

De werkgever van Moore verzekerde hen dat hun baan niet op het spel stond, maar merkte ook op dat de algoritmen van Fama hen uiteindelijk als een overweging hadden beschouwd, in plaats van een regelrechte, voor de functie waarin Moore al had gewerkt. En voor Moore betekende dit de absurditeit en onnauwkeurigheid van kunstmatige intelligentie.

Ik denk dat het echt gevaarlijk is om dit soort algoritmen zoveel autoriteit te geven, vertelde Moore aan Recode. Het is zo'n verschrikkelijk algoritme. Het is zoeken op trefwoord.

Fama-oprichter en CEO Ben Mones vertelde Recode dat het bedrijf beweert problematisch gedrag te kunnen identificeren, zoals seksisme en pesten, evenals het risico dat iemand handel met voorkennis of diefstal van intellectueel eigendom zou kunnen plegen. Fama analyseerde voornamelijk Twitter-activiteit in het geval van Moore, maar de technologie kan ook informatie over sollicitanten oppikken van nieuwssites en andere webpagina's. Sinds het rapport van Moore is uitgevoerd, is Fama gestopt met het labelen van deze berichten als goed of slecht. Nu markeert het eenvoudig inhoud, zodat werkgevers hun eigen oordeel kunnen vellen.

Fama is niet het enige bedrijf dat een dergelijk bedrijfsmodel heeft geprobeerd. Andere bedrijven zijn op zoek naar manieren om te rapporteren wat potentiële aanvragers online delen, een proces dat sommige antecedentenonderzoeken zeggen te kunnen versnellen met behulp van AI. Faris, de VP van Checkr, zei dat haar bedrijf heeft gesproken over het aanbieden van screenings op sociale media, maar nog geen significante vraag heeft gezien van zijn bestaande klantenbestand.

Het is ook onduidelijk of sociale-mediabedrijven zelf dit gebruik van hun gegevens zullen tolereren. Predictim, een bedrijf dat gebruikte AI om potentiële babysitters te scoren op basis van hun sociale media, trok in 2018 genoeg negatieve aandacht dat het uiteindelijk werd geblokkeerd door Facebook, Instagram en Twitter. De website van Predictim is niet meer actief.

Fama heeft bijvoorbeeld een manier gevonden om het beleid van sommige sociale-mediabedrijven te omzeilen. Twitter vertelde Recode dat het de API-toegang van Fama opschortte rond dezelfde tijd als Moore's verhaal over hun achtergrondcontrole ging viraal . Twitter zei dat zijn API-beleid het gebruik van het platform voor achtergrondcontroles of enige vorm van extreme doorlichting, evenals surveillance, verbiedt. Fama stelt dat het voor zijn diensten nog steeds op een of andere manier toegang heeft tot Twitter-gegevens.

Het gebruik van kunstmatige intelligentie betekent niet dat uw rechten worden verspeeld

Achtergrondcontrolebedrijven worden over het algemeen beschouwd als kredietinformatiebureaus en er zijn staats- en federale wetten die regelen hoe deze agentschappen werken. De belangrijkste daarvan is de Fair Credit Reporting Act, een wet die in 1970 is aangenomen om consumenten te beschermen en die wordt gereguleerd door de Federal Trade Commission. Vorige maand deelde het bureau best practices voor het werken met kunstmatige intelligentie en algoritmen.

Momenteel vereist de wet op de Fair Credit Reporting Act dat potentiële werkgevers moeten informeren en iemands toestemming moeten krijgen voordat ze een antecedentenonderzoek uitvoeren. Als de werkgever denkt dat de resultaten van het antecedentenonderzoek een rol spelen bij het afwijzen van een sollicitant voor een baan, moet hij de sollicitant hiervan op de hoogte stellen en hem de kans geven om alle informatie in het rapport te betwisten. Als dat gebeurt, moet het door de werkgever ingeschakelde kredietinformatiebureau zijn bevindingen opnieuw onderzoeken. Er is echter geen garantie dat eventuele correcties op tijd zullen worden aangebracht om een ​​persoon in aanmerking te laten komen voor een bepaalde functie.

Bedrijven die antecedentenonderzoek doen, kunnen aanzienlijke fouten maken, en die fouten kunnen van invloed zijn op het al dan niet aanbieden van een baan aan iemand. Volgens Ariel Nelson, een advocaat bij het National Consumer Law Center, hebben deze bedrijven een wettelijke verplichting om redelijke procedures te hebben om de maximale nauwkeurigheid van de informatie te garanderen. Er is nog steeds een alomtegenwoordig probleem dat fouten worden opgenomen in achtergrondcontroles, legde Nelson uit, zelfs als AI er niet bij betrokken is.

Dus als je merkt dat je solliciteert naar een nieuwe baan, bedenk dan dat je sollicitatie onderhevig kan zijn aan een AI-aangedreven achtergrondcontrole, vooral als je op zoek bent naar werk in de gig-economie. U heeft wel controle over sommige aspecten van dit proces. U kunt uw sociale media-accounts privé maken of uw gegevens volledig van deze platforms verwijderen. Kortom, als u informatie over u online kunt zien terwijl u niet bent aangemeld bij een platform, kan een toekomstige werkgever - of een ingehuurde AI - dit waarschijnlijk ook zien.

Verduidelijking: Dit bericht is bijgewerkt om te verduidelijken dat Checkr geautomatiseerde functies heeft, maar de service gebruikt geen AI om cv's te scannen, gezichtsuitdrukkingen te analyseren tijdens video-sollicitatiegesprekken of het gedrag van sollicitanten op sociale media te beoordelen.

Open source wordt mogelijk gemaakt door het Omidyar Network. Alle open source content is redactioneel onafhankelijk en geproduceerd door onze journalisten.