Bias Neutraliser

CorTexter ontwikkelt een deep learning software om onbedoelde vooroordelen in recruitmentteksten te herkennen en te neutraliseren, waardoor gelijke kansen voor werkzoekenden worden bevorderd.

Subsidie
€ 20.000
2021

Projectdetails

Inleiding

Een arbeidsmarkt hoort voor iedere werkzoekende gelijke kansen te bieden, ongeacht geslacht, leeftijd, etnisch-culturele achtergrond of andere kenmerken die een waardevrije beoordeling in de weg staan. In HR en specifiek in recruitment wordt momenteel echter weinig gebruikgemaakt van datagedreven oplossingen om die gelijke kansen aan werkzoekenden te bieden. Hoe kunnen we dat oplossen?

Huidige Oplossingen

Er bestaan momenteel enkele oplossingen die geprogrammeerd zijn om onbedoelde vooroordelen te herkennen en zelfs suggesties voor vervangwoorden te doen. Dit is weliswaar ontwikkeld met behulp van geavanceerde academische onderzoeken, maar door veranderingen in taal, cultuur en maatschappelijke normen is het moeilijk te onderhouden en niet gevoelig voor regionale verschillen of schaalbaar naar andere talen en culturen.

Nieuwe Softwareontwikkeling

CorTexter wil een nieuwe generatie software ontwikkelen die zelfstandig (met behulp van deep learning) regionale verschillen herkent en adequate respons daarop genereert, die relatief snel in andere talen en culturen kan worden toegepast. Op deze manier creëert CorTexter een oplossing die alle teksten in recruitment (denk aan vacatures, advertenties en interviewverslagen) voorziet van analyse op onbedoelde vooroordelen en suggesties geeft voor een betere tekst. En zo komt de droom van een diverse en inclusieve samenleving dichterbij.

Implementatie

De nieuwe software wordt aangeboden aan recruiters via bestaande technologische platformen die ze al gebruiken, zoals ATS'en (Applicant Tracking Systems). Voor de training van een dergelijk systeem heeft CorTexter heel veel data nodig (big data) en zij ontwikkelt op basis daarvan nieuwe deep learning AI-modellen.

Team en Expertise

Het team bij CorTexter heeft ervaring in taalanalyse, Natural Language Processing, bias-onderzoek en deep learning en is daardoor in staat om invulling te geven aan dit project.

Toekomstige Impact

Als dit onderzoek slaagt en we de software kunnen maken, zijn we in staat om vooroordelen te herkennen en te neutraliseren.

Financiële details & Tijdlijn

Financiële details

Subsidiebedrag€ 20.000

Tijdlijn

StartdatumOnbekend
EinddatumOnbekend
Subsidiejaar2021

Partners & Locaties

Projectpartners

  • Cortexter Technologiespenvoerder

Land(en)

Netherlands

Vergelijkbare projecten binnen MIT Haalbaarheid

Mkb-innovati...

CorTexter

CorTexter ontwikkelt een inclusieve tool voor datagedreven screening en matching, die biases voorkomt en aanvullende informatie benut om eerlijke arbeidskansen te bevorderen.

€ 20.000
Mkb-innovati...

Bias Score for Recruitment software

BCR ontwikkelt een tool om bias in recruitmentsoftware te identificeren en te verminderen, waardoor inclusiviteit en de beste kandidaten worden bevorderd.

€ 20.000
Mkb-innovati...

Discrimination Detection Tool (DDT)

Textmetrics en Textgain ontwikkelen een AI-gestuurde Discriminatie Detectie Tool om discriminerende vacatureteksten eenvoudig te identificeren en te verbeteren, met focus op haalbaarheid.

€ 20.000
Mkb-innovati...

BiasScore

BiasScore biedt een innovatieve oplossing om genderbias in geschreven content te identificeren en te waarborgen dat deze inclusief is.

€ 20.000
Mkb-innovati...

Project Hominis

Het project richt zich op het ontwikkelen van een ethisch AI-systeem voor natuurlijke taalverwerking dat vooroordelen minimaliseert en technische, economische en regelgevingsrisico's beheert.

€ 20.000

Vergelijkbare projecten uit andere regelingen

ERC Proof of...

Responsive classifiers against hate speech in low-resource settings

Respond2Hate aims to empower users in low-resource settings to locally filter hate speech from social media using adaptive NLP models, enhancing online safety without relying on tech companies.

€ 150.000
ERC Starting...

Diving into Data Diversity for Fair and Robust Natural Language Processing

DataDivers aims to create a framework for measuring data diversity in NLP datasets to enhance model fairness and robustness through empirical and theoretical insights.

€ 1.500.000
ERC Consolid...

Natural Language Understanding for non-standard languages and dialects

DIALECT aims to enhance Natural Language Understanding by developing algorithms that integrate dialectal variation and reduce bias in data and labels for fairer, more accurate language models.

€ 1.997.815
ERC Starting...

Next-Generation Natural Language Generation

This project aims to enhance natural language generation by integrating neural models with symbolic representations for better control, adaptability, and reliable evaluation across various applications.

€ 1.420.375
ERC Starting...

Personalized and Subjective approaches to Natural Language Processing

PERSONAE aims to revolutionize NLP by developing personalizable language technologies that empower individuals to adapt subjective tasks like sentiment analysis and abusive language detection.

€ 1.499.775