Bias Neutraliser
CorTexter ontwikkelt een deep learning software om onbedoelde vooroordelen in recruitmentteksten te herkennen en te neutraliseren, waardoor gelijke kansen voor werkzoekenden worden bevorderd.
Projectdetails
Inleiding
Een arbeidsmarkt hoort voor iedere werkzoekende gelijke kansen te bieden, ongeacht geslacht, leeftijd, etnisch-culturele achtergrond of andere kenmerken die een waardevrije beoordeling in de weg staan. In HR en specifiek in recruitment wordt momenteel echter weinig gebruikgemaakt van datagedreven oplossingen om die gelijke kansen aan werkzoekenden te bieden. Hoe kunnen we dat oplossen?
Huidige Oplossingen
Er bestaan momenteel enkele oplossingen die geprogrammeerd zijn om onbedoelde vooroordelen te herkennen en zelfs suggesties voor vervangwoorden te doen. Dit is weliswaar ontwikkeld met behulp van geavanceerde academische onderzoeken, maar door veranderingen in taal, cultuur en maatschappelijke normen is het moeilijk te onderhouden en niet gevoelig voor regionale verschillen of schaalbaar naar andere talen en culturen.
Nieuwe Softwareontwikkeling
CorTexter wil een nieuwe generatie software ontwikkelen die zelfstandig (met behulp van deep learning) regionale verschillen herkent en adequate respons daarop genereert, die relatief snel in andere talen en culturen kan worden toegepast. Op deze manier creëert CorTexter een oplossing die alle teksten in recruitment (denk aan vacatures, advertenties en interviewverslagen) voorziet van analyse op onbedoelde vooroordelen en suggesties geeft voor een betere tekst. En zo komt de droom van een diverse en inclusieve samenleving dichterbij.
Implementatie
De nieuwe software wordt aangeboden aan recruiters via bestaande technologische platformen die ze al gebruiken, zoals ATS'en (Applicant Tracking Systems). Voor de training van een dergelijk systeem heeft CorTexter heel veel data nodig (big data) en zij ontwikkelt op basis daarvan nieuwe deep learning AI-modellen.
Team en Expertise
Het team bij CorTexter heeft ervaring in taalanalyse, Natural Language Processing, bias-onderzoek en deep learning en is daardoor in staat om invulling te geven aan dit project.
Toekomstige Impact
Als dit onderzoek slaagt en we de software kunnen maken, zijn we in staat om vooroordelen te herkennen en te neutraliseren.
Financiële details & Tijdlijn
Financiële details
Subsidiebedrag | € 20.000 |
Tijdlijn
Startdatum | Onbekend |
Einddatum | Onbekend |
Subsidiejaar | 2021 |
Partners & Locaties
Projectpartners
- Cortexter Technologiespenvoerder
Land(en)
Vergelijkbare projecten binnen MIT Haalbaarheid
Project | Regeling | Bedrag | Jaar | Actie |
---|---|---|---|---|
CorTexterCorTexter ontwikkelt een inclusieve tool voor datagedreven screening en matching, die biases voorkomt en aanvullende informatie benut om eerlijke arbeidskansen te bevorderen. | Mkb-innovati... | € 20.000 | 2020 | Details |
Bias Score for Recruitment softwareBCR ontwikkelt een tool om bias in recruitmentsoftware te identificeren en te verminderen, waardoor inclusiviteit en de beste kandidaten worden bevorderd. | Mkb-innovati... | € 20.000 | 2022 | Details |
Discrimination Detection Tool (DDT)Textmetrics en Textgain ontwikkelen een AI-gestuurde Discriminatie Detectie Tool om discriminerende vacatureteksten eenvoudig te identificeren en te verbeteren, met focus op haalbaarheid. | Mkb-innovati... | € 20.000 | 2021 | Details |
BiasScoreBiasScore biedt een innovatieve oplossing om genderbias in geschreven content te identificeren en te waarborgen dat deze inclusief is. | Mkb-innovati... | € 20.000 | 2023 | Details |
Project HominisHet project richt zich op het ontwikkelen van een ethisch AI-systeem voor natuurlijke taalverwerking dat vooroordelen minimaliseert en technische, economische en regelgevingsrisico's beheert. | Mkb-innovati... | € 20.000 | 2022 | Details |
CorTexter
CorTexter ontwikkelt een inclusieve tool voor datagedreven screening en matching, die biases voorkomt en aanvullende informatie benut om eerlijke arbeidskansen te bevorderen.
Bias Score for Recruitment software
BCR ontwikkelt een tool om bias in recruitmentsoftware te identificeren en te verminderen, waardoor inclusiviteit en de beste kandidaten worden bevorderd.
Discrimination Detection Tool (DDT)
Textmetrics en Textgain ontwikkelen een AI-gestuurde Discriminatie Detectie Tool om discriminerende vacatureteksten eenvoudig te identificeren en te verbeteren, met focus op haalbaarheid.
BiasScore
BiasScore biedt een innovatieve oplossing om genderbias in geschreven content te identificeren en te waarborgen dat deze inclusief is.
Project Hominis
Het project richt zich op het ontwikkelen van een ethisch AI-systeem voor natuurlijke taalverwerking dat vooroordelen minimaliseert en technische, economische en regelgevingsrisico's beheert.
Vergelijkbare projecten uit andere regelingen
Project | Regeling | Bedrag | Jaar | Actie |
---|---|---|---|---|
Responsive classifiers against hate speech in low-resource settingsRespond2Hate aims to empower users in low-resource settings to locally filter hate speech from social media using adaptive NLP models, enhancing online safety without relying on tech companies. | ERC Proof of... | € 150.000 | 2023 | Details |
Diving into Data Diversity for Fair and Robust Natural Language ProcessingDataDivers aims to create a framework for measuring data diversity in NLP datasets to enhance model fairness and robustness through empirical and theoretical insights. | ERC Starting... | € 1.500.000 | 2025 | Details |
Natural Language Understanding for non-standard languages and dialectsDIALECT aims to enhance Natural Language Understanding by developing algorithms that integrate dialectal variation and reduce bias in data and labels for fairer, more accurate language models. | ERC Consolid... | € 1.997.815 | 2022 | Details |
Next-Generation Natural Language GenerationThis project aims to enhance natural language generation by integrating neural models with symbolic representations for better control, adaptability, and reliable evaluation across various applications. | ERC Starting... | € 1.420.375 | 2022 | Details |
Personalized and Subjective approaches to Natural Language ProcessingPERSONAE aims to revolutionize NLP by developing personalizable language technologies that empower individuals to adapt subjective tasks like sentiment analysis and abusive language detection. | ERC Starting... | € 1.499.775 | 2024 | Details |
Responsive classifiers against hate speech in low-resource settings
Respond2Hate aims to empower users in low-resource settings to locally filter hate speech from social media using adaptive NLP models, enhancing online safety without relying on tech companies.
Diving into Data Diversity for Fair and Robust Natural Language Processing
DataDivers aims to create a framework for measuring data diversity in NLP datasets to enhance model fairness and robustness through empirical and theoretical insights.
Natural Language Understanding for non-standard languages and dialects
DIALECT aims to enhance Natural Language Understanding by developing algorithms that integrate dialectal variation and reduce bias in data and labels for fairer, more accurate language models.
Next-Generation Natural Language Generation
This project aims to enhance natural language generation by integrating neural models with symbolic representations for better control, adaptability, and reliable evaluation across various applications.
Personalized and Subjective approaches to Natural Language Processing
PERSONAE aims to revolutionize NLP by developing personalizable language technologies that empower individuals to adapt subjective tasks like sentiment analysis and abusive language detection.