Terug naar overzicht

Explaining Fairness scores of AI-based assurance risk and analytics Responsibly (eFAIR)

organisaties helpen voldoen aan wet- en regelgeving (zoals de AI Act)

  • Hogeschool Utrecht - Huib Aldewereld, Rijk Mercuur, Danielle Sent
  • 2025
  • Responsible AI in de praktijk

Hoe kunnen we garanderen dat AI-beslissingen gerechtvaardigd zijn en geen onbedoelde vooroordelen of discriminatie in stand houden? Binnen het eFAIR-project ontwikkelen de Hogeschool Utrecht, Jheronimus Academy of Data Science (JADS), MavenBlue en het Verbond van Verzekeraars een raamwerk waarmee organisaties kunnen laten zien welke fairness-maten er ten grondslag liggen aan beslissingen die door AI zijn genomen.

Project | 252024 | Explaining Fairness scores of AI-based assurance risk and analytics Responsibly (eFAIR) pexels-pavel-danilyuk-8112201.jpg

AI-systemen worden steeds vaker gebruikt om geautomatiseerde beslissingen te nemen, maar het gebrek aan transparantie zorgt voor ethische en juridische vraagstukken. Dit geldt vooral wanneer AI wordt ingezet in sectoren die invloed hebben op het dagelijkse leven van burgers, zoals in de financiële sector, gezondheidszorg en rechtspraak.

Binnen deze context is eerlijkheid (fairness) een cruciale factor: hoe kunnen we garanderen dat AI-beslissingen gerechtvaardigd zijn en geen onbedoelde vooroordelen of discriminatie in stand houden? Hoewel er in de wetenschap verschillen manieren bestaan om fairness te meten, is het voor veel gebruikers moeilijk te begrijpen wat deze betekenen en hoe ze in de praktijk kunnen worden toegepast.

Organisaties helpen voldoen aan wet- en regelgeving

Het eFAIR-project onderzoekt hoe Explainable AI (XAI) kan bijdragen aan het transparant en begrijpelijk maken van fairness-maten en fairness-principes voor verschillende gebruikersgroepen. Het project ontwikkelt een raamwerk dat fairness-maten dynamisch presenteert, rekening houdend met de kennis en behoeften van specifieke gebruikersgroepen. Het raamwerk zal interactief en modulair zijn, zodat het kan worden aangepast aan verschillende gebruikers, van technische experts tot beleidsmakers en eindgebruikers.

Door AI-beslissingen beter begrijpelijk te maken, helpen we organisaties te voldoen aan wet- en regelgeving (zoals de AI Act) en het vertrouwen in AI-systemen te vergroten.

Het raamwerk wordt gevalideerd aan de hand van concrete casestudies binnen de verzekeringssector, waar fairness een bijzonder gevoelig onderwerp is, maar er wordt ook gekeken naar toepasbaarheid in andere sectoren, zoals gezondheidszorg en rechtspraak.

Responsible AI in de praktijk

SIDN fonds ondersteunt dit project na een oproep om voorstellen in te dienen die zich richten op ‘Responsible AI in de praktijk'. We waren voor deze themacall op zoek naar vernieuwende onderzoeksprojecten die praktijkoplossingen bieden voor responsible AI.

Samen met Topsector ICT selecteerden we in totaal tien projecten.