Terug naar overzicht

Explaining Fairness scores of AI-based assurance risk and analytics Responsibly (eFAIR)

organisaties helpen voldoen aan wet- en regelgeving (zoals de AI Act)

  • Huib Aldewereld
  • 2025
  • Responsible AI in de praktijk

Het eFAIR-project ontwikkelt een raamwerk dat fairness-maten dynamisch presenteert, rekening houdend met de kennis en behoeften van specifieke gebruikersgroepen.

Project | 252024 | Explaining Fairness scores of AI-based assurance risk and analytics Responsibly (eFAIR) pexels-pavel-danilyuk-8112201.jpg

AI-systemen worden steeds vaker gebruikt om geautomatiseerde beslissingen te nemen, maar het gebrek aan transparantie zorgt voor ethische en juridische vraagstukken. Dit geldt vooral wanneer AI wordt ingezet in sectoren die invloed hebben op het dagelijkse leven van burgers, zoals in de financiële sector, gezondheidszorg en rechtspraak. Binnen deze context is eerlijkheid (fairness) een cruciale factor: hoe kunnen we garanderen dat AI-beslissingen gerechtvaardigd zijn en geen onbedoelde vooroordelen of discriminatie in stand houden? Hoewel er in de wetenschap verschillen manieren bestaan om fairness te meten, is het voor veel gebruikers moeilijk te begrijpen wat deze betekenen en hoe ze in de praktijk kunnen worden toegepast.

Het eFAIR-project onderzoekt hoe Explainable AI (XAI) kan bijdragen aan het transparant en begrijpelijk maken van fairness-maten en fairness-principes voor verschillende gebruikersgroepen. Het project ontwikkelt een raamwerk dat fairness-maten dynamisch presenteert, rekening houdend met de kennis en behoeften van specifieke gebruikersgroepen. Het raamwerk zal interactief en modulair zijn, zodat het kan worden aangepast aan verschillende gebruikers, van technische experts tot beleidsmakers en eindgebruikers.

Door AI-beslissingen beter begrijpbaar te maken, helpen we organisaties te voldoen aan wet- en regelgeving (zoals de AI Act) en het vertrouwen in AI-systemen te vergroten. Het raamwerk wordt gevalideerd aan de hand van concrete casestudies binnen de verzekeringssector, waar fairness een bijzonder gevoelig onderwerp is, maar er wordt ook gekeken naar toepasbaarheid in andere sectoren, zoals gezondheidszorg en rechtspraak.

Responsible AI in de praktijk

SIDN fonds ondersteunt dit project na een oproep om voorstellen in te dienen die zich richten op ‘Responsible AI in de praktijk'. We waren voor deze themacall op zoek naar vernieuwende onderzoeksprojecten die praktijkoplossingen bieden voor responsible AI.

Samen met Topsector ICT selecteerden we in totaal tien projecten.