Terug naar overzicht

DiBiLi: Diagnosing Bias in Library Recommender Systems

diagnostisch dashboard om bias in uitleenpatronen en aanbevelingsresultaten van veelgebruikte algoritmen voor bibliotheekaanbevelingen te visualiseren

  • Savvina Daniil
  • 2025
  • Responsible AI in de praktijk

Centrum Wiskunde en Informatica, KB (National Library of the Netherlands), Simon Dirks softwarebedrijf en Bookarang BV ontwikkelen een diagnostisch dashboard om bias in bibliotheekaanbevelingen zichtbaar te maken. Het dashboard analyseert leengedrag en aanbevolen boekenlijsten, met speciale aandacht voor vooroordelen tegenover bepaalde auteursgroepen.

Liggend - project 252013 |DiBiLi - Diagnosing Bias in Library Recommender Systems emil-widlund-xrbbXIXAWY0-unsplash.png

Aanbevelingssystemen bepalen een groot deel van onze digitale ervaring, met name in cultuur en media. Hoewel ze de dienstverlening in openbare instellingen zoals bibliotheken kunnen verbeteren door gepersonaliseerde suggesties te bieden, roepen ze ook zorgen op over bias, stereotypering en filterbubbels.

Dit heeft openbare bibliotheken terughoudend gemaakt om zulke technologieën te implementeren, uit angst voor schending van waarden zoals inclusie.

Onderzoek ondersteunt deze zorgen en benadrukt bias in aanbevelingen, zoals die welke bepaalde auteursgroepen bevoordelen. Desondanks blijven vooroordelen in boekaanbevelingen onderbelicht en missen bibliotheken duidelijke richtlijnen voor het ontwikkelen van verantwoorde aanbevelingssystemen.

Diagnostisch dashboard

Dit project, een samenwerking tussen het Centrum Wiskunde en Informatica (CWI), de KB, Bookarang en het softwarebedrijf van Simon Dirks, beoogt deze lacune aan te pakken. Het team ontwikkelt een diagnostisch dashboard om bias in uitleenpatronen en aanbevelingsresultaten van veelgebruikte algoritmen te visualiseren.

De focus ligt op het identificeren en begrijpen van auteurs-gerelateerde bias. Het project zal rapporteren over de soorten en de omvang van de gedetecteerde bias, effectieve visualisatie-technieken voor bias en de vereisten voor het ontwikkelen van visualisatie-tools.

Kennis- en Innovatieagenda

Voortbouwend op eerdere samenwerkingen, waaronder het onderzoek van promovendus Savvina Daniil naar verantwoorde aanbevelers, draagt ​​dit initiatief bij aan het Kennis- en Innovatieagenda (KIA)-digitaliseringsthema 'Reflectie'.

Het onderzoek ondersteunt daarnaast toekomstige ontwikkelingen van de KB ondersteunen, waaronder een nieuw gepersonaliseerd online Bibliotheek-platform. Ook bied het praktische inzichten aan ICT-bedrijven en brengt een bredere discussies over ethiek in AI op gang.

Responsible AI in de praktijk

SIDN fonds ondersteunt dit project na een oproep om voorstellen in te dienen die zich richten op ‘Responsible AI in de praktijk'. We waren voor deze themacall op zoek naar vernieuwende onderzoeksprojecten die praktijkoplossingen bieden voor responsible AI.

Samen met Topsector ICT selecteerden we in totaal tien projecten.