“Artificial Intelligence (AI) biedt veel kansen voor mensen, organisaties, overheden en de samenleving”, zegt programmamanager Mieke van Heesewijk van SIDN fonds . “Maar er liggen ook risico’s op de loer, zoals bias in data en AI-algoritmes die tot discriminatie leiden, schending van privacyrechten, veiligheidsissues, impact op het milieu, manipulatie, desinformatie en polarisatie.”
Daarom gingen Topsector ICT en SIDN fonds in 2025 op zoek naar vernieuwende onderzoeksprojecten die praktijkoplossingen bieden voor Responsible AI. 
Samenwerking vergroot slagkracht
De twee organisaties werken voor het eerst samen binnen een gezamenlijke themacall. “Door de krachten te bundelen ontstaan meer mogelijkheden om vernieuwende concepten en toepassingen te ondersteunen, die AI op een verantwoorde manier inzetten”, zegt directeur Frits Grotenhuis van Topsector ICT. 
Van Heesewijk: “SIDN fonds werkt graag en vaak samen met andere fondsen. Zo bundel je niet alleen expertise uit verschillende hoeken, maar vergroot bovendien je slagkracht. Op die manier kun je de resultaten uit themacalls versterken. Je leert elkaar bovendien binnen dit soort samenwerkingen goed kennen en wisselt volop ervaringen uit. Zo ontstaan vaak ook ideeën voor toekomstige samenwerkingen, in welke vorm dan ook.”
Wisselwerking tussen theorie en praktijk
Over de opzet van de call is goed nagedacht. Van Heesewijk: “We wilden met deze call ervoor zorgen dat er niet alleen wordt gesproken over hoe je AI verantwoord kunt inzetten, maar dat die inzichten ook vertaald worden in de praktijk.” 
Grotenhuis: “Om die reden ondersteunen we binnen deze call verschillende consortia van kennisinstellingen en bedrijven, die samen daadwerkelijk concrete en vernieuwende praktijkoplossingen ontwikkelen.”
Zo ontstonden mooie samenwerkingen. Bijvoorbeeld binnen een project dat organisaties wil helpen om regelmatig te beoordelen of de AI die ze gebruiken nog steeds doet wat de bedoeling is: Functioneringsgesprek voor AI (FG-AI). Binnen dit project werkt de Universiteit Utrecht samen met de Rijksinspectie Digitale Infrastructuur, de Nederlandse Voedsel- en Warenautoriteit en Berenschot Groep BV. Gezamenlijk gaan ze verder met een bestaand project dat moet resulteren in een web-app die organisaties helpt om AI te monitoren.
“In co-creatie-sessies verzamelen wij de praktijkervaringen van toezichthoudende instanties en horen ook over de pijnpunten waar ze tegenaan lopen”, zegt Julia Straatman. Zij is onderzoeker bij Data School, Universiteit Utrecht (UU), waar ze zich richt op digitale ethiek binnen Nederlandse (overheids)organisaties. “Toezicht op AI is voor deze instanties een nieuw veld. Zij zoeken handvatten om te bepalen hoe zij dit toezicht in de praktijk effectief kunnen inrichten.”
De dilemma’s van app-ontwikkelaars in de praktijk volgen
Ook een consortium dat zich richt op apps voor menstruatie- en vruchtbaarheidstracking is een mooi voorbeeld van hoe theoretisch onderzoek kan profiteren van praktijkkennis en andersom. Het consortium onderzoekt hoe ‘Femtech’ op een verantwoorde manier kan worden ontwikkeld. Daarvoor werkt de Vrije Universiteit samen met het Feminist Generative AI Lab (een initiatief van de TU Delft en Erasmus Universiteit) en bedrijven Yoni en 28X binnen het project The Responsible Design and Use of AI-Driven Period and Fertility Tracking Technologies ("Femtech").
Het projectteam wil de ethische risico's van bestaande AI-gedreven apps in kaart brengen, zoals vraagstukken rondom transparantie, eerlijkheid en verantwoordelijkheid. Daarbij interacteren ze met het Feminist Generative Lab, dat nadenkt over de vraag hoe je technologie vanuit een feministisch perspectief ontwikkelt. 
“De samenwerking met 28X geeft ons als onderzoekers de kans om van dichtbij te volgen hoe de ontwikkeling van een app waar bijvoorbeeld privacy en inclusiviteit voorop staatin de praktijk verloopt” zegt universitair docent Tamara Thuisvan de School of Business and Economics, Knowledge, Information and Innovation aan de Vrije Universiteit Amsterdam. “Wat komt er bij kijken om een verantwoordelijk wijze een AI-gedreven FemTech app te ontwikkelen”? Welke dilemma’s komen ze tijdens dit ontwikkelproces tegen?” 
Samen met Yoni, 28X en FemTech experts, willen de onderzoekers een hulpmiddel ontwikkelen dat gebruikers helpt beslissen welke app het beste past bij hun behoeftes. Bijvoorbeeld op het gebied van privacy, transparantie over gebruikte algoritmes en aanspreektoon. “Menstruatieproductenbedrijf Yoni gaat online in verschillende formats zoals social media, blogs en een podcast onze inzichten helpen verspreiden."
Kruisbestuiving binnen de bibliotheekwereld
Ook aanwezig op de dag zijn twee consortia die beiden willen bijdragen aan het transparanter maken van boekaanbevelingen binnen bibliotheken. 
Openbare bibliotheken zijn tot nu toe terughoudend om die te implementeren, uit angst voor bias, stereotypering en filterbubbels. Dat is jammer, want aanbevelingen zouden de dienstverlening wel kunnen verbeteren. Die lacune wordt nu aangepakt, binnen een samenwerking tussen het Centrum Wiskunde en Informatica (CWI), KB (National Library of the Netherlands) en Bookarang BV. 
Binnen het project ‘DiBiLi’ ontwikkelt dit team een diagnostisch dashboard om bias in uitleenpatronen en aanbevelingsresultaten van veelgebruikte algoritmen te visualiseren. Onderzoeker Laura Hollink van het CWI: “KB heeft ons bij dit project betrokken omdat ze graag een verbinding willen leggen tussen theorie en praktijk. Het is om die reden ook essentieel dat softwarebedrijven meewerken binnen ons project. Bibliotheken leren zo hoe en welke software-eisen zij aan leveranciers kunnen stellen. Tegelijkertijd krijgt de industrie krijgt een inkijkje in de leefwereld en concrete behoeftes van hun klanten.”
Boekaanbevelingen samen transparanter maken
Het consortium achter het ‘DiBiLi’-project zocht al voor de startbijeenkomst in september contact met een ander projectteam binnen dezelfde themacall, dat zich richt op Verantwoorde AI in de bibliotheek.
Dat gebeurt door het uitbreiden van een bestaande AI-boekenadviseur – Boekbot – met een raamwerk voor uitlegbare, eerlijke en gebruiksvriendelijke AI in bibliotheken. Het project wordt uitgevoerd door een consortium dat bestaat uit de Technische Universiteit Eindhoven, Jheronimus Academy of Data Science (JADS), Datacation en Bibliotheek Eindhoven – die laatste namens 8 samenwerkende bibliotheken in Brainport regio. 
“De inzichten uit DiBiLi kunnen we binnen ons project gebruiken om ervoor te zorgen dat ons AI-systeem minder bevooroordeeld gaat zijn”, zegt ingenieur van het Jaar Meike Nauta van Datacation, die promoveerde op een onderzoek naar explainable AI en meewerkte aan de tweede versie van Boekbot. “Aan de andere kant levert ons project hen dan weer een extra dataset voor het ‘DiBiLi’-project op. Ook kunnen wij hun inzichten in de praktijk testen.”
Van elkaar leren
Van Heesewijk: “Op bijeenkomsten als deze – die we aan de start van projecten organiseren, maar ook na afronding - kunnen verschillende projectteams elkaars projecten nog beter leren kennen. Elk projectteam krijgt tien minuten om hun project toe te lichten, waarna iedereen vragen kan stellen. Doordat partijen in hetzelfde domein actief zijn, kunnen die vragen projectpartners echt aan het denken zetten en tot net andere, effectievere invalshoeken leiden. We zijn blij om te zien dat binnen deze call wordt samengewerkt op vele niveaus: tussen de fondsen, binnen consortia en tussen consortia. Door die samenwerking kunnen partijen van elkaar leren en elkaar zo verder helpen om AI op een verantwoorde manier toe te passen.”
        
    
    Responsible AI in de praktijk
SIDN fonds ondersteunt dit project na een oproep om voorstellen in te dienen die zich richten op ‘Responsible AI in de praktijk'. We waren voor deze themacall op zoek naar vernieuwende onderzoeksprojecten die praktijkoplossingen bieden voor responsible AI. 
Samen met Topsector ICT selecteerden we in totaal tien projecten.