Artificial Intelligence (AI) biedt veel kansen voor mensen, organisaties, overheden en de samenleving. Maar er liggen ook risico’s op de loer, zoals bias in data en AI-algoritmes die tot discriminatie leiden, schending van privacyrechten, veiligheidsissues, impact op het milieu, manipulatie, desinformatie en polarisatie.
De nog prille bieden (juridische) kaders over het verantwoord en veilig omgaan met AI, zoals de Europese AI Act, bieden nog weinig houvast. De uitdaging op dit moment is om concrete handelingsperspectieven te ontwikkelen om AI op een verantwoorde en veilige manier in te kunnen zetten. De call ‘Responsible AI in de praktijk’ is gericht op het concretiseren van kaders en tools om verantwoord gebruik van AI toe te passen in de praktijk.
10 projecten van start
Van alle binnengekomen aanvragen zijn er na een zorgvuldige beoordeling tien projecten toegekend:
Van Responsible AI naar Explainable AI bij het begrijpen van het online publieke debat
De Hogeschool Utrecht, de Gemeente Utrecht, Rijksdienst voor Ondernemend Nederland, Provincie Utrecht, Politie Nederland en V&R ontwikkelen een leeromgeving voor communicatieprofessionals om online polarisatie en desinformatie beter te analyseren.
Democratie in het Verkeer: een 5-sterrenmodel voor verantwoorde inzet van iVRI’s
De Rijksuniversiteit Groningen en The Green Land ontwikkelen een 5-sterrenmodel om gemeenten te helpen bij het democratisch verantwoord inzetten van intelligente verkeerslichten (iVRI’s). Overheden kunnen het model gebruiken om publieke waarden te waarborgen, zoals transparantie, eerlijke afweging van belangen en burgerparticipatie bij AI-gestuurde verkeerssystemen.
Validatiekader betrouwbare LLMs voor publieke informatievoorziening
De Technische Universiteit Eindhoven, voorRecht-rechtspraak, Stichting Algorithm Audit, T&T Data Consultancy en Deloitte Consultative Services ontwikkelen een praktisch validatiekader voor de verantwoorde inzet van Large Language Models (LLMs) in de publieke sector, gebaseerd op een succesvolle pilot van voorRecht-Rechtspraak.
Verantwoorde AI in de bibliotheek
De Technische Universiteit Eindhoven, Jheronimus Academy of Data Science (JADS), Datacation en Bibliotheek Eindhoven (namens 8 samenwerkende bibliotheken in Brainport regio) ontwikkelen een transparant en uitlegbaar AI-systeem voor bibliotheken, gebaseerd op de bestaande Boekbot (een AI-boekenadviseur). Zo ontstaat een raamwerk voor uitlegbare, eerlijke en gebruiksvriendelijke AI in bibliotheken, met concrete tools om transparantie te vergroten.
DiBiLi: Diagnosing Bias in Library Recommender Systems
Centrum Wiskunde en Informatica, KB (National Library of the Netherlands), Simon Dirks’ softwarebedrijf en Bookarang BV ontwikkelen een diagnostisch dashboard om bias in bibliotheekaanbevelingen zichtbaar te maken. Het dashboard analyseert leengedrag en aanbevolen boekenlijsten, met speciale aandacht voor vooroordelen tegenover bepaalde auteursgroepen.
The Responsible Design and Use of AI-Driven Period and Fertility Tracking Technologies ("Femtech")
De Vrije Universiteit, Feminist Generative AI Lab (een initiatief van de TU Delft en Erasmus Universiteit) onderzoeken samen met 'Femtech'-bedrijven Yoni.care en 28X onder welke omstandigheden AI-toepassingen in de FemTech-sector verantwoord toegepast kunnen worden. Het project richt zich specifiek op menstruatie- en fertiliteitstrackingapps. De projectleden brengen de risico's van bestaande AI-oplossingen in kaart, zoals ongefundeerde medische adviezen en privacyproblemen.
Functioneringsgesprek voor AI (FG-AI)
De Universiteit Utrecht, de Rijksinspectie Digitale Infrastructuur, de Nederlandse Voedsel- en Warenautoriteit en Berenschot Groep BV gaan verder met het ontwikkelen van een prototype van het Functioneringsgesprek voor AI. De nieuwe webapp helpt organisaties om AI te monitoren.
Explaining Fairness scores of AI-based assurance risk and analytics Responibly (eFAIR)
De Hogeschool Utrecht, Jheronimus Academy of Data Science (JADS), MavenBlue en het Verbond van Verzekeraars onderzoeken hoe Explainable AI kan bijdragen aan het transparant en begrijpelijk maken van fairness-maten en -principes voor verschillende gebruikersgroepen. Dit resulteert in een raamwerk dat fairness-maten dynamisch presenteert, rekening houdend met de kennis en behoeften van specifieke gebruikersgroepen.
Fair AI Attribution (FAIA)
Met de opkomst van generatieve AI wordt het steeds moeilijker om onderscheid te maken tussen door mensen gecreëerde content en door machines geproduceerde of bewerkte content. Universiteit Leiden, GO FAIR Foundation en Liccium BV creëren een standaard vocabulaire om inzichtelijk te maken dat digitale content met behulp van AI is gemaakt.
Responsible AI for Clinical Decision Support (RACliDeS)
Stichting Radboud Universiteit, de Universiteit Utrecht, Hanze Hogeschool, ConnectedCare Services B.V. en ICTRecht Amsterdam BV onderzoeken wat er technisch, juridisch, medisch-ethisch nodig is om ervoor te zorgen dat arts en patiënt op een betrouwbare en verantwoordelijke manier gebruik kunnen maken van AI-technologie zonder de grip op de besluitvorming te verliezen.
Wij feliciteren de projectteams en wensen hen veel succes met hun projecten.