In 2025 schreven we samen met Digital Holland de call ‘Responsible AI in de praktijk’ uit. We zochten projecten waarbinnen kaders en tools worden geconcretiseerd voor het verantwoord toepassen van AI in de praktijk.

Artificial Intelligence (AI) heeft biedt veel kansen voor mensen, organisaties, overheden en de samenleving. Maar er liggen ook serieuze risico’s op de loer, zoals bias in data en AI-algoritmes die tot discriminatie leiden, schending van privacy rechten, veiligheidsissues, impact op het milieu, manipulatie, desinformatie en polarisatie.

Op deze pagina vind je alle relevante informatie over dit thema, waaronder een overzicht van de projecten en ontwikkelde tools.

Grote behoefte aan praktische tools en heldere richtlijnen

De nog prille bieden (juridische) kaders over het verantwoord en veilig omgaan met AI, zoals de Europese AI Act, bieden helaas nog weinig houvast. Die kaders zijn voor een verantwoorde ontwikkeling en toepassing van AI in de praktijk nog moeilijk toepasbaar. En dat terwijl er juist een grote behoefte is aan praktische tools en heldere richtlijnen om verantwoord om te gaan met data en algoritmes.

Verantwoord en veilig gebruik van AI

De uitdaging op dit moment is om concrete handelingsperspectieven te ontwikkelen om AI op een verantwoorde en veilige manier in te kunnen zetten. Hier wordt bijvoorbeeld in Nederland al aan gewerkt in de zogenaamde ELSA Labs, waarin juist de ethische, juridische en maatschappelijke aspecten van digitalisering en AI centraal staan. ELSA Labs – samenwerkingsverbanden tussen kennisinstellingen, bedrijven, maatschappelijke organisaties en de overheid – zijn een inspirerend voorbeeld van hoe de ontwikkeling van verantwoorde, mensgerichte AI-toepassingen vorm kan krijgen.