Grensverleggende projecten op het snijvlak van technologie en samenleving

  • 251007 FactStream AI - Responsible AI - Paris-peace-forum-picture

    Factstream AI – Zekerheid in een Nieuw Systeem

    Factstream AI is een AI-gestuurde applicatie die betrouwbare, begrijpelijke en toegankelijke informatie biedt over wetten, regels en instanties in Nederland.

    Lees meer
  • 251022 | De Taalassistent Onze Taal screenshot

    De Taalassistent

    AI kan veel, maar kan het ook taalvragen beantwoorden? De Taaladviesdienst van Onze Taal gaat het onderzoeken door een taalmodel te trainen op het enorme taalvragenarchief van Onze Taal. Als het lukt om daar betrouwbare taaladviezen mee te genereren, volgt stap 2: het ontwikkelen van een gratis online taaladviseur: de Taalassistent.

    Lees meer
  • Project | 244005 Hoe het net werkt 4096-2896-max.png

    Hoe Het Net Werkt

    “Hoe Het Net Werkt” is een visualisatie van de werking van het internet. Het stelt het internet voor als een postsysteem: welke stappen zijn er nodig om een pakketje verstuurd te krijgen? Daarbij legt het de protocollen, organisaties en infrastructuur uit, die samen het internet maken.

    Lees meer
  • Project | 252024 | Explaining Fairness scores of AI-based assurance risk and analytics Responsibly (eFAIR) pexels-pavel-danilyuk-8112201.jpg

    Explaining Fairness scores of AI-based assurance risk and analytics Responsibly (eFAIR)

    Het eFAIR-project onderzoekt hoe Explainable AI (XAI) kan bijdragen aan het transparant en begrijpelijk maken van fairness-maten en fairness-principes voor verschillende gebruikersgroepen.

    Lees meer
  • 250002 Wij zijn het web 2_header Peter König voor NEMO Kennislink SIDN fonds

    Wij zijn het web

    Wij zijn het web is een constructief-journalistiek project waarin NEMO Kennislink onderzoekt op welke manieren burgers en publieke instellingen afhankelijk zijn van grote (Amerikaanse) techbedrijven en welke oplossingen er zijn om hun autonomie te vergroten.

    Lees meer
  • Femtech shockbeeld

    Verantwoord ontwerp en gebruik van AI-gedreven menstruatie- en vruchtbaarheidstechnologieën (FemTech)

    Hoe ontwerp en gebruik je AI-algoritmes op een verantwoorde manier binnen Femtech-producten zoals apps voor het tracken van de menstruatiecyclus en vruchtbaarheid? Dat wordt onderzocht binnen dit project.

    Lees meer
  • 252025 | Fair AI Attribution (FAIA) 01

    Fair AI Attribution (FAIA)

    Het Centre for Digital Scholarship (CDS) van de Universiteit Leiden, Liccium, en de GO FAIR Foundation ontwikkelen FAIA (Fair AI Attribution Framework): een open standaard die laat zien hoe en in welke mate AI een rol speelde bij de productie van specifieke digitale content.

    Lees meer
  • 252028 | Responsible AI for Clinical Decision Support RACliDeS pexels-cottonbro-7578803.jpg

    Responsible AI for Clinical Decision Support (RACliDeS)

    Het ELSA-lab van de Radboud Universiteit onderzoekt met steun van SIDN fonds we wat er nodig is – zowel technisch, juridisch als medisch-ethisch – om er voor te zorgen dat arts en patiënt op een betrouwbare en verantwoordelijke manier gebruik kunnen maken van AI-technologie zonder de grip op hun eigen besluitvorming te verliezen.

    Lees meer
  • Project | 252010 | Validatiekader betrouwbare LLMs voor publieke informatievoorziening

    Validatiekader betrouwbare LLMs voor publieke informatievoorziening

    De Technische Universiteit Eindhoven, voorRecht-rechtspraak, Stichting Algorithm Audit, T&T Data Consultancy en Deloitte Consultative Services ontwikkelen een praktisch validatiekader voor de verantwoorde inzet van Large Language Models (LLMs) in de publieke sector, gebaseerd op een succesvolle pilot van voorRecht-Rechtspraak.

    Lees meer
  • verkeerskruispunt Democratie in het Verkeer| project 252002 |- een 5-sterrenmodel voor verantwoorde inzet van iVRIs.png

    Democratie in het Verkeer - een 5-sterrenmodel voor verantwoorde inzet van iVRI’s

    De Rijksuniversiteit Groningen en The Green Land ontwikkelen een 5-sterrenmodel om gemeenten te helpen bij het democratisch verantwoord inzetten van intelligente verkeerslichten (iVRI’s). Overheden kunnen het model gebruiken om publieke waarden te waarborgen, zoals transparantie, eerlijke afweging van belangen en burgerparticipatie bij AI-gestuurde verkeerssystemen.

    Lees meer