Terug naar overzicht

Validatiekader betrouwbare LLMs voor publieke informatievoorziening

verantwoorde inzet van AI-modellen

De Technische Universiteit Eindhoven, voorRecht-rechtspraak, Stichting Algorithm Audit ,T&T Data Consultancy en Deloitte Consultative Services ontwikkelen een praktisch validatiekader voor de verantwoorde inzet van Large Language Models (LLMs) in de publieke sector, gebaseerd op een succesvolle pilot van voorRecht-Rechtspraak.

Project | 252010 | Validatiekader betrouwbare LLMs voor publieke informatievoorziening

Sinds de doorbraak van ChatGPT experimenteren organisaties volop met Large Language Models (LLMs). LLMs stellen organisaties in staat burgers en klanten snel, gericht en in begrijpelijke taal van informatie te voorzien.

Tegelijkertijd roept de inzet ook lastige vragen op, zoals: welke data kunnen veilig worden gedeeld? In hoeverre kan gebruik worden gemaakt van commerciële LLMs? Hoe test je een LLM op betrouwbaarheid? Door de snelle opmars van LLMs is er beperkte publieke kennis over verantwoorde inzet van de AI-modellen.

Validatiekader voor de verantwoorde inzet van LLMs voor publieke informatievoorziening

Op basis van de prijswinnende pilot voorRecht-rechtspraak van de Rechtspraak ontwikkelen de projectdeelnemers een praktisch toepasbaar validatiekader voor de verantwoorde inzet van LLMs voor publieke informatievoorziening.

Daarmee doorbreekt dit project de verkokering waarbinnen LLMs momenteel worden ontwikkeld. Het draagt bovendien bij aan publieke kennisopbouw voor zowel de private als publieke sector over de verantwoorde inzet van deze nieuwe technologie.

De resultaten worden medio februari 2026 gepubliceerd.

Responsible AI in de praktijk

SIDN fonds ondersteunt dit project na een oproep om voorstellen in te dienen die zich richten op ‘Responsible AI in de praktijk'. We waren voor deze themacall op zoek naar vernieuwende onderzoeksprojecten die praktijkoplossingen bieden voor responsible AI.

Samen met Topsector ICT selecteerden we in totaal tien projecten.