Sinds de doorbraak van ChatGPT experimenteren organisaties volop met Large Language Models (LLMs). LLMs stellen organisaties in staat burgers en klanten snel, gericht en in begrijpelijke taal van informatie te voorzien.
Tegelijkertijd roept de inzet ook lastige vragen op, zoals: welke data kunnen veilig worden gedeeld? In hoeverre kan gebruik worden gemaakt van commerciële LLMs? Hoe test je een LLM op betrouwbaarheid? Door de snelle opmars van LLMs is er beperkte publieke kennis over verantwoorde inzet van de AI-modellen.
Op basis van de prijswinnende pilot voorRecht-rechtspraak van de Rechtspraak ontwikkelen de projectdeelnemers een praktisch toepasbaar validatiekader voor de verantwoorde inzet van LLMs voor publieke informatievoorziening.
Daarmee doorbreekt dit project de verkokering waarbinnen LLMs momenteel worden ontwikkeld. Het draagt bovendien bij aan publieke kennisopbouw voor zowel de private als publieke sector over de verantwoorde inzet van deze nieuwe technologie.
De resultaten worden medio februari 2026 gepubliceerd.
Responsible AI in de praktijk
SIDN fonds ondersteunt dit project na een oproep om voorstellen in te dienen die zich richten op ‘Responsible AI in de praktijk'. We waren voor deze themacall op zoek naar vernieuwende onderzoeksprojecten die praktijkoplossingen bieden voor responsible AI.
Samen met Topsector ICT selecteerden we in totaal tien projecten.