jaarthema 2018: Responsible AI

‘Responsible AI’ #HoeDan?

Blog door Valerie Frissen / Responsible AI / 21 augustus 2018

In het voorjaar vinden in de VS altijd de grote conferenties plaats van de bekende techgiganten. Op die jaarlijkse oplopen ontvouwen bedrijven als Apple, Google, Facebook en Microsoft traditiegetrouw onder grote belangstelling hun plannen voor de komende tijd. In 2018 was de teneur van die plannen echter opvallend anders dan in de jaren daarvoor. Dit keer geen met groot gejuich ontvangen onthullingen van sexy gadgets of spectaculaire nieuwe toepassingen. De schandalen rond Cambridge Analytica, nepnieuws en politieke manipulatie brachten de Silicon Valley topmannen ertoe om collectief het boetekleed aan te trekken. In koor predikten ze voor de verzamelde techparochie dat ze in de komende tijd vooral ‘verantwoorde’ producten willen ontwikkelen waar de wereld echt beter van gaat worden.

Collectieve boetedoening techgiganten?

Verantwoordelijkheid nemen betekent in dit geval - paradoxaal genoeg - technologie aankondigen als oplossing voor de schadelijke effecten die de technologie zelf heeft veroorzaakt. Zo gaan Apple, Google en Facebook (Instagram) zich bemoeien met ons naar verslaving neigende smartphonegebruik, door heel goed bij te houden wat we allemaal doen om ons er vervolgens met in besturingssystemen en apps ingebouwde waarschuwingen op te wijzen dat dat ook wel een tandje minder kan. Tja. Nog zo een: Facebook gaat zich nog actiever dan voorheen bemoeien met de content op zijn platforms door die extra goed te monitoren zodat ze vervolgens nep-accounts en spam kunnen verwijderen evenals naaktfoto’s en racistische uitingen. Microsoft topman Nadella bezweert ons dat Microsoft in de toekomst ‘ethisch verantwoord’ wil handelen bij het toepassen van kunstmatige intelligentie: “Het gaat er niet meer om wat computers kunnen doen, maar wat we willen dat ze moeten doen” aldus Nadella (in een artikel van Marc Hijink in NRC, mei 2018).

Met enig gezond wantrouwen lijkt deze collectieve boetedoening vooral hypocriet: een moderne variant van de slager die zijn eigen vlees keurt. In dit geval zou je zelfs kunnen zeggen van de dief die zijn eigen sporen uitwist en daar ook nog graag om gewaardeerd wil worden. De essentie van de toekomstplannen van de grote techbedrijven valt echter moeilijk te maskeren. Uiteindelijk gaat het hen toch vooral om het verzamelen van zoveel mogelijk gedetailleerde data van gebruikers die vervolgens hun weg vinden naar allerlei slimme toepassingen, zoals de persoonlijke assistenten (zoals Siri en Alexa) waar ze allemaal volop aan werken. Toepassingen die in toenemende mate zijn gebaseerd op de steeds verdergaande ontwikkeling van kunstmatige intelligentie.

Er zijn grenzen: roep om verantwoordelijke ontwikkeling van AI

Kunstmatige intelligentie (AI) is de laatste tijd steeds meer in een kwaad daglicht komen te staan, zo lijkt het. In de media is de toonzetting over wat AI ons te bieden heeft opvallend negatief.  Het vertrouwen van consumenten in digitale technologie lijkt af te brokkelen. We zijn bang dat robots ons werk gaan overnemen. Op Netflix kijken we graag naar onheilspellende science fiction series als Black Mirror die een somber beeld schetsen van wat ons in de toekomst te wachten staat. We maken ons zorgen over berichten uit China over AI-systemen waarmee de staat zijn burgers in de gaten houdt, beloont voor goed gedrag en straft voor slecht gedrag. Kortom: een digitaal bestaan dat zwaar leunt op kunstmatige intelligentie roept vooralsnog bij velen van ons een akelig gevoel van onbehagen op. In dat klimaat beginnen ook de techgiganten te merken dat er grenzen zijn aan het rücksichtloze verdienmodel dat tot voor kort tamelijk probleemloos op ons digitale bestaan werd losgelaten.

Hoewel deze sfeer van dreiging en angst de mogelijkheden van AI zowel ernstig tekortdoet als ernstig overschat, kunnen we wel concluderen dat dit kennelijk het goede moment is om te pleiten voor een ‘verantwoordelijke’ ontwikkeling van AI. En dat moeten we zeker niet overlaten aan de grote spelers op AI-gebied. We zijn met zijn allen verantwoordelijk voor onze digitale toekomst. Dat betekent ook dat we het debat hierover op basis van goede argumenten en uitgangspunten moeten kunnen voeren. Ongenuanceerde toekomstbeelden zijn prima om de zaak op scherp te zetten, maar vervolgens willen we toe naar een goed gefundeerd inzicht in wat deze nieuwe mogelijkheden nu echt voor ons kunnen betekenen.

Responsible AI is méér dan AI for Good

In dat licht heeft SIDN fonds dit jaar ‘Responsible AI’ als jaarthema gekozen. We zijn met de projecten die we ondersteunen op zoek naar goede, realistische use-cases die het onderwerp uit de hypesfeer halen en die gefundeerd richting kunnen geven aan het debat over hoe we zelf een toekomst met AI vorm kunnen geven. Met onze eerste call dit jaar hebben we daarmee een begin gemaakt. Uit de eerste ronde is een mooie oogst aan projecten voortgekomen: AI-projecten die zich richten op uiteenlopende domeinen als de zorg, de journalistiek, educatie en cultuur. Wat ons in de eerste ronde opviel was dat veel aanvragen vooral gingen over de vraag of en hoe je AI kan inzetten om maatschappelijke impact te realiseren. Dat is wat wij ‘AI for good’ zouden noemen. Maar als we het hebben over ‘Responsible AI’ dan gaat het om méér dan alleen ‘AI for good’. Daarom besteden we daar nog eens extra aandacht aan in de aanloop naar de deadline voor onze tweede ronde.

‘AI for good’ is uiteraard belangrijk als je maatschappelijke verantwoordelijkheid wil nemen. Maar ook AI for Good kan soms verdomd onverantwoordelijk zijn. Dat laat het bekende voorbeeld van predictive policing zien. Het doel daarvan is maatschappelijk gezien natuurlijk goed: meer veiligheid op straat en misdrijven voorkomen voor ze kunnen plaatsvinden. De manier waarop daar echter met AI vorm aan wordt gegeven, is nu in veel gevallen zeer onverantwoordelijk, onder meer omdat de data op basis waarvan het algoritme voorspellingen doet een hoge mate van bias hebben. Daardoor kan AI die met de beste bedoelingen ontworpen wordt, toch perverse, discriminerende effecten hebben. Een ander voorbeeld van onverantwoordelijke AI zien we in het onderwijs: veel learning analytics toepassingen zijn - met de beste bedoelingen - toch tamelijk ondoordacht en daardoor onverantwoordelijk. Ze zijn doorgaans gebaseerd op een zeer gedetailleerde monitoring van het gedrag van leerlingen en studenten, waarbij ‘verantwoordelijkheid’ in het beste geval wordt ingevuld door het afvinken van verplichte AVG-eisen. Verantwoordelijkheid gaat echter ook over de vraag of je je van tevoren bewust bent van wat op de langere termijn het effect kan zijn van een dergelijke door technologie afgedwongen transparantie van jonge mensen. En over de vraag of je de technologie zo kan ontwerpen dat die ook in de toekomst verantwoordelijk blijft.

Call 2 SIDN fonds: op zoek naar ethische kaders voor AI

Waar we vooral naar op zoek zijn in deze tweede ronde is nog niet zo eenvoudig te omschrijven, maar heeft veel te maken met de in onze ogen dringend noodzakelijke ontwikkeling van ethische kaders voor AI. Die kaders ontbreken nu nog echt. Bij ethiek denken we dan niet aan stoffige ethische commissies die – meestal achteraf en daardoor vaak te laat - bepalen wat mag en niet mag. Maar eerder aan het ontwikkelen van gemeenschappelijke waarden op basis waarvan we onze relatie met technologie vorm kunnen geven. Wat hier kan helpen is wat Virginia Dignum (expert van de TU Delft op het gebied van Responsible AI en lid van onze Raad van Advies), in een eerdere blog voor onze website heeft beschreven als drie dimensies van ethiek die we in de praktijk verder vorm moeten zien te geven ( ‘ethics by design’, ‘ethics in design’ en ‘ethics for design’).

In deze tweede ronde nodigen we dan ook juist die projecten uit die een bijdrage leveren aan het verder ontwikkelen van deze broodnodige kaders voor Responsible AI. Dat betekent overigens niet dat we geen AI for Good projecten meer zullen selecteren: integendeel. Maar het betekent wel dat we onze aanvragers uitdagen om expliciet aandacht te besteden aan hun eigen uitwerking van het begrip ‘verantwoordelijkheid’. Wat versta jij daaronder in jouw project, en hoe geef je dat vorm in je project? Hoe ga je om met data en algoritmes en met de daaraan gekoppelde belangen en waarden van verschillende stakeholders in je project? Waarom is in jouw geval AI echt nodig (‘niet alles wat kan moet ook’, zou Marleen Stikker zeggen, in de recente uitzending van Zomergasten. Heb je nagedacht over de mogelijke lange termijn effecten van de toepassingen die je wil ontwikkelen? Waar zijn je ontwerpkeuzes op gebaseerd? Met welke partijen werk je samen om verantwoordelijke AI in de praktijk te brengen?

Kortom: we willen jullie uitdagen om met zulke goede voorstellen te komen, dat we volgend jaar dit thema niet meer op de agenda hoeven te zetten. Veel succes en we wachten vol spanning af!

Call 2 staat open t/m 17 september 2018, 13.00 uur.
Aanvragen & meer informatie