Jaarthema 2018: Responsible AI

Wie ontwikkelt AI en met welk doel? Dat is waar het om draait.

door Anouk Visser / Responsible AI / januari 2018

Steeds vaker hoor ik van mijn omgeving dat zij ergens hebben gelezen dat AI een potentieel gevaar is voor de samenleving. In eerste instantie was mijn reactie vrij sceptisch: de meest geavanceerde AI is nauwelijks in staat onderscheid te maken tussen muffins en chihuahua’s, laat staan blijvende schade aan te richten. Ik realiseer mij nu dat - net als dat ‘Ik heb niets te verbergen’ geen antwoord is op de discussie rondom privacy - het feit dat AI vandaag geen gevaar vormt, geen goed antwoord is op de vraag of we voorzichtig moeten zijn met het ontwikkelen van AI.

Machine Learning

Zoals vaak het geval is, kan een nieuwe technologie op meerdere wijzen worden ingezet. Als we ervoor willen zorgen dat AI geen schade aanbrengt aan de maatschappij en verantwoordelijke beslissingen neemt, zullen we vooral op moeten letten wie de AI ontwikkelt en met welk doel. Als we het over AI hebben, hebben we het de laatste tijd steeds vaker over Machine Learning. Hierbij leren we een machine patronen te herkennen in data. Zo kunnen algoritmes aan de hand van een aantal eigenschappen van, bijvoorbeeld, een huis (aantal kamers, oppervlak, bouwjaar) een redelijke verkoopprijs vaststellen. Het mooie aan dit soort algoritmes is dat zij ook getraind kunnen worden op heel andere data (afwisselende zwarte en witte pixels omringd door groene pixels is waarschijnlijk een afbeelding van een koe). Het herkennen van patronen kan ook gebruikt worden om bepaalde acties te voorspellen. Als een gebruiker zoekt op ‘vluchten van Amsterdam naar San Francisco’ is het zeer waarschijnlijk dat de gebruiker binnen niet al te lange tijd een vlucht zal boeken. Luchtvaartmaatschappijen willen heel graag juist aan deze gebruiker een advertentie laten zien. Google had dit al heel snel door en is mede daardoor niet meer weg te denken uit ons dagelijks leven.

Dezelfde AI, tegengestelde effecten

Stel er komt een open source AI beschikbaar die in staat is om vóór iemands 18e verjaardag al kan voorspellen of deze persoon later ernstig ziek zal worden. We noemen deze AI ‘responsible’ als het voor goede doeleinden gebruikt wordt, bijvoorbeeld door een arts. Na de voorspellende diagnose zouden er alvast behandelingen gestart kunnen worden zodat deze patiënt een goede kans maakt om te genezen, of misschien om helemaal te voorkomen dat de patiënt ziek wordt.

Er is ook een ander scenario denkbaar, waarin de AI niet beschouwd zal worden als ‘responsible’. In dit geval wordt de AI gebruikt door een zorgverzekering. Bij een nieuwe aanmelding gebruikt de verzekeraar dit systeem en komt tot dezelfde conclusie als de arts: deze persoon wordt later hoogstwaarschijnlijk ernstig ziek en zal een hoop geld gaan kosten. De verzekeraar zou deze persoon dus graag willen weigeren.

In beide gevallen is de ontwikkelde AI exact hetzelfde. Maar, afhankelijk van door wie het gebruikt wordt en waarvoor, heeft een positief óf een negatief effect op onze samenleving. Als we niet het risico willen lopen op onomkeerbare negatieve veranderingen in de wereld mogelijk gemaakt door AI, zullen we ook niet de AI kunnen ontwikkelen die onze levens zal verbeteren. We hebben tenslotte gezien dat AI slechts een technologie is die op verschillende manieren ingezet kan worden.

Voorkom doemscenario’s

Tim Urban schreef: ’The AI Revolution: The Road to Superintelligence’ een fantastisch artikel over een doemscenario, dat mijn kijk op AI heeft veranderd. Mochten we ooit aankomen op het punt waarop niet wij, maar de AI beslist over welke AI ontwikkeld gaat worden, dan hebben we echt een probleem. Om dit te voorkomen zullen we er niet alleen voor moeten zorgen dat nieuwe ontwikkelingen binnen de AI verantwoord zijn, maar ook dat deze niet misbruikt kan worden.