Jaarthema 2018: Responsible AI

Laat je niet leiden door angst voor Artificiële Intelligentie

door Jim Stolze / Responsible AI / januari 2018

Op een VN-conferentie (juni 2017) die moest gaan over het inzetten van Artificiële Intelligentie bij het oplossen van mondiale problemen overheerste vooral de bezorgdheid. Jim Stolze vraagt zich af: kunnen we niet gewoon eens drie dagen denken in mogelijkheden, in plaats van in angsten?

Wereldproblemen aanpakken met AI

In Genève vond afgelopen zomer de ‘AI for Good’-conferentie plaats. Een driedaags evenement dat onderzoekers en ontwikkelaars van Artificial Intelligence (kunstmatige intelligentie) opriep om hun kennis in te zetten voor het aanpakken van wereldproblemen. Een verfrissend geluid in een tijd waarin technologie meestal de zwartepiet toegespeeld krijgt. Wie kranten en blogs leest, krijgt al snel het vermoeden dat robots eerst onze banen zullen inpikken, om ons vervolgens uit te roeien, zodat ze de planeet straks voor zichzelf te hebben. Wie zijn buik vol heeft van dergelijke doemscenario’s kon in Genève zijn hart ophalen. Meer dan vijfhonderd deelnemers bogen zich hier over de ‘Sustainable Development Goals’. Deze Duurzame Ontwikkelingsdoelstellingen zijn in 2015 door de Verenigde Naties (VN) opgesteld en vervangen de Millenniumdoelstellingen. Bij elk van de zeventien problemen werd gediscussieerd over hoe kunstmatige intelligentie een oplossing zou kunnen bieden. Om bijvoorbeeld gendergelijkheid (doel 5) te bereiken zouden speciale algoritmen een doorslaggevende rol kunnen spelen bij werving en selectie, en zo meer gelijke kansen voor man en vrouw stimuleren. En zelflerende software zou patronen in big data van stadsplanning kunnen vinden, en zo de doelstelling van duurzame steden en gemeenschappen (doel 11) dichterbij te brengen. Het is niet voor het eerst dat de VN gebruikmaken van data in hun programma’s. Het Global Pulse-project doet dit al sinds 2009 en valt direct onder de secretaris-generaal. Op drie plaatsen in de wereld zijn destijds labs gestart waar onderzoekers berichten op Twitter en Facebook scannen op signalen van humanitaire rampen, ziekten als malaria en polio, of uitbraken van geweld.

White guy problem

De specifieke interesse van de VN in kunstmatige intelligentie is nieuw en kan wellicht verklaard worden door de samenwerking met de Xprize Foundation. Deze Amerikaanse stichting looft geldprijzen uit aan technologiepioniers die als eerste een bepaalde mijlpaal bereiken. Denk daarbij aan commerciële ruimtevluchten (space), virtuele doctoren in je telefoon (health) en recentelijk het CO2-probleem (klimaat). Xprize heeft nu zijn blik laten vallen op kunstmatige intelligentie en roept pioniers op om de VN-doelen als uitgangspunt te nemen. Terug naar Genève. Ondanks de opgestroopte mouwen van Xprize werd daar vooral gepraat over de mondiale problemen en hoe belangrijk eventuele oplossingen konden zijn. Ook was niet iedereen even enthousiast over de huidige stand van zaken van de techniek. Onderzoeker Moustapha Cissé vertelde dat kunstmatige intelligentie op dit moment een ‘white guy problem’ heeft. Cissé, werkzaam bij Facebook en zelf van Afro-Amerikaanse afkomst, legde haarfijn uit dat de technologie nu vooral wordt ingebouwd in hippe producten uit Silicon Valley, maar dat toepassingen voor het continent Afrika weinig aandacht krijgen. En omdat het bij de ontwikkelaars vooral blanke jongens uit de Verenigde Staten betreft, zijn de algoritmen vaak gebaseerd op datasets uit de westerse wereld. Sommige demografische groepen zijn daarin slecht vertegenwoordigd en lopen de voordelen mis.

Ook professor Stuart Russell was eerder voorzichtig dan enthousiast. De Brits-Amerikaanse computerwetenschapper van de universiteit van Californië ziet de ‘AI for Good Summit’ wel als een stap in de goede richting. ‘Computers bewijzen keer op keer dat ze fantastisch efficiënt zijn in het verwerken van informatie. Een goed ingericht systeem kan in korte tijd alle boeken of websites over een bepaald onderwerp lezen. Daarnaast hebben we gezien dat computers bij spelletjes als schaak of go ons de baas zijn, omdat ze veel meer stappen vooruit kunnen denken. Als je die eigenschap weet in te zetten voor goede doelen, kun je positieve doorbraken verwachten.’ Maar juist hier wringt volgens Russell de schoen. Want wie bepaalt wat zo’n goed doel exact inhoudt? En hoe ga je zoiets formuleren? ‘Het is als destijds met koning Midas. Zijn wens was alles wat hij aanraakte in goud te laten veranderen. Dat was zijn doelstelling. Maar pas toen het plan werd uitgevoerd, kwamen de negatieve effecten naar boven. Alles, dus ook zijn eten en iedereen die hem lief was, veranderde in goud. Met desastreuze gevolgen. Wij mensen zullen extra goed na moeten denken wát we precies willen dat die slimme systemen voor ons gaan uitvoeren.’ Daarnaast is Russell ook bezorgd dat kunstmatige intelligentie in de verkeerde handen zal vallen. Zijn boodschap aan de VN was helder: ‘Het allerbelangrijkste is nu te voorkomen dat er autonome wapens worden ontwikkeld. Sommige landen werken al aan prototypes en rechtvaardigen dit door te stellen dat het veiliger is voor de eigen soldaten. Maar vanwege de mogelijke schaal en het relatieve gemak waarmee deze wapens ingezet kunnen worden, hebben we het wel degelijk over nieuwe massavernietigingswapens.’

Amygdala

Anders Sandberg is verbonden aan het Future of Humanity Insitute aan de universiteit van Oxford en doet onderzoek naar de risico’s die toekomstige technologieën met zich meedragen. Hij herkent de zorgen die er zijn rondom kunstmatige intelligentie. ‘De belofte van AI is geweldig. De uitdaging zal zijn de juiste richting te bepalen en de juiste richtlijnen op te stellen. En op zo’n manier dat de echte innovatie niet wordt gehinderd.’

Tegelijkertijd wil hij het ook niet te makkelijk maken voor kwaadwillenden om de technologie in te zetten. ‘Bureaucraten grijpen te snel naar instrumenten als verbieden of beperken. Beter is het om het goede gedrag te belonen. Wat je beloont, gebeurt.’ De conclusie na drie dagen praten over ‘AI for Good’ is toch vooral dat we

willen voorkomen dat het ‘AI for Bad’ wordt. Het debat werd — waar ik al bang voor was — gedomineerd door angst en koudwatervrees. Hoe komt het toch dat bij discussie over technologie de meeste belangstelling uitgaat naar de negatieve kanten? Kunnen we niet gewoon eens drie dagen denken in mogelijkheden? Peter Diamandis, de voorzitter van de Xprize Foundation, heeft een biologische verklaring. Hij geeft de schuld aan de amygdala. Pardon? De amygdala is het deel van onze hersenen dat de hele dag alert is. Het is ons persoonlijke alarmsysteem dat de omgeving scant, onder meer gezichtsuitdrukkinge leest en continu gefocust is op gevaar. Het zorgt ervoor dat we niet in gevaarlijke situaties belanden. We zijn ons er niet van bewust, maar door de amygdala klikken we eerder op slecht nieuws dan op goed nieuws. Door de amygdala luisteren we net iets beter als de nadelen worden opgesomd dan de voordelen. Het is dus niet zo dat de media per se een voorkeur hebben voor slecht nieuws of voor doemscenario’s. Het is wat wij willen horen. Mijn opa zei vroeger: je moet verder kijken dan je neus lang is. In een globaliserende wereld is dat nog steeds een wijze raad. Namens de Verenigde Naties zou ik daar een variant op willen maken: kijk verder dan je neus lang is en weet dat er meer mogelijk is dan je amygdala je doet geloven.

 

Tevens gepubliceerd in Het Financiële Dagblad, 17-06-2017

Lees ook: Techniek is niet neutraal: houd het stuur in handen door Jim Stolze
Het is een misverstand dat technologie neutraal zou zijn. Dat is niet zo. Technologie is slechts een hefboom op onze eigen intenties. Laten wij daarom in godsnaam nog even aan het stuur blijven zitten en eerst de best mogelijke richting van onze toekomst bepalen.