Kunstmatige intelligentie (AI) verandert ons leven drastisch, of het nou gaat om Netflix, dat leert wat jij leuk vindt en op basis daarvan aanbevelingen doet, of om de Belastingdienst die met risicomodellen bepaalt of jij een mogelijke fraudeur bent. Aan de basis van AI ligt een zelflerend algoritme, een wiskundige som die gevoed wordt met data en zo tot voorspellingen komt. Nogal belangrijk dus, dat algoritme, zeker bij beslissingen van de overheid. Daarom klinkt steeds meer de roep om openbare algoritmeregisters, waarin wij kunnen zien wát er over ons verzameld wordt, hóe en waaróm! Hoe werkt dat?

Techbedrijven, zoals social-mediaplatforms, houden hun algoritmes angstvallig geheim. Ze vormen immers de bron van hun commerciële succes, zoals Facebook dat met algoritmes bepaalt wat jij op je tijdlijn ziet en welke YouTube-filmpjes en advertenties je voorgeschoteld krijgt. En zoals banken en beleggingsinstanties, die algoritmes gebruiken om de rente te bepalen en automatisch aandelen te kopen en verkopen.

Goed fout
Ook de overheid gebruikt steeds meer algoritmes en ‘machine learning’. Zo zetten steden algoritmes in om de verkeersdrukte te voorspellen en beeldherkenningsalgoritmes herkennen niet alleen zwerfafval, maar ook nummerborden om foutparkeerders automatisch te kunnen beboeten.
2 camera g834340736 1280Dat het met deze vorm van ‘machine learning’ goed fout kan gaan, bewees de Toeslagenaffaire. De computer ‘leerde’ met behulp van ingevoerde data de sociale en culturele kenmerken van fraudeurs en zocht vervolgens naar mensen met diezelfde kenmerken. Omdat de Belastingdienst en uitkeringsinstanties blind achter deze uitkomsten aanliepen, kwamen veel mensen onterecht op de zwarte lijst terecht, met de bekende rampzalige gevolgen.

Garbage in, garbage out
Als een algoritme op basis van ingevoerde gegevens en ‘big data’ tot een voorspelling komt, is het dus super belangrijk om te weten welke gegevens dat zijn. Want ‘garbage in’ betekent ‘garbage out’, zoals een bekende ict-uitdrukking luidt, oftewel: de kwaliteit van de invoer bepaalt de kwaliteit van de uitkomst. En ook hier gaat het bij de overheid vaak mis. In 2019 meldde de NOS al: “Overheid gebruikt op grote schaal voorspellende algoritmen, risico op discriminatie”. Uit een inventarisatie onder 54 overheidsinstanties die de NOS verkreeg op basis van de Wet Openbaarheid Bestuur, bleek dat zij op grote schaal voorspellende algoritmen gebruiken. Vooral als het gaat om toezicht, fraude- en criminaliteitsbestrijding. En: “Het heeft de schijn van discriminatie”, schrijft een samenwerkingsverband van de gemeenten Nieuwegein, Houten en IJsselstein. (Bron: ECP). En zelf schreven wij dit jaar nog over de kritiek van de Algemene Rekenkamer op het gebruik van algoritmes door de overheid.

Systeemtechnologie
Deze week kwam de Wetenschappelijke Raad voor het Regeringsbeleid (WRR) met een interessant en omvangrijk rapport over kunstmatige intelligentie. De WRR, die de overheid adviseert, noemt AI niet zomaar een technologie, maar een 'systeemtechnologie', vergelijkbaar met de stoommachine en de verbrandingsmotor. Zo’n technologie verandert de samenleving fundamenteel en raakt de overheid en burgers op alle mogelijke manieren. “Als Nederland zich op deze fundamentele verandering niet goed voorbereidt, lopen we niet alleen het risico dat er kansen worden gemist, maar ook dat de samenleving wordt opgescheept met een technologie die onze belangen niet dient”, schrijft de WRR.

Knipsel illu AI tijdlijn liggend 2

WRR: AI als systeemtechnologie

Ook waarschuwt de raad voor het onzorgvuldig gebruik van AI en algoritmes. De raad pleit daarom voor het instellen van algoritmeregisters. Daarin moeten gemeenten en de landelijke overheid openbaar vastleggen welke algoritmes zij gebruiken en hoe die werken. Want in tegenstelling tot bij de commerciële techbedrijven aan het begin van dit artikel zijn deze algoritmes van ons - als burgers - en hebben wij het recht om ze te kunnen controleren. En de overheid heeft de plicht om er goed mee om te gaan en zich te verantwoorden.

Knipsel Amsterdam registerPublic Eye en veelplegers in Amsterdam
Naast Utrecht is Amsterdam een van de steden die inmiddels aan de slag is gegaan met zo’n algoritmeregister. Op algoritmeregister.amsterdam.nl legt de gemeente uit hoe het register ontwikkeld wordt en welke algoritmes nu al worden gebruikt. Er lopen AI-projecten voor het bestrijden van illegale toeristische woningverhuur en foutparkeren, maar ook project Public Eye, een “crowdmonitoring systeem” dat de drukte in de stad meet en voorspelt met behulp van openbare camera’s. (Het klinkt trouwens niet geruststellend dat de trainingsdataset voor dit algoritme ‘Shanghaitech’ heet…)

Knipsel crowdmonitoring

Ook zien we op de website grote sociale thema’s als armoede- en criminaliteitsbestrijding. Opvallend is het Top400/600-project, waarbij diverse partijen in Amsterdam data aanleveren om criminele veelplegers in de hoofdstad in beeld te krijgen. De Top400 richt zich op de groep van 12/23-jarigen, die strafrechtelijk nog ‘licht’ zijn, de Top600 gaat over op personen met een stevige criminele achtergrond. Met dit project wil de gemeente deze groepen op het rechte pad krijgen en tegelijkertijd de veiligheid in de stad vergroten. Om deze individuen in het vizier te krijgen, is een algoritme ontwikkeld dat wordt gevoed met gegevens van de verschillende instanties. Om maar aan te geven hoe ingrijpend AI-uitkomsten kunnen zijn.

De gemeente Amsterdam zegt nog in de testfase te zijn met haar algoritmeregister en wil graag reacties van de gebruikers. Hier is er eentje: de website zit boordevol informatie en legt goed uit wat het doel is van de verschillende AI-projecten en hoe de data verkregen worden. Maar de data zélf zijn niet in te zien, dus hoe kun je de kwaliteit daarvan controleren? Daar loopt de kritische burger tegen de AVG aan, die data gaan immers over privépersonen. Dan is het maar te hopen dat de Amsterdamse ambtenaren goed met die data omgaan en we straks geen “Top400-affaire” krijgen.

Hieronder: architectuur van het algoritme om illegale toeristische woningverhuur in Amsterdam tegen te gaan, mét verkliksysteem. De computer doet het eerste werk, maar mensen nemen blijkbaar uiteindelijk de beslissing om wel of niet op te treden.

vakantieverhuur woningfraude