Plenair Recourt bij debat over algoritmische besluitvorming bij de overheid



Verslag van de vergadering van 21 maart 2023 (2022/2023 nr. 23)

Status: gecorrigeerd

Aanvang: 14.19 uur


Bekijk de video van deze spreekbeurt

De heer Recourt i (PvdA):

Voorzitter. Als gevolg van artificiële intelligentie, AI, zijn ons leven en onze samenleving radicaal veranderd. Die ontwikkeling is nog lang niet klaar. De consequenties van deze ontwikkeling, die van zichzelf niet goed of slecht is, kunnen niet makkelijk worden overschat. Na de industriële revolutie leven we nu in de digitale revolutie. De machine is inmiddels zover ontwikkeld dat deze terreinen heeft betreden die tot voor kort alleen waren voorbehouden aan levende wezens: zelfstandig denken, leren, een vorm van intelligentie.

Dit debat vormt de voorlopige afsluiting van een meerjarig traject in dit deel van het parlement over de werking van AI. De inzet en de urgentie van dit debat zijn wat mijn fractie betreft groot. Wij willen meer normatieve, democratisch gelegitimeerde sturing en begrenzing van de inzet van AI. Dit geldt voor het gebruik van AI door de overheid zelf en voor de begrenzing door de overheid van de AI-markt. Onze ambitie reikt eigenlijk verder. We willen doorzien wat AI doet met onze democratische rechtsstaat. Je voorvoelt dat de gevolgen groter zijn dan we nu beseffen, maar je krijgt er niet goed de vinger achter. Toch is dit inzicht nodig. Ik wil niet in 2030 terugkijken om dan te moeten constateren dat we het zo nooit hadden gewild, dat we stapje voor stapje grenzen zijn overschreden die we niet over wilden, dat we met AI de vrijheid en de bescherming van burgers hebben ingeperkt ten gunste van de bezitters van data en dat we de Staat en een paar bedrijven ongekende macht hebben gegeven zonder tegenmacht goed te organiseren.

Voorzitter. Ik vond het een zoektocht naar de goede invalshoeken voor dit debat. Waar spreek ik de staatssecretaris van Digitale Zaken op aan en in welke hoedanigheid? Veel op dit gebied gebeurt bijvoorbeeld op het niveau van de EU. Op welke onderdelen moeten we als Eerste Kamer naar onszelf kijken? Op welk abstractieniveau kunnen we het beste debatteren?

Ik dank de minister voor haar reactie op de vragen van deze Kamer naar aanleiding van het rapport van het Rathenau Instituut van 17 februari jongstleden. Dat hielp. Toch blijft er ongemak. We gaan met de ons bekende middelen van nationale en internationale regulering een ontwikkeling sturen die zich niet aan grenzen houdt en die inmiddels diep geworteld is in de overheid zelf, die haar wil reguleren, in alle huishoudens en in het leven van onze kinderen. "En in dat van onszelf", zeg ik er nog maar bij, maar als ik naar mijn dochter kijk, zie ik dat het nog veel meer geldt voor het leven van onze kinderen.

Op dit niveau van probleemstelling wil ik concreet beginnen met drie voorbeelden. Allereerst is de uitslag van verkiezingen en daarmee de samenstelling van deze Kamer voor een deel te wijten aan AI. Algoritmes bepalen in steeds grotere mate welke informatie we tot ons nemen. Het zijn echokamers. Voorkeuren worden versterkt, verschillen uitvergroot. Sociale media zijn in de praktijk vaak asociale media.

Twee. AI toont zich in de huidige stand van ontwikkeling een perfecte en slimme kopiist. Het verschil tussen origineel en digitale lookalike vervaagt en kan steeds moeilijker of zelf niet worden onderscheiden. Denk aan ChatGPT en digitale make-overs als Teenage Look. Ontwikkelingen op dit gebied gaan razendsnel. Tot nu toe is een beroep op de feiten nog de laatste strohalm tegen nepnieuws, complottheorieën en propaganda. Maar wat als de feiten niet meer vastgesteld kunnen worden? Of binnen het juridische domein: wat als we digitaal bewerkte stukken niet meer tot bewijs kunnen laten dienen?

Voorbeeld drie. Met behulp van naar we nu weten discriminerende algoritmes bepaalde de Belastingdienst waar fraudeonderzoeken moesten plaatsvinden. Algoritmes kunnen bewust en onbewust leiden tot ernstige schendingen van grondrechten.

Met alle drie de voorbeelden wordt het cement weggespoeld tussen de stenen die onze samenleving vormen. Het destabiliseert Nederland economisch, sociaal, juridisch en psychologisch. Het ondermijnt gezag van autoriteiten en instituties. Dat hebben we juist zo nodig om tegenwicht te geven aan al die feiteloze onzin die bewust of onbewust als waarheid wordt gepresenteerd. Wat moeten we doen om dit tegen te gaan, zonder het kind met het badwater weg te gooien? AI brengt immers ook veel goeds. Mevrouw Veldhoen zei dat ook al en daar zal niemand het mee oneens zijn. Bovendien is de techniek tot dit alles al in staat, dus ís het er. Het gaat niet om verbieden, maar om reguleren en normeren. Niet de mens tegen de machine, maar de mens samen met de denkende machine, waarbij de mens altijd het laatste woord heeft. Dit betekent dat de mens moet snappen wat de computer doet en dat hij of zij moet kunnen ingrijpen.

Dat brengt ons bij een eerste, heel concrete, wens van mijn fractie. Alle AI gebruikt voor besluitvorming waarbij de computer zelf leert, machine learning, en het voor de mensen niet inzichtelijk is wat de relatie is tussen input en uitkomst, mag niet door de overheid worden ingezet. Ik lees in de reactie van de minister op de notitie van het Rathenau Instituut dat deze norm binnen de Nederlandse context wordt gehandhaafd met de in de Awb neergelegde eis van uitlegbaarheid, in de vorm van het motiveringsbeginsel, van het proportionaliteitbeginsel en van het evenredigheidsbeginsel. Daarnaast zijn grondrechten vastgelegd in de Grondwet en in verdragen, aldus de minister. Dit zijn echter algemene normen achteraf. Kan de staatssecretaris uitleggen hoe die moeten worden gematerialiseerd door een rechtzoekende? Het gebruik van AI bij een beslissing, zoals bedoeld in de Awb is immers niet automatisch bij die rechtzoekende belanghebbende bekend. Stel, een bepaald verzoek is afgewezen met de motivatie dat niet aan de criteria is voldaan en pas later blijkt dat die wettelijke criteria vaag waren en pas met de toepassing van AI zo zijn ingevuld dat de aanvrager buiten de boot viel. Hoe kun je hiertegen rechtsbescherming vragen? Je weet immers niet dat het AI was dat het laatste zetje heeft gegeven. Kortom, bestaande normen helpen, maar is het niet evenzeer noodzaak om op het niveau van AI concrete, nationale regelgeving te maken?

De stas spreekt in dit kader nog over het implementatiekader en een algoritmeregister, maar dit blijft vraag. Kan de stas aangeven … De "staatssecretaris" moet ik natuurlijk zeggen.

De voorzitter:

Inderdaad.

De heer Recourt (PvdA):

Ja, dat is het nadeel van uitschrijven. Voor het woord "staatssecretaris" moet je veel typen, dus dan maak je daar "stas" van. Maar het is natuurlijk niet de bedoeling om die afkorting ook uit te spreken.

Kan de staatssecretaris aangeven hoe dit kader en dit register helpen om betekenisvolle menselijke tussenkomst tot absolute voorwaarde te verheffen?

Mevrouw Gerkens i (SP):

Ik ga een socratische vraag stellen, die misschien niet eens zo socratisch is. Ik begrijp de stellingname van de heer Recourt als het gaat over systemen die al dan niet jou eruit filteren op basis van kenmerken die ingevoerd zijn. Hij zegt: dat zijn systemen die rechteloosheid kunnen veroorzaken. Ik zal een voorbeeld nemen uit mijn eigen praktijk. Er zijn systemen die door middel van machine learning worden getraind. Input wordt gegeven door mensen. Vervolgens komt daar een systeem uit en dat systeem kan afbeeldingen van seksueel misbruik detecteren. Die worden dan door een machine gedetecteerd. Daar wordt nog een keer door een mens naar gekeken. Zegt de heer Recourt nu: die training voldoet niet aan de eisen die je wilt stellen, maar de uitkomst voldoet wellicht wel aan wat u wilt dat eruit komt, namelijk dat degene die dat soort materiaal verspreidt, wordt gedetecteerd? Hoe duidt hij dan zo'n toepassing?

De heer Recourt (PvdA):

Dat vind ik uitstekend. Dat is iets anders dan waaraan ik refereerde. De toepassing waar u het over heeft, is een gedigitaliseerde toepassing met menselijke controle. Dat lijkt me een mooi voorbeeld van hoe het zou moeten. Wat ik bedoelde, is het volgende. Je formuleert een regel. Met de uitkomst van die regel kan je als burger naar de bestuursrechter als je vindt dat die regel niet goed is toegepast. Maar wat nu als een deel van de toepassing van die regel gebeurt in de vorm van een gedigitaliseerd programma? Dan wordt dus de concretisering van die regel gedigitaliseerd, waar niemand goed inzicht in heeft, ook de burger niet. Hoe moet de burger dan naar de rechter stappen als hij denkt dat de regel niet goed is toegepast, bijvoorbeeld als hij vindt dat hij wel een vergunning zou moeten krijgen, of als hij iets anders van de overheid wil?

Mevrouw Gerkens (SP):

Dat begrijp ik. Als het om iets simpels als een vergunning gaat, is het een heel simpel verhaal. Maar we kennen ook vonnissen die worden geseponeerd vanwege vormfouten. Je zou je kunnen voorstellen dat het in zo'n geval, als de AI niet goed is toegepast of als we er geen inzicht in krijgen hoe die systemen worden getraind, leidt tot vormfouten. Misschien wordt er wel onevenredig op bepaalde mensen getarget of krijg je steeds bepaalde hits. Hoe zorgen we ervoor dat dit niet leidt tot vormfouten? Zou dat dan, als uw vraag tot regel wordt, geen grond geven om dat soort processen ook te dwarsbomen?

De heer Recourt (PvdA):

Ik ben op zichzelf niet tegen het trainen van AI-processen. Zoals u al zei, kan dat heel mooie uitkomsten geven. Het gevaar is alleen dat de input vervuilt. Een ander gevaar is de samenwerking met andere AI. Ik las ergens een voorbeeld waarin het ging om advertenties voor technische opleidingen voor meisjes. De AI was zo getraind dat meisjes die advertentie even vaak zouden krijgen als jongens. Maar in de concurrentie met andere AI kwam die toch minder bij meisjes terecht. Het is dus niet op te lossen door te kijken naar de gedigitaliseerde besluitvorming voor alleen dat onderdeel. Het is een veel breder genetwerkt proces. Dat kun je volgens mij alleen maar oplossen door menselijke controle vooraf en achteraf — wat stop je erin en wat haal je eruit — maar ook door er goed over na te denken: waar willen we dat de AI in ieder geval niet komt? Wat willen we dat echt menselijk blijft? Ik kom daar later op terug.

Waar het gaat om een bindend normkader wijst de staatssecretaris in haar notitie naar de AI-verordening die op dit moment in Brussel in de maak is. De AI-verordening introduceert geen verbod om bepaalde AI-besluiten te nemen zonder menselijke tussenkomst, maar stelt daarvoor in de plaats dat een hoogrisico-AI-systeem wel onderworpen moet zijn aan de eis dat er menselijk toezicht moet zijn op het gebruik hiervan. Dit klinkt, moet ik eerlijk zeggen, als een zwakke second-bestoplossing. Ik vraag de staatssecretaris: waarom geen verbod? Wat is hiervan de achtergrond? Waarom geen nationaal verbod als het binnen de EU niet lukt om de juiste standaard te introduceren? We hebben het immers over mensenrechten. Dat is geen onderwerp waarbij je een beetje water bij de wijn doet.

Een bekend, maar door AI versterkt probleem is het versterkende effect van fouten in data. Hoe wordt verbeterd dat fouten hersteld kunnen worden? Foute input kan immers leiden tot grote gevolgen voor individuen. Denk aan het eindeloos aanhouden door de politie van de bestuurder van een voertuig als gevolg van een foutief ingevoerd kenteken of het weigeren van een vergunning als gevolg van een foutieve correlatie tussen door AI geanalyseerde data. Om dit probleem aan te pakken, zou de Awb worden gewijzigd, zo las ik. Kan de staatssecretaris kort aangeven op welke manier de Awb wordt aangepast en wanneer deze wetswijziging aan de Tweede Kamer wordt aangeboden? Hoe doe je dit in de praktijk in de wetenschap dat AI niet geïsoleerd werkt, maar interfereert met andere algoritmes? We hadden het daar net met mevrouw Gerkens al over.

Ik heb nog een concrete vraag. Hoe staat het met de structurele input van informaticadeskundigen bij het formuleren van wetgeving? Om te voorkomen dat ICT-deskundigen na afloop wetgeving moeten interpreteren om deze te kunnen omzetten in gedigitaliseerde processen, en zij zo de facto medewetgever worden, is het verstandig om bij het opstellen van wetgeving deze kennis al te betrekken en hier rekenschap over af te leggen. Voorziet het beleidsplan I in het hart van beleid hierin en, zo ja, wat is de stand van zaken rond de uitvoering? Op welke wijze wordt het ATR, het Adviescollege toetsing regeldruk, al aan het begin van het wetgevingsproces waarin AI een rol speelt, betrokken?

Voorzitter. Met voorgaande hebben we gesproken over het gebruik van AI door de overheid zelf. Daar is gelukkig aandacht voor, zo blijkt ook uit de Werkagenda Waardengedreven Digitaliseren. Ik wil in dit debat ook de rol van de overheid aanstippen bij de regulering van AI op de vrije markt. Twee van mijn eerdergenoemde voorbeelden zagen hierop. AI in het private domein wordt in belangrijke mate bepaald door commerciële, sterker nog, reusachtige commerciële partijen en belangen en, gelukkig en enigszins, gereguleerd door de AVG. Daarnaast zijn er nog vijandige staten die AI aangrijpen voor het verzwakken van onze staat. Naar het oordeel van mijn fractie is het vanwege de enorme maatschappelijke impact evident dat de overheid in Nederland en binnen de EU het normatieve kader waarbinnen die commerciële partijen mogen opereren, steviger moet inzetten dan nu het geval is. Er is helaas geen panklare oplossing voor, maar toch verwacht ik op zijn minst een stevige stellingname. Het primaat van de consument is immers niet zaligmakend. De consument weet niet wat hij niet weet. Eén keer een filmpje aanklikken op TikTok van iemand met eetproblemen en je komt in een stream met een eindeloze reeks van dit soort posts. De overheid is er niet om te bepalen wat we wel of niet mogen zien. De overheid is er wel om te voorkomen dat we, zonder het te weten, worden gemanipuleerd. We zien het allemaal gebeuren.

Naast selectie komt in toenemende mate ook niet van echt te onderscheiden valse informatie over ons heen. In Rusland zien we een extreme variant hiervan. Ik snap het dilemma voor de overheid, maar ik verwacht meer, al was het maar een actieve bewustwordingscampagne over hoe algoritmes onder sociale media werken en hoe we echt van vals kunnen onderscheiden. Ik heb hier geschreven: wanneer wordt TikTok verwijderd van door de Nederlandse overheid aan haar ambtenaren verstrekte mobieltjes? Ik zag zojuist nos.nl. Via het algoritme van de NOS heeft de staatssecretaris die vraag al beantwoord. Dank daarvoor, want mijn fractie is het eens met het verbod.

Dan het steeds moeilijker te onderscheiden verschil tussen echt en namaak in het domein van het recht. Ik vraag de staatssecretaris wederom of de validatie van bewijs dat op een of andere manier digitaal bewerkt is — en dat is zo'n beetje al het bewijs — op orde is. Kunnen rechtbanken naar een instituut om bewijsmiddelen te controleren? Dat kan bewijs zijn in een civiele zaak of in een strafzaak. En op welke wijze zorgen notarissen dat ze niet worden bedrogen? Hoe blijven registers die tot bewijs moeten dienen, verschoond van digitale vervalsingen? Hoe weten we dat foto's of videomateriaal niet is gemanipuleerd? Ik voorzie in de toekomst, met de snelle voortgang van de techniek op dit punt, een groot probleem waarop we ons moeten voorbereiden. Daarom niet in de laatste plaats ook de vraag: kan worden gestimuleerd dat er een digitaal instrument beschikbaar komt dat iedereen in staat stelt om de authenticiteit van informatie en informatiebronnen te checken? Is de staatssecretaris bereid dit te stimuleren? En is de staatssecretaris bereid om te stimuleren dat de bewustwording en kennis over dit onderwerp worden vergroot?

Tot slot. Het onderwerp AI zal in omvang en tijd de komende decennia zeker actueel blijven en zich uitstrekken tot alle beleidsterreinen. Het borgen van de democratische legitimatie van AI-toepassingen en de toetsing van rechtmatigheid, uitvoerbaarheid en handhaafbaarheid vragen specifieke kennis. Een aparte commissie in dit huis die dit, al dan niet als volgcommissie, in de gaten houdt, lijkt daarom zinvol. Dat debat is al gevoerd met mevrouw Veldhoen. Ook de staatssecretaris is voorstander van zo'n commissie, zo las ik. Ik stel daarom voor een dergelijke commissie in te stellen met ingang van de Kamer in nieuwe samenstelling. Tegen het einde van de termijn van vier jaar kunnen we dan evalueren of deze commissie haar nut heeft bewezen of dat we op zoek moeten naar een andere wijze van borging van de bij dit onderwerp betrokken waarden. Het benoemen van een vaste rapporteur op dit onderwerp is bijvoorbeeld tegen die tijd mogelijk ook een optie.

Aan het einde kom ik toch weer even terug op vragen die ik aan het begin van mijn betoog stelde. Is het voldoende om AI te reguleren? Dreigen we dan niet tekort te schieten in de bescherming van onze democratische rechtsstaat? Wat willen we dat binnen het domein van mensen moet blijven? Immers, voor we het weten, lossen we alles met data-analyse op. Hoe houden we het cement van de samenleving vast? De essentie is wat mij betreft menselijke interactie, debat, betrokkenheid. Die essentie moeten we beschrijven en van daaruit nagaan wat we nodig hebben aan regulering van AI. Alleen zo voorkomen we dat we in 2030 zijn beland op een punt waar we niet wilden zijn. Ik overweeg een motie op dit punt.

Voorzitter. AI doet haar werk vaak onzichtbaar voor ons burgers en toch heeft die enorme gevolgen voor ons en onze samenleving. Ik beschouw dit debat als een eerste aanzet voor voortdurende parlementaire aandacht voor dit soms te onzichtbare onderwerp. Ik kijk uit naar de antwoorden van de staatssecretaris en hoop dat een ruime meerderheid van dit huis ook kan instemmen met een aparte commissie voor Digitale Zaken, zodat we de aandacht daarvoor ook in de toekomst goed hebben geborgd.

Dank u wel.

De voorzitter:

Dank u wel, meneer Recourt. Dan geef ik het woord aan mevrouw Prins namens het CDA.