Plenair Gerkens bij debat over algoritmische besluitvorming bij de overheid



Verslag van de vergadering van 21 maart 2023 (2022/2023 nr. 23)

Status: gecorrigeerd

Aanvang: 15.25 uur


Bekijk de video van deze spreekbeurt

Mevrouw Gerkens i (SP):

Dank u wel, voorzitter. Het is jammer dat de heer Verkerk nog iets meer tekst had, want toen hij het over de ethiek had, maakte hij een heel mooi bruggetje naar mijn verhaal. Ik moet ook zeggen dat ik erg blij ben met het debat vandaag en dat we met zovelen in de Kamer zo intensief kunnen praten over dit thema. Ik weet zeker dat we zo'n acht jaar geleden met onze oren stonden te klapperen over dit onderwerp, althans, een deel van u. Voor mij is digitalisering een thema dat als een rode draad door mijn politieke loopbaan loopt. Als ik even terug mag kijken, voorzitter: tien jaar geleden kwam ik de Kamer in en mijn eerste motie ging over de ethische kant van digitalisering. Die motie werd unaniem aangenomen. Dat heeft geleid tot het rapport Opwaarderen van het Rathenau Instituut. Dat rapport — ik weet niet of u het nog gelezen heeft toen u zich voorbereidde — was een treffend rapport. Het bespreekt een aantal van de thema's die we in de voorbereiding op dit debat zijn tegengekomen. In de tien jaar erna is AI, zoals algoritmes gemakshalve worden genoemd, een onaangename rol in ons leven gaan spelen. Bij big tech, bij bedrijven, bij de overheid en zelfs bij de wetenschap. Die rol is fundamenteel anders dan de rol die de digitale technieken speelden, voordat de AI zo'n vlucht nam.

Artificiële intelligentie heeft het vermogen om zelfstandig enorm ingewikkelde berekeningen te maken en op basis daarvan te beslissen. Ik zou tegen de heer Recourt zeggen: het denkt wel. Dat is het enge ervan. Wij creëren systemen die zelfdenkend gaan zijn en dus ook op basis van hun denken beslissingen nemen. Die berekeningen zijn zo ingewikkeld dat de mens het niet zou kunnen of in ieder geval niet met die snelheid zou kunnen. Mooi hè, techniek? Dat is waar we voor vallen, want het is toch prachtig dat we dit soort techniek hebben die op heel belangrijke momenten dingen voor ons kan berekenen die wij als mensen niet snel of überhaupt niet kunnen.

We kunnen daarmee heel belangrijke data en inzichten ontsluiten. In de zorg is het bijvoorbeeld heel belangrijk om heel snel beslissingen te nemen en dat AI dat voor ons doet. Dat is heel mooi. Dat is ook iets, zeg ik tegen de heer Verkerk, wat door techbedrijven goed wordt verkocht. Zij verkopen dat: kijk, dit kan het systeem doen. Helaas vergeten ze daarbij te vertellen dat die algoritmes ook fouten kunnen maken. Daarvoor zijn drie belangrijke redenen aan te wijzen, die ik grofweg ga benoemen.

Allereerst gaan algoritmes altijd uit van kansberekening. Daar zit altijd een foutmarge in. Hoe groot die is, hangt onder andere af van de input en de kwaliteit van de AI. Gezien het punt dat de data van algoritmes altijd veel zijn — anders zouden we het zelf kunnen doen — is het effect ook altijd groot. Stel dat je 4 miljoen mensen scant met een foutmarge van 3%, dan worden 120.000 mensen onterecht aangemerkt door het systeem. Vaak horen we in de politiek: ach, het is maar 3%. Nee, het is een hele grote groep mensen. We moeten dat goed beseffen.

Ten tweede hangen de omstandigheden waarin de AI getraind is af van wat de output is. Ik noem nog een voorbeeld. We hebben een systeem van de zelfrijdende auto. Deze auto is altijd getraind in stralend weer. We gaan ermee de weg op tijdens een onweersbui. Wat doet het apparaat dan? De auto slaat wellicht ineens op drift.

Het laatste is de complexiteit van de input. Dat is waar we hiermee worstelen. Die complexiteit zorgt ervoor dat er bij de output niet meer kan worden nagegaan waar de mogelijke fout zit; de black box.

Dit zijn allemaal technische complicaties. Men zou zeggen dat die ondervangen kunnen worden. Toch is dat niet gebeurd. We hebben te maken gehad met de toeslagenaffaire en vorig jaar concludeerde de Algemene Rekenkamer dat zes van de negen algoritmes bij de overheid niet op orde waren en grote kans op discriminatie hadden.

Nog veel verontrustender is dat er via Europa wetgeving voorligt die platforms oplegt om met algoritmes in al onze privécommunicatie te gaan snuffelen. Ondanks het feit dat wij in Nederland hebben gezien wat voor dramatische gevolgen dat kan hebben voor de samenleving en ondanks het feit dat we dat nu achter ons hebben, moeten we straks veel data verzamelen van mogelijk verdachte mensen, waarin we dan weer met algoritmes gaan kijken wie daarvan naar boven moeten komen, wetende wat daar de risico's van zijn. En dan nog hoor ik Tweede Kamerleden zeggen dat het een goede ontwikkeling is en dat we die kant op moeten gaan. In de politiek lopen we vaak blind achter een oplossing voor onze problemen aan, zonder te toetsen of die oplossing ook een goede oplossing is.

Maar hoe dan wel? Misschien geen artificiële intelligentie, geen algoritmes. Als ik een stukje van de wereld over mocht doen, dan zou ik zeker bij AI beginnen. En bij de big tech. En vooral bij de combinatie van die twee. Dan vraag ik mij af waarom wij dit debat voeren en waarom dit debat maar mondjesmaat in de digitale wereld zelf wordt gevoerd. Van de week sprak ik een professor artificiële intelligentie. Hij is verbonden aan de universiteit in Parijs. Hij vertelde mij dat hij twee jaar geleden opeens dacht "Wie let er nou op de ethische kant van de digitale ontwikkeling die wij hebben? Wij hebben helemaal geen poortwachter op dit punt." Dit is interessant. Tien jaar geleden hebben wij een motie aangenomen, en nu wordt de wetenschap wakker en denkt: moeten wij geen poortwachter hebben? Dat debat wordt dus niet gevoerd in de digitale wereld zelf.

Techniek is een heel belangrijk onderdeel van innovatie. Techniek kan de wereld een stukje beter maken, maar ook slechter. Zo hebben we allerlei toezichthouders op kernenergie en kernwapens. We geven kaders, we trekken grenzen. In de medische wereld kennen we deze ethische kanten ook: we klonen geen mensen, we waken voor genetische manipulatie. Daar hebben we eerst lange intentiedebatten over. Maar dat doen we dus niet over het gebruik van AI. We laten dat ethisch kader over aan ontwikkelaars. Zo wordt in het eerdergenoemde Europese voorstel de ontwikkeling en de implementatie van de scantechnieken overgelaten aan de markt. Die markt is vaak big tech. Deze platforms beslissen straks dus met hun technieken wat er geïdentificeerd wordt tijdens het scannen van privécommunicatie en zij beslissen ook wat daarmee gedaan wordt. Weg trias politica.

De markt denkt niet zo heel erg veel na over ethiek. De markt is namelijk per definitie innovatiegedreven. Die kijkt naar toepasbaarheid. Die vindt een foutmarge van 3% laag; wij zien 120.000 slachtoffers. Alhoewel, zoals ik al zei, sommige politici verschuilen zich ook weer achter die 3%. Mevrouw Prins zei: we moeten zorgen dat we softwareontwikkelaars in dienst hebben die ook naar die ethische kant kijken. Maar daar zijn zij helemaal niet toe opgeleid. Daar zijn zij helemaal niet voor getraind.

Ik geef u een simpel voorbeeld: toen de AVG-wetgeving net werd ingevoerd, werkte ik bij HCC, zeg maar een vereniging voor computergebruikers. Ons viel op dat door websites veel persoonlijke data onnodig werden gevraagd of niet beveiligd werden opgevraagd en verstuurd. We vroegen onze leden om ons dit te melden, zodat we de desbetreffende organisaties daarop konden attenderen. En als zij dan niet reageerden: een zwartboek - ik blijf een SP'er!

Een van de organisaties was een kinderdagverblijf dat inschrijfformulieren online had staan waarop veel persoonlijke data moesten worden ingevuld: vader, moeder, BSN-nummers, inkomens et cetera. Die formulieren waren niet beveiligd met een slotje. Toen ik het kinderdagverblijf daarop attendeerde, zei men daar: ja, maar dit is gemaakt door heel goede websitebouwer. Zij gingen er dus van uit dat deze websitebouwer, die inderdaad heel goed was, ook de beveiliging zou meenemen en ook zou kijken of de website voldeed aan de AVG. Maar die websitebouwer had dat helemaal niet geleerd. Die had alleen geleerd om websites te bouwen.

Mevrouw Prins i (CDA):

Ik kan het natuurlijk niet laten om daar even op te reageren. Ik had het over de ICT-mensen van de uitvoeringsinstanties die bezig zijn met wet- en regelgeving. Ik had het dus niet over commerciële bedrijven, waarvan ik hoop dat daar ook wet- en regelgeving voor komt. Ik denk dat we in de laatste jaren met de AVG al vele malen verder zijn, gelukkig overigens, dan in het verleden. Het ging mij erom dat we bij de voorbereiding en de uitwerking van wet- en regelgeving ICT'ers hebben die we toetsen op techniek en op ethiek.

Mevrouw Gerkens (SP):

Maar mevrouw Prins, ik zou tegen u willen zeggen — via de voorzitter — dat ik dat niet alleen zou willen voor uitvoeringsinstanties, maar voor iedere programmeur die werkt in de IT.

Mevrouw Prins (CDA):

Dat klopt, maar ik ging even in op wat u zei. Ik zei daarnaast dat ik het van belang vind dat ook websitebouwers bij commerciële bedrijven zich houden aan de AVG. Dat is echt iets van de laatste jaren en niet van tien jaar geleden. Wat dat betreft hebben we gelukkig een heleboel stappen gezet, maar misschien nog niet genoeg.

Mevrouw Gerkens (SP):

Ik wou dat dat waar was, want ik zie in het dagelijks leven heel veel andere dingen. Ik zie nog steeds dat veel softwarebouwers kijken naar de kansen die software biedt en niet naar de downsides. Ik noem een voorbeeld, ook weer uit de praktijk. Ik bouw een website in mijn eigen organisatie. Ik zou daar niet graag trackers op willen hebben van Facebook, want dan weet Facebook dat mijn bezoekers eventueel seksueel misbruikt zijn. Die informatie wil je niet geven. Toch zegt de websitebouwer: joh, je moet er zo'n icoontje op zetten, dat is lekker makkelijk en dan heb je veel data van de mensen. Dat kader, dat ethisch denken, wat eigenlijk al die softwareontwikkelaars zouden moeten hebben, wordt niet gegeven en niet in de opleiding meegenomen. Volgens mij zit daar echt wel een hiaat.

De voorzitter:

Tot slot, mevrouw Prins.

Mevrouw Prins (CDA):

Ik zou bijna zeggen: misschien zou je je websitebouwer moeten selecteren. Maar dat is een iets te makkelijk antwoord. Ik deel met u dat we daar extra aandacht voor moeten hebben. Dat heb ik ook in mijn betoog aangegeven.

Mevrouw Gerkens (SP):

Precies. En daarom haalde ik u ook aan, want dat vond ik inderdaad een heel goed punt.

De heer Verkerk i (ChristenUnie):

Het pleidooi van mevrouw Gerkens over ethiek, en dus ook over ethiek van de techniek, is mij uit het hart gegrepen. Mijn vraag: is het enige probleem misschien dat er te weinig opleiding wordt gegeven? Ik vraag dat omdat, voor zover ik ermee bekend ben, aan vrijwel alle technische universiteiten in de eerste jaren het vak ethiek wordt gegeven. Is dat het echte probleem? Of zou het echte probleem ergens anders liggen?

Mevrouw Gerkens (SP):

Als de softwarebouwers alleen zouden worden opgeleid op universiteiten waar ook nog eens het vak ethiek wordt gegeven, dan waren we al een stuk verder. Maar dat is natuurlijk niet zo. De opleiding van mensen in de digitale wereld is heel breed: van mbo tot inderdaad de universitaire opleiding. Veel van die opleidingen zijn heel hands-on. Terecht, dat moeten ze ook zijn. Maar iedere softwarebouwer heeft een ethische verantwoordelijkheid. Een softwarebouwer moet beseffen dat wat en hoe hij of zij bouwt, consequenties kan hebben. Dat wordt niet meegenomen in de opleiding.

De heer Verkerk (ChristenUnie):

Ik ben het in ieder geval eens met uw morele norm. Ik hoop er in tweede termijn nog op terug te komen.

De voorzitter:

Vervolgt u uw betoog.

Mevrouw Gerkens (SP):

Voorzitter. Ik zei net al: programmeurs leren niet de ethische kanten, maar ze leren programmeren. Er is maar mondjesmaat aandacht voor ethiek in de digitale wereld. Dat wij als afnemers denken dat dat anders is, is de kern van het probleem. Dat betekent ook dat wij de kaders moeten meegeven. Zoals ook al in de gesprekken die wij ter voorbereiding hadden naar voren kwam, hebben we al veel wetgeving die ook kaders aangeven. Maar welke rol speelt die dan in de ontwikkeling van AI-systemen voor de uitvoering van overheidstaken? Dat is ook precies de vraag die mevrouw Prins heeft gesteld. Wie houdt toezicht op de input en de output? Ik zou graag willen weten hoe de staatssecretaris dat ziet. Volgt zij de regelgeving die er vanuit Europa komt? Op welke wijze is zij hierbij betrokken? Vanuit de Europese Unie is gezegd dat AI ethisch moet zijn. Maar dan verwijs ik opnieuw naar het rapport Opwaarderen, dat door het kabinet helaas in een la is gelegd. Hoe gaat de staatssecretaris dat ethisch kader terugbrengen in de digitalisering en in de AI?

Voorzitter. Zo kom ik bij de rol van de Kamer. Of liever: de rol van de gehele Staten-Generaal, want niet alleen hier worstelen wij met grip krijgen op de ICT-ontwikkelingen. Ik leidde de commissie ICT-verspilling bij de overheid, de eerste commissie in de Tweede Kamer die het falen van grip op de uitgaven agendeerde. Onze conclusies waren helder, maar ze werden niet overgenomen. Dus kwam er de commissie-Elias, die grofweg herhaalde wat wij al eerder zeiden. Iets met "gezond verstand", is wat ik me zo ongeveer herinner. Later is de commissie Digitale Zaken gekomen, die niet kon voorkomen dat de digitale ramp van de Omgevingswet is afgewend.

Grip op algoritmische besluitvorming bij de overheid; een bijzondere stelling. Want wie krijgt er grip? Wie zou er grip moeten hebben? Wat is die grip? In de gesprekken die wij hadden ter voorbereiding, zei een van de sprekers dat de Kamer niet eens zozeer technische kennis nodig heeft. Daar ben ik het mee eens, al moet ik zeggen: het helpt soms wel. Het gaat vooral weer om het gezonde verstand en stabiliteit in de kennis. In de eerstgenoemde Kamercommissie ICT-verspilling bij de overheid spraken we ook over dit dilemma. Al sinds de opkomst van de digitalisering is er de vraag om grip te krijgen op dit ingewikkelde terrein. Angst voor gebrek aan kennis speelt hierbij een rol. Ik vind dat bijzonder. ICT-projecten zijn niet wezenlijk anders dan infrastructurele projecten en daar vragen wij ons toch ook niet af hoe zoab precies gemaakt wordt? We geven kaders voor milieu en geluid en we controleren het resultaat.

Wat de algoritmes betreft is het echt zo: garbage in, garbage out. Het is de input die het resultaat bepaalt en die input wordt gedaan door mensen. Mijn fractie is het daarom ook volledig eens met de conclusie dat de kennis van de Kamer vergroot moet worden. Daar heeft de commissie-Gerkens destijds aan de overkant ook voor gepleit. Die commissie pleitte niet voor een aparte commissie of een aparte minister of staatssecretaris, omdat IT in alle projecten voorkomt. Je kunt bijna geen wetgeving meer bedenken die geen digitale component heeft. Wanneer we die kennis in een commissie brengen, wie is er dan verantwoordelijk voor het eindproduct? Wie brengt die kennis in bij andere commissies?

De commissie-Gerkens pleitte ook voor versterking bij de staf, door een medewerker op dit thema aan te trekken. Verder was het advies om in alle wetgeving een digitale paragraaf op te nemen, die de risico's kon aangeven van de wetgeving. Vervolgens is het aan de Kamer om het debat aan te gaan. Wat laten we wel bij de programmeur? Welke kaders geven we mee? Alleen wanneer de hele Kamer wordt meegenomen, kunnen we collectieve beslissingen nemen gestoeld op de juiste aannames. Daarom vindt mijn fractie een digitale commissie geen goede oplossing. Aan de staatssecretaris de vraag hoe zij hierover denkt. Zij is immers de portefeuillehouder digitale zaken. Hoe ziet zij de ontwikkelingen en het debat rondom de Omgevingswet, maar ook de Wegiz, wetgeving die bij haar collega's ligt? Hoe verhoudt zich dat tot het huis van Thorbecke? Wat kan zij doen als zij met haar kennis en kunde ziet dat het bij haar collega's misgaat? Het is belangrijk om daar inzicht in te hebben, want alleen op die manier krijgen we grip op algoritmes niet alleen bij de overheid, maar bij de gehele overheid.

De heer Dittrich i (D66):

Ik snap het niet helemaal. Ik had eigenlijk begrepen dat mevrouw Gerkens de staatssecretaris wilde vragen hoe zij het ziet als de Kamer besluit om een aparte commissie voor Digitale Zaken in te voeren. Dat is toch eigenlijk iets wat wij zelf moeten beslissen en niet zozeer iets waar de regering over gaat? Of zie ik dat verkeerd?

Mevrouw Gerkens (SP):

Ik zei het niet goed. Ik wilde de staatssecretaris eigenlijk vragen — en dat deed ik later in mijn betoog ook — hoe zij het ervaart, zij die wel portefeuillehouder is voor digitale zaken en tegelijkertijd te maken heeft met het huis van Thorbecke. Hoe gaat zij daarmee om met haar collega's? Ik hoor graag van haar wat haar ervaringen daarmee zijn.

De heer Dittrich (D66):

Dat snap ik. Dat vind ik ook een goede vraag. Maar daarvoor zei u iets over die aparte commissie voor Digitale Zaken die mevrouw Veldhoen heeft voorgesteld en waar voordelen aan zitten, maar misschien ook wel nadelen. Maar ik begreep dat u aan de staatssecretaris vroeg hoe zij daartegen aankijkt, en dat vind ik een beetje een vreemde variant.

Mevrouw Gerkens (SP):

Dat klopt. Daarvan zei ik ook: u hoorde het goed, maar dat zei ik dus verkeerd. Dat was niet wat ik probeerde te vragen.

Mevrouw Veldhoen i (GroenLinks):

Ik kom even terug op de commissie-Gerkens. Ik constateer dat er in de Tweede Kamer inmiddels sprake is van voortschrijdend inzicht, want daar is er inmiddels wel een vaste Kamercommissie voor Digitale Zaken. Misschien kunt u daarop reflecteren.

Een tweede vraag. U zegt "het zou overal geborgd moeten zijn en niet bij een vaste Kamercommissie". Nu heb ik al gewezen op het feit dat je in deze Kamer ook gecombineerde vergaderingen kunt houden, wat we ook vaker doen. We hebben in deze Kamer ook bijvoorbeeld de commissie voor Europese Zaken. Je zou ook kunnen zeggen "Europese wetgeving komt overal voor". Dat is waar, maar met de commissie voor EUZA wordt dat nog eens extra geborgd. Zo zou je de commissie voor Digitale Zaken ook kunnen zien. Zou die op die manier niet een meerwaarde hebben, is mijn vraag aan mevrouw Gerkens.

Mevrouw Gerkens (SP):

Daarop is het antwoord op dit moment wat mijn fractie betreft: nee, dat heeft die niet. Ik zei het in een interruptie al: als je gecombineerde commissievergaderingen houdt, dan levert toch vaak de commissie die het voortouw heeft, de woordvoerder. Zeker in wat kleinere fracties, waarvan we straks hier wat meer hebben dan nu, zul je zien dat daarin keuzes gemaakt worden. Dan nog mis je dat spreiden van die kennis. U zegt dat er voortschrijdend inzicht is geweest in de Tweede Kamer. Ik ben dat niet met u eens. Ik moet eerlijk zeggen dat ik had gehoopt dat de Tweede Kamer juist de eerdere aanbevelingen had ingevoerd, veel eerder dan over te gaan naar een commissie Digitale Zaken. We zien ook daar het spanningsveld, zoals ik al eerder zei in een interruptie. De commissie Digitale Zaken praat over hele verstandige dingen, maar ondertussen komt er wel een Kamerlid met een motie die echt iets doordrukt op de Omgevingswet waarvan je vanuit het digitale aspect zegt dat je dat absoluut niet moet doen. Daar zit volgens mij veel meer risico. Dan kunnen we straks een commissie Digitale Zaken hebben die hele verstandige dingen zegt, maar linksom of rechtsom komen er andere Kamerleden met moties, want die hebben die kennis niet. We moeten echt zorgen dat dat overal geborgd is.

Mevrouw Veldhoen (GroenLinks):

Ik ben het helemaal met u eens dat dat overal geborgd moet zijn, maar de praktijk leert dat dat niet het geval is. Dan zou je een tussenfase moeten inlassen waarin je wel die vaste Kamercommissie hebt, zoals Jeroen Recourt ook aangaf. Dan kun je evalueren aan het einde van een termijn of die dan inderdaad nog noodzakelijk is. Wat mijn fractie betreft is het zeker op dit moment, nu de kennisachterstand zo groot is, noodzakelijk om die vaste Kamercommissie in te stellen. Dat geeft ook het signaal naar buiten toe af dat wij digitale zaken in het hart van onze organisatie plaatsen, net zoals het kabinet heeft gedaan met het aanstellen van een staatssecretaris Digitalisering en de Tweede Kamer heeft gedaan. In dat opzicht straal je ook naar buiten toe uit dat je dit zwaar aanzet en van belang vindt. Misschien wilt u er nog eens met die blik naar kijken. Je zou het moeten zien als een tussenfase waarin je probeert op vlieghoogte te komen. We moeten er inderdaad uiteindelijk naartoe dat ieder Kamerlid volledig digitaal onderlegd is, maar dit zou een tussenstap zijn.

Mevrouw Gerkens (SP):

Ik heb er met die blik naar gekeken en ik kom tot een totaal andere conclusie. Ik denk dat als je een commissie Digitale Zaken hebt, je daarmee de verantwoordelijkheid bij die commissie neerlegt. Je zou juist moeten zeggen: laten we vanuit de staf heel helder maken dat er een digitale paragraaf is bij alle wetgeving die nu naar ons toekomt en dat we daar in alle commissies ook gedegen over moeten praten. Pas dan kan iedereen zich gemeenschappelijk verantwoordelijk voelen voor een thema. Ik denk dat als je een commissie Digitale Zaken hebt, men zegt: dat zal de commissie wel oppakken. Mijn oordeel op die analyse is anders dan het uwe.

Voorzitter, ik rond af. Waar we geen grip op kunnen krijgen, is de AI bij het bedrijfsleven. In toenemende mate leggen we de taken die bij de trias politica horen neer bij big tech. Deze werkt met AI waarvan de algoritmes niet openbaar zijn. Ik noem opnieuw het scannen van misbruikbeelden. Daarmee hebben we geen zicht op de totstandkoming van het bewijs. Dat is een zorgwekkende ontwikkeling, waar we wat mij betreft een volgend debat over mogen houden.

Dank u wel.

De voorzitter:

Dank u wel, mevrouw Gerkens. Dan is het woord aan de heer Dittrich namens D66.