
De nieuwe spelregels van het kabinet voor een verantwoord gebruik van generatieve AI voegen in de praktijk weinig toe voor gemeenten. Ze treffen al volop maatregelen. Ook de ontwikkeling van veilige AI-technologie is bij gemeenten in goede handen.
Het kabinet kwam eind april met zijn Handreiking Generatieve AI. Het overheidsbrede instrument geeft niet alleen de handvatten maar ook de randvoorwaarden aan voor een verantwoorde inzet van generatieve AI (genAI).
GenAI kan overheden helpen om hun bedrijfsvoering en dienstverlening te verbeteren. Voorbeelden zijn het maken van notulen en samenvattingen en het automatiseren van repetitieve handelingen. Neem ook de virtuele assistent waar een aantal gemeenten mee werkt om 24/7 vragen van inwoners af te handelen. Aan het toepassen van genAI kleven echter risico’s, en dat vraagt om duidelijke randvoorwaarden en risicoanalyses, stelt het kabinet.
i-Vakmanschap
Bij de presentatie van de overheidsbrede handreiking stelde staatssecretaris Szolt Szabó (digitalisering) dat AI-trainingen een vanzelfsprekend onderdeel moeten worden van het i-Vakmanschap van ambtenaren. Juist om te borgen dat het gebruik ervan verantwoord is.
Een van de voorwaarden voor het kabinet is dat ambtenaren ‘AI-geletterd’ zijn. Ze moeten snappen dat AI-systemen vooroordelen kunnen bevatten en dat ze de uitkomsten ervan niet blindelings kunnen volgen. Een overbodige eis, want gemeenten moeten hier al werk van maken vanuit de Europese AI-verordening, die sinds augustus vorig jaar van kracht is.
Vrees
De snelle opkomst van AI-tools als ChatGPT en Microsoft Copilot leidt ertoe dat ambtenaren de AI-tools ook voor hun werk gaan gebruiken, vreest het kabinet, terwijl er nog geen standaarden en richtlijnen voor genAI zijn. Wat in de praktijk al volop gebeurt. Medewerkers zoeken ook via Google, maar ChatGPT is net een gradatie anders. Een nadeel is dat alle data naar OpenAI gaan, die deze data weer gebruikt om het model hierachter te trainen.
AI-chatbots gebaseerd op een large language model (LLM), dat met grote hoeveelheden tekst wordt getraind, kunnen gaan hallucineren en onjuiste informatie geven. Ook kunnen datasets verouderd zijn. Een generatief AI-model heeft vooral het risico dat van de trainingsdata discriminerende patronen worden overgenomen.
Gemeenten
Veel gemeenten treffen evenwel al maatregelen. Voor het gebruik van ChatGPT zijn kaders gesteld. Medewerkers mogen daar geen persoonsgegevens en interne documenten van de gemeente in uploaden, wat in strijd is met privacywet AVG. Of ze verbieden ambtenaren om tooling te gebruiken die niet door de gemeente wordt aangeboden. Om die reden is bij veel gemeenten het Chinese DeepSeek afgeschermd van het netwerk, net als TikTok, dat op basis van eerder rijksadvies is geblokkeerd.
Gemeenten zijn voorzichtig met generatieve AI en willen de controle niet verliezen, leren de ervaringen die een drietal gemeenten vorig jaar op deze site deelde. Een twintigtal gemeenten was er onlangs als de kippen bij om net als Westland bezwaar te maken tegen het voornemen van Meta, het moederbedrijf van Facebook, Instagram en Whatsapp, om met ingang van 27 mei 2025 zijn AI met data op gemeentelijke accounts te trainen. De door Westland ingehuurde social media-expert maakt een kant-en-klare bezwaartekst voor gemeenten.
In zijn AI-handreiking stelt het kabinet nadrukkelijk dat publieke data niet zonder toestemming ingezet mogen worden als trainingsbron voor AI. Zelf heeft het richting Meta evenwel nog geen actie ondernomen.
Big tech
Menig gemeente streeft ernaar aan de AI-klauwen van Big tech te ontsnappen, dat jaarlijks zo’n 150 miljard dollar aan genAI uitgeeft. Zo gaf ICT-wethouder Alexander Scholtes van Amsterdam recent nog aan. Voor de Amsterdamse gemeenteambtenaar is in eigen huis ChatAmsterdam ontwikkeld. De Utrechtse raad dringt er in een afgelopen dinsdag aanvaard voorstel bij wethouder Rachel Streefland (personeel en organisatie) op aan de afhankelijkheid van Amerikaanse techbedrijven stapsgewijs af te bouwen.
Copilot
Zo makkelijk is dat overigens niet. Veel gemeenten zitten in de houdgreep van Microsoft dat genAI-tool Copilot stevig aan het pushen is om klanten nog afhankelijker te maken van zijn diensten. Wel heeft Copilot niet het nadeel van ChatGPT, dat alle data worden weggeven. Gebruikers kunnen hun data binnen de eigen Microsoft-servers kunnen houden. Een aantal gemeenten experimenteert om die reden met Copilot. Zo onderzoekt Groningen of de AI-chatbot bij kan dragen aan een betere bedrijfsvoering door routinematig werk te automatiseren en de databases van de gemeente toegankelijker te maken. Een avontuur dat kritisch gevolgd wordt door de eigen ethische commissie Data & Technologie.
Eigen GPT
Het kabinet wil overheden stimuleren om een eigen GPT (generative pre-trained transformer) te ontwikkelen, dus met eigen data en kennis getrainde taalmodellen. Wat de onafhankelijkheid op AI-gebied zou vergroten. Dat moeten dan wel GPT’s zijn die op een ethisch verantwoorde manier worden getraind. Ook de bewaartermijnen van data moeten duidelijk zijn vastgelegd.
Ook de transparantie van de ontwikkelde AI moet in orde zijn. Naar buiten toe moet uitlegbaar zijn hoe het AI-model werkt en tot zijn uitkomsten komt. Zoiets is cruciaal om vertrouwen naar gebruikers en andere belanghebbenden toe te creëren.
Een aantal overheidsorganisaties is al mee bezig met een eigen GPT, hoofdzakelijk voor intern gebruik. Provincie Zuid-Holland geeft vorig jaar een proef met PZH-assist gedaan. Het ministerie van Defensie heeft het naar eigen zeggen veilige DefGPT in gebruik genomen, meldt verantwoordelijk staatssecretaris Gijs Tuinman op zijn LinkedIn-profiel.
GovGPT
Ook op dit vlak kunnen andere overheden van gemeenten leren. Zo heeft koploper Montferland GovGPT in ontwikkeld, dat op een eigen machine draait, dus in een gesloten omgeving. De open source AI-chatbot wordt onder meer gebruikt voor het beoordelen van beschikkingen en het corrigeren van brieven.
Staatssecretaris Szabó wil komend najaar in een monitor de stand van zaken beschrijven van wat er overheidsbreed op het vlak van genAI gebeurt.
Geef een reactie