AI handen en voeten geven in tastbaar beleid en heldere werkafspraken blijft lastig voor gemeenten. Ook ontbreken vaak richtlijnen voor verantwoord AI-gebruik. Medewerkers weten zo niet waar ze aan toe zijn.
Dat blijkt uit het trendonderzoek ‘AI, het kan intelligenter’ van organisatieadviesbureau Berenschot en onderzoeksinstituut Waag Futurelab. Zij peilden het gebruik van AI in ons land in verschillende sectoren, waaronder de overheid.
Volgens het onderzoek heeft minder dan een derde van gemeenten en andere overheden beleid ontwikkeld voor de inzet van AI. Ook heeft slechts een derde afspraken of werkwijzen opgesteld hoe binnen de organisatie om te gaan met AI. Om AI verantwoord te gebruiken zijn concrete beleidslijnen en randvoorwaarden nodig, stelt het trendrapport. Anders weten medewerkers niet waar ze aan toe zijn.
Ethische aspecten
Volgens het trendonderzoek hebben veel organisaties nog geen richtlijnen opgesteld voor verantwoord AI-gebruik, terwijl de behoefte hieraan groeit. Een effectieve checks & balances ontbreekt bij de meeste organisaties.
De onderzoekers signaleren gebrek aan visie, governance en overleg over ethische aspecten voorafgaand aan de implementatie van AI. Zo’n visie moet duidelijk stellen waarom de organisatie met AI wil werken en wat het moet gaan opleveren. In de publieke sector waar waarden als transparantie en uitlegbaarheid randvoorwaardelijk zijn bij de inzet van AI is dit ronduit problematisch, stellen de onderzoekers. Mede omdat het gebruik van AI-toepassingen bij de overheid al enkele jaren onder een vergrootglas ligt. Niet alleen vanwege wet- en regelgeving maar ook met schandalen als de Toeslagenaffaire met grote impact op betrokken burgers.
De in maart verschenen AI Monitor Gemeenten 2024 van adviesbureau M&I/Partners gaf aan dat driekwart van de gemeenten werkt aan een AI-visie en -strategie, maar dat dit eveneens nog niet tot concrete beleidskaders heeft geleid.
Mee denderen in de AI-hype
Het trendonderzoek stelt dat veel organisaties zonder enige kritische noot mee denderen in de AI-hype, vooral omdat ze vrezen achterop te raken in deze belangrijke technische ontwikkeling. Ondanks de groei van AI blijft het in tweederde van de organisaties desondanks bij ad-hoc gebruik. Onlangs signaleerde ook Gemeente.nu dat de opschaling van AI-toepassingen hierdoor achterblijft.
Volgens het trendonderzoek wordt AI het meest gebruikt voor het versnellen van werkprocessen, ook wel Robotic Process Automation (RPA) genoemd. Een RPA-tool is een vorm van machine learning AI en kan handmatige administratieve taken uitvoeren, denk aan gegevensinvoer, verwerking van facturen en beheer van klantgegevens. Doel is het automatiseren van repetitieve handelingen.
Fraudebestrijding
Op de tweede en derde plek staan de detectie van fraude en de inzet van AI-chatbots. Neem de virtuele assistent waar steeds meer gemeenten mee werken om 24/7 vragen van inwoners af te handelen.
Eerder drongen raadsleden er op deze site nog op aan AI positief in te zetten en niet alleen voor onderwerpen als fraudebestrijding. AI leent zich ook prima voor het opsporen van inwoners die uitkeringen en subsidies links laten liggen. Een van hen wees op het voorbeeld van Delft. De gemeente gebruikt AI bij de intake voor de schuldhulpverlening.
Generatieve AI
Het AI-trendonderzoek constateert dat individuele medewerkers vaak generatieve AI-tools als ChatGPT, Copilot en Gemini gebruiken voor het maken van samenvattingen en het genereren van tekst. Ook hier waarschuwen de onderzoekers voor risico’s.
Het gevaar bij genAI bestaat er allereerst in dat deze technologie door aanbieders als Meta, Google en Microsoft geïntegreerd wordt in bestaande producten. Zo introduceren zij generatieve AI in werkomgevingen, voordat er door de meeste organisaties beleid of kaders voor zijn aangebracht.
AI-chatbots gebaseerd op een large language model (LLM), dat met grote hoeveelheden tekst wordt getraind, kunnen bovendien gaan hallucineren en onjuiste, niet verifieerbare informatie geven. Ook kunnen datasets verouderd zijn. AI maakt het bovendien steeds moeilijker om echt van nep te onderscheiden, waarschuwen de onderzoekers.
Los nog van de gevolgen wat genAI doet met alle data die het krijgt aangereikt en zo ook gevoelige gegevens weg kunnen lekken. In tegenstelling tot ChatGPT heeft Copilot niet het nadeel, dat alle data worden weggeven. Gebruikers kunnen hun data binnen de eigen Microsoft-servers kunnen houden.
De onderzoekers verzuimen overigens de ontwikkeling van GovGPT te noemen. In gemeenteland heeft Montferland als alternatief voor ChatGPT het eigen GovGPT ontwikkeld, dat op een eigen machine draait, dus in een gesloten omgeving. De open source AI-chatbot wordt onder meer gebruikt voor het beoordelen van beschikkingen en het corrigeren van brieven.
Lichtpuntje
Het enige lichtpuntje, aldus het trendrapport, is de begin dit jaar uitgebrachte Overheidsbrede handreiking Generatieve AI. Dit instrument geeft de handvatten en randvoorwaarden aan voor een verantwoorde inzet van genAI. Zaak is nu dat meer overheidsorganisaties hier gebruik van gaan maken.
De onderzoekers hadden ook nog naar het Algoritmekader kunnen verwijzen, waar vorig staatssecretaris Zsolt Szabó (digitalisering) in februari mee is gekomen. Doel hiervan is dat ambtenaren na kunnen gaan hoe aan de uitdijende berg wetten, regels en normen te voldoen, en welke verplichtingen gelden voor de specifieke algoritmes waar ze mee werken.
In verschillende gemeenten zijn de risico’s rond genAI al nadrukkelijk in beeld gekomen, zoals in Groningen en Rotterdam. Hierbij zijn de betreffende colleges op de vingers getikt. Sommige gemeenten zijn beslist voorzichtig met generatieve AI en willen de controle niet verliezen, leerde een eerdere rondgang door Gemeente.nu.




Geef een reactie