Koers zetten in de digitale storm: waarom elk lokaal bestuur nú een helder AI-beleid nodig heeft

30 juli 2025

De golven van artificiële intelligentie (AI) overspoelen in sneltempo de Vlaamse bestuurspraktijk. ChatGPT vat gemeenteraadsdebatten samen, Copilot redigeert beleidsnota’s en steeds slimmere algoritmen helpen bij het beoordelen van vergunningen of het monitoren van overlast. Maar tussen innovatie-drang en juridische werkelijkheid gaapt een kloof.

Uit een recente rondvraag blijkt dat maar liefst 7 op de 10 Belgische werknemers vinden dat er onvoldoende duidelijke richtlijnen zijn binnen de eigen organisatie, met betrekking tot het gebruik van AI op de werkvloer; een vaststelling die -naar vermoeden- niet anders is voor de lokale besturen in Vlaanderen, waar AI-tools zoals ChatGPT, Copilot en andere (generatieve) AI-toepassingen steeds vaker hun intrede doen.

Schering en inslag zijn vragen zoals: mogen AI-systemen gebruikt worden voor het verwerken van persoonsgegevens? Is het veilig om interne beleidsinformatie of dossiers via commerciële AI-systemen te laten analyseren? En in welke mate blijven de output en suggesties van AI binnen de juridische en ethische kaders die voor lokale besturen gelden?

Met de Europese AI-Verordening (EU 2024/867) wordt die onzekerheid riskant én duur. Kortom: de tijd dringt om het roer vast te grijpen en een doordacht AI-beleid te verankeren.

AI tekent een nieuw bestuurslandschap: de AI-Verordening en AVG als regelgevend kompas

De meerwaarde van AI voor lokale besturen staat buiten kijf. Automatische transcriptie van beraadslagingen, proactieve beantwoording van burger­vragen of voorspellende modellen voor patrimonium­beheer: het kan allemaal sneller, goedkoper en vaak accurater.

Toch huist het duiveltje in de details. Wie AI-systemen inschakelt zonder duidelijke afspraken, riskeert:

  • De Algemene Verordening Gegevensbescherming (de zgn. GDPR) te miskennen wanneer persoonsgegevens zonder rechtsgrond in een commerciële chatbot belanden;
  • Een aantasting van besluitvormings­transparantie wanneer burger of rechter niet kan achterhalen hoe een algoritme tot zijn aanbeveling kwam;
  • Potentiële sancties en/of (reputatie-)schade ingeval er geoordeeld zou worden dat een hoog-risico-systeem niet conform de AI-Verordening werd uitgerold;

Hoewel het opstellen van een AI-beleid -strikt genomen- (nog) niet wettelijk verplicht is voor lokale besturen, wordt dit urgenter met het oog op de voortschrijdende toepassing van de Europese AI-Verordening.

Lokale besturen maken vandaag al gebruik van verschillende AI-systemen die onder de AI-Verordening vallen, elk met een verschillend risiconiveau. AI-systemen met een beperkt risico, zoals de meeste chatbots op gemeentelijke websites, vereisen vooral transparantie. Daartegenover staan AI-systemen met een hoog risico, zoals toepassingen die beslissingen ondersteunen over vergunningen of systemen voor het monitoring van veiligheid en overlast. Voor deze systemen gelden strikte verplichtingen zoals een voorafgaande risicobeoordeling, technische documentatie en menselijke toezicht.

Parallel blijft de Algemene Verordening Gegevensbescherming (AVG) onverminderd gelden indien er sprake is van een verwerking van persoonsgegevens bij het gebruik van AI-systemen. Artikel 6 AVG vereist een rechtsgrond; artikel 5 AVG legt algemene verwerkingsbeginselen vast zoals dataminimalisatie en proportionaliteit. De boodschap is duidelijk: een AI-applicatie is geen vrijgeleide om ruimer te oogsten dan strikt noodzakelijk.

Door nu al werk te maken van een AI-beleid, voorzien lokale besturen niet alleen in duidelijke richtlijnen voor hun medewerkers en anticiperen ze op de toekomstige verplichtingen onder de Europese AI-Verordening, maar verzekeren ze ook dat het huidige gebruik van AI-systemen in overeenstemming is met de geldende privacywetgeving.

Risico-gebaseerde aanpak: bouwstenen voor een robuust AI-beleid

Een passend en robuust AI-beleid is meer dan een set regels op papier.

Een eerste cruciale stap is het formuleren van een duidelijke visie: waarvoor wil het bestuur AI inzetten en met welk doel? Deze keuzes worden niet alleen ingegeven door juridische grenzen en technologische mogelijkheden, maar vooral door moreel en ethisch aanvoelen.

Daarnaast is het essentieel om een gestructureerd proces voor risicobeoordeling en goedkeuring van AI-toepassingen te voorzien. Voor elke (nieuwe) toepassing moet bepaald worden onder welk risiconiveau ze valt en welke verplichtingen daaruit voortvloeien volgens de AI-Verordening of andere relevante regelgeving. Op basis daarvan moeten duidelijke spelregels vastgelegd worden die bepalen wat wel en niet is toegestaan bij het gebruik van AI binnen de organisatie. Denk bijvoorbeeld aan het verbod om persoonsgegevens in AI-systemen te verwerken zonder geldige rechtsgrond, of aan de verplichting om AI-gegenereerde output altijd door een medewerker te laten controleren. Lokale besturen kunnen zich hiervoor laten inspireren door de richtlijnen voor het gebruik van generatieve AI opgesteld door Digitaal Vlaanderen.

Tot slot is het ook sterk aan te bevelen een verantwoordelijke aan te stellen voor het (interne) toezicht op het AI-beleid (al dan niet: de zgn. AICO). Die persoon waakt over de toepassing van het AI-beleid, stimuleert bewustwording binnen de organisatie en kan er tevens voor zorgen dat het AI-beleid regelmatig wordt geëvalueerd en geactualiseerd.

Naar een levend AI-beleid: vandaag plannen, morgen uitvoeren

Een AI-beleid is geen statisch handboek maar een dynamisch kompas. Technologie evolueert, de rechtspraak zal verduidelijken en de regelgeving zal geïnterpreteerd worden.

Lokale besturen die vandaag het fundament leggen – visie, inventarisatie, toetsings­kader en governance – zijn morgen niet alleen compliant maar plukken ook de innovatieve vruchten sneller. Integraal beleid voorkomt ad-hoc brandjes en geeft vertrouwen aan raadsleden, personeel en burgers.

Navigare necesse est: varen is noodzaak, en stilstaan is in de digitale golfslag geen optie. De AI-Verordening biedt een helder kader, maar het is aan elk lokaal bestuur om het kompas juist af te stellen en het ruim voldoende juridisch zeemanschap te tonen. Wie vandaag investeert in een transparant, risicogestuurd en levend AI-beleid, vermijdt morgen scherpe kliffen van niet-compliance en reputatie-schade.

Sapere aude – durf te weten – en zet de stap van los zand naar stevig fundament.

Voorzie jouw bestuur van een AI-beleid

Wilt u aan de slag met het opstellen en implementeren van een AI-beleid voor uw bestuur?

GD&A Advocaten begeleidt lokale besturen niet enkel bij de implementatie van de AI-Verordening, maar organiseert ook een praktijkgerichte opleiding ‘AI-beleid voor lokale besturen’, met praktische handvatten, actuele voorbeelden en heldere richtlijnen, volledig afgestemd op de uitdagingen van lokale besturen in Vlaanderen.

Samen houden we immers het schip op koers en zorgen we voor een veilige en verantwoorde inzet van AI binnen lokale besturen. Tenzij u als Phaeaken denkt de zee te bevaren zonder roer en stuurman in een perfecte storm.