Bestuurlijke intelligentie - Helder algoritme, doorzichtig bestuur: wat betekent de transparantieplicht uit de AI-Verordening voor uw lokaal bestuur?

2 oktober 2025

AI schuift met rasse schreden alle lokale besturen in Vlaanderen binnen: chatbots op gemeente -websites, tekst- en beeldgeneratie voor publieke mededelingen, … het is niet langer toekomstmuziek, maar hedendaagse realiteit. Precies daarom legt artikel 50 van de AI-Verordening een expliciete transparantieplicht op, die (o.a.) de gebruiksverantwoordelijken van een AI-systeem (= vaak het lokaal bestuur) verplicht om burgers tijdig, duidelijk en zichtbaar te informeren wanneer zij met AI interageren of eraan worden blootgesteld. De boodschap is dubbel: wie vandaag helder communiceert, bouwt morgen zowel juridische conformiteit als maatschappelijk vertrouwen.

Transparantie volgens de AI-Verordening is …?

Artikel 50 AI-Verordening verankert een doelgebonden plicht voor zowel aanbieders als gebruiksverantwoordelijken van bepaalde AI-systemen: informeer natuurlijke personen tijdig en op duidelijke, herkenbare wijze over hun interactie met of blootstelling aan AI. Uiterlijk op het moment van de eerste interactie of blootstelling moet die informatie er zijn.

Niet onbelangrijk: voormelde transparantieplicht geldt uitsluitend voor drie expliciet afgebakende categorieën:

  • AI-systemen ontworpen om met natuurlijke personen te interageren (bv. chatbots, spraakgestuurde loketten);
  • AI-systemen die emotieherkenning of biometrische categorisering uitvoeren;
  • AI-systemen die synthetische of gemanipuleerde inhoud genereren of bewerken (beeld, audio, video, tekst).

Voor lokale besturen betekent dit dat zij burgers moeten informeren zodra zij dergelijke systemen inzetten, hetzij in het kader van publieke dienstverlening, communicatie en/of interne processen.

Aanbieder of gebruiksverantwoordelijke: wie moet wat doen?

Ieder bestuur dat optreedt als aanbieder van een AI-systeem (= zelf AI‑systemen ontwikkelt of laat ontwikkelen en onder eigen naam op de markt brengt), moet via ontwerp‑ en ontwikkelingskeuzes waarborgen dat de transparantievereisten worden nageleefd voor (i) systemen met directe interactie naar personen en (ii) systemen die synthetische content (audio, beeld, video of tekst) genereren:

  • Bij AI-systemen met directe interactie moet het systeem zodanig zijn ontworpen dat betrokkenen worden geïnformeerd dat zij met een AI‑systeem interageren, tenzij het voor een normaal geïnformeerde, redelijk omzichtige en oplettende persoon duidelijk is dat dit het geval is gelet op de omstandigheden en gebruikscontext.
  • Bij systemen die synthetische inhoud genereren moet de aanbieder er in beginsel voor zorgen dat de output, in machineleesbaar formaat, als kunstmatig gegenereerd of gemanipuleerd kan worden gedetecteerd, bijvoorbeeld via robuuste metagegevens of watermerken volgens de stand van de techniek.

Een bestuur dat daarentegen (ook) optreedt als gebruiksverantwoordelijke van een AI-systeem (= gebruiker van een AI-systeem van een externe aanbieder, zonder het zelf te hebben (laten) ontwikkelen), moet betrokkenen bij de eerste interactie of blootstelling, op een toegankelijke en duidelijke manier informeren, wanneer:

  • emotieherkenning of biometrische categorisering plaatsvindt: in dat geval moet voorafgaand aan de blootstelling worden meegedeeld dat en hoe dergelijke systemen worden gebruikt.
  • beeld-, audio- of videocontent wordt gegenereerd of bewerkt die kwalificeert als “deepfake”: betrokkenen moeten in dit geval kunnen vaststellen dat de betreffende inhoud kunstmatig is tot stand gekomen, tenzij in het geval van artistieke, creatieve, satirische, fictieve of analoge werken (in dit laatste geval volstaat een passende bekendmaking van het kunstmatige karakter, zonder het artistieke genot te verstoren).
  • tekstuele content kunstmatig wordt gegenereerd of bewerkt en publiek wordt gepubliceerd over aangelegenheden van algemeen belang: in zulke gevallen moet aan betrokkenen kenbaar worden gemaakt dat de tekst kunstmatig is gegenereerd of bewerkt, tenzij de tekst voorafgaand aan publicatie een menselijke toetsing/redactionele controle kreeg en er daarvoor een natuurlijke of rechtspersoon eindverantwoordelijkheid draagt.

Van norm naar praktijk: de meest voorkomende lokale use cases

Vaker voorkomende toepassingen die onder de reikwijdte van de voormelde AI-transparantieplicht kunnen vallen in de context van lokale besturen zijn (o.a.) chatbots op gemeentewebsites, spraakgestuurde loketdiensten, automatische suggesties voor tekstuele antwoorden, het gebruik van door AI gegenereerde beelden of teksten bij publieke mededelingen, … :

  • Chatbots op de gemeentelijke website: voor de start van het gesprek moet duidelijk zijn dat de burger met een AI-gestuurde assistent communiceert. Een korte, zichtbare melding volstaat, bijvoorbeeld via een pop-up die meldt dat antwoorden automatisch worden gegenereerd op basis van gemeentelijke databanken, desgevallend aangevuld met de mogelijkheid om door te schakelen naar een medewerker voor complexe of persoonsgebonden vragen.
  • Telefonische triage via spraakbots wanneer burgers telefonisch contact opnemen met een dienst: de welkomstboodschap vermeldt expliciet dat de initiële interactie door een AI-systeem gebeurt en dat overschakelen naar een mens steeds mogelijk is.
  • E-mailondersteuning en tekstsuggesties: indien AI (delen van) antwoorden aanreikt of mee opstelt, verdient een heldere disclaimer aanbeveling in het onderschrift, bij voorkeur in via een korte, hanteerbare formulering: “Deze e-mail en bijlagen kunnen (deels) tot stand zijn gekomen met behulp van AI.”
  • Visuele communicatie met gegenereerde of gemanipuleerde beelden/video’s: kenbaar moet gemaakt worden dat het gaat om kunstmatig gegenereerde en/of gemanipuleerde inhoud, hetgeen kan gebeuren aan de hand van uniforme labels of bijschriften die consequent terugkeren op alle digitale kanalen. Een herkenbaar icoon of korte aanduiding (“AI-ondersteund”) verhoogt de consistentie.

AI-transparantie wordt op deze manier meer dan loutere compliance, maar wordt een performant instrument ten behoeve van digitaal vertrouwen in de dienstverlening van het (lokaal) bestuur.

Samenloop met de AVG: dubbel, maar niet identiek

De AI-Verordening laat andere transparantieverplichtingen onverlet. Dit betekent dat gebruiksverantwoordelijken van AI-systemen niet uitsluitend naar de AI-Verordening moeten kijken, maar steeds het bredere juridische kader in acht moeten nemen, in het bijzonder de transparantieverplichtingen van de Algemene Verordening Gegevensbescherming (AVG).

Verwerkt een AI-toepassing dus ook persoonsgegevens die gevat zouden worden door de Algemene Verordening Gegevensbescherming, dan gelden onverkort de artikelen 12–14 AVG, bovenop artikel 50 AI-Verordening. Concreet moet het (lokaal) bestuur betrokkenen dan -als verwerkingsverantwoordelijke- ook informeren over (o.a.) de identiteit van de verwerkingsverantwoordelijke, de doeleinden en de rechtsgrond van de verwerking, de bewaartermijnen, de ontvangers van de gegevens, en de rechten die betrokkenen kunnen uitoefenen, zoals inzage, correctie en bezwaar.

Dit in een beknopte, transparante en begrijpelijke vorm en in een duidelijke en eenvoudige taal.

Het perspectief tussen de AI-transparantieplicht en de AVG-transparantieplicht verschilt echter:

  • Transparantie onder de AI-Verordening: beschermt iedere betrokkene die met een AI-systeem interageert, ongeacht of er persoonsgegevens worden verwerkt. De focus ligt daarbij op de herkenbaarheid van de inzet van AI, de aard van het systeem en de eventuele beperkingen ervan;
  • Transparantie onder de AVG: beschermt uitsluitend betrokkenen van wie persoonsgegevens worden verwerkt en verlangt gedetailleerde informatie over (o.a.) de rechtsgrond, doeleinden, bewaartermijnen en de rechten van betrokkenen.

Conclusie: wanneer een lokaal bestuur -in zijn rol als gebruiksverantwoordelijke- AI-systemen inzet die emotieherkenning of biometrische categorisering uitvoeren, beeld-, audio- of videocontent genereren of tekstuele content produceren en deze systemen daarbij ook persoonsgegevens verwerken, moet het bestuur voldoen aan een dubbele transparantieplicht.

Werk in voorkomend geval geïntegreerd: één contactmoment, twee lagen informatie.

Van plicht naar beleid: bouw vandaag aan transparantie en conformiteit voor morgen

De AI-transparantieplicht wordt formeel afdwingbaar vanaf 2 augustus 2026; veel tijd om te wachten met implementatie is er echter niet. Start daarom met een gestructureerde aanpak:

  1. Inventariseer AI-toepassingen. Breng in kaart welke van artikel 50-categorieën er van toepassing zijn.
  2. Bepaal de rol. Treedt uw bestuur op als aanbieder of als gebruiksverantwoordelijke? Stem verantwoordelijkheden en contractafspraken daarop af.
  3. Ontwerp standaardcommunicatie. Werk korte, contextgebonden meldingen uit per kanaal (web, telefoon, e-mail, sociale media), inclusief uniforme labels/icoontjes.
  4. Borg redactionele controle. Voor publieke teksten: leg vast wie de eindverantwoordelijkheid draagt en hoe de menselijke toets gebeurt.
  5. Integreer AVG-informatie. Combineer AI-transparantie met de noodzakelijke AVG-kennisgevingen wanneer persoonsgegevens worden verwerkt.
  6. Test op begrijpelijkheid. Hanteer duidelijke taal en test met echte gebruikers; transparantie moet niet alleen juist, maar ook bruikbaar zijn.
  7. Documenteer. Leg keuzes, labels en meldingen vast in beleid en procedures; dat is het vereiste bewijs van zorgvuldigheid.

Transparantie als strategisch beleid en voordeel

Een coherent transparantiebeleid is méér dan risicobeheersing. Het is een kans om digitale dienstverlening volwassen te maken en vertrouwen te versterken. Lokale besturen die vandaag werk maken van herkenbare AI-communicatie, oogsten morgen breed gedragen innovatie. Wie helder is over het “hoe” en “waarom” van AI, krijgt ruimte om te experimenteren binnen duidelijke grenzen.

Bij GD&A Advocaten begrijpen we als geen ander het belang van deze materie.

In de maand november organiseren wij daarom -op onze kantoren te Lokeren en Hechtel-Eksel- een doorgedreven AI-seminarie (“Van Algoritme tot Administratie: GD&A(I) ontleedt de AI-Verordening voor lokale besturen”), waarin we een uitgebreid antwoord trachten te geven op de meest prangende vragen over de AI-Verordening en de impact hiervan voor de lokale besturen.

Ons team staat dan ook steeds klaar om uw bestuur met kennis van zaken bij te staan.