AI-systemen vinden in sneltempo hun weg naar lokale besturen, van chatbots tot analysetools en beslissingsondersteuning, maar met die integratie, klinkt ook steeds luider de vraag: wie draagt de verantwoordelijkheid wanneer het misloopt? De Europese AI‑Verordening en de alledaagse praktijk rond generatieve AI (zoals Chatgpt, Copilot, …) scherpen de urgentie in ieder geval aan: beslissingen worden complexer, datastromen rijker, en verwachtingen van burgers en toezichthouders hoger.
Waar kan het foutgaan? Persoonsgegevens, auteursrechten en behoorlijk bestuur onder druk
AI‑toepassingen kruisen vandaag meer dan één normatief spoor tegelijk: minstens de regels inzake gegevensbescherming, intellectuele eigendomsrechten en de algemene beginselen van behoorlijk bestuur lopen in de praktijk in elkaar over.
Verwerkingen van persoonsgegevens via prompts, uploads of automatische analyses vallen in de regel onder de Algemene Verordening Gegevensbescherming (hierna: AVG), met alle verplichtingen van rechtmatigheid, transparantie, doelbinding, minimale gegevensverwerking, integriteit en passende afspraken met verwerkers. Het ontbreken van een rechtsgrond of het niet naleven van andere AVG‑verplichtingen maakt de verwerking in beginsel onrechtmatig en zet de deur naar aansprakelijkheidsvragen open.
Naast persoonsgegevensbescherming dreigt inbreuk op auteurs- en andere intellectuele eigendomsrechten wanneer (bv.) offertes, plannen, infografieken of andere beschermde werken zonder toestemming (resp. licentie) worden ingevoerd in of hergebruikt via een AI‑systeem. De aangewezen oplossing is een duidelijke licentie of toestemming met afbakening van doel, middel en reikwijdte van het gebruik van de beschermde werken; blijft die achterwege, dan blijft het risico op inbreuk op auteurs‑ en andere intellectuele eigendomsrechten reëel.
Tot slot blijven ook de algemene beginselen van behoorlijk bestuur – zorgvuldigheid, objectiviteit, non‑discriminatie, transparantie, deugdelijke motivering, … –onverkort gelden, ook wanneer AI enkel ondersteunend wordt gebruikt. Prompt‑engineering wordt dan een juridische kwestie: slordige of subjectieve prompts vergroten de kans op “garbage in, garbage out”, met potentiële botsingen met het zorgvuldigheids‑ en gelijkheidsbeginsel. Wordt AI‑output overgenomen zonder aantoonbare menselijke tussenkomst of toezicht, dan dreigt de beslissing onverklaarbaar te worden en komt het motiveringsbeginsel onder druk te staan.
Wie betaalt de rekening? Aansprakelijkheid van bestuur, medewerker en mandataris
Het nieuw Burgerlijk Wetboek houdt vast aan het klassieke uitgangspunt: wie door zijn/haar fout schade veroorzaakt, is in beginsel aansprakelijk. Dat paradigma geldt onverkort voor overheden en dus ook voor foutief AI‑gebruik. Lokale besturen lopen buitencontractuele aansprakelijkheidsrisico’s, waarvoor de klassieke vereisten van fout, schade en oorzakelijk verband als constitutieve aansprakelijkheidsvoorwaarden gelden.
De fout kan schuilen in het miskennen van wettelijke regels – bijvoorbeeld de regels inzake gegevensbescherming of de AI‑regulering – maar ook in de schending van de algemene zorgvuldigheidsplicht, bijvoorbeeld door onzorgvuldige prompts, onvoldoende menselijk toezicht of onverklaarbare beslissingen die louter op AI‑output steunen.
Als rechtspersoon is het lokaal bestuur in beginsel aansprakelijk voor de eigen fouten én voor fouten van aangestelden en organen in de uitoefening van hun functies. Personeelsleden en mandatarissen genieten daarbij een verregaande bescherming tegen persoonlijke aansprakelijkheid: zij kunnen in principe pas persoonlijk worden aangesproken in geval van bedrog, zware fout of veel voorkomende lichte fout.
Herkenbare praktijkvoorbeelden maken de (aansprakelijkheids-)risico’s ook tastbaar.
Een integrale uitbesteding van de inhoudelijke beoordeling van offertes aan een AI‑systeem, gevolgd door een gunning zonder zinvolle menselijke validatie, vergroot het risico op fouten, gebrekkige motivering en schending van diverse beginselen, met potentiële aansprakelijkheid voor het bestuur tot gevolg. Evenzeer kan het massaal -al dan niet systematisch- invoeren van OCMW‑cliëntendossiers in een onvoldoende beveiligd AI‑systeem tot datalekken (en daaruit volgende schadeclaims) leiden.
Zulke scenario’s onderstrepen het belang van menselijke tussenkomst, procedurele checks‑and‑balances en solide technische en organisatorische beveiligingsmaatregelen
Zet de krijtlijnen: een AI‑beleid als juridische veiligheidsriem
Een intern AI‑beleid fungeert als normatief én operationeel kompas: het bundelt wat mag en niet mag, voor welke use‑cases en met welke gegevens, en legt governance, verantwoordelijkheden, controle‑ en sanctiemechanismen vast.
In de praktijk wint een kort en toepasbaar richtlijnenkader aan kracht. Denk aan duidelijke afspraken over het gebruik van enkel door het bestuur goedgekeurde AI‑tools, het verbod op verwerking van gevoelige of herleidbare persoonsgegevens in prompts zonder voorafgaande rechtsgrond en passende waarborgen, en een expliciete plicht om herkomst van gegevens te vermelden en auteursrechten te respecteren. Minstens even belangrijk zijn aantoonbare menselijke toetsing voordat AI‑output wordt gebruikt in communicatie, besluitvorming of advies, het labelen van AI‑gegenereerde content waar passend, en het correct informeren van burgers wanneer zij met een AI‑systeem interageren. Tot slot horen incidentmelding en een helder escalatieprotocol thuis in ieders toolkit.
Door deze elementen stevig -en transparant- te verankeren, verhoogt een bestuur de rechtszekerheid en de praktische naleving. Inbedding van een AI-beleid als bijlage bij het arbeidsreglement versterkt de afdwingbaarheid en biedt een expliciet beoordelingskader bij onjuist gebruik door personeelsleden, met eventuele persoonlijke aansprakelijkheid tot gevolg.
Van principe naar praktijk: de AICO als hefboom
Steeds meer besturen verankeren een Artificial Intelligence Compliance Officer (AICO) als spilfiguur die beleid opstelt, AI‑inventarissen beheert, FRIA/DPIA‑trajecten coördineert, incidenten opvolgt, opleidt en onafhankelijk rapporteert aan het management. De AICO staat op het kruispunt van recht, techniek en ethiek, en werkt -idealiter- nauw samen met DPO, ICT, juridische dienst, HR en aankoop.
De integratie van een AICO zorgt daardoor niet enkel voor samenhang en een versnelling van de AI-maturiteit van de organisatie, maar is tegelijk strategisch en operationeel van aard: de AICO verbindt beleidskeuzes met concrete procesafspraken, contractuele waarborgen en audit‑sporen. Dit vergroot de kans dat AI‑adoptie niet alleen efficiëntie oplevert, maar ook uitlegbaar blijft voor burgers, besturen en rechters.
Handel met waarborgen: werken met AI zonder juridische averij
AI biedt reële kansen voor dienstverlening, efficiëntie en kwaliteit in lokale besturen. Maar waar AI beslissingen ondersteunt, rust een verhoogde plicht op bestuur en ambtenaar om rechtmatig, zorgvuldig en uitlegbaar te werken. Aansprakelijkheid bij foutief gebruik valt te beheersen door duidelijke rolkeuzes, aantoonbaar menselijk toezicht, zorgvuldig prompten, degelijke contracten, en vooral: een gedragen intern AI‑beleid met opleiding en toezicht.
De kernboodschap is eenvoudig maar veeleisend: omarm de mogelijkheden van AI, maar leg tegelijk een stevig juridisch en organisatorisch fundament. Een bestuur dat vandaag investeert in beleid, competenties en governance, vermijdt morgen dure lessen.
Bij GD&A Advocaten begrijpen we als geen ander het belang van deze materie. Ons team staat dan ook steeds klaar om uw bestuur met kennis van zaken bij te staan.