NIEUWSARTIKEL

Artificiële intelligentie & de veranderende rol van de Functionaris Gegevensbescherming

Geplaatst op 01-04-2025  -  Categorie: Nieuws  -  Auteur: Bram Hoovers, Considerati

Beeld van silhouet persoon omgeven door data

AI verandert onze samenleving in een hoog tempo en het gebruik ervan binnen organisaties neemt snel toe. De meeste organisaties krijgen daardoor te maken met de AI-verordening. De AI-verordening introduceert Europese eisen en wettelijke kaders voor verantwoord en veilig gebruik van AI. Deze verordening trad vorig jaar in werking en kent tot 2027 een gefaseerde werking. Vergelijkbaar met de AVG krijgen organisaties een overgangsperiode om hun bedrijfsvoering- en processen in lijn te brengen met de regels van de AI-verordening. Voor de Functionaris Gegevensbescherming (FG) brengt dit nieuwe verantwoordelijkheden met zich mee.  

Op 2 februari 2025 trad de eerste set regels van de AI-verordening in werking, die een verbod op bepaalde AI-systemen en een verplichting tot AI-geletterdheid omvatten. Bij AI-geletterdheid gaat het erom dat werknemers over de juiste kennis en vaardigheden beschikken om AI op een verantwoorde manier in te zetten. Voor FG’s is adequate AI-geletterdheidtraining cruciaal, omdat zij alleen dan effectief kunnen toezien op de naleving van privacywetgeving bij AI-systemen. Dit geldt bijvoorbeeld voor het adviseren over DPIA’s, die voor AI-systemen met risico’s op het gebied van gegevensbescherming verplicht zullen zijn. In sommige gevallen verplicht de AI-verordening bovendien tot een beoordeling van “de gevolgen voor de fundamentele rechten en vrijheden”, waarbij het voor de hand ligt dat de FG daarbij een rol krijgt. Ook vanuit dit oogpunt kan de FG zijn of haar rol alleen met voldoende kennis van (de regels over) AI effectief vervullen.

Ook het Europees Comité voor gegevensbescherming ziet een belangrijke rol voor de FG bij het waarborgen van een verantwoorde inzet van AI. In de recente richtsnoeren (28/2024) over gegevensbescherming in de context van AI-modellen gaat het Comité in op de vraag wanneer een AI-model, zoals LLM’s en GenAI, als (ge)anoniem(iseerd) kan worden beschouwd. Volgens het Comité moet een claim van anonimiteit op basis van documentatie worden geëvalueerd. Dergelijke documentatie omvat onder meer informatie met betrekking tot DPIA’s, waaronder beslissingen dat er geen noodzaak was tot het uitvoeren van een DPIA alsmede elk advies of feedback van de FG over het AI-model. Daarnaast bieden de richtsnoeren handvatten voor het beoordelen van de geschiktheid van de grondslag ‘gerechtvaardigd belang’ voor het verwerken van persoonsgegevens bij de ontwikkeling en het gebruik van AI-modellen. Precies met dit soort onderwerpen zullen FG’s op korte termijn steeds meer te maken krijgen. Zorg er daarom voor dat je als FG een goed gevuld gereedschapskist hebt om over AI-vraagstukken te adviseren.

Op zoek naar een AI-training?

Considerati biedt uitgebreide AI-trainingen aan, waarmee je de vaardigheden en inzichten verwerft die nodig zijn om advies te geven over het gebruik van AI binnen jouw organisatie. Mis deze kans niet om en schrijf je vandaag nog in:

  • 3-daagse Considerati AI Governance Training
  • 1-Day AI Governance Accelerated Training

 Considerati is partner van het NGFG en NGFG-leden krijgen daarom €175,- korting!