De afgelopen maanden zijn er steeds vaker meldingen van datalekken naar voren gekomen, veroorzaakt door het gebruik van AI-tools. Organisaties zetten deze tools in om sneller en efficiënter te werken, problemen op te lossen en meer inzicht te krijgen. Dit gaat echter gepaard met het delen van persoonsgegevens met AI-tools, wat bepaalde risico’s met zich meebrengt.
Wil je meer weten over de risico’s van het gebruik van AI-tools? In deze blog delen we onze bevindingen.
Datalekken door het gebruik van AI-tools
Het gebruik van AI-tools is de afgelopen tijd toegenomen, en helaas zijn daarmee ook de problemen met datalekken toegenomen. AI-tools, ontworpen om taken efficiënter en effectiever uit te voeren, kunnen grote hoeveelheden data verwerken en analyseren, patronen herkennen en voorspellingen doen. Deze tools hebben echter toegang tot gevoelige informatie nodig om hun taken uit te voeren. Dit kan leiden tot onbedoelde datalekken als de informatie niet goed wordt beveiligd.
Risico’s van het delen van Persoonsgegevens met AI-tools
Medewerkers van een huisartsenpraktijk en een telecombedrijf hebben persoonlijke gegevens in een AI-chatbot ingevoerd. Dit heeft geleid tot meldingen van datalekken en een schending van de privacy. Dit gebeurde ondanks bestaande afspraken en vaak op eigen initiatief van de medewerkers. Hoewel het gebruik van digitale assistenten zoals ChatGPT en Copilot voordelen heeft, zoals het beantwoorden van klantvragen en het samenvatten van grote dossiers, zijn er ook grote risico’s aan verbonden. Het gebruik van AI-chatbots is soms onderdeel van het beleid van organisaties. In zulke gevallen is het misschien geen datalek, maar het is vaak wettelijk niet toegestaan.
Welke AI-tools zijn het populairst?
Er zijn veel verschillende AI-tools ontworpen, elk met hun unieke functies en voordelen. Hieronder hebben we er een paar voor je op een rijtje gezet:
AI-Wetgeving: Regels voor Betrouwbaar en Verantwoord Gebruik van AI in de EU
De AI-verordening is een wet voor het gebruik van AI-tools. Deze wet moet ervoor zorgen dat het gebruik van AI in de EU betrouwbaar is. Daarvoor stelt de EU eisen aan de ontwikkeling en het gebruik van deze systemen. Afhankelijk van het AI-systeem of de context waarin het wordt gebruikt, gelden er verschillende eisen. Toepassingen van AI die echt ontoelaatbare risico’s opleveren voor mensen, worden verboden. Denk daarbij aan systemen die bijvoorbeeld worden gebruikt voor een oneerlijke beoordeling van mensen (zogenaamde ‘Social Scoring’).
Stapsgewijze invoering van nationale regelgeving
De verordening is op 1 augustus 2024 in werking getreden, maar de verschillende onderdelen worden trapsgewijs van toepassing. Dit geeft ontwikkelaars en aanbieders van hoog-risico AI vervolgens de gelegenheid om hun systemen te laten voldoen aan de nieuwe eisen.
Februari 2025: bepalingen op verboden AI
Welke stappen kun je ondernemen om veilig te werken met AI-tools?
Lees ook: Het UBO-register is in strijd met het recht op privacy
Terug naar overzicht