Het probleem in één zin
Wat je in een publieke chatbot plakt, kun je niet meer terughalen. En vaak weet je niet hoe en waar het wordt opgeslagen, hertraind of opgevraagd door derden. Eén onbedachte copy-paste van een klantenlijst, een conceptcontract of een patiëntdossier kan een AVG-meldplichtig datalek opleveren.
Wat je nooit in een publieke AI-tool plakt
- Persoonsgegevens van anderen — namen, adressen, BSN, IBAN, geboortedata, gezondheidsinformatie, sollicitatiedossiers, beoordelingsgesprekken.
- Contractuele en commercieel gevoelige data — concept-overeenkomsten, prijslijsten, klantenlijsten, M&A-stukken.
- Broncode of geheime sleutels — API-keys, wachtwoorden, JWT-tokens, intellectueel eigendom dat niet open-source is.
- Vertrouwelijke notulen — Raad van Bestuur, OR-vergaderingen, juridische strategie.
- Patiëntinformatie of cliëntdossiers — vrijwel altijd bijzondere persoonsgegevens onder AVG art. 9.
Het verschil tussen consumenten- en zakelijke abonnementen
Bij gratis of consumenten-versies (ChatGPT zonder Team/Enterprise, Claude zonder Team, gratis Gemini) wordt invoer in beginsel meegetraind. De aanbieders bieden vaak een opt-out, maar die staat niet standaard aan.
Bij zakelijke versies (ChatGPT Team/Enterprise, Claude for Work, Gemini Workspace, Microsoft 365 Copilot) gelden contractueel vaak geen training op klantdata en hardere bewaartermijnen. Lees altijd de DPA (data processing agreement) en de regio-/bewaarafspraken.
Belangrijk: ook in zakelijke versies blijft invoer minstens tijdelijk bewaard voor misbruikdetectie. Echte vertrouwelijke informatie hoort in een private deployment of helemaal niet in een chatbot.
Een werkbaar bedrijfsbeleid in zeven punten
- Eén goedgekeurde route per categorie data. Voor "publiek of synthetisch" mag elke tool; voor "intern vertrouwelijk" alleen de zakelijke variant met DPA; voor "bijzondere persoonsgegevens" niets van het bovenstaande.
- Schaduw-AI in kaart brengen. Het grootste risico is niet het officiële beleid maar de tools die werknemers buitenom gebruiken. Vraag het, zonder straf, en bied een veilig alternatief.
- Verifieer DPA en regio. Voor EU-data wil je verwerking in EU/EER, of een Standard Contractual Clauses-onderbouwing.
- Schakel "verbeter het model" expliciet uit in elk beheerderspaneel.
- Logging en audit. Bij Copilot, Claude en GPT zakelijk kun je usage- en prompt-logs aanzetten — handig voor incident-onderzoek, gevoelig voor AVG. Maak hier een DPIA voor.
- Train medewerkers. AI-geletterdheid is sinds 2 februari 2025 verplicht onder de AI Act. Een training van twee uur over wat wél en niet mag, met realistische voorbeelden, is goedkoper dan één datalek.
- Maak melding van een prompt-lek even normaal als melding van een verloren laptop. Geen schuldcultuur — vroege melding voorkomt boete.
Een handige beslisboom voor in je hoofd
- Bevat de tekst persoonsgegevens van anderen of bijzondere data? Ja → niet plakken in publieke tool.
- Zou je deze tekst per ongeluk in de verkeerde mail kunnen sturen zonder erg? Nee → niet plakken zonder zakelijke licentie.
- Zou je deze tekst openlijk op LinkedIn delen? Ja → ga je gang.
Wat doen bij een prompt-lek
- Stop verdere verzending. Verwijder de chat en — bij zakelijke licentie — vraag aan de aanbieder om verwijdering.
- Documenteer wat is gelekt, naar welke tool, hoe lang en welke gebruikers.
- Beoordeel of er sprake is van een datalek onder AVG (artikel 33). Bij waarschijnlijk risico voor betrokkenen: melden bij AP binnen 72 uur.
- Bij waarschijnlijk hoog risico: betrokkenen informeren.
- Werk je incidenten-register bij en evalueer het beleid.