De kans is groot dat je ChatGPT al veelvuldig gebruikt binnen je bedrijf. Het is immers een handige tool voor een extra professioneel mailtje naar die belangrijke stakeholder, het opstellen van user stories, om de backlog te refinen en ga zo maar door. Maar sta je ooit stil bij de risico’s die gepaard gaan met het gebruik van ChatGPT? Hoe veilig is jouw data bij het gebruik van deze technologie eigenlijk?
In deze blog:
Welke data wordt gebruikt voor het model?
Het antwoord op de vraag “Is ChatGPT veilig?” is niet volmondig met ja, of nee te beantwoorden. Om dit goed te begrijpen, is het belangrijk om te weten hoe ChatGPT slimmer wordt. Volgens de terms & policy van OpenAI leert het model via drie bronnen:
- Publieke informatie op het internet: Denk aan openbare websites, blogs, en encyclopedische bronnen.
- Informatie van derde partijen: OpenAI werkt samen met derden om relevante datasets te verkrijgen.
- Gegevens die gebruikers genereren: Dit is de informatie die jij en andere gebruikers invoeren tijdens het gebruik van ChatGPT.
Die laatste categorie verdient extra aandacht. Want wat daarmee bedoeld wordt is dat jouw input zorgt voor output bij andere gebruikers. Het zou zomaar kunnen zijn dat door een beetje creatief prompten een andere gebruiker gevoelige data van jou of jouw klanten kan achterhalen. Er is dus altijd een kans dat wat je in ChatGPT plaatst, elders weer opduikt. Dit roept serieuze vragen op over de privacy en veiligheid van de gegevens die je invoert.
Hoe veilig is de data?
Volgens OpenAI wordt er alles aan gedaan om persoonlijke informatie zo goed mogelijk te beschermen. Maar even verder grasduinen in de terms & policy leert het volgende:
“We also take steps to reduce the processing of personal information when training our models. For example, we remove websites that aggregate large volumes of personal information and we train our models to reject requests for private or sensitive information about people.”
Dit klinkt niet helemaal geruststellend. OpenAI geeft hiermee dus ook toe dat het (nog) niet ontworpen is om op een vertrouwelijke manier om te gaan met alles wat jij deelt. Dat betekent dat je voorzichtig moet zijn met wat je invoert, vooral als het gaat om gevoelige informatie over jouw bedrijf of jouw klanten.
Veilig omgaan met ChatGPT
Het is cruciaal om maatregelen te nemen om je data te beschermen. Hier zijn enkele praktische stappen die je kunt nemen om de risico’s te minimaliseren:
- Pas je abonnement aan: overweeg een betaald abonnement. Bij een ChatGPT Plus abonnement kan je aanvinken dat je niet het model met jouw data wilt trainen. Bij een Enterprise en Teams abonnement heb je geavanceerde beveiligingsfuncties en wordt er standaard geen data gedeeld met derden of gebruikt om het model te trainen.
- Pas je instellingen aan: heb je een ChatGPT Plus abonnement? Bij de settings en vervolgens data controls kan je aanvinken dat je niet wilt dat het model zichzelf verbetert op basis van jouw input.
- Vraag een personal data removal aan: ben je bang dat je in het verleden al nét iets te veel gedeeld hebt met de chatbot? OpenAI biedt de mogelijkheid om gegevens te laten verwijderen. Via deze link kun je een verzoek indienen.
- Informeer je omgeving: Kennis is macht. Zorg dat collega’s op de hoogte zijn van wat wel en niet veilig is. Eén onoplettende collega kan een groot risico vormen door bijvoorbeeld een privémail of gevoelige bedrijfsinformatie te delen.
Blijf verstandig
Bovenstaande maatregelen willen niet betekenen dat je volledig veilig bent. Zo was er in maart 2023 een storing bij ChatGPT waardoor de chatgeschiedenis en bijhorende accountgegevens (inclusief betalingsinformatie) beschikbaar werd voor andere gebruikers. Er is natuurlijk geen garantie dat soortgelijke datalekken niet opnieuw gebeuren. Maar dit is natuurlijk het geval voor elke software waar je informatie in verwerkt en opslaat.
Het belangrijkste advies blijft: weet wat je invoert. Zorg ervoor dat je bewust bent van de informatie die je deelt, en moedig je omgeving aan om hetzelfde te doen. Ongeacht hoe geavanceerd ChatGPT is, het blijft een tool die zorgvuldig gebruikt moet worden. Wil je meer leren over AI inzetten als product owner? Neem een kijkje bij onze Slimmer werken met AI training.