Als je de afgelopen weken het nieuws hebt gevolgd, heb je vast van alles voorbij zien komen over zelflerende AI. Zo heeft een Nederlandse “waakhond” gewaarschuwd voor de veiligheid van gegevens bij bedrijven die AI gebruiken. In het betreffende onderzoek ging het vooral om medische gegevens die bij de huisarts in AI-systemen werden ingevoerd. Doordat zelflerende systemen informatie onthouden, is er een kans op privacyschending. Hoe zit dat precies en wat moet je wel en niet doen met AI en privacy?
Afbeelding gemaakt met ChatGPT
Recent nieuws over AI en privacy
Er is de laatste tijd nogal wat nieuws geweest over AI en privacyschending. Zo zijn veel mensen niet tevreden over de Europese AI Act, die pas over de komende jaren geldig wordt. Ook maken experts zich zorgen over het gebruik van AI door kinderen, die gemakkelijk van alles delen en soms niet doorhebben dat ze met een chatbot spreken in plaats van met een vriend. Deze twee items kwamen de afgelopen weken vooral naar voren:
Medische gegevens op straat
Uit het onderzoek van de Nederlandse veiligheidsorganisatie is gebleken dat onder andere huisartsen AI weleens op een onveilige manier gebruiken. Dat kan gebeuren als ze een ongeschikt AI-systeem hanteren voor de administratie of notulen. Zelfs als de naam van een patiënt of de betreffende aandoening niet expliciet worden genoemd, kan het invoeren van klachten een veiligheidsrisico vormen. Veel AI-systemen leren namelijk van de informatie die gebruikers invoeren en nemen deze mee in de antwoorden die ze later aan andere mensen geven. Dat is een schending van de privacy van de patiënten.
Nederlandse kunstenaars gedupliceerd
Een ander nieuwsitem van de afgelopen week was dat onder andere Midjourney wel heel goed is in het namaken van de kunststijl van Nederlandse artiesten, zoals Dick Bruna en Erwin Olaf. Het programma denkt niet alleen aan een vergelijkbaar kleurgebruik, maar neemt ook hele specifieke elementen (zoals een gele jurk) uit bepaalde werken rechtstreeks over in zijn eigen creaties. Dat is volgens onderzoekers van NOS het bewijs dat het werk van deze kunstenaars zonder hun toestemming is gebruikt om Midjourney en OpenAI te trainen.
Hoe voorkom je schending van je privacy met AI?
Als je enigszins gewend bent aan het gebruik van ChatGPT, Gemini of een andere handige chatbot, deel je waarschijnlijk van alles om er vervolgens vragen over te stellen. Veel mensen doen dat zonder erbij na te denken. De chatbots voelen als slimme vrienden die je helpen bij je zoektocht naar informatie, een goede verwoording of het maken van het perfecte plaatje. Maar zoals je net hebt gelezen zorgt dat al gauw voor ongewenste schending van je privacy. Dat is niet alleen vervelend voor jou, maar ook voor het betreffende bedrijf. Als een stukje informatie namelijk eenmaal in een AI-systeem is opgenomen, kan het niet meer worden verwijderd. Denk de volgende keer dus goed voordat je iets met AI deelt.
Tips voor een verantwoord gebruik van AI
Het is lastig om te bedenken wat de precieze risico’s zijn van het delen van informatie met AI. Chatbots zijn gemaakt om je te helpen en worden ook alleen maar slimmer als je veel informatie deelt. Het delen van je persoonlijke informatie met AI voelt daardoor niet als een risico op schending van privacy. Toch kan het ongewenste of zelfs vreselijke gevolgen hebben als je te veel gegevens met zelflerende systemen deelt. Met deze tips voorkom je dat je privacyschending veroorzaakt:
Tips voor privacy bij eigen gebruik
- Bescherm herkenbare informatie
Deel geen foto’s waarop mensen, bedrijven, producten, merken of locaties herkenbaar zijn. Dit helpt om de privacy van anderen te beschermen. - Wees voorzichtig met persoonlijke gegevens
Denk ook om je eigen privacy. Alles wat je deelt met AI, moet in principe geschikt zijn om met de hele wereld te delen. Vraag je bijvoorbeeld af of je dezelfde informatie die je met een chatbot deelt, ook op een openbaar sociale media-account zou plaatsen. - Stel een herinnering in
Configureer het AI-systeem zó, dat het je er regelmatig aan herinnert om geen privégegevens te delen. Dit kan helpen als een constante herinnering aan privacybescherming. - Kies voor een veiliger AI-model
Zoek naar een AI-systeem dat bekendstaat om geavanceerde privacybescherming. Het liefst een systeem dat vaak wordt geüpdatet en getest op beveiligingsproblemen.
Privacy-tips voor werknemers
- Informeer klanten en gebruikers
Als je AI gebruikt voor je bedrijf, is het noodzakelijk om dat duidelijk met je klanten te communiceren. Laat elke klant weten dat je AI gebruikt en wees duidelijk over de manier waarop je dat doet. Vertel ook welke gegevens je wel en niet met behulp van AI verwerkt. Dit zorgt voor vertrouwen en duidelijkheid. - Deel alleen noodzakelijke informatie
Deel alleen gegevens die strikt noodzakelijk zijn voor het verkrijgen van je gewenste hulp of antwoord van AI. Gegevens die je niet deelt, kunnen ook niet openbaar worden gemaakt! - Gebruik synthetische data
Voor taken zoals het opstellen van een sollicitatiebrief heb je gegevens nodig. Dan kun je het beste met verzonnen data werken. Bedenk bijvoorbeeld een andere naam en leeftijd, verander de naam van je studie en opleidingsinstituut en verzin een branche die misschien dezelfde kwaliteiten vraagt, maar niet helemaal jouw echte vakgebied is.
Tips voor privacy binnen bedrijven
- Periodieke privacycontroles
Stel binnen je organisatie iemand in die periodiek controleert of er geen privégegevens zijn gedeeld met AI-systemen. Op die manier gaan werknemers beter opletten wat ze met AI delen en wordt riskant gedrag snel opgemerkt - Software voor privacymonitoring
Implementeer software die actief de privacyinstelling en de veiligheid van je data monitort. Zorg ervoor dat je wordt gewaarschuwd als je onbedoeld gevoelige informatie met AI deelt! - Creëer bewustzijn
Als werkgever is het belangrijk om regelmatig trainingen en informatie aan te bieden over het veilige gebruik van AI. Dit kan helpen om bewustzijn en vaardigheden binnen het hele team te versterken.
Kunstmatige intelligentie wordt steeds vaker toegepast in ons dagelijks leven. Ook op de werkvloer vertrouwt men steeds vaker op AI voor het afhandelen van onder andere administratieve taken. Het gebruik van kunstmatige intelligentie zorgt vaak voor tijdsbesparing en het verminderen van de werkdruk, maar brengt ook veiligheidsrisico’s met zich mee. Omdat AI-systemen vaak vriendelijk en betrouwbaar overkomen, is het essentieel om je bewust te blijven van de kans op een datalek. Hopelijk helpen onze tips je daar wat bij. Door zo min mogelijk informatie met AI te delen, waar mogelijk synthetische gegevens te gebruiken en je te laten monitoren door zowel mensen als veiligheidssoftware, minimaliseer je de kans op problemen met privacy. Zo maak je optimaal gebruik van AI zonder schade te veroorzaken bij jezelf en anderen!