Uitleg van The Legal Company over risico’s gebruik van AI
De opkomst van artificiële intelligentie (AI) biedt veelbelovende kansen voor bedrijven, maar het gebruik van AI brengt ook risico’s met zich mee. Vooral de populariteit van AI-chatbots zoals ChatGPT en CoPilot roept vragen op, zeker wanneer werknemers deze tools inzetten voor hun dagelijkse werkzaamheden. Één van de grootste risico’s is een mogelijke datalek, zoals de Autoriteit Persoonsgegevens (AP) op 6 augustus 2024 nog eens benadrukte. The Legal Company zet de mogelijke risico’s en het beperken ervan op een rij.
Wat zegt de Autoriteit Persoonsgegevens?
In hun bericht wijst de AP erop dat het gebruik van AI-chatbots kan leiden tot onbedoelde datalekken. Deze chatbots kunnen gegevens verwerken zonder dat duidelijk is hoe die gegevens worden opgeslagen, beschermd en beheerd.
Wat zijn mogelijke risico’s voor bedrijven?
Inbreuk op privacy: gevoelige persoonsgegevens van klanten, werknemers of andere betrokkenen kunnen onbedoeld worden blootgesteld aan derden. Dit kan bijvoorbeeld gebeuren doordat de ingevoerde gegevens van één persoon als trainingsdata worden gebruikt, en uiteindelijk in de output van een ander persoon terechtkomen.
Schending van de Algemene Verordening Gegevensbescherming (AVG): Organisaties zijn volgens de AVG verplicht om passende maatregelen te nemen ter bescherming van persoonsgegevens. Als blijkt dat werknemers persoonsgegevens hebben ingevoerd in een AI-chatbot, en deze vervolgens lekken, kan dit resulteren in aanzienlijke boetes.
Bedrijfsgevoelige informatie wordt openbaar: Naast persoonsgegevens kunnen ook bedrijfsstrategieën, interne knowhow of contracten per ongeluk worden vrijgegeven. Dit kan ernstige gevolgen hebben en is allesbehalve gunstig voor de onderneming.
Hoe kan je als bedrijf deze risico’s beperken?
Hoewel het volledig uitsluiten van voornoemde risico’s onmogelijk is, zijn er stappen die je kunt nemen om de kans op datalekken te verkleinen:
- Creëer bewustwording bij werknemers: Bespreek met jouw werknemers de gevaren van het invoeren van (gevoelige) (persoons-)gegevens in AI-chatbots. Bewustwording is de eerste stap naar betere gegevensbescherming.
- Stel duidelijke richtlijnen op voor het gebruik van AI-chatbots: overweeg reglementen op te stellen op basis van jouw instructiebevoegdheid uit artikel 7:660 Burgerlijk Wetboek, waarin je vastlegt hoe werknemers AI-tools mogen gebruiken.
- Voer een (pre-)Data Privacy Impact Assessment (pre-)DPIA)* uit: Een (-pre)DPIA kan u helpen om de risico’s van het gebruik van AI-chatbots of andere tools in kaart te brengen en passende maatregelen te nemen voordat u dergelijke tools implementeert.
- Maak duidelijke afspraken met derde partijen: Maakt jouw bedrijf gebruik van AI-systemen van derde partijen? Zorg er dan in ieder geval voor dat de contracten duidelijke afspraken bevatten over de verwerking, opslag en bescherming van gegevens. Maak een AI reglement en neem dit op in jouw personeelshandboek.
Hulp nodig bij het opstellen van een AI reglement en updates nodig van jouw Internet, e-mail en social media reglement?! Dan ben je bij ons aan het juiste adres.
Let ook hier op! IE-rechten de prullenbak in door AI?
Een andere interessante ontwikkeling over het gebruik van AI-systemen, betreft de vraag hoe het zit met de intellectuele eigendomsrechten van de door AI gegenereerde output. Volgens artikel 1 van de Auteurswet is auteursrecht namelijk voorbehouden aan werken die het resultaat zijn van menselijke creativiteit. Dit roept de vraag op of AI-creaties hier ook onder vallen. Ondernemers die gebruikmaken van AI moeten zich hiervan bewust zijn, want de juridische status van dergelijke creaties is nog niet volledig duidelijk. Een andere ontwikkeling is dat AI-output wellicht binnen de modelrechtelijke definitie van ‘voortbrengsel’ hoort te vallen. Bij modelrechtelijke bescherming horen weer andere vereisten.
Het Hof van Justitie van de Europese Unie (HvJEU) zal in ieder geval binnenkort een aantal prejudiciële vragen behandelen over de rol van het creatieve proces en het bewijs van originaliteit in het kader van auteursrechtelijke bescherming van toegepaste kunst. De antwoorden van het Hof zullen van grote invloed zijn op de bescherming van AI-creaties binnen de EU. We zullen je in ieder geval op de hoogte houden van deze ontwikkelingen!
Hulp nodig?
De ondernemingsjuristen van The Legal Company helpen je graag met het opstellen van duidelijke AI richtlijnen, het controleren van contracten met derde partijen en met het adviseren omtrent privacy, AI en intellectuele eigendomsrechten. Zo minimaliseer je het risico op datalekken, AVG-overtredingen, verlies van waardevolle intellectuele eigendom en boetes.
Neem contact op via [email protected] /020 345 0152.