Meer dan 4% van werknemers heeft gevoelige bedrijfsgegevens in ChatGPT geplaatst

In een recent rapport heeft Cyberhaven verzoeken gedetecteerd en geblokkeerd om gegevens in ChatGPT in te voeren van 4,2% van de 1,6 miljoen werknemers bij zijn klantbedrijven vanwege het risico op het lekken van vertrouwelijke informatie, klantgegevens, broncode of gereguleerde informatie naar ChatGPT. In één geval heeft een leidinggevende het strategiedocument van het bedrijf voor 2023 in ChatGPT geknipt en geplakt en gevraagd om er een PowerPoint-presentatie van te maken. In een ander geval heeft een arts de naam van zijn patiënt en hun medische aandoening ingevoerd en gevraagd om een brief te schrijven aan de verzekeringsmaatschappij van de patiënt. Naast het bewustzijn voor de vertrouwelijkheidsovereenkomsten van werknemers, zouden beleidsregels werknemers moeten verbieden om vertrouwelijke, eigendomsrechtelijke, private of handelsgeheime informatie te verwijzen naar of in te voeren in AI-chatbots of taalmodellen, zoals ChatGPT. Aangezien ChatGPT is getraind op grotendeels beschikbare online informatie, kunnen werknemers informatie van de tool ontvangen en gebruiken die is gedeponeerd, auteursrechtelijk beschermd of eigendom is van een andere persoon of entiteit, waardoor er een juridisch risico voor werkgevers ontstaat.

Previous Post

Bijna 20% Amsterdammers slachtoffer cybercrime

Next Post

Cyberbeveiligingsrisico’s van large language models (ChatGPT)

Related Posts