In een recent rapport heeft Cyberhaven verzoeken gedetecteerd en geblokkeerd om gegevens in ChatGPT in te voeren van 4,2% van de 1,6 miljoen werknemers bij zijn klantbedrijven vanwege het risico op het lekken van vertrouwelijke informatie, klantgegevens, broncode of gereguleerde informatie naar ChatGPT. In één geval heeft een leidinggevende het strategiedocument van het bedrijf voor 2023 in ChatGPT geknipt en geplakt en gevraagd om er een PowerPoint-presentatie van te maken. In een ander geval heeft een arts de naam van zijn patiënt en hun medische aandoening ingevoerd en gevraagd om een brief te schrijven aan de verzekeringsmaatschappij van de patiënt. Naast het bewustzijn voor de vertrouwelijkheidsovereenkomsten van werknemers, zouden beleidsregels werknemers moeten verbieden om vertrouwelijke, eigendomsrechtelijke, private of handelsgeheime informatie te verwijzen naar of in te voeren in AI-chatbots of taalmodellen, zoals ChatGPT. Aangezien ChatGPT is getraind op grotendeels beschikbare online informatie, kunnen werknemers informatie van de tool ontvangen en gebruiken die is gedeponeerd, auteursrechtelijk beschermd of eigendom is van een andere persoon of entiteit, waardoor er een juridisch risico voor werkgevers ontstaat.
Related Posts
Gestolen wachtwoorden en phishing kwetsbaarheden bij overheidsinstanties
Gestolen en standaard wachtwoorden vormen volgens CISA een grote zwakke plek bij Amerikaanse overheidsinstanties. Uit 143 beveiligingstests bleek…
september 17, 2024
23andMe schikt voor $30 miljoen na groot datalek
DNA-testbedrijf 23andMe heeft een schikking van 30 miljoen dollar voorgesteld voor een datalek waarbij de afstammingsgegevens van 6,9…
september 16, 2024
Rijksoverheid: heeft geen alternatief voor Webex ondanks datalek
Staatssecretaris Zsolt Szabó heeft gemeld dat de Rijksoverheid geen geschikt alternatief heeft voor Cisco Webex, ondanks een recent…
september 11, 2024