In een recent rapport heeft Cyberhaven verzoeken gedetecteerd en geblokkeerd om gegevens in ChatGPT in te voeren van 4,2% van de 1,6 miljoen werknemers bij zijn klantbedrijven vanwege het risico op het lekken van vertrouwelijke informatie, klantgegevens, broncode of gereguleerde informatie naar ChatGPT. In één geval heeft een leidinggevende het strategiedocument van het bedrijf voor 2023 in ChatGPT geknipt en geplakt en gevraagd om er een PowerPoint-presentatie van te maken. In een ander geval heeft een arts de naam van zijn patiënt en hun medische aandoening ingevoerd en gevraagd om een brief te schrijven aan de verzekeringsmaatschappij van de patiënt. Naast het bewustzijn voor de vertrouwelijkheidsovereenkomsten van werknemers, zouden beleidsregels werknemers moeten verbieden om vertrouwelijke, eigendomsrechtelijke, private of handelsgeheime informatie te verwijzen naar of in te voeren in AI-chatbots of taalmodellen, zoals ChatGPT. Aangezien ChatGPT is getraind op grotendeels beschikbare online informatie, kunnen werknemers informatie van de tool ontvangen en gebruiken die is gedeponeerd, auteursrechtelijk beschermd of eigendom is van een andere persoon of entiteit, waardoor er een juridisch risico voor werkgevers ontstaat.
Related Posts
Apple waarschuwt gebruikers wereldwijd voor spionageaanvallen
Apple heeft gebruikers in 92 landen gewaarschuwd voor mogelijk gerichte spionageaanvallen met behulp van huurlingen-spyware. De waarschuwing, die…
april 11, 2024
Onderschatte risico’s van datalekken voor betrokkene
Organisaties schatten de impact van cyberaanvallen vaak te laag in, wat leidt tot onvoldoende waarschuwingen voor mensen wier…
april 10, 2024
Onderschatte risico’s van datalekken voor betrokkene
Organisaties schatten de impact van cyberaanvallen vaak te laag in, wat leidt tot onvoldoende waarschuwingen voor mensen wier…
april 10, 2024