Cyberbeveiligingsrisico’s van large language models (ChatGPT)

Het National Cyber Security Centre (VK) heeft tijdig een blogpost gepubliceerd met het evalueren van risico’s en het doen van aanbevelingen voor het gebruik van Large Language Models (LLM), waaronder ChatGPT. Microsoft heeft ChatGPT toegevoegd aan de Azure OpenAI Service. Msp’s en bedrijven kunnen hiermee cloudtoepassingen ontwikkelen die gebruik maken van taalmodellen voor het ontsluiten van informatie.

In het kort zijn de volgende gebreken geïdentificeerd:
• onjuiste informatieverstrekking (‘hallucineren’ onjuiste feiten)
• bevooroordeeld, zijn vaak goedgelovig (bijvoorbeeld bij het beantwoorden van suggestieve vragen)
• ze hebben enorme computerresources en enorme data nodig om helemaal opnieuw te trainen
• ze kunnen worden overgehaald om giftige inhoud te creëren, zijn vatbaar voor ‘injectie-aanvallen’ Hoewel momenteel ingevoegde gegevens niet worden gebruikt om het model te voeden zodat anderen het kunnen opvragen, wordt deze informatie verwerkt door de LLM-provider en kan de informatie die in toekomstige versies wordt verstrekt, worden opgenomen. Cybercriminelen kunnen deze tools bijvoorbeeld gebruiken voor nieuwe aanvallen
• overtuigendere phishing-e-mails genereren als resultaat van LLM’s
• technieken uitproberen waarmee ze voorheen niet bekend waren

Aanbevelingen:
• geen gevoelige informatie op te nemen in zoekopdrachten aan openbare LLM’s
• geen vragen voorleggen aan openbare LLM’s die tot problemen zouden leiden als ze openbaar zouden worden gemaakt

Previous Post

Meer dan 4% van werknemers heeft gevoelige bedrijfsgegevens in ChatGPT geplaatst

Next Post

Cyberbeveiliging van AI en standaardisatie

Related Posts