Cyberbeveiliging van AI en standaardisatie

Het Agentschap van de Europese Unie voor cyberbeveiliging (ENISA) was van mening dat standaarden voor algemeen gebruik (zoals ISO 27001/27002 en ISO 9001) kunnen bijdragen aan het beperken van veel van de risico’s waarmee AI wordt geconfronteerd.

Er zijn echter twee vragen :
1) de mate waarin standaarden voor algemeen gebruik moeten worden aangepast aan de specifieke AI-context voor een bepaalde dreiging Hoewel AI enkele specifieke kenmerken heeft, is het in wezen software; daarom kan wat van toepassing is op software worden toegepast op AI.

Er zijn echter nog hiaten met betrekking tot de verduidelijking van #ai-termen en -concepten :
• Gedeelde definitie van AI-terminologie en bijbehorende #betrouwbaarheidsconcepten (definitie van AI is niet consistent)
• Richtlijnen over hoe standaarden met betrekking tot de cyberbeveiliging van software moeten worden toegepast op AI (bijv. gegevensvergiftiging en gegevensmanipulatie)

2) of bestaande standaarden voldoende zijn om de #cybersecurity van AI aan te pakken of dat ze moeten worden aangevuld

Er zijn zorgen over onvoldoende kennis van de toepassing van bestaande technieken om dreigingen en kwetsbaarheden die voortkomen uit AI tegen te gaan
• Het begrip AI kan zowel technische als organisatorische elementen omvatten, niet beperkt tot software, zoals hardware of infrastructuur, die ook specifieke begeleiding behoeven
• De toepassing van best practices voor kwaliteitsborging in software kan worden belemmerd door de ondoorzichtigheid van sommige AI-modellen
• Naleving van ISO 9001 en ISO 27001 vindt plaats op organisatieniveau, niet op systeemniveau en het bepalen van passende beveiligingsmaatregelen is afhankelijk van een systeemspecifieke analyse
• De ondersteuning die standaarden kunnen bieden om AI te beveiligen wordt beperkt door de volwassenheid van de technologische ontwikkeling
• De traceerbaarheid en afstamming van zowel data als AI-componenten wordt niet volledig aangepakt
• De inherente kenmerken van ML komen niet volledig tot uiting in bestaande normen

Ten slotte zijn dit de meest voor de hand liggende aspecten waarmee rekening moet worden gehouden in bestaande/nieuwe normen:
• AI/ML-componenten kunnen worden gekoppeld aan hardware of andere softwarecomponenten om het risico op functionele storingen te beperken, waardoor de cyberbeveiligingsrisico’s die aan de resulterende configuratie zijn verbonden, veranderen
• Betrouwbare statistieken kunnen een potentiële gebruiker helpen een storing op te sporen
• Testprocedures tijdens het ontwikkelingsproces kunnen tot bepaalde niveaus van nauwkeurigheid/precisie leiden

Previous Post

Cyberbeveiligingsrisico’s van large language models (ChatGPT)

Next Post

Wat voor effect heeft de NIS2-richtlijn op jouw organisatie?

Related Posts