Blog
Cybersecurity in een nieuw jasje
Redactie
De Algemene Inlichtingen- en Veiligheidsdienst (AIVD) en de Rijksinspectie Digitale Infrastructuur (RDI) hebben een nieuw plan van aanpak uitgebracht met betrekking tot generatieve AI. Het daarin uitgewerkte AI Cybersecurity Kwadrant is er volgens hen om de transformatieve impact van generatieve AI op het gebied van cybersecurity te belichten en om bedrijven, medeoverheden, en organisaties te helpen bij het opzetten van effectieve risicoanalyses.
Een nieuwe cybersecurityaanpak
De AIVD en RDI benadrukken dat de impact van generatieve AI op het gebied van cybersecurity van dusdanige aard is, dat een geheel nieuwe benadering nodig is om deze impact het hoofd te bieden. Zo kunnen criminelen generatieve AI gebruiken voor ongekend complexe en snelle aanvallen, die op maat zijn gemaakt voor specifieke doelen en op geautomatiseerde wijze. Bestaande beveiligingsmechanismen schieten hierdoor tekort. Bovendien zijn generatieve AI-technologieën gemakkelijk op te schalen en veelal autonoom van werking. Enerzijds is generatieve AI steeds beter in staat om taken op te splitsen in subtaken (taakdeductie) en anderzijds kan het die taken in toenemende mate uitvoeren binnen één systeem (taakdiversiteit). De combinatie hiervan maakt generatieve AI, gelet op al het voorgaande, een bijzonder gevaar voor cybersecurity
De nieuwe cybersecurityaanpak (het Kwadrant) maakt onderscheid tussen twee assen: het offensief en het defensief. Beide assen worden onderverdeeld in twee categorieën. Aan de ene kant kunnen zowel de aanvaller als de verdediger gebruikmaken van generatieve AI als hulpmiddel. Zo kan een crimineel fraude plegen met behulp van een deepfake en kan een organisatie aanvallen weren met behulp van generatieve berekeningen. Anderzijds kan de generatieve AI van de verdedigende partij zelf worden aangevallen of verdedigd. Denk bijvoorbeeld aan het proberen om een machine ongewenst gedrag te laten vertonen. Het gevaar hierbij is dat organisaties doorgaans niet alle ins en outs van hun systemen kennen, nu deze extern worden geleverd. Naar de woorden van de AIVD en RDI zijn aanbieders van AI daarnaast vaak intransparant over de integriteit van hun modellen.
Aandachtspunten
Hoewel de veiligheidsrisico's rondom generatieve AI goed in kaart worden gebracht door de nieuwe cybersecurityaanpak, blijven praktische vraagstukken nog onbeantwoord. Organisaties worden vooral aangestuurd om zelf aan de slag te gaan met het zogenoemde Kwadrant. Of daar iets van terecht zal komen, is nog te vroeg om te zeggen. Overigens lijken de AIVD en RDI er niet geheel terecht vanuit te gaan dat de aanbieders van AI-modellen van buiten de EU zich niet aan de nieuwe AI-verordening hoeven te houden. De AI-verordening heeft extraterritoriale werking: buitenlandse partijen die hun AI-modellen op de Europese markt willen brengen, moeten zich wat betreft de ontwikkeling van die modellen aan de nieuwe regels houden (art. 2 lid 1 sub a AI-verordening). Gezien de prominente rol van de Europese markt op het wereldtoneel, is het op het eerste gezicht niet waarschijnlijk dat AI-exploitanten de AI-verordening zullen negeren. Het is immers niet in hun eigen belang om potentiële klanten mis te lopen. De grote hoeveelheid regels in de AI-verordening, waaronder op het gebied van privacy en cybersecurity, zal bijdragen aan de verwerkelijking van de nieuwe cybersecurityaanpak. Echter, als het aan de AIVD en RDI en, volgens hen, de Universiteit van Stanford ligt, volstaat zelfs compliance met de AI-verordening niet om onze cybersecurity in het generatieve AI-tijdperk te garanderen. De tijd zal het leren - in ieder geval zetten we een stap in de goede richting.
AI-forum 2025/1
Dit zijn de beste juridische GenAI tools van 2025
Bent u een van de vele gebruikers van handige juridische tools als Harvey en CoCounsel? Dan verdient het recente onderzoek van Vals AI uw aandacht. Vals AI is een bedrijf dat de prestaties van grote taalmodellen evalueert voor specifieke bedrijfst...
Wetsvoorstel opt-out regeling: treedt Engeland in de voetsporen van de EU?
Elton John en Paul McCartney zijn een van vele artiesten die zich hebben uitgesproken tegen het voornemen van de Britse overheid om de bestaande auteursrechtelijke beperking op tekst- en datamining (hierna: TDM-beperking) te verruimen. Naar Engels...
AI bij de Rijksoverheid: is het wenselijk en wat zijn de gevaren?
De mogelijkheden van AI zijn eindeloos, waaronder voor de Rijksoverheid. Maar als de toeslagenaffaire ons iets heeft geleerd, dan is het dat hierbij oppassen is geblazen. De realiteit is nog altijd dat kunstmatige algoritmes imperfecte verlengstuk...
Machine “Unlearning”: nieuwe hoop voor mens en maker?
Er is veel over te doen geweest, met name in de creatieve industrie: het proces van machine learning en tekst- en datamining. Voordat kunstmatige algoritmes op het niveau presteren dat we van ze gewend zijn, ondergaan ze een langdurig trainingspro...
Gerechtvaardigd belang als grondslag voor het trainen van AI: hoe de Google Spain-zaak kan helpen
De opkomst van juridische taalmodellen (LLMs) roept belangrijke vragen op over de omgang met bijzondere en/of gevoelige persoonsgegevens. Kunnen dergelijke gegevens worden gescrapet? En zo ja, mogen ze worden gebruikt om LLMs te trainen?
Privacy-...
Wat de ‘Trump Gaza’ video ons leert over de risico’s van AI-gebruik
Het zal u niet zijn ontgaan: de bizarre video over de Gazastrook die afgelopen maand door Amerikaans president Trump is gedeeld. In de video worden Trump en Netanyahu, de premier van Israël, zonnend op het strand van een Dubai-achtig Gaza afgebeel...
Amerikaanse rechter verwerpt fair use als grond voor tekst- en datamining
In een filmachtige wending heeft Amerikaanse rechter Bibas zijn zogenoemde summary judgement (een soort kort geding) in de zaak Thomson Reuters v Ross omgegooid: in plaats van een jury bij het geschil te betrekken wordt het geschil grotendeels afg...
