The S-Unit

Generatieve AI als nieuw aanvalsvlak: feiten, risico’s en wat organisaties nu al kunnen doen.

Stel je voor: je krijgt een telefoontje van je directeur die je dringend vraagt geld over te maken. Zijn stem klinkt vertrouwd. Maar het is niet jouw directeur. Het is een door AI gegenereerde deepfake. Trap jij erin?

Generatieve AI (GenAI) ontwikkelt zich razendsnel. Bedrijven gebruiken de technologie om content te maken, processen te versnellen en klanten beter te bedienen. Maar dezelfde innovaties worden ook ontdekt door cybercriminelen.

En dat gaat hard: Uit een recente enquête van Gartner blijkt dat het aantal cyberaanvallen dat gebruikmaakt van generatieve AI (GenAI) aanzienlijk toeneemt. Bijna een derde van de organisaties meldde een aanval op de infrastructuur van hun GenAI-applicaties in de afgelopen 12 maanden. Daarnaast gaf ruim zes op de tien organisaties aan geconfronteerd te zijn met deepfakes die voor fraude of misleiding werden ingezet.

Dit laat zien dat de dreiging geen toekomstbeeld is, maar nu al de realiteit is. Voor The S-Unit bevestigt dit wat wij in de praktijk al zien: organisaties worden steeds vaker geconfronteerd met aanvallen die slimmer, sneller en overtuigender zijn gemaakt door de inzet van generatieve AI.

Hoe generatieve AI de aanvalsmethoden verandert

De opkomst van generatieve AI vergroot het aanvalsoppervlak op verschillende manieren.

  • Deepfakes en synthetische content
    Waar we voorheen vooral waarschuwden voor slecht geschreven phishingmails, gaat het nu om audio- en videobestanden die bijna niet van echt te onderscheiden zijn. Een fraudeur kan een overtuigende video maken van een CEO die een dringende betaling eist, of een telefoongesprek nabootsen met de stem van een leidinggevende. Voor medewerkers is het bijna onmogelijk om dit zonder training of hulpmiddelen te doorzien.
  • Manipulatie van AI-modellen
    Aanvallers weten precies hoe ze AI kunnen bespelen. Met slimme en vaak subtiele manipulaties van prompts of inputdata buigen ze systemen om tot iets wat niet langer betrouwbaar is. De output kan ineens misleidend, bevooroordeeld of zelfs schadelijk worden. Voor organisaties die AI inzetten in klantenservice, financiële processen of besluitvorming, ligt daar een groot risico.
  • AI-versneld phishing
    Phishingmails vol spelfouten? Dat beeld is verleden tijd. Met de opkomst van generatieve AI schrijven cybercriminelen sneller en meer foutloze, overtuigende en zelfs gepersonaliseerde berichten. Mails en chats die zo geloofwaardig zijn, dat medewerkers ze nauwelijks nog kunnen onderscheiden van legitieme communicatie. Het gevolg: de kans dat iemand in de val trapt, neemt razendsnel toe.
  • Aanvallen op de AI-infrastructuur zelf
    Niet alleen de output is kwetsbaar: ook de onderliggende modellen, API’s en cloudomgevingen worden  een doelwit. Een aanval hierop kan leiden tot datalekken, downtime of ongeautoriseerde toegang tot gevoelige informatie.

De schijnveiligheid van de quick fix

Veel organisaties reageren reflexmatig: een nieuw product aanschaffen, een tooltje installeren of een isolerend protocol optuigen. Maar zoals Gartner-analisten benadrukken, is een haastige aanpak vaak ineffectief. De realiteit is dat GenAI-risico’s niet losstaan van bestaande dreigingen. Het gaat om een evolutie van bekende aanvallen, phishing, social engineering, manipulatie, maar dan versterkt met AI.

Een solide verdediging moet daarom evenwichtig zijn: de basis beveiligen, nieuwe dreigingen begrijpen en daarop gericht maatregelen treffen.
Linda van Ruth-Prijs, CCO The S-Unit

Linda van Ruth

CCO The S-Unit

Wat kun je als organisatie nu al doen om weerbaarder te worden?

Bij The S-Unit geloven we in pragmatische, haalbare stappen. Organisaties hoeven niet alles tegelijk te doen, maar kunnen wel vanaf vandaag beginnen met bouwen aan weerbaarheid.

Versterk de basis

De basis van cybersecurity is nog steeds bepalend.

  • Sterke authenticatie: multi-Factor Authenticatie (MFA) is onmisbaar. AI maakt identiteitsfraude makkelijker, dus extra verificatielagen zijn noodzakelijk.
  • Netwerksegmentatie: door systemen te scheiden, voorkom je dat een geslaagde aanval zich direct verspreidt.
  • Monitoring & detectie: AI-aanvallen zijn vaak subtiel. Continue monitoring met Anomaly detectietools helpt om afwijkingen snel te signaleren.
Vergroot kennis en bewustzijn

70% van de IT-security-incidenten wordt veroorzaakt door medewerkers zelf. Zij klikken bijvoorbeeld op een link in een phishingmail, downloaden onveilige software of delen (vertrouwelijke) informatie met mensen buiten de organisatie. Zij zijn zich vaak onvoldoende bewust van hun rol en cybercriminelen maken daar misbruik van. Wat kun je doen als organisatie?

  • Training in AI-dreigingen: medewerkers moeten weten dat deepfakes bestaan, hoe overtuigend ze kunnen zijn, en hoe ze signalen kunnen herkennen aan de hand van een awareness training.
  • AI-geletterdheid: stel duidelijke beleidsregels op voor het gebruik van GenAI, inclusief welke toepassingen wel of niet zijn toegestaan, en hoe medewerkers verantwoord met output en data moeten omgaan.
  • Simulaties en oefeningen: net als phishingtests kunnen deepfake- of AI-aanvals-simulaties organisaties helpen om alertheid te vergroten.
Bouw AI-specifieke beveiliging in

Generatieve AI vraagt om aanvullende maatregelen.

  • Security by design: werk samen met ontwikkelaars zodat beveiliging vanaf het begin wordt ingebouwd in AI-toepassingen. Achteraf ‘plakken’ is duurder én minder effectief.
  • Specifieke detectietools: investeer in oplossingen die afwijkingen in AI-output herkennen, zoals gemanipuleerde prompts of verdachte synthetische content.
  • Samenwerking & kennisdeling: deel ervaringen met partners en branchegenoten. AI-aanvallen zijn nieuw terrein, en leren gaat sneller door kennis uit te wisselen.

AI als kans en uitdaging

Generatieve AI gaat niet weg. Sterker nog, de technologie wordt steeds meer verweven in onze manier van werken en communiceren. De kunst is om de voordelen te benutten zonder de risico’s te negeren.

Onze visie bij The S-Unit is dat digitale weerbaarheid begint bij vertrouwen, inzicht en samenwerking. We willen organisaties niet alleen beschermen tegen de dreigingen van vandaag, maar ze ook klaarstomen voor de uitdagingen van morgen.

Ons advies:

  • Feiten serieus nemen: aanvallen met GenAI zijn geen hype, maar realiteit.
  • Verantwoord innoveren: implementeer een sandbox, waarin veilig omgegaan kan worden met GenAI.
  • Proactief handelen: niet wachten tot een incident plaatsvindt, maar nu al maatregelen treffen door bijvoorbeeld het gebruik van monitoring tooling die afgestemd is op het ontdekken van onregelmatige AI-activiteiten.

De vraag is niet of AI tegen jouw organisatie wordt ingezet, maar wanneer. Deepfakes, AI-manipulaties en AI-versnelde phishing maken het dreigingslandschap complexer dan ooit. Toch is er goed nieuws: met een gelaagde verdediging, geïnformeerde teams en security die vanaf het begin in AI wordt ingebouwd, zet je een goede stap in het veiligstellen van je digitale toekomst.

AI-gedreven aanvallen stoppen niet bij de deur. Ontdek hoe stevig jouw team in de schoenen staat. Wij denken graag mee! 

Neem vandaag nog contact met ons op voor een vrijblijvend gesprek.