Er zijn inmiddels talloze artikelen verschenen over de mogelijke aanvallen met behulp van AI – Artificial Intelligence. Maar is dit slechts een product van onze verbeelding, of worden we daadwerkelijk al aangevallen door AI? Welke aanvallen die we kennen zijn echt uitgevoerd met de inzet van kunstmatige intelligentie? In dit artikel bespreken we enkele aanvallen waarbij bekend is dat AI is gebruikt. De meeste van deze aanvallen zijn eerder ook besproken in de Trend, Nieuws & Inzichten rapportages, waarin tevens mitigerende maatregelen worden beschreven.
Het creëren van kunstmatige video’s en (stem)geluid, waarbij een persoon wordt geïmiteerd, wordt steeds toegankelijker. Dit heeft geleid tot een duidelijke trend van aanvallen waarbij mensen worden misleid omdat ze deze ‘deepfakes’ niet herkennen. Een van de meest indrukwekkende aanvallen vond plaats bij een groot bedrijf in Hongkong, waar een medewerker als enige echte persoon in een Teams-video-gesprek zat met verschillende ‘deepfakes’, waaronder de CFO, die werden aangestuurd door aanvallers. Deze call werd opgezet nadat de medewerker een phishingmail had ontvangen met een verzoek om transacties uit te voeren, maar de e-mail wantrouwde. Dankzij de geloofwaardigheid van de deepfakes wisten de aanvallers bijna 24 miljoen euro buit te maken. Een recent Nederlands onderzoek toonde aan dat meer dan de helft van de deelnemers geen onderscheid kon maken tussen een echt fragment en een kunstmatig fragment van radio-DJ Ruud de Wild.
Ook bij phishing-e-mails worden de berichten echter en relevanter met behulp van AI. Dankzij het lerende vermogen van de LLM’s – Large Language Models – is het mogelijk om e-mails op te stellen die overeenkomen met de schrijfstijl van een bedrijf, en die zeer gericht zijn op de context van de ontvanger. Dit verhoogt de geloofwaardigheid van het bericht en dus de kans dat de ontvanger erop zal ingaan. Een voorbeeld hiervan zijn aanvallen op nieuwe medewerkers, nadat ze hun LinkedIn-profiel hebben bijgewerkt met hun nieuwe bedrijf, functie en positie. Allerlei informatie die een aanvaller voorheen veel onderzoek kostte, wordt nu zeer snel en efficiënt ingezet voor een gerichte aanval. Aanvallers monitoren onophoudelijk wijzigingen op onder andere LinkedIn-pagina’s met behulp van AI-hulpmiddelen. Zodra een medewerker zijn profiel heeft bijgewerkt met een nieuw bedrijf, wordt deze medewerker een aantrekkelijk doelwit. Op basis van bestaande kennis over het zakelijke e-mailadres wordt een gerichte phishingmail – spearphishing – verzonden met het verzoek om achterstallige betalingen te voldoen. Om de urgentie en geloofwaardigheid te verhogen, wordt de CEO ook in de conversatie betrokken, of althans die suggestie wordt gewekt.
Het genereren van grote ‘database’- bestanden gevuld met ‘persoonsinformatie’ is ook een kracht waarin AI uitblinkt. Ransomware-aanvallers hebben in sommige gevallen niet eens de moeite genomen om daadwerkelijk bedrijfsdata te stelen, maar hebben deze laten genereren. Vervolgens hebben de aanvallers gedreigd met de ‘buitgemaakte’ database van 50 miljoen gebruikers. Ook hier heeft de kracht van AI om gegevens te combineren de aanvallers geholpen. De slachtofferbedrijven konden echter aantonen dat de gegevens niet valide waren en wisten zo imagoschade te voorkomen. De inzet van AI helpt ook bij het ‘reverse engineeren’ van met name security patches. Het analyseren van een patch of een PoC – Proof of Concept – om vervolgens een programma te maken waarmee de kwetsbaarheid van een nog niet gepatcht systeem kan worden aangevallen, is niets nieuws. Maar door de inzet van AI is de snelheid waarmee zogenaamde exploits beschikbaar komen, extreem toegenomen. Onlangs werd binnen 22 minuten na het vrijgeven van de PoC een exploit uitgevoerd op kwetsbare systemen. Het is daarbij vermeldenswaardig dat ook de detectiemaatregelen gebruikmaakten van AI-modellen om de omgeving te beschermen. Hoewel niet gedeeld is hoe de modellen precies hebben ingegrepen, werd aangegeven dat de geautomatiseerde intelligentie de aanvallen eerder detecteerde dan dat menselijke medewerkers firewall-regels konden bijwerken.
Dit laatste is de positieve kant van het verhaal; waar AI wordt gebruikt in aanvallen, wordt het minstens zo vaak en zo effectief ingezet voor verdediging. Het blijft een ratrace, maar een steeds snellere. Volledig zelfstandige aanvallen door AI lijken nog ver weg; een aanvaller, een mens, blijkt nog altijd een cruciale rol te spelen.
Blijf nieuwsgierig, blijf veilig!