Skip to main content
Bas Labordus

Bas Labordus
 

AI gevaarlijk! Maar waarom eigenlijk?

Met de brede publieke beschikbaarheid van Artificial Intelligence (AI), of eigenlijk Large Language Model (LLM), lijken we technologieën binnen handbereik te hebben waarvan in de media wordt gezegd dat deze óf onze ondergang worden óf al onze wereldproblemen gaan oplossen. Duidelijk is het dat het iets is dat ons kan helpen. Zowel de goede als de kwade. Iets kan altijd op oneigenlijke wijze worden ingezet. Bewust of onbewust. Door verschillende media wordt aangehaald dat cybercriminelen nog gevaarlijker worden vanwege de mogelijkheden van LLM. Maar wat zijn deze gevaren eigenlijk? Welke risico’s brengt het publiekelijk beschikbaar maken van Artificial Intelligence met zich mee? Wat zijn de offensieve gevaren van AI? In dit artikel beschrijven wij een aantal van deze offensieve gevaren van Artificial Intelligence.

Een inmiddels bekend risico heeft betrekking op de gevolgen van gegevenslekken door de AI-systemen. Door het lerende vermogen wordt hetgeen in de LLM wordt gestopt opnieuw gebruikt in vervolg vragen. In een eenvoudig voorbeeld waarbij programmacode wordt geschreven met behulp van AI, en hierin autorisatiesleutels worden geknipt en geplakt, zijn deze sleutels ‘beschikbaar’ in een andere niet gecontroleerde omgeving. Het is mogelijk dat deze sleutels publiekelijk toegankelijk worden en in een volgende AI-chat worden weergegeven. Een aanvaller hoeft enkel actief op zoek te gaan naar sleutels vanuit de vraag aan de AI-chat voor ondersteuning in het schrijven van code die de authenticatie uitvoert op basis van autorisatiesleutels binnen een programma. De kans bestaat dat voorbeelden worden gegeven van code die autorisatiesleutels bevat. Daarna moet van deze sleutels ook nog worden gevalideerd of deze daadwerkelijk misbruikt kunnen worden. Hierin zit, in eerste instantie, nog een groot deel handwerk en uitvraag werk. 

Binnen de informatiebeveiliging is AI als onderdeel van beveiligingssystemen niet meer weg te denken. Met behulp van AI-systemen is het mogelijk om heel snel te leren van en over afwijkende patronen om zo beoordelingen uit te voeren om personen of programma’s te blokkeren dan wel door te laten. Juist dit lerende vermogen op basis van een hoeveelheid trainingsdata is ook gelijk de zwakte van deze systemen, waar een aanvaller misbruik van kan maken. Door de AI-modellen te manipuleren met misleidende gegevens worden verkeerde beslissingen genomen. De inbraakdetectiesystemen of malware-detectoren falen; medewerkers worden geblokkeerd, de aanvallers worden doorgelaten en malafide software wordt geïnstalleerd. Deze autonome beslissingen kennen ook het gevaar dat de mens geen controle meer heeft.

Daarnaast kan het verwerken van grote hoeveelheden gegevens en het uitvoeren van repetitieve taken door AI-systemen ook als aanval worden ingezet. Bijvoorbeeld het zonder grote inspanning versturen van massale desinformatie via sociale media of het eindeloos uitvoeren van phishing-aanvallen. Maar ook het moeiteloos uitvoeren van doorlopende ‘controles’ van kwetsbaarheden op publiekelijk beschikbare systemen. Met de toegevoegde intelligentie wordt gepoogd de kwetsbaarheden ook daadwerkelijk uit te buiten. Dus los van inzicht in kwetsbaarheden is ook het inzicht in te misbruiken kwetsbaarheden beschikbaar.

Ondanks dat dit al geruime tijd wordt toegepast, is vooral de schaalbaarheid van en toegankelijkheid tot deze informatie een realistisch gevaar. Voor een grotere groep ‘kwaadwillende’ is informatie over kwetsbare systemen beschikbaar. Tel hierbij op de ondersteuning van AI-chats bij het helpen bouwen van kwaadwillende software om kwetsbaarheden te misbruiken, iets wat voorheen enkel door een beperkte groep werd uitgevoerd, en een ongekend groot leger is in staat om aanvallen uit te voeren. Waarvan een deel mogelijk niet eens het besef heeft van wat zij daadwerkelijk aan het doen zijn. Met als toevoeging dat de huidige AI’s nog niet zo goed zijn dat ze perfecte code schrijven.

Het lerende vermogen en het eindeloos geduldig uitvoeren van taken maken AI-systemen zeer geschikt voor het uitvoeren van phishing-campagnes en social engineering. Sinds de publieke lancering van ChatGPT zijn de phishingmails ‘beter’ geworden, aldus verschillende onderzoeken. De mails zijn minder algemeen, specifieker op maat en zeer moeilijk van echt te onderscheiden. De standaard berichten van weleer worden automatisch voorzien van de specifieke bedrijfsgegevens.

Door het lerende vermogen worden gemakkelijk zogenaamde deepfakes geproduceerd, om in audio of videovorm de gebruikers te misleiden. Waar in het verleden een berichtje vanuit de naam de van directeur een bekende manier was om vertrouwen te krijgen en (niet) te reageren, is het nu mogelijk een telefoontje of voicemail – met de stem – van de directeur te sturen om dit vertrouwen te krijgen. 

Als laatste is er nog het hallucinerende vermogen. Niet direct een offensief probleem, maar wel lastig als je op basis van een door AI gegenereerd boek paddenstoelen gaat zoeken. In het boek, dat als e-book werd aangeboden via een grote bekende webshop, werd het proeven aangeraden als methode om gevaarlijke en onschuldige paddenstoelen van elkaar te onderscheiden. Hoe kan je redelijkerwijze nog vertrouwen welke informatie juist is?

Zoveel dreigingen! Hoe te beschermen?

De bovengenoemde risico’s zijn in beginsel niet geheel nieuw, maar de uitvoering is in een nieuw jasje gestoken. Reeds aanwezige bescherming kan in veel situaties volstaan, maar aanvullende en ‘meegroeiende’ maatregelen zijn wenselijk.

De belangrijkste factoren zijn de snelheid waarmee de aanvallen worden uitgevoerd en de frequentie waarmee het type aanval verandert. De mitigerende maatregelen vereisen dan ook aandacht vanuit deze factoren. Bijvoorbeeld door medewerkers vaker op de hoogte te brengen van de ontwikkelingen van mogelijke aanvallen. Dus vier keer per jaar een phishingcampagne in plaats van jaarlijks. Vaker korte berichten over de manier waarop zij kunnen helpen de omgeving veilig te houden. Maar ook het bijbrengen van wat wel en niet kan of gewenst is met behulp van AI binnen de organisatie. 

Kwetsbaarheden in systemen dienen zo snel als mogelijk verholpen te worden, vrijwel gelijk met het uitkomen van de patches. Inzicht in de kwetsbaarheden kan verkregen worden door penetratietesten. Het afwisselen van deze testen met andere vormen van testen, zoals Red Team-testen, geven een nog beter beeld in het geheel van schakels in de securityorganisatie.

Audit trails en logboeken verdienen ook aanvullende aandacht. Gebruik hierbij een SIEM oplossing, waarbij deze specifieker is geconfigureerd dan de standaardregels. Blijf de uitkomsten van de oplossing volgen en bijstellen. Dit is een onderdeel van het continu monitoren en bijstellen; blijf gevoel houden welke activiteiten plaats vinden in de omgeving. Blijf op de hoogte van de ontwikkelingen van aanvalstechnieken zodat de beveiligingsmaatregelen hierop aangescherpt kunnen worden.

Blijf nieuwsgierig, blijf ontwikkelen!

Meer lezen?


Wil je direct op de hoogte worden gebracht als de nieuwe De Security Update verschijnt?

Wilt u meer weten over de diensten van The S-Unit? Of heeft u een andere S-entiële vraag voor ons?

Neem contact op
×

 

Hallo!

Heb je een vraag voor ons? Vraag het aan Kai!

× Heb je een vraag?