Onderzoekers ontdekten een nieuwe aanvalstechniek: de Reprompt-aanval. Deze aanval misbruikt de manier waarop AI-assistenten zoals Microsoft Copilot omgaan met gebruikersinvoer via URL’s. Met een speciaal samengestelde link, waarin verborgen instructies zijn verwerkt, kan een aanvaller Copilot opdrachten laten uitvoeren. Volgens security onderzoeker Dolev Taler van Varonis is daarvoor slechts één klik van de gebruiker nodig. Verdere interactie blijft uit en de gebruiker merkt niks.
Hoe ontstaat deze kwetsbaarheid? Copilot onderscheidt bepaalde invoer uit URL-parameters onvoldoende van legitieme gebruikersopdrachten. Daardoor kan een aanvaller de AI-assistent onzichtbaar nieuwe taken laten uitvoeren. Zelfs nadat de gebruiker de Copilot-interface heeft gesloten, blijft de aanval actief. De verborgen instructies zijn gericht op het verzamelen en doorspelen van gevoelige informatie uit de lopende sessie, zoals contextgegevens en andere beschikbare data. Dit wil je natuurlijk ten aller tijden verkomen.
De impact is groot, omdat de aanval nauwelijks zichtbaar is voor gebruikers en beveiligingssystemen. Traditionele beveiligingsmaatregelen, zoals contentfilters en gebruikersbevestigingen, worden effectief omzeild.
Microsoft is door de onderzoekers geïnformeerd en heeft het probleem inmiddels verholpen. Zakelijke Microsoft 365 Copilot-omgevingen bleken niet kwetsbaar. Toch laat deze aanval zien dat AI-assistenten een nieuw en complex aanvalsoppervlak vormen, met serieuze risico’s voor privacy, compliance en informatiebeveiliging.