Verkennend onderzoek binnen het (veiligheids)zorgdomein naar cybersecurity van generatieve artificiële intelligentie (GenAI). Doel is een dieper inzicht bieden in de uitdagingen en mogelijkheden op dit gebied. De resultaten dienen als basis voor verdere onderzoeksinspanningen en beleidsmaatregelen om de cybersecurity van AI te versterken en de ontwikkeling van veilige en betrouwbare AI-systemen te bevorderen.

In samenwerking met het lectoraat Applied Responsible Artificial Intelligence van het Centre of Expertise Perspectief in Gezondheid. Betrokken onderzoekers vanuit dit Centre of Expertise: lector Ander de Keijzer en docent-onderzoeker Marice Bastaensen.

Met de toenemende integratie van AI in diverse aspecten van ons leven, rijzen ook nieuwe uitdagingen op het gebied van cybersecurity. AI-systemen worden steeds complexer en krachtiger, maar tegelijkertijd worden ze ook vatbaarder voor aanvallen en misbruik. GenAI is een vorm van AI die nieuwe content kan creëren, zoals afbeeldingen, video’s, audio en tekst, waaronder sourcecode. Een voorbeeld hiervan is een chatbot zoals ChatGPT. Generatieve AI wordt vaak breed ingezet in allerlei organisaties en op allerlei netwerken, zo ook in het zorgdomein. Die omgevingen zijn niet altijd (technisch) goed afgeschermd voor intern gebruik of gesegmenteerd van andere operationele netwerken. Dit vergroot het aanvalsoppervlak voor cybercriminelen waardoor ook de risico´s op binnendringen, manipulatie en datalekken toenemen.

Het grootschalig gebruik van AI-software brengt ook algemene cybersecurity-risico’s met zich mee. Juist door (te) snelle invoering is de AI-programmatuur zelf niet in alle gevallen uitvoerig getest en op (onbewuste) fouten gecontroleerd. Ook de authenticiteit en integriteit van datasets en trainingsprogramma’s is niet altijd gewaarborgd. In lijn met de Cyber Resilience Act (CRA) en de Digital Services Act (DSA) die de EU oplegt, zijn hiervoor extra waarborgen nodig, zeker in het zorgdomein waar mensenlevens op het spel staan en veel vertrouwelijke data rondgaat.

En het wordt steeds duidelijker dat met GenAI gemaakte code momenteel nog veel kwetsbaarheden bevat. Indien dergelijke modules overkoepelend in veel softwaretoepassingen als standaard worden gebruikt, verhoogt dit het risico op massale uitbuiting. Dit werd bijvoorbeeld eerder geconstateerd in generiek toegepaste software modules, zoals Log4j. Hiervoor zijn extra cybersecuritycontrols noodzakelijk, zoals voortkomend uit de hiervoor genoemde CRA en DSA.

 

Doelstellingen van het onderzoek

  1. Identificeren van de huidige stand van zaken met betrekking tot de cybersecurity van GenAI.
  2. Analyseren van de behoeften en belangrijkste kwetsbaarheden van GenAI-systemen op het gebied van cybersecurity in het zorgdomein.
  3. Formuleren van aanbevelingen voor verdere actie en onderzoek op het gebied van cybersecurity van GenAI.

 

Afbakening is de (veiligheids)zorg in Nederland

  1. Literatuurstudie: Een beknopte analyse van bestaande literatuur, onderzoeksrapporten en case studies met betrekking tot cybersecurity van (Gen)AI.
  2. Expertinterviews: Interviews met consortiumpartners, (potentiële) gebruikers van GenAI uit het zorgdomein (bv Kadera, Sterkhuis of Valente) en experts op het gebied van GenAI, cybersecurity en ethiek om inzicht te krijgen in actuele uitdagingen, behoeften en mogelijke oplossingen. In totaal minimaal vier interviews.
  3. (PowerPoint)Rapportage, disseminatie, consortiumvorming en schrijven vervolgaanvraag voor onderzoek.

 

Partners

Dit project is een samenwerking met Digital Trust Center van het ministerie van Economische Zaken en ONVZ.

This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.