Het beveiligen van de toekomst: Wat is de volgende stap in cyberbeveiliging? Deel I

Het beveiligen van de toekomst: Wat is de volgende stap in cyberbeveiliging? cover

Navigeren door AI-implementatie in geclassificeerde omgevingen

Nu organisaties zich haasten om AI-technologieën te omarmen, wordt de uitdaging om deze tools te implementeren in geheime of vertrouwelijke omgevingen steeds complexer. Hoewel de potentiële voordelen aanzienlijk zijn, moeten organisaties zorgvuldig overwegen hoe ze AI-mogelijkheden kunnen inzetten zonder gevoelige, vertrouwelijke of geheime informatie in gevaar te brengen.

In dit artikel bespreken we de uitdagingen rondom AI en geclassificeerde omgevingen en kijken we naar praktische benaderingen en oplossingen, om de hoofdvraag te beantwoorden: hoe vinden we een balans tussen innovatie en beveiliging?

De uitdagingen van data-eigendom begrijpen

Een fundamentele uitdaging bij de implementatie van AI ligt in het eigendom en beheer van gegevens. Wanneer organisaties informatie invoeren in commerciële AI-modellen, worden die gegevens mogelijk onderdeel van de trainingsset van het model. "Alles wat je invoert, wordt in wezen gebruikt door het model", legt Sander Dorigo, Senior Security Architect bij Fox Crypto, uit. "Hoewel sommige aanbieders zoals Microsoft beloven dat je gegevens niet worden opgenomen in hun grotere model, blijven de risico's aanzienlijk."

Dit is vooral zorgwekkend voor organisaties die te maken hebben met vertrouwelijke informatie, of het nu gaat om ongepubliceerde content, klantcontracten of gevoelige bedrijfsgegevens. De uitdaging gaat verder dan directe gegevensbeveiliging: als informatie eenmaal deel uitmaakt van een AI-model, is het praktisch onmogelijk om deze volledig te verwijderen of het toekomstig gebruik ervan te controleren.

De balans vinden: praktische benaderingen voor AI-implementatie

Betekent dit dat organisaties die te maken hebben met gevoelige informatie nooit AI-tools of -oplossingen moeten gebruiken? De sleutel ligt in selectieve implementatie en zorgvuldige controle van gegevenstoegang, zegt Sander. "Je kunt bijvoorbeeld grote taalsoftware gebruiken als vertaalmachines, door ze offline te laten draaien binnen je organisatie," stelt hij voor. "Zo kunnen medewerkers gevoelige teksten verwerken zonder risico op blootstelling aan externe systemen." Andere veilige toepassingen zijn het gebruik van AI voor codeaanvulling en ontwikkelingsondersteuning, op voorwaarde dat de modellen goed worden geïsoleerd van bedrijfseigen code.

Het bouwen van aangepaste, offline AI-oplossingen is de eerste oplossing voor organisaties met gevoelige informatie. Organisaties kunnen er echter ook voor kiezen om vooraf getrainde modellen te gebruiken die lokaal kunnen worden uitgevoerd, of om een strikt beleid voor gegevensbeheer te implementeren voor AI-diensten in de cloud.

Risico's beperken door zorgvuldig design

De implementatie van AI in geclassificeerde omgevingen vereist zorgvuldige overweging van de beveiligingsarchitectuur. Een veelbelovende aanpak bestaat uit het bouwen van gepersonaliseerde modellen die alleen toegang hebben tot informatie die specifiek is voor individuele gebruikersrechten. "De sleutel is ervoor te zorgen dat de AI-engine alleen de gegevens gebruikt waartoe je toegang hebt", benadrukt Sander. "In plaats van te proberen de AI te instrueren om bepaalde informatie niet te onthullen, moet je ervoor zorgen dat de AI überhaupt nooit toegang heeft tot die informatie."

Deze benadering erkent dat AI-modellen niet inherent goed zijn in het bewaren van geheimen. Ze zouden gemanipuleerd kunnen worden door middel van verschillende prompt-technieken om informatie te onthullen die ze niet zouden moeten onthullen. Daarom moet de focus liggen op het controleren tot welke informatie de AI toegang heeft, in plaats van te proberen te controleren hoe de AI die informatie gebruikt.

Organisaties moeten ook rekening houden met de bredere implicaties van het gebruik van AI, waaronder de mogelijkheid van onbedoelde openbaarmaking van informatie door toevallige interacties met AI-systemen. Als een leidinggevende bijvoorbeeld een AI-systeem gebruikt om toekomstige bedrijfsprognoses te analyseren, kan die informatie mogelijk door andere werknemers worden ingezien via zorgvuldig opgestelde prompts.

De weg vooruit voor organisaties ligt in het behandelen van AI als een hulpmiddel voor specifieke, gecontroleerde use cases in plaats van een universele oplossing. Door de reikwijdte van de AI-implementatie zorgvuldig te definiëren en strikte controle te houden over de toegang tot gegevens, kunnen organisaties de voordelen van AI benutten en tegelijkertijd hun gevoelige informatie beschermen.