Fem måter å forhindre at bedriftshemmeligheter deles med AI

Mange ansatte deler sensitive data med chatboter. Dette kan konkurrenter få tilgang til. Hvordan kan bedrifter forhindre slike databrudd?

Fem måter å forhindre at bedriftshemmeligheter deles med AI

Ansatte deler bedriftsdata med AI

En rapport fra IBM viser at chatboter sluker bedriftsdata.

AI-tjenestene er et risikomoment for bedrifter.

Forhindre at bedriftshemmeligheter deles med AI - IBM Report
Skjermbilde: IBMs nettsider

IBMs Cost of a Data Breach Report 2025 viser at 13% av organisasjoner opplevde databrudd via AI.

97% av disse virksomhetene manglet tilgangskontroller for AI.1 IBM

Hvorfor er det et problem?

Det du skriver inn i chatboter brukes til å trene AI. Dermed kan andre brukere og konkurrenter hente ut dine data.

«We can use your Content worldwide to provide, maintain, develop, and improve our Services (…)»

– OpenAIs europeiske brukervilkår2 EU Terms of Use

Fem måter å stoppe dataflukten på

◆ Risikovurdering

Informasjonen nedenfor er ikke juridiske råd.
Gjør alltid en risikovurdering før dere tar i bruk AI-tjenester.

1. Bruk bedriftsabonnement

Som gratisbruker brukes dataene dine til å trene AI.

Bedriftskunder betaler for kontroll over egne data.

Flere populære AI-tjenester tilbyr bedriftsabonnement:

Disse sikrer at kundedata ikke brukes til å trene modellene.

«Dataene dine tilhører deg, og de brukes ikke til å lære opp eller forbedre Gemini-modeller»

– Google6 Workspace

2. Ha en databehandleravtale

En databehandleravtale (DPA) definerer hvem som gjør hva med dataen, og hvem som har ansvaret hvis noe går galt.

Hvis du bruker en ekstern leverandør som OpenAI, Microsoft eller Google, er det lurt med en databehandleravtale.

Leverandører som OpenAI har prosedyrer for å lage avtaler via nettsidene deres.7 Enterprise Privacy

I tillegg har Datatilsynet maler på norsk og engelsk.

Avtalen inneholder (blant annet):

  • Når og hvordan persondata skal slettes eller returneres når kontrakten avsluttes
  • Krav til underbehandlere som leverandøren bruker
  • Sikkerhetsrutiner for kryptering og tilgangskontroll
  • Rutiner for overføring av data til andre land

GDPR-krav

I følge Datatilsynet er det krav om slike avtaler hvis man behandler personopplysninger.

F.eks. om man bruker en skytjeneste til å lagre eller behandle kundeopplysninger.8 Datatilsynet

3. Kjør åpne modeller på egne servere

Det er faktisk mulig å kjøre såkalte «åpne modeller» på egne servere eller egne maskiner.

Det at modellen er åpen, betyr at den har åpen kildekode og er gratis å bruke.

Da deles ikke dataene med tekgigantene. All data forblir på egne servere.

Her er noen modeller som kan kjøres lokalt:

  • Llama 3 (Meta)
  • DeepSeek R1 (kinesisk)
  • Mistral (fransk)
  • Qwen3 (kinesisk)
  • gpt-oss (ChatGPT)

Hvordan kjøre modellene lokalt?

Den enkleste måten er å bruke verktøy som LM Studio, Ollama eller Jan.

AIavisen har ikke gjort en risikovurdering av disse verktøyene og oppgir de bare til informasjon.

4. Skru av datadeling i AI-verktøyene

De fleste AI-tjenester har innstillinger som lar deg hindre datalagring og AI-trening.

I ChatGPT kan du skru av «Improve the model for everyone» i innstillingene.

ChatGPT improve the model for everyone

OpenAI sletter vanligvis samtaler innen 30 dager.

Men de kan beholde samtaler av sikkerhetsmessige eller juridiske årsaker.

5. Bruk AI som beskytter personvernet

Du kan bruke chatboter uten å miste kontrollen over dataene dine.

Her er to gode alternativer:

Proton – Lumo

Lumo AI
Skjermbilde av Lumo

I følge Proton så:

  • lagres ikke spørsmålene eller svarene dine
  • krypteres alt du sender, og Proton kan ikke lese det
  • lagres ingenting på serverne
  • er koden åpen

DuckDuckGo – Duck AI

Les AIavisens anmeldelse: Test av DuckDuckGo AI Chat

  • De fjerner all personlig informasjon
  • Underleverandørene får ikke vite hvem du er
  • Samtalene dine blir anonymiserte
  • Du spores ikke

Ulempene er at disse tjenestene har færre funksjoner enn tekgigantene.

Problemer som kan oppstå

Risikovurdering

Til tross for at du har et bedriftsabonnement og en databehandleravtale, bør man gjøre en risikovurdering.

Eksempelvis er tilgangsstyring helt kritisk hvis AI har tilgang til sensitive bedriftsdata som e-poster og dokumenter.

Dette skriver Datatilsynet og NTNU i sin rapport om Copilot og personvern:

– «Copiloten vil ha tilgang til alle de samme opplysningene som brukeren av verktøyet har. Det betyr at utfordringer og svakheter i «den digitale grunnmuren», som dårlig tilgangsstyring og kontroll over personopplysninger, vil bli synlige og kraftig forsterket av M365 Copilot.» – Datatilsynet9 Rapport

Les brukervilkårene og personvernspolicy

Les alltid over brukervilkårene til eksterne skybaserte tjenester. Det står ansvarsfraskrivelser og viktig informasjon der.

For eksempel:

DuckDuckGo skriver at de ikke lagrer chatteloggene dine i Duck AI.

Men Duck AI bruker underleverandører for AI-modellene (f.eks. OpenAI). Ifølge vilkårene kan de lagre samtalene midlertidig. Nå pågår det en rettssak mot OpenAI som tvinger selskapet til å lagre samtaler permanent.

Det sterkeste leddet

Til tross for at bedriften har et organisert system, databehandleravtale og bedriftsabonnement kan ting gå galt.

La oss si at bedriften abonnerer på M365 Copilot.

Hva skjer hvis de ansatte ikke liker Copilot og foretrekker ChatGPT? Hva skjer hvis de har en gratisbruker og limer inn sensitiv informasjon der?

Det er de ansatte som avgjør om bedriftens tiltak lykkes eller ikke.

Skroll til toppen