7 risikoer ved å ta i bruk AI på jobb

Planlegger bedriften din å ta i bruk kunstig intelligens som ChatGPT eller Copilot? Disse risikoene bør dere være klar over.

Risikoer ved å ta i bruk AI på jobb

Illustrasjonen over er laget med Midjourney.

Risikoene ved generativ AI

I denne saken fokuserer jeg på risikoene ved generativ AI.

Det vil si AI-verktøy som ChatGPT, Copilot, DALL-E, Midjourney, og så videre.

Artikkelen er informativ. Den gir ikke juridiske råd.

#1. Sensitiv informasjon kan lekke ut

De fleste AI-modeller lærer fra dataene dine.

Det betyr at alt du skriver eller limer inn i chatten brukes til å trene opp AI-en.

Alt AI-en har lært fra dine data, kan den gi den videre til andre brukere.

Derfor advarer Datatilsynet om at AI-modeller kan «røpe forretningshemmeligheter og immaterielle rettigheter».1 Datatilsynet

Og det er ikke en hemmelighet. AI-selskapene skriver det rett ut i retningslinjene sine.

Dette står i ChatGPT sine retningslinjer:

«We can use your Content worldwide to provide, maintain, develop, and improve our Services (…)» – OpenAI2 EU Terms of Use

Anbefaling

Bedrifter bør ha retningslinjer for hva man kan lime inn i chatboter.

Eventuelt kan man bruke Enterprise-chatboter med egne databehandleravtaler.

Da brukes ikke dataene til å trene opp AI-en. Disse tjenestene har naturligvis høyere priser.

Offentlig sektor har flere muligheter, som GPT UiO, Sikt KI-chat og NorLLM (i april).

#2. Brudd på personvern og GDPR

Blant de største AI-risikoene er behandling av personopplysninger. Her inngår det en rekke krav fra personvernforordningen (GDPR).

«Utvikling og bruk av kunstig intelligens i Norge skal ivareta den enkeltes integritet og personvern»

– Nasjonal strategi for kunstig intelligens3 Regjeringen

Kort sagt er det flere risikoer:

  • Persondata kan lekke ut.
  • Kundedata og de ansattes data kan lekke ut.
  • Datatilsynet fører tilsyn hvor de kontrollerer rutiner, GDPR, risikovurderinger, med mer.
  • Brudd på GDPR straffes med stive bøter.

Anbefaling

Det er viktig å være bevisst på hva man limer inn i chatboter. Det er krav om at personvernet må bevares.4 Regjeringen

Jeg vil anbefale å lese Datatilsynets rapport om KI og personvern.5 Datatilsynet

«Data, i mange tilfeller personopplysninger, er drivstoffet som gjør at systemet kan lære og bli intelligent»

– Datatilsynets rapport om KI og personvern6 Datatilsynet

#3. Faktafeil og hallusinasjoner

Chatboter som ChatGPT, Bing og Google Bard har en tendens til å dikte opp svar.

De er svært overbevisende, og de kan til og med vise til kilder. Problemet er bare at kildene ikke alltid eksisterer.

Og det er nettopp dette som er en AI-hallusinasjon: oppdikting av fakta og kilder.

Andre typer hallusinasjoner er når AI-en lager kode som er feil, eller når den gjør regnefeil i matematikk.

Hvorfor er dette en risiko?

Hovedproblemene er at bedriften blir feilinformert. Hvis man tar beslutninger på feilaktig grunnlag, så kan det få negative konsekvenser.

Det kan også medføre at dere sprer feilinformasjon, om AI har generert tekst til sosiale medier, artikler, rapporter og så videre.

Anbefaling

Husk å kvalitetssikre innholdet som produseres av kunstig intelligens.

Ta en faktasjekk og være kildekritisk. Få en fagperson til å vurdere sluttproduktet.

#4. Får du egentlig opphavsrett?

Det er fort gjort å få inntrykket av at man eier det som produseres av kunstig intelligens.

Men det er ikke nødvendigvis tilfellet.

«For at noe skal regnes som åndsverk må det være resultat av en original, skapende innsats.»

– SNL7 SNL: Opphavsrett

Det er uavklart hvem det er som eier innholdet som produseres av AI:

  • Ifølge åndsverkloven kan ikke AI få eller gi opphavsrett.
  • Å skrive inn en instruks til en AI er ikke nok for å få opphavsrett.
  • Det finnes ingen norsk rettspraksis enda.

Flere AI-tjenester sier at du får eierskap til innholdet som du lager med AI. Men åndsverkloven sier at maskiner ikke kan gi deg opphavsrett.

Det oppstår en selvmotsigelse.

Min tolkning er at du får kommersielle rettigheter, men ikke nødvendigvis opphavsrett.

Jeg går i dybden på temaet i denne saken: Hvem eier innholdet som lages av kunstig intelligens?

#5. Omdømmerisiko

Som en kommunikasjonsleder er jeg alltid bevisst over virksomhetens omdømme.

Og det er mange eksempler på bedrifter som har tabbet seg ut med generativ AI.

Her er et eksempel:

Sparebank 1 Harald
Bilde: Harald (29) eksisterer ikke.

Sparebank 1 Østlandet genererte «Harald» som tilsynelatende er en bankkunde.

Men det viste seg fort at Harald var et AI-bilde. Sparebank 1 fikk mye pes for dette og måtte beklage seg.8 NRK

Men det er ikke bare i Norge at bedrifter har måtte ta konsekvensene av å (mis)bruke AI.

Falske artikkelforfattere

I 2023 ble Sports Illustrated tatt for å ha publisert AI-artikler av falske AI-forfattere.9 Futurism

Artiklene ble utgitt for å være skrevet av mennesker. Når de ble avslørt, slettet de alt.

Futurism avslorer Sports Illustrated
Skjermbilde/Faksimile: Futurism avslører Sports Illustrated.

Noen måneder senere mistet Sports Illustrated en viktig lisens, noe som endte i masseoppsigelser.10 NY Times / The Verge

Det er usikkert hvorvidt magasinet vil legges ned.

Anbefaling

Eksemplene over viser at dere alltid burde merke innhold som er laget med AI. Det gjelder tekst, bilder, videoer, musikk, tale, og så videre.

Det kan også være lurt å unngå å lage AI-bilder som er fotorealistiske. Disse kan lure brukere til å tro at noe er ekte når det ikke er ekte.

#6. Diskriminering og bias i HR

Alle AI-systemer har bias. De er trent opp på data og forsterker tendensene de ser i dataene.

I en rekrutteringsprosess kan et AI-system foretrekke:

  • Etniske nordmenn.
  • Menn til å være administrerende direktør.
  • Kvinner til å jobbe i HR og kommunikasjon.

Hvis AI-en ser at flest kvinner er sykepleiere, vil den favorisere kvinnelige kandidater.

Denne problematikken er beskrevet i flere studier.11 Studie (arXiv)

I 2023 undersøkte Bloomberg hvordan AI assosierer kjønn med ulike yrker.

De brukte en bildegenerator og skrev inn yrkene. Så fikk de ut tusenvis av bilder som de lagde en sammensetning av.12 Bloomberg

Bloomberg AI Bias
Skjermbilde fra Bloomberg. Bildene illustrerer AI-bias.

Anbefaling

Vær bevisst over at AI ikke er objektiv. De plukker opp og forsterker menneskelige bias.

Dette må korrigeres i det man trener opp AI på data.

Samtidig må man korrigere for bias hvis man bruker AI til å grovsortere søknader. Det kan være nyttig å anonymisere søknadene.

#7. Søksmål

Om det viser seg at bedriften ikke har fulgt norske eller europeiske regelverk kan det få konsekvenser.

For eksempel kan ChatGPT generere innhold som er beskyttet av opphavsrett.

Hvis dere bruker innholdet på nettsidene deres, kan dere anklages for plagiat eller brudd på opphavsretten.

Ifølge advokatfirmaet Hjort kan bruk av AI medføre erstatningsansvar.13 Hjort

OpenAI saksøkes

Både OpenAI og Microsoft saksøkes for brudd på opphavsretten.14 Reuters

OpenAI har støvsugd internett og bøker for informasjon, og mye av dette er vernede verk.

New York Times saksøker for øyeblikket disse selskapene for å ha trent AI på millioner av artikler fra nettavisen.

OpenAI sier at det er greit å bruke offentlig tilgjengelig materiale til å trene opp AI. De sier at det faller under «fair use».15 OpenAI.

Hvem har rett? Det vil tiden vise.

I mellomtiden er det greit å være bevisst over problematikken.

Anbefaling

Det er en etisk vurdering om man vil bruke AI-verktøy som ChatGPT. De er tross alt trent opp på vernede verk.

Om dere vil redusere risikoen for søksmål, kan det være nyttig å se om selskapene tilbyr beskyttelse mot søksmål.

Tjenester som Google Cloud tilbyr en slik beskyttelse.16 Google Cloud

«If you are challenged on copyright grounds, we will assume responsibility for the potential legal risks involved»

– Google17 Google Cloud

En annen løsning er å bruke åpne språkmodeller.

Snart kommer NorLLM som bare er trent på åpne data.

Hvordan kan bedrifter minimere risiko?

Som jeg har skrevet over er det en rekke risikoer ved å ta i bruk AI.

Alle bedrifter burde ta tre grep:

  • Lag AI-retningslinjer
  • Gjør en risikoanalyse for AI-tjenestene dere tar i bruk
  • Få på plass databehandleravtaler og rutiner som sikrer at GDPR følges.

Enterprise-chatboter

Ellers anbefales det å ta i bruk chatboter som er laget for bedrifter. For eksempel finnes det Enterprise-versjoner av ChatGPT og Microsoft Copilot.

Disse trenes ikke på dataene som legges inn i chatbotene.

Dere kan også kjøre open source chatboter lokalt (f.eks. Mistral eller Llama). Disse finner dere på HuggingFace.

I April lanserer forskningssenteret NorwAI en samling med tre åpne chatboter.

Samlingen heter NorLLM, og de er Norges første store språkmodeller som tilgjengeliggjøres for offentligheten. De vil kunne brukes til kommersielle formål.

Modellene er trent på åpne data, som ikke er beskyttet av opphavsrett. Modellene vil kunne kjøres lokalt. Ifølge NorwAI vil de ikke sende dataene til tredjeparter.

Skroll til toppen