Hva er AI-hallusinasjoner? Når AI-en leker med sannheten

Chatboter som ChatGPT kan dikte opp svar og kilder. Finn ut hvorfor det skjer, og hvordan du kan unngå AI-hallusinasjoner.

Hva er AI-hallusinasjoner?
Adam Tzur

Skrevet av

Hva er AI-hallusinasjoner?

Når kunstig intelligens kommer med påstander uten rot i virkeligheten, sier vi at AI-en «hallusinerer». AI kan rett og slett finne på ting.1 Artificial Hallucinations in ChatGPT: Implications in Scientific Writing

Chatboter som ChatGPT, Bing og Google Bard har en lei tendens til å leke med sannheten.2 New York Times / Reuters

Grunnen er at de er trent opp til å gi svar som er overbevisende, men ikke nødvendigvis korrekte.

Språkmodeller prøver ofte å fylle kunnskapshull ved å dikte opp ny informasjon. 

Det spekuleres i at de er programmert til å svare, koste hva det koste vil.

Hvorfor AI-hallusinasjoner er et problem

Hovedproblemene er at folk blir feilinformert og mister tilliten til teknologien.

Det finnes flere eksempler på at AI-hallusinasjoner har skapt trøbbel.

Eksempelvis har studenter levert inn eksamensbesvarelser med falske kilder. Dette skjedde faktisk på NTNU, hvor 3 studenter ble utestengt for AI-juks.3 NRK

Andre ganger har AI-hallusinasjoner ført til spredning av feilinformasjon i sosiale medier.

Generelt gjør AI-hallusinasjoner at man ikke kan stole på det chatbotene sier.

Men det finnes heldigvis løsninger. Fortsett å lese for å finne ut hvordan.

5 vanlige AI-hallusinasjoner

1. Faktafeil

Chatboter som ChatGPT og Bard sliter med at de bommer på fakta, som årstall.

Her er et eksempel: 

Jeg spurte Google Bard om når ChatGPT ble utviklet i Norge. Her bakte jeg bevisst inn en faktafeil i spørsmålet, fordi ChatGPT ble jo utviklet i USA.

Dette fanget Bard heldigvis opp. Samtidig sa Bard at AI-en ble lansert i Norge i mai 2023.

Det riktige svaret er at ChatGPT var tilgjengelig i Norge i november 2022.

Google Bard hallusinerer
Bilde: Google Bard kommer med faktafeil angående ChatGPT.

2. Oppdikting av sitater

Det er heller ikke uvanlig at språkmodeller dikter opp sitater.

Hvis jeg spør ChatGPT om sitater fra Stoltenberg, sier den:

«Det er bedre å være rik og frisk enn syk og fattig.»

Men med litt faktasjekking viser en artikkel fra Nettavisen at det er et sitat fra Støre.4 Nettavisen

3. Oppdikting av kilder

Alle språkmodeller kan dikte opp kilder. Dette gjør de for å få svarene til å virke mer troverdige. Men når du leter etter kildene, så finnes de ikke.

Her er et eksempel fra ChatGPT:

Jeg spurte om å få 5 studier om generativ AI-forskning fra september 2023.

ChatGPT gir meg så en liste over 5 studier (tilsynelatende).

Men når jeg klikker på lenkene så kommer jeg til en artikkel som heter 13 Biggest AI Stories of 2023 fra Stanford University.5 13 Biggest AI Stories of 2023

Inne i artikkelen finner jeg ikke disse studiene.

ChatGPT hallusinerer studier
Bilde: ChatGPT hallusinerer vitenskapelige studier.

4. Regnefeil

Språkmodeller er gode på språk, ikke på regnestykker. Derfor kan matematikk og statistikk by på trøbbel for AI-en.

Men det finnes heldigvis en løsning på dette.

I ChatGPT kan du installere utvidelser (også kjent som «plugins»). 

I Plugin Store kan du installere en utvidelse som heter Wolfram, som er spesialisert på regning.

ChatGPT Plugin Store
Bilde: utvidelser i ChatGPTs Plugin Store.

5. Irrelevant informasjon

Noen ganger kan chatboter svare på noe annet enn det du spurte om.

Årsaken kan være at AI-en:

  • Misforstod spørsmålet.
  • Ikke har nok informasjon.
  • Glemte det som ble sagt tidligere i samtalen.

Da kan du forsøke å omformulere spørsmålet for å få et nytt svar.

Slik oppdager du AI-hallusinasjoner

Vær kritisk til svarene du får

Når du stiller et spørsmål til ChatGPT eller en annen AI, bør du lete etter tegn på at svaret kan være feil. 

Hvis noe virker rart eller mistenkelig, så er det et godt tegn på at AI-en har hallusinert.

Dobbeltsjekk informasjonen

Den beste måten å avdekke AI-hallusinasjoner på, er å dobbeltsjekke fakta, kilder, tall og navn.

SNL, forskningsartikler og andre troverdige kilder er gode steder å dobbeltsjekke informasjon. 

Hvis AI-ens svar ikke stemmer overens med uavhengige kilder, så har den sannsynligvis hallusinert.

Bruk utvidelser i ChatGPT

Det finnes flere utvidelser i ChatGPT som kan hjelpe deg med å avsløre AI-hallusinasjoner.

For eksempel kan du bruke «Link Reader»-utvidelsen for å få kilder til påstander.

En annen nyttig utvidelse er «Factiverse» som dobbeltsjekker påstander.

Også har du Wikipedia-utvidelsen. Men det skal sies at Wikipedia ikke alltid har den beste informasjonen.

Spør en annen chatbot

Hvis du har fått et svar fra ChatGPT, kan du dobbeltsjekke det i Bard eller Claude. 

Spør AI-en om å være en kritisk faktasjekker som skal ettergå påstandene, tallene og informasjonen i teksten.

ZDNET testet nettop dette. De brukte AI-er til å kvalitetssikre hverandre. De fikk dessverre ikke noen klare svar på hvem den beste faktasjekkeren er.6 ZDNET 

Så det anbefales å være forsiktig med denne metoden.

Det tryggeste per dags dato, er å ta en manuell faktasjekk.

Skroll til toppen