7 grunner til å IKKE bruke ChatGPT

Plagiarisering, forurensning og språkdød… Det er mange grunner til å holde seg unna den populære chatboten.

7 grunner til å IKKE bruke ChatGPT

Syns du det er litt mye halleluja om AI for tiden?

Det gjør jeg og…

Jeg skal innrømme at jeg er en av de som skryter AI opp i skyene.

Derfor bestemte jeg meg for å være kritisk.

Her er 7 grunner til å ikke bruke ChatGPT:

1. ChatGPT er en plagiatmaskin

Når OpenAI lagde ChatGPT, så støvsugde de internett for tekster, bilder og videoer.

Med disse dataene trente de opp AI-en.

Og av den grunn fremstiller chatboten andres ideer og formuleringer som sine egne.

Systemet resirkulerer tekst uten å oppgi kilder eller gi et nikk til forfatterne.

Dette er spesielt problematisk i akademia, skolen og høyere utdanning.

AI-juks og opphavsrett

Når studenter bruker ChatGPT til å skrive oppgaver, presenterer de ikke bare andres tanker som sine egne. De gjør det uten å vite hvem de egentlig kopierer fra.

Universiteter har felt mange studenter for AI-juks etter at chatboter ble tilgjengelig.1 Khrono

I kreative bransjer ser vi lignende utfordringer.

Forfattere og journalister opplever at åndsverkene deres blir brukt uten samtykke eller kompensasjon.

ChatGPT kan etterligne skrivestiler uten å anerkjenne forfatteren eller kilden.

Manglende plagiatkontroll

Det mest urovekkende er hvor vanskelig det er å oppdage plagiat.

Plagiatkontroll fungerer dårlig mot AI-tekst fordi systemet omformulerer innholdet akkurat nok til å unngå tekstmatch.

Dette skaper en gråsone der opphavsrett og akademisk integritet blir vanskelig å håndheve.

Problemet forsterkes av at OpenAI ikke gir innsyn i hvilke kilder som brukes. Dette gjør det umulig for skapere å vite om, eller når, deres arbeid blir brukt til å trene AI-modeller.

2. ChatGPT dikter opp «fakta»

Alle språkmodeller kan spre feilinformasjon gjennom såkalte «hallusinasjoner«. Modellene dikter opp fakta som høres troverdige ut, men som er helt feil.

Dette skjer fordi den gjenkjenner mønstre i treningsdataene sine, uten å forstå innholdet.

Når jeg tester verktøyet, ser jeg gang på gang hvordan det genererer overbevisende, men ukorrekte påstander.

AI-en presenterer informasjonen med høy selvsikkerhet. Systemet mangler evnen til å si «jeg vet ikke» når det er usikkert.

For deg som stoler blindt på svarene, kan dette få alvorlige konsekvenser.

Advokater bøtelegges

Et eksempel på dette er den gangen to advokater ble bøtelagt med 5000 dollar av en amerikansk dommer.2 Reuters / The Guardian

De brukte ChatGPT til å skrive et rettsdokument som viste til saker som ikke eksisterte.

Forskere jobber med å løse problemet

Det jobbes iherdig med å bli kvitt hallusinasjoner:

  • En ny metode kan oppdage når en AI hallusinerer med 79 % nøyaktighet.3 Time
  • Microsoft har lansert et verktøy som oppdager feil i AI-tekst. Teksten sjekkes opp mot ekte kilder.4 Microsoft
  • Anthropic har utviklet en metode som reduserer feilinformasjon med opptil 67 prosent.5 Anthropic

Utviklingen tilsier at AI-hallusinasjoner vil forsvinne etter hvert.

Inntil videre er det viktig å verifisere informasjon med pålitelige kilder.

3. Den er alltid enig

ChatGPT er programmert til å være imøtekommende og unngå konflikter.

Den gjør som den får beskjed om.

Og den vil heller nikke og smile enn å si deg imot.

Når AI-en konsekvent unngår å utfordre deg, mister vi den verdifulle motstanden som er nødvendig for læring og utvikling.

Ekte samtaler har både enighet og uenighet, noe som hjelper oss å tenke og reflektere.

Vi trenger å bli utfordret for å utvikle egen dømmekraft. En digital assistent som alltid er enig gjør at kritisk tenkning ikke får rom til å vokse.

Det kan føre til en generasjon som mangler evnen til å håndtere uenighet og konstruktiv kritikk.

Løsning: Be AI-en om å utfordre deg

Be chatboten om å være…

  • Sokrates som stiller kritiske spørsmål
  • En sparringspartner som ikke er redd for å utfordre deg
  • En mentor som gir råd

4. Du mister evnen til å tenke selv

Med tiden kan vi gradvis miste evnen til å tenke og løse problemer på egen hånd.

For deg som husker tiden før sosiale medier og smarttelefoner: Tenk på hvilken konsentrasjonsevne du hadde.

Også ser du hvordan den sakte har blitt visket vekk til fordel for kattevideoer, click bait og rage bait.

Eller tenk på hvordan det var å navigere i en by uten GPS!

Min hypotese er følgende…

Når vi stadig overlater oppgaver til AI-assistenter, svekkes vår egen problemløsningsevne.6 Studie (Springer Open)

Dette er urovekkende fordi AI-systemer er designet for å være tilgjengelige døgnet rundt.

På samme måte som med sosiale medier, kan overdreven bruk av AI føre til at vi mister troen på egen mestringsevne.7 VG

5. Chatboten lagrer alt du skriver

OpenAI lagrer nemlig alt – fra spørsmålene dine til e-postadressen din og hvilken nettleser du bruker.

Også trener de opp språkmodeller med informasjonen din.

«We can use your Content worldwide to provide, maintain, develop, and improve our Services (…)»

– OpenAIs europeiske brukervilkår8 EU terms of use

I tillegg deler selskapet denne informasjonen videre.

OpenAI kan nemlig dele brukerdataene dine med tredjeparter. Alt de trenger er samtykket du ga da du begynte å bruke tjenesten.9 EU privacy policy

Flere sikkerhetshull

I mars 2023 rammet en alvorlig datalekkasje over en million ChatGPT-brukere. Sensitive data som navn, e-postadresser og betalingsinformasjon ble lekket.10 Oppsummering

Selv om de skrudde av systemet for å fikse feilen, viser hendelsen hvor sårbar tjenesten er.

Enda verre var det når en sikkerhetsekspert oppdaget at Mac-appen lagret samtaler ukryptert.11 The Verge

For bedrifter utgjør dette en betydelig risiko. Når ansatte bruker ChatGPT, kan sensitive bedriftsdata og -hemmeligheter havne på avveie.

Samsung opplevde nettopp dette i mai 2023 da intern informasjon ble lekket via chatboten.12 Forbes

Heldigvis finnes det en løsning:

(saken fortsetter under)

6. Den sluker strøm og vann

ChatGPT bruker 10-25 ganger mer strøm enn et Google-søk.

Om GPT-4 skriver en e-post på 100 ord drikker den en halvliter vann.13 Washington Post

Hvis bare én av ti amerikanske arbeidstakere bruker ChatGPT til å skrive én e-post i uken, vil det årlige forbruket være:14 Washington Post

  • 435 millioner liter vann, som tilsvarer 174 olympiske svømmebasseng, siden ett basseng rommer 2,5 millioner liter.15 USA Today
  • 121 517 megawattimer strøm, like mye som det årlige strømforbruket til 7 740 norske husholdninger.16 SSB

Ifølge konsulentselskapet Gartner vil AI stå for opptil 3,5 % av verdens strømforbruk innen 2030.17 Brussels Times

Hvorfor trenger chatboter vann? 💡

AI-verktøy drives av datasentre. Vann brukes til å kjøle ned de glovarme sentrene som drives 24/7.

Å trene opp modellene krever energi

Energien som brukes i daglig drift er bare en del av regnestykket.

Den andre delen er hvor mye strøm som kreves for å trene modellene.

Det er ukjent hvor mye strøm GPT-4 trengte for å trenes opp, men anslagene ligger mellom 1 750 og 7 200 megawattimer.18 Baeldung / TRG Datacentres

7. Språklig mangfold trues

ChatGPT bygger på amerikanske språkmodeller og verdier.

Dette betyr at svarene er påvirket av amerikansk kultur og verdensbilde, noe som kan svekke vårt norske språk og dets særpreg.

Vil det føre til språkdød?

«Vi må ikke overlate språkutviklingen til utenlandske teknologiselskaper»

– Åse Wetås, direktør i Språkrådet19 Uttalt ved lanseringen av NorLLM

Språkmodellene reflekterer også fordommer og normer fra kildematerialet de er trent på.

Når millioner av mennesker bruker samme verktøy for å formulere tekster, risikerer vi at språket blir fattigere og mer ensartet.

Av den grunn utvikles det flere norske språkmodeller, og regjeringen investerer en milliard i norske forskningssentre.

«Det er behov for å etablere (…) språkmodeller som er tilpasset norske og samiske språk og norske samfunnsforhold.»

– Regjeringen20 Regjeringen

Lyst å lese mer?

Skroll til toppen