Fire flaue AI-feil: Se hvor galt det kan gå

Er det en god deal å selge en ny bil for 11 kroner? Alt kan skje når AI gjør feil.

AI-feil

Kunstig intelligens er ikke ufeilbar.

Generativ AI kan gjøre feil i kundeservice, og til og med i rettssaker.

Her er fire eksempler på AI-feil som fikk oppmerksomhet i pressen og sosiale medier:

1. Chatbot ville selge ny Chevrolet for 11 kroner

I 2023 skjedde noe merkelig hos en Chevrolet-forhandler i USA.

En chatbot begynte å tilby nye biler til latterlig lave priser.1 Business Insider og VentureBeat

Hva var det som gikk galt?

Noen brukere oppdaget at de kunne lure chatboten (ChatGPT).

De fikk den til å komme med absurde tilbud, som å selge en splitter ny Chevrolet for bare 1 dollar.

Chevy Tahoe til salgs for 11 kroner
Bilde: Chris Bakke.2 X

Naturligvis var ikke disse avtalene gyldige. Men hendelsen skapte mye oppstyr på nett. Folk delte skjermbilder av de ville tilbudene på sosiale medier.

Chatboten måtte raskt tas ned av selskapet som drev den, Fullpath.

De sa de jobbet med å forbedre systemet. De understreket at de fleste samtalene hadde gått bra.

Episoden viser hvor viktig det er å teste chatboter før bedrifter tar de i bruk.

2. AI tror kjønn og hudfarge er knyttet til yrke

Har du noen gang lurt på hvordan AI «ser for seg» ulike yrker?

Bloomberg gjennomførte et eksperiment for å undersøke nettopp dette.3 Bloomberg

De ba en AI (Stable Diffusion) om å lage bilder av forskjellige yrker.

Her er noen av funnene:

  • Ledere ble vist som menn.
  • Kvinner og personer med mørkere hudfarge var i lavtlønnede yrker.
  • Administrerende direktører og dommere hadde hvit hudfarge.

Bildene under viser hvordan kunstig intelligens tolket yrkene:

Bloomberg AI-Bias
AI-bias illustrert.4 Bilde: Bloomberg.

Hvorfor skjedde dette?

AI-systemer lærer fra dagens data, som gjenspeiler samfunnets skjevheter.

Dermed kan systemene forsterke bias.

3. Advokater ble bøtelagt for å ha brukt ChatGPT

I 2023 skjedde noe oppsiktsvekkende i en amerikansk rettssak. To advokater ble bøtelagt for å ha brukt ChatGPT.5 Forbes og Fortune

Hva gikk galt?

Her er hovedpunktene:

  1. Advokatene brukte ChatGPT til å finne relevante rettssaker.
  2. ChatGPT diktet opp saker som ikke eksisterte.
  3. Advokatene sjekket ikke kildene og viste til sakene i retten.
  4. Motpartens advokater oppdaget feilen.
  5. Dommeren ga advokatene en bot på 5000 dollar.

Dette er en ganske flau tabbe å gjøre, og det viser bare hvor viktig det er å faktasjekke AI-svar.

Hvorfor finner ChatGPT på ting? 💡

Grunnen er såkalte AI-hallusinasjoner.

Hvis chatboter ikke har relevant informasjon, kan de finne på ting som høres sannsynlige ut.

4. Google Gemini diktet opp historiske fakta

Google sin chatbot havnet i hardt vær tidligere i år.

I februar 2024 oppdaget brukere at Gemini hadde et løst forhold til sannheten.6 The Verge

AI-verktøyet lagde blant annet AI-bilder av britiske monarker som ikke var historisk riktig.7 Time

Dette vakte sterke reaksjoner på sosiale medier.

AI-feil britiske monarker
Bilde: Britiske monarker fremstilt av Google Gemini.8 X

Hvorfor gjorde AI-en en slik feil?

Google forklarte at de hadde forsøkt å skape mangfold i bildene. Men dette førte til historiske faktafeil.

AI-giganten måtte raskt beklage tabben.9 Google

De uttalte at Gemini skal generere et bredt spekter av mennesker. Men i dette tilfellet bommet de.

Google beklager seg etter Gemini-feil (2024)
Bilde: Google innrømmer at Gemini var feilkalibrert.10 Google

Skroll til toppen