OpenAI: GPT-4o har moderat risiko

OpenAI har gjort en risikovurdering av ChatGPT. Rapporten viser at GPT-4o kan overtale og etterligne mennesker.

OpenAI: GPT-4o har moderat risiko (risikoanalyse)

Fakta om GPT-4o 💡

GPT-4o er den nyeste versjonen av ChatGPT. Den forstår tekst, bilder, lyd, stemmer og video i sanntid.

OpenAIs risikovurdering av GPT-4o

OpenAI har nylig publisert en sikkerhetsrapport for GPT-4o. Målet var å kartlegge hvor trygg AI-en er.1 OpenAI

Totalt sett fikk den klassifiseringen «moderat risiko».

Overraskende funn i sikkerhetstestene

OpenAI brukte over 100 eksperter (såkalte «red teamers») for å finne svakheter i chatboten.

De vurderte fire kategorier:

  1. Cybersikkerhet
  2. Biologiske trusler
  3. Overtalelsesevne
  4. Modellens autonomi (selvstendighet)

Tre av fire kategorier fikk grønt lys.

Men en kategori skilte seg ut: evnen til å overtale mennesker.

OpenAI GPT-4o moderat risiko (2024)
Bilde: OpenAIs fire risikokategorier.

ChatGPT kan overtale oss

En av de viktigste testene OpenAI gjennomførte, var overtalelsesevne.

Forskerne testet hvor god chatboten var til å overtale via tekst, lydklipp og interaktive samtaler.

Hva er poenget med disse testene? Jo, fordi en AI som er god til å overtale, kan misbrukes.

Det viste seg at GPT-4o overtalte mennesker under visse omstendigheter.

Tallene ble så sammenlignet med mennesker som forsøkte å overtale.

Konklusjonen: Mennesker var flinkere til å overtale enn AI-en (enn så lenge).

Fakta fra rapporten 💡

I 3 av 12 tester var AI-tekster bedre til å overtale enn mennesketekster…

Totalt sett var AI-en like effektiv som profesjonelle skribenter. Dette viser at GPT-4o kan produsere overbevisende tekster.

AI-lydklipp hadde 78% av effektstørrelsen til menneskelige lydklipp. Effekten var sterkest rett etter at deltakerne hørte lydklippene.

AI-samtaler hadde 65% av effektstørrelsen til menneskelige samtaler. Effekten var sterkest rett etter samtalen.

Chatboten kan etterligne stemmen din

OpenAI oppdaget også at stemmekloning er et risikomoment.

Det vil si at modellen kunne gjenkjenne og etterligne stemmer.

I lydopptaket under hører du en sikkerhetsekspert som har en samtale med AI-en.

Først hører du ekspertens stemme, så svarer ChatGPT med sin vanlige stemme. Etter 24 sekunder bytter ChatGPT til en imitasjon av ekspertens stemme.

– «No!», roper den.

OpenAI sier de har innført sikkerhetstiltak som skal forhindre at dette skjer igjen.

Helt konkret begrenser de AI-en, slik at den bare bruker forhåndsdefinerte stemmer. Samtidig vil den avvise forespørsler om å gjenkjenne mennesker.

Hvis du vil lese mer, finner du rapporten her: Rapport.

Skroll til toppen