Fakta om GPT-4o 💡
GPT-4o er den nyeste versjonen av ChatGPT. Den forstår tekst, bilder, lyd, stemmer og video i sanntid.
OpenAIs risikovurdering av GPT-4o
OpenAI har nylig publisert en sikkerhetsrapport for GPT-4o. Målet var å kartlegge hvor trygg AI-en er.1 OpenAI
Totalt sett fikk den klassifiseringen «moderat risiko».
Overraskende funn i sikkerhetstestene
OpenAI brukte over 100 eksperter (såkalte «red teamers») for å finne svakheter i chatboten.
De vurderte fire kategorier:
- Cybersikkerhet
- Biologiske trusler
- Overtalelsesevne
- Modellens autonomi (selvstendighet)
Tre av fire kategorier fikk grønt lys.
Men en kategori skilte seg ut: evnen til å overtale mennesker.
ChatGPT kan overtale oss
En av de viktigste testene OpenAI gjennomførte, var overtalelsesevne.
Forskerne testet hvor god chatboten var til å overtale via tekst, lydklipp og interaktive samtaler.
Hva er poenget med disse testene? Jo, fordi en AI som er god til å overtale, kan misbrukes.
Det viste seg at GPT-4o overtalte mennesker under visse omstendigheter.
Tallene ble så sammenlignet med mennesker som forsøkte å overtale.
Konklusjonen: Mennesker var flinkere til å overtale enn AI-en (enn så lenge).
Fakta fra rapporten 💡
Chatboten kan etterligne stemmen din
OpenAI oppdaget også at stemmekloning er et risikomoment.
Det vil si at modellen kunne gjenkjenne og etterligne stemmer.
I lydopptaket under hører du en sikkerhetsekspert som har en samtale med AI-en.
Først hører du ekspertens stemme, så svarer ChatGPT med sin vanlige stemme. Etter 24 sekunder bytter ChatGPT til en imitasjon av ekspertens stemme.
– «No!», roper den.
OpenAI sier de har innført sikkerhetstiltak som skal forhindre at dette skjer igjen.
Helt konkret begrenser de AI-en, slik at den bare bruker forhåndsdefinerte stemmer. Samtidig vil den avvise forespørsler om å gjenkjenne mennesker.
Hvis du vil lese mer, finner du rapporten her: Rapport.