Hallusinering i kunstig intelligens

Et begrep vi har blitt kjent med etter hvert som kunstig intelligens har blitt en del av hverdagen vår, er hallusinering. Av og til gir modellene svar som er feil. Hvorfor gjør den det? Er det en feil som kan rettes? Hva skjer egentlig når kunstig intelligens hallusinerer?

Hvordan språkmodeller fungerer

ChatGPT beskriver ordet varmt
ChatGPT beskriver ordet varmt

For å forstå hallusinering, så må vi først forstå hvordan generativ kunstig intelligens fungerer. En språkmodell, som den ChatGPT er bygget på, forstår egentlig ingen ting. Den forstår ikke forskjellen på svart og hvitt, varmt og kaldt, hardt og mykt, og den vet ikke forskjellen på riktig og galt. En språkmodell er en kjempestor samling regnestykker, som gjennom trening på milliarder av dokumenter har blitt veldig god til å beregne hvilket ord som sannsynligvis er det neste, basert på hvilke ord som kommer foran.

Når setningen starter med «opp av pipa kom det», så kan modellen beregne at det er størst sannsynlighet for at ordet «røyk» er det neste.

Modellen vet ikke hvordan det føles at noe er «varmt». Den kan beskrive hva varmt er, fordi den har sikkert tusen tekster i treningsdataene sine med beskrivelse av hva ordet varmt betyr, men den kjenner ikke til selve følelsen. Når du spør ChatGPT hva «rommet er varmt» betyr, bruker den disse tusen eksemplene til å sette sammen ordene den gir deg som svar.

Hvorfor kunstig intelligens hallusinerer

Hvis du spør om noe som ikke finnes i treningsdataene til modellen (eller andre kilder den har tilgjengelig), så kan den likevel beregne seg fram til et svar fordi den også er trent på hvordan ulike ord henger sammen. Den vet at det er en sterk sammenheng mellom ordene «hund» og «valp», og den vet at det er en sterk sammenheng mellom navnet «Per» og pronomenet «han». Den kan derfor sette sammen setninger med ord som ikke finnes i treningsdatene, fordi den vet hvilke ord som har en tilsvarende betydning.

Når du ber modellen om å skrive et dikt om roboter, slik Henrik Ibsen ville ha skrevet det, så finnes det ikke et slikt dikt i dataene modellen er trent på. Ibsen skrev aldri noe dikt om roboter. Da vil modellen sette sammen setninger som likner på det den er trent på i Henrik Ibsens tekster, men bruke ord som har en sammenheng med roboter.

Det er det vi kaller hallusinering.

Hallusinering er ikke en feil i modellene, det er en viktig funksjon. Det er nettopp hallusinering som gjør generativ kunstig intelligens i stand til å være kreativ. Uten hallusinering ville modellene vært mye mindre nyttige. Da ville de ikke være i stand til å gi deg et svar som ikke finnes i treningsdataene fra før av. Da ville de ikke være i stand til å skrive et dikt om roboter, som Ibsen ville ha skrevet det.

Uten hallusinering ville ikke kunstig intelligens kunne skrive et forslag til svar på en epost fra en kunde for deg, fordi eposten fra kunden ikke finnes i treningsdataene. Det er hallusinering som gjør at den kan sette sammen ord som gir et fornuftig svar på det kunden spør om.

Problemet med hallusinering

Problemet med hallusinering dukker opp når vi ber om et faktasvar, og ikke ønsker at modellen skal være kreativ.

Kunstig intelligens vet ikke forskjellen på riktig og galt, fakta og fantasi, løgn og sannhet. Når du spør om noe den ikke finner svaret på i treingsdataene sine (eller andre kilder), vil den forsøke å konstruere et svar med ord som den beregner seg fram til basert på spørsmålet ditt, akkurat som den gjør når du ber den om å skrive et dikt. Hvis det du spurte om krever et faktasvar, vil svaret den kunstige intelligensen kontruerer ofte være feil.

Ikke bare språkmodeller som hallusinerer

Jens Stoltenberg rir på en enhjørning
Jens Stoltenberg rir på en enhjørning

Det er ikke bare kunstig intelligens som hallusinerer. Vi mennesker hallusinerer også.

Du har kanskje selv opplevd å få et spørsmål som du ikke vet svaret på helt sikkert. Men basert på det du kan, så gir du likevel et svar som du tror er riktig. Da hallusinerer du, akkurat som ChatGPT.

Bildemodeller hallusinerer også. Når du ber en bildemodell om å lage et bilde av Jens Stoltenberg som rir på en enhjørning, er det hallusinering som gjør modellen i stand til å lage bildet, for Jens Stoltenberg har aldri ridd på en enhjørning. 

Hva du kan gjøre med hallusinering

Det viktigste du kan gjøre for å unngå problemer med hallusinering i kunstig intelligens, er å faktasjekke resultatet. Hvis du spør modellen om et faktaspørsmål, må du sjekke at svaret stemmer. Selv om svaret refererer til en nettside eller et dokument, må du sjekke at referansen faktisk finnes og at svaret stemmer med innholdet. Det finnes flere eksempler på at kunstig intelligens har referert til kilder som ikke finnes.

Hvis du jobber direkte mot en modell (ikke via et grensesnitt som ChatGPT) er det mulig å styre hvor kreativ modellen skal være, men det krever litt teknisk innsikt.

Du kan be modellen om å ikke være kreativ, som en del av prompten du skriver. Det kan hjelpe, men er ingen garanti. Du kan også be modellen om å oppgi kilder, slik at du enklere kan sjekke om svaret kommer fra reelle nettsider eller dokumenter.

Det er også mulig å gi modellen ekstra informasjon, slik at det er større sannsynlighet for at den finner svaret, og ikke må ty til hallusinering.

Uansett er det viktig å være klar over at hallusinering er noe vi må forholde oss til når vi jobber med generativ kunstig intelligens. 

 


ChatGPT kurs