Spør eksperten

Resonnerende språkmodeller

Da OpenAI lanserte modellen o1, var det starten på en rekke såkalte «tenkende modeller». Resonnerende modeller, som de kalles, gir bedre resultater på komplekse oppgaver, enn det vanlige språkmodeller gjør. Dette oppnår de ved å bruke flere ulike teknikker.

Hva er en resonnerende språkmodell?

Tradisjonelle språkmodeller, som vi kjenner fra chatboter og tekstgenereringsverktøy, forsøker ofte å svare på spørsmål eller løse oppgaver i ett enkelt forsøk. Dette fungerer godt for enkle spørsmål, men gir ikke dette alltid de beste resultatene når oppgaven er kompleks.

For å bøte på dette utviklet man såkalte «tankerekke-instruksjoner» (chain-of-thought prompting), hvor modellen fikk beskjed om å bryte oppgavene ned i mindre deloppgaver, og bruke resultatet av én deloppgave når den løser neste oppgave.

Resonnerende språkmodeller gjør dette av seg selv. I stedet for å gi et umiddelbart svar, analyserer de oppgaven og deler den opp i flere mindre trinn. De bruker så resultatet av ett trinn for å løse det neste, omtrent som et menneske ville gjort når det tenker gjennom en komplisert problemstilling. Dette gjør at de kan komme frem til mer gjennomtenkte og presise svar.

Resonnerende språkmodeller blir ofte trent ved hjelp av forsterkende læring (Reinforcement Learning), en metode der modellen gradvis forbedrer seg ved å bli belønnet for gode svar og korrigert for feilaktige svar. Dette hjelper den med å utvikle mer nøyaktige og pålitelige resonnementer over tid.

Hvordan fungerer de?

Resonnerende språkmodeller bruker avanserte teknikker for å forbedre sin evne til å finne gode svar på komplekse oppgaver:

  1. Tankerekke-instruksjoner (Chain-of-thought prompting): Dette er en metode der modellen eksplisitt blir bedt om å bryte ned en oppgave i deltrinn. Moderne resonnerende modeller, som o3, Gemini 2.0 Flash Thinking og DeepSeek R1, kan gjøre dette automatisk uten spesifikke instruksjoner.
  2. Mer tenketid: Disse modellene tar seg mer tid til å vurdere og analysere et problem før de gir et svar. I stedet for å svare umiddelbart, går de gjennom ulike muligheter og vurderer hvilket svar som er mest sannsynlig å være korrekt.
  3. Feilkorrigering: Noen resonnerende modeller har en viss evne til å evaluere og korrigere egne svar. Selv om dette ikke eliminerer feil helt, reduserer det sannsynligheten for å gi gale eller "hallusinerte" svar.

At resonnerende modeller løser oppgaver i flere trinn, og i tillegg har lengre tenketid på hvert trinn, gjør at resonnerende modeller koster mer å bruke enn vanlige språkmodeller. Det er derfor ikke alle problemstillinger som er hensiktsmessige å løse ved hjelp av en resonnerende modell.

Hvorfor er dette viktig?

Resonnerende språkmodeller kan revolusjonere måten vi bruker AI på i en rekke områder. Innen medisin kan AI bidra til mer nøyaktige diagnoser ved å bryte ned symptomer og analysere pasientdata på en systematisk måte. På det juridiske området kan slike modeller brukes til å analysere komplekse juridiske dokumenter og argumenter, noe som kan effektivisere juridiske prosesser og forbedre rettsikkerheten.

I forskningsfeltet kan AI spille en sentral rolle ved å hjelpe forskere med å analysere store datamengder og trekke logiske slutninger. Dette kan føre til raskere og mer presise vitenskapelige gjennombrudd. Innen kundestøtte kan intelligente chatboter håndtere mer komplekse spørsmål, noe som gir bedre brukeropplevelser og mer effektiv kundebehandling.

Eksempler på resonnerende modeller

Flere resonnerende språkmodeller har blitt lansert de siste årene, inkludert:

  • OpenAI o3
  • Google Gemini 2.0 Flash Thinking
  • DeepSeek R1

Forskere har også vist at det er mulig å trene mindre modeller til å resonnere ved å bruke innsikten fra større modeller, noe som kan gjøre teknologien billigere og mer tilgjengelig.

Resonnerende språkmodeller representerer et stort fremskritt innen kunstig intelligens. Ved å bruke mer tid på å analysere problemer, bryte dem ned i trinn og korrigere egne feil, blir AI smartere og mer pålitelig. Selv om teknologien fortsatt har utfordringer, som feilaktige svar og lange behandlingstider, er den på vei til å bli en viktig del av fremtidens AI-løsninger.

I januar 2025 lanserte OpenAI Deep Research, en variant av den nye o3-modellen, som kan lete etter informasjon på internett. I tillegg har OpenAI utvidet begrensningen i tenketid enda mer, så Deep Research kan bruke fra 5 til 30 minutter på å løse en oppgave. Resultatet du får er en fyldig rapport med henvisninger til kildene modellen har brukt.

Les mer: Slik virker kunstig intelligens

Les mer: ChatGPT

Les mer: Språkmodellene i ChatGPT

Les mer: Perplexity


ChatGPT kurs