Fra kognitiv gjeld til utvidet intelligens

94-96

Bruken av store språkmodeller (Large Language Models – LLM) øker raskt. Det kan gi både økt produktivitet og læringstap. Hvordan kan vi bruke modellene til å bli smartere, ikke dummere?

Erlend Vestre

Devoteam

Utvidet intelligens betyr at menneske og maskin utfyller hverandre i problemløsning, læring og beslutning, i stedet for at teknologien tar over.

Fersk forskning fra Massachusetts Institute of Technology (MIT)

Fersk forskning fra MIT viser at hyppig bruk av LLM kan redusere den hjerneaktiviteten som er nødvendig for dyp læring og refleksjon. Men forskningen peker også på en vei videre: en hybrid kognitiv modell der mennesker og LLM utfyller hverandre, ikke konkurrerer.

MIT-studien, «Your brain on GPT», publisert 10. juni 2025, undersøkte hvordan bruk av LLM påvirker læring ved skriving av essay. Deltakerne ble delt i tre grupper: én brukte LLM, én brukte søkemotor, og én skrev uten digitale hjelpemidler. Forskerne målte både hjerneaktivitet og språk i tekstene, og fulgte opp med intervjuer. På den måten fikk de innsikt i hvordan ulike arbeidsmåter påvirket kognitivt engasjement, eierskap til tekst og evne til å gjengi og bygge videre på det man hadde skrevet.

Selv om studien tok utgangspunkt i essayskriving, samsvarer funnene med etablerte teorier om hvordan arbeidsminnet til mennesket blir påført mental anstrengelse under læring, også kalt kognitiv last (Sweller m.fl.). Studien er derfor relevant også for programmering, analyse og beslutningstaking, og dermed for hvordan norske virksomheter og offentlig sektor tar i bruk KI.

LLM kan skape kognitiv gjeld

MIT-forskningen er tydelig. Når vi overlater oppgaver til språkmodeller, svekkes hjernens egen aktivitet – den som bygger læring, refleksjon og kritisk sans. Resultatet er det forskerne kaller kognitiv gjeld: Vi får raske gevinster i dag, men betaler prisen senere gjennom tapt kunnskap, lavere kreativitet og større sårbarhet. For virksomheter kan dette resultere i ansatte som er effektive på rutineoppgaver, men dårlig rustet når regelverk endres eller komplekse vurderinger kreves. Likevel er ikke konklusjonen at LLM bør unngås. Brukt riktig kan teknologien være en kognitiv forsterker, en måte å utvide menneskelig kapasitet på. Spørsmålet er hvordan vi sikrer at KI brukes til å styrke læring og refleksjon, i stedet for å undergrave dem.

Utvidet intelligens

Her kommer utvidet intelligens inn. Utvidet intelligens betyr at menneske og maskin utfyller hverandre i problemløsning, læring og beslutning, i stedet for at teknologien tar over. I MIT-studiens kontekst innebærer dette at språkmodeller ikke bare fungerer som en fasit-maskin, men som aktive deltakere i menneskets tenkning, med potensial både til å lette kognitiv last og til å forme læringsprosesser. Målet er å kombinere dømmekraft og prosesseringskraft. Hva betyr det i praksis? Hvordan går du frem for å unngå at teknologien gjør deg passiv når du skal være aktiv, med kognitiv svekkelse som resultat? Utvidet intelligens gir et rammeverk for hvordan mennesker og LLM kan utfylle hverandre. Men hvordan omsetter vi dette i praksis? Her er fire grep som kan hjelpe.

Fire grep for å oppnå utvidet intelligens

Flere forskningsmiljøer peker på strategier som kan hjelpe oss til å bruke LLM aktivt og dermed unngå passiv avhengighet.

Flere forskere peker på samme behov: Yatani (2024) fremhever modeller som utfordrer brukeren gjennom spørsmål og alternative perspektiver, i stedet for å gi ferdige svar. Buçinca (2021) viste at kognitive tvangsmekanismer, design som krever at brukeren reflekterer før de aksepterer KI-råd, kan redusere overdrevet avhengighet av KI, og Riva (2025) beskriver rammer som gradvis gir mer ansvar tilbake til brukeren. I tillegg viser forskning, som Lan et al. (2025), at KI-verktøy kan styrke selvregulert læring når de brukes til å støtte planlegging, utførelse og refleksjon, men bare dersom brukeren beholder kontroll og eierskap til læringsprosessen.

På tvers av disse bidragene kan vi oppsummere fire sentrale grep du som bruker kan ta for å sikre at aktiv bruk av KI gir utvidet intelligens i stedet for svekkelse:

  1. Avklar formålet med bruken av LLM.

  2. Sørg for å sette deg selv i førersetet.

  3. Ha en kritisk dialog med LLM-verktøyet i stedet for å ta imot svarene som en fasit.

  4. Sørg for at dialogen med LLM gir deg økt kunnskap og forståelse.

Hva skal jeg bruke LLM til?

Det første grepet dreier seg om at brukeren må reflektere over hva verktøyet skal gjøre og hva brukeren skal gjøre. Det avgjørende spørsmålet er: Må jeg utvikle kunnskap og eierskap her, eller er målet bare å få jobben gjort? Svaret på det spørsmålet er bestemmende for hvordan du bruker AI til å løse oppgaven. Hvis svaret er å bedre forståelse, eierskap og nye ideer, så er tilnærmingen å tenke selv først, for så å bruke LLM til å forsterke.

Aktiv deltakelse – sitt i førersetet

Hvis målet er å utvikle kunnskap og eierskap, må du selv sitte i førersetet. Det betyr å tenke selvstendig først gjennom formulering av hypoteser, utarbeidelse av disposisjoner og forslag til konklusjoner, for deretter å bruke LLM til å utfordre egne ideer og svar. Her er vi inne på essensen av læring og utvikling av kritisk tenkning.

Korttidshukommelsen løser oppgaver her og nå, mens langtidshukommelsen bygger innsikt over tid. Studier i kognitiv psykologi viser at hvis vi outsourcer for mye til hjelpemidler, reduseres sannsynligheten for at kunnskapen festes i langtidsminnet (Sweller, 2019). Det betyr at vi blir mer effektive der og da, men dårligere til å anvende innsikten senere. Forskning på kognitiv last viser at når vi lar en maskin gjøre mesteparten av arbeidet, risikerer vi å ikke bygge den indre forståelsen som gjør oss bedre rustet til senere å kunne løse utfordringer på egen hånd.

Kritisk tenkning krever samspill mellom disse prosessene for å utvikle dyp kunnskap. Dersom LLM brukes som en snarvei uten aktivt tankearbeid, kan vi miste noe av det rike læringspotensialet som oppstår når vi løser problemer på egen hånd. Samtidig kan LLM åpenbart være et verdifullt verktøy så lenge vi bevarer en bevissthet om hvordan teknologien påvirker vår egen evne til tenkning og læring. Essensen av grep 2 er derfor klart: Gjør grunnarbeidet selv først, og bruk deretter LLM til å forsterke det.

Kritisk dialog med modellen

Du må ha en kritisk dialog med LLM i stedet for passivt å ta imot svarene som en fasit. Det er flere årsaker til at dette er viktig. Delvis fordi vi vet at LLM finner på svar som det ikke er grunnlag for, såkalt hallusinering. Selv om modellene stadig blir bedre, kan du ikke ta for gitt at svaret du får, er korrekt. Vi vet også at det er risiko for skjevheter i datagrunnlaget, noe som gjør at svarene du får, er ubalanserte eller direkte diskriminerende.

LLM produserer også velskrevne tekster med et begrepsapparat som kan virke veldig overbevisende. Da er det lett at teksten glir rett forbi, uten at du setter deg inn i hva den faktisk betyr sammenlignet med det du selv har skrevet. Den kritiske dialogen handler om å stille oppfølgingsspørsmål for å forstå hva LLM faktisk mener. Dialogen trener også brukerens evne til å analysere og vurdere. På den måten blir dialogen i seg selv en læringsprosess, ikke bare en faktasjekk. Still oppfølgingsspørsmål, be om alternativer og begrunnelser og vurder selv hva som er best.

Bruk svar fra LLM til å lære

I tillegg til økt produktivitet ligger den store læringsgevinsten ved bruk av LLM i det å ta dialogen med LLM fra hva til hvorfor.

Det innebærer å stille spørsmål som: «Hvorfor foreslår modellen dette? Hva er alternative forklaringer?». Som bruker kan du lage egne digitale agenter med instruksjoner om å gi flere løsningsforslag og stille motspørsmål og motargumenter for å utfordre egne tanker. Sammenlign modellens forklaring med din egen og utforsk ulikhetene for å forstå hvordan du kan tenke annerledes om spørsmålet eller temaet. Det tvinger deg til å reflektere over egen forståelse.

En annen viktig fremgangsmåte er iterativ bruk av LLM. Det vil si å bygge opp resonnementet steg for steg sammen med LLM, i stedet for å hente ferdige svar. Det gir et større læringsutbytte enn såkalte «one-shot-prompts».

Oppsummert innebærer læring gjennom bruk av LLM at du formulerer ditt eget svar først, så sjekker det mot modellens, for deretter å reflektere over likheter og forskjeller. Det motsatte er ukritisk å bruke svaret fra LLM og utvikle kognitiv gjeld, svekke egen utvikling av kunnskap, kritisk tenkning og kreativitet.

Økt produktivitet og læring

LLM kan, når de brukes riktig, øke både produktivitet og læring. Ifølge en artikkel i Romsdals Budstikke (20.08.25) sparer psykologer i akutteam 3–4 timer daglig ved å la LLM skrive oppsummeringer av klientsamtaler. Her er ikke læring det sentrale, men effektivitet – og da gir bruken klare gevinster.

Tromsø kommune illustrerer den andre siden av medaljen. I en rapport om sammenslåing av skoler og barnehager viste flere av kildene seg å være oppdiktet av LLM (NRK 28.02.25). På overflaten er dette et spørsmål om manglende kildekontroll, men i et dypere perspektiv kan det også forstås som et uttrykk for kognitiv gjeld: Når den kritiske gjennomgangen overlates til maskinen, svekkes både læring og eierskap til kunnskapen som produseres. Slik bruk av LLM reduserer kognitiv utvikling, og svekker legitimitet. Når beslutningsgrunnlag bygger på feil eller ikke-eksisterende kilder, mister både brukere og lesere tillit til analysen. I revisjon kan ukritisk bruk av LLM bety at dokumentasjon ser korrekt ut, men mangler sporbarhet. Dermed kan tilliten til både analysen og revisors arbeid undergraves.

Nøkkelen til suksess

Nøkkelen til suksess er bevissthet hos brukeren om hva som er målet i det enkelte tilfellet, for deretter å strukturere bruken slik at gevinster i produktivitet ikke går på bekostning av læring, kritisk tenkning og tillit. For revisorer og økonomer betyr dette at bruk av LLM alltid må være etterprøvbar: Dokumentasjonen må tåle innsyn, og egne resonnementer kan ikke outsources til en modell.

Lenke til artikkelen «Your brain on ChatGPT#: https://arxiv.org/pdf/2506.08872

Yatani, K., Sramek, Z., & Yang, C.-L. (2024). AI as Extraherics: Fostering Higher-order Thinking Skills in Human-AI Interaction. Preprint. arXiv:2409.09218.

Buçinca et al. (2021): To Trust or to Think: Cognitive Forcing Functions Can Reduce Overreliance on AI in AI-assisted Decision-making arXiv+2ACM Digital Library+2

Riva (2025): Enhanced Cognitive Scaffolding as a Resolution to the Control/Autonomy Dilemma in AI-Assisted Learning.

Lan, M. et al. (2025). A qualitative systematic review on AI empowered self-regulated learning in higher education.