Du skrev noe inn i en AI-chatbot. Du fikk noe tilbake. Og det du fikk var helt sikkert greit. Hvem vet egentlig hva som er bra eller generisk. Det er mest sannsynlig bedre enn du ville ha klart å tenke ut selv 🙂
Men det kan bli mye bedre, mer målrettet og kanskje løse problemene dine på en mer effektiv måte. Her har du et forslag til et prompting-rammeverk du kan bruke til alle AI-modellene.
I denne artikkelen får du et system som fungerer på tvers av alle store språkmodeller, enten du bruker Claude, ChatGPT, Gemini eller noe helt annet. Teknikkene er de samme fordi alle modellene i bunn og grunn reagerer på det samme: klarhet, kontekst og tydelige rammer.
Følg stegene i rekkefølge. Når du er gjennom dem har du et rammeverk du kan bruke på omtrent hva som helst.
Steg 1: Slutt å være vag
Dårlige AI-svar kan nesten alltid spores tilbake til en vag forespørsel. Modellen er ikke forvirret. Den jobber med det du ga den, og du ga den nesten ingenting å jobbe med.
Problemet
De fleste prompter som om de sender en melding til en kompis som allerede vet alt. «Hjelp meg med presentasjonen.» Hvilken presentasjon? For hvem? Om hva? Hvilken tone? AI-en vet ikke noe av dette, så den gjetter. Og gjetting gir deg generisk.
Løsningen
Sørg for at prompten din besvarer fire spørsmål før AI-en trenger å gjette noe som helst:
- Hva er oppgaven? Vær konkret. «Skriv», «Analyser», «Sammenlign», «Oppsummer».
- Hva er konteksten? Hvem er publikum? Hva vet de fra før? Hva er målet?
- Hva er formatet? Punktliste, avsnitt, tabell, e-post, kode?
- Hva er begrensningene? Lengde, tone, hva som skal med, hva som skal utelates.
Prøv det
Ta denne prompten:
Fortell meg om klimaendringer.
Og sammenlign med denne:
Oppsummer de tre største årsakene til klimaendringer for en videregående-elev som skriver en oppgave. Bruk enkelt språk uten fagsjargong. Maks 200 ord. Nummerert liste med én setning forklaring per punkt.
Samme tema, helt annet resultat. Den andre versjonen gir modellen noe konkret å levere på, i stedet for fritt spillerom.
Steg 2: Gi AI-en en rolle
Språkmodeller svarer forskjellig avhengig av hvem du ber dem være. Det høres kanskje ut som en gimmick, men det endrer faktisk hvilke mønstre modellen trekker fra.
Hvorfor det fungerer
Når du sier «opptre som en ernæringsfysiolog» skifter modellen mot helserelatert kunnskap og tar i bruk et mer presist språk. Rolletildeling er egentlig bare en snarvei for å laste inn en hel kontekstpakke med én setning.
Formelen
Du er en [spesifikk rolle] med [relevant erfaring]. Publikummet ditt er [hvem de er]. Målet ditt er [hva outputen skal oppnå].
Eksempler
Du er en erfaren tekstforfatter i et direkterespons-byrå. Skriv tre emnefelt til en kald e-post som selger prosjektstyringsverktøy til IT-sjefer i mellomstore bedrifter. Hvert emnefelt skal være under 8 ord og skape hastegrad uten å virke masete.
Du er en erfaren rekrutteringsansvarlig i tech. Gjennomgå denne søknaden og gi meg tre konkrete ting som ville fått deg til å legge den i nei-bunken. Vær rett på sak.
Rollen gjør mye av jobben for deg. Du spesifiserer ikke bare hva du vil ha, men også perspektivet det skal skrives fra og kvalitetsnivået du forventer.
Steg 3: Vis hva du vil ha (eksempel-prompting)
Hvis du vil at AI-en skal matche en bestemt stil eller et mønster, er det mye mer effektivt å vise enn å beskrive.
Slik fungerer det
Du inkluderer et par eksempler på den typen output du ønsker, rett i prompten. Modellen plukker opp mønsteret og bygger videre på det. To eksempler er som regel nok. Tre er mer enn nok.
Prøv det
Skriv korte produktbeskrivelser i denne stilen: Eksempel 1: "Keramikkkopp. Rommer 3,5 dl av det som holder deg i live om morgenen. Tåler oppvaskmaskin, mikro og eksistensielle kriser." Eksempel 2: "Lerretstote. Plass til en laptop, tre bøker og fornektelsen din om hvor mye du drar med deg overalt. Forsterkede stropper." Skriv én for: Et telefonbrettstativ i bambus.
Modellen plukker opp mer enn bare formatet. Den fanger tonen, rytmen og humoren. Det er overraskende hvor lite som skal til.
Steg 4: Be AI-en tenke steg for steg
For alt som involverer resonering, enten det er matte, analyse, strategi eller feilsøking, lønner det seg å be modellen vise arbeidet sitt.
Hvorfor det hjelper
Språkmodeller tenker ikke egentlig. De predikerer neste ord. Men når du tvinger dem til å skrive ned mellomsteg, blir hvert steg kontekst for det neste. Resultatet er merkbart mer presist, spesielt på komplekse problemer. Teknikken kalles chain-of-thought-prompting (steg-for-steg-prompting) og er en av de mest effektive som finnes.
Slik ser det ut i praksis
En bedrift hadde inntekter på 2 millioner kroner ved starten av året. Inntektene vokste 15 % i Q1, falt 8 % i Q2, vokste 22 % i Q3 og falt 3 % i Q4. Regn ut den endelige årsinntekten. Vis utregningen for hvert kvartal steg for steg før du gir det endelige tallet.
Uten «steg for steg» hopper modellen gjerne rett til svaret og bommer. Med det bygger den opp svaret gradvis, og hvert steg fungerer som en sjekk på det forrige.
Tommelfingerregel
Hvis et smart menneske hadde trengt å rable på papir før det svarte, bør du legge til «tenk steg for steg» i prompten.
Steg 5: La AI-en stille deg spørsmål først
De fleste hopper over dette, og det er synd, for det er kanskje den mest nyttige teknikken på hele listen.
Problemet den løser
Når du ber en modell om å «lage en markedsføringsplan», tvinger du den til å gjette seg frem på alt fra budsjett til målgruppe til tidslinje. Den har ingenting å gå på, så du ender opp med noe som ser ut som en plan, men som egentlig bare er en generisk mal.
Løsningen
Snu det rundt. Be modellen om å stille deg spørsmål før den lager noe.
Jeg trenger en 90-dagers innholdsstrategi for virksomheten min. Før du lager noe, still meg 5 spørsmål om publikum, mål, ressurser og kanaler. Bygg strategien etter at jeg har svart.
Plutselig samler modellen inn det den trenger i stedet for å dikte det opp. Outputen går fra «generisk mal» til noe som faktisk passer situasjonen din.
Enda bedre med rolle
Kombiner det med en rolletildeling:
Du er en erfaren produktsjef med bakgrunn fra SaaS-lanseringer. Jeg skal beskrive en funksjon jeg vil bygge. Før du gir meg noen råd, still meg 5 spørsmål som hjelper deg gi en bedre anbefaling. Fokuser på brukerbehov, forretningseffekt og teknisk gjennomførbarhet.
Steg 6: Sett tydelige rammer
AI-modeller er ordrike av natur. Uten rammer gir de deg 500 ord når 50 hadde holdt. Begrensninger handler ikke om å stramme inn, men om å gi modellen et tydelig mål å treffe.
Begrensninger som fungerer
- Lengde: «Maks 100 ord» eller «Maks 3 kulepunkter»
- Format: «Tabell med kolonner for Fordeler, Ulemper og Vurdering»
- Omfang: «Bare de økonomiske konsekvensene, ignorer resten»
- Vurdering: «Ranger hvert alternativ fra 1 til 10 og forklar poengsummen i én setning»
- Ekskludering: «Ingen generelle råd. Alt må være spesifikt for dette scenariet.»
Kombiner flere
Sammenlign tre plattformer for e-postmarkedsføring for en selvstendig innholdsskaper med under 5 000 abonnenter. Tabell med kolonner: Plattform, Best for, Største begrensning, Månedspris. Maks 150 ord totalt. Ikke ta med plattformer som krever årsabonnement.
Tre begrensninger i én prompt. Resultatet blir stramt og lett å skanne, fordi du ga modellen noe å holde seg innenfor.
Steg 7: Bygg videre i stedet for å starte på nytt
Den vanligste feilen er ikke å skrive en dårlig prompt. Det er å forkaste det første svaret og starte helt på nytt, i stedet for å jobbe videre med det du allerede har.
Hvorfor iterasjon fungerer
Moderne språkmodeller har store kontekstvinduer. Claude håndterer opptil 1 million tokens, Gemini 3 Pro tar 2 millioner, og GPT-5.4 når 1 million via API-et. Det betyr at modellen husker hele samtalen. Bruk det.
I stedet for å starte fra scratch, juster det som allerede er der:
God start, men tonen er for stiv. Skriv om den andre seksjonen som om du forklarer det til en kollega over lunsj. Behold tallene, men dropp bedriftsspråket.
De tre første punktene er bra. Kutt punkt 4 og 5, de er for opplagte. Legg heller til to som ville overrasket noen som allerede kan det grunnleggende.
Tre runder med finpuss gir nesten alltid et bedre resultat enn tre helt nye prompter om samme tema.
Steg 8: Sett opp faste instruksjoner
Hvis du skriver den samme konteksten og de samme preferansene i starten av hver samtale, kaster du bort tid. De fleste AI-plattformer lar deg lagre faste instruksjoner som automatisk gjelder for alle nye samtaler.
Hvor du finner det
Claude kaller det «custom instructions» og «projects». GPT kaller det «custom instructions» og «GPTs». Gemini kaller det «Gems». Prinsippet er det samme overalt: du skriver en kontekstblokk én gang, og den lastes inn automatisk.
En mal som fungerer
Rolle: Du er en direkte og erfaren rådgiver innen [ditt fagfelt]. Publikum: Jeg jobber som [din rolle] i [din bransje]. Tone: Tydelig og uformell. Ingen fyllord eller motivasjonssnakk. Format: Kulepunkter for lister. Tabeller for sammenligninger. Maks 300 ord med mindre jeg ber om mer. Alltid: Still oppklarende spørsmål før du svarer på noe komplekst. Aldri: Start med «Godt spørsmål!» eller «Selvfølgelig, jeg hjelper deg gjerne med det.»
Sett det opp én gang. Ferdig.
Steg 9: Fem feller du bør kjenne til
Selv med god teknikk er det noen vanlige feil som fort ødelegger resultatene.
Felle 1: Alt-i-ett-prompten. Fem forskjellige oppgaver i én prompt tvinger modellen til å sjonglere for mye samtidig. Del heller opp i en sekvens: disposisjon først, så utvidelse, så finpuss.
Felle 2: Ledende spørsmål. «Hvorfor er hjemmekontor bedre enn å jobbe på kontoret?» forteller modellen hva konklusjonen skal bli. Bruk nøytral formulering: «Sammenlign produktivitetseffektene av hjemmekontor og kontorarbeid, med argumenter fra begge sider.»
Felle 3: Blind tillit til første svar. Språkmodeller høres alltid selvsikre ut, også når de tar feil. For alt som handler om fakta, tall og spesifikke påstander bør du sjekke svaret på egen hånd. Modellen er et utgangspunkt, ikke en fasit.
Felle 4: Ignorere det du fikk. Når resultatet bommer, ikke bare skriv en ny prompt. Finn ut hva som gikk galt. Manglet det kontekst? Var rammene for løse? Var formatet uklart? Fiks det som faktisk var problemet.
Felle 5: Behandle alle modeller likt. Kjerneprinsippene er de samme, men modellene har forskjellige tendenser. Claude er typisk grundig og forsiktig. GPT er allsidig og god på samtale. Gemini liker struktur og markdown. Det lønner seg å lære seg modellen du bruker mest.
Sjekkliste
Gå gjennom dette før du sender en prompt:
- Har jeg sagt hva oppgaven er, hvem den er for, hvilket format jeg vil ha og hva rammene er?
- Trenger oppgaven ekspertise? Gi modellen en rolle.
- Trenger jeg en bestemt stil? Vis et eksempel eller to.
- Involverer oppgaven logikk eller utregning? Be om steg-for-steg.
- Er oppgaven kompleks? La modellen stille spørsmål først.
- Har jeg satt grenser for lengde, omfang og format?
- Jobber jeg videre med svaret, eller starter jeg på nytt hver gang?
- Har jeg sjekket faktapåstandene?
Etter en uke eller to sitter det i fingrene.
Til slutt
Modellene kommer til å bli bedre. Kontekstvinduer måles allerede i millioner av tokens. Nye modeller dukker opp hver måned. Men de som får mest ut av AI fremover er ikke nødvendigvis de som alltid bruker det nyeste. Det er de som har lært seg å kommunisere tydelig med det de har tilgjengelig. Det er en ferdighet som vokser over tid. Start med steg 1 på neste prompt du skriver, og jobb deg nedover. Du merker forskjellen ganske fort.
—
Denne artikkelen er skrevet med hjelp av Claude versjon 4.6 med extended thinking slått på.
