Den ultimative meta-prompt med indbygget research af de bedste prompting-teknikker

Lav en prompt, der <sammenligner to vedhæftede lovforslag>. Foreslå derpå 10 forbedringer til prompten og lav en version 2 af prompten, der inkluderer forbedringerne. Men først skal du lave grundig research på de bedste prompting-teknikker til dette formål per 20. februar 2026 og anvende de fem bedste. 

I skal selvfølgelig erstatte "<sammenligner to vedhæftede lovforslag>" med det, der er relevant for jer :-).

Her er outputtet (jeg havde sat ChatGPT til Thinking - Udvidet), hvor den først orienterer om relevante, avancerede prompting-teknikker og udvælger de fem bedste, dernæst viser version 1 af prompten, 10 forbedringer og derpå den endelige master-prompt.

Research: bedste prompting-teknikker til at sammenligne to lovforslag (status pr. 20. februar 2026)

Her er de teknikker, der går igen i de mest autoritative, aktuelle guides – og som passer bedst til “to lange, strukturerede juridiske tekster, der skal sammenlignes med sporbarhed og lav hallucinationsrisiko”:

  1. Definér “done” (succeskriterier) + gør det testbart

  • Anthropic anbefaler eksplicit, at man starter med klare succeskriterier og en måde at teste mod dem, før man finpudser prompts.

  • I praksis for lovforslag: “Alle væsentlige forskelle skal være fundet; hver forskel skal have præcis reference; ingen påstande uden belæg.”

  1. Strukturer prompten i sektioner (Identity / Instructions / Examples) og brug tydelige afgrænsere

  • OpenAI viser en robust skabelon med Identity + Instructions + Examples og demonstrerer brug af Markdown og XML-tags til at adskille indhold og reducere forvirring.

  • Anthropic fremhæver også “Be clear and direct”, “Use examples (multishot)” og “Use XML tags” som centrale teknikker.

  1. Decomposér / kæd opgaven (extract → map → compare → synthesize) + brug rubrik/TODO for ikke at misse noget

  • Anthropic nævner direkte “Chain complex prompts” og “Long context tips” som en del af deres anbefalede værktøjskasse.

  • OpenAI nævner “Progress tracking with rubrics and TODOs” som en måde at undgå oversprungne trin.

  1. Fast output-kontrakt (formatkrav) – gerne maskinlæsbar struktur

  • OpenAI’s “Structured Outputs” (schema-adherence) handler om at få pålideligt strukturerede svar og anbefales frem for “JSON mode”, når muligt.

  • I chat kan du ikke altid håndhæve schema teknisk – men du kan stadig bruge idéen: “fast format, faste felter, ingen fritekst der flyder”.

  1. Indbyg selv-kontrol (self-critique / self-verification)

  • LearnPrompting beskriver selv-kritik som en teknik til at øge nøjagtighed og pålidelighed, bl.a. via self-refine og self-verification.

(Bonus – relevant i 2026): Context engineering

  • Anthropic peger på, at kontekst er en kritisk men begrænset ressource, og at man skal kuratere hvad der er i konteksten, især ved lange dokumenter.

  • Det betyder i praksis: bed modellen om at starte med en kort, struktureret “outline/ekstrakt” og arbejde ud fra den, så den ikke drukner i tekst.

De 5 bedste (valgt og anvendt her)

Jeg anvender følgende fem i prompts nedenfor:

  1. Succeskriterier (“definition of done”)

  2. Sektioneret prompt + tydelige afgrænsere (XML-tags)

  3. Decomposition + rubrik/TODO

  4. Fast output-kontrakt (inkl. maskinlæsbar struktur som option)

  5. Self-check (kritik/validering før endeligt svar)


Prompt v1 (til sammenligning af to vedhæftede lovforslag)

Kopiér/indsæt:

# ROLE / IDENTITY

Du er juridisk analytiker i offentlig forvaltning. Din opgave er at sammenligne to lovforslag stringent og sporbarhedssikkert. Du må ikke gætte: hvis noget ikke kan findes i teksten, skriv “IKKE FUNDET”.

# SUCCESS CRITERIA (Definition of done)

Et svar er kun “færdigt”, hvis:

1) Alle identificerede forskelle har præcise henvisninger til begge dokumenter (kapitel/§/stk./nr. eller tydelig overskrift/afsnit).

2) Hver forskel indeholder en kort ordret tekstbid (maks. ~25 ord) fra A og/eller B som belæg.

3) Du dækker både: struktur/omfang, definitioner, materielle regler, kompetence/delegation, procedurer, sanktioner/håndhævelse, ikrafttræden/overgang, økonomiske/administrative konsekvenser.

4) Du laver en slutkontrol (checkliste) og retter eventuelle mangler før du afleverer.

# INPUTS

Der er to vedhæftede dokumenter:

<doc_a>

[Lovforslag A – vedhæftet]

</doc_a>

<doc_b>

[Lovforslag B – vedhæftet]

</doc_b>

Hvis du ikke kan læse vedhæftningerne, så stop og bed om at få teksten indsat eller at få relevante afsnit kopieret ind.

# WORKFLOW (arbejd internt – vis kun resultater)

Fase 1 — Ekstrakt:

- Lav en kort, struktureret outline for hvert dokument (kapitler/§-rækkefølge/centrale temaer).

Fase 2 — Match:

- Match tilsvarende bestemmelser (A §x ↔ B §y). Notér “ingen direkte pendant” hvor relevant.

Fase 3 — Sammenlign:

- Find forskelle i (a) ordlyd, (b) retsvirkning, (c) scope/afgrænsning, (d) aktører/pligter/rettigheder, (e) frister/ikrafttræden.

Fase 4 — Syntese:

- Udpeg de 5–10 mest materielle ændringer og forklar hvorfor de er materielle.

Fase 5 — Kvalitetskontrol:

- Kør checklisten i slutningen og ret eventuelle huller.

# OUTPUT FORMAT (fast kontrakt)

Svar på dansk og brug denne struktur:

1) Executive summary (maks. 12 linjer)

- 3–5 største materielle ændringer

- 2–3 potentielle risici/uklarheder

2) Sammenligningstabel (kerne)

Lav en tabel med kolonner:

- Tema

- Lovforslag A (henvisning + kort citat)

- Lovforslag B (henvisning + kort citat)

- Type ændring (Tilføjelse / Sletning / Omformulering / Flytning / Skærpelse / Lempelse)

- Materiel betydning (Lav / Mellem / Høj) + 1 linjes begrundelse

3) Liste over ændringer, grupperet

A) Nye bestemmelser i B ift. A

B) Bestemmelser fjernet i B ift. A

C) Omformuleringer med mulig retsvirkning

D) Strukturændringer (kapitel-/§-flytninger)

4) Følgevirkninger og implementering

- Hvem påvirkes (myndigheder, borgere, virksomheder)

- Administrative processer/data/dokumentation

- Håndhævelse/sanktioner og praktiske konsekvenser

- Ikrafttræden/overgang og risici

5) Åbne spørgsmål til jurist/forhandler

- 5–12 konkrete spørgsmål, hver med reference til relevant sted i teksten

6) Slutkontrol (må ikke udelades)

- [ ] Har alle påstande reference?

- [ ] Har alle større temaer mindst én række i tabellen?

- [ ] Har du markeret “IKKE FUNDET” i stedet for at gætte?

- [ ] Har du tydeligt adskilt A og B ved alle citater?

10 forbedringer til prompten (hvad der typisk gør den endnu skarpere)

  1. Tilføj parameter-felter (dybde, ønskede temaer, målgruppe, max-længde), så prompten kan genbruges mere fleksibelt.

  2. Kræv en “section mapping index” (A→B og B→A), så man nemt kan se dækningsgrad.

  3. Indbyg en materialitets-rubrik (fx kriterier for Lav/Mellem/Høj), så scoring bliver mere ensartet.

  4. Bed om en særskilt liste over ændringer i definitioner/terminologi (ofte de mest afgørende i lovtekster).

  5. Bed om identifikation af delegations-/kompetenceændringer (hvem får hjemmel til hvad).

  6. Tilføj et spor for konsekvens-kæder (“ændring → ny pligt → proces/data → risiko”).

  7. Lav et “redline light”-afsnit: korte før/efter-sætninger for de mest materielle ændringer.

  8. Kræv en “usikkerheds- og antagelseslog” (hvad kan ikke afgøres ud fra teksten alene).

  9. Lav en maskinlæsbar JSON-opsummering af top-ændringer, så det kan bruges i notater/videre behandling.

  10. Tilføj en 2-pass verifikation: første pass finder forskelle, andet pass tjekker “har vi misset noget i kapitlerne?”


Prompt v2 (inkl. de 10 forbedringer)

# ROLE / IDENTITY

Du er juridisk analytiker i offentlig forvaltning. Du sammenligner to lovforslag stringent og sporbarhedssikkert. Du må ikke gætte: hvis noget ikke kan findes i teksten, skriv “IKKE FUNDET”.

# PARAMETRE (brug defaults hvis ikke angivet)

<params>

dybde: høj  # lav | mellem | høj

fokus_temaer: [definitioner, scope, materielle pligter/rettigheder, kompetence/delegation, procedurer, sanktioner, ikrafttræden/overgang, økonomi/admin]

målgruppe: "internt beslutningsoplæg"

maks_længde: "ingen hård grænse, men prioriter klarhed"

</params>

# SUCCESS CRITERIA (Definition of done)

Et svar er kun “færdigt”, hvis:

1) Alle forskelle har præcise henvisninger til begge dokumenter (kapitel/§/stk./nr. eller tydelig overskrift/afsnit).

2) Hver forskel har kort citat (maks. ~25 ord) fra A og/eller B som belæg.

3) Du leverer en mapping (A→B og B→A) med dækningsgrad.

4) Materiel betydning (Lav/Mellem/Høj) følger rubrikken nedenfor.

5) Du laver 2-pass verifikation og en slutcheckliste før aflevering.

# MATERIALITETS-RUBRIK (til Lav/Mellem/Høj)

Lav: primært sproglig/teknisk præcisering uden forventet ændret retsvirkning.

Mellem: ændrer fortolkning, afgrænsning, proceskrav eller byrder, men uden tydelig ny hjemmel/sanktion.

Høj: ny/fjernet hjemmel, ny væsentlig pligt/rettighed, væsentlig ændring i kompetence, sanktioner, ikrafttræden eller målgruppe.

# INPUTS

<doc_a>

[Lovforslag A – vedhæftet]

</doc_a>

<doc_b>

[Lovforslag B – vedhæftet]

</doc_b>

Hvis du ikke kan læse vedhæftningerne, så stop og bed om at få teksten indsat eller at få relevante afsnit kopieret ind.

# WORKFLOW (arbejd internt – vis kun resultater)

Pass 1 — Ekstrakt & mapping:

A1) Lav outline for A (struktur + nøgletemaer).

B1) Lav outline for B (struktur + nøgletemaer).

M1) Lav “Section Mapping Index”:

- A→B: list A-§/afsnit og nærmeste match i B (eller “ingen pendant”)

- B→A: list B-§/afsnit og nærmeste match i A (eller “ingen pendant”)

- Angiv dækningsgrad: hvor stor del af strukturen fik et match?

Pass 2 — Sammenligning & syntese:

C1) Sammenlign pr. tema (fra <params>.fokus_temaer).

C2) Særlige spor:

- Definitioner/terminologi: alle ændringer i definitioner, nye/fjernede begreber, ændrede henvisninger.

- Kompetence/delegation: ændringer i hvem der får hjemmel til at fastsætte regler/træffe afgørelser.

C3) For hver forskel: (ændring → retsvirkning → implementeringskonsekvens → risici/uklarheder).

Pass 3 — Verifikation:

V1) Scan hvert kapitel/§ i begge outlines: er der mindst ét punkt (match eller “ingen pendant”)?

V2) Tjek at ingen “store temaer” mangler en række i tabellen.

V3) Tjek at alle konklusioner har reference og citat eller er markeret “IKKE FUNDET”.

# OUTPUT FORMAT (fast kontrakt)

Svar på dansk og brug denne struktur:

1) Executive summary (maks. 12 linjer)

- 5 største materielle ændringer (Høj/Mellem/Lav)

- 3 vigtigste implementeringskonsekvenser

- 3 risici/uklarheder + anbefalet afklaring

2) Section Mapping Index (A→B og B→A) + dækningsgrad

3) Sammenligningstabel (kerne)

Tabelkolonner:

- Tema

- Lovforslag A (henvisning + kort citat)

- Lovforslag B (henvisning + kort citat)

- Type ændring (Tilføjelse / Sletning / Omformulering / Flytning / Skærpelse / Lempelse)

- Materiel betydning (Lav/Mellem/Høj) iht. rubrik + 1 linjes begrundelse

- Konsekvens-kæde (ændring → ny/ændret pligt/proces → data/dok → risiko)

4) “Redline light” (kun top-ændringer)

- For hver af de 5 største: 1–2 før/efter-linjer (kort) + reference.

5) Grupperet ændringsliste

A) Nye bestemmelser i B ift. A

B) Fjernet i B ift. A

C) Omformuleringer med mulig retsvirkning

D) Strukturændringer (flytninger)

6) Implementering og påvirkede aktører

- Stakeholders (myndighed/borger/virksomhed)

- Administrative processer/data/dokumentationskrav

- Håndhævelse/sanktioner

- Ikrafttræden/overgang

7) Usikkerheds- og antagelseslog

- Punkter der ikke kan afgøres af teksten alene (marker “IKKE FUNDET” hvor relevant)

8) Åbne spørgsmål til jurist/forhandler

- 8–15 spørgsmål, hver med reference til tekststed

9) Maskinlæsbar opsummering (JSON)

Returnér et JSON-objekt med:

- top_changes: [{tema, type, materialitet, a_ref, b_ref, kort_beskrivelse}]

- removed_in_b: [...]

- added_in_b: [...]

- key_risks: [...]

(hold det kort, men korrekt)

10) Slutkontrol (må ikke udelades)

- [ ] Har alle påstande reference/citat eller “IKKE FUNDET”?

- [ ] Dækker mapping begge veje (A→B og B→A)?

- [ ] Er materialitets-scoringen konsistent med rubrikken?

- [ ] Er der mindst én række pr. stort tema?



Kommentarer

Populære opslag fra denne blog

McKinsey As a Prompt

En tidligere OpenAI-medarbejder taler ud (positivt, men meget interessant)

Lav verdens bedste prompt i o3 og brug den til Deep Research