Meta-Funnel-prompt til Deep Research med de seneste landvindinger

 Jeg ville undersøge AI-data-panikken, dvs. den idé, at vi er ved at løbe tør for data og dermed ikke kan fortsætte udviklingen af stadigt bedre AI'er. Så jeg fodrede ChatGPT, Gemini og Claude med den følgende prompt, og udover at der kom nogle fantastiske prompts ud af det, som jeg så brugte i Deep Research, var der også et biprodukt, nemlig lister over de seneste, anerkendte prompting-teknikker, der giver bedre resultater. 

I får først min meta-funnel-prompt, og så lister jeg de mange gode forslag til prompting-teknikker, som I måske kan bruge generelt i jeres prompts, eller måske endda indsætte i system-instrukser til GPT'er eller Projekcts...

=====================================================

Jeg har gjort mig nogle tanker om den "frygt", der er opstået for tiden om, at vi er ved at løbe tør for data til at træne LLM'er med, og dermed rammer vi en "mur" for udviklingen af disse, og så videre. Læs mine tanker og lav en grundig prompt, som jeg kan bruge som input til Deep Research. Du skal først lave research på de seneste landvindinger indenfor effektivt og godt prompt-design, undersøge, om de er relevante og bruge dem i prompten, og det skal være metoder og teknikker, der er sidste nyt per dags dato, som er 8. januar 2026. Her kommer som yderligere input til dig det jeg har skrevet om emnet: Panik! Vi løber tør for data!

Malthus (1798) regnede ud, hvor meget jord, der kunne dyrkes på jorden og hvor mange, der kunne overleve per arealenhed med korn. Han endte med tallet 400 millioner mennesker på Jorden, og så ville de bare begynde at dø ud, inditl der igen var mad nok. 

Den åndssvage bog “Grænser for vækst” fra 1972 gjorde det helt klart, at alle ressourcer var endelige OG var ved at slippe op, og så endte Verden jo (igen). Yet, here we are, og der er mere olie og gas end nogensinde. 

MEN: Der er heldigvis en helt ny grund til at panikke: Vi mangler data! Ja, se, det vidste jeg heller ikke. Jeg synes sgu’ vi har rigeligt med data liggende rundt omkring, og de billige diske har jo gjort, at intet bliver slettet mere. Men nej, vi skal panikke, for lige om lidt har de stakkes AI’er ikke mere data de kan bruge til at træne på.

Sådan bliver Mathus ved med at stikke sit fejlbehæftede hovede op i den ene generation efter den anden. Fear Of Running Out (FORU) er åbenbart kodet hårdt ind i vore hjerner, og måske elsker vi også bare gysere IRL, dvs. dommedags-scenarier. 

Men nej, jeg kan berolige jer med, at vi heller ikke løber tør for data. De laves nu om dage på nye og mere bevidste måder, f.eks. ved at lade 100 eksperter på et område lave øvelser en hel dag på deres ekspert-område, eller ved at lave kunstige data. Derudover er det et spørgsmål om tid før en ny type AI’er kommer på banen ved siden af LLM’erne.

Jeg tror også vi kommer til at se noget andet, der vil give os en masse ny data: Vi taler hele tiden om, at AI muliggør, at robotter nu kan begynde at lave rigtige ting for os, men robotterne kommer jo så derved også til at generere en mængde helt nye former for data, efterhånden som de bevæger sig rundt i den virkelige verden og gør ting og sager, mislykkes med ting og sager - og finder på nye måder, at gøre ting på. 

================================================================

ChatGPT's tips til bedre prompting:

Her er, hvad jeg fandt af nyere og (pr. 8. januar 2026) relevante landvindinger i prompt-design til netop “Deep Research”-agtige opgaver — og derefter får du en færdig, grundig Deep Research-prompt (copy/paste), der bruger teknikkerne.

Nyttige prompt-teknikker (seneste/nyere, og relevante her)

  • Research-agent promptning (Deep Research-specifikt): OpenAI’s egen “deep research”-guide lægger vægt på at give tydelige krav til kilder, datatyper, citationskrav, og outputstruktur, samt at agenten skal bruge web + evt. analyseværktøjer. platform.openai.com

  • Struktureret “Thought-graph”/dekomposition ved test-tid: Nyere arbejde som Adaptive Graph of Thoughts (2025) beskriver dynamisk nedbrydning af komplekse spørgsmål til delspørgsmål i en DAG/“graf”, hvor man kun udvider dér, hvor der er usikkerhed eller behov. Det passer ekstremt godt til din problemstilling (mange påstande, mange del-domæner: data, jura, syntetisk data, robotics, økonomi). arXiv

  • Graph of Thoughts / Tree of Thoughts som praktisk prompt-mønster: GoT/ToT bruges som rammer til at udforske flere løsningsspor og sammenligne dem før konklusioner (mindsker “én fortælling”-bias). ojs.aaai.org+1

  • Prompt-compression (nyere fokus i 2025): Ikke fordi du skal komprimere din prompt nødvendigvis, men fordi Deep Research ofte arbejder med store kontekster, og der findes nyere overblik over metoder til at bevare kvalitet med mindre “prompt-overhead”. Det er især relevant, hvis du senere vil lave en kort “produktionsprompt” ud fra en lang “researchprompt”. ACL Anthology

  • Deep Research prompt-skabeloner i praksis (community, men nyttige): Der findes nyere samlinger af research-prompter, som typisk bruger: rolle + scope + kilder + leverancer + “kritiker-pass”/red teaming. (Brug som inspiration, ikke autoritet.) GitHub+1

=================================================================

Gemini's tips til bedre prompting:

Seneste landvindinger inden for Prompt-design (Januar 2026)

For at få det maksimale ud af en "Deep Research"-agent i 2026, benytter vi os af følgende avancerede teknikker:

  • Reasoning Traces (Chain-of-Thought 2.0): Vi beder ikke bare om et svar, men tvinger modellen til at dekonstruere argumenter i logiske lag, før den konkluderer.

  • Contrastive Analysis: At bede modellen om at udforske både "Data Wall"-hypotesen og din "Abundance"-hypotese simultant for at finde syntesen.

  • Expert Personas med "Counter-Bias": Vi tildeler agenten en rolle, der er trænet i at spotte historiske mønstre i teknologisk pessimisme.

  • Synthetic Data & Embodied Loops: Specifik instruktion om at undersøge koblingen mellem fysiske sensor-data og sprogmodeller.

================================================================

Claude's tips til bedre prompting:

Nøgleindsigter fra prompt engineering research (januar 2026):

De mest effektive teknikker for Deep Research prompts inkluderer: præcis kontekstangivelse, multi-perspektiv instruktioner, eksplicitte output-formatanvisninger, domæneafgrænsning med tidsrammer, og "permission to acknowledge uncertainty" (tilladelse til at udtrykke usikkerhed for at reducere hallucinationer). Strukturerede prompts med klare sektioner performer markant bedre end løse formuleringer.

==============================================================

Kommentarer

Populære opslag fra denne blog

Lav verdens bedste prompt i o3 og brug den til Deep Research

En tidligere OpenAI-medarbejder taler ud (positivt, men meget interessant)

Valg af den rigtige AI og den rigtige AI-model (Ethan Mulllicks seneste opslag)