Boss Class, S3:E5: Closed problem spaces

Her er highlights, gode pointer, ting at være opmærksom på og overraskelser fra episode 5: “Closed problem spaces – Peering into the near future of AI” (baseret på din transskription).

De største highlights

  • Den “nære fremtid” handler mindre om AGI og mere om mere kapable, mere job-tilpassede modeller: frontier’en flytter sig, men forsvinder ikke.

  • Den centrale idé i episoden er “relativt lukkede problemrum”: opgaver med veldefinerede input/output og et begrænset antal mulige næste skridt – dér virker AI bedst.

  • Agentisk AI bliver mere almindelig: AI får værktøjer + handlefrihed til at løse opgaver i flere trin uden at blive fortalt hvert trin.

  • Nye virksomheder bliver mulige, fordi AI gør ressourcer (konsulent, designer, udvikler, marketing) billige og tilgængelige.

  • Store organisationer kan godt følge med – men kun hvis de har gjort “kedeligt forarbejde”: datafundament, kompetencer, infrastruktur, governance og kultur (DBS-case).


Gode pointer (som er værd at tage med)

1) En praktisk definition af “agentisk”

Mike Krieger (Anthropic) beskriver det som:

  • giv AI de rigtige værktøjer

  • giv den rum til at løbe

  • vær ikke for preskriptiv om metoden

  • så tager den selv flere skridt (research, opslag, forslag, prototype)

Det er en brugbar definition, fordi den flytter fokus fra buzzword til designvalg: værktøjer, frihedsgrader, kontrol.

2) Agentisk AI kræver “tool limiting” + overvågning

Eksemplet med Oura-ring kundeservice er “delightful”, men rejser spørgsmålet: hvordan undgår man “runaway” adfærd?
Svaret i episoden:

  • begræns værktøjer (fx ikke fuld refund-adgang)

  • monitorér nøgletal (fx refund-rate)

  • reager på afvigelser (fx hvis 5% pludselig bliver 7%+)

Takeaway: agentisk AI skal styres som en proces med driftsmålinger, ikke som en chatbot.

3) Agent-til-agent samarbejde (ping-pong)

Eksemplet med en Claude-agent der beder en anden agent om at slå data op i Salesforce og derefter kritiserer mailen, viser:

  • agenters værdi stiger, når de kan krydskontrollere og supplere hinanden

  • men også at vi får “robot-arbejde” der ligner vores: e-mail, CRM, revisionssløjfer

4) “Vibe coding for entreprenører” – men med ledelsesdisciplin

Jen Stave’s historie viser:

  • AI kan føles som “co-founders on demand”

  • men “frihed” gav nonsens; mikrostyring gav resultater

  • ledelse af agenter kræver eksplicitte trin, mere struktur, mere specificitet end med mennesker

Takeaway: At arbejde godt med AI-agenter er en færdighed i sig selv (prompting + projektstyring + kvalitetssikring).

5) Nye økonomier for “små sager”

Garfield (AI-reguleret advokatfirma) er det klareste eksempel:

  • AI gør det økonomisk muligt at forfølge små krav (fx ubetalte regninger), som ellers ikke kan betale sig med menneskelig advokatindsats.

  • Det kan betyde mere håndhævelse og “mere arbejde der faktisk bliver gjort” – ikke kun erstatning.


Ting at være opmærksom på (risici og faldgruber)

1) “Agentisk” bliver nemt en illusion, hvis problemrummet ikke er lukket nok

Garfield lykkes, fordi processen består af trin med:

  • klare inputs/outputs

  • begrænset mulighedsrum

  • verifikation og menneske-i-loop

Men Philip Young siger også direkte: “AI corporate lawyer” er stadig langt væk, fordi komplekse sager har eksplosiv kombinationsmængde og højere hallucinationsrisiko.

Advarsel: Hvis man forsøger agentisk automation i åbne problemrum uden guardrails, kommer fejl og governance-problemer hurtigt.

2) “Demo hurtigt” er ikke “produktion klart”

Jen’s projekt nåede MVP/demonstration, men:

  • visuelt design var svagere end menneske

  • funktionalitet krævede stadig ekspertise for at blive robust og production-ready

  • hendes løsning gik aldrig live

Advarsel: AI kan forkorte vejen til demo drastisk, men kan skjule, hvor meget arbejde der mangler for drift, sikkerhed, compliance og kvalitet.

3) Vendor-flom og “for tidligt at outsource alt”

Episoden peger på, at markedet er ved at eksplodere:

  • mange leverandører tilbyder agent-“orchestration”, overvågning, værktøjer osv.

  • men det er for tidligt at tro, man kan købe sig til hele modenheden

Advarsel: Organisationer bør have interne benchmarks, træning og evalueringscyklusser, ellers bliver man “kastet rundt” af hype og releases.


Overraskelser

  • Waymo-oplevelsen: frygt → normalisering på få minutter. Det er et stærkt billede på, hvordan “fremtiden” ofte føles: først uhyggelig, så hurtigt hverdagsagtig.

  • Jen Stave’s “co-founders” var ikke bedst med autonomi – de fungerede bedst, når de blev mikrostyret (modsat mennesker).

  • Garfield er “først i verden” reguleret til at levere juridiske ydelser med AI – og teamet består primært af udviklere + én jurist + en “legal engineer”.

  • DBS’ “PURE”-ramme (Purposeful, Unsuprising, Respectful, Easy to explain) er en meget enkel, men stærk governance-model, der kan oversættes til mange brancher.


Hvad episoden i praksis anbefaler (en slags opskrift)

  1. Find opgaver, der er en sekvens af relativt lukkede problemrum

  2. Byg agentiske løsninger med begrænsede værktøjer og målbar overvågning

  3. Indfør rolling træning og benchmarks (kontinuerlig re-evaluering)

  4. Investér i kultur og “change resilience” (eksperimentér, men undgå panik)

  5. Forvent gradvise forbedringer: frontier flytter sig, men kræver stadig ledelse, kontrol og design


Hvis du vil, kan jeg også:

  • udtrække en “tjekliste til ledere” (10 spørgsmål man kan stille før man sætter en agent i drift), eller

  • omsætte “relativt lukkede problemrum” til en praktisk metode til at vurdere, hvilke arbejdsopgaver hos jer der er gode kandidater til agentisk AI.



 

Kommentarer

Populære opslag fra denne blog

McKinsey As a Prompt

En tidligere OpenAI-medarbejder taler ud (positivt, men meget interessant)

Valg af den rigtige AI og den rigtige AI-model (Ethan Mulllicks seneste opslag)