Boss Class, S3:E6: The Human Defence

 Her er samme type analyse for episode 6: “The human defence – What’s your unfair advantage over AI?” (baseret på din transskription).

De største highlights

  • Chess bruges som forhåndsvisning af arbejdsmarkedet: når maskiner bliver overlegne, ændrer menneskers rolle sig til forberedelse, brug af værktøjer, strategi, integritet/regelsæt – og spillet dør ikke nødvendigvis.

  • Andrew Palmer + David Deming: AI kan blive en GPT = General Purpose Technology, men effekterne kommer typisk over årtier, ikke måneder.

  • “Menneskets forsvar” består især af:
    tillid, relationer, ansvar/accountability, dømmekraft (mål), social koordinering, smag, og alsidighed.

  • De mest udsatte områder: backoffice/kommoditiserede funktioner og til dels entry-level opgaver.

  • En stærk pointe: at være god til AI handler overraskende meget om at være god til at lede mennesker.


Gode pointer (som er værd at tage med)

1) Chess-parallellen: mennesker finder nye måder at vinde på

  • Ungdommen har “engine-forberedte” åbninger (memorering af computerlinjer).

  • Dina Belenkaya siger, at hendes valg er:
    (a) gå med i våbenkapløbet (memorér) eller (b) “forvirr dem” (skab uklarhed og få dem ud af deres forberedte spor).

  • Oversættelse til arbejdsliv: når standardopgaver automatiseres, bliver værdien ofte at kunne håndtere det uforudsete og skifte strategi.

2) Maskiner har gjort læring hurtigere – men skabt en ny “integritetskrise”

  • Computerne hjælper alle med at lære hurtigere (“3x hurtigere” som billede).

  • Men arbitrene beskriver snyd som en eksistentiel trussel: devices, smartwatches, smart glasses, osv.

  • Overført til arbejde: AI øger produktivitet, men driver også ny risikoflade (svindel, manipulation, “AI assisted cheating”, insider-data, osv.).

3) Hvor mennesker fortsat har en edge: front office vs back office

David Deming skelner ret skarpt:

  • Backoffice: “ingen er ligeglade med hvordan det bliver gjort, bare det bliver gjort” → høj automatiseringsrisiko.

  • Front office: salg, relationer, tillid, gentagne interaktioner → “meget langt fra”, at AI matcher det.

4) Tillid er ikke kun “AI vs menneske” – det er også “opfattelse”

Zapier-eksperimentet (“Wade Test”):

  • Folk stolede mindre på svar, hvis de troede det var AI – selv når det faktisk var Wade.

  • Det er vildt relevant: adoption kan falde, hvis output “lyder som AI”, selv når det er korrekt.

5) Digital tvilling kan være bedre end gennemsnitlig service – i bestemte kontekster

Wade Foster’s callcenter-argument:

  • Kunder er “overladt til tilfældigheder”: måske får du en ny medarbejder.

  • En AI-agent kan være en digital tvilling af den bedste samlede viden.

  • Men: når det handler om en person du kender (CEO/kollega), opstår modvilje mod kloner (“mimic”).

6) Mennesker sætter målet – AI optimerer ikke selv rigtigt “hvad der betyder noget”

Deming: AI er ikke altid god til at finde ud af hvad den skal optimere for.
Det kræver dømmekraft og ledelse: Hvad er målet? Hvad er succes? Hvad er trade-offs?

7) “At lede AI” ligner “at lede mennesker”

Forskningsresultat i episoden:

  • De, der er gode til at lede mennesker, er også gode til at lede AI-agenter.

  • Kernen: match opgaver og styrker, minimér svagheder, koordinér uden endeløse møder.

  • Og en stærk “unfair advantage”-idé: AI er som “95-percentil i alt”; hvis du selv er “99-percentil” i ét domæne og bruger AI til resten, står du stærkt.


Ting at være opmærksom på (faldgruber/risici)

1) Cheating/parallellen: når værktøjer bliver stærke, bliver misbrug også stærkt

Skakverdenens kamp mod snyd er en advarsel:
I virksomheder vil AI også presse jer til kontrolforanstaltninger (logning, device-politikker, DLP, kontrol af output, osv.).

2) Kloning kan både spare tid og skade tillid

Ruth Berry’s forbedrede Andrew-klon er “party trick → realistisk”.
Men Palmer peger på dilemmaet:

  • du kan udnytte eksisterende tillid (en kendt stemme)

  • men du kan også indføre tvivl (“er det ham eller en bot?”) og dermed udhule relationen

Praktisk “gotcha”: kloner skal have meget klare rammer, etikettering og anvendelser, ellers bliver det en tillidskatastrofe.

3) “Smag” og kvalitetssans bliver en flaskehals

James “Prophecy” Baker siger:
Du kan generere på sekunder, men kvalitet kræver:

  • mange revisioner

  • æstetisk retning

  • et menneskes “taste” og ambition (“det skal føles episk”)

Faldgruben er “slop”: meget output, lav originalitet, ingen kuratering.

4) Alsidighed er “karriere-airbag”

Episoden slutter næsten som en karriererådgivning:

  • vælg roller med kombinationer af færdigheder (menneske + domæne + relationer + beslutninger)

  • rene, kommoditiserede opgaver er mest udsatte.


Overraskelser

  • At det “værste” ved computere i skak ikke er, at de er bedre – men at de gør snyd så meget lettere.

  • At folks tillid kan falde, hvis et svar “lyder som AI” – selv når det er et menneske.

  • At callcenter-AI kan give en bedre oplevelse end en gennemsnitlig medarbejder, fordi den kan “samle best-of-viden”.

  • At Demings forskning siger: AI-ledelse ≈ menneskeledelse (høj korrelation).


Episodens praktiske “opsummering som opskrift”

Hvis du vil have et “unfair advantage” over AI, peger episoden på fem ting:

  1. Dyb ekspertise i noget vigtigt (vær “99-percentil” et sted)

  2. Dømmekraft: mål, prioriteringer, trade-offs (“hvad optimerer vi for?”)

  3. Relationer og tillid: gentagne interaktioner, forhandling, salg, mentoring

  4. Koordination/ledelse: match styrker/svagheder (også med AI-agenter)

  5. Smag + kuratering: kvalitetssans, originalitet, “hvad er godt?”


Hvis du vil, kan jeg omsætte episoden til:

  • en tjekliste til ledere: “hvilke opgaver skal være menneske-ejede vs AI-ejede?”, eller

  • et lille framework til kompetenceudvikling (hvilke menneskelige kompetencer I bør dyrke i en offentlig myndighed som jeres).



Kommentarer

Populære opslag fra denne blog

McKinsey As a Prompt

En tidligere OpenAI-medarbejder taler ud (positivt, men meget interessant)

Lav verdens bedste prompt i o3 og brug den til Deep Research