Boss Class, S3:E6: The Human Defence
Her er samme type analyse for episode 6: “The human defence – What’s your unfair advantage over AI?” (baseret på din transskription).
De største highlights
Chess bruges som forhåndsvisning af arbejdsmarkedet: når maskiner bliver overlegne, ændrer menneskers rolle sig til forberedelse, brug af værktøjer, strategi, integritet/regelsæt – og spillet dør ikke nødvendigvis.
Andrew Palmer + David Deming: AI kan blive en GPT = General Purpose Technology, men effekterne kommer typisk over årtier, ikke måneder.
“Menneskets forsvar” består især af:
tillid, relationer, ansvar/accountability, dømmekraft (mål), social koordinering, smag, og alsidighed.De mest udsatte områder: backoffice/kommoditiserede funktioner og til dels entry-level opgaver.
En stærk pointe: at være god til AI handler overraskende meget om at være god til at lede mennesker.
Gode pointer (som er værd at tage med)
1) Chess-parallellen: mennesker finder nye måder at vinde på
Ungdommen har “engine-forberedte” åbninger (memorering af computerlinjer).
Dina Belenkaya siger, at hendes valg er:
(a) gå med i våbenkapløbet (memorér) eller (b) “forvirr dem” (skab uklarhed og få dem ud af deres forberedte spor).Oversættelse til arbejdsliv: når standardopgaver automatiseres, bliver værdien ofte at kunne håndtere det uforudsete og skifte strategi.
2) Maskiner har gjort læring hurtigere – men skabt en ny “integritetskrise”
Computerne hjælper alle med at lære hurtigere (“3x hurtigere” som billede).
Men arbitrene beskriver snyd som en eksistentiel trussel: devices, smartwatches, smart glasses, osv.
Overført til arbejde: AI øger produktivitet, men driver også ny risikoflade (svindel, manipulation, “AI assisted cheating”, insider-data, osv.).
3) Hvor mennesker fortsat har en edge: front office vs back office
David Deming skelner ret skarpt:
Backoffice: “ingen er ligeglade med hvordan det bliver gjort, bare det bliver gjort” → høj automatiseringsrisiko.
Front office: salg, relationer, tillid, gentagne interaktioner → “meget langt fra”, at AI matcher det.
4) Tillid er ikke kun “AI vs menneske” – det er også “opfattelse”
Zapier-eksperimentet (“Wade Test”):
Folk stolede mindre på svar, hvis de troede det var AI – selv når det faktisk var Wade.
Det er vildt relevant: adoption kan falde, hvis output “lyder som AI”, selv når det er korrekt.
5) Digital tvilling kan være bedre end gennemsnitlig service – i bestemte kontekster
Wade Foster’s callcenter-argument:
Kunder er “overladt til tilfældigheder”: måske får du en ny medarbejder.
En AI-agent kan være en digital tvilling af den bedste samlede viden.
Men: når det handler om en person du kender (CEO/kollega), opstår modvilje mod kloner (“mimic”).
6) Mennesker sætter målet – AI optimerer ikke selv rigtigt “hvad der betyder noget”
Deming: AI er ikke altid god til at finde ud af hvad den skal optimere for.
Det kræver dømmekraft og ledelse: Hvad er målet? Hvad er succes? Hvad er trade-offs?
7) “At lede AI” ligner “at lede mennesker”
Forskningsresultat i episoden:
De, der er gode til at lede mennesker, er også gode til at lede AI-agenter.
Kernen: match opgaver og styrker, minimér svagheder, koordinér uden endeløse møder.
Og en stærk “unfair advantage”-idé: AI er som “95-percentil i alt”; hvis du selv er “99-percentil” i ét domæne og bruger AI til resten, står du stærkt.
Ting at være opmærksom på (faldgruber/risici)
1) Cheating/parallellen: når værktøjer bliver stærke, bliver misbrug også stærkt
Skakverdenens kamp mod snyd er en advarsel:
I virksomheder vil AI også presse jer til kontrolforanstaltninger (logning, device-politikker, DLP, kontrol af output, osv.).
2) Kloning kan både spare tid og skade tillid
Ruth Berry’s forbedrede Andrew-klon er “party trick → realistisk”.
Men Palmer peger på dilemmaet:
du kan udnytte eksisterende tillid (en kendt stemme)
men du kan også indføre tvivl (“er det ham eller en bot?”) og dermed udhule relationen
Praktisk “gotcha”: kloner skal have meget klare rammer, etikettering og anvendelser, ellers bliver det en tillidskatastrofe.
3) “Smag” og kvalitetssans bliver en flaskehals
James “Prophecy” Baker siger:
Du kan generere på sekunder, men kvalitet kræver:
mange revisioner
æstetisk retning
et menneskes “taste” og ambition (“det skal føles episk”)
Faldgruben er “slop”: meget output, lav originalitet, ingen kuratering.
4) Alsidighed er “karriere-airbag”
Episoden slutter næsten som en karriererådgivning:
vælg roller med kombinationer af færdigheder (menneske + domæne + relationer + beslutninger)
rene, kommoditiserede opgaver er mest udsatte.
Overraskelser
At det “værste” ved computere i skak ikke er, at de er bedre – men at de gør snyd så meget lettere.
At folks tillid kan falde, hvis et svar “lyder som AI” – selv når det er et menneske.
At callcenter-AI kan give en bedre oplevelse end en gennemsnitlig medarbejder, fordi den kan “samle best-of-viden”.
At Demings forskning siger: AI-ledelse ≈ menneskeledelse (høj korrelation).
Episodens praktiske “opsummering som opskrift”
Hvis du vil have et “unfair advantage” over AI, peger episoden på fem ting:
Dyb ekspertise i noget vigtigt (vær “99-percentil” et sted)
Dømmekraft: mål, prioriteringer, trade-offs (“hvad optimerer vi for?”)
Relationer og tillid: gentagne interaktioner, forhandling, salg, mentoring
Koordination/ledelse: match styrker/svagheder (også med AI-agenter)
Smag + kuratering: kvalitetssans, originalitet, “hvad er godt?”
Hvis du vil, kan jeg omsætte episoden til:
en tjekliste til ledere: “hvilke opgaver skal være menneske-ejede vs AI-ejede?”, eller
et lille framework til kompetenceudvikling (hvilke menneskelige kompetencer I bør dyrke i en offentlig myndighed som jeres).
Kommentarer
Send en kommentar