Et ret vildt eksempel på forskellen på at bruge 4o og o3 mht. at "læse" billeder.
Jeg så et opslag på sociale medier, hvor forfatteren anbefalede, at man så fem bestemte videoer på YouTube, for "det ville ændre ens liv", hvilket jeg jo ikke tror på, men det kunne være sjovt at bruge det til et eksperiment:
Så jeg tog et screenshot af det pågældende opslag, der nævnte de fem youtube-videoer.
Dernæst valgte jeg model 4o, vedhæftede screenshottet og skrev:
Kan du finde links til de pågældende TED talks på YouTube?"
ChatGPT svarede dette: "Selvfølgelig! Her er nogle links til populære TED Talks og TEDxCopenhagen-præsentationer, som du kan finde på YouTube:" - og det var overhovedet ikke de fem, der var nævnt på screenshottet.
Jeg prøvede igen: "Jeg mente de 5, der var nævnt på det vedhæftede billede" - og ChatGPT svarede: "Selvfølgelig! Her er links til de fem TEDxCopenhagen Talks, som du nævnte:" - og nævnte så fem videoer, som den tilfældigt havde udvalgt - men slet ikke de fem på billedet jeg havde vedhæftet.
Meeen - jeg gav ikke op. Jeg startede en ny samtale, beholdt 4o som model, og skrev: "Der nævnes 5 Ted talks på det vedhæftede billede. Kan du finde dem på YouTube for mig?" - hvorefter jeg fik fem videoer fra YouTube præsenteret, der intet havde med de fem på billedet at gøre.
Nu var det så tid til at gøre det, jeg hele tiden havde haft på fornemmelsen var løsningen: Ny samtale/chat og jeg valgte o3 og skrev: "Kan du finde linksene til de fem foredrag på YouTube, som er nævnt på det vedhæftede billede?"
Og det kunne den selvfølgelig, komplet med fine links til at trykke på og det hele. o3's evne til at læse/nærstudere billeder er bare suveræn. Den "har vision", altså "evnen til at se", som man siger.
Jeg gjorde så det, at jeg fik de fem videoer transskriberet på cirka ét sekund hver vha. det geniale tool, der findes her og kan bruges af alle: Youtube Transcript Generator - Free and Fast | Kome - jeg tror kome.ai gør det ved at dele videoen op i en masse mindre enheder og transskribere parallelt, men jeg aner reelt ikke, hvordan den gør. Det er bare vildt imponerende.
Men husk: kome.ai's tool virker KUN på engelsksprogede videoer. Den forstår ikke dansk, eksempelvis.
Men altså: Jeg fik de fem videoer transskriberet og bad ChatGPT om essensen af hver af dem, og kom på den måde gennem flere timers video på nogle få minutter og kunne læse, at der nok ikke var de helt store overraskelser - udover én: Den gamle historie med, at det kræver 10.000 timer at blive god til noget viser sig snarere at være 20 timer, hvis man er parat til at begå fejl og holde fast. Det var da en lettelse :-).
Hvis du skulle have lyst til at kigge på de fem "livsforandrende" videoer, så er listen (fra o3) her:
Her er direkte YouTube-links til de fem TED/TEDx-foredrag, der står på billedet:
-
“The first 20 hours — how to learn anything” – Josh Kaufman
Se foredraget på YouTube (youtube.com) -
“How to speak so that people want to listen” – Julian Treasure
Se foredraget på YouTube (youtube.com) -
“5 hindrances to self-mastery” – Shi Heng Yi
Se foredraget på YouTube (youtube.com) -
“Life is easy. Why do we make it so hard?” – Jon Jandai
Se foredraget på YouTube (youtube.com) -
“After watching this, your brain will not be the same” – Lara Boyd
Se foredraget på YouTube (youtube.com)
God fornøjelse med inspirationen!
Kommentarer
Send en kommentar