"Vibecoding": Nu kan vi endelig lancere et nyt produkt et par minutter efter, at vi har fået idéen!

For syv-otte år siden tænkte jeg en del over, at alt så ud til at bevæge sig mod real-time. Mere og mere kunne lade sig gøre her og nu.

Den naturlige konsekvens, tænkte jeg dengang, måtte være, at vi snart ville være i stand til at sidde på en kvalitets-ølbar, hvor én af deltagerne var "designated coder" (lidt a la "designated driver"), der skulle forblive helt ædru og tage sig af at kode og udvikle de idéer til produkter, som de øldrikkende deltagere fik efterhånden som aftenen skred frem.

Med andre ord: Real-Time Udvikling & Lancering (RTUL), som jeg for sjov kaldte det dengang.

I mit daværende firma (CIMA) udforskede vi, hvor langt man egentlig  kunne komme dengang, og der var små initiativer på vej, såsom høj-niveau-sprog, design-værktøjer mv, der pegede i den rigtige retning. Men det kunne reelt ikke lade sig gøre, og vi opgav at arbejde videre med idéen.

Her til morgen kunne jeg så læse en artikel af Ethan Mollick, min private AI-helt, hvor han faktisk udvikler et simpelt computerspil ved at give en bestemt AI - Anthropic's Claude 3.7 - i alt fire mundtlige kommandoer. Det er da meget tæt på RTUL! 

I kan læse hans artikel her:

Speaking things into existence - by Ethan Mollick

Den starter med følgende, interessante paragraf, som jeg har oversat til dansk:

Den indflydelsesrige AI-forsker Andrej Karpathy skrev for to år siden, at "det hotteste nye programmeringssprog er engelsk" – et emne, han sidste måned udvidede med begrebet "vibecoding", en praksis hvor man blot beder en kunstig intelligens om at skabe noget for én og giver løbende feedback undervejs. Jeg tror, at konsekvenserne af denne tilgang rækker langt ud over programmering, men jeg ville starte med selv at prøve lidt vibecoding.

Derudover er artiklen også værd at læse, fordi han giver et eksempel på, hvordan han først beder Deep Research ("Grundig research" på dansk) i ChatGPT om at undersøge et bestemt marked, hvorefter han kombinerer den resulterende, detaljerede rapport med nogle gamle data og vejledninger han har liggende og beder o1-modellen om at skrive en rapport baseret på alt dette. 

Det minder lidt om det jeg gjorde forleden, hvor jeg først bad o3-modellen om at beskrive et marked, hvorefter jeg fodrede dens svar ind i Deep Research og instruerede den i at lave en grundig undersøgelse af det  globale marked. 

Hans vigtigste pointe er dog denne: Vi har stadig en særdeles vigtig rolle at spille ift. AI, fordi vores samlede ekspertise, erfaring, viden, holdninger mv. tilsammen giver os mulighed for at gøre AI'ens output meget bedre. 

Det er faktisk i sig selv en egentlig ekspertise nu om dage at kende AI'ens styrker og svagheder, siger han. 

Og han introducerer begrebet "vibework", men det kan I jo selv læse lidt mere om :-).

Kommentarer

Populære opslag fra denne blog

Lav verdens bedste prompt i o3 og brug den til Deep Research

Deep Research ("Grundig Research") er nu tilgængelig i ChatGPT (men kun 10 af dem per måned).

Tredje-generations-AI ("Gen3") forklaret, så man forstår, at der virkelig sker noget nu