AI-interview: Michael Ørnø, direktør for Statens IT

Samtale med Michael Ørnø, direktør for Statens IT den 8. april 2025 på Stauan, København

Interviewer:
Det spørgsmål, jeg har til dig som direktør for Statens IT, er: Hvad hører du fra dine egne folk – og måske også fra kunderne – om AI, og hvad de gerne vil med det? Det jeg selv oplever i den verden, jeg færdes i...

Michael Ørnø:
...er en verden, hvor der har været virkelig mange spændende pilotforsøg. Man har prøvet nogle ting og udforsket teknologien. Men det er de færreste steder, hvor man er gået fra eksperiment til stor skala. Min analyse er, at udfordringen ligger i GDPR- og cloud-problematikken – i luksusudgaven. Når du arbejder med data – alt fra persondata til ejendomsdata – er du nødt til at beskytte det.

Hvis data er ligegyldige, er det én ting. Men det er de sjældent. Og derfor bør man, som ansvarlig dataejer, bekymre sig om, hvor data er, og hvordan de bliver håndteret. F.eks. i en AI-kontekst: Hvis du propper dine data ind i en cloudservice, hvad sker der så med dem? Bliver de kopieret? Brugt til noget andet? For mange år siden var der fx 23andMe, hvor du skulle afgive rettighederne til dine gener, for at få en gentest.

Interviewer:
Jeg fandt ud af, at jeg var tæt på 40% gælisk – det overraskede mig lidt...

Michael Ørnø:
Ja, det lyder rigtigt. Og det er netop et godt eksempel. Det handler om datarejser, og hvad de kan ende med at blive brugt til. Det er en førstegenerationsbekymring, men det er ikke anderledes end alle andre former for cloudanvendelse. Som offentlig myndighed skal du være compliant med gældende regler. Nogle gange bliver det gjort for banalt eller for dramatisk. Hvis man fx stiller ChatGPT til rådighed, skal man bare instruere folk i ikke at skrive beskyttelsesværdige data ind.

Folk bruger AI hele tiden – de ved det bare ikke. Google-søgninger, autosvar i mail, fotoalbums – alt bruger AI. Men det vigtige er leverandørens transparens: Hvad sker der med data? Hvor ligger de? Hvem har adgang?

Interviewer:
Jeg har set, at ChatGPT har audits og garantier for, at de ikke bruger dine data med bestemte licenser.

Michael Ørnø:
Ja, og det handler om tillid. Hvis du har transparens og kan stole på det, leverandøren siger, så er du et godt stykke ad vejen. Det var også vigtigt for os i vores risikoanalyse af Microsoft 365. Et vendepunkt var, da vi fik visualiseret dataflows i Microsofts økosystem. At forstå, hvornår data forlader EU, og hvornår det blot er summeret eller aggregeret – det var afgørende.

Interviewer:
Det er svært at læse sig til i jura.

Michael Ørnø:
Ja, jura gør ikke noget mere læsevenligt. Men at forstå forskellen på fx et Teams-møde, som bliver i EU, og klikdata fra 3.000 brugere, som bliver analyseret – det er vigtigt. Transparens fra AI-leverandører gør det nemmere at bruge dem. Men data er blevet en handelsvare, og der er mange penge i det.

Interviewer:
Hele AI-økonomien er ugennemskuelig. Og det var den måske allerede tilbage i 1980.

Michael Ørnø:
Ja, dengang var produkter forståelige – råvarer, arbejdstid, pris. Du kunne regne på det. I dag, med sociale medier og cloudtjenester, forstår vi ikke forretningsmodellen. Hvis noget er gratis, så er du selv produktet.

Interviewer:
Men er det ikke også statens forretningsmodel? Det er jo gratis at gå til lægen...

Michael Ørnø:
Jo, men vi ved godt, det er betalt via skatten. Det er ikke skjult på samme måde. Det, jeg bekymrer mig om, er, hvordan tech-virksomheder har uhæmmet adgang til vores data – og vi ved ikke, hvad de bruger det til.

Interviewer:
Men hvordan har du det så med, at Center for Cybersikkerhed har adgang til data i staten – via fx Statens IT? FE har undtagelseslovgivning, der gør, at de kan bruge data, uden borgerne ved det.

Michael Ørnø:
Det er en anden diskussion. Den ene handler om private virksomheders kommercielle brug. Den anden handler om statens sikkerhedsarbejde. Jeg er glad for, at nogen holder øje med de store sikkerhedspolitiske trusler, som vi ikke kan håndtere alene. Ransomware, phishing og andet kriminalitet håndterer vi – men statsaktører som Nordkorea, det er en anden skala.

Interviewer:
Jeg forstår modellen – men det føles som Big Brother-overvågning. Vi har ingen indsigt i, hvad der bliver samlet ind.

Michael Ørnø:
Det må være en balancegang. Men hvis man er ansat i staten, og arbejder med følsomme spørgsmål, så giver det mening, at der er nogen, som beskytter det bedst muligt.

Interviewer:
Sidste spørgsmål: Hvad ser du derude hos jeres kunder – hvordan bruger de AI?

Michael Ørnø:
Flere og flere propper deres vidensdokumenter ind i GPT-løsninger, som de bruger internt. I gamle dage brugte man bibler og søgte på nettet. Nu spørger man dokumenterne direkte: "Hvis jeg er på barsel, kan jeg så melde mig syg?" Maskinen kan finde svaret i dokumentationen.

Hos os har vi arbejdet med knowledge management i mange år – struktureret dokumentation i vores servicesystem. Tidligere var det måske ikke brugt så meget. Men nu har vi fodret en GPT med alt vores viden, og det har været en gamechanger i servicedesken.

Interviewer:
Så supporterne har bedre muligheder for at svare?

Michael Ørnø:
Ja – og kunderne får bedre svar. Tidligere sagde de: "Dem vi taler med, forstår ikke vores system." Nu har medarbejderne GPT som værktøj. Særligt nyansatte har gavn af det. De skriver spørgsmålet ind og får gode svar, fordi det bygger på artikler fra vores knowledge managers.

Så på den måde får den næste i rækken en chance. Og det styrker vores servicekvalitet betydeligt.

Kommentarer

Populære opslag fra denne blog

Lav verdens bedste prompt i o3 og brug den til Deep Research

Deep Research ("Grundig Research") er nu tilgængelig i ChatGPT (men kun 10 af dem per måned).

Få opsummeret lange videoer på sekunder - og brug det kreativt, f.eks. med TED Talks. Og opdag oven i købet fremtidens undervisningsform :-).