AI-hallucinationer og kvalitetssikring

Af Mikkel Freltoft Krogsholm · Opdateret 4.5.2026

AI-hallucinationer er de svar, der lyder sikre, men ikke er sande. Det er ikke en sær fejl i hjørnet af systemet, det er en grundrisiko ved generativ AI. Derfor skal kvalitetssikring ikke være en eftertanke, men en del af selve arbejdsgangen, med menneskelig kontrol, tydelige kilder og lov til at sige: det ved vi ikke endnu.

Kort svar


AI-hallucinationer er de svar, der lyder sikre, men ikke er sande. Det er ikke en sær fejl i hjørnet af systemet, det er en grundrisiko ved generativ AI. Derfor skal kvalitetssikring ikke være en eftertanke, men en del af selve arbejdsgangen, med menneskelig kontrol, tydelige kilder og lov til at sige: det ved vi ikke endnu.

Du har hørt det før


De fleste organisationer tror, at problemet er, at AI nogle gange tager fejl. Det er den pæne version.

Det egentlige problem er, at AI kan tage fejl med stor selvtillid. Den skriver en paragraf, et navn, en reference eller en forklaring, som ser rigtig ud, og netop derfor glider den igennem, hvis ingen stopper den.

OpenAI beskriver selv hallucinationer som tilfælde, hvor en model genererer et svar, der ikke er sandt. Deres egen forskning peger på, at standard træning og evaluering belønner gætteri frem for at erkende usikkerhed. Det er en nyttig påmindelse: fejlen er ikke kun i output. Den ligger også i det system, der lærer modellen at gætte.

Hvor det går galt


Hallucinationer er ekstra irriterende, fordi de ofte opstår i helt almindelige opgaver.

Et mødenotat med én opfundet beslutning.

Et kundesvar med en forkert henvisning.

Et referat, der citerer en kilde, der ikke findes.

Et udkast, der blander rigtige begreber med noget, modellen selv har fundet på.

Det er ikke imponerende. Det er dyrt. For nogen skal læse, opdage og rette det. Og så er den lovede effektivitet hurtigt væk.

Harvard Business Review beskrev i 2025, hvordan AI-genereret workslop kan æde produktivitet, fordi andre mennesker må rydde op efter output, der ser ud som arbejde, men ikke flytter noget. Hallucinationer er den mere præcise tekniske fætter til det fænomen.

Hvorfor det sker


Generativ AI er bygget til at producere det mest sandsynlige næste ord, ikke til at kende sandheden i din konkrete sag.

Det er fint, når opgaven er at skrive et første udkast eller foreslå en struktur. Det er farligt, når opgaven kræver præcision, dokumentation eller ansvar.

Digitaliseringsstyrelsen skriver det ret nøgternt i sine guides om ansvarlig anvendelse af generativ AI. Organisationer skal overveje værktøjer, retningslinjer og organisatoriske rammer, og de skal være opmærksomme på bias, faktuelt forkerte svar og informationssikkerhed. Med andre ord, det er ikke et prompt-problem alene. Det er et ledelsesproblem.

Hvad kvalitetssikring faktisk er


Kvalitetssikring er ikke at læse lidt hurtigere.

Det er at beslutte, hvad der må være sandt, før noget sendes videre.

Det kan være helt enkelt:

Brug AI til et første udkast, ikke til endelig sandhed.

Tjek navne, tal, datoer og kilder manuelt.

Bed AI om at markere usikkerhed, ikke skjule den.

Gør det tydeligt, hvem der har ansvaret for det sidste tjek.

Hvis det lyder kedeligt, er det et godt tegn. Kvalitet er sjældent glamourøs.

Den menneskelige kontrol er ikke pynt


Nogle taler om mennesket i loopet, som om det er en dekorativ figur.

Det er forkert.

Mennesket er ikke pynt. Mennesket er den del af systemet, der kan sige nej, se kontekst og kende forskel på plausibelt og korrekt.

Det gælder især i organisationer med kundedata, borgerdata, sundhedsdata eller beslutninger, der kan få konsekvenser. Her er det ikke nok, at output ser pænt ud. Det skal også kunne holde til et eftertjek.

Hvad man bør gøre i praksis


Der er tre enkle greb, som næsten altid hjælper:

#

1. Arbejd med kilder


Hvis AI skal skrive noget faktuelt, så bed den om at bygge på kilder, og tjek dem bagefter. Ikke af dovenskab, men fordi modellen ellers kan levere noget, der lyder dokumenteret uden at være det.

#

2. Lav en stopregel


Beslut på forhånd, hvornår et svar ikke må bruges. Hvis modellen mangler en kilde, hvis tallene ser mærkelige ud, eller hvis svaret ændrer betydning undervejs, så skal det tilbage til bordet.

#

3. Brug AI der, hvor den er stærk


AI er god til struktur, opsummering, variation og første udkast. Den er dårlig til at bære ansvar alene. Det er en fin grænse, og den bliver ofte glemt, fordi output ser så selvsikkert ud.

Hvor Superkræfter passer ind


Det her er en af de mest klassiske Superkræfter-pointers: AI er ikke en erstatning for dømmekraft.

Da Mikkel brugte AI til sin fars sygdomsforløb, var pointen ikke, at maskinen havde ret bare fordi den sagde det med sikker stemme. Pointen var, at AI kunne hjælpe med at samle symptomer og blodprøver, så et mønster blev tydeligt nok til at blive undersøgt af mennesker.

Den logik gælder stadig. AI kan hjælpe med at se, samle og foreslå. Men kvaliteten kommer først, når et menneske vurderer, om svaret faktisk holder.

Hvad du kan tage med dig


Hvis din organisation bruger AI, så er det ikke nok at spørge, om værktøjet virker.

Spørg også:

Hvor kan den tage fejl med selvtillid?

Hvem opdager det?

Hvad er vores stopregel?

Og hvem har sidste ord?

Hvis ingen kan svare på det, er der ikke tale om ansvarlig brug. Så er der bare tale om hurtigere støj.

Ofte stillede spørgsmål

Hvad er en AI-hallucination? +

Det er, når en model giver et svar, der lyder overbevisende, men ikke er sandt. Det kan være alt fra opfundne detaljer til fejlciterede kilder.

Kan man helt undgå hallucinationer? +

Nej. Man kan reducere risikoen, men ikke fjerne den helt. Derfor er menneskelig kvalitetssikring nødvendig, især i opgaver med fakta og konsekvenser.

Hvad er den bedste kvalitetssikring? +

Brug AI til udkast og struktur, men tjek kilder, tal, navne og datoer manuelt. Og lav klare stopregler for, hvornår output ikke må sendes videre.

Hvilke opgaver er mest sårbare? +

Opgaver med fakta, referencer, lovgivning, kundedata eller borgerdata. Jo større konsekvens, jo strengere kontrol.

Kan Mikkel holde foredrag om det her? +

Ja. Det passer godt ind i Superkræfter, fordi pointen er at bruge AI med dømmekraft, ikke som erstatning for den.

Vil du vide mere?

Vil I gerne vide mere om hvad det indeholder? Eller er I klar til at tale om hvad det kan betyde for jer?

Ingen forpligtelse. Svar inden for én arbejdsdag.