Hvad er en system-prompt?

En system-prompt er en bagvedliggende instruktion, der definerer en AI-models adfærd, personlighed og opgaveramme. Den fungerer som et regelsæt, der styrer, hvordan modellen skal fortolke og besvare brugerens efterfølgende prompts, og den er typisk usynlig for slutbrugeren.

System-prompt vs. User-prompt: Den grundlæggende forskel

En user-prompt (bruger-prompt) er den direkte kommando, spørgsmål eller tekst, som en bruger indtaster i et AI-interface. Det er den aktive og synlige del af interaktionen, hvor brugeren beder om et specifikt output, f.eks. “Skriv et digt om efterår” eller “Oversæt denne sætning til tysk”.

System-prompten er derimod en instruktion, der gives til AI-modellen på et højere niveau, ofte af udvikleren eller administratoren af systemet. Den fungerer som en slags grundlov for AI’en under en specifik samtale eller opgave. Den sætter scenen, før brugeren overhovedet stiller sit første spørgsmål.

Man kan tænke på det som et teaterstykke. Brugerens prompt er replikken, som en skuespiller skal reagere på. System-prompten er instruktørens anvisninger til skuespilleren om, hvilken rolle de spiller, deres personlighed, og hvad de absolut ikke må sige på scenen.

Denne adskillelse sikrer, at AI-modellens adfærd er konsistent og forudsigelig, uden at brugeren behøver at specificere de samme grundlæggende regler i hver eneste prompt.

Hvordan fungerer en system-prompt i praksis?

Teknisk set fungerer en system-prompt ved at blive placeret i starten af den kontekst, som AI-modellen modtager. Når en bruger starter en samtale, bliver system-prompten automatisk indsat som den allerførste information. Hver gang brugeren sender en ny prompt, ser modellen hele samtalens historik, inklusiv den oprindelige system-prompt.

Dette betyder, at system-prompten konstant påvirker modellens fortolkning af den igangværende dialog. Den fungerer som et anker, der holder AI’ens svar inden for de definerede rammer. Hvis system-prompten f.eks. specificerer “Du er en hjælpsom kundeservicemedarbejder, der altid taler i et venligt og professionelt sprog”, vil modellen forsøge at efterleve denne personlighed i alle sine svar.

For slutbrugeren er processen usynlig. Man interagerer blot med en AI, der har en bestemt adfærd. For udvikleren er system-prompten et af de mest centrale værktøjer til at forme og kontrollere en AI-applikation, f.eks. en specialiseret AI-agent.

I praksis ser vi ofte, at en velformuleret system-prompt er forskellen mellem en generisk, upålidelig chatbot og et højt specialiseret og værdifuldt AI-værktøj.

Formålet med at bruge system-prompts

Det primære formål med en system-prompt er at opnå kontrol og konsistens i en AI-models output. Uden en sådan styring vil en stor sprogmodel som GPT-4 eller Claude 3 svare baseret på den brede viden, den er trænet på, hvilket kan føre til varierende og uforudsigelige resultater.

System-prompts giver udviklere mulighed for at specialisere en generel model til en specifik opgave. Dette reducerer behovet for at finjustere eller træne en helt ny model fra bunden, hvilket er en ressourcekrævende proces. Man kan i stedet give en eksisterende model et detaljeret “jobopslag” via system-prompten.

Formålet kan opsummeres i fire hovedpunkter:

  • Styring af personlighed og tone: Sikrer, at AI’en kommunikerer i overensstemmelse med et brand eller en defineret rolle.
  • Definition af opgaveramme: Afgrænser, hvad AI’en må og ikke må gøre, hvilke emner den kan diskutere, og hvilke værktøjer den har adgang til.
  • Forbedring af nøjagtighed: Ved at give kontekst og specificere krav til outputtet kan man øge relevansen og kvaliteten af svarene.
  • Implementering af sikkerhedsforanstaltninger: Forhindrer AI’en i at generere skadeligt, uetisk eller upassende indhold.

Disse instruktioner er fundamentale for at bygge pålidelige AI-applikationer og kan indgå i komplekse AI-workflows.

Eksempler på system-prompts i danske virksomheder

I en dansk kontekst anvendes system-prompts til at tilpasse globale AI-modeller til lokale behov og forventninger. En webshop, der sælger designmøbler, kan bruge en system-prompt til sin kundeservice-chatbot, der lyder: “Du er en venlig og kyndig kundeservicemedarbejder for ‘MøbelHuset’. Du taler udelukkende dansk. Dit formål er at hjælpe kunder med spørgsmål om vores produkter, lagerstatus og levering. Du må aldrig anbefale konkurrenters produkter. Hvis du ikke kender svaret, skal du henvise kunden til vores telefonnummer.”

Et mediebureau i København kan anvende en system-prompt til en AI, der skal generere udkast til SoMe-opslag: “Du er en kreativ tekstforfatter med speciale i den danske tech-branche. Du skriver korte, fængende tekster til LinkedIn. Tonen er professionel, men med et glimt i øjet. Undgå engelske ‘buzzwords’, medmindre det er absolut nødvendigt. Alle opslag skal afsluttes med et åbent spørgsmål for at skabe engagement.”

En juridisk afdeling kan bruge en system-prompt til at opsummere dokumenter: “Du er en juridisk assistent. Din opgave er at læse de vedhæftede dokumenter og lave et resumé på maksimalt 300 ord på dansk. Fokuser udelukkende på de kontraktmæssige forpligtelser og tidsfrister. Du må ikke give juridisk rådgivning eller fortolke lovgivning.”

Struktur og indhold i en effektiv system-prompt

En effektiv system-prompt er klar, specifik og utvetydig. Selvom der ikke findes en fast skabelon, indeholder de bedste system-prompts typisk flere kerneelementer, der tilsammen skaber en robust instruktion for AI-modellen.

En god struktur kan omfatte:

  • Rolle og Personlighed: Definer, hvem AI’en er. “Du er en ekspert i digital marketing” eller “Du er en pædagogisk vejleder for gymnasieelever.”
  • Kontekst: Giv baggrundsinformation. “Du arbejder for en dansk energivirksomhed, der fokuserer på grøn omstilling.”
  • Opgavebeskrivelse: Forklar den primære opgave. “Din opgave er at besvare kundemails vedrørende regninger.”
  • Proces og trin: Hvis opgaven er kompleks, kan den brydes ned. “Først analyserer du brugerens spørgsmål. Dernæst finder du relevant information i databasen. Til sidst formulerer du et klart svar.”
  • Regler og begrænsninger: Sæt klare grænser. “Du må aldrig love rabatter. Du skal altid bruge en formel tone. Undgå at nævne specifikke medarbejdernavne.”
  • Output-format: Specificer, hvordan svaret skal se ud. “Svar altid i punktform. Start med en kort opsummering. Afslut med en venlig hilsen.”

Jo mere detaljeret og gennemtænkt system-prompten er, desto mindre er sandsynligheden for, at AI-modellen producerer uønskede eller irrelevante svar.

Begrænsninger og udfordringer

System-prompts er et kraftfuldt værktøj, men de er ikke en fejlfri løsning til at styre AI-adfærd. En af de primære udfordringer er “prompt injection” eller “jailbreaking”. Her forsøger en bruger bevidst at formulere sin prompt på en måde, der får AI-modellen til at ignorere eller omgå sin system-prompt og udføre handlinger, den ikke burde.

En anden begrænsning er, at en meget lang og kompleks samtale kan “fortynde” effekten af den oprindelige system-prompt. AI-modellen har et begrænset “kontekstvindue” (hukommelse), og hvis samtalen bliver lang nok, kan de seneste bruger-prompts veje tungere end den oprindelige instruktion.

Det kan også være en balancegang at skrive en god system-prompt. Hvis den er for restriktiv, kan AI’en blive rigid, ubrugelig og ude af stand til at håndtere uforudsete spørgsmål. Er den for vag, mister den sin styrende effekt. Denne proces kræver ofte iteration og test, som beskrevet af udviklere som OpenAI.

Endelig kan sprogmodeller stadig hallucinere eller generere faktuelt forkerte oplysninger, selv med en stærk system-prompt, der instruerer den i at være præcis. System-prompten er en guide, ikke en garanti for sandhed.

System-prompts i kommercielle AI-platforme

Mange kommercielle AI-tjenester giver brugerne direkte eller indirekte adgang til at definere system-prompts. I OpenAI’s ChatGPT Plus kan funktionen “Custom Instructions” betragtes som en forenklet brugerflade til at skabe en personlig system-prompt, der gælder for alle samtaler.

For udviklere, der bygger applikationer oven på AI-modeller, er system-prompten en central del af API-kaldet. I OpenAI’s Assistants API er “instructions”-parameteren netop system-prompten. Lignende funktionalitet findes hos konkurrenter som Anthropic (Claude) og Google (Gemini).

Platforme til at bygge specialiserede chatbots eller AI-agenter har ofte en dedikeret sektion i deres brugerflade, hvor man kan indtaste og finjustere system-prompten. Dette var også kernen i værktøjer, som det sås med Microsofts GPT Builder i Copilot Pro, før det blev fjernet.

Denne udvikling viser en tendens mod at give både almindelige brugere og virksomheder mere kontrol over AI-modellernes adfærd, hvilket gør teknologien mere anvendelig til specifikke formål.

Sikkerhed og etiske overvejelser

System-prompts spiller en afgørende rolle i implementeringen af sikkerhedsforanstaltninger og etiske retningslinjer i AI-systemer. Udviklere bruger dem til at instruere modeller i ikke at generere hadefuld tale, misinformation, voldeligt indhold eller assistere med ulovlige aktiviteter.

En system-prompt kan indeholde eksplicitte forbud, f.eks.: “Du må under ingen omstændigheder give medicinsk rådgivning, finansiel vejledning eller juridisk bistand. Henvis altid brugeren til en professionel fagperson.” Dette er en metode til at mindske risikoen for, at AI’en forårsager skade gennem ukvalificerede råd.

I en europæisk kontekst er dette særligt relevant i lyset af kommende regulering. De krav til gennemsigtighed, risikostyring og pålidelighed, som EU’s AI Act lægger op til, kan delvist imødekommes gennem omhyggeligt designede system-prompts, der dokumenterer og styrer en AI-models tilsigtede formål og begrænsninger.

Det er dog ikke en fuldstændig løsning. Som nævnt kan system-prompts omgås, og der er fortsat behov for yderligere sikkerhedslag, såsom indholdsfiltrering og overvågning af brugerinteraktioner, for at skabe robuste og ansvarlige AI-systemer.

Fremtiden for system-prompts og AI-styring

Udviklingen inden for AI peger mod mere dynamiske og sofistikerede former for styring end de nuværende, ofte statiske, system-prompts. Fremtidige systemer vil sandsynligvis have system-prompts, der kan tilpasse sig i realtid baseret på samtalens forløb eller eksterne data.

En anden tendens er “konstitutionel AI”, et koncept udviklet af Anthropic, hvor en model styres af et sæt grundlæggende principper (en konstitution), som den selv bruger til at evaluere og korrigere sine svar. Dette kan ses som en mere avanceret og selvregulerende form for system-prompt.

Vi vil sandsynligvis også se AI-agenter, der kan reflektere over deres egen performance og foreslå forbedringer til deres egne system-prompts for at blive mere effektive. Dette skaber en feedback-loop, hvor AI’en aktivt deltager i sin egen optimering.

For virksomheder og udviklere vil værktøjerne til at skabe og administrere system-prompts blive mere intuitive og visuelle, hvilket gør det lettere at bygge og vedligeholde specialiserede AI-løsninger, især inden for områder som AI-agenter til indholdsproduktion og SEO.