Hvad er en AI-detektor?

En AI-detektor er et softwareværktøj designet til at analysere indhold, typisk tekst, for at vurdere sandsynligheden for, at det er genereret af kunstig intelligens. Værktøjet identificerer mønstre og statistiske særpræg, som er karakteristiske for maskinskabt indhold, frem for menneskeligt produceret materiale.

Hvordan fungerer en AI-detektor?

En AI-detektor fungerer ved hjælp af en klassifikationsmodel, som er en type maskinlæring. Denne model er trænet på enorme mængder data, der indeholder eksempler på både menneskeskrevet og AI-genereret tekst. Gennem denne træning lærer modellen at genkende de subtile forskelle mellem de to typer indhold.

Analysen fokuserer ofte på specifikke sproglige markører. To centrale begreber er “perplexity” og “burstiness”. Perplexity måler, hvor forudsigelig en tekst er. AI-genereret tekst har ofte lav perplexity, fordi sprogmodeller er designet til at vælge de mest sandsynlige ord. Mennesker skriver mere uforudsigeligt.

Burstiness refererer til variationen i sætningslængde og struktur. Menneskelig tekst har typisk høj burstiness med en blanding af korte og lange sætninger. AI-modeller kan have en tendens til at producere mere ensartede sætningsstrukturer, hvilket resulterer i lavere burstiness.

Detektoren tildeler en score, der angiver sandsynligheden for, at indholdet er skabt af en AI. Denne score er en sandsynlighedsvurdering, ikke et endegyldigt bevis. Resultatet præsenteres ofte som en procentdel, f.eks. “98 % sandsynlighed for AI-genereret indhold”. Forståelsen af, hvad er en AI-agent, kan give yderligere indsigt i, hvordan disse tekster skabes.

Hvilke typer indhold kan detekteres?

Selvom tekst er det mest almindelige fokusområde for AI-detektorer, udvikles teknologien til også at analysere andre medieformater. Udviklingen af avancerede generative modeller har skabt et behov for detektion på tværs af flere domæner.

For billeder analyserer detektorer for tegn på AI-generering, såsom unaturlige teksturer, forkerte skygger, asymmetriske detaljer i ansigter eller andre visuelle artefakter, som mennesker måske overser. Disse værktøjer er centrale i kampen mod deepfakes.

Lydfiler kan også analyseres. Her leder detektoren efter unaturlig intonation, manglende følelsesmæssig variation eller små digitale støj-artefakter, som kan afsløre, at en stemme er klonet eller syntetiseret af en AI.

Videoindhold er en mere kompleks udfordring, da det kombinerer billeder og lyd. Detektorer kan her lede efter inkonsistens i bevægelser, unaturlig fysik i objekters interaktion eller små fejl i baggrunden, der ændrer sig fra billede til billede.

Nøjagtighed og begrænsninger

Ingen AI-detektor er 100 % præcis. Deres effektivitet afhænger af kvaliteten af deres træningsdata og den specifikke AI-model, de forsøger at identificere. Der eksisterer et konstant teknologisk kapløb mellem udviklere af generative AI-modeller og udviklere af detektionsværktøjer.

En primær begrænsning er risikoen for falske positiver, hvor menneskeskrevet tekst fejlagtigt identificeres som AI-genereret. Dette kan ske, hvis en person skriver i en meget formel eller forudsigelig stil. Omvendt kan falske negativer opstå, hvor AI-genereret tekst, der er blevet redigeret af et menneske, undslipper detektion.

Det er vores erfaring, at detektorer fungerer bedst på længere tekststykker, hvor der er flere data at analysere. Korte tekster, som f.eks. et tweet eller en produktbeskrivelse, giver ikke nok statistisk grundlag for en pålidelig vurdering.

Værktøjernes begrænsninger omfatter:

  • Sprogmodeller bliver konstant bedre til at efterligne menneskelig skrivestil.
  • Detektorer kan have bias og fungere dårligere for ikke-engelske sprog eller for tekst skrevet af personer, der ikke har sproget som modersmål.
  • Resultaterne kan manipuleres ved bevidst at redigere AI-tekst for at tilføje “menneskelige” fejl eller variation.

Disse faktorer gør, at resultater fra en AI-detektor bør bruges som en indikation snarere end et endeligt bevis, da en forkert konklusion kan sprede misinformation.

Praktiske anvendelsesområder i Danmark

I Danmark anvendes AI-detektorer i flere sammenhænge, hvor autenticitet og originalitet er vigtigt. Uddannelsessektoren er en af de primære brugere. Gymnasier og universiteter bruger værktøjerne til at screene studerendes opgaver for ukorrekt brug af AI-værktøjer, som et supplement til traditionel plagiatkontrol.

Mediebranchen og forlag bruger teknologien til at verificere indholdets oprindelse. Dette er især relevant for at sikre journalistisk integritet og undgå spredning af AI-genereret desinformation. Værktøjerne kan hjælpe med at identificere falske nyhedsartikler eller manipulerede billeder.

Virksomheder, herunder små virksomheder, anvender også AI-detektorer til intern kvalitetssikring. Det kan være for at sikre, at marketingindhold, blogindlæg eller rapporter skrevet af medarbejdere eller freelancere er originalt og ikke udelukkende genereret af en maskine. Ligeledes kan det bruges til at kontrollere output fra systemer til automatisering af kundeservice.

AI-detektorer og EU’s AI Act

EU’s AI Act stiller krav om gennemsigtighed for visse AI-systemer. Forordningen fastslår, at brugere skal informeres, når de interagerer med et AI-system, medmindre det er åbenlyst. Specifikt skal AI-genereret indhold som deepfakes mærkes tydeligt.

AI-detektorer spiller en potentiel rolle i håndhævelsen af disse regler. De kan fungere som værktøjer for myndigheder, virksomheder og borgere til at kontrollere, om indhold er korrekt mærket i henhold til lovgivningen. Hvis en platform eksempelvis undlader at mærke AI-genereret indhold, kan en detektor bruges til at identificere denne mangel.

Selvom EU’s AI Act ikke direkte påbyder brugen af AI-detektorer, understøtter de lovens formål om at skabe transparens og tillid til AI-teknologi. De bliver et redskab i det økosystem, der skal sikre, at reglerne overholdes i praksis, når de træder fuldt i kraft.

Forskellen på plagiatkontrol og AI-detektion

Plagiatkontrol og AI-detektion forveksles ofte, men de løser to forskellige opgaver. Et plagiatkontrolværktøj sammenligner en indsendt tekst med en stor database af eksisterende publikationer, websider og akademiske opgaver for at finde direkte tekstsammenfald. Dets formål er at finde kopieret indhold.

En AI-detektor analyserer derimod selve tekstens iboende egenskaber. Den kigger ikke efter, om teksten findes andre steder, men undersøger sproglige mønstre, struktur og forudsigelighed for at vurdere, om ophavsmanden er et menneske eller en maskine. En AI-genereret tekst kan være 100 % unik og stadig blive flaget af en AI-detektor.

I praksis ser vi ofte, at de to værktøjer bruges i kombination. På en uddannelsesinstitution kan en opgave først blive kørt gennem en plagiatkontrol for at tjekke for kopiering fra eksisterende kilder og derefter gennem en AI-detektor for at vurdere, om den resterende unikke tekst er skrevet af den studerende selv.

Kan man omgå en AI-detektor?

Det er muligt at omgå eller i det mindste forvirre en AI-detektor. Da detektorerne leder efter statistiske mønstre, kan man reducere sandsynligheden for detektion ved at bryde disse mønstre. En almindelig metode er at bruge AI-genereret tekst som et første udkast og derefter redigere det grundigt.

Ved at omskrive sætninger, udskifte ord, ændre sætningsstrukturen og tilføje personlige anekdoter eller specifik fagviden kan man introducere den “uforudsigelighed”, som kendetegner menneskelig skrivning. Denne proces kaldes ofte at “humanisere” teksten.

En anden teknik er at blande AI-genereret indhold med afsnit skrevet af et menneske. Dette kan forstyrre de overordnede mønstre, som detektoren leder efter. Avanceret prompt engineering, hvor man instruerer en AI assistent til at skrive med en bestemt stil, varieret sætningslængde eller endda med bevidste småfejl, kan også gøre teksten sværere at identificere.

Hvem bruger typisk AI-detektorer?

Brugerbasen for AI-detektorer er bred og voksende i takt med udbredelsen af generativ AI. De primære brugergrupper har et fælles behov for at verificere indholdets autenticitet og oprindelse.

De mest fremtrædende brugere omfatter:

  • Uddannelsesinstitutioner: Lærere, undervisere og administratorer, der skal vurdere studerendes originale arbejde.
  • Forlag og mediehuse: Redaktører og journalister, der sikrer kvaliteten og troværdigheden af publiceret indhold.
  • Virksomheder: Marketing- og SEO-specialister, der vil undgå at publicere indhold, som søgemaskiner potentielt nedprioriterer.
  • Forskere: Især inden for datalogi og lingvistik, hvor man studerer egenskaberne ved sprogmodeller.
  • Udviklere: Som en del af processen med at bygge og teste nye generative modeller.