Claude 3 vs. ChatGPT: Hvad er forskellen?

Claude 3 og ChatGPT er to familier af store sprogmodeller (LLM’er), udviklet af henholdsvis Anthropic og OpenAI. Begge kan forstå og generere menneskelignende tekst, men de adskiller sig i deres underliggende arkitektur, træningsfilosofi, ydeevne på specifikke opgaver og etiske retningslinjer.

Hvem står bag modellerne?

ChatGPT udvikles af OpenAI, en amerikansk forsknings- og udviklingsvirksomhed, der oprindeligt blev grundlagt som en non-profit organisation. OpenAI er i dag tæt forbundet med Microsoft og har en stærk kommerciel drivkraft, hvilket afspejles i den hurtige udrulning af nye funktioner og en bred tilgængelighed.

Claude 3 udvikles af Anthropic, en virksomhed grundlagt af tidligere ledende medarbejdere fra OpenAI. Anthropic blev etableret med et primært fokus på AI-sikkerhed og etisk udvikling. Denne filosofi gennemsyrer deres produkter, som ofte er designet til at være mere forsigtige og forudsigelige i deres svar.

Forskellen i oprindelse og mission påvirker modellernes adfærd. Hvor ChatGPT ofte sigter mod maksimal kapacitet og alsidighed, prioriterer Claude at undgå skadelige eller problematiske outputs, selv hvis det betyder at afvise at besvare visse prompter.

De forskellige model-familier

Det er ikke én enkelt model, der konkurrerer mod en anden. Både Claude 3 og ChatGPT er navne for en familie af modeller med forskellige styrker og prispunkter, målrettet forskellige brugerbehov.

Claude 3-familien består af tre primære modeller:

  • Claude 3 Haiku: Den hurtigste og mest kompakte model, designet til hurtige svar og enklere opgaver som kundeservice-chat.
  • Claude 3 Sonnet: En balanceret model, der kombinerer hastighed med stærk ydeevne. Den er velegnet til de fleste virksomhedsopgaver som dataanalyse og indholdsgenerering.
  • Claude 3 Opus: Den mest kraftfulde model, som excellerer i komplekse ræsonnementer, forskning og opgaver, der kræver dybdegående analyse.

OpenAI’s modeller, der er tilgængelige via ChatGPT, omfatter primært GPT-3.5, som er en hurtig basismodel, og de mere avancerede GPT-4 og GPT-4o. GPT-4o er den seneste model, der integrerer tekst-, lyd- og billedforståelse i én samlet model med markant forbedret hastighed.

Ydeevne og benchmarks

Ved lanceringen af Claude 3 i marts 2024 overgik Opus-modellen GPT-4 på en række standardiserede benchmarks, der måler viden, ræsonnement og matematiske evner. Dette gælder især for opgaver, der kræver kompleks logik og analyse af store mængder information.

OpenAI’s svar kom med GPT-4o, som fokuserer på hastighed og multimodalitet. Mens Opus stadig kan have en fordel i rent tekstbaseret ræsonnement, er GPT-4o markant hurtigere og mere effektiv til at håndtere samtaler i realtid, der involverer både tale og billeder.

I praksis ser vi ofte, at valget afhænger af opgaven. Til kreativ skrivning og brainstorming er begge modeller stærke, men Claude 3 kan opleves som mere nuanceret og mindre tilbøjelig til at lyde “robotagtig”. Til kodning og softwareudvikling har GPT-modellerne historisk haft en fordel på grund af deres omfattende træningsdata fra kodningsplatforme som GitHub.

Kontekstvindue og dokumentanalyse

Et af de mest markante tekniske forskelle er størrelsen på modellernes “kontekstvindue”. Et kontekstvindue er den mængde information (tekst, billeder, kode), som en model kan huske og behandle på én gang i en given samtale. Det fungerer som modellens korttidshukommelse.

Claude 3-modellerne blev lanceret med et kontekstvindue på 200.000 tokens, hvilket svarer til omkring 150.000 ord. Dette gør dem i stand til at analysere meget lange dokumenter, såsom årsrapporter, lovtekster eller videnskabelige artikler, og besvare spørgsmål baseret på hele indholdet uden at miste tråden.

Til sammenligning har GPT-4 og GPT-4o et standardkontekstvindue på 128.000 tokens. Selvom dette er en betydelig mængde, giver Claude 3’s større vindue en fordel i opgaver, der kræver en holistisk forståelse af store datamængder. Det er en afgørende faktor for virksomheder, der arbejder med omfattende dokumentation eller dataanalyse.

Sikkerhed og etiske retningslinjer

Anthropic har udviklet en tilgang kaldet “Constitutional AI”. Her trænes modellen ikke kun på data, men også ud fra et sæt principper eller en “forfatning”, der er baseret på kilder som FN’s menneskerettighedserklæring. Målet er at gøre modellens adfærd mere forudsigelig og mindre tilbøjelig til at generere skadeligt, partisk eller uetisk indhold.

Dette betyder, at Claude 3 oftere vil afvise at besvare prompter, der befinder sig i en etisk gråzone. Den kan virke mere “tilbageholdende” end ChatGPT, som i nogle tilfælde kan presses til at give svar på mere tvetydige spørgsmål. For danske virksomheder, der opererer under GDPR og har et stærkt fokus på compliance, kan Claudes forsigtige tilgang være en fordel.

OpenAI har også omfattende sikkerhedsfiltre, men deres tilgang er mere baseret på moderering og finjustering efterfølgende. Begge virksomheder arbejder kontinuerligt på at forbedre sikkerheden, men den grundlæggende filosofi er forskellig.

Multimodalitet: Billeder, lyd og data

Multimodalitet er evnen til at behandle og forstå information fra forskellige kilder som tekst, billeder og lyd. Både Claude 3 og de nyeste GPT-modeller er multimodale. De kan analysere indholdet af et billede, du uploader, og besvare spørgsmål om det. Du kan for eksempel uploade et billede af et diagram og bede modellen om at forklare dataene.

GPT-4o har dog taget multimodalitet et skridt videre ved at integrere disse evner i en mere flydende og samtalebaseret oplevelse. Modellen kan føre en talt samtale i realtid, mens den ser verden gennem en telefons kamera og reagerer på det, den ser. Dette åbner for nye anvendelsesmuligheder inden for personlig assistance og interaktiv læring.

Claude 3’s billedanalyse er også avanceret og kan bruges til opgaver som at udtrække tekst fra billeder, analysere grafer eller beskrive visuelle scener. Forskellen ligger primært i hastigheden og den sømløse integration med tale, hvor GPT-4o i øjeblikket er førende.

Anvendelse i en dansk virksomhedskontekst

For danske virksomheder afhænger valget mellem Claude 3 og ChatGPT af den specifikke opgave. Det er vores erfaring, at mange undersøger, hvad kan små virksomheder lære af AI-revolutionen, og starter med den model, der løser deres mest presserende problem.

Typiske anvendelsesområder inkluderer:

  • Automatisering af kundeservice: Begge modeller kan drive chatbots og besvare kundehenvendelser. Claude 3’s Haiku-model er optimeret til hurtige svar, mens ChatGPT’s økosystem tilbyder mange integrationer.
  • Indholdsproduktion og SEO: Til at skrive blogindlæg, marketingtekster og produktbeskrivelser er begge modeller effektive. Nogle brugere foretrækker Claudes mere naturlige og mindre forudsigelige sprog.
  • Dataanalyse og rapportering: Claude 3’s store kontekstvindue gør den ideel til at opsummere og analysere lange rapporter, regneark eller juridiske dokumenter.
  • Kodning og udvikling: GPT-modellerne har traditionelt været stærke inden for kodegenerering og debugging, men Claude 3 er også blevet en kompetent konkurrent.

Uanset valg af model skal danske virksomheder være opmærksomme på databehandling og overholdelse af GDPR. Det er afgørende at vælge en løsning, hvor data behandles inden for EU eller under sikre overførselsaftaler.

Prisstruktur og tilgængelighed

Begge platforme tilbyder en gratis version, som giver adgang til en af de mindre kraftfulde modeller (typisk GPT-3.5 og Claude 3 Sonnet). Disse er velegnede til at afprøve teknologien og til lettere opgaver.

For at få adgang til de mest avancerede modeller (GPT-4o og Claude 3 Opus) kræves et betalt abonnement. ChatGPT Plus og Claude Pro er prissat konkurrencedygtigt og henvender sig til individuelle professionelle brugere. For virksomheder tilbyder begge udbydere API-adgang, hvor prisen afregnes baseret på forbrug (antal tokens).

API-priserne varierer betydeligt mellem de forskellige modeller. De hurtige og kompakte modeller som Haiku er markant billigere end de store modeller som Opus. Virksomheder bør derfor nøje overveje, hvilken model der passer til den enkelte opgave for at optimere omkostningerne.

Regulering og fremtidsperspektiver

Både OpenAI og Anthropic skal forholde sig til den stigende regulering af kunstig intelligens, herunder EU’s AI Act. Denne lovgivning vil stille krav til gennemsigtighed, risikostyring og dokumentation for højrisiko-AI-systemer. Anthropic’s fokus på sikkerhed og “Constitutional AI” kan give dem en fordel i at efterleve disse krav.

Fremadrettet vil konkurrencen sandsynligvis intensiveres. Vi kan forvente, at modellerne bliver endnu mere multimodale og får forbedrede ræsonnementsevner. Udviklingen peger i retning af mere autonome systemer, der kan udføre komplekse opgaver med minimal menneskelig indblanding. Disse systemer, ofte kaldet en AI-agent, vil kunne planlægge, eksekvere og justere deres handlinger for at nå et givent mål, hvilket vil udvide anvendelsesmulighederne markant.