Hvad er kognitive AI-arkitekturer?

Kognitive AI-arkitekturer er systemdesign, der sigter mod at efterligne den menneskelige hjernes funktioner. Målet er at skabe AI, der kan ræsonnere, lære, huske og løse komplekse problemer på en måde, der minder om menneskelig intelligens, frem for blot at udføre specifikke, isolerede opgaver.

Kernen i kognitive arkitekturer: At efterligne menneskelig tænkning

En kognitiv arkitektur er en teoretisk ramme for, hvordan en kunstig intelligens er struktureret. I stedet for at bygge en model til én enkelt opgave, som f.eks. at genkende billeder, forsøger man at skabe et samlet system med forskellige moduler, der afspejler menneskelige kognitive processer.

Dette inkluderer komponenter for perception (at opfatte verden), hukommelse (både kort- og langtidshukommelse), beslutningstagning og læring. Formålet er at opnå en mere generel og fleksibel form for intelligens, der kan håndtere nye og uforudsete situationer.

Disse systemer er designet til at have interne tilstande, mål og overbevisninger. De kan ræsonnere over deres egen viden og tilpasse deres adfærd baseret på erfaringer. Det er vores erfaring, at virksomheder ofte forveksler dette med almindelige sprogmodeller, men en kognitiv arkitektur er et langt mere integreret og komplekst system.

Den grundlæggende ambition er at bevæge sig fra snæver AI, der er specialiseret i én ting, mod en bredere kunstig generel intelligens (AGI), selvom dette mål endnu ikke er nået.

Forskellen på kognitive arkitekturer og traditionel AI

Traditionelle AI-modeller, som de fleste neurale netværk, trænes ofte til at finde mønstre i store datasæt for at løse en specifik opgave. De fungerer som en slags “sort boks”, hvor input omdannes til output, uden at systemet har en eksplicit model af verden eller en forståelse for sine egne processer.

Kognitive arkitekturer er derimod mere strukturerede. De består af adskilte, men forbundne, moduler, der hver især varetager en kognitiv funktion. Denne opbygning gør det i teorien lettere at forstå og analysere, hvorfor systemet træffer en bestemt beslutning.

En almindelig chatbot reagerer på input baseret på mønstre i dens træningsdata. Et system bygget på en kognitiv arkitektur kan derimod have et internt mål, huske tidligere interaktioner og bruge denne viden til at føre en mere meningsfuld og kontekstbevidst samtale. Denne type system minder i sin funktion mere om en avanceret AI-agent end en simpel model.

Fokus flyttes fra ren mønstergenkendelse til at skabe systemer, der kan planlægge, ræsonnere og lære på en mere menneskelignende måde.

Centrale komponenter i en kognitiv arkitektur

Selvom der findes mange forskellige kognitive arkitekturer, deler de fleste en række grundlæggende komponenter, der arbejder sammen for at skabe intelligent adfærd. Disse moduler er inspireret af kognitiv psykologi og neurovidenskab.

Strukturen er designet til at håndtere en kontinuerlig strøm af information og omsætte den til meningsfulde handlinger. Den detaljerede teknologi og algoritmer bag disse komponenter kan variere, men de overordnede funktioner er ofte de samme.

De mest almindelige komponenter inkluderer:

  • Perception: Systemets evne til at indsamle og fortolke data fra omgivelserne via sensorer, tekst, lyd eller billeder.
  • Hukommelse: Ofte opdelt i en korttidshukommelse (arbejdshukommelse) til midlertidig information og en langtidshukommelse til lagring af viden, færdigheder og erfaringer.
  • Handling: Mekanismer til at vælge og udføre handlinger baseret på systemets nuværende mål, viden og opfattelse af situationen.
  • Læring: Evnen til at opdatere viden og forbedre præstationer over tid baseret på resultaterne af tidligere handlinger.

Disse elementer arbejder i en cyklus, hvor systemet konstant opfatter, tænker, handler og lærer, hvilket muliggør en mere dynamisk og adaptiv adfærd.

Symbolsk vs. konnektionistisk tilgang

Inden for forskningen i kognitive arkitekturer findes der historisk set to primære tilgange: den symbolske og den konnektionistiske.

Den symbolske tilgang, også kendt som “Good Old-Fashioned AI” (GOFAI), bygger på idéen om, at intelligens kan repræsenteres gennem symboler og logiske regler. Systemet manipulerer disse symboler for at ræsonnere og træffe beslutninger. Denne tilgang er stærk til opgaver, der kræver eksplicit logik og planlægning.

Den konnektionistiske tilgang er baseret på neurale netværk, der er inspireret af hjernens struktur. Disse systemer lærer mønstre fra data uden eksplicitte regler. De er stærke til opgaver som billedgenkendelse og sprogforståelse, hvor regler er svære at definere.

Moderne kognitive arkitekturer er ofte hybride. De kombinerer styrkerne fra begge tilgange. Et system kan for eksempel bruge et neuralt netværk til at fortolke et billede (perception) og derefter bruge et symbolsk system til at ræsonnere over, hvilken handling der skal udføres baseret på den information.

Praktiske anvendelser i danske virksomheder

Selvom kognitive AI-arkitekturer primært er et forskningsområde, begynder principperne at finde vej til kommercielle anvendelser, også i Danmark. Teknologien er især relevant i situationer, der kræver mere end blot simpel automatisering.

I produktionsindustrien kan avancerede robotter med kognitive arkitekturer tilpasse sig ændringer i produktionslinjen uden omprogrammering. De kan lære af fejl og samarbejde mere fleksibelt med mennesker.

Inden for logistik og supply chain management kan systemerne bruges til at skabe dynamiske beslutningsstøttesystemer, der kan forudsige forstyrrelser og foreslå alternative planer i realtid. Dette er et skridt videre end traditionel dataanalyse.

En anden anvendelse er i udviklingen af mere avancerede former for automatisering af kundeservice, hvor en AI-agent ikke kun svarer på spørgsmål, men forstår kundens historik, forudser behov og træffer selvstændige beslutninger for at løse et problem. For mange danske virksomheder er dette et eksempel på, hvad små virksomheder kan lære af AI-revolutionen om potentialet i mere autonome systemer.

Udfordringer og begrænsninger

Udviklingen af robuste kognitive AI-arkitekturer er forbundet med betydelige udfordringer. En af de største er kompleksiteten. At designe, bygge og vedligeholde et system med så mange interagerende komponenter er en enorm ingeniørmæssig opgave.

En anden udfordring er den såkaldte “symbol grounding problem”. Det handler om, hvordan man forbinder de symbolske repræsentationer i systemet med den virkelige verden. Et system kan have symbolet for “stol”, men hvordan sikrer man, at det har en reel, meningsfuld forståelse af, hvad en stol er?

Skalering er også et problem. Mange arkitekturer fungerer godt i begrænsede, kontrollerede miljøer, men har svært ved at håndtere den kompleksitet og uforudsigelighed, der kendetegner den virkelige verden. De kræver ofte enorme mængder computerkraft og data for at fungere effektivt.

Endelig er der stadig lang vej til at skabe systemer med ægte fornuft eller bevidsthed. Selvom arkitekturerne efterligner strukturen af menneskelig kognition, er de stadig matematiske modeller og mangler den dybde og fleksibilitet, der kendetegner biologisk intelligens. Forskning på området kan findes på platforme som arXiv.

Regulering og etik i EU

I takt med at systemer baseret på kognitive arkitekturer bliver mere autonome og anvendes i kritiske sammenhænge, stiger behovet for regulering og etisk stillingtagen. I en dansk og europæisk kontekst er EU’s AI-forordning (AI Act) central.

Systemer, der træffer selvstændige beslutninger med betydelig indvirkning på mennesker, f.eks. inden for rekruttering, kreditvurdering eller sundhed, vil sandsynligvis blive klassificeret som højrisiko-AI. Dette medfører strenge krav til gennemsigtighed, datakvalitet, dokumentation og menneskeligt tilsyn.

Kravet om gennemsigtighed er særligt relevant for kognitive arkitekturer. Selvom deres modulære opbygning potentielt gør dem mere forklarlige end “sorte bokse”, skal udviklere kunne dokumentere, hvordan systemet ræsonnerer og træffer beslutninger. Det officielle regulatoriske rammeværk for AI i EU lægger stor vægt på dette.

Etiske spørgsmål om ansvar er også centrale. Hvem har ansvaret, hvis et autonomt system forårsager skade? Er det udvikleren, virksomheden der bruger det, eller systemet selv? Disse spørgsmål er endnu ikke fuldt afklarede og vil forme den fremtidige udvikling og implementering af teknologien.