Skeptikerne har en pointe. McKinseys State of AI 2025 viste at 62 procent af virksomheder eksperimenterer med AI-agenter. Kun 23 procent er begyndt at skalere dem inden for én forretningsfunktion. Og en PwC-undersøgelse af 4.454 ledere fandt at 56 procent af CEO’er endnu ikke ser finansielt afkast af deres AI-investeringer.
Tal som dem får IT-chefer til at sætte spørgsmålstegn ved hele projektet. Det er forståeligt.
Men de stiller det forkerte spørgsmål.
Det handler ikke om agenternes kvalitet
Spørgsmålet er ikke “fungerer AI-agenter?” De gør. I afgrænsede kontekster leverer de målbar effekt – kortere sagsbehandlingstid, lavere fejlrate, mere kapacitet per medarbejder.
Spørgsmålet er: “Kan vores agenter faktisk arbejde?”
Og der er svaret ofte nej – ikke fordi teknologien er dårlig, men fordi organisationens data og systemer er bygget til at holde hinanden ude.
Vendorerne bygger mure, ikke broer
CIO.com citerer Nancy Gohring fra IDC: API’erne fra én vendors kundeserviceplatform fungerer ikke med en anden vendors e-handelsløsning. Vendorerne vil beholde kunderne inden for deres eget økosystem. Det er ikke en teknisk begrænsning – det er en forretningsbeslutning.
Salesforce Agentforce, Microsoft Copilot, ServiceNow-agenter. Tre platforme, tre lukkede miljøer. Hver agent er dygtig inden for sin platform. Ingen af dem ved hvad de andre gør.
Marc Benioff indrømmede det indirekte i et interview: “The speed of innovation is outstripping customer adoption. These customers have to go back and modify massive architectures they have and systems they’re running.”
Det er en høflig måde at sige det på. Den lidt mere direkte version: vi sælger agenter til organisationer der endnu ikke har lagt det fundament der gør agenter nyttige.
Den fejl vi har lavet før
Det er ikke første gang vi er her.
Da ERP-systemerne kom i 90’erne, løftede mange virksomheder sine siloer direkte over i et nyt system og kaldte det transformation. Resultatet var et nyt silo-system der kostede mere at vedligeholde. Da cloud kom, kopierede mange deres on-premises arkitektur til Azure eller AWS og undrede sig over at det ikke blev billigere.
Ny teknologi ovenpå gammel arkitektur ændrer ikke noget fundamentalt.
AI-agenter er ved at gentage mønsteret. Virksomheder implementerer agenter oven på de eksisterende systemer – CRM’et der ikke taler med ERP’et, der ikke taler med ticketing-systemet – og undrer sig over at agenterne skaber mere forvirring end klarhed.
Selvfølgelig gør de det. De kæmper med de samme dataproblemer som medarbejderne gør.
Det CIO’en burde spørge om
Ikke: “Skal vi investere i AI-agenter?”
Men: “Har vi de datastrukturer der gør det muligt for agenter at virke på tværs af vores organisation?”
Det er spørgsmålet der afslører om man er klar. Og svaret kræver ikke en ny vendor – det kræver et kig ind ad: Hvor ligger vores data? Hvem ejer dem? Kan et system læse hvad et andet ved?
Organisationer der svarer “det ved vi ikke” på de spørgsmål, vil få lidt ud af AI-agenter uanset hvilken platform de vælger.
Hvad det betyder i praksis
Det er ikke en opfordring til at vente. Det er en opfordring til at bygge rigtigt.
Virksomheder der lykkes med AI-agenter starter ikke med at vælge en vendor. De starter med at kortlægge dataflows: hvad ved systemerne, hvad deler de, og hvad mangler for at en agent kan handle på tværs.
Det er kedeligt arbejde. Det er også det eneste der virker.
Skeptikerne har ret i observationen: mange AI-agenter leverer ikke det lovede. De tager fejl i diagnosen: problemet er sjældent teknologien. Det er de siloer vi har bygget op over årtier og nu forsøger at lægge et lag AI oven på.
En agent er kun så god som de data den har adgang til. Og data der bor i lukkede systemer hjælper ingen agenter.