10 min read

Hvad er den sorte boks? Datatilsynets AI-advarsel

I 2024 tog Datatilsynet en usædvanlig beslutning: De slukkede for Microsoft Copilot i deres egne systemer. Årsagen? De kunne ikke finde en måde at bruge det lovligt på, fordi det var umuligt at gennemskue, hvad der sker med data.

Denne beslutning satte spot på et voksende problem for danske organisationer, der vil implementere AI: "sorte bokse" – AI-systemer så uigennemsigtige, at selv Datatilsynet ikke kan verificere, om de overholder GDPR.

Hvis Danmarks førende databeskyttelsesmyndighed ikke kan gennemskue, hvordan Microsoft Copilot behandler data, hvordan skal I så kunne gennemføre den lovpligtige konsekvensanalyse (DPIA), før I implementerer cloud AI i jeres organisation?

Hvad mener Datatilsynet med "sorte bokse" i AI?

Når Datatilsynet advarer mod "sorte bokse", taler de om AI-systemer, hvor det er umuligt eller ekstremt vanskeligt at gennemskue:

  • Hvor jeres data egentlig behandles (hvilke servere, i hvilke lande)
  • Hvordan AI-modellen træffer beslutninger (hvilke algoritmer, hvilke data påvirker output)
  • Om jeres data bruges til at træne modellen (bliver jeres forretningshemmeligheder en del af AI'en?)
  • Hvem der reelt har adgang til data (underleverandører, tredjeparter)

Tre lag af uigennemsigtighed

Cloud AI-løsninger som Microsoft Copilot, ChatGPT Enterprise og andre skaber et problem med flere lag:

1. Databehandlings-uigennemsigtighed: Hvor sendes jeres data hen, når I skriver en prompt? Mange cloud AI-tjenester bruger servere i flere lande, men dokumentationen er ofte vag eller ændres med kort varsel.

2. Model-beslutnings-uigennemsigtighed: Hvordan kommer AI'en frem til sit svar? Hvilke træningsdata ligger til grund? Kan I forklare en borger eller kunde, hvorfor AI'en anbefalede en bestemt beslutning?

3. Træningsdata-uigennemsigtighed: Bliver jeres input en del af AI-leverandørens træningsdata? Mange cloud AI-tjenester forbeholder sig retten til at bruge kundedata til "forbedring af tjenesten" – hvilket kan betyde, at jeres fortrolige information bliver en del af modellen.

Det unikke problem: Selv når leverandører tilbyder "enterprise"-aftaler med databeskyttelsesgarantier, er den tekniske implementering ofte så kompleks og skiftende, at det i praksis er umuligt at verificere overholdelse.

Datatilsynets konkrete advarsler til danske organisationer

Datatilsynet har været klare i deres kommunikation om AI-risici siden oktober 2023, da de udgav vejledningen "Offentlige myndigheders brug af kunstig intelligens - Inden I går i gang".

Microsoft Copilot-eksemplet: Når selv Datatilsynet siger nej

Det mest slående eksempel på "sort boks"-problemet er Datatilsynets egen håndtering af Microsoft Copilot.

I 2024 besluttede Datatilsynet at deaktivere Microsoft Copilot i deres egne systemer, fordi de – trods grundige forsøg – ikke kunne sikre sig, at værktøjet overholdt GDPR. Konkret kunne de ikke:

  • Verificere præcis, hvor data blev behandlet
  • Gennemskue, om data blev brugt til træning af Microsofts modeller
  • Gennemføre en fyldestgørende konsekvensanalyse (DPIA), som GDPR kræver

Tænk over ironien: Danmarks databeskyttelsesmyndighed, med al deres juridiske og tekniske ekspertise, kunne ikke finde en lovlig måde at bruge Microsoft Copilot på.

Hvis Datatilsynet ikke kan gennemskue det, hvordan skal jeres organisation så kunne det?

Undersøgelse af offentlig sektor: 25% bruger AI, men mange mangler konsekvensanalyser

Datatilsynets kortlægning fra oktober 2023 afslørede, at:

  • 25% af danske offentlige myndigheder allerede bruger AI-løsninger
  • 129 AI-løsninger blev identificeret i den offentlige sektor
  • Mange mangler den lovpligtige konsekvensanalyse (DPIA) før implementering

Datatilsynets klare budskab: I må ikke implementere AI-systemer, der behandler persondata på måder, der kan udgøre høj risiko, uden først at gennemføre en grundig konsekvensanalyse. Og hvis systemet er en "sort boks", bliver den analyse umulig at gennemføre forsvarligt.

Regulatory sandbox og vejledning

For at hjælpe organisationer har Datatilsynet etableret et "regulatory sandbox"-program, hvor virksomheder og myndigheder kan få vejledning om GDPR-compliant AI-implementering. Men selv med denne støtte forbliver problemet: Hvis leverandøren ikke kan give gennemsigtighed, kan ingen konsekvensanalyse redde jer.

Hvorfor er "sorte bokse" et problem for GDPR-compliance?

GDPR stiller konkrete krav, der er vanskelige eller umulige at opfylde med uigennemsigtige cloud AI-systemer.

GDPR Artikel 35: Lovpligtig konsekvensanalyse

Når I implementerer teknologi, der kan udgøre høj risiko for personers rettigheder og frihedsrettigheder, skal I gennemføre en konsekvensanalyse (DPIA - Data Protection Impact Assessment).

AI-systemer, der behandler persondata, falder næsten altid i denne kategori. En gyldig DPIA kræver, at I kan dokumentere:

  • Hvilke data der behandles, og hvordan
  • Hvor data behandles (fysisk lokation)
  • Hvem der har adgang til data
  • Hvilke risici der findes, og hvordan I afbøder dem

Problemet: Med en "sort boks" cloud AI kan I ikke give pålidelige svar på disse spørgsmål. Leverandørens dokumentation er ofte generisk, ændres løbende, og dækker ikke over den faktiske tekniske implementering.

Transparensforpligtelsen: Ret til forklaring

GDPR's Artikel 13-15 kræver, at I kan forklare borgere og kunder, hvordan deres data behandles. Artikel 22 giver ret til ikke at blive underlagt automatiske afgørelser uden menneskelig involvering.

I praksis betyder det: Hvis jeres AI anbefaler en afgørelse (fx sagsbehandling, kreditvurdering, HR-beslutning), skal I kunne forklare, hvordan den kom frem til resultatet.

Med cloud AI "sorte bokse" har I sjældent denne indsigt. Modellens beslutningsproces er proprietær, og leverandøren giver ikke fuld transparens om, hvilke faktorer der påvirker output.

Datalokation og kontroltab

Mange cloud AI-tjenester behandler data på servere i flere lande, herunder USA. Efter Schrems II-dommen er dataoverførsler til USA komplekse og risikable.

Problemet: Selv når leverandører lover "EU-databehandling", viser teknisk analyse ofte, at data kan ramme servere uden for EU i visse scenarier. Eller at underleverandører i tredjeparter har adgang.

Med en "sort boks" kan I ikke verificere leverandørens påstande om datalokation.

Træningsdata-bekymringen: Bliver jeres data en del af AI'en?

Et centralt spørgsmål med cloud AI: Bliver jeres input brugt til at træne leverandørens model?

Mange AI-leverandører har "enterprise"-aftaler, der lover ikke at bruge kundedata til træning. Men:

  • Aftalerne ændres ofte (husk OpenAI's flere ændringer til deres terms)
  • Teknisk implementering kan være anderledes end aftalen beskriver
  • Underleverandører kan have andre vilkår

Med en "sort boks" kan I ikke verificere, om jeres data virkelig forbliver isoleret.

Vendor lock-in og manglende exit-strategi

GDPR Artikel 20 giver ret til dataportabilitet. Men med cloud AI "sorte bokse" er det ofte umuligt at:

  • Eksportere alle data, AI har behandlet
  • Migrere til en alternativ løsning uden at miste funktionalitet
  • Sikre, at leverandøren sletter alle jeres data efter aftaleophør

I bliver afhængige af leverandøren – ikke kun teknisk, men også juridisk.

Microsoft Copilot-eksemplet: Når selv Datatilsynet siger nej

Lad os gå dybere i Datatilsynets beslutning om Microsoft Copilot, fordi den illustrerer "sort boks"-problemet perfekt.

Hvad gjorde Copilot uigennemsigtig?

Datatilsynet forsøgte at gennemføre en konsekvensanalyse for Microsoft Copilot. Deres udfordringer inkluderede:

1. Uklarhed om databehandling: Microsoft kunne ikke give klare, verificerbare svar på, hvor præcis data blev behandlet, når medarbejdere brugte Copilot i Office-apps.

2. Skiftende vilkår: Microsofts databeskyttelsesdokumentation ændrede sig løbende, hvilket gjorde det umuligt at basere en DPIA på stabil information.

3. Kompleks underleverandør-struktur: Copilot integrerer flere AI-modeller og tjenester (inkl. OpenAI-komponenter). Hver har egne databehandlingsvilkår.

4. Manglende teknisk transparens: Selv med Microsofts "enterprise"-garanti kunne Datatilsynet ikke verificere de tekniske påstande om datasikkerhed og isolering.

Resultatet: Datatilsynet konkluderede, at de ikke kunne sikre GDPR-compliance og valgte at slukke for funktionen internt.

Hvad betyder det for jeres organisation?

Hvis Datatilsynet – med deres ressourcer, juridiske ekspertise og direkte adgang til Microsoft – ikke kunne få Copilot til at passe ind i GDPR-rammen, så er spørgsmålet:

Hvordan vil I kunne forsvare jeres brug af lignende cloud AI-værktøjer over for Datatilsynet, hvis de kommer på tilsyn?

Svaret er ubehageligt: Det er ekstremt vanskeligt, medmindre I accepterer betydelig juridisk risiko.

Lektioner fra Copilot-casen

1. "Enterprise"-aftaler er ikke nok: Selv store leverandører som Microsoft kan have uigennemsigtige systemer, trods enterprise-løfter.

2. Juridiske garantier ≠ teknisk verifikation: En kontrakt, der lover GDPR-compliance, er værdiløs, hvis I ikke kan verificere det teknisk.

3. Kompleksitet = risiko: Jo mere kompleks leverandørens stack er (Copilot bruger både Microsoft og OpenAI-komponenter), desto vanskeligere bliver transparens.

4. Jeres ansvar forsvinder ikke: Selvom leverandøren lover compliance, er I som dataansvarlig stadig ansvarlige over for Datatilsynet og de registrerede.

Hvem skal være særligt opmærksomme?

"Sort boks"-problemet rammer ikke alle organisationer lige hårt. Men hvis I falder i én af disse kategorier, skal I være ekstra varsomme med cloud AI:

Offentlig sektor

Alle offentlige myndigheder har skærpede krav til transparens og databeskyttelse:

  • Datatilsynet har særligt fokus på AI i offentlig forvaltning
  • Borgernes tillid til myndighederne forudsætter transparens
  • Politiske konsekvenser ved databrud eller ulovlig databehandling er betydelige
  • GDPR-bøder til offentlige myndigheder er reelle (se tidligere afgørelser)

Eksempler: Kommuner, regioner, styrelser, politiet, domstolene.

Sundhedssektoren

Patientdata er særligt beskyttede persondata. GDPR Artikel 9 stiller ekstra strenge krav til behandling af helbredsoplysninger:

  • Cloud AI med patientdata kræver meget omfattende DPIA
  • Risiko for databrud med patientjournaler er ekstremt alvorlig
  • Tillid er fundamentalt i patient-læge-forholdet

Eksempler: Hospitaler, lægepraksis, klinikker, tandlæger, sundhedsteknologi-virksomheder.

Advokat- og finanssektorer

Klientfortrolighed og forretningshemmeligheder er centralt:

  • Advokatvirksomheder har tavshedspligt (advokatetikken)
  • Finansielle virksomheder har sektorspecifikke regler (PSD2, MiFID, anti-hvidvask)
  • Cloud AI kan eksponere fortrolig information til leverandøren

Eksempler: Advokatvirksomheder, revisorer, banker, investeringsselskaber, forsikringsselskaber.

Virksomheder med forretningshemmeligheder

Konkurrencemæssigt følsomme data skal beskyttes:

  • Produktudvikling, R&D, strategiske planer
  • Kundedata, prissætning, forhandlingsstrategier
  • IP, der ikke er patenteret men holdes fortroligt

Problemet: Hvis jeres cloud AI-leverandør (eller deres underleverandører) potentielt kan få adgang til eller træne på jeres data, risikerer I at miste konkurrencefordele.

Eksempler: Produktionsvirksomheder, tech-virksomheder, konsulentvirksomheder med proprietære metoder.

Alle under sektorspecifik regulering

Hvis I er underlagt særlige regler ud over GDPR, skal I være ekstra opmærksomme:

  • NIS2-direktivet for kritisk infrastruktur
  • Finanstilsynets krav til outsourcing og cloud-brug
  • ISO-certificeringer (ISO 27001, ISO 9001) med krav til datalokation
  • Branchespecifikke standarder (f.eks. medicoteknisk regulering)

Cloud AI "sorte bokse" kan være uforenelige med disse regler, selvom GDPR-spørgsmålet isoleret set kunne håndteres.

Tre ting du skal gøre, hvis du overvejer cloud AI

Hvis jeres organisation overvejer at implementere cloud AI-løsninger som Microsoft Copilot, ChatGPT Enterprise eller lignende, her er tre kritiske skridt, I skal tage:

1. Gennemfør en grundig DPIA – før I går i gang

Datatilsynet er klare: Ingen AI-implementering uden konsekvensanalyse først.

Hvad skal en DPIA for cloud AI dække?

  • Identificer datatyper: Hvilke persondata behandles? Er der særlige kategorier (helbredsdata, straffe, børn)?
  • Kortlæg dataflow: Hvor sendes data hen? Hvilke servere, hvilke lande, hvilke underleverandører?
  • Risikovurdering: Hvad kan gå galt? Databrud, uautoriseret adgang, utilsigtet videregivelse til træning?
  • Afbødende tiltag: Hvordan reducerer I risici? Kryptering, adgangsbegrænsning, dataanonymisering?
  • Exit-strategi: Hvordan kommer I ud af aftalen, hvis leverandøren ændrer vilkår eller I vil skifte?

Vær ærlige i DPIA'en: Hvis leverandøren ikke kan give klare svar på, hvor data behandles, eller om de bruges til træning, skal I dokumentere denne uigennemsigtighed som en risiko – og overveje, om risikoen er acceptabel.

2. Stil leverandører de svære spørgsmål – og kræv verificerbare svar

Lad jer ikke nøjes med marketingmateriale eller generiske privacy policies. Stil konkrete, tekniske spørgsmål:

  • Hvor præcis behandles vores data? (Ikke "EU" – hvilke datacentre, i hvilke lande, under hvilke omstændigheder kan data krydse grænser?)
  • Hvem har adgang til vores data? (Leverandørens medarbejdere? Underleverandører? AI-modellen selv til træning?)
  • Hvordan sikrer I, at vores data ikke bruges til træning? (Teknisk implementering, ikke bare kontrakt-løfte)
  • Kan vi auditere jeres systemer? (Får vi adgang til at verificere jeres påstande?)
  • Hvad sker der med vores data, hvis vi opsiger aftalen? (Sletning, portabilitet, verifikation?)

Hvis leverandøren ikke kan give klare, verificerbare svar, har I et "sort boks"-problem.

3. Evaluer lokale og transparente alternativer

Her er de gode nyheder: I behøver ikke vælge mellem AI-innovation og databeskyttelse.

Moderne open source AI-modeller har indhentet cloud-giganterne. Forskningsinstituttet Epoch AI viser, at forskellen mellem de bedste cloud-modeller (som GPT-4) og de bedste open source-modeller nu er omkring tre måneder.

Det betyder, at I kan implementere kraftfuld AI, der kører lokalt på jeres egne servere eller i et dansk datacenter – uden at sende data til en "sort boks" i skyen.

Fordelene ved lokal AI:

  • Fuld transparens: I ved præcis, hvor data er, og hvordan de behandles
  • GDPR-compliance: Lettere at gennemføre gyldig DPIA, når I har fuld kontrol
  • Datasuverænitet: Jeres data forbliver i Danmark, under jeres kontrol
  • Ingen vendor lock-in: I ejer platformen og kan skifte leverandør af support uden at miste løsningen
  • Forudsigelige omkostninger: Ingen uforudsigelige cloud-regninger

Læs mere om hvordan dansk open source AI giver jer fuld kontrol og transparens

Alternativet: Hvordan dansk AI løser "sort boks"-problemet

Datatilsynets advarsel om "sorte bokse" er ikke en barriere for AI-innovation – det er en vejviser. Ved at forstå problemet kan danske organisationer træffe informerede valg og vælge AI-løsninger, der giver både innovation og kontrol.

Lokal open source AI: Transparens indbygget

Løsningen på "sort boks"-problemet er at implementere AI-systemer, hvor I har fuld kontrol og transparens:

Hvad er anderledes:

  • On-premises eller dansk datacenter: AI'en kører på jeres servere eller dedikerede ressourcer i Danmark – data forlader aldrig jeres kontrol
  • Open source-modeller: I bruger modeller som Meta's Llama, Mistral AI eller andre førende open source-alternativer – fuld transparens i modelarkitektur
  • Ingen "sort boks"-træning: Jeres data forbliver jeres – ingen leverandør kan bruge dem til træning
  • Verificerbar compliance: I kan dokumentere overfor Datatilsynet præcis, hvordan systemet fungerer

Resultat: En AI-løsning, der opfylder jeres behov for innovation, samtidig med at I kan gennemføre en gyldig DPIA og sikre GDPR-compliance.

Praktisk implementering med Dansk AI

Dansk AI fra Brokk & Sindre er bygget præcis til at løse dette problem:

  • Komplet platform: Chatbots, automationer, RAG (Retrieval-Augmented Generation) – alt det, cloud-løsninger tilbyder, bare uden "sort boks"
  • Klar fra dag ét: Installeret, konfigureret og klar til brug
  • Fuld kontrol: On-premises i jeres faciliteter eller dedikerede ressourcer i dansk datacenter
  • No-code interface: Medarbejderne kan bygge AI-løsninger uden at kode
  • Ingen flerårige bindinger: Hjælp til selvhjælp – I ejer platformen, vi træner jer til selvstændighed

Det unikke: I får både innovation og kontrol. Ingen kompromis.

Læs Mere om Sikker AI

Denne artikel fokuserer på problemer med lukkede AI-systemer. Vil du vide mere om løsninger og implementering?

Den Overordnede Strategi

Sammenlign Dine Muligheder

Afkræft Sikkerhedsmyter

Implementering i Praksis

Konklusion: Forstå problemet, vælg den sikre vej

Datatilsynets advarsel om "sorte bokse" i AI er velbegrundet. Som Microsoft Copilot-eksemplet viser, kan selv store tech-giganter levere løsninger så uigennemsigtige, at selv Datatilsynet ikke kan sikre GDPR-compliance.

For danske organisationer – særligt i offentlig sektor, sundhed, finans og andre regulerede sektorer – er budskabet klart:

I behøver ikke vælge mellem AI-innovation og databeskyttelse.

Ved at forstå, hvad "sorte bokse" betyder, stille leverandører de rigtige spørgsmål og overveje transparente alternativer som lokal open source AI, kan I implementere kraftfulde AI-løsninger, der både driver værdi og respekterer jeres ansvar over for Datatilsynet og de personer, hvis data I behandler.

De gode nyheder? Open source AI har nu indhentet cloud-giganterne. I kan trygt investere i en lokal, sikker og transparent AI-løsning – og vide, at I har adgang til en teknologi, der forbliver på forkant med udviklingen, mens jeres data forbliver der, hvor de hører hjemme: Hos jer.

Hos Brokk & Sindre hjælper vi danske organisationer med at navigere præcis dette dilemma. Vi specialiserer os i at implementere sikre, lokale AI-platforme baseret på førende open source-teknologi – designet til at møde Datatilsynets krav og give jer fuld kontrol.

Kontakt os for en uforpligtende snak om, hvordan en sikker AI-platform kan løse jeres udfordringer med datasuverænitet og GDPR-compliance – uden at gå på kompromis med innovation.