Få hjælp til AI transformation med strategi, AI Act, ISO42001, governance og sikker implementering. Book en uforpligtende samtale.
Forside / AI transformation
Kunstig intelligens er ikke længere et eksperiment for enkelte AI-entusiaster. AI påvirker allerede data, processer, beslutningsstøtte, leverandører, medarbejdere og ledelsesansvar. Derfor kræver AI transformation mere end valg af et værktøj. Det kræver en struktureret tilgang, hvor forretningsværdi, sikkerhed, compliance og forankring i organisationen tænkes sammen fra start.
Leave a Mark Consulting Group hjælper virksomheder med at omsætte AI fra idé til kontrolleret drift. Vi kombinerer management consulting, cybersikkerhed, compliance og praktisk implementering, så AI kan skabe målbar værdi uden at øge risikoen unødigt.
Mange virksomheder er allerede i gang med AI. Medarbejdere tester generative AI-værktøjer, ledelsen ser potentiale for effektivisering, og forretningen efterspørger hurtigere adgang til data, automatisering og bedre beslutningsgrundlag.
Udfordringen opstår, når AI tages i brug uden fælles retning. Hvem må bruge hvilke værktøjer? Hvilke data må indgå? Hvordan vurderes risikoen? Hvem ejer løsningen? Hvordan dokumenteres beslutninger? Og hvordan sikrer virksomheden, at AI anvendes i overensstemmelse med AI Act, GDPR, ISO27001, NIS2 eller DORA?
AI transformation er processen, hvor virksomheden går fra spredt brug af AI til en kontrolleret, værdiskabende og dokumenterbar anvendelse af kunstig intelligens.
Det handler om at skabe:
AI påvirker mere end IT-afdelingen. Når AI bruges til automatisering, beslutningsstøtte, kundedialog, rekruttering, sagsbehandling, udvikling eller drift, bliver det et ledelsesansvar.
Uden en klar styringsmodel risikerer virksomheden skygge-AI, uklar databehandling, manglende dokumentation, uens praksis på tværs af afdelinger og løsninger, der ikke kan auditeres. Det kan skabe både regulatoriske, sikkerhedsmæssige og kommercielle risici.
Med en struktureret AI transformation får ledelsen et bedre beslutningsgrundlag. Risici, muligheder og ansvar bliver tydelige, og organisationen kan prioritere de AI-initiativer, der reelt skaber værdi.
EU’s AI Act er trådt i kraft og indfases trinvist. Forbudte AI-praksisser og krav om AI-literacy gælder fra 2. februar 2025. Regler for general-purpose AI og governance gælder fra 2. august 2025. De fleste regler i AI Act, herunder mange krav til high-risk AI-systemer, træder i anvendelse fra 2. august 2026, mens AI-systemer indbygget i visse regulerede produkter har overgang til 2. august 2027.
For virksomheder betyder det, at AI ikke kan behandles som et uformelt teknologivalg. AI-systemer skal vurderes ud fra formål, risiko, rolle og anvendelse. Det gælder både for virksomheder, der udvikler AI-løsninger, og for virksomheder, der anvender AI-systemer som deployers.
AI Act stiller blandt andet krav til:
Bødeniveauerne i AI Act kan være betydelige. Ved de groveste overtrædelser opererer forordningen med niveauer på op til 35 mio. euro eller 7 % af global årlig omsætning, afhængigt af overtrædelsens karakter og virksomhedens størrelse.
Derfor bør AI Act ikke håndteres som et juridisk tillæg til sidst. Kravene bør indarbejdes i AI-strategi, use case-udvælgelse, datagrundlag, leverandørstyring og drift fra begyndelsen.
EU-Kommissionen har fremsat et Digital Omnibus-forslag, som kan påvirke tidslinjen for visse high-risk AI-krav. Forslaget hænger blandt andet sammen med forsinkede harmoniserede standarder og behovet for mere praktisk vejledning til virksomheder.
Det ændrer ikke den praktiske anbefaling: virksomheder bør allerede nu kortlægge deres AI-brug, klassificere AI-systemer, etablere ansvar, sikre datagrundlag, opbygge AI-literacy og forberede dokumentation. De organisationer, der starter tidligt, får bedre kontrol, lavere implementeringspres og et mere robust grundlag for skalering.
ISO/IEC 42001 er den internationale ledelsesstandard for AI management systems. Standarden beskriver krav til at etablere, implementere, vedligeholde og løbende forbedre et ledelsessystem for kunstig intelligens. Den er relevant for organisationer, der udvikler, leverer eller anvender AI-baserede produkter og services.
ISO42001 giver virksomheden en praktisk ramme for at styre AI systematisk. Standarden hjælper med at skabe struktur omkring politikker, roller, risikovurderinger, AI impact assessments, dokumentation, kompetencer, drift, audit og løbende forbedring.
For virksomheder, der allerede arbejder med ISO27001/ISO27701, er ISO42001 et naturligt næste skridt. Hvor ISO27001 styrker informationssikkerheden, og ISO27701 understøtter privatlivsbeskyttelse og GDPR, skaber ISO42001 et styringslag specifikt for ansvarlig AI.
Leave a Mark hjælper jer med at gøre AI transformation praktisk, risikobaseret og forankret i virksomheden. Vi kan bistå med hele processen eller indgå på udvalgte områder, hvor I har behov for specialistviden.
Vi starter med at skabe overblik. Hvilke AI-værktøjer anvendes allerede? Hvilke use cases er relevante? Hvilke data indgår? Hvor ligger de største gevinster? Og hvilke risici skal håndteres, før løsningerne kan skaleres?
Resultatet er et klart billede af jeres organisation og en prioriteret liste over næste skridt.
AI skal skabe forretningsværdi. Derfor hjælper vi med at identificere og prioritere de AI-initiativer, der kan forbedre processer, styrke kvalitet, reducere manuelt arbejde, øge kundeværdi eller understøtte bedre beslutninger.
Vi vurderer use cases ud fra værdi, kompleksitet, datatilgængelighed, risiko, compliance og implementeringsbarhed.
Ansvarlig AI kræver klare rammer. Vi hjælper med at etablere en governance-model, der definerer roller, ansvar, beslutningsfora, godkendelsesprocesser, AI-politikker og krav til dokumentation.
Det giver ledelsen bedre kontrol og gør det lettere for medarbejdere at anvende AI sikkert og korrekt.
Vi hjælper med at vurdere jeres AI-systemer og use cases i forhold til AI Act. Det omfatter blandt andet rolleafklaring, risikoklassificering, vurdering af high-risk scenarier, krav til transparens, dokumentation, menneskeligt tilsyn og AI-literacy.
Vi kan hjælpe med at etablere et AI management system baseret på ISO/IEC 42001. Det kan være som fuld implementering, gap-analyse, ledelsesrapportering, politikpakke eller løbende vedligeholdelse.
Målet er ikke kun at opfylde krav. Målet er at skabe en styringsramme, som fungerer i praksis og kan dokumenteres over for ledelse, kunder, samarbejdspartnere, revisorer og myndigheder.
AI transformation lykkes først, når løsningen er forankret i hverdagen. Vi hjælper med implementering, valg af værktøjer, sikkerhedsmodel, medarbejdertræning og ændring af arbejdsgange.
Læs mere om vores arbejde med implementering af AI.
AI-løsninger står sjældent alene. De bygger på data, cloud-platforme, integrationer, leverandører, kontrakter, adgangsstyring og eksisterende forretningsprocesser. Derfor bør AI transformation kobles til virksomhedens øvrige arbejde med informationssikkerhed, compliance og risikostyring.
For virksomheder omfattet af NIS2 er AI relevant i relation til cybersikkerhed, risikostyring, hændelseshåndtering, leverandørstyring og ledelsesansvar. I Danmark trådte NIS2-loven i kraft 1. juli 2025 og introducerer blandt andet krav til registrering, ledelse, hændelsesrapportering og cybersikkerhedsforanstaltninger for omfattede enheder.
For finansielle virksomheder skal AI transformation ses i sammenhæng med DORA, som gælder fra 17. januar 2025 og stiller krav til digital operationel robusthed, ICT-risikostyring og håndtering af tredjepartsrisici.
For virksomheder, der håndterer personoplysninger, skal AI også vurderes i forhold til GDPR, privacy by design, dataminimering, formålsbegrænsning og dokumentation. Her kan ISO27001/ISO27701 skabe et stærkt fundament.
AI transformation bør derfor ikke placeres i en isoleret AI-silo. Den bør integreres med informationssikkerhed, databeskyttelse, leverandørstyring, beredskab, digital transformation og management consulting.
Med Leave a Mark får I ikke kun én konsulent. I får adgang til et samlet specialistmiljø inden for cybersikkerhed, compliance, risikostyring, ISO-standarder, NIS2, DORA, GDPR og AI governance. Leave a Mark positionerer sig som et team af faste specialister frem for bodyshopping, og virksomheden er selv certificeret i ISO/IEC 27001, ISO/IEC 27701 og D-Mærket.
Det giver en praktisk fordel i AI transformation: jeres AI-strategi bliver ikke kun teknisk. Den bliver forankret i ledelse, risikostyring, sikkerhed, dokumentation og løbende compliance.
Vi hjælper jer med at skabe overblik, prioritere rigtigt og implementere AI på en måde, der kan bruges i hverdagen.
AI transformation er arbejdet med at indføre kunstig intelligens i virksomheden på en struktureret, sikker og værdiskabende måde. Det omfatter strategi, use cases, data, teknologi, governance, compliance, medarbejdertræning og løbende drift.
AI Act betyder, at virksomheder skal forholde sig mere systematisk til deres brug af AI. Det gælder blandt andet risikoklassificering, dokumentation, transparens, menneskeligt tilsyn, AI-literacy og styring af high-risk AI-systemer. Kravene afhænger af, hvilken rolle virksomheden har, og hvordan AI-systemet anvendes.
ISO/IEC 42001 er ikke i sig selv et lovkrav, men standarden giver en stærk ramme for ansvarlig AI governance. Den kan hjælpe virksomheden med at dokumentere styring, risikovurdering, roller, politikker og løbende forbedring af AI-anvendelsen.
ISO27001 styrer informationssikkerhed. AI transformation bygger ofte på data, systemer, adgangsstyring, cloud og leverandører, som allerede er centrale i ISO27001. Derfor er ISO27001 et stærkt fundament for ansvarlig AI, mens ISO42001 udvider styringen til AI-specifikke risici og muligheder.
Ja, men det kræver klare rammer. Virksomheden bør definere, hvilke data medarbejdere må bruge, hvilke værktøjer der er godkendt, hvordan output skal kontrolleres, hvem der har ansvar, og hvordan anvendelsen dokumenteres. Det bør understøttes af AI-politikker, træning og tekniske sikkerhedsforanstaltninger.
Det bedste første skridt er en AI-afklaring. Her kortlægges nuværende AI-brug, relevante use cases, datagrundlag, risici, compliancekrav og organisatorisk modenhed. På den baggrund kan virksomheden prioritere en realistisk og risikobaseret AI roadmap.
AI bør have tydelig ledelsesforankring. Ejerskabet kan ligge hos direktion, digitalisering, IT, compliance eller forretningen, men ansvaret bør være tværgående. AI påvirker både strategi, drift, data, sikkerhed, jura og medarbejdere.