Data-risiko
Medarbejdere kopierer kundedata ind i chatbots uden at vide det er et problem.
42% af danske virksomheder bruger allerede AI — men de færreste har en politik. I denne øvelse bygger du din egen.
De fleste medarbejdere bruger allerede AI — men uden retningslinjer risikerer I datalæk, compliance-brud og tab af tillid.
Medarbejdere kopierer kundedata ind i chatbots uden at vide det er et problem.
Siden feb 2025 SKAL alle med AI sikre medarbejder-kompetencer (art. 4).
AI sidder allerede i CRM, HR-værktøjer og regnskabssystemer — ofte uden I ved det.
Kilder: Eurostat 2025, EU AI Act art. 4 & 99, Elevai.dk marts 2026
En AI-politik behøver ikke være 50 sider. Start med disse fem byggeblokke:
Hvilke AI-værktøjer må bruges? Til hvad? Hvem godkender nye?
Hvad må IKKE deles med AI? (persondata, forretningshemmeligheder, kundedata)
Hvem ejer politikken? Hvem træner medarbejderne? Hvem reagerer ved brud?
Human-in-the-loop: AI-output SKAL faktatjekkes. Hvornår kræves godkendelse?
Politikken skal revideres mindst hvert halvår. AI-landskabet ændrer sig hurtigt.
Baseret på: Leapsome AI Policy Template 2026, OneTrust Responsible AI Guide, HR Cloud AI Tool Usage Policy
Udfyld skabelonen: Brug de 5 elementer fra forrige slide. Udfyld for din egen virksomhed/afdeling.
Leverance: 1-sides AI-politik udkast
Tid: 20 minutter
Gap-analyse: Beskriv hvad din virksomhed gør i dag → sammenlign med best practices → identificér de 3 vigtigste huller.
Leverance: Gap-liste + prioriteret handlingsplan
Tid: 35 minutter
Strategisk design: Lav en AI-politik fra bunden. Inkludér stakeholder-analyse, implementeringsplan og forankring i EU AI Act.
Leverance: Politik + implementeringsplan + KPI'er
Tid: 50 minutter
Brug AI aktivt i øvelsen — se næste slide for prompts. Alle værktøjer: ChatGPT · Claude · Gemini
Kilder: Elevai.dk, SkrivSikkert.dk, Leapsome, OneTrust, Promentek.dk — alle marts 2026
Tip: Brug 5 min alene → 5 min i par → 5 min fælles opsamling