Brug AI ansvarligt
Læs, hvordan du og dine medarbejdere undgår at bryde etiske og lovmæssige grænser, når I arbejder med AI.
Det regulatoriske landskab
Du er også underlagt love og regler, når du arbejder med AI.
På grund af GDPR må du fx ikke behandle persondata i et AI-værktøj uden at have det rette juridiske grundlag.
EU har også vedtaget en AI-forordning (AI Act), der indfases over de kommende år. Der er en risikobaseret tilgang i forordningen. Det betyder, at kravene stiger i takt med den potentielle risiko ved anvendelse af AI.
Som leder er det vigtigt at forstå, at ansvaret for AI-anvendelse altid ligger hos mennesker – ikke hos teknologien selv. Du skal arbejde med et princip om 'human in the loop', hvor mennesker altid samarbejder med eller validerer output fra AI. Det sikrer en sund tilgang til både at sikre kvalitet og etik i jeres anvendelse af AI.
Her bliver du klædt på til at bruge AI ansvarligt.
AI i hverdagen
Beskyt persondata og fortrolige oplysninger
Sørg for at du og dine kolleger aldrig deler personfølsomme oplysninger (navne, CPR-numre, adresser, helbredsoplysninger) eller fortrolige virksomhedsdata med offentligt tilgængelige AI-værktøjer. Overvej at implementere klare vejledninger til, hvordan data skal anonymiseres, før de bruges i AI-værktøjer.
Etablér klare retningslinjer
Som leder bør du udvikle og kommunikere tydelige retningslinjer for AI-anvendelse i din afdeling eller organisation. Disse bør omfatte:
- hvilke AI-værktøjer, der er godkendt til brug (og hvordan medarbejderen kan indhente godkendelse til at bruge et andet)
- hvilke typer data, der må deles med AI-værktøjer
- hvornår og hvordan output fra AI skal verificeres
- hvem der har ansvaret for AI-genererede resultater.
Afklar om prompts anses som personlige
Er medarbejdernes prompts og interaktioner med AI-værktøjer personlige, eller kan virksomhedens ledelse få indsigt i dem? Det er et vigtigt spørgsmål at afklare og kommunikere til medarbejderne.
Vær opmærksom på medarbejderovervågning
Nogle AI-værktøjer kan indsamle data om medarbejdernes arbejdsmønstre. Som leder skal du have styr på, hvilke data der indsamles, og hvordan de bruges. Vær transparent over for medarbejderne om dette.
AI i møder og kommunikation
Når I bruger AI-assistenter til at tage referater eller håndtere e-mails, skal I være opmærksomme på, hvornår det er passende at slå disse funktioner til og fra. Overvej at udvikle protokoller for, hvornår AI-assistenter ikke bør være aktive – fx ved fortrolige møder eller følsomme diskussioner om eksempelvis personsager.
Kvalitetskontrol er afgørende
Husk at ansvaret for beslutninger altid hviler på dig og dine medarbejdere – ikke på AI-værktøjet. Implementér rutiner for kvalitetskontrol og validering af AI-genereret output.
Særligt for offentligt ansatte
Udover ovenstående skal du være opmærksom på, at eksisterende lovgivning som Forvaltningsloven og Offentlighedsloven stadig gælder. Det betyder fx, at du ikke må bruge AI-værktøjer som eneste beslutningsgrundlag i din sagsbehandling og, at du har pligt til at journalisere relevant brug af AI i beslutningsprocesser.
Indkøb og implementering af AI
Due diligence ved indkøb
Før I indkøber en AI-løsning, bør I gennemføre en grundig vurdering af leverandøren og løsningen:
- Lever leverandøren op til relevant lovgivning?
- Hvordan håndterer løsningen data og, hvor opbevares den?
- Hvilke sikkerhedsforanstaltninger er implementeret?
- Hvordan dokumenteres AI-systemets beslutningsprocesser?
Risikovurdering
Gennemfør en risiko- og konsekvensanalyse af den påtænkte AI-anvendelse:
- Hvilken risikokategori falder løsningen ind under ifølge AI Act?
- Berører løsningen persondata eller kritiske beslutningsprocesser?
- Hvilke potentielle negative konsekvenser kan der være ved fejl?
Implementeringsplan med mennesket i centrum
Udvikl en implementeringsplan, der sikrer:
- uddannelse af alle medarbejdere, der skal anvende AI-løsningen
- klare procedurer for menneskelig kontrol og oversight
- transparens for alle berørte parter om, hvordan AI-systemet fungerer
- regelmæssig evaluering af systemets effektivitet og konsekvenser.
Datadeling med leverandører
Vær opmærksom på, hvilke data I deler med leverandører af AI-løsninger, og hvordan disse data bruges – både til levering af tjenesten og potentielt til træning af fremtidige modeller.
Udvikling af jeres egne AI-løsninger
Dokumentation af hele processen
Sørg for grundig dokumentation af:
- datakilder og træningsdata
- modelarkitektur og beslutningslogik
- testresultater og præcisionsmetrikker
- potentielle bias og hvordan disse er håndteret.
Compliance by design
Integrer compliance i selve udviklingsprocessen:
- Implementér privacy by design principper (integrer databeskyttelse fra projektets start ved at minimere datamængden og bygge sikkerhedsforanstaltninger direkte ind i systemet).
- Sørg for at systemet kan forklare sine resultater (explainability).
- Byg mekanismer til menneskelig kontrol ind i systemet.
- Etablér procedurer for regelmæssig audit og evaluering.
Etiske overvejelser
Nedsæt eventuelt et etisk udvalg, der kan vurdere:
- om systemet potentielt kan skade eller diskriminere
- om systemet respekterer brugerautonomi og privatliv
- om der er transparens omkring systemets funktion for alle berørte parter.
Hvad er tilladt, og hvad er forbudt?
Grønne anvendelser (lav risiko)
- Automatisering af rutineopgaver uden persondata.
- AI-assisteret tekstforfatning og opsummering af offentligt tilgængelige dokumenter.
- Optimering af interne processer uden direkte påvirkning af kunder/borgere.
Eksempel: I vælger at bruge AI (fx ChatGPT) til at omskrive indholdet på jeres hjemmeside.
Gule anvendelser (moderat risiko – kræver omtanke)
- AI-baserede rekrutteringsværktøjer, der screener ansøgninger.
- Kundeservice-chatbots med adgang til kundedata.
- Beslutningsstøtteværktøjer, hvor mennesker træffer den endelige beslutning.
Eksempel: AI der foreslår kandidater til jobsamtaler baseret på CV-analyse.
Røde anvendelser (høj risiko eller forbudt)
- Fuldautomatiseret beslutningstagning om mennesker uden menneskelig kontrol.
- Systemer til social scoring af medarbejdere eller kunder.
- Biometrisk identifikation i offentlige rum uden særligt lovgrundlag.
Eksempel: AI-system der automatisk afviser låneansøgninger uden menneskelig vurdering.
Vurdering af dit AI-projekt
I hvor høj grad påvirker systemet mennesker direkte?
Lav: Ingen direkte påvirkning af vigtige beslutninger.
Middel: Understøtter beslutninger, men med menneskelig kontrol.
Høj: Træffer eller påvirker væsentligt beslutninger om mennesker.
Hvor følsomme er de data, systemet behandler?
Lav: Ingen persondata eller kun anonymiserede data.
Middel: Almindelige personoplysninger.
Høj: Følsomme personoplysninger (helbred, økonomi, etc.).
Eksempler på vurdering:
Projekt Påvirkning Datafølsomhed Risikoniveau AI-assisteret tekstforfatning til interne dokumenter Lav Lav Lav Chatbot til kundeservice med adgang til kundehistorik Middel Middel Middel AI-screening af jobansøgninger Høj Middel Høj Automatiseret kreditvurderingssystem Høj Høj Meget høj