Data & AI governance
Senest opdateret 27.06.2024

Data & AI governance

Kunstig intelligens er et område i hurtig udvikling, men i et voksende og innovativt felt, er sikkerhedsbetragtninger ikke altid første prioritet. Der kan derfor opstå et hul imellem den nye teknologi på den ene side og love, regulering og sikkerhed på den anden.

Opsummering

Kunstig intelligens er i høj grad baseret på data og det er derfor afgørende for løsninger som er bygget på kunstig intelligens, at datagrundlaget er troværdigt, tilgængeligt og at følsom information ikke lækkes til uvedkommende.  

Det overordnede mål for dette aktivitetsområde er derfor at arbejde med datasikkerhed, med henblik på at højne sikkerhedsniveauet i virksomheders arbejde med følsomme data, og i forlængelse heraf, virksomhedernes arbejde med data som input til kunstig intelligens bl.a. dataadgang og anonymisering. Disse aktiviteter relaterer sig direkte til udviklingen af ansvarlige løsninger, som indgår i det overordnede indsatsområdes målsætning. 

Aktiviteterne omkring datasikkerhed vil fokusere på flere aspekter 

- Organisatorisk datasikkerhed, også benævnt data governance 
- Kryptografiske tiltag til beskyttelse, præcision, pålidelighed, tillid og distribution af følsomme data, og herunder data til brug i kunstig intelligens. 
- Tekniske løsninger til tillid i kunstig intelligens 

Data governance er de processer og regler som bruges til at håndtere og administrere data på en forsvarlig måde. Effektiv data governance en udfordring, fordi governance forudsætter at virksomheden bestrider flere discipliner som hurtigt kan blive resursekrævende.  

Sikkerheden omkring kunstig intelligens er udfordret af en kombination af utilstrækkelig regulering og et hurtigt udviklende marked. Dette skaber et behov for at have et skærpet fokus på hvordan datasikkerhed skal gribes an, så virksomheder får de fornødne redskaber til at drive data governance på en effektiv måde, uden at gå på kompromis med konkurrencedygtighed. 

Foruden de organisatoriske udfordringer, er det vigtigt at finde gode teknologiske løsninger der muliggør anvendelsen og distribution af følsomme data, uden at gå på kompromis med hverken personers privatliv eller proprietærer rettigheder. Det er desuden vigtigt at værdien af data bevares, også hvis de anonymiseres eller beskyttes på en anden tekniskmåde: Data kan og skal bruges som input til modeller for på den måde at kunne bruges til at generere information til at træffe beslutninger. Men når data processeres, kan det også risikere at blive misbrugt, eller at afgive unødvendigt meget information.  

Et centralt element i aktiviteten vil være at etablere og udføre cases, der kan demonstrere ovenstående. Konkret bidrages der til de overordnede mål-indikatorer med et eller flere caseforløb sammen med virksomheder, videreudvikling af teknologisk service indenfor AI, kompetenceopbygning, udbygning af samarbejde med videnspartnere, samt videnspredning af resultater til dansk erhvervsliv og andre interesserede i form af eksempelvis indlæg på konferencer, webinarer, formidlingsrapporter, artikler, m.v. 

I forlængelse af indsatsen for at fremme AI- og datasikkerhed, er det afgørende at adressere tillidsaspektet i udviklingen af maskinlæringsmodeller. Tillid i maskinlæring er fundamentalt for at sikre, at modellerne ikke blot er præcise, men også troværdige og transparente i deres beslutningsprocesser. Dette er særligt relevant i konteksten af sprogmodeller, hvor faktuel korrekthed og forståelse af nuancer i sproget er afgørende. 

For at opnå dette, skal tekniske løsninger udvikles, der kan integrere og validere faktuelle data i træningsprocessen af maskinlæringsmodeller. Dette indebærer udvikling af metoder til at verificere og korrigere information, som modellerne genererer, og sikre, at de ikke reproducerer eller forstærker fejlagtige data. En sådan tilgang vil ikke alene forbedre modellernes præcision, men også deres pålidelighed og dermed brugernes tillid til disse systemer. 

Det er essentielt, at disse tekniske løsninger er designet til at være interoperable og kan integreres i eksisterende og fremtidige sprogmodeller. Dette vil muliggøre en bredere anvendelse og sikre, at tillid og faktuel korrekthed bliver en integreret del af maskinlæringsmodeller på tværs af sprog og anvendelsesområder. 

I sidste ende vil fokus på tekniske løsninger for tillid i maskinlæringsmodeller bidrage til at styrke Danmarks position inden for udvikling af ansvarlige AI-systemer, og understøtte et sikrere og mere pålideligt digitalt økosystem.
Læs mere

Download
aktivitetsbeskrivelse

Opsummering

Kunstig intelligens er i høj grad baseret på data og det er derfor afgørende for løsninger som er bygget på kunstig intelligens, at datagrundlaget er troværdigt, tilgængeligt og at følsom information ikke lækkes til uvedkommende.  

Det overordnede mål for dette aktivitetsområde er derfor at arbejde med datasikkerhed, med henblik på at højne sikkerhedsniveauet i virksomheders arbejde med følsomme data, og i forlængelse heraf, virksomhedernes arbejde med data som input til kunstig intelligens bl.a. dataadgang og anonymisering. Disse aktiviteter relaterer sig direkte til udviklingen af ansvarlige løsninger, som indgår i det overordnede indsatsområdes målsætning. 

Aktiviteterne omkring datasikkerhed vil fokusere på flere aspekter 

- Organisatorisk datasikkerhed, også benævnt data governance 
- Kryptografiske tiltag til beskyttelse, præcision, pålidelighed, tillid og distribution af følsomme data, og herunder data til brug i kunstig intelligens. 
- Tekniske løsninger til tillid i kunstig intelligens 

Data governance er de processer og regler som bruges til at håndtere og administrere data på en forsvarlig måde. Effektiv data governance en udfordring, fordi governance forudsætter at virksomheden bestrider flere discipliner som hurtigt kan blive resursekrævende.  

Sikkerheden omkring kunstig intelligens er udfordret af en kombination af utilstrækkelig regulering og et hurtigt udviklende marked. Dette skaber et behov for at have et skærpet fokus på hvordan datasikkerhed skal gribes an, så virksomheder får de fornødne redskaber til at drive data governance på en effektiv måde, uden at gå på kompromis med konkurrencedygtighed. 

Foruden de organisatoriske udfordringer, er det vigtigt at finde gode teknologiske løsninger der muliggør anvendelsen og distribution af følsomme data, uden at gå på kompromis med hverken personers privatliv eller proprietærer rettigheder. Det er desuden vigtigt at værdien af data bevares, også hvis de anonymiseres eller beskyttes på en anden tekniskmåde: Data kan og skal bruges som input til modeller for på den måde at kunne bruges til at generere information til at træffe beslutninger. Men når data processeres, kan det også risikere at blive misbrugt, eller at afgive unødvendigt meget information.  

Et centralt element i aktiviteten vil være at etablere og udføre cases, der kan demonstrere ovenstående. Konkret bidrages der til de overordnede mål-indikatorer med et eller flere caseforløb sammen med virksomheder, videreudvikling af teknologisk service indenfor AI, kompetenceopbygning, udbygning af samarbejde med videnspartnere, samt videnspredning af resultater til dansk erhvervsliv og andre interesserede i form af eksempelvis indlæg på konferencer, webinarer, formidlingsrapporter, artikler, m.v. 

I forlængelse af indsatsen for at fremme AI- og datasikkerhed, er det afgørende at adressere tillidsaspektet i udviklingen af maskinlæringsmodeller. Tillid i maskinlæring er fundamentalt for at sikre, at modellerne ikke blot er præcise, men også troværdige og transparente i deres beslutningsprocesser. Dette er særligt relevant i konteksten af sprogmodeller, hvor faktuel korrekthed og forståelse af nuancer i sproget er afgørende. 

For at opnå dette, skal tekniske løsninger udvikles, der kan integrere og validere faktuelle data i træningsprocessen af maskinlæringsmodeller. Dette indebærer udvikling af metoder til at verificere og korrigere information, som modellerne genererer, og sikre, at de ikke reproducerer eller forstærker fejlagtige data. En sådan tilgang vil ikke alene forbedre modellernes præcision, men også deres pålidelighed og dermed brugernes tillid til disse systemer. 

Det er essentielt, at disse tekniske løsninger er designet til at være interoperable og kan integreres i eksisterende og fremtidige sprogmodeller. Dette vil muliggøre en bredere anvendelse og sikre, at tillid og faktuel korrekthed bliver en integreret del af maskinlæringsmodeller på tværs af sprog og anvendelsesområder. 

I sidste ende vil fokus på tekniske løsninger for tillid i maskinlæringsmodeller bidrage til at styrke Danmarks position inden for udvikling af ansvarlige AI-systemer, og understøtte et sikrere og mere pålideligt digitalt økosystem.
Læs mere
Kontaktpersoner
KristianKramer_Press
Kristian Krämer
Head of Strategic Business & Governance

GTS Login

Log ind som GTS bruger for at administrere dine indsatsområder og aktiviteter.

E-mail *
Password *