Ansvarlig udvikling og anvendelse af AI

Senest opdateret d. 22/12-2020
Aktiv
Alexandra Instituttet
Indsatsområdet Digital sikkerhed, tillid og dataetik under temaerne Informations- og Kommunikationsteknologi og Service og offentlig innovation
Henrik Overballe
Senior Project Manager

Målet med aktiviteterne er at skabe grundlag for en kvalificering af teknologiernes potentiale for at skabe reel impact gennem udvikling af metoder og værktøjer og teknologiske kompo-nenter, der styrker tilliden til AI-løsninger.

At sikre tillid til AI-løsninger handler blandt andet om, at brugerne forstår, hvad løsningerne gør og kan, og hvordan de bruger dem i praksis. Målet er at styrke teknologiforståelsen og udvikle nye metoder og inddragelsesprocesser, der bidrager til, at brugere og borgere oplever, at de kan have tillid til AI – en aktivitet, planen også vil indeholde.

En af de største udfordringer i forhold til at gennemføre AI-projekter i virksomheder er at komme fra proof of concept til produktion. Mange virksomheder efterspørger redskaber, retningslinjer, standarder og benchmarks for at kunne sætte moderne løsninger i drift. Da data kan være følsomme, er det altafgørende med modeller med fokus på ansvarlighed. Det er vigtig med nem adgang til uvildig rådgivning inden for tillid og digital sikkerhed, hvilket er en central GTS-rolle.

Aktiviteterne bidrager til de overordnede mål for indsatsen ved at at skabe grundlaget for udvikling af teknologiske services målrettet danske virksomheders behov for at arbejde ansvarligt med datadrevne modeller, der kan skabe forretningsmæssig indsigt og værdi.

Aktiviteten bidrager samtidig med fagligt input i form af oplæg og artikler til den tværgående videnspredning. Disse mål og indikatorer understøtter direkte indsatsområdets mål om digital sikkerhed, tillid og dataetik.