Aarhus Universitets segl

Startskud til fremtidens teknologi

Frankrig godkendte sidste år en lov, der tillader brug af AI-understøttet kameraovervågning under De Olympiske Lege i Paris i 2024. Det er det første EU-land, der godkender overvågning baseret på kunstig intelligens. Professor og leder af DATALAB på Aarhus Universitet, Anja Bechmann, kommenterer her på et OL, der skal balancere mellem privatlivets fred og offentlig sikkerhed.

Alene åbningsceremonien omkring Seinen forventes at tiltrække flere hundrede tusinder tilskuere ved det kommende OL. Herefter følger et tætpakket program med fyldte tilskuerrækker. Med de store koncentrationer af mennesker samlet på afgrænsede arealer følger også et sikkerhedsopbud for at forhindre utilsigtede hændelser eller terror. En af flere sikkerhedsforanstaltninger er overvågning, men for første gang nogensinde er overvågningen baseret på kunstig intelligens, for det er ikke kun de atleter, der sætter sig til rette ved startblokkene, der har fart på. Det har den teknologiske udvikling drevet af AI også.

Frankrig har op til OL som det første EU-land godkendt videoovervågning baseret på kunstig intelligens. Ifølge flere medier, blandt andet Chief Data Magazine, har fire virksomheder udviklet AI-software, der bruger algoritmer til at analysere realtidsvideostreams fra eksisterende overvågningssystemer.

Anja Bechmann, professor og leder af Center for Digital Social Research (DATALAB), der til dagligt forsker i privatliv, AI og etiske udfordringer inden for internetforskning, forklarer om formålet med den nye type overvågning:

“Formålet med AI-videoovervågningen under blandt andet OL er at beskytte begivenheden mod terror og andre sikkerhedstrusler, og tilladelsen, så vidt jeg kan læse mig til, omfatter ikke ansigtsgenkendelse, som ellers er den teknologi, der har været mest omdiskuteret i forhold til privatlivsbeskyttelse. I stedet omfatter tilladelsen, otte andre features f.eks. genkendelse af menneskemængder, (glemte) objekter, våben, persontilstedeværelse på forbudte områder, brand og trafikforseelser.”

Selv om den nye type overvågning ikke indebærer ansigtsgenkendelse, understreger hun, at videoovervågning og ikke mindst AI-videoovervågning skaber en bekymring for krænkelse af privatliv på den lidt længere bane. Hun forklarer om de problemer, der følger i kølvandet på den nye type overvågning:

“I forhold til de AI etiske guidelines, som jeg har været medforfatter på, taler vi om såkaldte ‘downstream’ problemer. Altså problemer - som ikke er der nu, men som kan komme hen ad vejen. I det konkrete tilfælde er der flere ting at bekymre sig om, for eksempel om videoovervågningsbillederne gemmes eller kun processeres i realtid, men også om ansigtsgenkendelse lovgivningsmæssigt kan blive en integrerbar mulighed undervejs, hvis en potentiel truende situation opstår,” fortæller Anja Bechmann og peger på flere problematikker i forhold til anvendelse af den nye teknologi:

”En anden problematik handler om, hvorvidt det er muligt effektivt at identificere personer uden brug af ansigtsgenkendelse, men via for eksempel objektgenkendelse af hårfarve, tatoveringer, højde m.m., som i kombination giver et unikt mønster, der de facto skaber lignende identitetsgenkendelse og/eller kan medvirke til effektiv diskriminering. Det diskuteres også, om den AI-model, der realtidsforbedres via disse videoovervågningsdata, kan vendes mod borgerne til senere brug i anden sammenhæng. Og sidst, men ikke mindst - hvordan sikrer man, at der er en effektiv mulighed for at efterprøve, om privatlivet sikres på et hvilket som helst tidspunkt før, under og efter begivenheder(ne), eller om denne mulighed reel frafaldes grundet hensyn til landets sikkerhed.”

Svarene på de mange spørgsmål, den nye type overvågning rejser, vil - efter alt at dømme - ikke ligge klar, før alverdens tv-kameraer zoomer ind på åbningsceremonien, som milliarder af TV-seere over hele verden forventes at følge med i.

Om forskeren

Anja Bechmann er professor og leder af DATALAB – Center for Digital Social Research og har siden 2011 arbejdet med privatliv, AI og etiske udfordringer indenfor internetforskning. Hun leder pt. et større projekt SOCIAL MEDIA INFLUENCE finansieret af Danmarks Frie Forskningsråd, hvor forskningsgruppen blandt andet screener, anvender og udvikler AI-videogenkendelsesmodeller til at analysere YouTube og TikTok-videoer. Hun fungerer ofte som uvildigt rådsmedlem og ekspert for politiske instanser på EU, nordisk og nationalt plan.


Yderligere information

Anja Bechmann, professor
Medievidenskab
E-mail: anjabechmann@cc.au.dk
Telefon: 51335138