EU's lovgivning om anvendelse af kunstig intelligens og dens konsekvenser for virksomheder
Den 8. december 2023 vedtog EU regler, der regulerer anvendelsen af kunstig intelligens (AI). Denne banebrydende aftale resulterede i vedtagelsen af en AI Act, som er det første regelsæt i EU, der standardiserer og regulerer brugen af kunstig intelligens på tværs af medlemslandene.
Tidligere lovgivning på området inkluderer eksempler som New York Citys specifikke regler for arbejdsgivernes brug af AI i rekrutteringssituationer. Disse regler kræver blandt andet en audit af software, informationspligt over for kandidater og en forpligtelse til at tilbyde kandidater en screeningsproces, der ikke er baseret på AI-behandling.
EU's lovgivning er imidlertid langt mere omfattende og konsekvent, både i omfang og konsekvenser, sammenlignet med reglerne fra New York City. Hvis din virksomhed er involveret i digitale leverancer og undlader at sikre basale forhold i overensstemmelse med EU-lovgivningen, kan dette potentielt have alvorlige økonomiske og omdømmemæssige konsekvenser.
EU-lovgivningen kategoriserer anvendelsen af AI i forskellige grader af risiko og konsekvenser. Disse kategorier inkluderer minimal eller ingen risiko AI-systemer, begrænset risiko AI-systemer, højrisiko AI-systemer og forbudte AI-systemer. Hver kategori har sine egne specifikke krav og regler for at sikre sikkerhed og etik.
For virksomheder betyder disse regler, at der nu er yderligere aspekter af teknologianvendelsen, der skal overvejes. Konsekvenserne afhænger af, hvordan din anvendelse af AI er kategoriseret, og dette kan ændre sig hurtigt i en digital verden, hvor AI er en integreret del af it-systemer.
Mange AI-funktioner vil i fremtiden fungere som komponenter i sagsbehandlingssystemer uden nødvendigvis at være tydelige for virksomhederne. Grænsen mellem beslutningsstøtte og faktiske beslutninger vil gradvist blive kortere, hvilket skærper forpligtelserne som dataejer og databehandler.
Det er vigtigt at bemærke, at klare aftaler mellem parterne kan regulere anvendelsen af AI, uanset om du er kunde eller leverandør. En tydelig forståelse på dette område kan undgå ubehagelige overraskelser, herunder potentielle bøder i den høje ende.
De fire kategorier
Minimal eller ingen risiko i forbindelse med AI-baserede funktioner: Disse funktioner udgør ikke nogen særlig risiko for mennesker eller samfund. De er ikke underlagt strenge regler, da de f.eks. kan anvendes til opgaver som at filtrere spam eller skabe computerspil ved at integrere AI til beregninger.
Begrænset risiko i forbindelse med AI-baserede funktioner: Disse anvendelser udgør en lavere risiko og omfatter ting som vejrforudsigelser, anbefalinger af produkter, chatbots, deepfakes og følelsesgenkendelse ved at integrere AI til beslutningsstøtte. Reglerne er mindre strikse sammenlignet med højrisiko-situationer. Det vigtige her er, at brugerne klart skal kunne genkende, når de interagerer med en maskine. Hvis funktionen skaber videoer, lyd eller billeder, der ligner virkelige objekter, skal det tydeligt angives, at indholdet er kunstigt genereret eller manipuleret ved hjælp af AI.
Højrisiko i forbindelse med AI-baserede funktioner: Disse anvendelser udgør en større risiko og er underlagt strenge krav for at sikre sikkerhed og etik ved at integrere AI til kritiske beslutningsstøttefunktioner som kreditvurderinger, offentlige sociale ydelser eller jobrekruttering. Kravene inkluderer risikovurdering, menneskeligt tilsyn og beskyttelse af privatlivets fred ved brug af AI.
Forbudte anvendelser af AI: Disse anvendelser er for farlige til at blive brugt og kan f.eks. bruges til strafbeslutninger, militære formål eller behandling af persondata på en måde, der kan føre til diskrimination ved hjælp af AI.
Hvad betyder det for din virksomhed?
Det er vigtigt at vide, hvilken type funktioner din virksomhed anvender, der integrerer AI til enten beregninger eller beslutningsstøtte, da dette bestemmer, hvilke regler der gælder. Selv mindre risikofyldte anvendelser kræver opmærksomhed, mens højrisiko-situationer har mere komplekse krav, som skal overholdes for at undgå alvorlige konsekvenser. Sørg for at forstå og håndtere anvendelsen af AI i dine eksisterende systemer på en sikker og etisk måde.