European AI Act og danskernes syn på regulering af generativ kunstig intelligens: Klart behov, men også stor skepsis overfor myndighedernes evner
I december indgik EU-medlemslandene og EU's lovgivere en foreløbig aftale om lovgivning af kunstig intelligens, den såkaldte 'European AI Act' eller på dansk 'EU-forordningen om kunstig intelligens'. Loven har som mål at etablere europæiske regler for anvendelsen af kunstig intelligens og definere de områder, hvor teknologien må benyttes. Samtidig har medlemslandene aftalt, at EU skal kunne overvåge og sanktionere dem, der bryder loven. Der lægges i forordningen op til, at der skal kunne udskrives bøder for lovovertrædelser på mellem 7,5 millioner euro, eller 1,5% af den globale omsætning, og 35 millioner euro, eller 7% af den globale omsætning. Bødernes størrelse vil afhænge dels af lovovertrædelsen og dels af virksomhedens størrelse.
Forordningen er verdens første lovgivning om kunstig intelligens, og det har taget mere end to et halvt år at udarbejde den. Det skyldes, at det på en ene side har været vigtigt, at medlemslandene får mulighed for at indfri de store potentialer, som udviklingen og udbredelsen af kunstig intelligens besidder på en sikker og etisk forsvarlig måde, samtidig med at de potentielt vidtrækkende problematiske eller skadelige demokratiske og sociale implikationer, som udbredelsen af teknologien kan medføre, begrænses. Herunder for eksempel i forhold til udbredelsen af falske nyheder, nye muligheder for cyberkriminalitet og risikoen for at misbruge teknologien til diskrimination eller forfølgelse af sårbare og udsatte grupper.
Selvom der nu foreligger en politisk aftale, skal loven konkretiseres, inden den kan lovbehandles. Europa-Parlamentet forventes at førstebehandle loven i begyndelsen af i år, men den forventes først at træde i kraft i 2025. Loven mangler således formelt set stadig at godkendes af EU's medlemslande.
Indtil nu har udviklere haft relativt frie rammer til at udvikle kunstig intelligens. Med den nye lov vil anvendelsen og udviklingen af kunstig intelligens reguleres indenfor nogle områder, mens den decideret vil forbydes inden for andre. I den foreløbige aftale er der lagt op til en klassifikation af forskellige typer kunstig intelligens i et risikobaseret system med fire niveauer: uacceptabel risiko, høj risiko, begrænset risiko og minimal risiko.
Som det ser ud nu, vil følgende systemtyper klassificeres som havende ’uacceptabel risiko’, og det er således denne type systemer, som den nye lov forventes at forbyde:
- Såkaldte 'biometriske identifikationssystemer', der bruger 'følsomme karakteristika'. Det vil sige teknologi som f.eks. ansigtsgenkendelsessystemer, der karakteriserer folk ud fra f.eks. etnicitet, seksualitet eller religion.
- Ikke-målrettet indsamling af billeder af ansigter online samt overvågningsmateriale, der indsamles med henblik på at lave databaser til ansigtsgenkendelse.
- Følelelsesgenkendelses-systemer til brug på arbejdspladser og uddannelsesinstitutioner.
- Systemer til 'social scoring', hvor folk, baseret på deres adfærd eller personlige karakteristika, rangeres, og ud fra dette enten nægtes eller tildeles forskellige typer af ydelser.
- Systemer, der manipulerer folk med henblik på at omgå deres frie vilje.
- Systemer, der udnytter folks sårbarheder, f.eks. deres sociale status, alder eller handicap.
Der lægges således ikke op til, at øvrige typer af kunstig intelligens skal forbydes. I stedet lægges der op til, at øvrige typer af kunstig intelligens skal underlægges forskellige krav hvad angår for eksempel datahåndtering, sikkerhed og transparens.
Interessant er det, at generativ kunstig intelligens, herunder f.eks. chatbots som ChatGPT, klassificeres som havende ’begrænset risiko’. For systemer med ’begrænset risiko’ lægges der op til, at der skal være gennemsigtighed, og at det for eksempel skal tydeliggøres, når indhold er genereret af kunstig intelligens, og at folk skal have adgang til viden om hvilken data, systemerne er trænet på. Der lægges således for eksempel op til, at det skal være tydeligt for brugere, når de interagerer med en kunstig intelligens, og at der ved brug af tekst-, billede-, video- eller lydmateriale, der til forveksling liger ægte materiale oplyses om, at indholdet er genereret af eller manipuleret af kunstig intelligens.
Men hvordan forholder danskerne sig til generativ kunstig intelligens? Hvordan vurderer de behovet for regulering af udviklingen og anvendelsen af generativ kunstig intelligens? Og hvordan vurder de myndighedernes evner til at håndtere de udfordringer, der opstår i kølvandet på udviklingen og udbredelsen af generativ kunstig intelligens? Det har Mia Stenbro Lorenzen undersøgt som et led i ’Citizens, Digitalisation, and AI (CDAI)’-projektet gennem en spørgeskemaundersøgelse (n=1227).
Resultaterne viser, at hele 73% af danskerne mener, at der i nogen eller høj grad er behov for regulering af eller lovgivning om udviklingen af generativ kunstig intelligens (Figur 1). Ligeledes ses det, at hele 86% af danskerne mener, at der bør være etiske retningslinjer for udviklingen af generativ kunstig intelligens (Figur 2). Spørgsmålet er således, om EU-forordningen matcher de danske borgernes forventninger, når nu der i forordningen ikke lægges op til en egentlig regulering af udviklingen af generativ kunstig intelligens, foruden det, at der skal være transparens omkring hvilken data, modellerne er trænet på. I forordningen er der således at større fokus på regulering af selve brugen af generativ kunstig intelligens end udviklingen heraf. Hvad angår brugen af generativ kunstig intelligens, ses det dog også, at 86% af danskerne mener, at der bør være etiske retningslinjer (Figur 2). Her ser danskernes vurdering af reguleringsbehovet således i større grad ud til at matche EU-forordningen, eftersom der i forordningen blandt andet lægges op til, at det skal være tydeligt for folk, når de interagerer med en kunstig intelligens eller præsenteres for indhold genereret af kunstig intelligens. Særligt er det offentlige myndigheders brug, som danskerne mener bør reguleres. Der er dog også henholdsvis 74 og 66% som mener, at der er behov for regulering af private virksomheders og private borgeres brug af generativ kunstig intelligens (Figur 1).
Danskerne mener således generelt, at der er behov for regulering af både udviklingen og brugen af generativ kunstig intelligens. Der ses således muligvis et mismatch mellem borgernes vurdering af reguleringsbehovet og EU-forordningen, idet forordningen har større fokus på regulering af brugen af generativ kunstig intelligens end udviklingen. Som tidligere beskrevet er det eneste punkt, hvad angår udviklingen, som der i forordningen lægges op til at skulle reguleres, at der skal være transparens i forhold til hvilken data, modellerne er trænet på.
Men hvordan vurderer danskerne myndighedernes evner til at håndtere de udfordringer, der opstår i kølvandet på udviklingen og udbredelsen af generativ kunstig intelligens? Hele 48% mener, at de danske myndigheder slet ikke eller i mindre grad er i stand til at håndtere udfordringerne, mens blot 28% vurderer, at de danske myndigheder i nogen eller høj grad er i stand til at håndtere udfordringerne (Figur 3). 45% mener, at de europæiske myndigheder slet ikke eller i mindre grad er i stand til at håndtere udfordringerne, mens 31% mener, at de europæiske myndigheder i nogen eller høj grad er i stand til dette (Figur 3). Danskerne er således en smule mere optimistiske, hvad angår de europæiske myndigheders evner. Alligevel er det bemærkelsesværdigt, at der ikke er særligt stor forskel på danskernes vurdering af henholdsvis de europæiske og de nationale myndigheders evner til at kunne tackle de potentielle udfordringer, som teknologien bringer med sig. Generelt er danskerne således ret skeptiske, hvad angår myndighedernes evne til at håndtere de mange udfordringer, som udviklingen og udbredelsen af generativ kunstig intelligens kan medføre.
Til gengæld ser det, at der i forordningen lægges op til, at EU skal kunne sanktionere aktører, som bryder loven, ud til at ræsonnere med danskernes holdninger. 87% af danskerne mener, at virksomheder og organisationer, der anvender generativ kunstig intelligens, bør kunne holdes ansvarlige for konsekvenserne af systemernes handlinger (Figur 4). I overensstemmelse hermed ses det, at 84% af danskerne mener, at aktører, der udvikler generativ kunstig intelligens, bør kunne holdes ansvarlige for konsekvenserne af deres systemers handlinger (Figur 4).
Danskerne ser således generelt et stort behov for regulering af udviklingen og brugen af generativ kunstig intelligens, men de er i høj grad skeptiske overfor både de nationale og de europæiske myndigheders evner til at kunne tackle de mange udfordringer, der kan opstå i kølvandet på udviklingen og udbredelsen af teknologien. Det er dog værd at bemærke, at øvrige resultater fra Citizens, Digitalisation, and AI (CDAI)-projektet, som ventes at publiceres i løbet af foråret, viser, at danskerne ser mange potentialer ved udbredelsen og udviklingen af generativ kunstig intelligens, og at en stor del danskere allerede har taget generativ kunstig intelligens til sig, og benytter teknologien i både deres private, men især også deres professionelle liv.
Contact:
Mia Stenbro Lorenzen (miast@sam.sdu.dk)