3 Hvilken betydning kan KI ha for valg?
Ekspertgruppen legger en vid forståelse av valg til grunn, som favner bredere enn den praktiske valggjennomføringen, og omfatter valgkamp og perioden etter valget når valgresultatene er offentliggjort og diskuteres.
I arbeidet har ekspertgruppen fulgt tre hovedspor hvor vi mener KI kan ha betydning for valg og demokrati. På disse områdene mener vi det er særlig grunner til å ha oppmerksomhet og beredskap på plass for å unngå negative konsekvenser for valg og demokrati:
- Informasjons- og medielandskapet
- Fordekt valgpåvirkning
- Valggjennomføring og cybersikkerhet
Hovedsporene er inspirert av tredelingen som The Alan Turing Institute har benyttet i sine rapporter om påvirkning av valg, som tar utgangspunkt i at KI kan brukes for å påvirke enkeltindivider, forringe informasjonslandskapet og påvirke valggjennomføringen og -infrastrukturen. 64
Det er ikke vanntette skott mellom de ulike sporene og de bør ses i sammenheng. For eksempel kan en påvirkningsoperasjon også inneholde cyberangrep eller være rettet mot å forsterke konflikter eller endre hvordan informasjonslandskapet fungerer.
Vi oppsummerer hovedsporene og hvilken betydning de kan ha i tabell 3.1.
Tabell 3.1 Hovedsporene ekspertgruppen har tatt utgangspunkt i, og eksempler på endringer og betydning
Områder KI kan ha betydning for |
Eksempler på endringer |
Hva kan det få betydning for |
Informasjons- og medielandskapet |
|
|
Fordekt valgpåvirkning |
|
|
Valggjennomføring og cybersikkerhet |
|
|
3.1 Informasjons- og medielandskapet
Et velfungerende informasjons- og medielandskap, hvor redaktørstyrte medier står sterkt, sikrer at velgerne får kvalitetssikret og troverdig informasjon, at saker, partier og kandidater blir møtt med et kritisk søkelys og en faktabasert offentlig debatt som gir velgerne grunnlag til å gi sin stemme på et informert grunnlag. Et mangfoldig medielandskap bidrar til bred inkludering og representasjon av ulike syn.
Informasjons- og medielandskapet har allerede gått gjennom store endringer, som skyldes både teknologisk utvikling som har flyttet innhold og lesere fra papir til nett, og til stadig nye formater, og at sosiale medier har blitt viktigere plattformer for nyheter. Dette har positive sider, som at folk får større tilgang til informasjon og nettverk. Samtidig har det negative sider, som en økende fragmentering av den offentlige samtalen og økt maktkonsentrasjon hos noen store internasjonale plattform- og teknologiselskaper og enkeltpersoner, eksempelvis X-eier Elon Musk, andre eiere og influensere.
«Tradisjonell» KI, i form av algoritmer, har lenge vært en grunnleggende del av hvordan sosiale medier fungerer. Dette har bidratt til endringer i informasjonslandskapet ved at den enkelte brukeren kan motta søkeresultater, nyheter og innhold basert på egne og lignende brukeres interesser. Den algoritmestyrte logikken kan også gi større eksponering for feil- og desinformasjon.
Generativ KI forsterker alle disse tendensene. Slike verktøy bidrar til nye måter å produsere, distribuere, systematisere og analysere informasjon, samt at det kan føre til endringer i hvor og hvordan velgere tilegner seg informasjon.
Generert innhold kan komme i ulike formater, som tekst, lyd, bilde og video, og gjør det mulig å produsere virkelighetsnært, men falskt innhold på en mer effektiv måte og med færre ressurser. Mye av bruken vil være uproblematisk, mens noe kan ha potensial til å forvirre og villede, men vil fortsatt være innenfor rammene av ytringsfriheten. Kunstig generert feilinformasjon kan få et omfang som svekker tilliten til informasjon generelt, og dermed bidra til å fortrenge troverdig informasjon. Denne typen innhold kan eksempelvis brukes til å villede eller forvirre velgere om saker, valggjennomføring, undergrave politiske motstandere, forsterke det emosjonelle engasjementet hos velgere eller til å generere tekster til sosiale medier og nettsider. Som annen feil- og desinformasjon spres slikt innhold primært gjennom sosiale plattformer.
Det store gjennombruddet for generativ KI kom med chatbotene, og særlig ChatGPT i november 2022. Siden har også andre selskaper sluppet sine chatboter. Selv om det er de store selskapenes generelle chatboter som brukes mest, finnes det også mer spesialiserte varianter som er trent på et avgrenset materiale for å svare på spørsmål innenfor et bestemt tema. Siden chatboter gir raske og tilpassede svar, velger mange brukere å heller benytte seg av slike verktøy for å finne informasjon, i stedet for tradisjonelle søkemotorer. 65 En slik forflytning kan være problematisk dersom språkmodellene genererer feil informasjon om valg, kandidater og partier – såkalt «hallusinering». Språkmodeller kan også ha tilsiktede eller utilsiktede politiske skjevheter som ikke er kjent for brukeren, som skyldes datamaterialet modellen er trent på. Bruk av chatboter som informasjonskilde gjør at informasjonen i økende grad kan være personalisert, og informasjonen som gis vil variere og vil ikke nødvendigvis være tilgjengelig for allmennheten. Søkemotorer har også begynt å inkludere KI-genererte sammendrag i søkeresultatene, som for eksempel Googles «AI overviews». Dette gir brukerne et direkte KI-generert svar i stedet for å henvise dem til kildene.
Chatboter, bot-avatarer, og lignende KI-drevne tjenester kan bidra positivt til spredning av relevant informasjon, særlig gjennom tilgjengeliggjøring på flere språk og universell utforming av tekst for brukere med syns- og hørselsutfordringer. Men med slik teknologi kommer imidlertid en utfordring for valgmyndigheter på lokalt og nasjonalt nivå, da disse har i oppdrag å sikre at velgerne er korrekt informert. Det foreligger flere eksempler på at chatboter gir ukorrekt informasjon om valg, som vi kommer tilbake til i kapittel 4 og 5.
KI har allerede fått betydning for medielandskapet, både i hvordan de redaktørstyrte mediene selv jobber og for deres rolle i samfunnet. Mediene har aktivt tatt i bruk KI på noen områder, blant annet for å lage oppsummeringer av saker og i internt arbeid med research, transkribering, oversettelser og tekstoppbygging. Samtidig innebærer økt utbredelse av KI-generert innhold også at mediene må være mer på vakt mot å bli lurt av slikt innhold og benytte mer ressurser til å verifisere innhold for å unngå å publisere uriktig informasjon. Flere har også forsøkt seg på mer eksperimentell bruk av KI for å engasjere brukere på nye måter. I forbindelse med det amerikanske presidentvalget, hadde for eksempel VG en valgchat, og TV 2 en KI-avatar hvor brukere kunne stille spørsmål og få svar fra det som fremsto som nyhetsanker Kjetil H. Dale. For redaktørstyrte mediers bruk av KI ligger presseetikken til grunn og redaktøren står som garantist for innholdets troverdighet. Norske redaktørstyrte medier viser høy bevissthet og åpenhet om bruk av KI og har retningslinjer for KI-bruk.
Mediene i Norge er gitt særlige rammer for å støtte opp om ytringsfriheten og den offentlige samtalen, og utgjør slik sett en motvekt mot de potensielle negative virkningene disse utviklingstrekkene kan ha for gjennomføringen av valg i Norge. Virkemidlene som brukes for å sikre de redaktørstyrte mediene i møte med desinformasjon, påvirkningsoperasjoner og bortfallet av yngre brukere bør gjenspeile disse endringene, og ta sikte på å styrke de redaktørstyrte medienes konkurranse- og innovasjonsevne i den teknologiske utviklingen.
De potensielle konsekvensene av KI-baserte deepfakes, feilinformasjon og chatboter er alvorlige. Det gjør det vanskeligere å skille mellom ekte og falskt innhold, noe som undergraver tilliten til informasjonslandskapet. 66 Endringene innebærer at man i mindre grad eksponeres for det samme innholdet og informasjonen, og bidrar til et mer uoversiktlig informasjons- og medielandskap. Samlet sett viser endringene som er omtalt over at konsekvensene ikke bare har potensiale til å påvirke valgprosessen, men det demokratiske systemet som helhet.
3.2 Fordekt valgpåvirkning
KI kan skape nye muligheter innenfor påvirkning og manipulasjon rettet mot både individer og grupper i samfunnet. Det gjelder både for den politiske påvirkningen som er en naturlig del av en valgkamp, men også fordekt påvirkning – som er det andre hovedsporet ekspertgruppen har sett på. Se punkt 1.5 for ekspertgruppens definisjoner som omhandler uønsket påvirkning.
Tilgjengelige og rimelige KI-verktøy kan senke barrieren for å gjennomføre påvirkningsoperasjoner. Ikke bare kan det forsterke kraften fra etablerte trusselaktører, det kan også føre til at flere og nye trusselaktører kommer på banen. Det kan omfatte både utenlandske statlige og ikke-statlige aktører, men også åpne opp for forsøk på fordekt valgpåvirkning fra eventuelle norske aktører som opererer alene eller i samarbeid med andre aktører. At utenlandske aktører samvirker med innenlandske aktører så man blant annet i forbindelse med det dramatiske presidentvalget i Romania i desember 2024, som er nærmere omtalt i punkt 4.1. Ekspertgruppen vil understreke at det er et klart prinsipielt skille i hvordan man skal imøtegå henholdsvis utenlandske og innenlandske aktører, og at tiltak og innsatser ikke må bidra til å innskrenke norske borgeres ytringsfrihet.
Fordekt valgpåvirkning er ikke avgrenset til enkeltstående hendelser rundt selve valgdagen. Som EUs utenrikstjeneste EEAS har påpekt, vil en koordinert påvirkningsoperasjon gjerne skje over et lengre tidsrom som strekker seg fra lenge før valget til etter at det er gjennomført, og går gjennom ulike faser med ulik intensitet av aktiviteten. 67 The Alan Turing Institute har pekt på at det er ulike stadier i en valgprosess, og at trusselaktører har ulike mål for påvirkningen i de ulike fasene: 68
- Før stemmegivningen starter: Påvirkningsoperasjoner fokuserer på å underminere omdømmet til bestemte kandidater eller på å forme velgernes synspunkter på spesielle saker.
- I stemmeperioden: Fokus på å forstyrre og overbelaste informasjonsrommet og forvirre velgere om spesielle saker knyttet til valgkampen eller valget.
- Etter valget: Fokus på å bryte ned tilliten til valgresultatet, for eksempel gjennom å skape inntrykk av valgfusk – som igjen kan slå over i mer langsiktig fall i tilliten til demokratiske prosesser.
Ekspertgruppen vil trekke frem tre måter KI kan brukes på som kan utgjøre særlige trusler i denne sammenhengen:
- Falske brukere og nettsider: Trusselaktører kan benytte KI til å generere ulike former for villedende innhold på en mer effektiv måte enn tidligere. Språklige, og til dels også kulturelle barrierer reduseres. Boter og botnettverk kan opereres mer effektivt. Man kan raskere opprette og administrere falske profiler og falske nettsider. Det finnes en rekke eksempler hvor trusselaktører har brukt KI-verktøy for å lage falske nettsider som enten etterligner redaktørstyrte medier med høy troverdighet eller utgir seg for å være nye nettaviser eller nettsider for (ikke-eksisterende) forskningsinstitutter eller lignende. 69 Disse sidene brukes for å spre innhold som har til hensikt å påvirke gjennom å spre de narrativene trusselaktøren mener å være tjent med, gjennom kanaler som er ment å fremstå som troverdige og autentiske (se boks 3.1 for omtale av Doppelganger-operasjonen). Potensielt kan det også gjøre det vanskeligere å oppdage inautentisk atferd på sosiale medier, da det er mindre ressurskrevende å variere både språk og uttrykk. Med KI kan aktiviteter av denne typen også automatisere opprettelse og innholdsproduksjon av slike falske brukere og nettsider.
- Økt personalisering: En trusselaktør kan bruke KI som del av en påvirkningsoperasjon for å påvirke holdninger, meninger og oppfatninger hos velgere. Dette kan inkludere spredning av ulike typer KI-generert desinformasjon som er mer eller mindre tilpasset ulike grupper. Gjennom målretting av innhold er det også mulig å tilpasse budskap til mottakeren basert på for eksempel kjennetegn som alder, kjønn, bosted og andre personlige forhold ut fra data aktøren har fått tilgang til. Ved å utnytte slike muligheter, kan for eksempel trusselaktører mer presist rette seg inn mot velgere for å påvirke dem til, for eksempel, å stemme annerledes enn de ellers ville gjort, eller til å avstå fra å stemme. De samme teknikkene kan brukes bredere for å påvirke dagsordenen og debatten rundt et valg for å få frem spesielle saker, for eksempel forhold som er særlig polariserende eller som kan bidra til å redusere tilliten i samfunnet.
- Overstrømming av innhold: En trusselaktør kan også gjøre seg nytte av mulighetene KI gir til å skape en overflod av KI-generert innhold, som kan inkludere falske nyheter, manipulerte videoer, manipulerte stemmer og andre former for desinformasjon. Hvis slik desinformasjon oversvømmer ulike plattformer og nettsider, kan dette føre til en generell mistillit til nyheter og annen tilgjengelig informasjon. Enda mer alvorlig er risikoen for at det kan bidra til at borgerne ikke lenger stoler på at andre i samfunnet er godt nok informerte. Tillit til at andre medborgere tar informerte valg er avgjørende for et fungerende demokrati, i et informasjonslandskap preget av desinformasjon kan slik tillit forringes.
Boks 3.1 Doppelganger-operasjonen
Doppelganger-operasjonen er et illustrerende eksempel på hvordan russiske påvirkningsnettverk jobber. Operasjonen har rettet seg mot mange land siden 2022, og handler særlig om å undergrave støtten til Ukraina og å bidra til splittelse innad i land som støtter Ukraina. En sentral del av operasjonen har vært å opprette falske nettsider. Disse nettsidene har blant annet vært kloner av anerkjente medier og myndigheters nettsider, og de har laget nettsider som fremmer anti-ukrainsk og pro-russisk innhold.
Kilde: EU DisinfoLab, 2024
3.3 Valggjennomføring og cybersikkerhet
Det tredje hovedsporet ekspertgruppen har tatt utgangspunkt i, handler om betydningen KI kan ha for selve valggjennomføringen og cybersikkerhet i tilknytning til valg. Sikkerheten rundt valg har fått stadig større oppmerksomhet, og KI vil kunne spille inn på flere måter også i dette arbeidet. Trusselaktører eller ondsinnede aktører kan benytte KI til å utføre ødeleggende aktiviteter raskere og i større skala, og med færre ressurser.
KI kan for eksempel brukes til å kompromittere og manipulere elektroniske systemer som brukes i valg eller skape kaos gjennom cyberangrep eller -operasjoner. Dette kan hindre eller forstyrre selve valggjennomføringen og skape usikkerhet rundt selve valgresultatet. Slike hendelser kan få betydning i form av svekket tillit til valgets integritet og legitimiteten til demokratiske prosesser, uavhengig av om angrepene faktisk lykkes med å påføre noen faktisk skade eller gjøre endringer i systemer.
Et eksempel på dette er gjennom phishing-kampanjer, hvor aktører kan forsøke å svindle eller skaffe seg tilganger til systemer eller informasjon, typisk gjennom å få enkeltpersoner, som for eksempel personer tilknyttet valgmyndigheter eller politikere, til å oppgi opplysninger eller få dem til å åpne lenker. Med KI-verktøy som språkmodeller og stemmekloning kan trusselaktører utføre målrettede cyberoperasjoner mot enkeltpersoner som fremstår mer troverdig. KI-verktøy kan også brukes i storskala kampanjer som har som mål å hindre stemmegivning, for eksempel gjennom overbelastningsangrep (DDoS), plassering av skadevare, automatiserte telefonoppringninger eller til å fremme trusler mot valget.
KI gir også nye verktøy som kan benyttes til programmering og til å gjennomgå kode. Her er det klare muligheter for å nyttiggjøre seg av slike verktøy for å lette og effektivisere arbeid med utvikling av elektroniske løsninger. Kodegjennomgang kan være nyttig for å avdekke sårbarheter i elektroniske løsninger, og EUs utenrikstjeneste har pekt på at «[t]he explosive growth and availability of AI tools may even hold more benefits for defenders than attackers». 70 Likevel er det også et potensiale for misbruk. Nasjonal sikkerhetsmyndighet (NSM) har pekt på at trusselaktører gjennomfører grundigere rekognoseringsangrep for å lære seg hvordan de kan hente ut informasjon de er ute etter, og at nye verktøy gjør det mulig for trusselaktører med lavere teknisk kompetanse å trenge seg inn i systemer man ønsker å beskytte.