3 Ansvarleggjere sosiale medium
3.1 Innleiing
Internett, søkjemotorar, meldingstenester, sosiale medium og andre internettplattformer har gjort det enklare å få tilgang til informasjon og å delta i og vere knytt til det offentlege ordskiftet. Det er grunnleggjande positivt for ytringsfridommen. Ni av ti nordmenn bruker sosiale medium, 42 som dermed er ei viktig plattform for den offentlege samtalen i Noreg. I dette kapittelet er det derfor sosiale medium som er hovudtemaet.
Utviklinga dei siste tjue åra har vore prega av ei plattformisering av internett, frå eit ope internett der alle har tilgang, til sosiale medium og andre internettplattformer som er lukka bak innlogging. Det introduserer utfordringar som krev nye svar. Eventuelle tiltak må balanserast mot ytrings- og informasjonsfridommen, som inkluderer retten til å dele usann eller villeiande informasjon.
Sosiale medium har både styrkt og utfordra den opne og informerte samtalen i Noreg. Dette kapittelet omtaler utfordringane og presenterer verkemiddel og tiltak som regjeringa meiner er nødvendige for å møte dei.
3.2 Utfordringar
3.2.1 Mangel på reguleringar og effektiv handheving
Innhaldsmoderering, algoritmisk forsterking og avgrensing av ulike typar innhald er eit resultat av medvitne val frå tilbydarane av sosiale medium. Likevel har dei sosiale media i liten grad blitt haldne ansvarlege for spreiing og forsterking av ulovleg innhald, desinformasjon, uønskt valpåverknad og avgrensingar av innhald frå redaktørstyrte medium.
Sosiale medium har vore lite regulerte, og dei er òg krevjande å regulere. Dei største sosiale media er amerikansk- eller kinesiskeigde, med europeiske hovudkontor i land som Irland og Nederland. Sidan dei største sosiale media er etablerte utanfor norsk jurisdiksjon, er det utfordrande å stille dei til ansvar for regelverksbrot i Noreg.
Personvernforordninga 43 stiller krav til måten sosiale medium samlar inn og bruker personopplysningar på. Plattformene må mellom anna ha eit rettsleg grunnlag for å bruke personopplysningar til profilering og målretta annonsering. Personvernregelverket er likevel ikkje nok åleine til å handtere utfordringane knytte til spreiing av desinformasjon på sosiale medieplattformer. Felleseuropeisk samarbeid er derfor nødvendig.
EU har no vedteke eit nytt sett av digitale regelverk som skal sikre større demokratisk kontroll med dei sosiale medieplattformene. Regelverka blir norsk lov dersom dei blir innlemma i EØS-avtalen og gjennomførte i norsk rett.
Meta har varsla at dei, saman med den sitjande administrasjonen i USA, vil arbeide mot europeiske lover som dei meiner går ut over ytringsfridommen. 44 Vurderingar opp mot ytringsfridommen har vore svært viktige i utarbeidinga av dei nye digitale regelverka og vil vere vesentlege i handhevinga.
3.2.2 Sosiale medium er effektive kanalar for spreiing av desinformasjon
Sosiale medium, meldingstenester og internettplattformer er blitt attraktive kanalar for spreiing av desinformasjon, valpåverknad og påverknadsoperasjonar. Det kjem mellom anna av at innlegg i sosiale medium blir publiserte i sanntid utan førehandskontroll og i tillegg kan målrettast mot spesifikke brukargrupper mot betaling.
Forretningsmodellen til sosiale medium som Facebook, Instagram, X, TikTok og Snapchat byggjer på sal av målretta annonsar. Det inneber at tilbydarane kan ha økonomisk interesse av at brukarane bruker mest mogleg tid på plattformene deira. Tilbydarane har tilgang på store mengder persondata og brukarmønster over tid. Dei sorterer brukarane i ulike interesseprofilar. Ved å kople slike persondata til algoritmar kan plattformene målrette innhald og annonsar til kvar enkelt brukar. Sjølv om dette gjer at brukarane får tilgang til innhald dei interesserer seg for, aukar òg risikoen for spreiing av feil- og desinformasjon.
Feilaktig eller villeiande informasjon, formidla på måtar som er særskilt tilpassa preferansane til den enkelte, kan ha stor påverknadskraft. På denne måten kan innsamling og bruk av persondata bidra til å spreie og forsterke desinformasjon.
Hatefulle ytringar, feilinformasjon og desinformasjon skaper engasjement og spreier seg raskt i sosiale medium, både gjennom menneskeleg interaksjon (som likerklikk, deling og kommentarar) og gjennom forsterking av tilrådingsalgoritmane på plattformene. 45 Tilrådingsalgoritmane kan i tillegg føre til redusert spreiing av redaksjonelt innhald og andre former for truverdig innhald. 46 Kunstig intelligens, maskinlæringsmodellar og algoritmar speler ei viktig rolle for rangering av innhald.
3.2.3 Generativ kunstig intelligens kan misbrukast
Utviklinga og utbreiinga av generativ kunstig intelligens går raskt. Teknologien kjem med mange moglegheiter, men òg utfordringar.
Generativ kunstig intelligens gjer det vanskelegare å skilje mellom ekte og syntetisk tekst, lyd, bilete og video. Å setje opp ei nettavis med falske nyheiter generert av kunstig intelligens krev lite tid og ressursar. 47 Kunstig generert innhald kan vere eit effektivt verkemiddel for å påverke demokratiske val og politiske meiningar, ved å byggje opp og forsterke eksisterande haldningar eller spele på kjensler.
Generativ kunstig intelligens har vore nytta av desinformasjonsaktørar i samband med fleire val, til dømes i USA 48 og Slovakia 49 , men det er vanskeleg å måle kva effekt det har hatt på valresultatet. Ein rapport om EU-valet i fjor viste at inautentisk åtferd, som botar og falske profilar, og generativ kunstig intelligens blei brukt i desinformasjonskampanjar i forkant av valet, men i mindre grad enn frykta. Rapporten peikte på europeiske reguleringar og dei risikodempande tiltaka frå plattformene som moglege forklaringar. 50 Også ekspertgruppa for kunstig intelligens og val vurderer at generativ kunstig intelligens hadde mindre å seie enn frykta, i vala dei undersøkte i 2024, men at både teknologien og trendane utviklar seg raskt, og med det også utfordringsbiletet og behovet for å byggje motstandskraft i befolkninga og samfunnet. 51
Inautentisk innhald og inautentiske profilar er ein viktig del av økosystemet for desinformasjon. Hausten 2024 blei valet i Romania annullert på bakgrunn av utanlandske påverknadsaksjonar på TikTok. Inautentiske kontoar, innhald generert av kunstig intelligens og bruk av influensarar var sentrale komponentar. 52 Automatiserte program (botar) blir brukte til å publisere, like og dele innlegg. Europakommisjonen har oppretta ei granskingssak mot TikTok for å vurdere om tiltaka plattforma har sett inn for å motverke valpåverknad, har vore tilstrekkelege etter europeiske regelverk. 53
Generativ kunstig intelligens kan òg bidra til spreiing av feilinformasjon gjennom såkalla hallusinering. Ein språkmodell kan generere falskt innhald som verkar truverdig og korrekt. Fleire sosiale medium har KI-assistentar og chatbotar som ein del av tenesta, og det er ein tendens til at bruk av chatboten til ChatGPT og TikTok erstattar bruk av tradisjonelle søkjemotorar, særleg blant unge mediebrukarar. 54 , 55
Språkmodellar kan ha tilsikta og utilsikta politiske skeivskapar som brukarane ikkje er klar over. 56 Ein studie har til dømes dokumentert korleis det store omfanget av russisk propaganda på nettet, mellom anna i form av KI-genererte nettaviser, har påverka dei store språkmodellane til å reprodusere russisk propaganda. I fleire tilfelle har språkmodellane sitert propagandaen som truverdige kjelder. 57
3.2.4 Plattformmakt kan misbrukast
Internettplattformene er eigde av nokre få globale teknologiselskap, som har stor makt over og innverknad på den offentlege samtalen. Teknologiselskapa har ein dominerande marknadsposisjon i den digitale annonsemarknaden og hos appbutikkane, og det gir dei konkurransefordelar. I tillegg har mange etablert seg i land med låge skattar, noko som forsterkar forskjellane i konkurransevilkåra for globale og nasjonale aktørar ytterlegare. Dette utfordrar finansieringa av redaktørstyrte medium, som konkurrerer om dei same annonsepengane. Det kan gå ut over mediemangfaldet og redusere tilgangen på faktasjekka og verifisert informasjon.
Endringar i systemdesign og tilrådingsalgoritmar kan få store konsekvensar for samfunnet. Då Facebook i 2018 endra algoritmane slik at dei skulle fremje engasjerande innhald, 58 førte det samtidig til auka spreiing av hatefulle ytringar og skadeleg innhald. Avgrensingane for redaksjonelt innhald som mellom andre Meta har innført, har fått konsekvensar for trafikken til redaktørstyrte medium. 59
Større geopolitiske spenningar kan auke interessa for å bruke algoritmar til å oppnå politiske mål – og risikoen for slik bruk av algoritmar. Moglegheita til å målrette innhald inneber ein risiko for skjult påverknad av meiningar og politiske haldningar, og misbruk av plattformmakt. Dette gir eit behov for innsyn i og tilsyn med bruk av algoritmar i sosiale medium.
3.2.5 Lite innsikt og innsyn i dataa på plattformene
Fleire sosiale medium gir forskarar tilgang til data, men tilgangen er avgrensa, og det er stor uvisse knytt til datakvalitet og framtidig tilgang. Fleire sosiale medieplattformer har nyleg stramma inn rutinane sine for deling av data. 60
Utan tilstrekkeleg tilgang til data er det vanskeleg å sikre eit godt datagrunnlag for å undersøkje korleis desinformasjon spreier seg på dei ulike plattformene, korleis tilrådingsalgoritmane forsterkar desinformasjon, og kor godt tiltaka plattformene set inn mot desinformasjon, verkar. Eit godt faktagrunnlag er viktig for å kunne setje inn treffsikre tiltak for å avgrense samfunnsrisikoar i dei sosiale media.
God tilgang til data er òg viktig for at tilsynsorgana skal kunne vurdere kor godt dei sosiale media følgjer regelverka.
3.2.6 Manglande tiltak for å verne barn og unge
Barn og unge er spesielt sårbare for skadeleg design og skadeleg innhald, som til dømes desinformasjon. Døme på skadeleg design er vaneskapande algoritmar, tilrådingssystem som forsterkar skadeleg innhald, og manipulerande design. Manipulerande design kan få ein brukar til å gjere val som ikkje gagnar hen sjølv. Designet kan til dømes gjere det vanskelegare å avslå enn å samtykkje til innhenting av personopplysningar, eller det kan framskunde ei kjøpsavgjerd. Manipulerande design kan òg brukast til å påverke meiningane til ein person.
Meld. St. 13 (2024–2025) Forebygging av ekstremisme – Trygghet, tillit, samarbeid og demokratisk motstandskraft beskriv ei særleg bekymring knytt til mindreårige som deltek i transnasjonale digitale nettverk. Mykje av den ekstremistiske propagandaen er utforma og distribuert på ein måte som òg appellerer til eit yngre publikum. Sosiale medium kan fungere som radikaliserings- og rekrutteringsportalar. I denne samanhengen er det særleg urovekkjande at unge møter ekstremt tankegods og valdsherleggjerande ideologiar, kombinert med grovt videomateriale.
Skadeleg design på plattformene, og konsekvensane for barn og unge, står sentralt i eit søksmål mot Meta som fleire amerikanske delstatar står bak. 61 Amnesty har dokumentert korleis TikTok løftar fram skadeleg innhald i nyheitsfeeden for barn og unge. 62 Unge jenter er særlege sårbare for å bli avhengige av sosiale medium. 63 Meld. St. 32 (2024–2025) Trygg oppvekst i et digitalt samfunn omtaler fleire utfordringar og moglegheiter når det gjeld barns bruk av mellom anna sosiale medium og digitale verktøy.
Sju av ti barn i aldersgruppa 9–12 år bruker sosiale medium, sjølv om aldersgrensa er 13 år. Påverknadsaktørar bruker spelplattformer og tilhøyrande meldingstenester aktivt for å påverke barn og unge. 64 Fleire av tenestene blir regulerte av nye europeiske regelverk, og desse må utnyttast for å motverke risikoar for uønskt påverknad.
3.3 Verkemiddel
Dei siste åra har EU vedteke fleire regelverk som fremjar ein meir rettferdig konkurranse og rettsvernet til brukarane av digitale tenester. Målet er å redusere samfunnsrisikoar og verne om ytringsfridom, informasjonsfridom og mediefridom. Regelverka er relevante for arbeidet mot desinformasjon og valpåverknad. Regelverka kan først handhevast etter å ha blitt del av norsk lov.
3.3.1 Forordning om digitale tenester (Digital Services Act – DSA)
Forordning om digitale tenester 65 (DSA) har som mål å styrkje brukarrettane på internett og er eit viktig verkemiddel for å motverke den negative effekten sosiale medium kan ha på den offentlege samtalen, i form av spreiing av desinformasjon, forsøk på valpåverknad og innhald som kan vere skadeleg for barn og unge. Forordninga vil i større grad gjere sosiale medium ansvarlege for måten dei formidlar innhald på.
DSA regulerer ulike digitale tenester, som internettilbydarar, skylagringstenester, meldingstenester, sosiale medium, søkjemotorar og andre internettplattformer. Strengast er reglane for dei største internettplattformene og søkjemotorane. Det gjeld mellom anna TikTok, Instagram, Facebook, Snapchat, YouTube og X, der risikoane for den enkelte brukaren og samfunnet er størst.
Sentrale reglar i DSA
- Nasjonale styresmakter kan sende ordre om å fjerne innhald som er ulovleg etter nasjonal lovgiving, direkte til tilbydaren.
- Sosiale medium og andre internettplattformer må ha eit system for å behandle varsel frå brukarane om ulovleg innhald og innhald som bryt med avtalevilkåra. Plattformene skal prioritere varsel frå styringsorgan eller organisasjonar som har status som sertifiserte varslarar ( trusted flaggers ).
- Brukarane har rett til å klage dersom innhald eller kontoar blir sletta, og rett til å få klagene sine behandla av eit uavhengig klageorgan.
- DSA forbyr manipulerande design og åtferdsbasert marknadsføring retta mot mindreårige.
- Dei største plattformene og søkjemotorane må identifisere og motverke systemiske risikoar for mellom anna ytringsfridommen, pressefridommen, forbrukarvernet og personvernet, og negative effektar for den offentlege samtalen og valprosessar. Døme på tiltak mot systemrisiko er å overhalde plikta til å fjerne ulovleg innhald, handheve avtalevilkåra og motverke risikoar ved tilrådingsalgoritmar både for brukarinnlegg og for annonsar. Barn og unge skal ha eit særskilt vern, og eit av tiltaka for å sikre det er aldersverifisering.
- Forskarar og tilsynsorgan får tilgang til data som kan gi dei eit betre faktagrunnlag for å vurdere omfanget av desinformasjon og uønskt politisk påverknad og korleis tilrådingssystema (algoritmane) påverkar det offentlege ordskiftet.
- Europakommisjonen får innsyn i algoritmar og maskinlæringsmodellar som ligg til grunn for innhaldsmodereringa og tilrådingssystema på plattformene, og det er etablert eit europeisk algoritmetilsyn (European Centre for Algorithmic Transparency – ECAT).
Bransjenorma mot desinformasjon (Code of Conduct on Disinformation) 66 er integrert med DSA som eit risikoavgrensande tiltak for å motverke negative effektar for den offentlege samtalen, særleg knytt til feil- og desinformasjon. Sosiale medieplattformer som har slutta seg til bransjenorma, skal rapportere om effekten av tiltaka to gonger i året.
Bransjenorma omfattar tiltak for å dempe spreiinga av feil- og desinformasjon, redusere annonseinntektene til desinformasjonsaktørar, avgrense inautentisk åtferd og KI-genererte innlegg og kontoar, og merkje faktasjekka innhald. Medietilsynet publiserer vurderingar av kor godt plattformene etterlever bransjenorma i Noreg, på nettsidene sine. Vurderingane inneheld ei visualisering som gjer det mogleg å følgje utviklinga over tid. 67
I kvart land er det peikt ut ein DSA-koordinator som er ansvarleg for å handheve DSA i samarbeid med andre nasjonale tilsynsorgan. Nasjonal kommunikasjonsmyndigheit er peikt ut som norsk DSA-koordinator og har hovudansvaret for å handheve DSA i Noreg. Medietilsynet, Datatilsynet og Forbrukartilsynet er peikte ut som kompetente styresmakter på kvar sitt ansvarsområde.
Tilsynsorgana deltek i det europeiske DSA-rådet. Dette gir dei eit unikt høve til å medverke aktivt til handhevinga av regelverka og bidra til god rettstryggleik for norske brukarar av sosiale medium. Dersom ei teneste bryt regelverket, kan ho få bøter på inntil seks prosent av den årlege globale omsetninga si.
3.3.2 Forordning om mediefridom (European Media Freedom Act – EMFA)
Pressefridommen og mediemangfaldet er under press i Europa. Forordning om mediefridom 68 (mediefridomsforordninga) skal verne redaksjonelle medium mot statleg og privat påverknad og fremje mediemangfald.
Medlemslanda skal ikkje påverke redaksjonelle avgjerder. Dei skal verne om tryggleiken til journalistar og respektere kjeldevernet. Mediefridomsforordninga vil verne pressefridommen betre på dei største sosiale medieplattformene og søkjemotorane.
Plattformene skal mellom anna varsle nyheits- og aktualitetsmedium 24 timar før dei fjernar eller avgrensar eit redaksjonelt innlegg, og media vil ha klagerett. Det blir òg lagt opp til dialogmøte mellom redaksjonelle medium og sosiale medium ved behov. Møta skal organiserast av European Board for Media Services, der Medietilsynet deltek.
3.3.3 Forordning om openheit og målretting av politisk reklame
Forordninga om openheit og målretting av politisk reklame 69 har mellom anna som mål å sikre ein open og opplyst politisk debatt og frie og rettferdige val og å motverke desinformasjon og ulovleg innblanding frå tredjeland. Forordninga stiller krav til openheit og målretting av reklame i samband med eit val, ei folkerøysting eller ein lovgivingsprosess i EU eller i ein medlemsstat.
Forordninga er utarbeidd på bakgrunn av bekymringar for farane ved valpåverknad. Ho skal gjere det enkelt for befolkninga å kjenne igjen politisk reklame, forstå kven som står bak reklamen, og vite om han har vore målretta, slik at dei er betre rusta til å ta opplyste val. Forordninga regulerer ikkje innhaldet i politisk reklame og omfattar heller ikkje redaksjonelt innhald eller uttrykk for personlege synspunkt.
Forordninga stiller krav til merking av politisk reklame. Merkinga skal mellom anna vise kven som har betalt, kvar pengane kjem frå, og kva som er formålet med reklamen. Bakgrunnen for dette er mellom anna at det som verkar som nøytral informasjon, kan vere finansiert av eit anna land som prøver å påverke eit val.
Vidare krev forordninga at ein må ha innhenta eit uttrykkjeleg samtykke for å kunne bruke personopplysningar til å målrette politisk reklame på nett. Forordninga tillèt ikkje målretta reklame basert på sensitive persondata (etnisitet, religion, seksuell orientering) og heller ikkje bruk av persondata frå mindreårige. Bakgrunnen for dette er at nokon kan misbruke informasjonen i mikro-målretting for å nå ut til ulike grupper og for å bruke emosjonell manipulasjon og spreie desinformasjon.
3.3.4 Forordning om kunstig intelligens (AI Act)
Forordning om kunstig intelligens (KI-forordninga) 70 har som mål å sikre ansvarleg bruk av KI-system i den indre marknaden. KI-forordninga handlar om produkttryggleik og produktansvar og kan bidra til å redusere risikoen for eventuelle negative konsekvensar ved bruk av kunstig intelligens. Forordninga deler KI-system inn i ulike risikoområde: høgrisiko, systemisk risiko, avgrensa risiko og minimal risiko. Ho forbyr skadelege KI-praksisar, som sosial rangering, bruk av enkelte former for biometrisk gjenkjenning i sanntid og bruk av KI for å manipulere sårbare grupper. Forordninga omfattar ikkje KI-system for militær bruk. Bruk av KI for å skape verkelegheitsliknande lyd, bilete og video ( deep fakes ) skal merkjast, med nokre unntak for straffeprosess og presisering for mellom anna satirisk innhald. Regjeringa har vedteke at Nasjonal kommunikasjonsmyndigheit (Nkom) skal vere det nasjonale koordinerande tilsynet for KI-forordninga og sørgje for at reglane blir følgde opp på ein einskapleg måte i Noreg.
3.4 Tiltak
3.4.1 Rask gjennomføring og effektiv handheving av europeiske regelverk
Nye europeiske regelverk gir sosiale medium, søkjemotorar og andre internettplattformer ei forplikting til å verne om den offentlege samtalen, bidra til meir rettferdig konkurranse og gi tilgang til data. Regelverka blir viktige instrument mot risikoane ved desinformasjon, uønskt valpåverknad, inngrep i pressefridommen i Noreg og misbruk av kunstig intelligens. Regelverka kan først handhevast etter å ha blitt del av norsk lov.
Dei aller fleste plattformene som er i bruk i Noreg, er etablerte i utlandet, utanfor norsk jurisdiksjon. Særnorske lover er derfor ofte ikkje tilstrekkelege til å kunne følgje opp regelverksbrot, og det er derfor viktig å utnytte moglegheitene som ligg i EU-regelverk. Når det gjeld handheving av reglar knytte til spreiing av desinformasjon og styrking av det offentlege ordskiftet, er det Medietilsynet som har relevant kompetanse.
Regjeringa arbeider for at relevante EU-regelverk skal bli innlemma i EØS-avtalen og gjennomførte i norsk rett så snart som mogleg, og sørgjer for at relevante tilsynsorgan har ressursane dei treng til å handheve regelverka effektivt.
3.4.2 Styrkje kunnskapen om kva sosiale medium har å seie for spreiing av desinformasjon
Nye regelverk og betre tilgang til data kan gjere det mogleg å forstå betre korleis sosiale medium påverkar det offentlege ordskiftet i Noreg og Norden, både når det gjeld spreiing av desinformasjon, og når det gjeld avgrensing av redaksjonelt og andre typar truverdig innhald.
- Metodikk for å analysere korleis sosiale medium etterlever relevante regelverk
Effektiv handheving av DSA føreset at norske tilsynsorgan kartlegg, dokumenterer og varslar Kommisjonen eller den nasjonale DSA-koordinatoren ved mistanke om moglege regelbrot i Noreg.
Medietilsynet har fått i oppdrag å utarbeide ein metodikk for å forstå korleis sosiale medium påverkar den offentlege samtalen i Noreg, og om tiltaka for å motverke desinformasjon og verne om redaksjonelt innhald er tilstrekkelege. Dette inkluderer mellom anna å vurdere om algoritmane i sosiale medium bidreg aktivt til å forsterke spreiing av desinformasjon eller avgrense spreiing av truverdig innhald, og kva tiltak sosiale medium set inn for å avgrense omfanget av falske profilar og KI-generert innhald.
Regjeringa vil sørgje for at relevante tilsynsorgan har tilstrekkelege ressursar til å dokumentere korleis sosiale medium handterer systemiske risikoar for spreiing av desinformasjon, og korleis dei etterlever regelverka i ein norsk kontekst, for på denne måten å opplyse befolkninga og leggje forholda til rette for at regelverksbrot kan handhevast.
- Formidling av innsikt frå eigenrapporteringa til dei sosiale medieplattformene
Dei fleste sosiale medieplattformer har forplikta seg til å motverke desinformasjon og til å rapportere om effekten av tiltaka dei set inn, i tråd med bransjenorma mot desinformasjon som er omtalt i kapittel 3.3.1. 71 Dei skal mellom anna rapportere om kor mange innlegg og annonsar som blir fjerna fordi dei bryt brukarvilkåra for plattformene, og kor mange inautentiske kontoar og innlegg som blir sletta. Sosiale medium skal i tillegg publisere openheitsrapportar og registrere data om alle innlegg som blir sletta eller avgrensa, i ein open database.
Medietilsynet skal analysere og samanstille relevante data frå sosiale medium og presentere dei for offentlegheita på ein eigna måte.
- Styrkt nordisk samarbeid om analyse og oppfølging av sosiale medium
Det krev mykje ressursar å analysere og følgje opp etterlevinga av regelverka. Eit nordisk samarbeid kan bidra til meir effektiv handheving. Meir nordisk samarbeid om handhevinga av DSA var òg ei av tilrådingane frå den nordiske tankesmia for teknologi og demokrati. 72
Regjeringa vil støtte opp under eit godt samarbeid mellom relevante nordiske tilsynsorgan om relevante analysar av korleis sosiale medium, søkjemotorar og store internettplattformer påverkar det offentlege ordskiftet i Norden.
- Betre tilgang til data frå sosiale medium for forskarar
DSA pålegg plattformene å gi forskarar innsyn i data. Forskarar kan søkje ein nasjonal DSA-koordinator om tilgang, og koordinatoren vil då vurdere det etter kriterium i regelverket. Dette kan bidra til meir innsikt i spreiing av desinformasjon i Noreg og gi eit betre faktagrunnlag for å forstå risikoar for den offentlege samtalen og vurdere kva tiltak som eventuelt kan setjast inn for å motverke risikoane. Regjeringa vil leggje til rette for meir forsking på spreiing av feil- og desinformasjon gjennom sosiale medium i Noreg.
3.4.3 Dialog med og oppfølging av sosiale medium i forkant av val
I samband med demokratiske val og viktige nasjonale hendingar aukar risikoen for uønskt påverknad. Før EU-valet i 2024 hadde Europakommisjonen tett dialog med dei største sosiale medieplattformene og utførte ein stresstest for å vurdere om beredskapen var god nok. 73 Formålet var å sørgje for tilstrekkelege beredskapstiltak for å motverke eventuelle påverknadsforsøk, og sikre at det fanst etablerte kommunikasjonslinjer dersom det blei registrert auka aktivitet, til dømes ved bruk av bot-nettverk.
Regjeringa vil vurdere om det er behov for tettare dialog med plattformene i forkant av val i Noreg òg. DSA inneheld òg eigne prosedyrar som vil vere aktuelle ved seinare val.
3.4.4 Greie ut alderskontroll og aldersgrenser for sosiale medium
Barn og unge er særleg sårbare for feil- og desinformasjon og har rett til vern mot skadeleg innhald. Til dømes kan villeiande helseinformasjon ha stor skadeverknad. Det er viktig å sikre barn og unge eit godt vern mot skadeleg innhald i sosiale medium.
I dag kan 13-åringar samtykkje til at sosiale medium behandlar personopplysningane deira. Regjeringa foreslår å heve denne aldersgrensa til 15 år. Regjeringa arbeider med eit lovforslag om ei aldersgrense for barn sin bruk av sosiale medium, med 15 år som utgangspunkt. Målet er å verne barn og unge mot moglege skadeverknader knytt til bruk av sosiale medium, mellom anna feil- og desinformasjon. Datatilsynet har òg fått i oppdrag å styrkje arbeidet med barn og aldersgrenser i sosiale medium.
3.4.5 Utvikling av norske og samiske språkmodellar ved Nasjonalbiblioteket
I 2024 la regjeringa fram Fremtidens digitale Norge – nasjonal digitaliseringsstrategi 2024–2030 , 74 der eitt av tiltaka er å etablere ein nasjonal infrastruktur for kunstig intelligens. Som ei oppfølging av dette har Nasjonalbiblioteket frå 2025 fått i oppdrag å trene, oppdatere og tilgjengeleggjere norske og samiske språkmodellar som norsk næringsliv og offentleg sektor kan ta i bruk i utvikling av KI-baserte verktøy og tenester. Grunngivinga for å utvikle eigne norske modellar handlar om å utvikle verktøy som er pålitelege og av høg kvalitet både språkleg og innhaldsmessig, men òg om å redusere nokre av risikoane ved bruk av kunstig intelligens som er omtalte i dette kapittelet. Det er særleg viktig å sikre språkmodellar som speglar den norske offentlegheita og dei demokratiske verdiane våre, og å byggje gode alternativ til språkmodellar frå Kina eller USA.
Nasjonalbiblioteket vil ha full innsikt i korleis språkmodellane er trente, og kva data dei er trente på, og vil òg vere heilt opne om dette sjølve. Dei vil dermed leggje til rette for tryggare og betre dokumentert kunstig intelligens.
Regjeringa vil
- sørgje for at DSA og andre EØS-relevante regelverk som regulerer sosiale medium, blir gjennomførte i norsk rett så snart som råd
- sørgje for at relevante tilsynsorgan har ressursane dei treng for å handheve regelverka effektivt
- styrkje kunnskapen om kva sosiale medium har å seie for spreiing av desinformasjon
- utarbeide ein metodikk for å analysere kor godt sosiale medium etterlever DSA, og i kva grad dei motvirkar negative effektar på den offentlege samtalen og valpåverknad, inkludert desinformasjon
- samanstille og tilgjengeleggjere relevant informasjon frå eigenrapporteringa til dei sosiale media om tiltak for å sikre den offentlege samtalen i Noreg
- styrkje det nordiske samarbeidet for å forstå korleis sosiale medium påverkar den offentlege samtalen
- sørgje for dialog med sosiale medium i forkant av val
- setje opp aldersgrensa for når barn kan samtykkje til at sosiale medium behandlar personopplysningane deira, frå 13 til 15 år
- sende forslag om å innføre aldersgrense for sosiale medium på høyring
- sørgje for at det blir utvikla norske og samiske språkmodellar