Slik kan KI manipulere og bløffe velgere
Har kunstig intelligens (KI) påvirket utfallet av nasjonale valg? Det kan vi ikke si sikkert, men det har vært flere forsøk, fastslår en forsker.
– Vi har sett noen forsøk, men det er vanskelig å si noe om effekten, sier seniorforsker og statsviter Paul Buvarp ved Forsvarets forskningsinstitutt (FFI).
FFI-forskeren er spesialist på informasjonspåvirkning, desinformasjon og propaganda. Han viser til at bekymringen var stor, for eksempel i FN-kretser, i det vi gikk inn i 2024, som var et stort valgår globalt – med nasjonale valg i flere store land. Bakteppet var at liberale demokratier er under press mange steder i verden samtidig som nye teknologier er på full fart inn, forklarer han.
– De fleste er enige om den potensielle faren, men den faktiske effekten av slike forsøk er både vanskelig å se og å vite virkningen av.
Han er klar på at det har vært eksempler på KI-manipulasjon knyttet til flere valgkampanjer. To KI-assisterte metoder skiller seg ut foreløpig: stemmekloning og forfalsket video.
«For en masse tullprat!»
Det mest kjente eksempelet er fra primærvalget i USA i januar der velgere fikk en robot-samtale fra en stemme som minnet svært om president Joe Bidens.
«What a bunch of malarkey!», sier stemmen blant annet – en frase som presidenten er kjent for å ha liret av seg en rekke ganger. Deretter følger den opp med en oppfordring om å la være å avgi stemme.
«Å stemme på tirsdag vil kun hjelpe republikanerne i deres forsøk på å få Donald Trump valgt igjen», fortsetter den Joe Biden-lignende røsten. «Stemmen din vil utgjøre en forskjell i november, ikke nå på tirsdag».
Stemmeavspillingen ble sendt ut til 5000 velgere via mobiltelefonene til en demokrat-vennlig aktivist og eks-politiker. Aktivisten anmeldte saken til politiet.
Det framkom senere at en lokal tryllekunstner i New Orleans hadde fått oppdraget med å lage robot-samtalen på oppdrag fra en erfaren politisk påvirkningsagent. Agenten jobbet for en annen demokratisk presidentkandidat, Dean Phillips, men hevdet å ha bestilt falskneriet på eget initiativ. Phillips på sin side benektet kjennskap til det AI-assisterte kampanjeprosjektet.
Ved et annet tilfelle – også det i januar 2024 – ble et falskt bilde av Biden spredd på sosiale medier. På bildet sitter Biden sammen med ei tenåringsjente på den overgrepsdømte finansmannen Jeffrey Epsteins privatfly. Bildet var KI-generert.
Snakket om valgfusk og ølpriser
Et annet kjent eksempel er fra parlamentsvalget i Slovakia i 2023, påpeker FFI-forsker Buvarp.
To dager før valget ble et forfalsket lydklipp – med den proeuropeiske statsministerkandidaten Michal Simecka - lekket via sosiale medier.
På lydklippet diskuterer Simecka tilsynelatende valgfusk med en kjent slovakisk journalist. Samtidig verserte det også et annet lydklipp der han tilsynelatende gikk inn for å øke prisene på øl kraftig – en holdning som har få sympatisører i det øl-elskende landet.
Selv om både kandidaten og journalisten raskt fastslo at lydklippet var et falskneri, fikk det betydelig spredning i sosiale medier. Da Simeckas parti så tapte parlamentsvalget til fordel for den pro-russiske kandidaten Robert Fico og hans parti, mente flere observatører at lydklippet kunne ha spilt en rolle for utfallet.
– Partileder Simecka tapte valget, men det er farlig å konkludere med at lydklippet var utslagsgivende eller hvem som sto bak. Det er mange mulige aktører som kan stå bak en slik kampanje, sier Buvarp.
KI-generert innhold var bare ett av flere virkemidler i forsøk på desinformasjon under valgkampanjen. Reset, en London-basert ideell organisasjon, uttalte før valget at den hadde registrert 365.000 valgrelaterte poster med desinformasjon på sosiale medier bare i de to første ukene av september.
Nigeria: Politiker fikk artiststøtte
Presidentvalget i Nigeria er på sin side et eksempel på at KI har vært forsøkt brukt som et ledd i valgpåvirkning også i utviklingsland. Kampanjen syntes å ha som formål å støtte den ene presidentkandidaten, Peter Obi, på bekostning av landets tidligere visepresident Atiku Abubakar.
I en av videoene figurerer ulike kjente skuespillere og artister – blant dem Idris Elba, Tom Cruise og 50 Cent – som opptrer med plakater til støtte for Obi. Budskapet er enkelt: «Yes, it makes sense to Vote Peter Obi in 2023». I en annen framfører Donald Trump og Elon Musk samme budskap. Samtlige videoer var falske, fastslår nyhetsbyrået AFPs fakta-sjekkere.
Samtidig ble det – bare timer før valget – spredt et KI-generert lydklipp der kandidaten Abubakar tilsynelatende diskuterte planer for å rigge valget til fordel for seg selv.
– Foreløpig er stemmekloning farligst
– Å dømme etter den spredningen lydklippet fikk hadde det nok en viss påvirkning på folks oppfatninger, sier journalisten Hannah Ajakaiye i et intervju med forskeren Eric Davis i amerikanske Institute for Security and Technology.
Ajakaiye har selv stått i bresjen for et fakta-kontrollprosjekt i Nigeria som informerte velgere om faren ved manipulasjoner via KI og sosiale medier.
FFI-forsker Buvarp mener at stemmekloning foreløpig ser ut til å være det «farligste» verktøy blant KI-assisterte.
– Stemmekloning er foreløpig vanskeligere å avsløre enn KI-genererte videoer, men så vil vi nok etter hvert se at produksjonen av slike videoer blir mer avansert. Det er vanskelig å si, men her er det nok snakk om måneder heller enn år, sier han.