Ingen blir politisk ekstremist over natten. Som regel trengs en gradvis radikaliseringsprosess for at noen skal bli villig til ? bruke vold for ? fremme ideologier som bryter med demokratiske prinsipper.?
N? advarer forskere om at KI brukes til ? effektivisere og delvis automatisere denne prosessen.?
– KI fjerner barrierene som hindrer radikalisering, sier KI-forsker Jonas Kunst, som jobber b?de som professor i psykologi ved Universitetet i Oslo og professor i kommunikasjon ved Handelsh?yskolen BI.
Tidligere m?tte det alts? betydelig menneskelig innsats til for ? produsere og spre ekstremistisk innhold, identifisere mulige rekrutter, skape engasjement p? sosiale medier og holde liv i et digitalt, ekstremistisk fellesskap.?
N? frykter Kunst konsekvensene av at KI kan ta over mye av den jobben. Sammen med medievitere og dataforskere har han nylig publisert en tverrfaglig studie som viser hvordan KI-verkt?y legger til rette for ? spre ekstremistisk tankegods i et enormt tempo.?
– Vi ser at s?rbare mennesker kan bli identifisert, samlet og mobilisert i et tempo som tidligere har v?rt umulig, sier han.?
Mer ekstremisme i feeden
Kunst viser f?rst til radikaliseringspotensialet som ligger i generativ kunstig intelligens. Generativ KI er systemer som kan lage nye tekster, bilder og videoer p? egen h?nd, basert p? store mengder treningsdata.?
N?r slike systemer tas i bruk for ? skrive blogginnlegg, lage ?memes? eller redigere videoer, kan én akt?r plutselig fylle nettet med store mengder innhold med ekstremt, politisk budskap.
Dermed ?ker sannsynligheten for at flere mennesker ser slikt innhold.
– La oss se for oss en person som melder seg inn p? X for f?rste gang. I begynnelsen vil hen f? et relativt mangfoldig og ganske n?ytralt innhold. Men sannsynligheten er h?y for at hen etter hvert ogs? f?r se noe problematisk innhold, for eksempel antisemittisme eller deep-state-konspirasjoner, forklarer Kunst.
Fire steg til KI-drevet radikalisering:
1. Eksponering
Generativ KI gj?r det enkelt ? masseprodusere og publisere innhold med emosjonelle, negative og konspiratoriske vinklinger. KI-drevne anbefalingsalgoritmer ?ker sannsynligheten for ? bli gradvis eksponert for mer og mer av slikt innhold.
2. Forsterkning
Algoritmedrevne filterbobler oppst?r og skaper ekkokamre som gradvis sementerer ytterligg?ende holdninger. Chatboter og KI-partnere kan ogs? bidra til ? bekrefte og forsterke et ekstremistisk verdensbilde.
3. Gruppeintegrasjon
KI-algoritmer og autonome svermer av KI-agenter trekker brukere inn i et mer ekstremt nettverk som blir en del av identiteten. Brukeren opplever en sterk tilh?righet og en falsk opplevelse av konsensus rundt ekstreme holdninger.
4. Voldelig ekstrem handling
For noen f? blir kombinasjonen av konstant bekreftelse, gruppelojalitet og praktisk st?tte fra online-nettverk og KI-verkt?y et springbrett til faktisk voldsbruk.
Kilde
Kunst, J. R., Obaidi, M., Gollwitzer, A., Brandtz?g, P. B., Hinrichs, Y., Saini, N., & Schroeder, D. T. (2026). Intelligent Systems, Vulnerable Minds: A Framework for Radicalization to Violence in the Age of AI. Personality and Social Psychology Review.
Spiller p? psykologiske s?rbarheter
De fleste blir ikke ekstremister av at det dukker opp en konspirasjonsteori i feeden i ny og ne.
Allikevel er det menneskelige mekanismer som gj?r at slikt innhold kan f? oss til ? stoppe opp. En av dem er v?r innebygde negativitetsbias – en godt dokumentert, universell tendens til ? v?re ekstra oppmerksom p? trusler, spesielt fra andre grupper. Det betyr at vi automatisk vier oppmerksomhet og husker negative ting lettere enn positive.
Mens generativ KI ?ker sannsynligheten for at flere ser ekstremistisk innhold, gj?r nysgjerrigheten pirret av slikt innhold. Og med ?kt eksponering f?lger ofte ?kt engasjement, forklarer Kunst.
.jpg)
– Algoritmene f?r med seg at dette interesserer deg. De er ekstremt presise og m?ler p? mikrosekundet hva du retter oppmerksomheten mot.
Her har vi en annen type kunstig intelligens som forsterker effekten: KI-drevne anbefalingsalgoritmer som bestemmer hva du f?r i feeden din, basert p? hva du ser og klikker p?. Denne teknologien har blitt s? presis at det alts? bare holder ? stoppe scrollingen ved noe negativt eller konspiratorisk for at systemet skal lese det som et signal om at du vil ha mer av det samme.
– KI-drevne anbefalingssystemer ser ut til ? v?re spesielt effektive til ? ?ke eksponeringen for ekstremistisk innhold, fordi de bevisst eller ubevisst spiller p? grunnleggende, sterke psykologiske skjevheter og s?rbarheter hos mennesker, forklarer Kunst.
Algoritmedrevet presisjonsp?virkning
Kombinasjonen av masseprodusert ekstremistisk innhold og hyperpresise algoritmer p? den ene siden, og menneskets innebygde negativitetsbias p? den andre, viser hvordan KI ?ker sannsynligheten for at ekstremt innhold fester seg hos flere mennesker.
– Resultatet er at flere blir eksponert for, og gradvis tiltrekkes av, ganske ekstremt innhold som de tidligere ikke ville sett, forklarer Kunst.
Det er s?rlig problematisk n?r slikt innhold treffer mentalt s?rbare mennesker.
– Et menneske som scorer litt h?yt p? konspirasjonsmentalitet for eksempel, alts? generelt er mottakelig for ? tro at det finnes grupper ?der ute? som styrer i kulissene. Dette er et helt vanlig trekk som er normalfordelt i samfunnet, vi har det alle i st?rre og mindre grad, sier han, og utdyper:
– Dersom vedkommende blir vist gradvis mer innhold som argumenterer for at j?der er overrepresentert i finansverden, politikk, eller mediene, ?ker jo sannsynligheten for at denne personen biter p? og utvikler antisemittiske holdninger hen kanskje ikke hadde fra f?r.
Filterbobler fjerner moderate stemmer
I radikaliseringsprosessen kaller Kunst dette for eksponeringsstadiet. Neste fase er forsterkning. Her har KI-drevne algoritmer f?tt med seg at de kan fange oppmerksomheten med sterkt ladet, negativt innhold – for eksempel ved ? fremme konspirasjonsteorier eller tegne opp et fiendebilde av en minoritet eller samfunnsgruppe.
Da vil algoritmer anbefale mer lignende innhold, og ogs? dulte deg i retning av nye kontoer som fremmer dette tankegodset. Slik skapes en filterboble der mer og mer ekstremt innhold slipper til, mens mer moderate stemmer filtreres vekk.
De fleste har en eller annen type s?rbarhet eller predisposisjon som KI-verkt?yene kan utnytte.
I en slik filterboble ?ker sannsynligheten for at brukeren blir overbevist om at det ekstreme virkelighetsbildet faktisk er sant. Ogs? her jobber KI p? lag med velkjente psykologiske svakheter for ? spre ekstreme holdninger, sier Kunst.
– Repetisjonsbias betyr at repetisjon av innhold ?ker sannsynligheten for at vi tror det er sant. I tillegg kommer bekreftelsesbias: n?r vi f?rst begynner ? bli overbevist om en ting, opps?ker og klikker vi prim?rt p? informasjon som st?tter v?rt eget standpunkt. Dette bidrar til ? forsterke den digitale filterboblen.
Ditt eget personlige ekkokammer
S? langt har vi sett hvordan KI-innhold og KI-drevne anbefalingsalgoritmer kan skape filterbobler og ekkokamre som bekrefter og forsterker ekstreme holdninger. I tillegg peker forskerne p? en mer intim variant av det samme problemet: n?r KI ikke bare styrer feeden din, men ogs? opptrer som din personlige samtalepartner og r?dgiver.

Dette er en problemstilling Henrik Skaug S?tra, f?rsteamanuensis ved Institutt for informatikk ved UiO og forfatter av boken ?Hvordan redde demokratiet fra kunstig intelligens?, forsker p?.
– Chatboter er gjennomg?ende sykofantiske, alts? de har en tendens til ? st?tte og bekrefte det brukeren, alts? deg, skriver. Chatboter veldig gode til ? gi deg mye skryt, sier han.
I praksis kan det bety at en bruker som uttrykker sinne mot en bestemt politiker eller folkegruppe, kan f? bekreftende svar, i stedet for ? bli m?tt med sp?rsm?l om hvor informasjonen kommer fra eller henvisning til andre perspektiver.?
Allerede viser eksperimenter viser at samtaler med sykofantiske chatboter gj?r brukere b?de mer selvsikre og mer ekstreme.
Et demokrati er mer enn valg hvert fjerde ?r. Demokrati betyr ogs? at mennesker m?tes, forst?r og kommer i dialog med hverandre.
Dette er teknologiselskapene klar over. S?tra har for eksempel jobbet med teknologiselskaper for ? avdekke og forst? problematisk adferd blant spr?kmodellene.
– Chatboter kan programmeres for ? gi en mindre sykofantisk, bekreftende tone, og i stedet utfordre personers virkelighetsoppfatning der det trengs. Men da forsvinner gjerne ogs? brukerne. Folk liker rett og slett bedre ? snakke med chatboter som st?tter deg i det du sier, sl?r S?tra fast.
Fra individ til gruppeidentitet
N?r en person har f?tt et stadig mer ekstremt verdensbilde bekreftet og forsterket, er gruppeintegrering neste steg p? veien til politisk ekstremisme. Det betyr ? tre inn i et ekstremistisk fellesskap – digitalt eller fysisk – der medlemmene motiveres og mobiliseres til politisk handling.
– N?r brukeren f?ler seg som en del av et slikt fellesskap kan den oppleve det som p? fagspr?ket heter ?identity fusion?: alts? at man blander sin egen identitet og gruppens. Gruppetilh?righeten blir en sentral del av ens egen selvoppfattelse. 澳门皇冠体育,皇冠足球比分en viser at h?y identity fusion er en kjent risikofaktor for voldelig ekstremisme, sier Jonas Kunst.
Han advarer om at KI kan brukes til ? lage en falsk gruppeidentitet, ved hjelp av autonome ?svermer? av KI-kontoer som deler, liker og kommenterer ekstremistisk innhold p? kryss og tvers og bygger vennskap med brukeren.
_nett.jpg)
I motsetning til tradisjonelle botnettverk, der en masse av falske kontoer gjentar det samme innholdet og meldingene, best?r slike KI-svermer av selvstendige, KI-drevne kontoer med egne personligheter som utvikler, tilpasser og koordinerer poster i sanntid.
– KI-svermene lar ekstreme akt?rer skape en overbevisende illusjon av grasrotbevegelse. I et slikt milj? kan brukeren for eksempel f? inntrykk av at det er normalt ? v?re antisemitt, at man er en del av den stille majoriteten, forklarer Kunst.
Ingen automatikk, men alle er s?rbare
P? dette niv?et har radikaliseringsprosessen kommet s? langt at personen kan bli overbevist om ? yte vold for ? fremme sin ideologi. Ogs? her, p? det siste steget fra holdning til handling, kan KI v?re en faktor.?
I 2023 ble det for eksempel kjent at en britisk statsborger hadde f?tt oppfordringer og planleggingshjelp av en chatbot til ? fors?ke et attentat p? dronning Elizabeth. Og senest i april 2026 hadde ChatGPT angivelig gitt r?d og veiledning til skytteren som drepte to og s?ret seks ved Florida State University.?
Men Kunst understreker at selv om KI ?ker sannsynligheten for at ekstremistiske holdninger spres, er det fortsatt sv?rt f? som faktisk vurderer ? ut?ve vold.
Allikevel: selv om de aller f?rreste blir voldelige ekstremismer, tar demokratiet stor skade av at KI dytter flere inn en digital virkelighet med mer ekstremt innhold og filtrerer ut fakta.
– P? hvert steg av denne prosessen har man oppn?dd det vi kaller affektiv polarisering, der de andre ikke lenger er meningsmotstandere, men fiender eller farlige mennesker som m? stoppes. I tillegg utvides vinduet for hva som er akseptabelt ? snakke om, som for eksempel vold som politisk virkemiddel.
Og selv om KI-drevne radikaliseringsprosesser ikke alltid lykkes, understreker Kunst at ingen er helt immune for ? bli p?virket.
– De fleste har en eller annen type s?rbarhet eller predisposisjon som KI-verkt?yene kan utnytte, sier Kunst.
KI fjerner n?dvendig interaksjon
Henrik Skaug S?tra er bekymret for hvordan KI-drevet radikalisering og polarisering rokker ved noe helt sentralt ved et fungerende demokrati.
– Et demokrati er mer enn valg hvert fjerde ?r. Demokrati betyr ogs? at mennesker m?tes, forst?r hverandre og kommer i dialog med hverandre. Det er det vi kaller deliberativt demokrati, forklarer han.
Ettersom mer og mer av sosiale interaksjoner og meningsutvekslinger finner sted p? KI-dominerte sosiale medier og med chatboter, forsvinner mye av denne demokratiske deliberasjonen – og dermed ogs? viktige mekanismer for ? moderere ekstreme holdninger.
– Du fjerner dragningen mot midten som man f?r n?r man tvinger mennesker til ? forholde seg til hverandre. N?r du ikke interagerer jevnlig med folk som er annerledes enn deg selv, er det lettere ? leve et liv der man oppfatter ekstreme meninger som dagligdagse, sier S?tra, og legger til:
–KI kan gi deg et verdensbilde fullstendig frikoblet fra virkeligheten.
Samtidig p?peker han at KI ogs? har potensiale til ? bremse og snu polariserings- og radikaliseringsprosesser. For eksempel har Google utviklet et konsensusverkt?y de kaller “Habermas-maskinen": en KI-modell som hjelper personer med helt ulike politiske syn ? formulere felles synspunkter.
Algoritmene som styrer feeden kan ogs? enkelt justeres slik at de automatisk identifiserer radikaliseringsprosesser og responderer med ? fremme mer moderat og n?ytralt innhold.
Problemet, p?peker S?tra, er at polariserende innhold gir flest klikk – og dermed mest inntekter.
– Jeg kan vanskelig se for meg — med dagens reguleringer — en god forretningsmodell bygget p? ? bringe mennesker n?rmere hverandre. S? jeg tror ikke teknologiselskapene kommer til ? ta det ansvaret, konkluderer han.
L?r mer om forskning p? KI og demokrati
澳门皇冠体育,皇冠足球比分sartikkelen Intelligent Systems, Vulnerable Minds: A Framework for Radicalization to Violence in the Age of AI. Personality and Social Psychology Review er produsert av den tverrfaglige forskergruppen KI-demokrati. Les mer om arbeidet deres p? UiO:Demokrati sine nettsider.?
Lyst til ? l?re mer om hvordan KI p?virker holdninger og informasjonsstr?mmer? Den 30. april sitter Henrik Skaug S?tra i panelent n?r dScience arrangerer frokostseminaret KI og polarisering p? Scene Domus bibliotheca. ?pent for alle.
Referanser
Kunst, J. R., Obaidi, M., Gollwitzer, A., et al. (2026) Intelligent Systems, Vulnerable Minds: A Framework for Radicalization to Violence in the Age of AI. Personality and Social Psychology Review, https://doi.org/10.1177/10888683261430089.?
Rathje S., Ye M., Globig L. K., et al. (2025) Sycophantic AI increases attitude extremity and overconfidence, preprint.
S?tra, H. S. (2025). Hvordan redde demokratiet fra kunstig intelligens. Cappelen Damm.
Tessler, M. H., Bakker, M. A., Jarrett, D., et al. (2024) AI can help humans find common ground in democratic deliberation. Science, 386(6719), https://doi.org/10.1126/science.adq2852.
BBC News: OpenAI faces criminal probe over role of ChatGPT in shooting. https://www.bbc.com/news/articles/c62j4ldp2jqo.
BBC: How a chatbot encouraged a man who wanted to kill the Queen. https://www.bbc.com/news/technology-67012224.
?
Nyhetsbrev fra 澳门皇冠体育,皇冠足球比分snytt
F? tips om nye funn og innsikt fra Universitetet i Oslo.