V?re kognitive evner – det ? tenke, for s? ? formulere p?stander om virkeligheten er noe av det mest grunnleggende vi gj?r som mennesker. Det er det som skiller oss fra dyrene, liker vi ? tro.
I l?pet av de siste to ?rene har kunstig intelligens – KI – blitt en del av livene v?re, ledet an av utskjelte og geniforklarte Chat GPT. B?de p? jobb og i fritiden stiller vi den sp?rsm?l, noen ganger ut av det bl?, andre ganger ved ? ?prompte? den med informasjon, som saksdokumenter eller et ?nske om hvilken stil svarene skal komme i.
P? kort tid spytter KI-modeller ut mer eller mindre fullgode tekster. Men helt hva som har foreg?tt i ?den svarte boksen?, og hvorfor vi fikk akkurat det svaret, f?r vi aldri vite.
Det eneste vi vet er at denne typen KI er trent opp p? enorme mengder tekstbasert informasjon og har l?rt ? skrive og ?tenke? ut ifra dette enorme datamaterialet.
Basert p? denne l?ringen lager KI-modellen sin forst?else av og sine simulerte p?stander om virkeligheten. Den ?tenker? og formulerer p?stander om virkeligheten – nettopp dette som inntil helt nylig kjennetegnet oss mennesker, ja, som var selve adelsmerket til arten homo sapiens.
Hva skjer med oss dersom tenkning og skriving, v?re grunnleggende, kognitive ferdigheter, er i ferd med ? bli outsourcet til Chat GPT og andre kunstige intelligenser?
– KI-modeller som Chat GPT, Gemini, Copilot og andre er blitt viktige innganger til informasjon og kunnskap. Disse bestemmer hvilket innhold som presenteres for brukere og hvordan det prioriteres. De griper inn i tankem?nstrene, forst?elseshorisonten hos brukeren. De kan i ytterste konsekvens p?virke v?r moral og hvordan vi ser p? verden generelt, sier professor Petter Bae Brandtz?g p? Institutt for medier og kommunikasjon ved Universitetet i Oslo.
I artikkelen ?Understanding model power in social AI? reflekterer han og medforfatterne Marita Skjuve og Asbj?rn F?lstad om maktforholdet mellom mennesket og de nye KI-modellene.
Bruker norsk sosiologiklassiker
Artikkelforfatterne ser problemstillingen med en teori om maktforhold utviklet av den nylig avd?de, norske sosiologen Stein Br?ten for over 50 ?r siden.
– I 1973 lanserte Br?ten sin teori om modellmakt. Teorien peker p? at de som kontrollerer eller skaper modeller av virkeligheten, har innflytelse over andres forst?else og atferd. Se p? hvordan medier, vitenskap og andre autoritative kilder kan forme folks oppfatning av virkeligheten. Vi bruker teorien til ? vise hvordan KI-modeller kan f? innflytelse over v?r forst?else og oppf?rsel, forteller Brandtz?g.
KI-modeller som Chat GPT er basert p? dialog, og har derfor f?tt navnet ‘sosial KI’. Dialogbegrepet kan riktignok problematiseres. Derfor tar forskerne opp igjen Br?tens idé om ?pseudo-dialog?.
– Dette viser til en kommunikasjonssituasjon hvor det tilsynelatende foreg?r en dialog, men der reell gjensidig forst?else eller utveksling av ideer er frav?rende, forteller Brandtz?g.
Br?ten definerte selv modellmakt som ?innflytelse p? andre i kraft av en gjennomslagskraftig virkelighetsmodell som de andre tilskriver som kilde for endegyldige svar p? sp?rsm?l om et bestemt saksomr?de, og som utelukker sp?rsm?lshorisonten for alternative perspektiver og virkelighetsdefinisjoner.?
I klartekst er det den mektigste parten i et forhold, som har mest kunnskap og retoriske ferdigheter og dermed st?rst modellmakt i Br?tens terminologi, som 'vinner' diskusjonene.
Forskerne mener dette kan overf?res til forholdet mellom menneske og maskin i dagens teknologiske virkelighet.
– Vi tror at Br?tens modell er godt egnet til ? beskrive denne relasjonen. Vi lener oss stadig mer til teknologien i alle livets problemstillinger. Interaksjon mellom KI og mennesker kan f?re til modellmonopol der KI p?virker menneskelig tro og atferd, og i verste fall kan f?re til en homogen forst?else av virkeligheten og slik hindre at ulike synspunkter slipper til, sier Brandtz?g.
Brandtz?g, Skjuve og F?lstad tror v?r stadig st?rre avhengighet av KI kan forandre hvordan mennesker finner, behandler og analyserer informasjon og kunnskap, samt hvordan vi etablerer v?r forst?else av verden.
Andre forskere har vist at Chat GPT gir inkonsekvente r?d knyttet til moralske sp?rsm?l. Likevel lot brukerne seg i stor grad p?virke til ? f?lge r?dene.
– Vi ser ikke selv hvordan vi blir p?virket, og vi inntar villig og vilk?rlig standpunktene til den kunstige intelligensen som om de er v?re egne. Det fins til og med eksempler p? studenter som har g?tt til Universitetsbiblioteket og spurt om ? f? l?ne b?ker som ikke finnes, fordi Chat GPT har diktet opp kilder og referanser, forteller Brandtz?g.
Vi har KI i lomma
I dag er kunstig intelligens s?ml?st innlemmet i programmene vi bruker i jobb, p? nettsidene vi bes?ker, og p? telefonen. Det er stor sannsynlighet for at du har Microsofts Copilot p? datamaskina hjemme eller p? jobb – og Facebooks morselskap, Meta, lanserte i fjor sin egen virtuelle assistent, Meta AI, i tillegg til modellen fra Google Gemini.
Hvis en norsk ten?ring i dag lurer p? noe, er sjansen stor for at ungdommen sp?r Snapchats ?My AI?, som til en hver tid ligger ?verst i samtaleloggen, uansett hvor lenge det er siden den ble tiltalt.
Petter Bae Brandtz?g mener dette kan gj?re oss avhengig av KI-generert informasjon, noe som kan svekke v?r egen d?mmekraft. Vi blir kognitivt late og tar ofte for gitt at svarene fra KI stemmer.
Vi ser at folk overvurderer KI, samtidig som de undervurderer selvstendig tenkning.
– P? sikt vil dette redusere v?r evne til kritisk tenkning, og i det store bildet gj?re at f?rre ulike synspunkter kommer fram i den offentlige samtalen.
Mange blir lett overbevist av de velformulerte svarene til KI-ene. Blant annet har amerikanske forskere vist at folk stoler mer p? Chat GPT n?r de skal finne informasjon om helsesp?rsm?l, enn de gj?r p? s?kemotorer som Google.
– Vi ser at folk overvurderer KI, samtidig som de undervurderer selvstendig tenkning. Vi kaller det en overavhengighet av sosiale KI-responser, forteller Brandtz?g.
Grunnleggeren av selskapet DeepMind, Mustafa Suleyman, har beskrevet personlige KI-er mer som et slags vennskap eller kj?rlighetsforhold enn en teknologi: ?Det kommer virkelig til ? alltid v?re til stede og ved siden av deg, leve med deg – egentlig p? laget ditt. Jeg liker ? tenke p? det som ? ha en god trener i hj?rnet ditt.?
– Spr?ket som produseres av disse KI-systemene, fremst?r som n?ytralt, men har potensial til ? manipulere sosiale interaksjoner og forsterke sosiale hierarkier.
Sentralt her er at kunstige intelligenser som Chat GPT er spr?kmodeller, ikke databaser med fakta. De er ikke forpliktet til sannhet, men til sannsynlighetsovervekt.
– Det skjer derfor ofte at spr?kmodeller ?hallusinerer? eller finner opp ?fakta? eller detaljer som ikke stemmer overens med virkeligheten.
Mennesket er den svake part
Stein Br?ten brukte sin teori om modellmakt til ? unders?ke interaksjoner i familier og utdanning, innen vitenskap, utenrikspolitikk og i forretningsnettverk. Han benyttet den ogs? til ? sette sp?rsm?lstegn ved verdien av ? innf?re ?demokrati? p? arbeidsplasser.
Sosiologen Willy Pedersen peker i en artikkel i tidsskriftet Sosiologen p? hvordan en ?konom tett p? ledelsen i et selskap har mer modellstyrke enn en garderobevakt som er valgt inn i styret som representant for de ansatte. ?I de fleste saker som kommer opp p? bedriftens styrem?ter er bedriftens ledelse den modellsterke part. Slik vil dette ?ke, ikke redusere, bedriftsledelsens kontroll.?, skriver Pedersen.
– Stein Br?ten fant et m?nster der enkelte deltakere i samtalen blir marginalisert, og etter hvert tilpasser seg andres perspektiver, tankem?nstre og ekspertise, utdyper Brandtz?g.
Det er jo bare ? gjette hvem som er ?konomen og hvem som er den tillitsvalgte i v?rt forhold til kunstig intelligens?
Vi er ekstremt p?virkbare i m?tet med disse modellene, fordi de nettopp definerer hva som er viktig informasjon og dermed styrer hva vi kan tenke.
– Vi mener ? se at kunstig intelligens er den sterke part i relasjonen til mennesket. Det betyr n?dvendigvis at mennesket er den svake, sier Brandtz?g.
N?r mer og mer informasjon kommer fra eller blir filtrert gjennom kunstig intelligens, blir mennesker s?rbare og manipulerbare.
– Vi er ekstremt p?virkbare i m?tet med disse modellene, fordi de nettopp definerer hva som er viktig informasjon og dermed styrer hva vi kan tenke.
Vi kan bli forledet, eller det kan fint hende vi ikke blir det. Men hvorvidt vi blir det, er utenfor v?r horisont ? oppdage. Det er problematisk i seg selv.
– De kunstige intelligensene kan etter hvert s? mye mer enn oss at enhver idé om reell deltakelse vil v?re tett p? illusorisk.
Spr?kmodeller kan dessuten v?re ideologisk og politisk orienterte. En fersk studie av ti ledende sosiale KI-er, inkludert ChatGPT-4 og Googles Gemini, fant ut at de gjentok falske fortellinger knyttet til russisk desinformasjon.
– Selv n?r de ble presentert for enkle, n?ytrale sp?rsm?l uten noen eksplisitte signaler for ? generere desinformasjon, gjentok disse KI-ene fortsatt falske p?stander fra pro-russiske nettverk.
Det er all grunn til ? v?re kritisk, mener Brandtz?g.
– Det sp?rs om journalister og redakt?rer, som har ?kastet seg? over KI, er klar over dette og har et bevisst forhold til alle skjevhetene som kan f?lge med KI.
Advarer mot big tech-tyranni
Brandtz?g har tidligere advart mot ?big tech? sin makt, blant annet i kronikken ?Big tech-tyranniet? p? bransjenettstedet Medier24.
Begrepet er ikke helt entydig definert. Men eksperter mener vanligvis de fem store, amerikanske teknologiselskapene: Alphabet, Amazon, Apple, Meta og Microsoft, ogs? kalt ?The big five?. Andre viser til ?The Magnificent Seven? som ogs? tar med prosessorprodusenten Nvidia og bilprodusenten Tesla.
Brandtz?gs kronikk den gang kom som svar p? at Twitter og Facebook stengte tilgangen for dav?rende president, Donald Trump.
– Man kan si hva man vil om Trump. Men at presidenten i verdens mest toneangivende land ikke skulle komme til orde der milliarder av mennesker samles, er ?penbart problematisk. Det sier litt om hvor mye makt disse selskapene har n?r de kan sette munnkurv p? verdens mektigste person.
Og dette var alts? f?r de kunstige intelligensene gjorde sin entré p? verdensscenen. N? som big tech tar grep om hvordan vi tenker og formulerer p?stander om virkeligheten, kan denne makten mangedobles.
– N? er det mer subtilt. Kunstig intelligens g?r inn i tankem?nstrene v?re, skrivem?nstre og derfor handlingsm?nstre. Det kan f? en enorm p?virkning p? hele samfunnet, advarer Brandtz?g.