<iframe src="https://www.googletagmanager.com/ns.html?id=GTM-W3GDQPF" height="0" width="0" style="display:none;visibility:hidden">

Kunstig intelligens: Du er herved advart

De neste årene vil bli (vel) spennende, men det hersker liten tvil om at både politikere og samfunnet ellers må holde tungen rett i munnen, skriver sjefstrateg Christian Lie.

Publisert 22. apr.
Lesetid: 6 minutter
Artikkellengde er 1396 ord
AI-BEKYMRING: OpenAI-sjef Sam Altman (t.v.) har oppfordret til økt regulering og uavhengige granskninger. Tesla-topp Elon Musk (t.h.) har tidligere foreslått AI-pause. Foto: NTB

Gjestekommentar: Christian Lie, sjefstrateg, Formue

Christian Lie, Formue. Foto: Formue

Omveltningene som kommer i kjølvannet av det som kan bli en teknologisk revolusjon, har også en mørkere side. Potensialet for uønskede konsekvenser fra maskiner som evner å tenke, planlegge og handle er betydelig. Når selv AI-eksperter advarer, bør vi også være bekymret?

Advarsler fra ekspertene

I mai 2023 signerte over 350 ledere, forskere og ingeniører fra teknologisektoren en pressemelding bestående av én enkelt setning:

«Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war».

To av de som signerte oppropet ansees som opphavsmenn til kunstig intelligens. Den ene sluttet hos Google for å kunne snakke fritt om teknologiens mulige faremomenter. Elon Musk, en av verdens rikeste personer og hovedaksjonær i Tesla, foreslo sammen med tusen forskere og teknologiledere i mars 2023 en seks måneders pause i utviklingen av AI for å forhindre det de kalte et «våpenkappløp».

Både finansmarkedene og investorer vil bli påvirket, trolig også på måter vi ennå ikke vet at vi ikke vet om.

Sam Altman, sjefen for OpenAI, som står bak ChatGPT, oppfordret politikerne i den amerikanske kongressen til økt regulering, uavhengige granskninger av utviklermiljøene, utstedelse av lisenser og advarsler til brukere av AI-systemer på linje med merking av næringsinnhold på matvarer. Altman uttrykte bekymring for at bruken av kunstig intelligens med høy sannsynlighet vil påvirke utfallet av det kommende presidentvalget.

Fordi AI etterhvert vil kunne bli essensielt på så mange måter, er det heller ikke mangel på områder, problemstillinger og utfordringer som kan komme i dens kjølvann.

Risikofaktorer og problemstillinger


Arbeidsmarkedene

  • Kunstig intelligens vil gi oss nye maskiner, roboter og prosesser som gjør menneskelig arbeidskraft overflødig. Det kan gi økt arbeidsledighet i enkelte bransjer, samtidig som det kan kompensere for mangel på arbeidskraft i andre. AI vil definitivt også kunne skape nye utdanningsområder og jobber. Automatisering kan motvirke lønnspress i kjølvannet av demografiske endringer.
  • Goldman Sachs har anslått at to tredjedeler av jobbene i USA og Europa kan helt eller delvis bli automatisert, og at 300 millioner jobber er i faresonen globalt.


Økonomisk ulikhet

  • AI kan bidra til å forsterke behovet for en viss type kompetanse i arbeidsmarkedene, og dempe behovet på andre områder. Dette kan gi større forskjeller med hensyn til lønnsvekst og sysselsetting i ulike deler av økonomien og blant arbeidstagere med ulik bakgrunn og kompetanse.
  • AI-teknologi kan bli mest tilgjengelig for ressurssterke land, bedrifter og husholdninger. Dette kan gi økte forskjeller i levestandard, fremtidsutsikter og lønnsomhet. Forskjellene er i stor grad knyttet til teknologiens potensiale til å løfte produktiviteten i en økonomi eller i en virksomhet.


Energibruk

  • Kunstig intelligens er en risikofaktor med hensyn til energitransisjonen. Fordi teknologien og dens tilknyttede datasentre er ekstremt energiintensive, kan AI bidra til å legge ytterligere press på nettverkskapasitet og energipriser.
  • Elon Musk mener tilgangen på energi kan bli en flaskehals for AI-utvikling. En toppsjef i Amazon sier det ennå ikke er tilgang til nok energi for å drive nye generative (AGI) systemer. Utfordringene følger i kjølvannet av store investeringer i nye datasentre, anslagsvis 225 milliarder dollar bare i 2024. Nvidia-sjefen tror det må investeres ytterligere 1.000 milliarder dollar de neste årene bare for å møte behovet til mer avanserte AI-konsepter.
  • Det internasjonale energibyrået (IEA) tror strømforbruket i slike datasentre globalt vil doble seg fra i dag til 2026, en økning tilsvarende det årlige strømforbruket i Japan. I USA alene spås et strømforbruk i 2026 som er ti ganger nivået fra 2023. Sjefen for en amerikansk databrikkeprodusent tror AI-datasentre vil bruke opp mot en fjerdedel av all amerikansk elektrisitet innen 2030, opp fra fire prosent nå.
  • AI-aktørene ønsker å hente energi fra fornybare energikilder, men utfordringen er at ny energikapasitet og infrastruktur kan ta mange år å bygge. Flere teknologiselskaper ser på muligheten for å bygge modulære kjernekraftverk, eksempelvis har Amazon allerede betalt 650 millioner dollar for et anlegg tilknyttet et av sine datasentre. I Irland, Nederland og Singapore har politikere foreslått å begrense utbyggingen av datasentre av hensyn til strømforbruk.
  • Et søk med ChatGPT bruker ti ganger så mye strøm som et Google-søk.


Personvern og sikkerhet

  • AI kan bidra til utvikling av overvåkningssystemer som blir vanskeligere å oppdage og/eller regulere, og som blir en betydelig trussel mot personvernet.
  • Alle databaserte systemer, inkludert de som er styrt av kunstig intelligens, er utsatt for forsøk på hacking og misbruk. Vi vet også at AI har potensial til å gjøre slike angrep mer sofistikerte og vanskelige å beskytte seg mot. Eksempelvis i næringslivet, offentlig sektor, forsvaret og i helsevesenet.


Spørsmål knyttet til opphavsrett

  • AI-systemer er avhengige av enorme mengder data som de henter fra tilgjengelige kilder. Det kan inkludere akademiske studier, litteratur eller annen tekst som er beskyttet av opphavsrettigheter. Allerede er det flere søksmål på gang mot AI-selskapene, eksempelvis fra en forfatterorganisasjon som beskylder OpenAI for systematisk tyveri. Om selskapene som står bak AI-modellene blir stilt ansvarlige for faktiske og mulige brudd på slike rettigheter, kan det bremse utvikling og lønnsomhet. De fleste AI-aktørene jobber derfor med lisensavtaler for å unngå fremtidige uoverensstemmelser.


Sosiale og etiske spørsmål

  • Hvis etiske/moralske retningslinjer ikke bygges inn i AI-systemene, kan det bidra til å forsterke sosiale fordommer og diskriminering. Det finnes allerede eksempler på at det i sosiale medier og i allment tilgjengelige AI-verktøy gis informasjon som forsterker ulike omstridte syn eller meninger.
  • Hvem har ansvaret for informasjonen kunstig intelligens gir oss? Hvem skal stilles til ansvar dersom AI direkte eller indirekte fører til at mennesker eller verdier skades? Fordi det som kommer ut av en AI-modell ikke alltid kan forutsees av hverken programmereren, AI-selskapet eller andre, oppstår det som defineres som «a responsibility gap», altså uklarheter i ansvarsfordeling, noe som også gir behov for definering og regulering av myndighetene.


Politisk regulering og lovgivning

  • Det er altså essensielt at kunstig intelligens blir styrt, overvåket og regulert av politikerne. Dette kan bli utfordrende fordi teknologien utvikler seg i en eksponentiell fart, og fordi omfanget av bruksområder er nær ubegrenset.
  • EU har kommet lengst i reguleringsarbeidet gjennom «Artificial Intelligence Act». EU-kommisjonen kategoriserer eksempelvis AI-områder med hensyn til samfunnsmessig, personlig, økonomisk og sikkerhetsmessig risiko. Jo høyere risiko, desto strengere regulering. Det jobbes også med kartlegging av hvilke datakilder som skal kunne inkluderes i AI-systemer, og hvilke som skal være unntatt offentlighet. Norge inngår i et europeisk prosjekt for å fremme hensiktsmessig og trygg bruk av kunstig intelligens, kalt «Coordinated Plan».


Feilinformasjon og mental helse

  • «Fake news» kan bli bare barnematen. Kunstig intelligens kan brukes til å lage falske videoer eler lydklipp av virkelige personer, skape tekst som fremstår skrevet av spesifikke mennesker, bedrifter eller organisasjoner, endre eller manipulere eksisterende informasjon, eller til å identifisere målgrupper som kan være mottagelige for feilinformasjon, eksempelvis i forkant av politiske valg.
  • Hvis AI får menneskelige egenskaper, eksempelvis uttrykt gjennom sosiale medier, i mobiltelefoner eller roboter, vil det kunne få store konsekvenser for vår sosiale omgang, sosiale ferdigheter og menneskelige væremåte.
  • Allerede i dag sliter mange med teknologisk avhengighetsproblematikk. AI vil kunne forsterke utfordringene via individuelt tilpasset interaktivitet.


Våpensystemer og eksistensiell risiko

  • Skulle generell kunstig intelligens (AGI) nå et stadium der teknologien blir mer intelligent enn de menneskene som utvikler og overvåker den, er det en risiko for at menneskene mister kontrollen over maskinene, eller ikke lenger klarer å forstå hva de gjør, hvorfor de gjør det og hva som kan bli resultatet.
  • AI kan bli like viktig for militære som for sivile formål. Dette åpner for mer avanserte våpen- og forsvarssystemer, nye former for krigføring og cyberkrig.
  • I verste fall kan kunstig intelligens bli en eksistensiell risiko for menneskeheten dersom AI selv utvikler og utløser en destruktiv strategi, og/eller at terrorister eller fiendtlige myndigheter anvender avansert teknologi til destruktive angrep. Dette er relatert til såkalte «Lethal Autonomous Weapons Systems», som kan identifisere, oppsøke og ødelegge mål uten menneskelig innblanding.
  • I takt med geopolitisk spenning kan konkurransen om å utvikle de mest effektive høyteknologiske våpensystemene føre til et nytt våpenkappløp. Ettersom dette er databasert, er risikoen for feiltagelser, uhell eller hacking betydelig.

De neste årene vil bli (vel) spennende, men det hersker liten tvil om at både politikere og samfunnet ellers må holde tungen rett i munnen med hensyn til kunstig intelligens. Både finansmarkedene og investorer vil bli påvirket, trolig også på måter vi ennå ikke vet at vi ikke vet om.

Christian Lie

Sjefstrateg, Formue