
Av Barbara Stein og Andrea Berg Foss

Denne teksten er skrevet i samarbeid med KI-tjenesten chat.uit.no, som bygger på GPT-4o.
Vi har brukt verktøyet til idémyldring, forslag til innhold og strukturering av teksten. Vi har gjennomgått, redigert og tar ansvar for teksten.
Kunstig intelligens (KI) har de siste årene fått økt oppmerksomhet innen helse- og omsorgssektoren, og mange har tatt det i bruk i (arbeids)hverdagen. For vernepleiere kan KI-verktøy åpne nye muligheter for å forbedre tjenester og effektivisere arbeidsprosesser. Men hvordan kan disse verktøyene brukes i praksis, og hvilke utfordringer må vi være oppmerksomme på?
Det finnes mange ulike typer KI-verktøy. De mest kjente er tekstbaserte KI-verktøy, eller store språkmodeller, som ChatGPT, Gemini, Copilot m.fl. Jf. ChatUiT (2025) kan slike verktøy brukes av vernepleiere til utvikling av individuelle tiltaksplaner eller til å analysere data om brukere for å identifisere spesifikke behov, foreslå tilpassede tiltak, og individuell tilpasning av tjenester. På den måten vil bruken spille på en av språkmodellenes store styrker; det å analysere og trekke ut innsikter og identifisere trender fra store mengder data. Tar man et steg videre, kan KI-verktøy tenkes til å forutsi mulige helseproblemer basert på mønstre i data, slik at tiltak kan settes inn tidlig (ChatUiT, 2025). Denne typen innsikt kan så brukes videre i praksis til å forbedre tjenestene.
ChatUiT (2025) foreslår at tekstbaserte KI-verktøy kan brukes til å oversette mellom språk eller tilrettelegge for kommunikasjon med personer som har ulike språklige eller kulturelle bakgrunner. Andre typer KI-verktøy kan brukes til tekst-til-tale eller symbolbaserte løsninger. Allerede i dag bruker enkelte personer med kommunikasjonsvansker KI-drevne apper og hjelpemidler i sin hverdag (SINTEF, 2025).
Et annet bruksområde kan være administrasjon. ChatUiT (2025) nevner at KI-verktøy kan automatisere tidkrevende oppgaver som journalføring, rapportskriving, timeplanlegging, og planlegging av turnusplaner. Opplæring og kompetanseheving er et annet område der KI-verktøy kan hjelpe med. ChatUiT (2025) peker på laging av realistiske caser, eller rask tilgang til oppdatert informasjon og forskning.
Mange bruker i dag KI som beslutningsstøtte innen e-helse, og det finnes både generelle og mer spesifikke verktøy til dette (Storvik, 2024). ChatUiT (2025) foreslår at vernepleiere kan bruke KI til å vurdere etiske dilemmaer ved å analysere ulike alternativer og deres konsekvenser. Beslutningsstøtteverktøy i KI kan ifølge ChatUiT hjelpe vernepleiere med å ta informerte valg i komplekse situasjoner.
Hvert av disse forslagene byr imidlertid på etiske og yrkespraktiske utfordringer. Flere av forslagene ChatUiT (2025) kom med, forutsetter at KI-verktøy får omfattende tilgang til informasjon om brukerne, yrkesutøvere og arbeidsplassen. Dersom KI-verktøy skal kunne brukes til analyse av informasjon og helseopplysninger, må det sikres at brukere og pasienter har samtykket, og at KI-tjenesten er «lukket», dvs. at dataene ikke spres eller at verktøyet blir lært opp på disse. ChatUiT er en slik tjeneste ettersom den er «personverntrygg» og tillat til bruk av personopplysninger og annen taushetsbelagt informasjon. Verktøyet er imidlertid kun tilgjengelig for ansatte og studenter ved UiT (UiT AI Team, 2025). Flere universitet og høyskoler har utviklet lignende verktøy, som GPT UiO og UiBchat, men få av disse verktøy er tillatt til prosessering av helsedata og sensitive personopplysninger.
Vernepleieres eventuelt bruk av KI-verktøy må være i henhold til de gjeldende juridiske rammer samt sikkerhetsnivået til det aktuelle verktøyet. Bruk av KI-verktøy til yrkesutøvelsen krever opplæring i hvilke verktøy som er egnet til hva og utfordringene ved lovlig bruk av KI-verktøy generelt. Et løsningsforslag her kan være tverrfaglige arbeidsgrupper som omfatter IT-eksperter, jurister og helsepersonell for å finne gode løsninger. Helsedirektoratet (u.å.) kan være en viktig støtte i å finne rett verktøy.
En annen utfordring er knyttet til kvaliteten på svarene. Flere eksempler de siste årene har vist at KI-verktøy er flinke til å finne opp kilder som ikke finnes (Grønning, 2025). KI-verktøyene får også mest kunnskap fra åpne kilder og nettsider som Wikipedia og Reddit (Lafferty, 2025). En av de store svakhetene med så å si alle språkmodeller er at den ikke evner til å skille mellom meninger og påstander, og fakta og fagfellevurdert kunnskap (Tzur, 2025). Alle svar fra KI-verktøy må derfor ses på med et kritisk blikk. Både arbeidsplasser og utdanningsinstitusjoner har nok en vei å gå med å heve kompetansen og øke kunnskap blant vernepleiere om KI-verktøyenes begrensninger.
KI-tjenester mangler evnen til empati og kontekstforståelse, som er avgjørende i mange situasjoner som vernepleiere står i. KI-verktøy bygger sine svar på de opplysningene de har fått, som journalnotater eller andre former for rapportering. Denne informasjonen kan være begrenset og/eller ensidig. Et helhetlig bilde innebærer også kliniske observasjoner og komplekse vurderinger som KI-verktøy ikke har evnen eller informasjonen til å gjøre.
KI-verktøy kan heller ikke erstatte klinisk skjønn eller den menneskelige relasjonen mellom vernepleier og tjenestebruker. Klinisk observasjonskompetanse, og videre vurdering av tiltak er en ferdighet som krever øvelse og opplæring i handlingsberedskap (Aldring og helse, 2025). Vil vernepleiere ha samme forståelse av tjenestebrukers behov og ønsker dersom de ikke selv har gjennomført resonneringen og analysen, men overlatt prosessen til en maskin vi ikke ser eller forstår hjernen til? Vil tjenestebrukere være like godt ivaretatt? Det er også nødvendig å tenke over hvem som har ansvaret hvis KI-verktøy brukes i beslutningsstøtte, men gir feil råd eller anbefalinger.
Bruk av KI-verktøy kan være en verdifull støtte, men de kan og skal ikke erstatte vernepleierfaglig kompetanse. Når virksomheter innen helse- og omsorgstjenesten ønsker å ta i bruk KI-verktøy, anbefales det å få inn sakkyndig hjelp, slik Helsedirektoratet (u.å.) tilbyr.
Aldring og helse. (2025). Klinisk observasjonskompetanse. Hentet 11. september 2025 fra
Grønning, T. (2025). Kommune tatt for KI-bruk: – Dette er pinlig. Hentet 24. september 2025 fra
Helsedirektoratet. (u.å.). Kunstig intelligens. Hentet 26. september 2025.
Lafferty, N. (2025). AI Platform Citation Patterns: How ChatGPT, Google AI Overviews, and Perplexity Source Information. Profound. Hentet 24. september 2025.
SINTEF. (2025, 14. mai). Oversetter tegnspråk i sanntid ved hjelp av KI.
Tzur, A. (2025). Hva er ChatGPT? Enkelt forklart med 11 nyttige tips. AIavisen.
UiT Norges arktiske universitet. (2025). ChatUiT (Versjon GPT‑4o, OpenAI) [Språkmodellprogramvare]. Hentet 23. september 2025.
UiT AI Team. (2025). Informasjon om bruk av kunstig intelligens. Hentet 24. september 2025.