
McKinseys State of AI-rapport for 2025 slår fast noe som burde sette fart i flere styreromsdiskusjoner: 88 prosent av organisasjoner har tatt i bruk generativ AI. Bare 6 prosent rapporterer om signifikant EBIT-effekt. MIT fant det samme fra brukersiden: 95 prosent av GenAI-piloter i store selskaper gir ingen målbar effekt på bunnlinjen.
Bare 6 prosent av organisasjoner som har tatt i bruk generativ AI rapporterer om signifikant effekt på bunnlinjen. 95 prosent av GenAI-piloter gir ingen målbar effekt.
Problemet sitter ikke i modellene. Det sitter i hvordan organisasjonen er rigget for å bruke dem.
I praksis betyr det at tusenvis av norske bedrifter betaler for Copilot-lisenser og ChatGPT-abonnementer uten noen plan for hva verktøyene faktisk skal løse. De har krysset av for «AI-satsing» i budsjettet. Det de ikke har, er en struktur som gjør at satsingen treffer arbeidsoppgavene. Verktøyet er der. Strategien er det ikke.
Tallene avslører et paradoks: I 2024 var 69 prosent av ledere trygge på selskapets AI-strategi. Ett år senere hadde den andelen falt til 58 prosent, mens 82 prosent sa de var mer optimistiske enn noensinne. Og 60 prosent av de samme lederne opplyste at de bevisst hadde bremset AI-implementeringen. Mer optimistiske, mer forsiktige, og enda færre med konkrete resultater.
Andelen ledere som var trygge på selskapets AI-strategi falt fra 69 til 58 prosent på ett år, mens 82 prosent sa de var mer optimistiske enn noensinne.
Det nordiske bildet er ekstra tydelig. EY fant at bare 26 prosent av nordiske CEOer er personlig involvert i teknologistrategi, mot 49 prosent globalt. Norden er, paradoksalt nok, ledende på digitalisering men etternølere på det som faktisk avgjør om AI-satsingen biter: eierskapet øverst.
Bare 26 prosent av nordiske CEOer er personlig involvert i teknologistrategi, mot 49 prosent globalt. Norden er ledende på digitalisering, men henger etter på leder-eierskap til AI.
Izy er et proptech-selskap med 21 ansatte som jobber i krysningspunktet mellom eiendomsforvaltning, kantinedrift og leietakeropplevelse. Selskapet driver en plattform med rundt 150 000 brukere og en brukertilfredshet på 92 prosent ifølge intern brukerundersøkelse. Det er et selskap i vekst, men det er ikke et techselskap med 200 ingeniører og et dedikert AI-team.

Det gjør valget om å ta AI-lederskapet på alvor enda mer konkret.
For meg var det helt åpenbart at dette ikke kunne delegeres bort. AI påvirker P&L direkte. Det er ikke en teknologiutfordring, det er en kunnskapsutfordring. Hvis AI-initiativene skal gi effekt på bunnlinjen, må forretningssiden lede arbeidet.
Kjetil bruker AI daglig. Claude Code til å bygge og teste personlige agenter og til avansert resonnering rundt struktur og systemer. ChatGPT til enklere tekstoppgaver. Langdock i organisatorisk sammenheng der det trengs kontroll og struktur.
«Poenget for meg er ikke hvilke verktøy vi bruker, men at jeg som leder faktisk bruker dem selv. Det gir en helt annen forståelse enn å lese om dem.»
I stedet for å sette i gang et pilotprosjekt og avvente resultater, valgte Kjetil å forankre AI-strategien som en ledelsesoppgave. Det er en distinksjon som McKinsey-forskningen understøtter direkte: høytytende AI-organisasjoner er tre ganger mer tilbøyelige til å ha seniorledere som aktivt demonstrerer eierskap og modellerer AI-adopsjon.
Den største utfordringen har vært kommunikasjon. Hva skal jeg snakke om, når skal jeg snakke om det, og hvordan formulerer jeg det slik at det skaper nysgjerrighet og mestring i stedet for usikkerhet?
Kjetils tilnærming ble å kombinere strategisk eierskap med strukturell støtte i tre lag.
Først hentet han inn en ekstern AI-konsulent for å sikre fart og retning i oppstarten. «Selv om vi har flere i organisasjonen som synes AI er spennende, går utviklingen så fort at det er vanskelig å både følge med i markedet, ta gode teknologiske og metodiske valg og samtidig levere på den daglige jobben,» forklarer Kjetil. «Ved å hente inn ekstern kompetanse sikret jeg fart og struktur, og ikke minst riktig retning fra start. Uten en tydelig felles retning risikerer man at ulike deler av organisasjonen eksperimenterer i hver sin retning, og at man først senere oppdager at man har valgt feil spor.»
Den eksterne AI-konsulenten jobber tett med Saurav Pandey, senior utvikler i Izy, som dekker det tekniske sporet. Når AI-verktøy rulles ut i utviklingsmiljøet, må hastigheten økes uten å kompromittere driftssikkerhet og kvalitet.
«For meg var det aldri et spørsmål om én eller to,» sier Kjetil om tosporsmodellen. «Den ene rollen handler om å effektivisere organisasjonen og forstå forretningslogikk. Den andre handler om utviklingstempo og kvalitet. Balansen mellom disse to perspektivene er avgjørende.»
Tredje lag er avdelingsfrontfigurene. Tidlig i prosessen gjennomførte den eksterne AI-konsulenten intervjuer med alle ansatte, inkludert Kjetil selv, for å forstå hvilke oppgaver de faktisk sitter med. Der ble de mest fremoverlente medarbeiderne identifisert, og de driver nå onboarding av Langdock og AI på sine avdelinger.
Målet er formulert enkelt internt: ansatte skal naturlig tenke «kan AI hjelpe meg med dette?» Det høres banalt ut. Det er det ikke. Det krever at AI-verktøyene faktisk løser reelle problemer for den enkelte medarbeideren, ikke bare for selskapet som helhet.
Langdock er en europeisk enterprise AI-plattform som gir organisasjoner ett felles grensesnitt mot flere AI-modeller, med mulighet til å bygge spesialiserte agenter, koble til interne systemer og styre datatilgang per bruker og agent. All data forblir i Europa, og ingen data brukes til modelltrening.
Izy valgte Langdock etter en evaluering basert på fire konkrete kriterier:
Når du bygger en agent for compliance-arbeid, vil du ikke at den automatisk har tilgang til alle salgsdata. Kontroll per agent er et grunnleggende prinsipp for ansvarlig AI-bruk i en bedrift.
Per februar 2026 kjører Izy fire live agenter: Content Manager (innholdsproduksjon), Content Viewer (informasjonstilgang), Compliance Manager (internkontroll og regelverk) og en Jira-workflow bygget av Thomas, Izys Agile Manager, som effektiviserer oppgavehåndtering direkte i Langdock.
Syv live agenter i februar 2026: Content Manager (innhold), Content Viewer (informasjon), Compliance Manager (internkontroll) og en Jira-workflow for oppgavehåndtering, for å nevne noen.
Izy opererer dessuten med to parallelle AI-spor som er viktige å holde fra hverandre: produkt-AI og intern AI. Produkt-AI er det kundene møter: mAIfood bruker bildegjenkjenning for å identifisere matretter i kantinedrift, mens Izys prediksjonsmodell treffer totalt antall gjester med 95 prosents treffsikkerhet. Sammen reduserer de matsvinn og gir kantineoperatørene bedre beslutningsgrunnlag. Det er AI som skaper verdi for Izys kunder. Langdock er intern AI, det som skaper verdi for Izys egne ansatte.
EU AI Act trer i full kraft i august 2026. For de fleste 21-personers selskaper høres det fjernt ut. Men Izy er eid av et større PE-selskap, og da gjelder porteføljens krav like mye som selskapets størrelse. Det er en situasjon mange SMBer deler: du er liten operasjonelt, men rapporterer oppover i en struktur som krever etterlevelse.
EU AI Act trer i full kraft i august 2026. De fleste SMB-bruksområder faller i kategorien lav eller minimal risiko med forenklede krav. En faseinndelt, dokumentert tilnærming er tilstrekkelig for de aller fleste.
Compliance er ikke et valg, det er et krav. Det handler ikke bare om regulering. Det handler om tillit. Den tilliten er grunnmuren i det vi gjør, og den tar år å bygge og sekunder å miste.
Motargumentet er at SMBer mangler ressurser til skikkelig AI-styring. Det er delvis sant, men det er feil konklusjon. EUs risikobaserte tilnærming betyr at de aller fleste SMB-bruksområder faller i kategorien lav eller minimal risiko, med forenklede forpliktelser. Problemet er ikke å bygge styringsrammen. Problemet er å oppdage at leverandørens AI-løsning ikke er compliant når håndhevingen starter.
Izy har valgt en faseinndelt tilnærming som er gjennomførbar uten en juridisk avdeling:
Å vite hva AI ikke skal gjøre autonomt er like viktig som å vite hva den skal gjøre. «AI skal ikke ha direkte tilgang til våre brukere eller deres transaksjoner,» sier Kjetil. «Forretningskritisk og sensitiv informasjon må beskyttes.»
For de tilfellene der Izy trenger å bruke AI-modeller utenfor Langdock, bygger selskapet en redaction-løsning: sensitiv data maskeres med nøkler før den sendes til en modell, og re-injiseres når responsen kommer tilbake.
«Vi ønsker ikke å velge mellom ytelse og sikkerhet,» sier Kjetil. «Ved å bygge en redaction-løsning som en del av vår kjerneinfrastruktur kan vi bruke de mest avanserte modellene i markedet og samtidig beskytte forretningskritisk informasjon. Dette er ikke et midlertidig tiltak. Det er en bevisst arkitektur som kan bli et konkurransefortrinn.»
En av de mest ærlige observasjonene i Izys AI-arbeid er det interne diagnosearbeidet Champions-teamet gjennomførte tidlig i prosessen. Hva stopper faktisk folk fra å bruke AI-verktøyene?
Fire barrierer ble identifisert:
Smalt scope. Når bare to avdelinger har agenter som er relevante for dem, har de fleste ansatte ingen grunn til å åpne plattformen. Å bygge agenter kun for marketing og compliance er et godt startpunkt, men et dårlig sluttpunkt.
Manglende integrasjoner. Hvis AI-plattformen er en øy, utenfor HubSpot, Jira og Google Workspace, forsvinner halve verdien. Folk jobber der systemene er. AI må møte dem der.
Ingen «aha-opplevelse». Dette er den kritiske barrieren. Folk tar ikke AI-verktøy i bruk på permanent basis fordi de har fått en instruksjons-e-post. De tar dem i bruk fordi de en dag oppdager at verktøyet løste et konkret problem raskere enn de klarte det selv. En selger som oppdager at AI-plattformen kan forberede en kundemøte på to minutter i stedet for tjue, er en bruker som kommer tilbake.
Ingen vanetrigger. Det er ikke nok å ha en god opplevelse én gang. Det kreves en trigger, en rutine eller et arbeidsflyt-inngangspunkt som gjør at den ansatte naturlig vender tilbake til verktøyet.
Izys fire barrierer mot AI-adopsjon: Smalt scope, manglende integrasjoner, ingen «aha-opplevelse», ingen vanetrigger. Løsningen er ikke kommunikasjonskampanjer. Det er å bygge agenter som er nyttige nok til at folk finner dem selv.
Dette er ikke problemer som løses med interne kommunikasjonskampanjer. De løses ved å bygge agenter som er nyttige nok til at folk finner dem på egenhånd. Izys prinsipp: gjør Langdock så nyttig at folk går dit selv.
La oss ta de to vanligste innvendingene.
«AI-first er bare markedsføringsspråk.» Det er en rettferdig anklage mot mange selskaper som bruker begrepet uten substans bak. Svaret er å definere AI-first gjennom atferd, ikke ambisjoner. Har selskapet navngitte agenter med konkrete ansvarsområder? Har ledelsen brukt egne kriterier for plattformvalg? Er det bygget inn styringsmekanismer som skiller hva AI kan og ikke kan gjøre? Er det en plan som strekker seg utover de tre første pilotene? Hvis ja på alle fire, er det noe reelt. Begreper er tomme. Strukturen bak dem er ikke det.
«SMBer har ikke ressurser til AI-styring.» Ressurskravet er lavere enn mange tror, særlig innenfor EU AI Acts risikobaserte rammeverk. Et selskap på 21 ansatte trenger ikke en compliance-avdeling for å håndtere lav-risiko AI-bruk. Det trenger en bevisst plan for hva AI skal og ikke skal gjøre i de ulike delene av virksomheten, og et system for å logge AI-anbefalinger der det er kritisk. Izy har bygget dette inn i agentspesifikasjonene sine. Det er ikke umulig for en SMB. Det krever prioritering.
Izy er ikke ferdig. Tre live agenter av et mål på 24 er ikke transformasjon, det er et godt startpunkt. Men strukturen de har bygget er overførbar allerede nå, og det er verdien av å dele den på dette tidspunktet.
Her er det som faktisk kan stjeles:
CEO-eierskap er ikke delegasjon. Det betyr at CEOen personlig bruker verktøyene, personlig er involvert i plattformvalget, og personlig setter tonen for hva som er akseptabelt bruk og ikke. McKinsey-data er klar: organisasjoner med synlig seniorlederforankring er tre ganger mer tilbøyelige til å lykkes med AI. Det er ikke en bonus. Det er strukturbetingelsen.
Trespors kompetansemodell. Ekstern spesialistkompetanse for fart og retning, intern tech for kvalitet og driftssikkerhet, og avdelingsfrontfigurer som driver adopsjon blant kollegaer. Ikke bare IT-avdelingen som eier AI-utrullingen.
Verdi før distribusjon. Motstå fristelsen til å gjøre AI-bruk obligatorisk før det er nyttig. En ansatt som bruker et dårlig verktøy etter pålegg, er ikke en AI-bruker. En ansatt som finner verktøyet selv fordi det faktisk hjelper dem, er det.
Faseinndelt governance. Ikke alt på én gang. Begynn med lavrisiko-brukstilfeller, bygg styringsmekanismer inn i agentspesifikasjonene, og eskalér godkjenningskravene i takt med risikoen. Fase 4 krever juridisk avklaring. Fase 1 gjør ikke det. Det er et håndterbart skille for en SMB.
Planlegg for «aha-øyeblikket» per avdeling. Ikke vent på at det skjer organisk. Finn én konkret arbeidsoppgave per avdeling der AI kan erstatte minst 20 minutter manuelt arbeid. Bygg agenten. La den ansatte oppdage det selv.
I februar 2026 er Izy et selskap midt i en reell AI-transformasjon. Integrasjonene med HubSpot, Jira og Google Workspace er under arbeid. En intern salgsworkshop planlegges for å gi selgerne konkrete verktøy som reduserer forberedelsestid. Agenter for kundeservice og møteforberedelse er på roadmapen.
Det er arbeid i gang, ikke en ferdig case study. Det er heller det som gjør det relevant: det er mulig å se prosessen mens den pågår, ikke bare resultatet i ettertid.
Internt er målet formulert som 60 prosent AI-adopsjon blant ansatte, med et forventet produktivitetsløft på 10 til 15 prosent. Det er mål, ikke leverte tall. Og det er riktig å si det eksplisitt, fordi den vanligste feilen i AI-kommunikasjon er å presentere ambisjoner som resultater.
«Vi vil ha færre offshore-utviklere og høyere produksjonstakt på tjenester og kundetilpasninger,» sier Kjetil om de neste tolv månedene. «AI skal gjøre oss mer produktive, ikke bare større.»
På spørsmål om hva han ville gjort annerledes, er Kjetil tydelig:
«Jeg ville strukturert kunnskapen vår tidligere. All informasjon vi sitter på, produktdokumentasjon, lisenser, metodikker, interne sannheter og ustrukturert data, burde vært bedre systematisert fra start. Et strukturert kunnskapsgrunnlag gjør det langt enklere å akselerere tilpasning av AI-verktøy til arbeidsprosessene.»
Forskjellen mellom 6-prosentene som skaper reell verdi av AI og de 94 andre er ikke budsjettstørrelse, bransje eller techstack. Det er om noen øverst i organisasjonen faktisk eier problemet.
CEO må selv bruke verktøyene, lese, teste og forstå. Ikke for å bli teknolog, men for å kunne prioritere riktig. Når ledelsen går foran, forenkler det adopsjon i hele organisasjonen.
Izy er et lite selskap. Det er også nettopp derfor modellen er interessant. Hvis et proptech-selskap med 21 ansatte kan bygge en navngitt AI-strategi med plattformvalg, Champions-struktur og faseinndelt governance, er det vanskelig å argumentere for at ressursene ikke strekker til.
Det som kreves er ikke mer penger. Det krever at noen bestemmer seg.
Hva skjer hvis EU AI Act-revisjonen treffer oss etter august 2026?
Håndhevingen starter med store aktører og høyrisiko-systemer. De fleste SMBer som bruker AI til intern assistanse, innholdsproduksjon og kundeservice faller i lavrisiko-kategorien med forenklede krav. Det betyr ikke at man kan ignorere regelverket, men det betyr at en faseinndelt, dokumentert tilnærming er tilstrekkelig for de aller fleste. Begynn nå, så slipper du å bli overrasket i august.
Hvor lang tid tar det å bygge og rulle ut en Langdock-agent?
Teknisk sett kan en grunnleggende agent settes opp på noen timer. Det som tar tid er å spesifisere hva agenten skal og ikke skal gjøre, teste den mot reelle scenarier, og gi den riktig tilgangsnivå. En agent som er grundig designet og testet, skaper adopsjon. En agent som er skjødesløst bygget, skaper mistillit til hele plattformen.
Denne artikkelen er skrevet på bakgrunn av interne strategidokumenter fra Izys AI-first-arbeid, intervju med daglig leder Kjetil Sinding gjennomført 20. februar 2026, og følgende eksterne primærkilder:
Interne Izy-data er merket der det er relevant. Tall som er interne mål og ikke målte resultater er eksplisitt markert som mål gjennom hele teksten. Compliance-informasjonen i denne artikkelen er kun til orientering og utgjør ikke juridisk rådgivning. Konsulter en jurist for vurdering av din virksomhets forpliktelser under EU AI Act.
Artikkelen er skrevet av Kenneth Madsø. Kjetil Sindings sitater er fra intervju gjennomført 20. februar 2026.