Chunk optimalisering

AEOaiGEOLLMO

AI leser ikke innholdet ditt som en helhet.
Den vurderer det i separate tekstbiter, også kalt «chunks».

Fra ord til objekter i AI SEO

AI leser ikke innholdet ditt som en helhet. Google AI Overviews og ChatGPT vurderer innhold i separate tekstbiter, ofte kalt chunks, og velger hvilke biter som er trygge nok å bruke som kilder. Når chunkene mangler tydelige entiteter og tydelige relasjoner, faller innholdet ut av vurderingen, selv om teksten er velskrevet. 

Hvor den gamle SEO antagelsen sprekker

Mye klassisk innholds SEO bygger på en implisitt idé om at helheten på siden blir vurdert. I generativt søk blir vurderingen mer fragmentert. Systemet henter et utsnitt, tolker utsnittet, og bruker utsnittet i et svar.

Konsekvensen blir enkel å observere i praksis. En side kan ha sterk autoritet og fortsatt gi lav synlighet i generative svar hvis chunkene ikke er selvstendige, presise og fulle av identifiserbare objekter. I AI Mode og AI Overviews ser Google også ut til å gjøre kildelenking mer granular, med flere kildehenvisninger inne i selve svaret, som gjør konkurransen om å være sitérbar hardere. 

Definisjoner som faktisk betyr noe i 2026

Chunk er et tekstutdrag som behandles som en egen vurderingsenhet i retrieval og generering. Chunking brukes fordi modeller og embeddings har inputbegrensninger, og fordi gjenfinning fungerer bedre når tekst er brutt ned i håndterbare biter. Mange oppsett bruker 128 til 512 tokens som arbeidsområde, og overlap brukes for å unngå at sammenhenger kuttes. 

Entitet er et identifiserbart objekt modellen kan holde stabilt i en representasjon. Personer, selskaper, produkter, steder, standarder, metoder og systemer er typiske entiteter. Entitetsoptimalisering betyr at du gjør disse objektene eksplisitte, konsistente og knyttet til hverandre.

Embeddings er vektorrepresentasjoner brukt til å måle semantisk nærhet mellom tekst og forespørsel, eller mellom tekstbiter. Når entiteter og relasjoner er tydelige, blir embeddingrommet mer presist og gjenfinning mer stabil. 

Slik bygger generative systemer forståelse av siden din

En praktisk mentalmodell er en pipeline med fire vurderinger, der hvert steg blir dårligere når entiteter er uklare.

  1. Oppdeling
    Tekst deles i chunks. Størrelsen varierer med verktøy og formål. Det finnes ingen magisk chunk size som passer alt, men det finnes tydelige kompromisser. Små chunks fungerer ofte godt for faktaspørsmål, større chunks kan fungere bedre når sammenheng må bevares. 

  2. Entitetsgjenkjenning
    Systemet identifiserer entiteter i chunken. Hvis du skriver uklart, bruker generiske substantiver, eller introduserer begreper uten å navngi dem, blir entitetskartet tynt.

  3. Relasjonsutvinning
    Systemet prøver å finne relasjoner mellom entitetene. Relasjoner må ofte være eksplisitte for å bli robuste. “Google bruker Knowledge Graph til å knytte entiteter” er en relasjon. “Google og entiteter henger sammen” er mer støy enn signal.

  4. Gjenfinning og sitering
    Når en bruker spør, hentes chunks som ligner i embeddingrommet, og chunks med høy relevans og tydelig semantikk blir oftere brukt i svaret. I praksis betyr det at sitater og kildebruk skjer på chunk nivå, ikke side nivå, som du også beskriver i Chunk Relevancy Ratio tankegangen din. LinkedIn

Semantisk usynlighet er en konkret effekt, ikke en metafor

Når entiteter er uklare oppstår tre typiske feilbilder:

  • Tvetydighet: Apple som frukt versus Apple som selskap er klassikeren. Tvetydighet reduserer sannsynligheten for at chunken anses trygg å bruke, fordi modellen kan bomme på betydning.

  • Svakt gjenfinningssignal: Chunk uten navngitte aktører og mekanismer matcher dårligere i embeddingrommet.

  • Lav sitérbarhet: Chunk uten tall, mekanismer og klare påstander gir lite å sitere, så den taper mot chunk som har enkle, testbare utsagn.

Dette henger tett sammen med hvordan Google utvider kildehenvisninger inne i genererte svar. Når flere kilder kan lenkes i svaret, må hver kilde fortjene plassen sin med høy presisjon per tekstbit. 

Innhold som kunnskapsgraf i miniatyr

En nyttig reframing er å se hver chunk som en liten kunnskapsmodul, der du må levere et minimum av struktur.

En robust chunk inneholder vanligvis:

  • minst to navngitte entiteter

  • en eksplisitt relasjon

  • en observerbar effekt eller konsekvens

  • nok kontekst til at chunken kan siteres alene

Dette er samme logikk du ser i RAG tooling og dokumentdeling, der splitting og overlap styres for å unngå at entiteter kuttes i stykker. 

Egenskap og effekt som AI kan plukke rett ut

Egenskap i chunken Effekt i generativt søk
Navngitte entiteter som Google, OpenAI, Gemini, ChatGPT Mer stabil tolkning og tydeligere embeddingprofil
Eksplisitte relasjoner som “Google bruker Knowledge Graph” Høyere semantisk presisjon og bedre gjenfinning
Konkrete datapunkter som 128 til 512 tokens Mer sitérbart materiale og tydeligere mekanisme
Konsistente termer som entitet, chunk, embeddings Lavere risiko for semantisk drift mellom avsnitt
Autonome avsnitt som kan stå alene Større sjanse for å bli hentet som enkeltkilde

Hvordan vurdere egen tekst uten å late som

Kjør en hard evaluering av de første 250 til 400 ordene på en side. I generativ gjenfinning veier tidlige signaler tungt, fordi de ofte havner i de første chunkene.

Sjekkpunkter som faktisk avslører noe:

  • Første chunk nevner minst én primær entitet og minst én sekundær entitet, for eksempel Google AI Overviews og Knowledge Graph.

  • Første chunk inneholder en relasjon, for eksempel at Google bruker generering og kilder på en bestemt måte.

  • Første chunk inneholder en målbar påstand, for eksempel tokenområder som 128 til 512, eller at kildehenvisninger vises inne i svaret.

Retning videre som matcher hvordan systemene fungerer

Når chunking og entiteter blir sett som samme problem, blir neste naturlige fokus tre områder.

  1. Chunk grenser og overlap, fordi entiteter som deles i to gir dårligere signal og svakere gjenfinning. 

  2. Entitetsdekning per side, der du kartlegger hvilke entiteter som bør være med for å dekke spørsmålene AI faktisk må svare på

  3. Sitérbarhet, der du systematisk legger inn tall, mekanismer og presise relasjoner som kan plukkes ut i et svarformat

Kilder

Første gang publisert på Linkedin:
https://www.linkedin.com/pulse/why-chunk-relevancy-ratio-critical-focus-aeogeoai-seo-krister-ross-q2nvf/

Milvus+2Machine Learning Plus+2

https://www.thekeyword.co/news/google-adds-more-source-links-in-ai-mode-responses

LangChain Reference+1