Hva Gjennomsøkingsbudsjett Betyr For Googlebot

mandag 16. januar 2017

nylig har Vi hørt en rekke definisjoner for “gjennomsøkingsbudsjett”, men Vi har Ikke et enkelt begrep som vil beskrive alt som “gjennomsøkingsbudsjett” står for eksternt. Med dette innlegget vil vi avklare hva vi faktisk har og hva det betyr For Googlebot.

Først vil Vi understreke at gjennomsøkingsbudsjettet, som beskrevet nedenfor, ikke er noe de fleste utgivere trenger å bekymre seg for. Hvis nye sider har en tendens til å bli gjennomsøkt samme dag de er publisert, er gjennomsøkingsbudsjett ikke noe webmastere trenger å fokusere på. På samme måte, hvis et nettsted har færre enn noen få tusen Nettadresser, vil det meste av tiden bli gjennomsøkt effektivt.

Prioritering av hva du skal gjennomgå, når og hvor mye ressurs serveren som er vert for nettstedet, kan tildele til gjennomsøking, er viktigere for større nettsteder, eller de som automatisk genererer sider basert på URL-parametere, for eksempel.

Crawl rate limit

Googlebot er designet for å være en god borger av nettet. Gjennomsøking er hovedprioriteten, samtidig som det ikke forringer opplevelsen av brukere som besøker nettstedet. Vi kaller dette “crawl rate limit”, som begrenser den maksimale hentehastigheten for et gitt nettsted.

Enkelt sagt representerer Dette antall samtidige parallelle tilkoblinger Googlebot kan bruke til å gjennomsøke nettstedet, samt tiden det må vente mellom hentene. Crawl rate kan gå opp og ned basert på et par faktorer:

  • Crawl helse: hvis nettstedet reagerer veldig raskt en stund, går grensen opp, noe som betyr at flere tilkoblinger kan brukes til å krype. Hvis nettstedet bremser eller reagerer med serverfeil, går grensen ned og Googlebot kryper mindre.
  • Grense satt I Search Console: Nettstedseiere kan redusere googlebots gjennomsøking av nettstedet deres. Vær oppmerksom på at det å sette høyere grenser ikke automatisk øker gjennomsøkingen.

Krav om Kravlesøk

Selv om grensen for kravlesøk ikke er nådd, og hvis det ikke er krav om indeksering, vil Det være lav aktivitet fra Googlebot. De to faktorene som spiller en viktig rolle i å bestemme kravlesøk er:

  • Popularitet: Nettadresser som er mer populære på Internett har en tendens til å bli gjennomsøkt oftere for å holde dem friskere i indeksen vår.
  • Staleness: våre systemer forsøker å forhindre At Nettadresser blir foreldet i indeksen.

i Tillegg kan områdeomfattende hendelser som områdebevegelser utløse en økning i kravlesøk for å reindeksere innholdet under de nye Nettadressene.

Vi Definerer gjennomsøkingsbudsjett som Antall Nettadresser Googlebot kan og vil gjennomgå.

Faktorer som påvirker gjennomsøkingsbudsjettet

ifølge analysen vår kan det å ha Mange Nettadresser med lav verdi påvirke gjennomsøkingen og indekseringen av et nettsted negativt. Vi fant ut at Nettadressene med lav verdi faller inn i disse kategoriene, i rekkefølge av betydning:

  • Fasetterte navigasjons-og øktidentifikatorer
  • duplikatinnhold på stedet
  • Myke feilsider
  • Hackede sider
  • Uendelige mellomrom og proxyer
  • lav kvalitet og spaminnhold

Sløse server ressurser på sider som disse vil tappe gjennomsøkingsaktivitet fra sider som faktisk har verdi, noe som Kan Føre til en betydelig forsinkelse i å oppdage bra innhold på et nettsted.

Toppspørsmål

Gjennomsøking er inngangspunktet for nettsteder i Googles søkeresultater. Effektiv gjennomsøking av et nettsted hjelper med indeksering I Google-Søk.

påvirker nettstedets hastighet gjennomsøkingsbudsjettet mitt? Hva med feil?

Å Gjøre et nettsted raskere forbedrer brukernes opplevelse samtidig øke crawl rate. For Googlebot er et raskt nettsted et tegn på sunne servere, slik at det kan få mer innhold over samme antall tilkoblinger. På baksiden signaliserer et betydelig antall 5xx-feil eller tilkoblingstidsavbrudd det motsatte, og krypingen senkes.

vi anbefaler at Du tar hensyn til Rapporten Gjennomsøkingsfeil i Search Console og holder antallet serverfeil lavt.

er gjennomsøking en rangeringsfaktor?

en økt gjennomsøkingsrate vil ikke nødvendigvis føre til bedre posisjoner i Søkeresultatene. Google bruker hundrevis av signaler for å rangere resultatene, og mens gjennomsøking er nødvendig for å være i resultatene, er det ikke et rangeringssignal.

teller alternative Nettadresser og innebygd innhold i gjennomsøkingsbudsjettet?

VANLIGVIS vil ALLE NETTADRESSER Som googlebot gjennomsøker, telle mot et nettsteds gjennomsøkingsbudsjett. Alternative Nettadresser, SOM AMP eller hreflang, samt innebygd innhold, SOM CSS og JavaScript, inkludert AJAX (SOM XHR) – anrop, må kanskje gjennomsøkes og vil forbruke et nettsteds gjennomsøkingsbudsjett. På samme måte kan lange omdirigeringskjeder ha en negativ effekt på gjennomsøking.

kan Jeg kontrollere Googlebot med” kravlesøk-forsinkelse ” – direktivet?

ikke-standard “crawl-delay” roboter.txt-direktivet behandles ikke Av Googlebot.

påvirker nofollow-direktivet gjennomsøkingsbudsjettet?

det kommer an på. ALLE NETTADRESSER som gjennomsøkes, påvirker gjennomsøkingsbudsjettet, så selv om siden din markerer EN NETTADRESSE som nofollow, kan den fortsatt gjennomsøkes hvis en annen side på nettstedet ditt, eller en hvilken som helst side på nettet, ikke merker koblingen som nofollow.

Gjør Nettadresser jeg nektet gjennom roboter.txt påvirker gjennomsøkingsbudsjettet mitt på noen måte?

Nei, Url-adresser som ikke er tillatt, påvirker ikke kravlesøkbudsjettet.

for informasjon om hvordan du optimaliserer gjennomsøking av nettstedet ditt, ta en titt på vår bloggpost om optimalisering av gjennomsøking fra 2009 som fortsatt gjelder. Hvis du har spørsmål, spør i forumet!

Skrevet av Gary, Crawling og Indeksering lag

Leave a Reply