Hvad er et internetspor, og hvordan fungerer det?

  • Vann Vicente

    @vannvicente

  • 9. juli 2021, 9:30 EDT
  • en edderkop lavet af ener og nuller.
    /

    har du nogensinde søgt efter noget på Google og spekuleret på, “hvordan ved det, hvor man skal se?”Svaret er “internetsøgere”, som søger på nettet og indekserer det, så du nemt kan finde ting online. Vi forklarer det.

    søgemaskiner

    når du søger ved hjælp af et nøgleord på en søgemaskine som Google eller Bing, siver siden gennem billioner af sider for at generere en liste over resultater relateret til dette udtryk. Hvordan præcist disse søgemaskiner har alle disse sider på filen, ved, hvordan man ser for dem, og generere disse resultater inden for få sekunder?

    svaret er spindelvæv, også kendt som edderkopper. Dette er automatiserede programmer (ofte kaldet “robotter” eller “bots”), der “gennemsøger” eller surfer på tværs af internettet, så de kan føjes til søgemaskiner. Disse robotter indekserer hjemmesider for at oprette en liste over sider, der til sidst vises i dine søgeresultater.

    Krybere opretter og gemmer også kopier af disse sider i motorens database, som giver dig mulighed for at foretage søgninger næsten øjeblikkeligt. Det er også grunden til, at søgemaskiner ofte inkluderer cachelagrede versioner af sider i deres databaser.

    RELATERET: Sådan får du adgang til en hjemmeside, når den er nede

    site Maps and Selection

     en illustration af en mand foran et rutediagram.
    Griboedov /

    så hvordan vælger krybere, hvilke hjemmesider de skal gennemgå? Godt, den mest almindelige scenario er, at hjemmeside ejere ønsker søgemaskiner til at gennemgå deres sites. De kan opnå dette ved at anmode Google, Bing, Yahoo eller en anden søgemaskine om at indeksere deres sider. Denne proces varierer fra motor til motor. Også, søgemaskiner ofte vælge populære, godt linkede hjemmesider til at gennemgå ved at spore antallet af gange, at en URL er knyttet på andre offentlige sites.

    annonce

    hjemmeside ejere kan bruge visse processer til at hjælpe søgemaskiner indeksere deres hjemmesider, såsom
    uploade et site map. Dette er en fil, der indeholder alle de links og sider, der er en del af din hjemmeside. Det bruges normalt til at angive, hvilke sider du gerne vil indeksere.

    når søgemaskiner allerede har gennemgået en hjemmeside en gang, vil de automatisk gennemgå det sted igen. Frekvensen varierer afhængigt af, hvor populær en hjemmeside er, blandt andre målinger. Derfor holder ejere ofte opdaterede site maps for at lade motorer vide, hvilke nye hjemmesider der skal indekseres.

    robotter og Høflighedsfaktoren

    "robotter.tekst " stavet ud på træblokke.
    Devenorr /

    hvad hvis en hjemmeside ikke ønsker, at nogle eller alle dens sider skal vises på en søgemaskine? For eksempel vil du måske ikke have, at folk skal søge efter en side, der kun er medlemmer, eller se din 404-fejlside. Det er her listen over gennemsøgningsudelukkelse, også kendt som robotter.TDC, kommer i spil. Dette er en simpel tekstfil, der dikterer, hvilke hjemmesider der skal udelukkes fra indeksering.

    annonce

    en anden grund til, at robotter.det er vigtigt, at internetsøgere kan have en betydelig effekt på hjemmesidens ydeevne. Fordi gennemsøgere i det væsentlige henter alle siderne på din hjemmeside, bruger de ressourcer og kan forårsage afmatning. De ankommer til uforudsigelige tider og uden godkendelse. Hvis du ikke har brug for, at dine sider indekseres gentagne gange, kan det være med til at reducere noget af din hjemmesideindlæsning. Heldigvis stopper de fleste krybere med at gennemgå bestemte sider baseret på ejerens regler.

    det bedste Tech nyhedsbrev overalt

    Deltag i 425.000 abonnenter og få en daglig fordøjelse af funktioner, Artikler, nyheder og trivia.

    ved at indsende din e-mail accepterer du vilkårene for brug og fortrolighedspolitik.

    Metadata Magic

    Google søgning Hvordantogeek

    under URL og titel på hvert søgeresultat i Google finder du en kort beskrivelse af siden. Disse beskrivelser kaldes uddrag. Du bemærker måske, at uddraget af en side i Google ikke altid stemmer overens med hjemmesidens faktiske indhold. Dette skyldes, at mange hjemmesider har noget, der hedder “metatags”, som er brugerdefinerede beskrivelser, som ejere tilføjer til deres sider.

    sideejere kommer ofte med lokkende metadatabeskrivelser skrevet for at få dig til at klikke på en hjemmeside. Google viser også andre meta-oplysninger, såsom priser og lager tilgængelighed. Dette er især nyttigt for dem, der kører e-handel hjemmesider.

    din søgning

    internetsøgning er en væsentlig del af brugen af internettet. Søgning på nettet er en fantastisk måde at opdage nye hjemmesider, butikker, Fællesskaber og interesser. Hver dag besøger internetsøgere millioner af sider og føjer dem til søgemaskiner. Mens krybere har nogle ulemper, som at optage site ressourcer, er de uvurderlige for både site ejere og besøgende.

    RELATERET: Sådan slettes de sidste 15 minutter af Google-søgehistorik

    Vann Vicente
    Vann Vicente har været teknologiforfatter i fire år med fokus på forklarere rettet mod gennemsnitlige forbrugere. Han arbejder også som en digital marketingmedarbejder for en regional e-handel hjemmeside. Han har investeret i internetkultur, sociale medier, og hvordan folk interagerer med internettet.Læs Hele Bio ”

    Leave a Reply