cum să împiedicați motoarele de căutare să indexeze o pagină
recent am ajutat un client să șteargă un videoclip YouTube vechi de pe canalul său. Nu intenționaseră să o pună la dispoziția publicului și nu și-au dat seama că a fost până când nu au căutat pe Google.
deși acest lucru nu va dezindexa imediat pagina de la Google, m-a făcut să mă gândesc la motivele pentru care cineva ar putea dori să împiedice motoarele de căutare să indexeze o pagină înainte de a face orice deteriorare.
3 motive pentru a bloca Google să indexeze o pagină
deși există foarte puține motive presante pentru care poate doriți să aflați cum să împiedicați Google să indexeze o pagină, iată câteva dintre motivele de marketing pentru a face acest lucru.
îmbunătățiți urmărirea și atribuirea obiectivelor
pentru mulți webmasteri și comercianți, obiectivele pentru completarea formularului sunt urmărite de vizitele la o pagină de mulțumire. Pentru a împiedica pagina dvs. de mulțumire să primească accidental trafic organic, veți dori să aflați cum să împiedicați Google să indexeze pagina în întregime.
dacă aveți trafic organic care aterizează pe pagina dvs. pe lângă utilizatorii care v-au completat formularele, obiectivele și rata de conversie a obiectivelor dvs. nu vor fi corecte.
reduceți paginile fără valoare de utilizator
deși este un model prea simplist, vă puteți imagina aproape că site-ul dvs. are o piscină de valoare SEO.
pentru un site cu 10 pagini, fiecare pagină primește aproximativ 1/10 din valoarea SEO. Dacă proprietarul site-ului a învățat cum să facă cercetarea cuvintelor cheie și și-a optimizat toate paginile, toate aceste pagini vor fi eficiente și eficiente în generarea de trafic organic.
în schimb, imaginați-vă un site cu 100 de pagini. Există patru pagini care vorbesc de fapt despre serviciile unei afaceri, iar celelalte 96 de pagini sunt “postări pe blog” care sunt de fapt doar proprietarul care aruncă informații pe site-ul lor. Aceste pagini nu se adresează nevoilor cunoscute ale publicului și nu sunt optimizate pentru niciun grup de cuvinte cheie relevant.
în modelul nostru simplificat, piscina de valoare SEO este răspândit subțire. Fiecare dintre cele patru pagini de servicii primește 1/100 din valoarea SEO agregată a site-ului, ceea ce le face foarte slabe, chiar dacă sunt relativ optimizate. Celelalte 96 de pagini primesc o valoare de 96/100ths din valoare, dar sunt fundături care captează și irosesc potențialul de clasare al site-ului dvs. web.
învățarea modului de a împiedica motoarele de căutare să indexeze o pagină (sau 96) este o modalitate excelentă de a împiedica răspândirea valorii SEO a site-ului dvs. prea subțire. Puteți ascunde cea mai mare parte a site-ului dvs. de motoarele de căutare, astfel încât Google să știe doar despre paginile utile și relevante care merită să fie găsite.
evitați problemele de conținut duplicat
publicarea unei pagini identice sau aproape identice cu o altă pagină de pe internet poate provoca unele decizii inutile pentru Google.
care Pagină este originalul? Chiar dacă una dintre pagini a fost publicată mai întâi, este pagina duplicată care a urmat Sursa mai autoritară? Dacă ambele pagini sunt pe site-ul dvs. web, care ați intenționat să fie inclusă în rezultatele căutării Google? S-ar putea să nu vă placă întotdeauna rezultatul.
pentru a evita provocarea unor probleme de conținut duplicat, puteți încerca să împiedicați roboții să acceseze cu crawlere anumite pagini de pe site-ul dvs.
cum să împiedicați Google să indexeze o pagină
cea mai ușoară și cea mai comună metodă pentru a împiedica motoarele de căutare să indexeze o pagină este includerea etichetei meta noindex.
includeți eticheta Noindex
meta tag-ul noindex este utilizat între <head></head> etichete HTML pe o pagină web pentru a împiedica roboții motoarelor de căutare să includă acea pagină în indexul lor. Acest lucru permite în continuare crawlerelor să citească paginile dvs., dar sugerează că nu includ o copie a acesteia pentru a fi difuzată în rezultatele căutării.
eticheta noindex pentru a împiedica motoarele de căutare să indexeze o pagină arată astfel:
<meta name="robots" content="noindex">
dacă vă faceți griji doar pentru a împiedica Google să indexeze o pagină, puteți utiliza următorul cod:
<meta name="googlebot" content="noindex">
dacă utilizați WordPress ca CMS (pe care îl recomand foarte mult), atunci poate doriți să utilizați pluginul Yoast SEO (pe care îl recomand și eu). Cu câteva clicuri ale mouse-ului, puteți adăuga eticheta noindex la orice pagină pe care o doriți.
în backend-ul oricărei pagini, derulați în jos până la caseta Yoast SEO. Apoi faceți clic pe pictograma roată și schimbați câmpul derulant care spune “permiteți motoarelor de căutare să afișeze această postare în rezultatele căutării?”a spune” Nu.”
aceasta nu este o directivă, astfel încât motorul de căutare poate alege să ignore tag-ul meta noindex. Pentru o tehnică mai robustă, vă puteți folosi roboții.fișier txt.
interzice roboții în roboții tăi.txt
dacă doriți să vă asigurați că roboții precum Googlebot și Bingbot nu vă pot accesa deloc paginile, puteți adăuga directive roboților dvs.fișier txt.
roboți.txt este fișierul găsit în rădăcina unui server Apache care poate interzice anumitor roboți să ajungă vreodată la paginile dvs. în primul rând. Este important să rețineți că unii roboți pot fi instruiți să vă ignore roboții.fișier txt, astfel încât să puteți bloca într-adevăr doar roboții “buni” cu această tehnică.
să folosim o pagină de pe site-ul dvs., https://www.mysite.com/example-page/, ca exemplu. Pentru a interzice tuturor roboților să acceseze această pagină, ați folosi următorul cod în roboții dvs.txt:
User-agent: *Disallow: /example-page/
observați că nu trebuie să utilizați adresa URL completă, ci doar URI-ul care vine după numele dvs. de domeniu. Dacă doriți doar să blocați Googlebot să acceseze cu crawlere pagina, puteți utiliza următorul cod:
User-agent: GooglebotDisallow: /example-page/
opriți roboții de la accesarea cu crawlere a Site-ului dvs.htaccess
eu personal nu știu nici un client care ar avea nevoie vreodată să folosească acest lucru, dar puteți utiliza dumneavoastră .htaccess fișier pentru a bloca orice user-agent de crawling site-ul dvs.
aceasta este o modalitate de a opri complet Google de la accesarea cu crawlere a site-ului dvs. care nu poate fi ignorat, chiar și de roboții “răi”. Avertismentul este că aceasta este mai mult o soluție cuprinzătoare și mai puțin orientată către o anumită pagină. Gestionarea refuzului vizat de acces pentru mai multe pagini din interiorul dvs.fișierul htaccess ar fi un coșmar.
codul pentru a bloca Googlebot numai ar arata ca acest lucru:
RewriteEngine OnRewriteCond %{HTTP_USER_AGENT} Googlebot RewriteRule .* -
dacă doriți să blocați mai mulți roboți simultan, vă puteți configura codul astfel:
RewriteEngine OnRewriteCond %{HTTP_USER_AGENT} ^.*(Googlebot|Bingbot|Baiduspider).*$ RewriteRule .* -
învățarea modului de a împiedica motorul de căutare să indexeze una dintre paginile dvs. este uneori necesară și nu foarte dificilă, în funcție de modul în care alegeți să o faceți.
pentru mai mult ajutor cu SEO site-ul dvs. de afaceri, a verifica afară meu companie, MARION, site-ul lansarea lista de verificare.
Leave a Reply