검색 엔진의 페이지 색인을 방지하는 방법
최근에 한 클라이언트가 채널에서 오래된 유튜브 비디오를 삭제하도록 도왔습니다. 그들은 공개적으로 사용할 수 있도록 의도하지 않았다,그들은 구글이 자신을 검색 할 때까지 그것이 실현하지 않았다.
이 즉시 구글에서 페이지를 인덱싱하지 않습니다 동안,그것은 나를 누군가가 어떤 손상이 완료되기 전에 페이지 색인에서 검색 엔진을 방지 할 수 있습니다 이유를 생각하게했다.
3 페이지 인덱싱에서 구글을 차단하는 이유
당신이 페이지 인덱싱에서 구글을 방지하는 방법을 배울 수 있습니다 매우 몇 가지 긴급한 이유가 있지만,여기에 그렇게하기위한 마케팅 이유 중 일부입니다.
추적 및 목표 기여도 향상
많은 웹마스터와 마케터들에게 양식 완성 목표는 감사 페이지 방문을 통해 추적됩니다. 실수로 유기 트래픽을 수신에서 감사 페이지를 방지하기 위해,당신은 완전히 페이지를 색인에서 구글을 방지하는 방법을 배우고 싶을 것이다.
양식을 작성한 사용자 외에 페이지에 유기적 트래픽 방문이 있는 경우 목표 및 목표 전환율이 정확하지 않습니다.
사용자 값이 없는 페이지 줄이기
지나치게 단순한 모델이지만 사이트에 검색 엔진 최적화 값 풀이 있다고 거의 상상할 수 있습니다.
페이지가 10 개인 사이트의 경우 각 페이지는 검색 엔진 최적화 값의 약 1/10 을 가져옵니다. 키워드 연구를 하기 위하여 위치 소유자가 어떻게 배우고 페이지의 그들의 모두를 낙관하면,그 페이지의 모두는 유기 소통량을 생성하기에 능률,효과적 이을 것이다.
반대로 100 페이지가있는 사이트를 이미지화하십시오. 실제로 비즈니스’서비스에 대해 이야기 하는 4 페이지 및 다른 96 페이지는”블로그 게시물”정말 그들의 사이트에 정보를 덤핑 하는 소유자. 이 페이지는 알려진 잠재 고객 요구를 해결하지 않으며 관련 키워드 그룹에 최적화되지 않습니다.
우리의 단순화 된 모델에서,검색 엔진 최적화 값의 풀은 얇은 확산. 네 개의 서비스 페이지의 각 사이트의 집계 검색 엔진 최적화 값의 1/100 을 수신,그들은 상대적으로 최적화 된 경우에도 그들을 매우 약하게. 다른 96 페이지는 가치의 96/100 을 받고 있다,그러나 너의 웹사이트 순위 잠재력을 덫을 놓고 낭비하는 막다른 골목 이다.
페이지(또는 96)색인에서 검색 엔진을 방지 하는 방법을 학습 너무 얇은 확산 되 고 귀하의 사이트의 검색 엔진 최적화 값을 유지 하는 좋은 방법입니다. 구글은 찾을 자격이 유용하고 관련 페이지에 대해 알고 있도록 검색 엔진에서 웹 사이트의 대부분을 숨길 수 있습니다.
중복 콘텐츠 방지 문제
인터넷에서 다른 페이지와 동일하거나 거의 동일한 페이지를 게시하면 구글에 불필요한 의사결정이 발생할 수 있습니다.
원본 페이지는 무엇입니까? 페이지 중 하나가 먼저 게시된 경우에도 더 신뢰할 수 있는 원본 뒤에 있는 중복 페이지가 있습니까? 두 페이지가 모두 귀하의 웹 사이트에있는 경우,어느 하나는 구글의 검색 결과에 포함 할 예정 않았다? 당신은 항상 결과를 좋아하지 않을 수 있습니다.
중복 콘텐츠 문제가 발생하지 않도록 봇이 사이트의 특정 페이지를 크롤링하는 것을 막을 수 있습니다.
페이지 색인에서 구글을 유지 하는 방법
페이지 색인에서 검색 엔진을 방지 하기 위해 가장 쉽고 가장 일반적인 방법은 메타 색인 태그를 포함 하는 것입니다.
노인덱스 태그 포함
노인덱스 메타 태그는<헤드><헤드 사이에 사용된다. 이것은 아직도 크롤러가 너의 페이지를 통해서 읽는 허용한다,그러나 그들의 수색 결과안에 위로 봉사하기 위하여 그것의 사본을 포함하지 않는 것과 건의한다.
검색 엔진이 페이지 색인을 생성하지 못하도록 하는 색인 없음 태그는 다음과 같습니다:
<meta name="robots" content="noindex">
페이지 색인을 생성하지 못하게 하려면 다음 코드를 사용합니다:
<meta name="googlebot" content="noindex">
당신이(내가보기 엔 추천)로 워드 프레스를 사용하는 경우,당신은(나는 또한 매우 추천)요스트 검색 엔진 최적화 플러그인을 사용할 수 있습니다. 마우스의 몇 번의 클릭으로,당신은 당신이 원하는 모든 페이지에 색인 태그를 추가 할 수 있습니다.
모든 페이지의 백엔드에서 아래로 스크롤하여 요스트 검색 엔진 최적화 상자. 그런 다음 기어 아이콘을 클릭하고”검색 엔진이 검색 결과에이 게시물을 표시 할 수 있도록 허용?”아니오”라고 말합니다.”
이 지시문이 아니다,그래서 검색 엔진은 메타 색인 태그를 무시하도록 선택할 수 있습니다. 더 튼튼한 기술을 위해 로봇을 사용할 수 있습니다.파일.
로봇에서 봇을 허용하지 않습니다.구글봇과 빙봇과 같은 봇이 페이지를 전혀 크롤링할 수 없도록 하려면 로봇에 지시어를 추가할 수 있습니다.파일.
로봇.이 파일은 아파치 서버의 루트에서 찾을 수 있으며,특정 봇이 처음부터 귀하의 페이지로 연결되는 것을 허용하지 않을 수 있습니다. 일부 봇은 로봇을 무시하도록 지시받을 수 있습니다.이 기술로”좋은”봇 만 차단할 수 있습니다.
사이트의https://www.mysite.com/example-page/페이지를 예로 들어 보겠습니다. 모든 봇이 이 페이지에 액세스하지 못하도록 하려면 로봇에 다음 코드를 사용합니다.2015 년:
User-agent: *Disallow: /example-page/
당신은 당신의 도메인 이름 뒤에 오는 단지 우리당,전체 웹 사이트를 사용할 필요가 없습니다 것을 알 수 있습니다. 다음 코드를 사용할 수 있습니다:
User-agent: GooglebotDisallow: /example-page/
귀하의 사이트를 크롤링에서 봇을 중지.나는 개인적으로 이것을 사용해야 할 어떤 클라이언트도 모르지만,당신은 당신을 사용할 수 있습니다.사용자 에이전트가 사이트를 크롤링하는 것을 차단하는 파일입니다.
이것은 완전히 심지어”나쁜”봇에 의해 무시할 수없는 사이트를 크롤링에서 구글을 중지 할 수있는 방법입니다. 주의해야 할 점은이 청소 솔루션의 더 많은 것입니다,덜 특정 페이지를 대상으로. 내부 여러 페이지에 대한 액세스의 대상 거부 관리하여.파일이 악몽 일 것입니다.
구글봇만 차단하는 코드는 다음과 같습니다:
RewriteEngine OnRewriteCond %{HTTP_USER_AGENT} Googlebot RewriteRule .* -
한 번에 여러 봇을 차단하려면 다음과 같이 코드를 설정할 수 있습니다:
RewriteEngine OnRewriteCond %{HTTP_USER_AGENT} ^.*(Googlebot|Bingbot|Baiduspider).*$ RewriteRule .* -
검색 엔진이 페이지 중 하나를 인덱싱하는 것을 방지하는 방법을 배우는 것은 때때로 필요하며 선택 방법에 따라 그리 어렵지 않습니다.
귀하의 비즈니스 웹 사이트의 검색 엔진 최적화에 대한 자세한 도움말,내 회사를 체크 아웃,마리온의,웹 사이트 시작 체크리스트.
Leave a Reply