[SEO]10分でできる、あなたのウェブページが検索エンジンにきちんとインデックスされているかどうか
Post on:2010年8月23日
あなたが作成したページがGoogleなどの検索エンジンになぜインデックスされないのか、なぜランキングされないのか、ペナルティを課せられていないか、重複コンテンツの問題はないかを確認できる方法を紹介します。
[ad#ad-2]
下記は各ポイントを意訳したものです。
各見出しの左は時間の目安です。
[0:00-0:30]インデックスの確認(ドメイン)
サイトがGoogleにインデックスされているか確認します。フォームに「site:」コマンドを使用して、検索してください。
コマンドを使用する時はルートのドメイン名(site:example.com)を入力してください。
[0:30-1:00]インデックスの確認(ページ)
次に、ページがインデックスされているか確認します。前述の結果、Googleがそのサイトの存在を知っていると想定し、問題の特定のページをチェックします。
フォームにページの完全なパス(site:example.com/folder/page.html)を入力してください。
もしページがGoogleに登録されていない場合は「/フォルダ名(site:example.com/folder)」で試し、同階層に他にインデックスされているものがないか見てます。
もしページがインデックスされていない場合は、次のステップは省略してください。
[1:00-1:30]検索結果ページの確認
ページがインデックスされていながら検索結果ページで見つけられない場合は、ページのタイトルを引用符(")で括ったフレーズ検索を行ってください。
それでも見つからない場合は、「site:[ドメイン名]」を組み合わせて、ドメイン制約検索を行ってください。
- 参考:
- Google の詳しい検索方法
もしページがインデックスされていながら検索結果ページにない場合は、ステップを飛ばして[4:00-5:00]に進んでください。
[1:30-2:00]robots.txtの確認
サイトは部分的にはインデックスされているが、問題のページがインデックスされていないと想定します。robots.txtが検索エンジンのクロールを阻止していないか確認します。
1 2 3 4 5 |
User-agent: * Disallow: / User-agent: Googlebot Disallow: / |
robots.txtはドメインのルートに設置されています。上記の記述は、全てのユーザーとGooglebotに検索させないようにする記述です。
[2:00-2:30]meta noindexの確認
もう一つのブロックされている原因として考えるのは、metaのnoindexです。HTMLファイルの<head>と</head>の間に下記の記述がないか確認します。
1 |
<meta name="robots" content="noindex" /> |
こういったインデックスをブロックする記述を誰が行ったか奇妙に思われるかもしれませんが、次のrel=canonicalと同様にCMSなどで自動で生成されてしまうことがあります。
[2:30-3:00]rel="canonical"の確認
この確認は慎重に行う必要があります。
「rel="canonical"」は複数の類似したページの中で優先されるページを指定するもので、検索結果ページでも優先的に表示されるようになります。
1 |
<link rel="canonical" href="http://example.com/page.html" /> |
問題となるのは、例えばサイトのすべてのページに「rel="canonical"」でURLに「http://example.com」を指定していたとします。この場合、Googleは全部のインデックスを一つのページに指し示すようになります。
なぜ、こうするのでしょうか? おそらく故意にすることはないでしょう。しかしCMSやプラグインなどがそのようにしてしまうことは容易です。たとえサイト全体ではないとしても、重要なページにそうしてしまうことがあります。この現象は最近増えてきているように思われます。
[ad#ad-2]
[3:00-4:00]heade/リダイレクトの確認
ページが適切ではないエラーコード(404)やリダイレクト(301/302)を返していないか確認します。headerの確認は「HTTP Web-Sniffer」で簡単に行えます。
「HTTP Response Header」に「Status」が「HTTP/1.0 200 OK」と表示されていれば問題ありません。404, 4xx, 5xxなどのエラーコードが表示された場合はなんらかの問題を持っているでしょう。また、301, 302のリダイレクトが表示された場合は別のページに見つからないページを送っています。
[4:00-5:00]重複コンテンツの確認
重複コンテンツには、あなたのサイト内での重複ページとサイト間での重複の二種類の可能性があります。サイト間というのは、合法的にコンテンツを再利用する場合もあります。
問題となるのは、Googleはこれらの重複を検出した途端にどちらか一つを選び、そして残りを無視してしまうということです。
もしあなたのそのページがもう一つのサイトから取り出されたものだったり、もう一つのサイトからとられたと思う場合は固有のセンテンスを使用して、引用符(")で括ったフレーズ検索をしてください。もう一つのサイトが表示される場合は、あなたのページは重複としてマークされているかもしれません。
[5:00-7:00]インターナルでの重複の確認
通常インターナルでの重複は、GoogleがURLにCGIのパラメーターが含まれているような同じページを探す際に起きます。Googleは二つのURLで同一のページにたどりつけるものを見つけたら、それは別のページとみなし、一つを無視しようとします。時々ですが、その時Googleは間違った方を無視してしまいます。
インターナルでの重複をみつける場合は、「site:[ドメイン名]」でドメイン制約検索を行い、引用符(")で括ったフレーズ検索や「intitle:」を使用して、固有のキーワードで検索してみてください。
- 参考:
- 検索演算子の一覧
[7:00-8:00]アンカーテキストの品質の調査
最後の二つは少し厳しくて主観的なものです。しかしページに特定された罰則あるいは切り下げがあると疑うのであれば、試してみてください。
簡単なスポット的な問題は、あなたの内向きのリンクに一般的ではないキーワードの組み合わせを使っている怪しいアンカーテキストの存在です。これは非常に攻撃的なリンクを生成するキャンペーンやリンク集から来ることがあります。
「Open Site Explorer」は簡単にアンカーテキストを調査できます。あなたのサイトのURLを入力し、「Anchor Text Distributions(四番目のタブ)」をクリックし、「Phrases」を選択します。
当然あなたはドメイン名やブランド名にアンカーテキストを持っていようとしています。しかしながら、リンクの70%のアンカーテキストがそうではないでしょう。
もしGoogleがこれらが巧妙なスパムであると判断した場合は、あなたのページは罰せられたものとなっているでしょう。
[8:00-10:00]リンクプロフィールの品質の調査
リンクプロフフィールの品質も非常に主観的なものになります。2分で公正な調査ができる作業ではありません。しかし、もしあなたがペナルティを持っているのであれば、割と容易にそのリンクを見つけることができるでしょう。
再び「Open Site Explorer」を使用します。「Linking Page(一番目のタブ)」をクリックし、「Followed + 301」「External Pages Only」「All Pages on The Root Domain」を選択します。
もし大規模な調査であれば、エクセルファイルでダウンロードすることもできます(訳者注:日本語は文字化けてしまいました)。
もしページの最初の方にくさいリンクがあるなら、より弱いリンクがひどい状態であるためかなり良い状態です。下記のようなものが見つかるまで探してみてください。
- 怪しいアンカーテキスト(無関係なものやスパムなど)
- 無関係な話題を持っているサイト
- 明らかに有料の埋め込まれたリンク
- マルチリンクページの一部
- 広告リンク
また、ブログのコメントのような低品質なリンクなども探してください。リンクプロフィールを完全に分析するには何時間も要するものですが、スパムに絞ると驚くほど容易に見つけることができます。もし、あなたがそれを素早く見つけることができるのであれば、Googleも同じように見つけることができる可能性が高いです。
[10:00]終了
以上の手順は慣れてしまうと、10分もかからずに行えるようになるでしょう。
もちろん、これらで問題を見いだすことと、それを解決することは異なることです。しかし、これらを実際に試してみて、あなた自身のSEOの問題を改善する最初の一歩となることを希望します。
sponsors