robots.txtの基本と設定方法を徹底解説!SEO効果を最大化する使い方

SEO
著者について

robots.txtとは?

robots.txtは、検索エンジンのクローラー(自動巡回プログラム)に対して、ウェブサイト内のどのページをクロール(収集)してほしいか、またはしてほしくないかを指示するためのテキストファイルです。クローラーがページをクロールすることで、そのページが検索エンジンにインデックスされ、検索結果に表示されるようになります。

例えば、管理画面やプライベートな情報が含まれるページなど、検索エンジンにクロールされたくないページがある場合に、このrobots.txtを使用して制御します。

robots.txtの役割とSEOへの影響

robots.txtは、SEO(検索エンジン最適化)において重要な役割を果たします。特定のページをクロールさせないことで、検索エンジンが重要なコンテンツに集中して評価できるようになり、結果的にサイト全体のSEO効果が向上します。

主な役割:

  • クロール不要なページをブロック:価値の低いページや重複コンテンツをクロールさせないことで、クローラーが重要なページに集中できる。
  • サーバー負荷軽減:不要なページをクロールさせないことでサーバーへの負荷を減らし、サイト全体のパフォーマンス向上につながる。
  • プライバシー保護:管理画面や内部データなど、公開したくない情報が含まれるページへのアクセスを制限できる。

ただし、robots.txtで制御できるのは「クロール」だけであり、「インデックス」(検索結果への掲載)そのものを防ぐには別途noindexタグやパスワード保護などの対策が必要です。

robots.txtの基本的な書き方

robots.txtは非常にシンプルなテキストファイルであり、以下のような要素から構成されています:

  1. User-agent:どのクローラーに対して指示を出すか指定します。Googlebot(Googleのクローラー)やBingbot(Bingのクローラー)などがありますが、「*」と指定することで全てのクローラーに適用されます。
  2. Disallow:クロールさせたくないページやディレクトリを指定します。
  3. Allow:特定のディレクトリやページのみクロールを許可する場合に使用します。
  4. Sitemap:サイトマップ(sitemap.xml)の場所をクローラーに伝えるために使用します。

例:

text

User-agent: *

Disallow: /admin/

Allow: /public/

Sitemap: https://example.com/sitemap.xml

例では、全てのクローラーに対して「/admin/」ディレクトリ内はクロールしないよう指示し、「/public/」ディレクトリ内はクロールするよう許可しています。また、サイトマップファイルの場所も指定しています

robots.txtとnoindexタグとの違い

robots.txtとnoindexタグは混同されがちですが、それぞれ異なる役割があります。robots.txtは「クロール」を制御するものであり、そのページ自体がインデックスされるかどうかには直接関与しません。一方でnoindexタグは「インデックス」を制御し、そのページが検索結果に表示されないよう指示します。

例えば、特定のページが他サイトからリンクされている場合、そのURL自体はインデックスされる可能性があります。そのため、検索結果から完全に除外したい場合はnoindexタグも併用する必要があります。

robots.txtファイルの設置方法

robots.txtファイルはウェブサイトのルートディレクトリ(トップディレクトリ)に設置する必要があります。ファイル名も必ず「robots.txt」である必要があります。例えば、「https://example.com/robots.txt」のようになります

設置手順:

  1. テキストエディタ(メモ帳など)で「robots.txt」ファイルを作成。
  2. 記述内容を入力し保存。
  3. サーバー上のルートディレクトリにアップロード。

設置後はGoogle Search Consoleなどで正しく動作しているか確認しましょう。

robots.txt設定時の注意点

robots.txt設定時にはいくつか注意すべきポイントがあります。誤った設定によって重要なページがクロールされなくなると、SEO効果が大きく損なわれる可能性があります。

注意点:

  • Disallowによる全サイトブロック:誤って「Disallow: /」と記述すると、サイト全体がクロールされなくなるため注意が必要です。
  • ユーザーアクセス制限には使えない:robots.txtはクローラー向けであり、人間によるアクセス制限には使えません。ユーザーからアクセスを防ぎたい場合はパスワード保護など別途対策が必要です。
  • インデックス削除には不向き:前述した通り、robots.txtではインデックス削除はできません。検索結果から削除したい場合はnoindexタグやGoogle Search Consoleの削除ツールを使用しましょう。

Google Search Consoleで動作確認

robots.txtファイルが正しく機能しているかどうかはGoogle Search Consoleで確認できます。「robots.txtテスター」を使用すると、自分が設定したルール通りにクローラーが動作しているかテストできます。

確認手順:

  1. Google Search Consoleにログイン。
  2. 「設定」→「robots.txtテスター」を選択。
  3. テストしたいURLを入力し、「テスト」ボタンを押す。
  4. 結果として「ブロック済み」「許可済み」が表示されます。

これによって意図通りの動作になっているか確認できます。また、修正後も再度テストして問題が解決されたことを確認しましょう。

まとめ

robots.txtはSEO戦略において非常に重要な役割を果たすツールです。正しく設定することで、クローラーによるウェブサイト巡回を効率化し、重要なコンテンツへの評価を促進できます。ただし、一歩間違えると逆効果になる可能性もあるため、慎重な設定と定期的な確認が必要です。

ポイントまとめ:

  • クロール不要なページにはDisallowで制御。
  • インデックス削除にはnoindexタグとの併用が必須。
  • Google Search Consoleで動作確認しながら運用改善。

これら基本的な知識と注意点を押さえておけば、安全かつ効果的にrobots.txtファイルを活用できるでしょう。