robots.txt 生成
検索エンジンの巡回ロボットにアクセス許可・拒否を伝える「robots.txt」ファイルを簡単に作成します。
▶このツールについて
検索エンジンのロボット(クローラー)に対して、サイト内のどのページを見ていいか・見ちゃダメかを指示する `robots.txt` ファイルをGUIで作成できるジェネレーターです。サイトマップの場所も一緒に指定できます。
ツール操作
robots.txtとSEO:クローラー制御の完全ガイド
ウェブサイトを公開する際、Googleなどの検索エンジンに「どのページを見てほしいか」「どのページは無視してほしいか」を伝える最初の手段がrobots.txtです。仕様はシンプルですが、たった1行の記述ミスでサイト全体が検索結果から消え去るような大事故に繋がることもあります。このガイドでは、正しい構文、SEOへの影響、そして「Noindex」との決定的な違いについて解説します。
robots.txtとは何か?
robots.txtは、ウェブサイトのルートディレクトリ(例:https://example.com/robots.txt)に配置されるプレーンテキストファイルです。Googlebotなどのウェブクローラー(ロボット)がサイトに訪れた際、彼らは一番最初にこのファイルを読み込み、サイト内のクロール(巡回)ルールを確認します。
💡 クロールバジェットの節約
大規模なサイトにおいてrobots.txtは非常に重要です。検索エンジンが1つのサイトに割り当てるクロール上限(クロールバジェット)は限られています。APIのエンドポイントや無限に生成される検索結果URLなど、SEO価値のないページへのクロールをブロックすることで、本当にインデックスさせたい重要な記事や商品ページへクローラーを誘導することができます。
基本的な構文と書き方
robots.txtは主に2つの要素、User-agentとDisallow(またはAllow)のセットで構成されます。
1. すべてのクローラーを許可する(デフォルト)
ファイルが存在しない場合と同じ挙動です。すべてのボットがサイト全体をクロールできます。
User-agent: *
Disallow: 2. サイト全体のクロールを拒否する(危険)
開発環境や非公開サイトでのみ使用します。本番環境でこれを設定すると、Google検索から完全に姿を消します。
User-agent: *
Disallow: / 3. 特定のディレクトリ(管理画面など)をブロックする
WordPressのダッシュボードや、ユーザーのマイページなどをブロックする一般的な設定です。
User-agent: *
Disallow: /wp-admin/
Disallow: /private/
Disallow: /api/ 4. 悪質な特定のボットだけを弾く
例えば、AIの学習データを収集するクローラー(GPTBotなど)だけをブロックしたい場合に指定します。
User-agent: GPTBot
Disallow: / 5. サイトマップの場所を伝える
クローラーにXMLサイトマップのURLを伝えることで、効率的な巡回を促せます。
Sitemap: https://example.com/sitemap.xml 【重要】DisallowとNoindexの決定的な違い
SEO担当者やエンジニアが最も混同しやすいのが、robots.txtによる「ブロック(Disallow)」と、HTMLのメタタグ(またはHTTPヘッダー)による「インデックス拒否(Noindex)」の違いです。
| 機能 | robots.txt (Disallow) | Meta Robots (Noindex) |
|---|---|---|
| クローラーの巡回 | 巡回を完全にブロックする | 巡回自体は許可する |
| 検索結果(SERPs)への表示 | 外部からリンクされている場合、URLだけが検索結果に出る可能性がある | 検索結果から完全に削除される |
| 主な目的 | サーバー負荷軽減、クロールバジェットの最適化 | 低品質ページや重複コンテンツを検索結果から消す |
よくある失敗: 「このページを検索に出したくない」と考え、急いでrobots.txtでDisallowしてしまうことがあります。しかし、Googleはすでにそのページを認知している場合、ページの中身を見に行けない(クロールできない)ため、ページ内に設定された「Noindex」タグを読み取ることができず、結果としてタイトルやスニペットが不明な状態で検索結果に残り続けてしまうという悲劇が起こります。
検索結果から確実に消したい場合は、まずrobots.txtでのブロックを解除(クロールを許可)し、ページ側に<meta name="robots" content="noindex">を設置して再クロールさせるのが正解です。
このジェネレーターを使うメリット
手作業でrobots.txtを記述すると、スペルミスやパスの指定ミス(末尾のスラッシュの有無による意図しない挙動など)が発生しがちです。当ジェネレーターを使用すれば、チェックボックスと入力フォームに沿って直感的に設定を選ぶだけで、仕様に準拠した安全なフォーマットを出力できます。GooglebotやBingbotなどの代表的なクローラー名を調べる手間も省け、確実にサイトのSEO基盤をコントール可能です。
使い方
- User-agent、Allow、Disallow、SitemapをGUIで入力します
- 生成されたrobots.txtの内容が表示されます
- コピーしてドメインルートにrobots.txtとして配置します
いつ使うか
使用例
よくある質問
robots.txtとは?
Disallowは完全ブロック?
robots.txt生成ツールの使い方は?
管理画面をクロールさせないには?
Sitemapの指定方法は?
AllowとDisallowの優先順位は?
Googlebot用のrobots.txtは?
robots.txtの配置場所は?
クローラー制御のベストプラクティスは?
robots.txtはSEOに影響する?
関連ツール
Web制作スターターセット