ツール一覧

robots.txt 生成

検索エンジンの巡回ロボットにアクセス許可・拒否を伝える「robots.txt」ファイルを簡単に作成します。

このツールについて

検索エンジンのロボット(クローラー)に対して、サイト内のどのページを見ていいか・見ちゃダメかを指示する `robots.txt` ファイルをGUIで作成できるジェネレーターです。サイトマップの場所も一緒に指定できます。

Webサイトを公開したけれど、「管理画面(/admin/)はGoogleの検索結果に出したくない」「会員専用ページは巡回させたくない」という場合に役立つのが `robots.txt` です。このツールを使えば、テキストエディタで構文を気にしながら手書きしなくても、「許可(Allow)」や「ブロック(Disallow)」したいディレクトリのパスを入力画面からポチポチ追加するだけで、正しいフォーマットのテキストが完成します。

ツール操作

  

robots.txtとSEO:クローラー制御の完全ガイド

ウェブサイトを公開する際、Googleなどの検索エンジンに「どのページを見てほしいか」「どのページは無視してほしいか」を伝える最初の手段がrobots.txtです。仕様はシンプルですが、たった1行の記述ミスでサイト全体が検索結果から消え去るような大事故に繋がることもあります。このガイドでは、正しい構文、SEOへの影響、そして「Noindex」との決定的な違いについて解説します。

robots.txtとは何か?

robots.txtは、ウェブサイトのルートディレクトリ(例:https://example.com/robots.txt)に配置されるプレーンテキストファイルです。Googlebotなどのウェブクローラー(ロボット)がサイトに訪れた際、彼らは一番最初にこのファイルを読み込み、サイト内のクロール(巡回)ルールを確認します。

💡 クロールバジェットの節約

大規模なサイトにおいてrobots.txtは非常に重要です。検索エンジンが1つのサイトに割り当てるクロール上限(クロールバジェット)は限られています。APIのエンドポイントや無限に生成される検索結果URLなど、SEO価値のないページへのクロールをブロックすることで、本当にインデックスさせたい重要な記事や商品ページへクローラーを誘導することができます。

基本的な構文と書き方

robots.txtは主に2つの要素、User-agentDisallow(またはAllow)のセットで構成されます。

1. すべてのクローラーを許可する(デフォルト)

ファイルが存在しない場合と同じ挙動です。すべてのボットがサイト全体をクロールできます。

User-agent: *
Disallow:

2. サイト全体のクロールを拒否する(危険)

開発環境や非公開サイトでのみ使用します。本番環境でこれを設定すると、Google検索から完全に姿を消します。

User-agent: *
Disallow: /

3. 特定のディレクトリ(管理画面など)をブロックする

WordPressのダッシュボードや、ユーザーのマイページなどをブロックする一般的な設定です。

User-agent: *
Disallow: /wp-admin/
Disallow: /private/
Disallow: /api/

4. 悪質な特定のボットだけを弾く

例えば、AIの学習データを収集するクローラー(GPTBotなど)だけをブロックしたい場合に指定します。

User-agent: GPTBot
Disallow: /

5. サイトマップの場所を伝える

クローラーにXMLサイトマップのURLを伝えることで、効率的な巡回を促せます。

Sitemap: https://example.com/sitemap.xml

【重要】DisallowとNoindexの決定的な違い

SEO担当者やエンジニアが最も混同しやすいのが、robots.txtによる「ブロック(Disallow)」と、HTMLのメタタグ(またはHTTPヘッダー)による「インデックス拒否(Noindex)」の違いです。

機能 robots.txt (Disallow) Meta Robots (Noindex)
クローラーの巡回 巡回を完全にブロックする 巡回自体は許可する
検索結果(SERPs)への表示 外部からリンクされている場合、URLだけが検索結果に出る可能性がある 検索結果から完全に削除される
主な目的 サーバー負荷軽減、クロールバジェットの最適化 低品質ページや重複コンテンツを検索結果から消す

よくある失敗: 「このページを検索に出したくない」と考え、急いでrobots.txtでDisallowしてしまうことがあります。しかし、Googleはすでにそのページを認知している場合、ページの中身を見に行けない(クロールできない)ため、ページ内に設定された「Noindex」タグを読み取ることができず、結果としてタイトルやスニペットが不明な状態で検索結果に残り続けてしまうという悲劇が起こります。

検索結果から確実に消したい場合は、まずrobots.txtでのブロックを解除(クロールを許可)し、ページ側に<meta name="robots" content="noindex">を設置して再クロールさせるのが正解です。

このジェネレーターを使うメリット

手作業でrobots.txtを記述すると、スペルミスやパスの指定ミス(末尾のスラッシュの有無による意図しない挙動など)が発生しがちです。当ジェネレーターを使用すれば、チェックボックスと入力フォームに沿って直感的に設定を選ぶだけで、仕様に準拠した安全なフォーマットを出力できます。GooglebotやBingbotなどの代表的なクローラー名を調べる手間も省け、確実にサイトのSEO基盤をコントール可能です。

使い方

  1. User-agent、Allow、Disallow、SitemapをGUIで入力します
  2. 生成されたrobots.txtの内容が表示されます
  3. コピーしてドメインルートにrobots.txtとして配置します

いつ使うか

クロール制御、管理画面の非表示、サイトマップの指定に。

使用例

Disallow: /admin/、Sitemap: https://example.com/sitemap.xml

よくある質問

robots.txtとは?

検索エンジンのクローラーに指示を伝えるファイル。Disallowでブロック、Allowで許可、Sitemapでサイトマップを指定します。

Disallowは完全ブロック?

推奨であり強制ではありません。機密情報は認証で保護すべきです。

robots.txt生成ツールの使い方は?

User-agent、Allow、Disallow、SitemapをGUIで入力。生成されたrobots.txtをコピーしてルートに配置します。

管理画面をクロールさせないには?

Disallow: /admin/ のようにパスを指定。このツールでrobots.txtを生成できます。

Sitemapの指定方法は?

Sitemap: https://example.com/sitemap.xml と記述。このツールでrobots.txtに追加できます。

AllowとDisallowの優先順位は?

より具体的なパスが優先。Disallow: / と Allow: /public/ なら /public/ は許可されます。

Googlebot用のrobots.txtは?

User-agent: Googlebot で指定。このツールで複数User-agentを設定できます。

robots.txtの配置場所は?

ドメインのルート(https://example.com/robots.txt)に配置。サブディレクトリでは効力が限定的です。

クローラー制御のベストプラクティスは?

管理画面・API・検索結果ページをDisallow。重要なページはAllow。Sitemapで主要ページを伝える。

robots.txtはSEOに影響する?

クロール頻度や対象に影響。重要なページをブロックするとインデックスされません。慎重に設定します。

関連ツール

Web制作スターターセット