noindexとは、ページやファイルを検索エンジンのインデックス対象から外し、検索結果に表示させないための指定です。
検索結果に出したくないURLがあるのに公開状態のまま運用していると、テストページや重複ページ、サンクスページまで評価対象に混ざってしまいます。逆に、必要なページまでnoindexにすると、流入機会を自分で止めてしまいます。
この記事では、noindexの意味、設定方法、使うべきページ、robots.txtやnofollowとの違い、設定後に消えないときの確認手順まで、2026年時点の実務に沿って整理します。noindexを正しく使いたい方は、ここからはじめていきましょう。
この記事でわかること
noindexの意味と、まず押さえるべき結論
先に結論を言うと、noindexは「クロールを止める指定」ではなく、「見つけたページを検索結果に載せない指定」です。
この違いを誤解すると、robots.txtでブロックしたのに検索結果から消えない、という典型的なトラブルが起きます。Googleはページを取得してnoindexを確認できてはじめて、そのURLを検索結果から外せます。
また、noindexは「非公開化」ではありません。URLを知っている人、内部リンクをたどった人、ブックマークしている人はページにアクセスできます。社外秘の資料や会員限定情報のように、そもそも見せたくない情報は、noindexではなく認証やアクセス制御で守る必要があります。
- できること:検索結果に表示させないようにする
- できないこと:URL自体の閲覧制限、完全な非公開化
- 前提条件:Googlebotがページをクロールして指定を確認できること
(参照:Google Search Central「noindex を使用してコンテンツをインデックスから除外する」)
noindexと混同しやすい3つの違い
nofollowとの違い
nofollowはリンク先をたどるヒントに関する指定で、noindexとは役割が別です。
noindexは「そのページを検索結果に出さない」ための指定です。一方でnofollowは、そのページ内のリンクを検索エンジンがどう扱うかに関わります。つまり、対象はページそのものではなく、ページ上のリンクです。
たとえば、広告リンクや信頼性を担保できないユーザー投稿リンクではnofollow系の属性を検討しますが、サンクスページや重複ページを検索結果から外したい場面ではnoindexを使います。目的が違うので、置き換えはできません。
⇒nofollowの詳細は、nofollow属性とは?SEOにおける役割や設定方法について解説で詳しく解説しています。
robots.txtとの違い
robots.txtはクロール制御、noindexはインデックス制御です。
robots.txtでURLをブロックすると、Googlebotはそのページを取得しにくくなります。すると、ページ内の<meta name="robots" content="noindex">を読めません。結果として、すでに知られているURLが検索結果に残ることがあります。
検索結果から外したいURLに対しては、まずGooglebotが見に行ける状態を保ち、そのうえでnoindexを返すのが基本です。画像やPDFなどHTML以外のリソースは、後述するX-Robots-Tagを使います。
実務でよくあるのは、「見せたくないからrobots.txtで塞ぐ」という判断です。ただ、検索結果から消すことが目的なら、その発想は逆効果になりやすいです。評価を止めたいのか、取得自体を止めたいのかを分けて考えると判断しやすくなります。
⇒robots.txtの考え方は、robots.txtとは?意味や設定方法を正しく学び、SEO効果を高めようで整理しています。
canonicalとの違い
canonicalは代表URLを伝える指定であり、noindexの代用品ではありません。
似た内容のページが複数あるとき、canonicalは「評価を集約したい本命URLはこちら」と伝えるために使います。一方、noindexは「このURL自体を検索結果に出したくない」ときの指定です。
たとえば、ECサイトで色違い・並び替え違い・計測パラメータ付きURLが大量に発生する場合、すべてをnoindexにするのではなく、正規URLへcanonicalを向けるほうが適切なケースがあります。逆に、検索流入を取る意味がない完了ページやテストページは、canonicalよりnoindexのほうが意図に合います。
⇒canonicalについては、canonical(カノニカル)タグとは?書き方やSEOにおける必要性、役立つツールも参考にしてみてください。
noindexを使うべきページと、使わないほうがよいページ
使うべき代表例
検索結果に出す価値が低い、または出すと運用上のノイズになるURLにはnoindexが有効です。
代表例は次のとおりです。
- 問い合わせ完了・資料請求完了などのサンクスページ
- 公開前のテストページ、確認用の下書きURL
- 絞り込み条件だけ違う一覧ページや並び替えURL
- 内容がほぼ同じ地域差し替えページのうち、検索意図に合わないもの
- 会員向け導線の途中ページで、検索流入を取る意味が薄いもの
- エラーページ相当の内容を返しているが、事情により一時的に公開されているURL
たとえばECで「黒いスニーカー」「白いスニーカー」「サイズ順」「価格順」のURLが無数に生成されると、重要な商品詳細よりも低価値なURLがクロール対象に増えます。BtoBサイトでも、地域名だけ差し替えた店舗紹介ページが大量にあると、どのURLを評価してほしいのかが曖昧になりやすいです。
当社でもインデックス整理の相談では、記事本文の良し悪しより先に、こうした「検索結果に出す必要がないURL」が増えていないかを確認することがあります。評価を上げる施策というより、評価を散らさないための整備として効く場面が多いためです。
noindexより改善・統合を優先したいページ
順位が低いだけのページを、安易にnoindexへ逃がすのはおすすめできません。
検索流入が少ない理由は、情報不足、検索意図とのズレ、内部リンク不足、SERPsの変化など様々です。まだ改善余地があるページを外してしまうと、将来取れたはずの流入まで失います。
特に以下は、noindexより先に見直しが必要です。
- 狙ったキーワードで順位が低いだけの記事
- 古いが、更新すれば再評価が見込める解説ページ
- CVに近い比較ページやサービスページ
- 被リンクや内部リンクを受けている重要URL
実務の現場では、noindex候補として挙がるページの中に、実際には「情報が古いだけ」「タイトルと本文がずれているだけ」のURLが少なくありません。消す判断より、直す判断のほうが成果につながるケースは多いです。
⇒改善判断を整理したい場合は、SEOのリライトとは?効果的なやり方とコツ、記事の選定方法などを解説も是非参照ください。
noindexの設定方法
設定方法は大きく2つです。HTMLページならrobots metaタグ、PDFや画像などHTML以外ならX-Robots-Tagを使います。
HTMLページにmetaタグを入れる
通常のWebページでは、<head>内に次の指定を入れます。
<meta name="robots" content="noindex">
Googlebotだけを対象にしたい場合は、次のようにも書けます。
<meta name="googlebot" content="noindex">
nofollowも同時に指定したい場合は、カンマ区切りで併記します。
<meta name="robots" content="noindex, nofollow">
ただし、noindexとnofollowを常にセットにする必要はありません。検索結果から外したいだけなら、noindex単独で十分です。
PDF・画像・CSVなどはX-Robots-Tagを使う
HTML以外のファイルにはmetaタグを埋め込めないため、HTTPレスポンスヘッダーで指定します。
X-Robots-Tag: noindex
この方法は、PDF資料、画像、動画、ダウンロード用ファイルなどで有効です。資料請求用PDFだけを検索結果に出したくない、配布用CSVを検索経由で見せたくない、といった場面で使いやすいです。
(参照:Google Search Central「robots meta タグ、data-nosnippet、X-Robots-Tag の仕様」)
WordPressで設定する
WordPressでは、テーマやSEOプラグインの設定画面からページ単位でnoindexを付けるのが一般的です。
固定ページや投稿画面に「検索結果に表示しない」「noindex」などの項目があれば、対象URLだけオンにします。全体設定でアーカイブやタグページに一括適用できるテーマもありますが、まとめて外す前に本当に不要かを確認したほうが安全です。
WordPress運用で起きやすいのは、テーマ設定とSEOプラグイン設定が競合して、意図しないページまでnoindexになることです。特にリニューアル後やプラグイン入れ替え後は、ソースコード上でrobots metaの出力を確認すると事故を減らせます。
⇒WordPressでのSEO設定を見直したい方は、WordPressでできるSEO対策11選!初心者でもできる方法をわかりやすく解説もあわせてご覧ください。
noindexを設定しても検索結果から消えない原因
消えない原因の多くは、設定ミスよりも「Googleがまだ確認できていない」ことです。
noindexを入れた直後に検索結果から即時に消えるとは限りません。Googlebotが再クロールして指定を読み取り、インデックス状態を更新するまで待ち時間があります。
再クロール前で、まだ反映されていない
検索結果に残る最も多い理由はこれです。重要度が低いURLや内部リンクが弱いURLは、再訪まで時間がかかることがあります。
急ぎで確認したい場合は、Search ConsoleのURL検査ツールでクロール状況を見て、必要に応じて再クロールをリクエストします。公開直後のテストページや一時URLは、放置すると想定より長く残ることがあります。
robots.txtでブロックしていて、noindexを読めない
これも典型例です。robots.txtでURLを塞ぐと、Googlebotはページ本文やhead内の指定を確認できません。結果として、検索結果から外すためのnoindexが効きません。
「クロールさせたくない」と「検索結果から消したい」は似ていますが、実装は別です。消したいURLは、少なくとも一度はGooglebotがnoindexを見られる状態にしておく必要があります。
JavaScript依存で、想定どおりに出力されていない
SPAやJavaScriptレンダリング主体のサイトでは、ブラウザで見るとmetaタグがあるのに、Googlebotが取得したHTMLでは出ていないことがあります。
また、存在しないページをクライアントサイドで処理しているのにHTTPステータスが200のままだと、実質的なエラーページがインデックスされることもあります。フロント側でnoindexを後付けする設計は、実装次第で確認が難しくなりやすいです。
当社でもJS主体のサイト改善では、画面表示だけで判断せず、取得HTMLとレスポンスヘッダーを分けて確認します。見た目は正しくても、検索エンジンが見ている情報が別物というケースがあるためです。
(参照:Google Search Central「JavaScript サイトの検索対応を修正する」)
noindexの確認方法とチェックリスト
確認は「ソース」「ヘッダー」「Search Console」の3点で行うと漏れにくくなります。
1. ページソースでmetaタグを確認する
ブラウザのページソース表示で、<head>内に<meta name="robots" content="noindex">があるか確認します。
ここで注意したいのは、開発者ツールのElementsだけで見ないことです。JavaScriptで後から書き換えられたDOMと、最初に返ってきたHTMLが違う場合があるため、まずはページソースで初期出力を見ます。
2. レスポンスヘッダーを確認する
PDFや画像などは、ブラウザ拡張やcurlコマンドでX-Robots-Tag: noindexが返っているかを確認します。
HTMLページでも、サーバー側で意図せずX-Robots-Tagが付いていることがあります。metaタグだけ見て安心せず、ヘッダー側の上書きがないかも見ておくと安全です。
3. Search ConsoleでGoogleがどう認識したかを見る
URL検査ツールで、Googleが最後にクロールした日時、インデックス状況、取得したページの情報を確認します。
ここで「インデックス登録されていません(noindex タグによって除外されました)」のように認識されていれば、設定は概ね意図どおりです。逆に、ユーザーには見えているのにGoogleには見えていない場合、robots.txtやレンダリング、認証、ステータスコードの問題を疑います。
- ページソースにnoindexが出ている
- robots.txtで対象URLを塞いでいない
- 必要に応じてX-Robots-Tagも確認した
- HTTPステータスが意図どおり返っている
- Search ConsoleでGoogleの認識を確認した
- XMLサイトマップから対象URLを除外している(サイトマップに残っているとクロール優先度が上がり、noindex確認までのタイムラグが生じやすい)
なお、noindexを長期間維持したURLは、Googleがクロール頻度を徐々に下げ、最終的にはインデックスから完全に除外されます。その後noindexを外しても、再インデックスまでに時間がかかることがあります。一時的な非表示であれば、Search Consoleの「削除」ツールで一時非表示をリクエストし、noindexはあくまで恒久的に検索結果から外したいURLに使うと判断がぶれにくくなります。
2026年時点での実務判断:noindexをどう使い分けるか
2026年のSEO実務では、noindexは「低品質ページを隠す小手先の設定」ではなく、評価対象URLを整理するための設計要素として扱うのが重要です。
AI生成の下書きやテンプレート量産が増えたことで、サイト内に「公開はされているが、検索結果に出す意味が薄いURL」が増えやすくなりました。たとえば、地域名だけ差し替えたページ、フィルタ条件だけ違う一覧、キャンペーン終了後の導線ページなどです。
2026年はAI Overviewなど生成AI系の検索機能が普及し、検索結果画面の構造自体が変わりつつあります。AI Overviewに引用されたくないページにnoindexを入れると、通常の検索結果だけでなくAI生成の回答からも除外される点は押さえておく必要があります。逆に、AI Overviewに拾われることで流入が見込めるページまでnoindexにすると、従来以上に機会損失が大きくなります。
一方で、何でもnoindexにすると、内部リンクの流れや将来の集客余地まで削ってしまいます。判断基準としては、次の3つが実務では分かりやすいです。
- そのURL単体で検索ニーズに答えられるか
- 検索結果に出ることでサイト全体の整理を崩さないか
- 改善・統合・削除より、noindexが最適か
この3点で「検索流入を取る意味が薄い」と判断できるならnoindexが候補です。逆に、少し手を入れれば主力ページになり得るURLなら、改善や統合のほうが現実的です。noindexは便利ですが、コンテンツ戦略の代わりにはなりません。どのURLを評価してほしいかを明確にするための整理手段として使うことが大切です。
よくある質問
noindexを入れると、すぐに検索結果から消えますか?
すぐに消えるとは限りません。Googleが再クロールして指定を確認してから反映されるため、数日で変わることもあれば、もっと時間がかかることもあります。
noindexとrobots.txtは一緒に使ってもよいですか?
目的次第です。検索結果から外したいURLをrobots.txtでブロックすると、Googleがnoindexを読めないことがあります。削除目的なら、まずnoindexを確認できる状態にするのが基本です。
noindexを付ければ、そのページは非公開になりますか?
なりません。検索結果には出にくくなりますが、URLを知っていればアクセスできます。機密情報や会員限定情報は、認証やアクセス制御で保護する必要があります。
順位が低い記事はnoindexにしたほうがよいですか?
一概には言えません。順位が低い理由が情報不足や更新不足なら、改善したほうが成果につながることがあります。検索流入を取る意味が本当に薄いURLだけを対象にするのが安全です。
PDFにもnoindexは設定できますか?
できます。HTMLのmetaタグではなく、HTTPレスポンスヘッダーのX-Robots-Tagで指定します。
まとめ
noindexは、検索結果に出したくないURLをインデックス対象から外すための指定です。重要なのは、robots.txtのようなクロール制御と混同せず、「Googleが確認できる状態で設定する」ことです。
使うべき場面は、サンクスページ、テストページ、重複や低価値な派生URLなど、検索流入を取る意味が薄いページに限られます。反対に、改善余地のある記事や重要ページまで外すと、集客機会を失いやすくなります。
設定後は、ソースコード、レスポンスヘッダー、Search Consoleの3点で確認し、意図どおりに反映されているかを必ず見ておきましょう。そのほか、SEOで重要なタグもあわせて整理したい方は、以下のページから確認してみてください。

