クロールの無駄を省く:WordPress Robots Eコマースサイト最適化 事例共有

Eコマースサイトの最適化において、多くのウェブマスターは商品詳細ページに注意を払うが、検索エンジンのクロール効率は無視している。そのため ワードプレス Eコマースサイトは、Robots.txtの合理的な使用は、不必要なクロールの無駄を減らすことができ、検索エンジンの注意は、製品やカテゴリページに集中する。この記事では、ロボットの設定のアイデアの電子商取引サイトの最適化を示すために実用的な例を兼ね備えています。

画像[1]-WordPressロボットの電子商取引サイトの最適化ケース:のコレクションを強化するためにクロールの無駄を避けるために。

クロール廃棄物とは何か?

クロールの無駄とは、検索エンジンが価値のないページや繰り返しの多いページに多くの時間を費やす一方で、本当に価値のある製品ページや特集ページがタイムリーに含まれないことを指す。クロールの無駄の一般的な原因は以下の通り:

  • ショッピングカート、チェックアウト、その他の動的ページ
  • フィルター結果ページの重複
  • プラグインが生成するパラメータへのリンク
  • コンテンツのないタブやアーカイブページ

これらのページが含まれることにランキングの価値はなく、サイト全体のクロール頻度を低下させる。

Eコマースサイトに関するよくある質問

WordPressのeコマースサイトは、多くの場合 WooCommerce プラグインを使用することで、多くの追加URLがもたらされる:

画像[2]-WordPressロボットの電子商取引サイトの最適化ケース:インクルードを強化するためにクロールの無駄を避けるために
  • /カート ショッピングカートページ
  • /チェックアウト チェックアウトページ
  • /マイアカウント ユーザセンター
  • /商品タグ 製品タブ

これらのディレクトリが検索エンジンにクロールされると、リソースの無駄遣いになるし、重複エントリーにつながる可能性もある。

事例共有:衣料品ECサイトの最適化プロセス

当初の状況

このサイトはインデックスされるのが遅く、多くの新商品が検索結果に表示されるまでに数週間かかっていた。調査の結果、検索エンジンが大量の無駄なショッピングカートとチェックアウトのページにクロール回数を浪費していることが判明した。

調整プログラム

ある ロボット.txt そこに以下のルールを追加する:

ユーザーエージェント: *
不許可: /cart/
不許可: /checkout/
許可しない: /my-account/
許可しない: /product-tag/
許可: /wp-admin/admin-ajax.php
サイトマップ: https://www.example.com/sitemap_index.xml

こうすることで、買い物プロセスに関連するページはブロックされ、検索エンジンのクロールの焦点は商品とカテゴリーページに戻る。

最適化効果

3週間後、サイトの新製品は平均2日以内にインデックスされるようになった。サイト全体のインデックス数は減少したが、主要ページの掲載率と露出は増加し、検索トラフィックは安定した。

なぜeコマースでロボットが重要なのか?

画像[3]-WordPressロボットの電子商取引サイトの最適化ケース:インクルードを強化するためにクロールの無駄を避けるために
  • クロール頻度の保存検索エンジンは重複ページにリソースを浪費しない。
  • ハイライトページ商品詳細ページやカテゴリーページが注目される。
  • 無効な組み入れのリスクを減らすショッピングカート、アカウントページがブロックされ、よりクリーンな検索結果が得られます。
  • フィット サイトマップ真のコアページをより早く検索エンジンのインデックスに登録する。

Eコマースサイトの推奨ロボット設定

eコマース・ロボットのクリーンで実用的な例:

ユーザーエージェント: *
不許可: /wp-admin/
不許可: /wp-includes/
許可しない: /cart/
許可しない: /checkout/
許可しない: /my-account/
許可しない: /product-tag/
サイトマップ: https://www.example.com/sitemap.xml

設定ポイント

  • バックグラウンドとシステムフォルダをブロックする。
  • ショッピングカート、チェックアウト、ユーザーセンターなどの動的ページをブロックする。
  • 無駄なタブをブロックする。
  • サイトマップのパスを追加し、インクルードの効率を高める。

ロボットが有効かどうかを確認するには?

  • ブラウザに入力 https://你的域名/robots.txt内容が正しいかどうかを確認する。
  • 利用する Googleサーチコンソール の「Check URL」機能は、ブロックされたディレクトリがクロールされないことを確認します。
  • 重要なページを誤ってブロックしないよう、インデックスされているサイトの数を定期的に観察する。

概要

Eコマースサイトのコンテンツは膨大であるため、合理的なRobotsの設定は、検索エンジンが本当に価値のあるページに集中するのに役立ちます。ケーススタディからわかるように、無駄なクロールを避けた結果、サイトのインクルードスピードが大幅に改善され、商品ページがランクインするチャンスが増えました。もし ワードプレス Eコマースサイトの構築では、Robots.txtで無効なクロールがないかチェックし、コアコンテンツ用のリソースを残すことで、検索パフォーマンスを向上させることができる。


お問い合わせ
チュートリアルが読めない?無料でお答えします!個人サイト、中小企業サイトのための無料ヘルプ!
カスタマーサービス WeChat
カスタマーサービス WeChat
電話:020-2206-9892
QQ咨询:1025174874
Eメール:info@361sale.com
勤務時間: 月~金、9:30~18:30、祝日休み
© 複製に関する声明
著者:Linxiulian
終わり
好きなら応援してください。
クドス161 分かち合う
linxiulianのアバター - Photon Flux|WordPress 修理サービス、プロフェッショナル、ワールドワイド、迅速対応
おすすめ
解説 ソファ購入

コメントを投稿するにはログインしてください

    コメントなし