2019年7月1日月曜日

ドメイン取得はなぜ必要なのか

ドメインは取ったほうが良いよという解説サイトは多いけど、取らなければいけない理由は説明されてません。 今日はそこを真面目に書いてみたいと思います。



1. Bingで大量のページをクロールしてもらうため

検索エンジンに自分のサイトを認識してもらうためには、まずGoogle, Bingに登録してもらう必要があります。 ある程度SEOを知っていればここは大丈夫でしょう。 ただ1万件など大量のページがあるサイトを認識させる場合、そのサイトが何日でクロールし終わるかという問題があります。 ではここで問題です。 数万件のページがあるサイトをBingにsitemap.xmlだけ登録した時に、1-2ヶ月で何ページくらいクロールしてくれたと思いますか?

解答は100ページです。

Bingは大量のURLがあると同じページしかクロールしてくれないようで、このペースだと永遠にクロールが終わりません。 徐々にページ数を増やしていく場合には1000ページくらいは普通に耐えるように見えるのですが、 初期段階からページ数が多いと、今のところうまくクロールしてくれません。 そして何万ページかあると、新たに何千ページか追加しても、思った通りのクロールは全然してくれないので、かなり困ります。

ではどうするかというと、ドメインを取得した際に使える「URLの送信」機能を使います。 「URLの送信」を使うと1ドメインあたり1000件のURLを送信できます。 この機能を使った際のBingbotは、Googlebotより有能だと私は思っています。 そしてサブドメインで登録しているサイトではこの機能は使えません。 だからドメイン取得が必要なのです。

ちなみにGooglebotはサーバ状況にもよるので何とも言えません。 何千件もクロールしてくれる時もあるけど、平均すると1日1000件より少ないイメージです。


2. Bingで素早くインデックス化してもらうため

BingのURL送信の可能数がドメインあたり1000件という制限が意味するところは、 世の中にあるサイトのたいていのサイトは運用に効果の高い人気の高いページを1日に1000件しか登録しないという事です。 つまりサブドメインでしょぼいサイトを運用している場合、Bingはいつまでも更新してくれないリスクがあります。

ではここで問題です。Bingにサブドメイン型の20ページくらいのサイトをsitemap.xml登録した時、 どれくらいの日数でクロールしてくれたと思いますか? これはドメイン内の状況次第と思いますが、自分が作ったことのあるサイトでは1ヶ月くらい掛かっていることが多いように見受けられます。遅過ぎる…。 もちろん1週間以内に登録されることもあります。 そのサイトがURLのキューイングアルゴリズムをどう作ってるかというのは、外からじゃわからないのがキツイ。

ちなみにGoogleはサブドメインでも「URLの検証」から登録できるので、ページ数が数十なら何とかなります。 ただGoogleの「URLの検証」も1日10回くらいが限界で、それ以上はボット回避の認証が必要になる。 絶対すぐに見て欲しい2-3ページしか登録できないです。

Bingの1日1000件の制限と、Googleの制限は、サイト構築の仕方にも影響を与えます。 この制限のために、Webサイトのページ数は10万件くらいが最初の限度と思います。 Bingで1日1000件更新してもすべての更新に100日掛かってしまうし、Googleではそれより時間が掛かります。 またGoogleはフィルタリングを食らった時に更新が地獄になるし、 サイト全体にアップデートをかけた時の管理が、Bingbot以上に大変になるからです。


ところでブログだとPING送信という機能があって、これがインデックス化速度に関係するという記述をたまに見ます。 この仕組みについても書いておくと、PING送信が掲載されるのは送信先の新着ページばかりです。 ブログとの関連性も薄いし、被リンク効果があっても一瞬だけなので、インデックス速度に効果があるかというと、そんな気はしないです。 ただ誰かの視界に入る確率はほんの少し上がるかも? 先に述べたようなクロールの仕組みを踏まえた上で、方法論を考えると良いのかなと思ってます。


3. Bingを最大限に利用するため

ここまでBingの欠点ばかり挙げているようですが、私はBingのほうが有能だと思っています。 使いこなせば明らかに。 ではGoogleとBingの最大の違いは何でしょうか? 私は性能云々ではなく、フィルタリングが掛かっているかどうかだと考えています。 Bingにはアダルト以外のフィルタリングは掛かっていないと発表されており、 実際にGoogleよりBingのほうがヒットするサイトは多様性があると感じています。

多様性以外にフィルタリングがどのような差を生むかというと、サイト初期登録時の認知度に効いてきます。 Googleだと、真面目に作ってコンテンツがしっかりしていても、不適切なコンテンツと判断され、フィルタリングされてしまう可能性はかなり高いです。 フィルタリングされると、インデックスページ数、ページ表示回数、クリック率の相関が壊滅的になります。 それもそのはず、検索結果にページが表示されないのですから。

さすがにGoogle八分はキツイのできちんと対応はするのですが、これが結構大変なんですよ。 その点、BingだとSEOが甘めでも最低限のアクセス数を確保してくれるので、安心感が全然違います。 ページの修正は大変だしクロールも時間が掛かるので、サイトの初期段階でBingの存在は欠かせません。 Googleは安定してくると強いんですがね。


SEOのことをしっかり知ってないと、すぐに誰もアクセスしてくれないサイトになります。 もう少し何とかならないものかなあ。

0 件のコメント:

コメントを投稿