表示速度の遅いページをrobots.txtでブロックすべきか

[対象: 全員]

表示速度の遅いページがサイトに存在した場合、全体としてのスピードを上げるためにそれらのページをrobots.txtでブロックすべきか?

この質問にGoogleのMatt Cutts(マット・カッツ)氏が回答しました。

一般的に言えば、僕だったらGooglebotにはユーザーと同じページを見せておく。

ページスピードのメカニズムによって影響を受けて順位が下がるのは100検索につき1つだ。だいたい1,000サイトに1サイトに相当する。

もしその1,000サイトのうちの1つに当てはまるくらいものすごく遅いなら何か対処しなければならないだろう。でもブラウザがタイムアウトしたりカクカクし始めたりしない限りは、ほとんどの場合は比較的いい状態だと言える。

だけどユーザーエクスペリエンスのことは考えたほうがいかもしれない。もしページが表示されるのに8、9、10、20秒待たないといけないとしたら、多くのユーザーはそんなに長くとどまっていてはくれないだろう。

たとえば事前にキャッシュしておいたりしてスピードアップさせることができるだろう。表示速度を上げることはユーザーにとってすばらしいことだ。

スピードが非常に遅いのが数ページだけでサイト全体として速いなら心配することはない。ユーザーエクスペリエンスだけを目的として速くすることにフォーカスしてほしい。

1,000サイトのうちの1サイトに含まれるくらいものすごく遅いのでなければ必ずしもGooglebotをブロックしなくていいだろう。

結論から言うと表示速度の遅いページをrobots.txtでブロックする必要はありません。

ページの表示速度をランキング指標にGoogleは取り入れていますが、影響を受けるのは非常に狭い範囲だからです。

本当に、本当に遅すぎるくらい遅いのでなければそこまでしなくてよいということになります。

ただしページスピードが速いことはユーザーエクスペリエンスを向上させます。
逆に言うとページスピードが遅いとユーザーエクスペリエンスを低下させます。

1秒遅れただけでコンバージョン率が7%下がるという調査データをWeb担で以前にピックアップしました。
Googleでは、0.4秒遅くなっただけで検索回数が0.44%減少するそうです。

ランキングを下げないためというよりも、ユーザーエクスペリエンスを上げるためにスピードアップには取り組んだほうがいいということになります。

最後に1つ補足です。

ページの読み込み速度がランキングのアルゴリズムに組み込まれているのは、Google.comだけのはずです。

少なくとも昨年6月にGoogleのMatt Cutts氏に僕が直接聞いた時点では、Google.comだけでした。

「Google.com以外には展開していない」と断言することはできませんが、公式・非公式にもGoogle.com以外に展開したというGoogleからの発表を僕は知りません。

もし知っていたら教えてください。

あたかも日本のGoogle(google.co.jp)でも導入されているかのように語っている人をしばしば見かけますが、その方々にどこから得た情報か確かめたいものです。

とはいっても、スピードアップに取り組むことを否定する気は全然ありません。
それどころか積極的にスピードアップに励むべきです。

表示速度が速いサイトはユーザーの満足度が(無意識であったとしても)上がるだろうし、それに加えてコンバージョン率も伸びるなら取り組まない手はありませんね。

僕のブログもキャッシュプラグインを入れたり圧縮したりはしてますが、サクサク表示されるというところまでは行っていないのでまだまだ改善の余地は残っています。