[対象: 中級]

昨日のLPOに続いて今日も SMX London 2012 のセッションレポートの記事です。

GoogleのMilie Ohye(マイリー・オーイェ)さんによる技術的なSEOの問題の解決策を解説するセッションになります。

マイリーさんのセッションのタイトルスライド - Real answers for tech SEO prolems

大規模サイトでの更新をGoogleに速やかに伝える方法と重複コンテンツを減らす方法の2項目をマイリーさんは説明しました。

それぞれを順にまとめます。

大規模サイトの更新をGoogleに伝える方法

Google マイリー・オーイェ

− あり得る修正
・新しいURL: ユニークでオリジナルなコンテンツの追加
・既存のURL: 301リダイレクト/rel=”canonical”/noindexタグの記述

− Googleウェブマスターツールの「Fetch as Google」での「インデックスの送信」
・1週間に500URLまで
・リンク先ページも含めるときは1か月に10URLまで

− Googleウェブマスターツールの「アドレスの変更」
・ドメインの移転のみ
・サブドメインやサブディレクトリには使えず

− サイトマップ送信
・新しいURL: サイトマップで送信しインデックス数をチェック
・既存のURL: 正確な日時の<lastmod>を記述する — 最後のクロールよりも新しい日時の<lastmod>が付いたURLのクロールをGooglebotは優先する
・ベストプラクティス — 更新したコンテンツのインデックス状況を追跡するためサイトマップを分ける

重複コンテンツを減らす方法

Google マイリー・オーイェ

− 認識している重複コンテンツや質の低いコンテンツを取り除く
− 本当に質の低いコンテンツを取り除くために:
・robots.txtでクロールできるようにしておき、noindexタグを追加する
・早く再クロールさせるために正確な<lastmod>を記述したURLをサイトマップで送信する
・質の高いページだけに内部リンクする

− 認識している重複コンテンツを統合する
・rel=”canonical”または301リダイレクトを実装する
・すぐにクロールさせるためにFetch as Googleの「インデックスに送信」を使うか<lastmod>を書いたサイトマップを送信する

− 重複の優先度を調査する
・同じキーワードで競合しているかもしれないURLをチェックする — ウェブマスターツールの「検索クエリ」を調べる
・ウェブマスターツールの「上位のページ」で重複URLがないか調べる
・ウェブマスターツールの「HTMLの改善」を利用する — ここには、すでにクロール、インデックスして検出された重複がレポートされる

− CMSでは不要なパラメータを撤廃する

− 可能ならrel=”canonical”や301リダイレクトを使う

− クローリング効率を良くするためにウェブマスターツールの「URLパラメータ」を利用する
・rel=”canonical”と同じではない
・www.googlestore.comの場合は、“cid”を「いいえ: ページのコンテンツには影響しません」に、“order_by”と“sort_order”を「クロールしない」に設定した(後者はデフォルトでは表示されない)

− クローリングを早めるために(オプション)
・Fetch as Googleの「インデックスに送信」
・正確な<lastmod>を記述したサイトマップを送信

− 重複が減っているかフィードバックする
・ウェブマスターツールの「HTMLの改善」をあとから見る — リストに出ているURLはrel=”canonical”や301リダイレクトを実装したあとのURL

− サイトマップの注意点
・rel=”canonical”で別のURLを指定しているURLはサイトマップに記述されていてもインデックスにカウントされない
・noindexが付いたページと301リダイレクトされたページ、rel=”canonical”が付いたページはサイトマップのインデックス状況にはカウントされない

Q&A

プレゼン後に参加者から出た質問と僕が直接聞いてきた質問に対する回答です。

Q; いったんnoindexタグで非表示にしたURLからnoindexタグを削除したら検索結果に復活するまでにかかる時間はどのくらいか?
A: 再クロールまでの時間やページ数による。トップページだったらすぐに復活するだろう。サイトマップの<lastmod>でスピードを早めることができる。なおnoindexしたURLでもインデックスには残っている(検索結果に表示しないだけ)。

Q: ウェブマスターツールのURLパラメータで正規化したURLはPageRankも統合されるのか?
A: されない。URLパラメータはクロールを制御するためだけの役割。

Q: rel=”prev/next”がうまく機能しているかどうかを確かめる方法はあるか?
A; 今のところない。要望があるので上げておく。ただしうまく実装できていないとしてもマイナスな影響を及ぼすことはない。

2つめと3つめは僕がマイリーさんに直接きいてたことです。
2つ目に関しては知人に頼まれて代わりに聞いてきたのですが、その人に言わせるとURLパラメータを使ってもリンクやPageRankが統合されているような結果が出ていてやや疑問が残るそうです。

3つ目に関しては、僕が関わっているいくつかのサイトでrel=”prev/next”を導入しています。
ところが正しく認識されているかどうかを確かめる術がないんですよね。
僕からの要望をマイリーさんはきちんとメモってくれたのでチェックのための仕組みができることを期待します。

というのも1人1人のウェブマスターからのフィードバックをGoogleは真剣に聞いてくれているようだからです。

以前にマイリーさんに、すべてのページのrel=”canonical”を間違ってトップページに向けてしまいトップページ以外がインデックスから消えてしまう事故が多発しているから、誤用だと認識してGoogleの方で対処すべきだとリクエストしたことがあります。

その時のことを覚えていて「今は直ってるでしょ」と言われました。
たしかに、あえて全ページのrel=”canonical”でトップページに正規化した実験サイトは当初はトップページしか検索結果に出てこなかったものの現在はrel=”canonical”が無視されて個別ページが検索結果に出てきています。
もちろん僕一人からだけではなく僕も含めて多くのウェブマスターからの指摘があったからでしょうね。

最後は話が少しそれてしまいましたが、マイリーさんのセッションレポートは以上です。

技術的なことがテーマとはいえ難易度の高い話ではなかったはずです。
必要な場面では実践しやすい操作ばかりだったのではないでしょうか。
サイトマップの<lastmod>の使い方は、僕は存在を知っていたけれど役目を果たしていることを知らなかったのでよい情報になりました。

あなたも新しい知識を得ることができましたか?

このエントリーが役に立ったらシェアしてください

[Ads & Featured Articles]

海外SEO情報ブログTOPGoogle SEO › 大規模サイトの更新をGoogleに伝える方法 & 重複コンテンツを減らす方法 at #SMX London 2012

▲ページの一番上に戻る