『パンダ・アップデート日本の現状と対策&不自然リンクのチェックポイント』::海外&国内SEO情報ウォッチ

「海外&国内SEO情報ウォッチ」を更新。今週は、『パンダ・アップデート日本の現状と対策&不自然リンクのチェックポイント』、『これをやったら過剰SEO』、『不自然リンク警告の原因はコメントスパムか』など10記事+2記事。

バーバリーのUSサイトがインデックスから消滅、原因は重複コンテンツ

ファッションブランドのバーバリー (Burberry)の米国向けサイトがGoogleのインデックスから消滅した。原因は英国向けサイトの重複コンテンツとGoogleがみなしたため。解決策は「rel=”alternate” hreflang=”x”」を設定すること。

Google、アンカーテキストの評価方式を変更 〜 2012年3月にGoogleが実行した検索品質改善×50+(前編)

2012年3月に実行した検索品質改善をGoogleは公式アナウンスした。その数は50以上。注目すべきはアンカーテキスト評価の変更。いったい何がどう変わったのだろうか?

ウェブマスターツールのURLパラメータの「クロールしない」はクロールしないわけではない

Googleウェブマスターツールの「URLパラメータ」で「クロールしない」の設定ができる。しかしこの設定は“ヒント”であってクロールを禁止するものではない。robots.txtというよりもむしろnoindexタグに近い働きをすると言えそうだ。

Googleからの不自然リンク警告はウェブマスターへの脅しか?

Googleによれば「不自然リンクに対する取り締まりの強化は今に始まったことではなく、黙って裏で処置せずに表に出す形にしただけ」とのことだ。今までも有料リンクや自作自演リンクを見破っていてアクションを起こしてきた。最近になってオープンにしたにすぎない。

Googleが直近にインデックス削除した不自然リンクは推定“1億”本

英語圏を中心に不自然リンクに対する警告メッセージがいっせいにGoogleから送られた。インデックス削除されたリンクの数は1億本を超えると推測される。有料リンクと自作自演リンクに対するGoogleの対決姿勢がより鮮明になった現れだろう。

『検索エンジンのブラックリストに載るための5つのSEO手法』::海外&国内SEO情報ウォッチ

「海外&国内SEO情報ウォッチ」を更新。今週は、『検索エンジンのブラックリストに載るための5つのSEO手法』、『グーグルからの不自然リンク警告を無視し続けるとどうなる?』、『完全なバックリンク情報をグーグルが教えない理由』など10記事+2記事。

表示速度の遅いページをrobots.txtでブロックすべきか

Googleはページの読み込み速度をランキング指標に取り入れている。しかし極端にヒドイのでない限りは遅いページをrobots.txtでブロックするほどまで対応する必要はない。なおページスピードがアルゴリズムに組み込まれているのは米Google(google.com)のみ。日本のGoogle(google.co.jp)には未導入のはず。勘違いが目立つので要注意。

Ajaxコンテンツを検索エンジン(Google)にクロール・インデックスさせる方法

AjaxコンテンツをGoogleがクロール、インデックス可能にする仕組みを解説する。AjaxコンテンツのURLを「#!」を含むように変え、「?_escaped_fragment_=」でリクエストされたコンテンツのHTMLスナップショットをクローラに返せばいい。

Googleからのお願い、「CSS・JavascriptをGooglebotがクロールするのをブロックしないで」

CSSファイルやJavascriptファイルへのGooglebotのクロールをrobots.txtでブロックしないようにしてほしいと、GoogleのMatt Cutts氏がビデオを通してサイト管理者に頼んだ。JavascriptやCSSを読んだほうがページを的確に理解できるため。