ウェブマスターツールのURLパラメータの「クロールしない」はクロールしないわけではない

Googleウェブマスターツールの「URLパラメータ」で「クロールしない」の設定ができる。しかしこの設定は“ヒント”であってクロールを禁止するものではない。robots.txtというよりもむしろnoindexタグに近い働きをすると言えそうだ。

Googleからの不自然リンク警告はウェブマスターへの脅しか?

Googleによれば「不自然リンクに対する取り締まりの強化は今に始まったことではなく、黙って裏で処置せずに表に出す形にしただけ」とのことだ。今までも有料リンクや自作自演リンクを見破っていてアクションを起こしてきた。最近になってオープンにしたにすぎない。

Googleが直近にインデックス削除した不自然リンクは推定“1億”本

英語圏を中心に不自然リンクに対する警告メッセージがいっせいにGoogleから送られた。インデックス削除されたリンクの数は1億本を超えると推測される。有料リンクと自作自演リンクに対するGoogleの対決姿勢がより鮮明になった現れだろう。

『検索エンジンのブラックリストに載るための5つのSEO手法』::海外&国内SEO情報ウォッチ

「海外&国内SEO情報ウォッチ」を更新。今週は、『検索エンジンのブラックリストに載るための5つのSEO手法』、『グーグルからの不自然リンク警告を無視し続けるとどうなる?』、『完全なバックリンク情報をグーグルが教えない理由』など10記事+2記事。

表示速度の遅いページをrobots.txtでブロックすべきか

Googleはページの読み込み速度をランキング指標に取り入れている。しかし極端にヒドイのでない限りは遅いページをrobots.txtでブロックするほどまで対応する必要はない。なおページスピードがアルゴリズムに組み込まれているのは米Google(google.com)のみ。日本のGoogle(google.co.jp)には未導入のはず。勘違いが目立つので要注意。

Ajaxコンテンツを検索エンジン(Google)にクロール・インデックスさせる方法

AjaxコンテンツをGoogleがクロール、インデックス可能にする仕組みを解説する。AjaxコンテンツのURLを「#!」を含むように変え、「?_escaped_fragment_=」でリクエストされたコンテンツのHTMLスナップショットをクローラに返せばいい。

Googleからのお願い、「CSS・JavascriptをGooglebotがクロールするのをブロックしないで」

CSSファイルやJavascriptファイルへのGooglebotのクロールをrobots.txtでブロックしないようにしてほしいと、GoogleのMatt Cutts氏がビデオを通してサイト管理者に頼んだ。JavascriptやCSSを読んだほうがページを的確に理解できるため。

Googleアナリティクス、「サイトの速度」を改良 & 「イベントフロー」を追加

Googleアナリティクスの「サイトの速度」レポートが改良された。また「ビジュアルフロー」レポートに「イベントフロー」が仲間入りした。

Google、パンダ・アップデートを更新。影響は1.6%程度。

パンダ・アップデートを更新したことを、GoogleはTwitterの公式アカウントで明らかにした。影響は1.6%以下の予測。導入以来今回が12回目の更新。日本への導入については依然として不明。

『“SEOをやりすぎている”サイトにはペナルティが来る!?』::海外&国内SEO情報ウォッチ

「海外&国内SEO情報ウォッチ」を更新。今週は、『“SEOをやりすぎている”サイトにはペナルティが来る!?』、『マット・カッツが語る「metaタグにどのくらい時間をかけるべきか?」』、『リンク切れ発見&サイトマップ作成ツール』など10記事+2記事。