Googleウェブマスターツールで試験的に提供されていた“Fetch as Googlebot”が正式な機能として格上げされた。Fetch as Googlebotは、Googlebotが読み取っているHTMLを見ることができる診断用ツール。
この前のGoogleアルゴリズム変更は「スクレイピングサイト対策」で「コンテンツファーム対策」ではなかった
GoogleのMatt Cutts氏が個人ブログでアナウンスしたアルゴリズム変更は「スクレイピングサイト」を検索結果から排除するものだった。他にも問題となっている「コンテンツファーム」対策ではなかった。
良質なQ&Aコンテンツを埋もれさせない方法
Q&Aコンテンツでページ数が増えてくると過去の人気のあったQ&Aが後に追いやられて埋もれてしまう。結果として検索に出てこなくなる。Googleのマット・カッツ氏がビデオで2つのアドバイスを説明してくれた。
発覚!BingがGoogleの検索結果をコピーしていた
Bingの検索結果がGoogleの検索結果に非常に似ていることにGoogleは気付いていた。その傾向はますます強まり、Googleが“トラップ”をしかけたところ見事にBingはハマってしまった。観念したBingは事実であることを認めた。しかしコピーしているわけではなく、ユーザーデータを利用しているに過ぎないと主張している。
内部リンクの数はいくつまでならOK? 多すぎるのはかえってSEOにマイナス?
内部リンクはSEOに効果がある。では内部リンクを張りまくればいいのかというとそうでもなさそうだ。1つのページから張ってもいい適切な内部リンクの数というのは存在するのだろうか。
Googleアルゴリズム変更 〜 コピーサイトを排除
GoogleのMatt Cutts氏は、Googleがアルゴリズム変更を実行したことを明らかにした。オリジナルコンテンツを持つサイト判断しコピーサイト・スクレイピングサイトがそれよりも上位に表示されないようにするもの。コンテンツファーム対策の一環と思われるが、あらゆるコンテンツファームを対象してはいないようだ。
『薄っぺらすぎるコンテンツは、グーグルの検索結果から排除する』::海外&国内SEO情報ウォッチ
「海外&国内SEO情報ウォッチ」を更新。今週は、『薄っぺらすぎるコンテンツは、グーグルの検索結果から排除する』、『あなたのサイトの検索順位が上がらない理由』、『管理サイトが全部「マイナス50ペナルティ」を受けた! 原因は「薄っぺらコンテンツ」』など10記事+2記事。
サイトの過去の姿を見るツール、Wayback Machineがリニューアル
ウェブページの過去の姿を見ることができるInternet ArchiveのWayBack Machineがリニューアル版をベータ公開している。WayBack Machineは期限切れドメインを使う裏技SEOでよく使われるツール。正しい使い方としては、新規にドメインを取得するときに過去に悪いサイトを運営していなかったか調査することができる。
Googleの“site:コマンド”結果の並び順を決める要因が明らかに
site:コマンドの検索結果に表示されるページの並び順はどのように決まるのだろうか?GoogleのMatt Cuttsによれば「PageRank」と「URLの長さ」がかかわってくるようだ。しかしこれらがすべてではなくいくつかの要素の組み合わせである。ページの重要度の順に並んでいるということではない。
ウェブページを完全に削除したときは404よりも410のHTTPステータスコードを返すといい
ページがなくなったときは通常は404のHTTPステータスコードを返せばいい。しかし404はNot FoundなのでGooglebotが再度訪れるためウェブマスターツールで「見つかりません」のエラーを報告することがある。ページを完全に削除したときは410エラーを返すと速やかに削除し再訪問を防ぐことができる。
