はてなブックマークに追加

BussinessWeekが、今週の月曜日から4回のシリーズで、Googleのエンジニアとのインタビューを公開しました。

インタビューを受けたのは、Udi Manber(ウディ・マンバー)氏, 、Amit Singhal(アミット・シンガル)氏、Scott Huffman(スコット・ホフマン)氏、そしておなじみのMatt Cutts(マット・カッツ)氏の4人です。

この記事では、Matt Cutts氏のインタビューから、僕が伝えたいなと感じた部分を抜き出して簡潔に紹介します。

残りの3人については、時間を見つけて(気が向いたら?w)別ポストで取り上げたいと思います。

予備知識になりますが、Matt Cutts氏は、Googleの”Search Qualtiy Group(検索品質グループ)”の中にある”Webspam Team(ウェブスパムチーム)”のリーダーとして、検索の品質の改善、特にスパムサイトの撲滅に従事しています。

●検索品質を高めるためのアルゴリズム改良の大部分は、分析に基づく。しかし一部は、ユーザーの声やエンジニアの発見がきっかけになる。

●アルゴリズムは、働きの異なる小さなアルゴリズムが、最終的に多数寄り集まった集合体で構成される。

●スパムサイトかどうかを判断する指標の例: どんなスパム言葉を使っているか、バックリンクはどうか、見た目がスパムサイトっぽいか

●Googleは次の3つの実現を目指している:1)Freshness — データの最新さ、2)包括性 — より多くのページをクロールする、3)関連性 — ランキングとスパム排除の核

Caffeineは、表面上は違いに気付かれないだろうが、インデックススピードが格段に向上し、今よりもずっとパワフルでフレキシブルになっている。

●いったんスパムを発見して認識したら、そのサイトはもう検索に出てこなくなる。

●「cheap-viagra-online-discount-herbal-whatever.com」のように「-(ダッシュ)」を多用するサイトはスパムの場合が多いが、必ずしもそうではないことを分かっている。

●Googleは、ユーザーが検索するたびに手動で検索結果を10個ずつ選んで、それらを表示していると思いこんでいるコンピュータに疎い人たちがいる。

●Googleは、他のどんなサーチエンジンよりもコンピュータやアルゴリズムに処理を任せている。

●スパムサイトの順位を下げたり、ペナルティを与えたりすることはあるけれど、特定のサイトの順位を上げることはしない。

●検索結果に問題があったときは、個別個別に対応するのではなく、たとえ時間がかかったとしても、拡大性が出るようにアルゴリズムを修正する。

●Googleは以前よりももっとユーザーの声を聞くようにし、コミュニケーションを取るようにしている。

●何千万人もいるウェブマスターや広告主、何億人もいるユーザーに幅広く語りかけたいから、ウェブマスターフォーラム・ブログ・カンファレンス・Twitter・チャット・ビデオなど一度に多くの人を相手にできる手段を使っている。

Matt Cutts氏は、スパムサイトを発見した時に検索順位を下げることはあっても、上位に出るべきページが出ていないのが分かった時に、検索順位を上げることはしないと発言しています。

汎用性が出るように、アルゴリズムを修正して対応しているそうです。

Google Help Forumで、「ある検索でトップに出てくるべきホワイトハウスのページが、Bingでは正しく1位に表示されるのに、Googleではトップ20にも入っていない」と指摘する投稿がありました。

Google社員が、「変更を加えて1位に表示されるようにした」と回答しています。

しかし、この場合でもMatt Cutts氏によれば、「特定の検索の順位を操作したわけではなく、バグがあったので修正しただけだ。これ以外の検索にも適用されている。」とのことです。

この記事が参考になったと思ったらソーシャルメディアで共有してください。

Sponsored Links

Privacy Policy

次のエントリも読むとSEOにさらに強くなります。

この記事にはまだコメントが投稿されていません。

コメントを投稿する

※下の英数字のキャプチャコードを入力してから投稿してください。
*