[対象: 上級]

Googleウェブマスターツールのバックリンクレポートの改良と新たなアルゴリズム変更に関する最新の情報をGoogleのMatt Cutts(マット・カッツ)氏が語りました。

米サンフランシスコで先週開催されたSES San Franciscoの開催中に、主催者によるインタビューのなかでの発言です。

いくつかのトピックについて話しており、そのなかで注目したい2つをこの記事で取り上げます。

ウェブマスターツールのバックリンクレポートの改良

リンクのサンプリング方法を根本的に変えた。

いわばベースインデックスのようなもののなかにある最も質が高いリンクで、約70%をランダムに抽出、残りの20〜30%をランダムなTLD、ドメイン名から抽出する。

これまでよりももっとずっと多様なリンク情報を入手できるだろう。

ウェブマスターツールのバックリンクレポートのダウンロードデータの対象を改良したことをGoogleは先週発表しました。

アルファベット順に提供していたサンプリングデータをもまんべんなく均一に提供するようになりました。

分布のパーセンテージは、だいたいMatt Cutts氏が言ったような内訳になるようです。

リンクの数が多いためアルファベットの途中までしかリンクデータを見られなかったサイトでは、手にできるデータが大きく変わっているはずです。

小さいけれど高品質なサイトの情報提供

オーソリティがあるサイトをより高く評価するアルゴリズムを完成させたばかり。

たとえば、医療関係のサイトで、薬に関して非常によく知っていればオーソリティのあるサイトとして順位を上げることになるだろう。

担当チームの人間が、次の新たな可能性として、小さなサイトについてはどうしようかと考え始めた。

そこで、ブランドのサイトやメジャーなサイトを見たいというユーザーがいたように、ユーザーからフィードバックをもらってはどうかとアドバイスした。
過小評価されているサイトをウェブで尋ねてみたらいいと。

まだまだ始まったばかりの段階だが、フィードバックによってアルゴリズムを改良するためのいいアイディアをおそらく思い付くだろう。

2つの内容に分かれています。

1つは、そのジャンルにおいてオーソリティがあるサイトをより高く評価するアルゴリズムができあがったことです。

6月のSMX Advancedで、Matt Cuttsが言及していたアルゴリズムのことを指していると思われます。

完成したということは導入も間近と考えるのが自然です。

どのくらいのインパクトを与えるのか気になります。

もう1つは、小さいけれど高品質なサイトの情報をMatt Cutts氏がTwitterでユーザーに募った件です。

新たなアルゴリズム開発に繋げるためだろうとは容易に推測できましたが、こちらは具体的なことが決まっているわけではなさそうです。

「小さいけれど、もっと検索順位が高くてもいいはずのウェブサイトをどうにかしたいね。さて、どうしたものか。」

「僕たちだけではわからないからユーザーに聞いてみたらいいんじゃない?」

まだこんな段階のようです。

はたして、新しいアルゴリズムに発展するでしょうか?

このエントリーが役に立ったらシェアしてください

[Ads & Featured Contrents]

海外SEO情報ブログTOPGoogle SEO › Google、オーソリティがあるサイトをより高く評価するアルゴリズムを完成させる

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

CAPTCHA


▲ページの一番上に戻る