LSI(Latent Semantic Indexing)

【UPDATE】
この記事に出てくる「LSI」そのものはGoogleも他の検索エンジンも検索には利用していないと思われます。

・メルマガ #49(2007/03/18発行)のバックナンバー

さて、もう3月も後半になってしまいましたが、今日は2007年のSEOを占います。

数日前に、あるアメリカのインターネットマーケッターが書いたeBookレポートを読みました。

結局は、作者がリリースするプロダクトのプロモーションにつながるんだけど、その動機付けに使われてるコンテンツがものすごく説得力があったので、あなたにも伝えますね。

2005年以前のSEOといえば、いかにキーワードをコンテンツに含めるかが重要でした。
「キーワード密度」とか「metaタグ」「strongタグ」「altタグ」などです。

いわゆる、内的要因(On Page Optimization)ってやつですね。

キーワードをとにかく詰め込む「キーワードスパム」が流行りだしたのも、このころです。

これが、2006年になるとウェブページそのものに含まれるキーワードよりも、いかに多くのバックリンクをもらうかにSEOの焦点が移りました。

こちらは、いわゆる外的要因(Off Page Optimization)です。

Google PageRankが拍車をかけて、ウェブマスターは「相互リンク依頼」に明け暮れました。

あるいは自作自演で、自分で作ったサテライトサイトから、メインサイトにバックリンクするとか、トラックバックやコメントでバックリンクを強制的にもらうとか。
(今は、こういうのは効果が薄くなってきています)

じゃ、「2007年はどんなSEOが効果をあげるのか」、これに興味が移りますね。

↑今日のメインテーマです。

あくまでも、僕が読んだレポートの内容と僕なりの見解をお伝えするだけなので、「参考」ってことで読んでくださいね。

当りか外れかは、今年が終わるまで分かりません。w

さあ、2007年のSEOは?

「ズバリ言うわよ!」(爆)

1.LSI(Latent Semantic Indexing)
2.Phrase Matching

この2つです。

「LSI(エル・エス・アイ)」と「Phrase Matching(フレーズ・マッチング)」。

「LSI」については、僕の無料レポートを読んでいれば分かりますね。

でも、これも次の段階に入ってます。

「Phrase Matching」は、僕も初めて聞きました。

2つとも互いに関連した「内的要因」のSEOテクニックです。

Googleが、こんなパテント(特許)を取ってます。

Googleの新しい検索アルゴリズムに関する文書です。
※英文を読むのに不自由ない人は、読んでみてください。

小難しい説明をしてもなんなので、要点だけ解説しますね。

ウェブページの文中にあるフレーズ(語句)を読み取って、そのフレーズと意味的に関連した(←これが”Latent Semantic”)別のフレーズが、どのように存在するかに注目します。

「A」というフレーズと「B」というフレーズが一緒に出現すると、好ましいと判断されて、評価アップ。

反対に、「A」というフレーズと「C」いうフレーズが、一緒に出現すると、好ましくない判断されて、評価ダウン。

↑、こんなことがありえます。

語句と語句のつながり、
具体的には
「意味的な関連性(例:“ダイエット”と“減量”)」
「同時出現率(同じページに現れる割合)」、
「近接度(どのくらい近くに現れるか)」を
見るようになってきているんですね。

2つのフレーズが互いに関連があるかどうか判断するのに、好ましいと期待される同時出現率を用います。

その期待した同時出現率に到達すると、関連のあるフレーズだと認識されるとのこと。

例えば、「President of the United States(米大統領)」と「White House(ホワイトハウス)」は、同時に使われることが多い語句ですよね。

僕たち人間にとっては、上の2つが密接に関連している語句だと、すぐに分かりますがコンピュータにそれを自動で判断させる(アルゴリズムに組み込む)のは、超高度な技術が必要なわけです。

関連性のある語句を、ひとつひとつ人間がプログラムするわけにはいきませんからね。

このパテントを使ったアルゴリズムでは、「President of the United States」と「White House」がどのくらいの割合で同時に出現するかのデータを収集して、期待値を超えたので、互いに関連性があると判断するんです。

すごいですよね。

ちょっと難しくなってきたかな。
パテントの話はここまでにしましょう。

で、僕たちの「SEOをどう対応させるべきか」、これが知りたいですよね。

2005年は、
「内的要因」の「Keyword Density(キーワード密度)」が重要でした。

2006年は、
「外的要因」の「Link Popularity(リンク・ポピュラリティ)が重要でした。

2007年は、
再び「内的要因」に戻って
「Theme Density(テーマ密度)」が取って代わります。

どういうことかというと、ウェブページの「テーマ」に沿ったキーワードや表現を盛り込むということです。

「同意語」「専門用語」「俗語」「短縮語」など、テーマに関するいろんな言い回しを使うんですね。

たとえば、テーマが「SEO」だったら、「SEO」というキーワードだけにとらわれるんじゃなくて、こういうのも使うんです。

・Search Engine Optimization
・サーチエンジン最適化
・検索エンジン対策
・Google
・Yahoo!
・アルゴリズム
・上位表示
・キーワードスパム
・タイトルタグ
・バックリンク
・鈴木謙一

最後のはともかくとして、w
いろいろ思いつきますよね。

関連するキーワードも、しっかり使いましょうってことです。

以前にも言ったように、バックリンクのアンカーテキストも同じフレーズだけではスパムとみなされる危険性があるので、いろいろなパターンのテキストで、リンクしてもらいましょう。

そのほうが、自然なリンクとみなされて評価が上がります。

サーチエンジンは、ウェブページの「個々」のキーワードを見るんじゃなくて、ページ「全体」の記事が何を伝えているのかを重要視する段階に来ているんです。

ただ、関連語句も使いすぎると返って評価を落とすでしょうね。
どのくらいの割合がいいかは、検証して調べるしかありません。

ま、自然な文章でビジターに対して有益な情報を与えれば必然的に最適な割合になるんでしょうけど。

検索エンジンのアルゴリズムを解析して、上位表示を獲得するのは、ますます難しくなりそうです。

でも、これに打ち勝つSEO対策が出現するのも予想できます。
人間の脳みそは、スーパーコンピュータ以上に賢いですから。

事実、今回のネタもとになったレポートの作者は検索エンジンに好まれる記事を生成するツールを完成させて、近々リリースするそうです。

最後に、「今日の話はGoogleに限ったことでしょ。」
「日本では、Yahoo!が全盛だから関係ないや」なんて思わないでください。

確かに、LSIを本格的に採用しているのはGoogleです。
でも、Yahoo!も独自のLSI技術を取り入れています。

MSN(Live サーチ)は・・・、知りません。w
思いっきり、出遅れてますから。

ますますSEOも、文章能力が問われる時代に突入ですね。
小手先のテクニックにとらわれないSEOを、目指しましょう。

以上、2007年SEO 大胆予測でした。