Google SEO

JavaScript SEOの基本を解説するドキュメントをGoogleが公開

JavaScript を多用するウェブサイトの SEO のために必要な基本知識を解説するドキュメントを Google はデベロッパーサイトで公開した。

Googleジョン・ミューラーによるMnSearch Summit 2019でのオフィスアワーまとめ #mnsummit

この記事では、6 月に米セントポールで参加した MnSearch Summit 2019 でのジョン・ミューラー氏とのオフィスアワーをレポートする。ミューラー氏は、会場から遠く離れたチューリッヒからオンラインで、Google 検索に関する最新情報を解説してくれた。

Google検索に求められる3要素――関連性・品質・信頼性

検索結果をより関連性が高く使いやすいものにするために、どのように取り組んでいるかを Google は公式ブログで説明した。オーガニック検索に関して言えば、「信頼性」に重きを置くようになったとあらためて感じられる言及がある。

URLを正規化するためにGoogleは複数のシグナルを利用する

URL を正規化する際にさまざまなシグナル(要因)を Google は用いる。想定した URL でインデックスさせるためには、そうした要素に利用される URL をそろえておくことが大切。

ダイナミックレンダリングは一時的な回避策、最終的にはSSRの実装を

Dynamic Rendering(ダイナミック レンダリング)は、JavaScript で生成されるコンテンツを確実にインデックスさせるために利用できる仕組みだ。しかし一時的な回避策としてみなしたほうがいいだろう。数年後には必要性が薄れているかもしれない。最終的には、Server-side Rendering(サーバー サイド レンダリング)の実装が望まれる。

robots.txtの5xxエラーは30日を境にクロールの処理が変わる

REP のインターネット標準化に伴い、Google が公開している robots.txt の技術ドキュメントに更新し、500 番台のエラーを返すときの処理が変わった――30 日まではクロールしないが、30日を超えるとクロールを再開することもある。

robots.txtでのnoindexをGoogleが完全にサポート終了、2019年9月1日から

robots.txt の noindex 構文のサポートを終了することを Google は告知した。REP のインターネット標準化にともなう決定だ。

Google主導のもと、Robots Exclusion Protocol (REP) がインターネット標準に

robots.txt の仕様を標準化する取り組みに Google は着手した。25 年前に考案された Robots Exclusion Protocol (REP) は事実上の標準ではあったが統一されたインターネット標準ではなかった。

新しいレンダリングエンジンに対応したモバイルフレンドリーテストツールを内部テスト中

新しいレンダリングエンジンに対応したモバイルフレンドリー テスト ツールを Google は内部でテストしているとのこと。

グーグルSERPが10年前に巻き戻り? 「1サイト2ページまで」の真意とは?【海外&国内SEO情報ウォッチ】

Web担当者Forum の連載コーナー「海外&国内SEO情報ウォッチ」を更新。グーグルの検索結果ページが10年前の仕様に戻った――同じサイトから2ページまでしか表示されなくなったのだ。なぜこのタイミングで古く懐かしい制限が戻ったのか