コンテンツにスキップする

「現場のプロから学ぶ SEO技術バイブル」を読んだ

投稿時刻2024年4月19日 20:58

現場のプロから学ぶ SEO技術バイブル」を 2,024 年 04 月 19 日に読んだ。

目次

メモ

p19

title 要素で指定するタイトルテキストでは、下記3点に注意する必要があります。

・ページの内容を端的に表す
・31文字以内に収める
・Webサイト内すべてのページでユニークなテキストを指定する

p23

上述の役割を担うdescriptionは、ページ内容を要約・訴求する文章である必要があります。
そのために、注意すべき点は次の3つです。

・キーワードを含める
・100文字以内に収める
・ページごとにユニークな内容にする

h要素の注意点 p27

h要素を実際に記述する際は、下記に示す4項目に注意しましょう。
h要素の不適切な使用は、SEOにおいて悪影響を及ぼす可能性があるためです。

・階層構造を守る
・h要素を多用しない
・<h1>の見出しテキストはページごとでユニークにする
・スタイルを整えるためだけに使わない

<h1>の見出しテキストはページごとでユニークにする p28

1ページに1つだけ記述する<h1>で指定する見出しは、title要素と同様にページの内容を端的に要約したものになります。
各ページは異なるため、<h1>の見出しも当然各ページで異なるべきです。

しかし、ロゴ画像など各ページ共通の要素が指定され、全ページがまったく同じ見出しとなっているケースがあります。
Webサイトのトップなどでは、サービスブランドを意味するロゴ画像を<h1>に設定することは構いませんが、下層ページでも同様にロゴ画像を<h1>に設定することは不適切です。
下層ページにはページごとのテーマがあるため、サービスブランドを意味するロゴ画像を使い回すのではなく、ページ内容を要約したユニークな見出しを設定しましょう。

アンカーテキストが実際に検索順位に影響している事例 p32

アンカーテキストに関係する面白い事例を紹介しましょう。
検索キーワード「出口」では、なぜか「Yahoo! JAPAN」が検索結果の1位に表示されます(執筆時現在)。

もちろん、Yahoo! JAPANのトップページは「出口」に関するページではありません。
それにも関わらず、なぜ「出口」の検索結果で1位に表示されるのでしょうか。
実は多くの成人向けサイトで、18歳未満のユーザーを振り分ける際に、「出口」をアンカーテキストに指定して、「Yahoo! JAPAN」にリンクが張られているからです(図 1.3.3.7)。

「出口」とはまったく関係のない「Yahoo! JAPAN」ですが、数多くのWebサイトから「出口」のアンカーテキストでリンクを張られることで、検索エンジンがYahoo! JAPANのトップページは「出口」に関するコンテンツだと誤解してしまったのです。

この通り、未だにアンカーテキストがSEO評価に一定の影響を及ぼしていることが分かります。
しかし、アンカーテキストが検索順位に影響するからといって、アンカーテキストにキーワードを詰め込むと、スパム判定を受けてしまいます(コード 1.3.3.8)。
詳細に関しては、「2-3-1 価値の低いコンテンツ」で説明します。

p34

こうしたalt属性を検索エンジンも画像理解の手掛かりにしています。
そのため、alt属性には画像を的確に表す文言を記述する必要があり、下記の点に注意しましょう。

・具体的な内容を記述する
・装飾目的の画像の場合は、alt属性は空で問題ない
・タイトル、見出し、リンクになっている場合は、必ずalt属性を記述する
・多数のキーワードを詰め込まない

画像のファイル名 p36

Googleは、画像のファイル名もその意味を理解する手がかりに使っています。
そのため、ファイル名は「img01.png」などの連番などではなく、画像内容を表した文字列にしましょう。

コード 1.3.4.9: 無意味な画像のファイル名 Bad
<img src="img01.png" alt="メンズトップス">

コード 1.3.4.10: 意味を表す画像のファイル名 Good!
<img src="mens-tops.jpg" alt="メンズトップス">

画像はテキストよりもユーザーが理解しやすいこともあり、コンテンツ内で画像を活用するケースも多々あります。
画像情報を検索エンジンに正確に伝えることで、文章の内容をより正確に伝えられます。

また、画像検索結果にもコンテンツ内の画像が表示されやすくなり、新たな集客チャネルにもなります。
そのため、可能な限りすべての画像に、本項で説明した対応を実施することをおすすめします。

p43

将来的にサイトのリニューアルなどで仕様が変わり、拡張子が変わる場合があります。
その際にファイル名が含まれていると、再度正規ページを設定し直す必要があるため、ファイル名を含めないURLに正規化します。
下記コードに示す通り、indexファイル名なしのURLは、index.htmlやindex.phpなど「インデックスファイル名」が省略された形です (URL 2.1.2.5)。

URL 2.1.2.5: index.html/php の省略された URL
#本来のURL
https://www.example.com/page1/index.html

#index.html が省略されたURL
https://www.example.com/page1/

したがって、 概念的にはURLは「/」で終わることが適切であると考えられます。
もし正規ページの選択に迷うならば、末尾スラッシュ有りのURLを選択することをおすすめします。
ただし、ホスト名直後の「/」有無に関しては、どちらも同一ページへアクセスできることが一般的であり、クローラも同一のものとしてみなします。
そのため、「https://example.com」から「https://example.com/」へ正規化する必要はありません。

p44

301リダイレクトとは恒久的な転送を意味しており、ページが別の場所に移転したことを意味します。
実際にユーザーがリダイレクト元ページへアクセスした場合、リダイレクト先ページへ自動的に転送されます。

一方、「canonical」は英語で「正典」を意味する言葉であり、検索エンジンに正規ページのURLを伝えます。
リダイレクトとの相違点は、実際にユーザーがページへアクセスしても、正規ページへ転送されずに、非正規ページをそのまま閲覧できることです。

重複コンテンツへの対処は、Googleは基本的に301リダイレクトを推奨しており、できない場合に利用します。
これらを踏まえて、正規化方法の決定手順をフローチャートで示します (図 2.1.2.6)。

正規化の実装①301リダイレクト p45

各ケースでの対応を概念的に説明しましたが、続いて正規化の実装を説明しましょう。
リダイレクトの方法には以下の3種類があります。

・サーバーでの設定
・JavaScriptでの設定
・HTMLでのmeta refresh

301リダイレクトが可能なのは最初のサーバーでの設定のみで、Googleが推奨する方法です。
サーバー内プログラムを権限の関係で変更できない場合は、JavaScriptでの設定が次善策ですが、ページを強制的に遷移させるだけで、301ステータスコードは返さないことに留意してください。
3番目のHTMLでのmeta refresh設定は、Googleが利用を勧めていないため使用は控えましょう。

末尾のスラッシュ有無で表示ページが異なるケース p49

本項では末尾のスラッシュ有無に関わらず同一ページが表示されるケースの正規化を説明しました。
しかし、下記の例に示す通り、URL末尾のスラッシュ有無で、異なるページが表示されるケースがあります。

URL 2.1.2.20: URL末尾のスラッシュ有無で別ページが表示される悪い例 Bad
https://www.example.com/mens/tops
スラッシュでは、メンズトップス商品の一覧が表示される

https://www.example.com/mens/tops/
スラッシュ有ではメンズTシャツの一覧が表示される

ユーザーにとっては酷似したURLで異なるページにアクセスできる状態は混乱の元になるため、好ましくありません。
そのため、スラッシュ有無に関係なく同一のページを表示させましょう。

rel=“prev”/rel=“next”の設定 p52

検索エンジンは、ページネーションで分割されたページも異なるURL=異なるコンテンツとして処理します。
しかし、各ページは元々1コンテンツであるため、検索結果には1ページ目が表示される方がユーザーフレンドリーなケースが多々あります。
そのためページの前後関係を伝えることが必要です。

ページの前後関係を伝えるrel="prev"とrel="next"を、各ページのhead要素内に記述します。

2011年9月にGoogleがサポートを開始したrel="prev"/rel="next"ですが、現在はサポートされていません。
そのため、Googleでは、rel="prev"とrel="next"の記述に意味はありません。
ページネーションされているページぞれぞれを、単独ページとして認識します。
ただし、Bingでは継続してサポートされ、サイト構造の把握やインデックスに利用されています。

p54

上記例では、titleの「Tシャツ商品一覧」やdescriptionの「私たちが選んだこの夏イチオシのTシャツを見てください!」は重複していますが、部分的な重複に過ぎず問題ありません。

確かに各ページの内容をより詳細に反映させるため、各ページでまったく異なる文章を用意することが理想ですが、工数的に対応が難しく、また検索エンジンも基本的に1ページ目のみを検索結果に表示させるため、title/descriptionの部分的な重複は問題にしていないからです。

2-2-3 正しいステータスコードの返却 p60

エラー発生時には、前項で説明したユーザーフレンドリーなページを返すとともに、検索エンジンにも好ましい形で返す必要があります。

エラーが起きていない場合は通常ステータスコード200が返ってきます。
一方、エラー発生時には、通常ステータスコードの400番台や500番台が返ってきます。
しかし、システムによってはエラーを察知した際に、別途作成したエラーページをステータスコード200と一緒に返す場合があります。

特に404エラーの場合に、独自の404エラーページを用意することが多いため、ステータスコード200を返しているケースがあります。
これを「ソフト404」と呼びます。

2-2-4 外部サイトへのリンク切れ対応 p61

外部エラーに関しては、外部サイトのエラーそのものの修正はできないので、外部サイトへ張っているリンクを変更もしくは削除します。

外部サイトへのリンク切れは、リンク切れチェックツールである「W3Cリンクチェッカー」(http://validator.w3.org/checklink)を利用することをおすすめします。
指定URLだけではなく、そこからのリンク先ページに張られている他リンクを含めて、深い階層までサイト内のリンクを網羅的に確認できます。

また、大規模Webサイトの場合、全リンクを辿って確認するには時間を要するため、スタートURLをトップディレクトリだけではなく、下位ディレクトリも入力して、リンクチェックを並行して実行することでチェック時間を短縮できます。

①他人のコンテンツを盗んだ場合 p66

他人のコンテンツを盗用している場合、盗用コンテンツはすべて削除し、独自価値を付与したコンテンツを新規で作成します。
他サイトから完全コピーしたコンテンツだけでなく、一部語句を置換したものも、検索エンジンはコピーコンテンツと認識できるため評価が下がります。
また、無断複製は著作権侵害にもなります。

コンテンツとして他者の著作物を引用する必要がある場合は、必要な箇所のみの引用に留め、引用元ページを明記してリンクも設置しましょう。
引用はあくまでユーザーにとって価値あるコンテンツの補足です。
引用がメインコンテンツになると、コピーコンテンツに相当することに注意しましょう。

さらに引用文には引用タグを付与します。
q要素は改行を必要としない程度の短い文章を引用抜粋する際に使用します(コード 2.3.1.2)。
blockquote要素は、比較的長めの文章を引用・転載する際に使用します(コード 2.3.1.3)。

コード 2.3.1.2: HTMLのq要素
<q>神はサイコロをふらない</q>とは、アインシュタインが量子力学を批判した際の有名な言葉です。

コード 2.3.1.3: HTMLのblockquote要素
引用してみます。
<blockquote cite="urn:ISBN:0-0000-0000-0">
或日の暮方の事である。
一人の下人が、羅生門の下で雨やみを待つてゐた。
廣い門の下には、この男の外に誰もゐない。
唯、所々丹塗の剥げた、大きな圓柱に、蟋蟀が一匹とまつてゐる。
羅生門が、朱雀大路にある以上は、この男の外にも、雨やみをする市女笠や経烏帽子が、もう二三人はありさうなものである。
それが、この男の外には誰もゐない。
</blockquote>

cite属性は引用元情報(Webサイトの場合はURL、書籍の場合はISBN(図書コード))を記載します。

②自分のコンテンツが盗まれた場合 p67

自分のコンテンツが盗用された場合、自身が把握していないところで起こるため、自サイトの順位が極端に下がったり、インデックスが削除されるまで、盗用被害に気付かないこともあります。
そのため、コピーチェックツールを利用して、自社コンテンツの盗用が発生していないか定期的にチェックしましょう。

コピーチェックツールでおすすめなのは有料になりますが「コピペリン」です。
自サイトURLを指定して、Web上のページに自社コンテンツと類似したものがないか確認できます。
また、ページ数が少なく各ページのテキストを抽出できる場合は、無料の「Copy ContentDetector」がおすすめです。
1文章4,000文字までのコピーチェックが可能で、多くのコンテンツに対応可能です。
なお、こうしたコピーチェックツールは盗用被害だけでなく、自社のライティングが他社のコンテンツを盗用していないかの確認も可能です。

自サイトのコンテンツが盗用されていた場合、Googleの専用フォームで著作権侵害コンテンツを申請します。
アメリカが定めるデジタルコンテンツの不正コピーからオリジナルコンテンツを守る法律である、「デジタルミレニアム著作権法」(DMCA)に基づき、著作権を侵害しているページを申請するフォームを用意されています。

フォームから申請することでコピーコンテンツの存在を知らせることが可能です。
Googleは申請を受け取った後、盗用した疑いのあるコンテンツ所有者へ申請の旨を通告し、盗用の事実を確認できれば、盗用コンテンツをインデックスから削除します。

また、自サイトのコンテンツがオリジナルであることを伝えるには、コンテンツ公開時にできるだけ早く、検索エンジンにその存在を知らせることも重要です。
Googleはインターネット上に公開された順番をオリジナルコンテンツの判断基準の1つとして、採用していると発言しています。
検索エンジンにコンテンツの存在をより早く知らせる方法は、「4-2 Googlebotのクロール促進」で説明します。

質の低い被リンクの否認方法 p74

否認作業に入る前に1つ注意点を述べます。
質の低い被リンクの判断基準の目安を説明しましたが、最終的には目視での判断になります。
前述のルールに該当するリンクがすべてペナルティ要因になるわけではありません。
明らかにスパム行為/ユーザーにとって不利益なリンクのみを否認対象にすることをおすすめします。

続いて、被リンクの否認は旧Search Consoleの「リンクの否認」で、次のコード例に示す、否認リンクを記載したテキストファイルを提出することで行います(コード 2.3.2.5)。

コード 2.3.2.5: 否認リンク記載のテキストファイル例
# コメント
# 下記URLからの被リンクを否認
http://spam.example.com/stuff/comments.html
http://spam.example.com/stuff/paid-links.html

# ドメイン全ページからの被リンクを否認
domain:shadyseo.com 

作成するテキストファイルでは、先頭が「#」の行はコメントとして扱われます。
基本的に1行に否認するURLを1つ記述します。
悪質なドメイン全ページからの被リンクを否認したい場合は「domain:ドメイン名」形式で記述します。

このファイルをアップロードして[完了]をクリックすると、否認リンクの申請作業は完了です。

被リンクペナルティの解除は労力を要する作業です。
ペナルティ解除のためには、悪質とみなされた外部リンクを1つずつ削除もしくは否認する必要がありますが、面倒だからとすべての被リンクを一律で削除・否認することをGoogleは認めていません。

被リンクの確認がすべて完了後、新Search Consoleの[手動による対策]画面のフォームで、ようやく再審査をリクエストできます。
しかし、再審査をリクエストしても、Googleの基準を満たしていないとして、ペナルティが解除されないケースも多々あります。

被リンクペナルティの解除作業は、精神的にも負担の大きな作業であるので、ペナルティを受けないように、意図的な被リンク操作は行わないことを強くおすすめします。

クローキング p77

クローキングとは、ユーザーとGooglebotに対して、それぞれ異なるコンテンツまたはURLを表示することです。
ユーザーには通常の読みやすいページを表示させながら、Googlebotには対策キーワードを詰め込んだページを返すケースもあれば、反対にGooglebotには普通のサイトに見せかけながら、ユーザーに詐欺行為を働くケースもあります(図 2.3.3.2)。

URLが検索順位へ与える影響 p89

検索エンジンとURLの関係はどうでしょうか。
検索エンジンは、検索キーワードとの合度である「Needs Met評価」のため、Webページの内容を正確に認識する必要があります。
ページ内容の理解サポートとして、URLにコンテンツに関連する単語を利用することは有益です。
しかし、GoogleのJohn Mueller氏は、「URLにキーワードを入れることは検索順位にとってとても小さな要素」と述べているため、大きなSEO効果が期待できるわけではないことを念頭に置きましょう。

また、以前はURLに関連キーワードが含まれていることで、積極的にクロールされるともいわれていました。
実際にGoogleのバージョンが古い「検索エンジンスターターガイド」では、URL命名方法に関する項目に下記の記述があります。
「コンテンツのカテゴリや、ファイル名に説明的な名前を利用することは、検索エンジンがそれらのドキュメントをクロールしやすくなることにもつながります」

最新の検索エンジンスターターガイドでは、上記の記載はなくなり、現在はURL名とクローラビリティは関係ない可能性が高いです。
しかし、過去の一時期では、検索エンジンがコンテンツ内容を理解した場合、優先的にクロールするアルゴリズムが存在していたと推測されます。

いずれにせよ、ページ内容を想起させるURLにすることは、ユーザーのみならず、検索エンジンにとっても有益であることに変わりありません。

わかりやすいURLの作り方 p90

それでは、ユーザーや検索エンジンにとっても分かりやすいURLを付与するポイントとして、次の項目を紹介します。

・ページ内容と関連するキーワードを含める
・短くする
・複数の単語の組み合わせはハイフン(-) で区切る
・英単語は小文字に統一する

ページ内容と関連するキーワードを含める p90

URLの命名方法での1つ目のポイントは「ページ内容と関連するキーワードを含める」ことです。
例えば、ファッション通販サイト(https://www.example.com)内で下記のURLを見てどちらがページ内容を想像しやすいでしょうか。

・https://www.example.com/14/3/
・https://www.example.com/tops/tshirt/

すべてのユーザーが2番目のURLがページ内容を想像しやすいと答えるでしょう。
なぜなら、「14」や「3」の数字は、ユーザーにとって意味を持たないのに対し、「tops」は上半身用衣服を、「tshirt」はTシャツの意味を持つためです。

短くする p90

URLはキーワードを含むだけでなく、そもそもの長さを短くすることをおすすめします。
ファッション通販サイトのTシャツページのURLを考えてみましょう。

・https://www.example.com/clothes-tops/t_shaped-shirt/
・https://www.example.com/tops/tshirt/

上記のURLでは、明らかに後者が短時間でページ内容を把握できます。
複雑な単語の固まりの意味を理解するには時間が要するため、できるだけ短く表現されたURLが素早く理解できます。

また、SNSで共有するケースなど、ユーザーは基本的にURLをそのままコピー&ペーストで転記します。
長すぎるURLは見栄えが悪くなり、不信感を抱かせるため、SNSでのシェアやリンクのクリックを躊躇させる要因になります。

さらに、短いURLがベターであるのは、前提としてURLの長さには2,048文字の上限が設けられているためでもあります。
検索エンジンにWebページをクロールしてもらうツールであるXMLサイトマップに記載できるURLも2,048文字までです(「4-2-1 XMLサイトマップによるインデックス促進」参照)。

ちなみにInternet Explorerでは、最長2,083文字までのURLしか入力できません。

実際にURLの長さは2,000文字以下であれば問題ないとGoogleが明言しているため、基本的にURLは2,000文字以内にします。
特にパラメータが付与された動的URLは長くなりがちなので要注意です。
万が一、2,000文字を超えてしまう場合は、下記の方法で修正しましょう。

・不要なパラメータを削除する
・パラメータラベルまたはパラメータ値を短縮化する
・パラメータでページ内容が変化しないなら、パラメータを利用しないPOST方式に変更する
・パラメータを利用する動的URLを短い単語に置き換えた静的URLへ変更する(「10-2-3 動的URL の静的化」参照)

複数の単語の組み合わせはハイフンで区切る p91

可能な限り短く分かりやすいURLが望ましいですが、1単語ではなく、あえて複数単語でのディレクトリ名やファイル名の表記がユーザーにとって分かりやすいケースもあります。
その場合は、単語の区切り記号としてハイフンを使用します。

例えば、赤色のスプリングコートに関するWebページのURLは、どちらが分かりやすいでしょうか。

・https://www.example.com/mens/outer/coat/redspringcoat.html
・https://www.example.com/mens/outer/coat/red-spring-coat.html

前者では「redspringcoat」を1単語だと認識してしまい、意味の把握が難しくなります。
一方、後者の「red-spring-coat」では単語ごとにハイフンで区切られ、3単語による構成とひと目で分かり、意味の把握も容易です。

この際の注意点ですが、システム側の認識方法が異なるため、区切り記号はアンダースコア(_)ではなく、ハイフン(-)を利用してください。
ハイフンは、単語と単語を分けるセパレータとして認識されますが、アンダースコアで繋げられた文字列は1単語として認識されます。
SEO評価にはあまり影響がないといわれているものの、Googleガイドラインではハイフンを推奨しているため、URLの区切り記号はハイフンの使用が無難でしょう。

英単語は小文字に統一する p92

ドメイン名やプロトコル名(http/https)では大文字と小文字は区別されませんが、ディレクトリ名やファイル名は大文字と小文字で区別されます。
そのため、「MENS」と「mens」では別々のURLとして認識されます。

大文字・小文字をしっかりと区別してURLを定義できるならば、大文字・小文字が混在していても問題はありません。
しかし、私たち人間は間違いを犯す生き物です。
そのリスクを防ぐためにも、すべて小文字で表記するなどのルールを設けることをおすすめします。

一般的にURLは小文字で揃える場合が多く、ユーザーも小文字のURLに馴れているため、URLに含まれる英単語は小文字に統一するのが良いでしょう。

日本語 URL p92

「ページ内容を想起できる単語を付ける」点では、日本人ユーザーには分かりやすく効果的です。
ただし、URLは英語(アルファベット)である必要はなく、日本語で作成することも可能です。
日本語URLは検索エンジンからの評価は、日本語URLと英語URLで差はありません。

URL 3.1.2.1: 日本語 URLの例
https://www.example.com/カーディガン/

しかし、一見分かりやすい日本語URLですが、コピー&ペーストの操作では、自動的に英数字・記号に変換される(エンコードされる)環境も多く、意味が不明な長いURLになってしまうため、リンク設置やSNSでの共有には不向きです(URL 3.1.2.8)。

URL 3.1.2.2: エンコードされた日本語 URL Bad
https://www.example.com/%E3%82%AB%E3%83%BC%E3%83%87%E3%82%A3%E3%82%AC%E3%83%B3/

例えば、通販サイトのAmazonのURLは、商品名などが一部日本語で構成されているため、コピー&ペーストすると非常に長くなってしまいます。
前述した通り、長すぎるURLは共有やクリックをさせてしまうデメリットがあります。

英語URL・日本語URLの選択は、共にメリット・デメリットがあるため、サイト運営者が判断すべき問題ではあります。
しかし、SNSの重要性が高まっている今日では、英語URLを利用した方がメリットが大きいと考えています。

検索エンジンによる相対的重要度の判定 p96

上図に示したリンク構造を作ると、結果として上位のページがより多くのサイト内部リンクを受けることになります。
検索エンジンは被リンク数からページの重要度を判断するため、より多くのリンクを受けている上位のページは、サイト内で特に重要なページとして判断されます。
これが「ブランド名」で検索するとトップページが1位に表示される理由です。

同様に、下位階層からリンクを受けた上位階層のページは、単一ページと比較してSEO評価が高くなります(図 3.2.0.3)。
ただし、前述の通り、あくまで関連ページからのリンクに留めましょう。
無関係なページからのリンク=カテゴリ構造を無視したリンクでは、SEOの効果は少なくなります。

p105

しかし、プルダウンメニューによるリンクには、2つの点で問題があります。

1つ目は、<select>タグのonChange属性で指定されているlocation.href=valueは、JavaScriptであるため、前述したJavaScriptにおけるクロール遅延が発生します。
2つ目は、プルダウンをクリックするまで、選択可能な項目を確認できないため、ユーザーへの情報伝達に難があります。

上記の理由から、プルダウンメニューはクローラビリティとユーザビリティ双方の観点で好ましくないため、利用しないことをおすすめします。

p106

Googleは2010年の段階で、簡単なフォームであれば送信を実行して遷移先のページを確認できると説明しており、「ある程度」はクロール可能と考えられます。
しかし、条件の組み合わせの全パターンを網羅的にチェックしてクロールする保証はないため、内部リンクの設置を検索フォームに頼ってはいけません。
必要な内部リンクは、1つずつHTMLに<a>タグで設置しましょう。

また、検索フォームで生成されたリンクは、パラメータ付きの動的URLで出力されるため、そもそもインデックスさせない方が好ましいです。
詳細は後述の「10-2-3 動的URLの静的化」で説明します。

検索エンジンのスムーズなクロールとインデックスのため、内部リンクとして本項説明のリンク形式は利用を控えて、重要なページへのリンクはテキストリンクで記述することが望ましいです。

また、説明のリンク形式に限らず、Googlebotがどのように処理するか不明なリンク形式を利用せざるを得ない場合は、問題なく処理できるか確認するため、必ずURL検査ツールを使ってレンダリングチェックを実施しましょう(4-2-2 URL検査ツールによるクロール要求」参照)。

サイトマップによる画像のインデックス促進 p129

Googleの検索には、通常のページ検索だけではなく画像検索が用意されています。
写真やグラフィックを検索したい際、通常のページ検索ではなく画像検索を利用するユーザーも少なくありません。
そのため、画像検索結果に上位表示されることは集客数の増加に繋がります。
特にファッションコーディネートの紹介メディアなど、画像を軸にしたサービスでは画像検索がより重要です。

画像検索結果で上位に表示させるためには、検索エンジンに「写真自体の存在」と「写真の意味」を伝える必要があります。
HTML上で写真の意味を検索エンジンに伝える方法は「1-3-4 img要素で伝える画像情報」で説明した通りですが、画像の存在自体を伝える方法には「画像サイトマップ」があります。

通常ページのインデックスと同様、画像サイトマップを利用しなくても、画像がインデックスされる場合もありますが、画像サイトマップを利用することで、より高確率・迅速に画像をインデックスさせることが可能です。

サイトマップによる動画のインデックス促進 p130

前述の画像検索と同様、動画検索も上位表示させることは集客数の増加に繋がります。
動画を取り扱うWebサイトを運営している場合は、画像サイトマップと同様、動画のインデックスを促進する「動画サイトマップ」も作成しましょう(コード 4.2.1.12)。

4-2-3 フィードによる更新情報 p133

前述のXMLサイトマップでサイト内の全ページを網羅的に検索エンジンに伝えられますが、Googlebotが常に高頻度でクロールしてくれるとは限りません。
そのため、更新情報をいち早く検索エンジンに伝える手段として、フィードがあります。
フィードには、更新ページのURLはもちろん、更新日付やタイトル、その内容の要約なども記載します。

フィードは更新情報を効率よく伝える手段であるため、全URLの掲載ではなく直近2週間の更新など、適切な情報鮮度で配信するスタンスが望まれます。
Googleも役割を分けておりXMLサイトマップとフィード双方の配信を推奨しています。
また、クロール促進のみならず、ユーザーもfeedlyに代表されるフィードリーダーを使用して、登録サイトのフィードから更新情報を受け取ることができます。

この通り、便利なフィードですが、RSSフィードとAtomフィードの2種類が存在します。
RSSフィードはバージョンごとに非互換なことと仕様も不明瞭であるため、後発のAtomは明瞭かつ詳細に文法定義する理念を掲げて策定されたものです。
Google Data APIはAtom形式のプロトコルを採用しており、現在はAtomの普及が進んでいます。
RSSとAtomのいずれをフィードとして採用しても問題ありませんが、新規でフィードを作成する場合は、将来的な普及を考慮して、Atomを採用すべきでしょう。

コンテンツカテゴリごとに複数のフィードを用意する p138

検索エンジンに新規ページの存在を伝える目的だけであれば、フィードは1ファイルのみ作成し、トップページにリンクを記載すれば問題ありません。
しかし、フィードリーダーを利用するユーザーにとって、大規模サイトでは全カテゴリの新着記事は必要としないケースが多々あります。

そのため、トップページではサイト全体の新着情報を記述したフィードを配信しつつも、各カテゴリごとに別フィードを配信することも有益です。
フィードを活用することで新着ページのクロール頻度を上げることが可能になります。
特に、ニュース記事など速報性が求められるページには有効です。
なぜなら、Googleは最新性が重要な話題に関しては、より新しいページを上位表示させるアルゴリズムを採用しているからです。

また、フィードを作成しておけば、フィードリーダーから定期的にユーザーが訪問するきっかけを用意でき、検索エンジン以外からの集客数増加にも繋がります。

4-2-4 WebSub(PubSubHubbub)による更新情報 p139

WebSubは、新着ページをプッシュ通知によって購読者(Googlebotやフィードリーダー)に伝える役割を担っています。
この技術をWebサイトに導入することで、検索エンジンに新着ページの存在を能動的に伝えることが可能です。
前項で紹介したRSSやAtomフィードが受動的なクロールであるのに対して、WebSubは能動的に新着ページのクロールをリクエストできます。

URL検査ツールを利用して、更新情報を1つずつ手動で検索エンジンにリクエストする内容と同じですが、更新ページ数が多数である場合は現実的ではありません。
そのため、WebSubをシステムで実装し、クロールリクエスト処理を自動化させます。

ちなみに、元々「PubSubHubbub」(パブサブハバブ)、略称PuSH(プッシュ)でGoogleが開発していましたが、2017年10月に「WebSub」に名称変更され、2018年1月には、W3Cの勧告対象(W3Cが利用を勧める標準技術)になっています。

WebSubの仕組み p139

WebSubは出版者(Publisher)と購読者(Subscriber)をハブ(Hub)を通じて繋げる仕組みです。
ここでの出版者はサイト運営者で、購読者はGooglebotやフィードリーダーになります。
ちなみに、これら3者に「hubbub」(=わいわいがやがや)を付けたのが旧称「PubSubHubbub」の由来です。

サイト運営者はコンテンツ更新時、ハブに向けて更新がある旨を伝えます。
ハブはその旨をフィードリーダーやGooglebotに伝えます。
その流れを次図に示します(図 4.2.4.1)。
サイト運営者が購読者全員に更新情報を直接プッシュ通知すると、通信帯域を圧迫してしまいます。
そのため、Hubに仲介させることで、1回の更新に付きプッシュ通知は1回で済み、負荷を低減することが可能です。

p142

2010年には、「Google Caffeine」(Googleカフェイン)と呼ばれるインデックスを高速化する技術が導入されたため、クロールリクエストをせずとも検索エンジンは高速で多くのページをインデックス可能です。

そのため、XMLサイトマップを送信すれば、コンテンツに問題がない限り、多くのページはインデックスされるはずです。
その上で、インデックスのタイミングを早めるために、RSS/AtomフィードやWebSubの実装、またはURL検査ツールでの手動対応を検討しましょう。

独立セクションにもarticleではなくsectionを利用する p147

前項で説明した通り、「セクション」とは見出しを付けられる文章のまとまりです。
section要素とarticle要素は共に、「セクション」を区切る「セクショニングコンテンツ」です。
少々難解ですが、「セクション」とsection要素は異なるものと理解しましょう。

セクショニングコンテンツで、1本の記事として、他のsection要素とは関係せずに独立可能なセクションを区切るものが<article>タグです。
<article>タグは<section>タグに「コンテンツの独立性」が付与されたものだと理解しましょう。

そのため、独立したセクションを<article>タグではなく<section>タグで区切ることは、完全な誤りとはいえませんが、「文章のまとまりに対して、より詳細な情報を付与する」観点では最善ではありません。

サイト内検索の構造化マークアップ方法 p166

サイト内検索機能をschema.orgで構造化マークアップする際は、WebSiteタイプを使用します。
下記コードに記述例を示します(コード 5.2.6.2)。

コード 5.2.6.2: JSON-LDによるサイト内検索の構造化マークアップの記述例
<script type="application/ld+json">
{
	"@context": "http://schema.org",
	"@type": "Website",
	"url": "https://www.example.com/",
	"potentialAction": {
		"@type": "SearchAction",
		"target": "https://www.example.com/search?q={search_term}",
		"query-input": "required name=search_term"
	}
}
</script>

HTTP/2はSEOの評価に繋がる p190

Googlebotは一部のサイトに対してHTTP/2を介したクロールを、2020年11月には開始すると発表しています。
また、表示速度の改善はユーザーにとって明確な価値があるため、HTTP/2はSEO評価に繋がると考えられます。

ただし、現状ではすべてのサイトが対象ではないこと、HTTP/2に未対応のブラウザも存在することも考慮して、サーバー側の設定では、HTTP/1.xとHTTP/2双方の通信を可能にしておきましょう。

HTMLでのviewportの記述 p248

viewportは画面サイズをどの大きさでブラウザに認識させるかをmeta要素に指定します。
基本的に下記コード例をそのまま記述すれば問題ありません(コード 7.2.2.1)。

コード7.2.2.1: HTMLでのmeta viewportの推奨記述
<head>
	<meta name="viewport" content="width=device-width, initial-scale=1">
</head> 

width属性値ではブラウザに認識させる画面の横幅を指定できますが、初期値は横幅980pxに設定されています。
そのため、実際は400px前後のモバイル端末であっても、viewportの設定がなければ980pxと認識されて描画されてしまいます。
その結果、表示サイズが想定の半分以下のサイズで表示されてしまい、操作が困難になります。
コード例に示す通り、width属性値にdevice-widthを設定することで、実際の横幅をそのまま認識させられ、文字や画像の縮小が発生しません。

また、initial-scale属性値は初期倍率を表します(図 7.2.2.3)。
width=device-widthとしてinitial-scaleを指定しない場合は、自動的にinitial-scale=1.0となります。
初期表示状態でコンテンツを拡大縮小させる必要はないため、基本的にinitial-scale属性値は1.0に設定してください。

任意のuser-scalable属性値でズーム動作の可否を指定できます。
初期値はuser-scalable=yesで、yes/noまたは1/0にて指定します(コード 7.2.2.4)。
ネイティブアプリと同様の動作を求めて、ズーム動作を禁止するケースも少なくありません。
代表的なWebサイトでは、Yahoo! JAPANやTwitter、Facebookなどがズーム動作を禁止しています(執筆時現在)。

コード7.2.2.4: ズーム動作を禁止する場合
<head>
	<meta name="viewport" content="width=device-width, initial-scale=1, user-scalable=0">
</head>

しかし、viewportの設定のみでは、PCサイトと同じデザインがそのまま表示され、それをスクロールして閲覧することになります(図 7.2.2.5)。

この表示はモバイルフレンドリーではないため、モバイルに適したデザインを施す必要があります。
続いて説明するメディアクエリを用いて、モバイル専用のCSSを反映させます。

モバイルフレンドリーにするための注意点 p257

モバイルフレンドリーにするために、最低限守るべき点は下記の5つです。

・読みやすいフォントサイズ・行間にする
・タップ要素間に適切な間隔を空ける
・再生できないコンテンツを掲載しない
・インタースティシャルを回避する
・表示速度を速くする

読みやすいフォントサイズ・行間にする p257

フォントサイズは16~18px程度をおすすめします。
フォントサイズが小さすぎると、ユーザーに「ピンチして拡大する」操作を求めることになり、ユーザーフレンドリーではありません。
また、行の高さはフォントサイズの1.5倍程度の間隔を指定することをおすすめします。

タップ要素間に適切な間隔を空ける p258

ボタンやリンクなどタップする要素が近接しすぎている場合、誤タップが発生する可能性があり、モバイルフレンドリーではありません。
フォントサイズと同様、タップ要素そのもののサイズを大きくした上で、周囲に配置している要素とのスペースを確保して、タップ操作を容易にする必要があります。

Googleが推奨しているタップ要素の最小サイズは(前述のviewportが設定されている前提で)48pxです。
アイコンの幅と高さが24pxの場合、余白(CSSのpadding)を指定してタップできる範囲を48pxまで拡大します。
48×48ピクセル領域は約9ミリ四方と相当し、平均的な大人の指の腹と同等になります。
また、タップ要素同士は誤タップを避けるため、水平方向と垂直方向ともに約32pxの間隔を空けましょう。

Page Quality 評価の基準 p275

Page Quality評価での重要な評価基準は、下記の4点が挙げられています。

・専門知識・権威・信頼性(E-A-T)
・メインコンテンツの質と量
・Webサイトの情報と責任の所在
・Webサイトの評判

専門知識・権威性・信頼性(E-A-T) p275

E-A-Tとは、専門知識(Expertise)と権威性(Authoritativeness)、信頼性(Trustworthiness)それぞれの頭文字を組み合わせて名付けられています。
Googleは、E-A-Tを兼ね備えたコンテンツ・Webサイトを評価します。

1つ目の専門知識とは、医師や弁護士など、何かしらの公的な資格が必ずしも必要なわけではありません。
もちろん、医療に関連する情報であれば医学的な専門知識や資格を持つ人や組織からのコンテンツが権威・信頼性があると判断されます。
しかし、ファッションや料理など日常生活に関するテーマには、公式な資格がなくても十分に専門的だといえる人はいます。
専門知識は、自身の生活や経験からそのテーマにおける知見がある状態全般を指すものだと理解してください。

2つ目の権威性のある状態とは、「この人に聞けば間違いない」という特定の分野を代表する状態を意味します。
Googleはこの権威性をWeb上のコンテンツやリンクから判断します。
例えば、SEOに関するコンテンツによく登場するAさんは、SEOに関して権威性があると判断します。
また、3つ目の信頼性のある状態とは、「この人にお金を貸してもいい」など、信用できる状態を意味します。
ユーザーを騙すコンテンツや、問題のある企業が運営するWebサイトには信頼性がありません。

ここで説明した3つのE-A-Tは独立した要素ではなく、専門知識を持つ有益なコンテンツを継続的に発信することで、時間経過に伴い、権威性や信頼性も高まるという相関関係にあります。

Needs Met 評価とは p280

ユーザーによって抱えているニーズが異なるため、検索結果には、ユーザーのニーズを正しく把握して適切なコンテンツを表示することが重要です。

しかし、初めて出会う顔も見知らぬユーザーのニーズを正確に把握することはできません。
そこで、Googleは検索クエリからユーザーニーズを“推測”しています。
推測したユーザーニーズとの一致度を評価し、検索結果に表示するページを決定しています。
これがNeeds Met評価です。

また、Needs Met評価では、“モバイルユーザー”のニーズとの一致度を評価するとしています。
PCではなくモバイルを対象にする理由は、モバイル検索が検索全体の過半を占めるためです(「7-2 検索行動の過半数を占めるモバイルへの対応」参照)。

前述のPage Quality評価では特にデバイス指定がないのに対し、Needs Met評価ではデバイスが指定されているのは、同じ検索クエリでもPCとモバイルで検索ニーズが異なる場合があるためです。

また、本章冒頭で紹介した「検索品質評価ガイドライン」では、Page Quality評価とNeeds Met評価の間に「モバイルユーザーのニーズ理解」のパートが挿入されていますが、これも同様の背景からです。

複数の意図が存在する検索クエリ p282

同一の検索クエリでも、ユーザーの性別や時間、場所などで複数の意図が存在するケースもあります。
例えば、「ワンピース」の検索クエリでは、「ワンピースを買いたい!」「ワンピースの動画を見たい」「ワンピースを調べたい」など、複数の検索意図が考えられます。

複数の意図がある検索クエリの場合、Googleは検索結果に表示するWebサイトに多様性を持たせ、さまざまな選択肢を提供しようとします。
実際に「ワンピース」を検索すると、アニメのワンピース公式サイトやニュース、そして、テレビ番組から洋服のワンピース通販サイトなど、多様性のある検索結果が表示されます。
こうしたユーザーの意図に合わせて検索結果を調整するアルゴリズムをQDD(Query Deserves Diversity)と呼びます。

最近では、ユーザーの位置情報、検索履歴やアクティビティ情報を参照して、幅広い意図を持つ検索クエリでも、ユーザーニーズを的確に把握して最適な検索結果を返すようになってきています。

未知の検索クエリ p282

SMX West 2011では、Google AdWordsキーワードツールのセッションで次のデータを提示しています。

・検索クエリの44%は、3ワード以上
・検索クエリの64%は、AdWords広告で出稿されたキーワードと完全一致しなかった
・検索クエリの20%は、過去90日間に存在しなかった

また、Googleは毎日膨大な数の検索を処理しており、そのうち15%は今までになかったまったく新しい検索クエリだといわれています。

こうした状況からも分かる通り、音声検索の普及など検索行動の変化に伴って、検索クエリも長文化し多様化しています。
そのため、従来の特定キーワードに絞ったSEOでは取りこぼす可能性が高く、新しいキーワードでの検索に対して最適な検索結果を返すことができません。

ユーザーの多様なニーズに合致するコンテンツを用意できるよう、検索キーワードだけではなく、その背景にあるユーザーの意図に沿ったコンテンツを作成することが大切です。
そうすることで、将来的に発生するであろう未知の検索クエリにも応えられるコンテンツを作成できます。

軸キーワードの選定 p290

調査の軸となる「軸キーワード」を選定します。
軸キーワードは「自社にとって重要かつ関連性が最も高いキーワード群」になります。
Webサイトで特定の商品を扱っていたら、商品名や商品ジャンルが該当します。
例えば、賃貸不動産サイトであれば「賃貸」、ファッション通販サイトであれば「ファッション」といったキーワードになります。

また、軸キーワードは検索意図が幅広い単キーワードが適切です。
「ファッション 通販サイト メンズ」などの複数キーワードの場合、検索意図がより限定されてしまうため、ニーズを網羅できません。
そのため、まずは幅広いテーマを洗い出しましょう。
軸キーワードを抽出したら、そのキーワードを起点にキーワードを膨らませます。
軸キーワードを膨らませる手段は下記に挙げる2つの方法があります。

・サジェストキーワードを抽出する
・関連キーワードを抽出する

p291

サジェストキーワードは、過去の検索データやキーワードとの関連度を元に、人間ではなくアルゴリズムによって自動生成されます。
人気のキーワードが表示されやすいため、検索ボリュームが多く、ユーザー需要の高いキーワードを抽出できます。
ちなみに、「オートコンプリート機能」とも呼ばれています。

オートコンプリート機能を使うと、検索窓に「掃除機」など「輪キーワード○○」の形式で、他の単語を組み合わせることで、別のサジェストキーワードを取得できます。
また、輪キーワードに1文字の「あ」~「ん」、「A」~「Z」、「0」~「9」などを組み合わせると、前図に示す通り、それに沿ったキーワードがサジェストされます(図 8.3.1.3)。

goodkeywordによるキーワード取得 p292

サジェストキーワードは検索画面で確認できますが、すべてを手動で取得することは現実的ではありません。
そこで、サジェストキーワードを取得する無料ツールを利用しましょう。

「goodkeyword」は、軸キーワードを検索窓に入力して[検索]をクリックすれば、サジェストキーワードを取得してくれます。
「楽天市場」「Googleプレイ」のサジェストキーワードも取得可能です。
図に示す通り、標準では「Google」と「Bing」のサジェストキーワードが取得され、一覧で確認できます。
本作業フェーズでは、キーワードの量を網羅することが重要なので、GoogleとBing両方のサジェストキーワードをそのまま利用します。

右側に重複を取り除いたキーワードが出力されるので(図 8.3.1.4の①)、ここからサジェストキーワードをコピーして、Excelなどに貼り付けて保存しましょう。

同じ手順で、該当キーワードに「あ〜ん」「A~Z」「0~9」を組み合わせて、それぞれのサジェストキーワードを抽出します。
「掃除機 あ」の結果にも「掃除機 a」から始まるキーワードが含まれるなど、サジェストキーワードの重複も発生しますが、すべてをExcelにまとめてから、あらためて重複を取り除けば問題ありません。

関連キーワードの抽出 p293

関連キーワードは、下記に挙げる2つのツールを使って抽出します。

・Google キーワードプランナー
・Yahoo! キーワードアドバイスツール

いずれのツールも、検索連動型広告(リスティング広告)を出稿する際に、ターゲットキーワードを抽出するツールで、キーワードの月間検索ボリュームや年間トレンド、デバイス別の検索割合などを調査できます。
自社が属する業界でよく検索されているキーワードなども調査でき、広告だけでなくSEOでの市場調査にも有用です。

Googleキーワードプランナーでの取得方法 p293

本項では「Googleキーワードプランナー」でのキーワード取得手順を紹介します。
Googleキーワードプランナーのページを開き、[新しいキーワードを見つける]の検索窓に軸キーワード入力すれば、調査結果を確認できます。

次図に示す通り、入力した軸キーワードに関連するキーワードが抽出されるので、[キーワード候補ダウンロード]をクリックして、抽出したキーワードをCSVファイルでダウンロードします(図 8.3.1.5)。

軸キーワードの意図が大きいと、抽出されるキーワードに関係ないキーワードが数多く含まれるケースもあります。
その場合は、[フィルタを追加] → [キーワードのテキスト]で除外キーワードや一致キーワードなどでフィルタリングすることが可能です。
以降は、同じ手順ですべての軸キーワードで関連キーワードを抽出します。

その他のキーワード抽出方法 p294

サジェストキーワードや関連キーワードツールを利用すれば、想定ニーズに関するキーワードは抽出できるものの、それ以外の新たなニーズ発見には繋がりにくい側面もあります。
そのため、データや目視での確認も含め、他に追加すべきキーワードがないか、次に挙げるものを元に確認しましょう。

・自社サイトの流入キーワード
・広告のCVキーワード
・Q&Aやクチコミサイト、SNSでの発言に含まれるキーワード
・競合サイトの対策キーワード 

自社サイトの流入キーワード p295

実際にWebサイトに流入実績のあるキーワードから、思いがけないニーズを発見することもあります。
自然検索における流入キーワードは、新Search Consoleでダウンロードできます。
季節トレンドを考慮して、最低でも過去数か月~年間の流入キーワードを利用しましょう。

広告のコンバージョンキーワード p295

リスティング広告を出稿している場合、コンバージョンキーワード(CVキーワード)は必ず考慮すべきものです。
CVキーワードは確実に成果に繋がるキーワードです。
自然検索でランクインしていない場合はキーワード対策することで、CV数の増加に繋がりやすいといえます。

流入キーワード同様、最低でも過去数か月~年間のCVキーワードを利用しましょう。

Q&Aやクチコミサイト、SNSでの発言に含まれるキーワード p295

Q&Aやクチコミサイト、SNSはユーザーニーズの宝庫です。
自社の商品やジャンルに紐付くキーワードで検索すると、それに紐付く悩みや課題、良い点や悪い点など、さまざまなユーザーによる発言があります。
発言に含まれるキーワードから、思いもしなかったユーザーニーズの発見にも繋がります。

競合サイトの対策キーワード p295

競合サイトや同じ商品を扱うWebサイトは、その使用しているキーワードもヒントになります。
同じジャンルの商品でも、自社サイトとは違うカテゴリに分類している場合などは、軸キーワードの候補として取り入れましょう。
「8-4-1 競合調査の実施方法」で後述するahrefsなどの競合調査ツールでも、競合サイトの流入キーワードを調べられます。

また、競合サイトが対策しているコンテンツも、新たな切り口でのキーワード発掘に役立ちます。
定期的に競合サイトをチェックし、新規追加コンテンツや特集から対策キーワードを抽出しましょう。

まとめ p295

抽出キーワードはすべてExcelにまとめて重複を削除しましょう。
このキーワード一覧が今後の作業の素材になります。

本項では広いテーマ(掃除機など)で網羅的にキーワードを抽出する方法を紹介しましたが、より限定的なコンテンツ(掃除機 買い替え時期など)を対象とする調査では、軸キーワードは必ずしも単一ワードである必要はなく、「掃除機 買い替え時期」といった複数ワードの軸キーワードでも問題ありません。

p296

キーワードの検索ボリュームを取得できる機能は、すべてのツールで用意されています(有料ツールはその他の機能が充実しています)。
しかし、ツールによっては、単一キーワードでないと調査できない、他ツールと比較すると検索ボリュームの結果が乖離する、日本語対応ではないなどの問題があります。

そのため、一括でかつ正確な検索ボリュームを取得するには、GoogleキーワードプランナーもしくはYahoo! キーワードアドバイスツールが推奨ですが、いずれも広告出稿していない場合は、正確な検索ボリュームが表示されません。
例えば、Googleの場合は、1~100、100~1,000、1,000~1万など幅を持った表示になります。
したがって、その中央値を使うなど概数での利用になってしまいます。

また、Yahoo!に至っては、広告出稿していないと月間検索ボリュームは表示すらされません。
1日の推定最大インプレッション数は確認できるので、その数字を30倍にして、月間検索ボリュームの代わりにするしかありません。

しかし、Googleキーワードプランナーは月額数百円程度の広告出稿で、月間検索ボリュームの確認が可能になります。
他の有料ツールを購入するより安価で済むため、検索ボリュームを調査したい場合は、Googleへの広告出稿を検討すると良いでしょう。

Googleキーワードプランナーでの検索ボリューム調査手順 p297

Googleキーワードプランナーで用いた検索ボリュームの調査方法を説明しましょう。
関連キーワードの抽出同様に、Googleキーワードプランナーにアクセスして、[キーワードの検索ボリュームと予測データを確認しましょう]フィールドにキーワードを入力します。
複数キーワードはカンマまたは改行で区切って入力します。

下図に示す通り、調査結果画面の[過去の指標]で月間検索ボリュームを確認できます(図 8.3.2.2)。
抽出データは、[キーワードをダウンロード]をクリックすれば、CSV形式でダウンロード可能です。
レポートでは月別の検索ボリュームが記載されています。
[Avg. monthly searches]項目で出力された平均月間検索ボリュームを、前項「8-3-1 関連キーワードの洗い出し」で作成したキーワードリストに追記して、検索ボリュームの調査作業は完了です(図 8.3.2.3)。

8-4 競合との比較 p307

検索順位は他Webサイトとの相対評価で決まります。
そのため、コンテンツSEOでは自サイトの課題のみを改善するだけでは不十分で、自社が狙いたいキーワードで上位表示されている競合サイトの調査が必要不可欠です。

自社サイトの強みや弱みと競合の状況を明確に把握して、施策の優先度を検討しましょう。
キーワードレベルで上位競合サイトと自社サイトの差分を洗い出し、どのような対策が必要か判断します。

まずは、前節で抽出したキーワードで、現状の順位を自社サイトと競合サイトで調査比較し、どこに弱みがあり、どのキーワードで対策するべきかを把握します。
多くの場合、対策キーワードによって上位表示されている競合サイトは異なりますが、まずはそのジャンルで最も重要かつ検索ボリュームが大きいビッグワードで、上位競合サイトとの順位を比較してみましょう。

下図では自社と競合のの2社比較ですが(図 8.4.0.1)、実際は狙うべきキーワードでの上位5社~10社を対象に調査します。
また、下図に示す通り、各グループでの上位表示率を比較すると、「既に上位表示されていて対策不要なグループ」と「上位表示されていない」もしくは「競合と比較して負けている」など、対策が必要なグループが明確になります(図 8.4.0.2)。
対策すべきキーワードやグループの目処が付いたら、各キーワードで上位表示されている競合サイトのSEO状況を調査します。

上位競合サイトのSEOが弱ければ、そのキーワードに対して最低限のSEO施策を講じれば、上位表示を実現できる可能性があります。
逆に上位の競合サイトがSEO施策に力を入れていれば、自サイトも同様にしっかりとした施策を実施しなければ上位表示は困難です。

この通り、競合の状況と設定するキーワードによって、SEO施策の難易度も大きく変わってきます。
本節では、上位表示に不足する要素を洗い出すべく、競合調査の実施方法を説明します。

8-4-1 競合調査の概要 p309

競合調査は、特定キーワードで上位表示されている競合サイトとの差分を洗い出します。
対策キーワードで上位にいる競合サイトは、自社サイトとの差分を確認する有効なサンプルです。
「コンテンツが足りない」場合にも、「どれくらいの量が必要なのか」の指標として、上位にランクインしている競合サイトの分量が1つに目安になるためです。

競合サイトとの差分から実施すべき内容や量を把握できれば、「どのくらいのコストや時間を要するか」も分かり、短期で実施できる施策と長期にわたって実施する施策のスケジューリングなど、SEOの全体戦略にも役立ちます。

競合調査は大別して下記のステップで行います。

1. 対策キーワードにおける上位10サイトURLを取得
2. 比較指標を調査
3. 結果をまとめて比較+施策に落とし込む

競合で比較すべき指標 p309

競合サイトと比較するべき最低限の指標を下記に示します。
被リンク要素やサイテーション要素に関しては、「Chapter 9 リンクビルディング・サイテーション」で詳述します。

内部要素
・インデックス数
・サイト全体でのコンテンツの網羅性
・ページ単体でのコンテンツの網羅性
・その他基本的な内部施策状況(title/description/h1などの基本的なSEO)

外部要素
・被リンク数
・被リンクドメイン数
・ドメインオーソリティー
・ページオーソリティー
・ソーシャルアカウントの運用状況

基本的には、対策キーワードで上位表示されているページ間で比較しますが、サイト全体の持つポテンシャルが順位に大きく影響するため、サイト全体のインデックス数やドメインオーソリティ、ソーシャルアカウントの運用状況などの項目も比較します。

サイト全体でのコンテンツの網羅性 p314

サイト内でのコンテンツの網羅性は、ある特定のトピックに関して検索ユーザーが求める情報に対して、どのくらいの網羅性があるかを調査します。
特定トピックに対するコンテンツの網羅性が高いサイトは、そのトピックに対し「詳しいサイト」として認識されます。

例えば、「掃除機」のWebサイトでは、競合サイト全体のページ数だけではなく「掃除の方法」や「テクニック」など、該当するトピックのコンテンツ数がどれくらいあるかを比較します。

掃除機の商品情報や仕様、開発コンセプトなど、企業が発信したい情報だけではなく、ユーザーが求めている情報も網羅できているかも重要です。
「掃除機の使い方」や「面倒なお掃除の解決方法」、「時短お掃除術」など、商品との関連性が高く、ユーザーのニーズに応えるコンテンツを網羅し、競合サイトよりも「網羅的」なサイトを目指しましょう。

コンテンツの量と網羅性はsiteコマンドで調査可能です。
siteコマンドのドメインにキーワードを追加することで、特定キーワードを含むページのみが検索結果に表示されます。
競合サイトが特定キーワードでどんなコンテンツをどのくらい用意しているのか確認できるので、該当ページのURL、title、description、h1要素を確認し、Excelにまとめましょう。

titleやdescriptionでページ概要を把握できるため、自社サイトと比較して、特定のトピックに対するコンテンツの網羅性を確認しましょう。

ページ単体でのコンテンツの網羅性 p314

ページ単体でのコンテンツの網羅性も、競合と比較すべき項目です。
ページのコンテンツ内で扱われているトピックは、全コンテンツに目を通さずとも、h2見出しだけを一通り確認すれば十分です。

また、定量的な指標として、メインコンテンツの文字数もトピックの網羅性を表す目安の1つです。
もちろん、コンテンツ分量は「最低何文字あればいい」などの基準は存在せず、あくまでユーザーの求めるニーズに対して、必要な情報を網羅的に提供することが基本です。
しかし、トピックの網羅性と文字数には一定の相関があるため、目安として用いることは理にかなっています。

なお、文字数はヘッダーやフッターなどサイト共通部分は除き、メインコンテンツ部分のみを対象にしてください。

サイト内部のSEO状況 p315

競合サイトにおけるサイト内部のSEO状況は、本書で説明しているtitle、description、正規化の有無、サイト構造、URL、リンク構造、構造化マークアップ、ページなどすべて対象です。
ただし、すべての項目で比較することは現実的ではないため、下記に挙げる指標に絞って調査すると良いでしょう。

1. title
2. description
3. h1要素
4. URLの正規化実施状況
5. Pagespeed Insights 点数
6. モバイルフレンドリーテスト 
7. HTTPS化対応状況

例えば、1~3の項目は前項で紹介した「SEOチェキ!」でも抽出可能です。
それ以外の項目は本書を振り返り、各種テストツールを使って調査しましょう。

被リンク要素 p315

残念ながら、被リンク要素を調査できる無料ツールはありません。
以前はMoz社が提供する「Open Site Explorer」が存在しましたが、現在は有料リンク調査ツール「Link Explorer」へ移行し、「Open Site Explorer」は更新が停止されています。

本項では、無料登録によって月間10サイトまで調査できる「Link Explorer」を元に説明しますが、本格的な被リンク調査は有料プランを申し込んでください。
また、日本国内では「ahrets」がリンク情報を網羅的に収集できているケースが多いため、有料ツールを利用する場合はahretsを推奨します。

前提として、調査対象の競合では、URL単位とドメイン単位の両方で被リンク要素を確認します。
例えば、 https://www.example.com/page1/ で上位にランクインしているWebページがある場合は、そのURLと上位の https://www.example.com/ の両方を調査します。

競合ページ単体では被リンクが少なくても、サイト全体で被リンクが多いと、そのページの外部評価は高くなります。
そのため、検索結果に表示される競合ページではなく、競合サイト全体で受けている被リンク要素も確認する必要があります。

被リンク要素で確認すべき項目 p316

被リンク要素で確認すべき項目は、下記に挙げる4項目です。

・被リンク数
・被リンクドメイン数
・ドメインオーソリティー
・ページオーソリティー

「被リンク」は外部サイトからのリンクを意味し、「量」(被リンク数が多ければ価値が高まる)と「質」(高品質なページからの被リンクは価値が高まる)の2面で価値が判断されます(「9-1-2 被リンク」参照)。

上述の「被リンク数」と「被リンクドメイン数」は量の調査です。
同一ドメインからの被リンクの評価は逓減されるため、ユニークな被リンクドメイン数も確認しましょう。
例えば、100本のリンクが貼られていた場合のリンク数は100ですが、そのリンクが1サイトから貼られている場合、被リンクドメイン数は1になります。

一方、「質」に関しては被リンク元の品質調査を実施するのが理想ですが、そこまで実施するのは工数的に現実的ではありません。
そのため、本項で紹介するツール「Link Explorer」が提供する「ドメインオーソリティ」と「ページオーソリティ」の指標で代替します。

なお、ここでの「オーソリティ」とは、「8-1-1 Page Quality評価」で紹介した権威性を表すオーソリティではなく、Moz社がリンク要素から算出した独自のランキングパワーを意味しており、リンクの量と質を包含した評価指標です。

「ドメインオーソリティー」は、Webサイトのドメインのランキングパワー「ページオーソリティ」はページ単体のランキングパワーを表します。
両指標とも0~100の数値で表され、この数値が高いと検索結果に上位表示されやすいWebサイトと認識されていると判断できます。
被リンク要素はすべて「Link Explorer」で調査可能です。
「Link Explorer」にアクセスして、調査対象のURLを入力欄に入力して実行すると調査結果が表示されるので、[Inbound Links]を選択しましょう。
調査結果として、被リンク数が13,100(①)、被リンクドメイン数が357(②)、ページオーソリティ36(③)、ドメインオーソリティが33(④)と表示されています(図 8.4.3.1)。

また、URL入力欄左側のプルダウンを[root domain]にすればサイト全体、[exact page]にすればURL単体の被リンク情報を確認できます。

ソーシャルアカウントの運用状況 p317

ソーシャルアカウントの運用はリンク獲得やサイテーション効果に繋がるため、競合他社がどの程度注力しているか把握しておく必要があります。
競合他社のアカウントで、いいね!数やフォロワー数、 投稿頻度や投稿回数などを調査しましょう。

また、コンテンツ設計とは若干外れますが、他社のSNS運用を意識して、自社サイトでもSNSによるコミュニケーション戦略も検討するとと良いでしょう。
SNSに関しては「9-3 SNSでのリンクビルディング」で後述します。

p322

ユーザーが調べたいトピックが1つに絞られるとはいえ、多種多様な悩みや欲求を抱えて検索しているため、その問題点を網羅的に洗い出し、悩みに寄り添う形でコンテンツ化しなければ、Needs Met評価を高めることはできません。

本項では、こうしたユーザーにアプローチするコンテンツの作成方法を、下記に挙げるステップで紹介します。

1. ユーザーニーズの深堀
2. マインドマップによるニーズの網羅
3. 構成の作成
4. ライティング 

ユーザーニーズの深堀り p322

対策キーワードで検索するユーザーのニーズを、より具体的に深掘りするために下記項目を調べます。

・サジェストキーワード
・共起語
・検索結果の上位競合ページ
・Q&Aサイトやネット掲示板、クチコミサイト

サジェストキーワード p322

サジェストキーワードの取得は、「8-3-1 関連検索キーワードの洗い出し」で説明した手順で行います。
今回は既に対策キーワードが決まっているため、キーワードを広げる調査ではなく深掘りする方向で調査します。
対策キーワードのサジェストキーワードを洗い出し、どのようなニーズがあるかを確認しましょう。
次図に「掃除やり方」のサジェストキーワード一覧とその月間検索数です(図 8.5.1.3)。

次図で分かる通り、「掃除やり方」のサジェストキーワードは、掃除する「物」や「場所」が含まれているキーワードが多い結果となっています。
掃除する「物」や「場所」が明確になっているキーワードは、ユーザーニーズが顕在化しているため、それらをコンテンツへ盛り込みましょう。
さらに、「物」や「場所」が明確ではない検索意図も無視してはいけません。
下図はサジェストキーワードから「物」や「場所」が含まれている項目を抜いた一覧です(図 8.5.1.4)。
「掃除やり方」のサジェストキーワードとその月間検索数のデータからは、「掃除やり方」で検索するユーザーが下記のニーズを持つことを推測できます。

・掃除のやり方が分からない
・上手なやり方や、簡単でおすすめのやり方を知りたい

共起語 p324

共起語とは、ある特定のキーワードが含まれる文章中で、そのキーワードと共に頻繁に出現する単語を指します。
例えば、キーワードが「掃除」ならば、「便利」や「グッズ」、「整理」などがが同じ文章中に出現する可能性が高い共起語です。
対策キーワードの共起語を洗い出して、ユーザーニーズを深掘りしましょう。
共起語を抽出する無料ツールを下記に挙げます。
いずれも上位サイトのコンテンツを元に共起語を抽出します。

・上位サイトの使用キーワード(共起語)抽出ツール「LSI調査」
・サクラサクラボ共起語調査ツール
・コンテンツサーチ
なお、有料ツールのミエルカでは、特定キーワードにおける上位サイトの共起語や自社サイトに不足している共起語、願望(~したい)や困惑(~ない)に関連する文脈理解を助けるキーワードの抽出が可能です。

検索結果の上位競合ページ p325

特定キーワードの検索意図を把握するには、上位の競合ページを確認することも良い方法です。
対象キーワードの検索で上位に表示されるページは、どのような内容で何が書かれているかを調査します。
上位サイトの共起語調査と同じ概念ですが、実際に目視でチェックすることで隠れたニーズの発見に繋がることもあります。

Googleのアルゴリズムはユーザーニーズに合致する検索結果を返すので、上位競合ページを確認することで、そのキーワードで検索したユーザーの検索意図を知ることができます。

ただし、上位競合ページとまったく同じでは意味がありません。
複数の上位競合ページを調査すると、「このページには○○情報が欠けているけど、他のページには書いてある」といったトピックが見つかるるはずです。
検索意図を汲み取り、隠れたユーザーニーズも洗い出しましょう。

Q&Aサイトやネット掲示板、クチコミサイト p325

検索ユーザーが抱える悩みや疑問は、Q&Aサイトやネット掲示板、クチコミサイトなどを参照すると生の声を収集できます。
サイトと関連するカテゴリーやスレッドの内容をExcelにまとめ、ユーザーが抱える疑問をまとめてみましょう。
既に作成したコンテンツがある場合は見比べて、足りない部分があれば加筆を検討しましょう。
なお、前述のミエルカはQ&Aサイトのみに特化して特定キーワードの共起語を抽出できます。

マインドマップによるニーズの網羅 p325

ユーザーニーズを理解したら、次に1つのコンテンツにどのようなトピックを組み込めばいいか、骨組みから考えていきましょう。
骨組みを考える際には「マインドマップ」が便利です。

マインドマップとは、イギリスの作家Tony Buzan氏が提唱した思考法で、考えを可視化できる手法です。
人間の脳には、1つのキーワードからもう1つのキーワードへと情報を関連付け、放射状に思考を広げていく特性があります。
これに沿ってコンテンツテーマを考えることで、より検索ユーザーの気持ちに即したコンテンツテーマを考えられます。
上図の例では、キーワード「掃除やり方」を軸にマインドマップを作成しています。
マインドマップでは、検索ユーザーの悩みや知りたい情報を自由に膨らませます。
コンテンツ化が難しかったり1つのコンテンツでまとめるには情報量が多すぎるものもありますが、まずはどんどん書き出して、検査コーザーのニーズを網羅していきます。

可能であれば、1記事に1マインドマップを作成することをおすすめします。
コンテンツ作成中に書くべき内容に迷った際に、マインドマップに立ち返ることで軸がぶれることを防げます。

情報の網羅性を意識する

マインドマップを作成する際に意識したいポイントが、情報の網羅性です。
ユーザーのニーズを満たす情報は必ずページ内に存在している必要がありますが、一般的なトピックの場合、その情報は既に他の上位競合ページにも存在しているケースがほとんどです。
その場合、競合ページとの差別化を図り、独自の価値を生み出す必要があります。

そのためには、ユーザーの検索意図を汲み取り、疑問に対する直接的な答えだけではなく、「その疑問を抱いたのであれば、こういった疑問も持っているだろう」と、ユーザーのニーズを先読みし、そのトピックに対する網羅的な情報を整備することが大切です。

ライティング p328

本項ではニーズを調査して構成に落とし込んでいるため、構成に沿って進めればコンテンツは作成できます。
しかし、全体の構成が完成したら、骨組みに肉付けしていく形でライティングを進めましょう。
ニーズにマッチしたコンテンツであっても、読み辛い文章では、ユーザーが離脱する可能性もあります。
ここでは、ライティング時に意識すべきポイントを紹介します。

悩みに寄り添う内容 p328

検索ユーザーはコンテンツに、何らかの悩みや解決したい問題、知りたい情報を求めて流入します。
そのため、ユーザーが持つ悩みに寄り添うコンテンツになることを意識して書き進めましょう。

読了後のアクションを想定する p328

ユーザーの悩みや抱える問題に寄り添うだけではなく、読了後のユーザーのアクションを想定することも重要です。
繰り返しになりますが、検索ユーザーは悩みを抱えてコンテンツに流入するため、読了後にはその悩みを解決するためのアクションを取るはずです。
ユーザーのアクションを想定してライティングすることで、明確な文章になり問題解決の満足感を提供できるはずDSU。

表記揺れを統一する p328

コンテンツ内に表記揺れが存在することは、コンテンツの読者は揺れを補完することに気を取られてしまい、コンテンツへの集中の妨げとなり得ます。

コンテンツの掲載場所で、文体のトーン&マナーなども含め、採用する表記は異なりますが、必ず「表記揺れリスト」を作成して、表記を統一する必要があります。
例えば、Microsoft Wordでは、表記揺れに青の波線が引かれ可視化が可能です。
また、表記揺れは次に挙げるツールでもチェック可能です。

・Tomarigi
・JTF日本語スタイルチェッカー
・文賢(有料ツール)

目視でのチェックはどうしても抜けや漏れが発生する可能性があるため、専用ツールを利用して網羅的にチェックしましょう。

文体トーン&マナーを最適化する p329

Web上のテキストはさまざまなシーンで読まれることが想定されます。
本や雑誌、専門書とは違い、多くの場合は電車の中でのニュースチェックや業務時間中の調べ物など、読むことに専念できない環境で読まれることも多いと考えられます。
そのため、Webサイトの特性にも依存しますが、柔らかく優しい文体が読みやすいでしょう。

漢字とひらがな、どちらでも書ける言葉(事、言う、即ちなど)はなるべく、ひらがなを採用し(「漢字を開く」)、ですます調など、なるべく平易な言葉を心掛けましょう。
ただし、平易に書きすぎると安っぽい印象を持たれてしまう危険性もあります。
コンテンツに求められるトーンや閲覧者の属性に合わせて、表記揺れと同様、ガイドラインを作成するべきでしょう。

文字数の目安 p329

コンテンツの基本は、「検索意図を満たすために必要な情報を抜け漏れなく記述する」ことであるため、検索エンジンが評価する最適な文字数というものは存在しません。
しかし、「8-1 競合との比較」で言及した通り、網羅性の高い文章は、結果として文字数が一定以上になることから、対策キーワードで既に上位表示されている競合コンテンツの文字数を、定量的な指標とすると良いでしょう。

ただし、文字数はあくまでも目安です。
書く内容がないにも関わらず、余計な修飾語や同じ内容の反復で文字数を水増しすることは避けましょう。
記事のボリュームが不足する場合は、より幅広いトピックを取り上げたり、テーマの統合を検討しましょう。

まとめ p329

コンテンツ作成で何よりも重要なのは、検索ユーザーのニーズを満たすことです。
そのためには、対策キーワードを軸に、ユーザーニーズの深掘り調査からはじめる必要があります。
そして、ユーザーニーズを1つのコンテンツにするには、マインドマップで思考を整理し、見出しレベルの構成まで落とし込みます。
本文を書き進めるときは、骨組みに肉付けするイメージで、悩みに寄り添い、読了後のアクションまでを想定した文章を心掛けましょう。

テーマだしから本文作成まで、常に検索ユーザーの気持ちに寄り添うことで、リアルで悩みに寄り添った質の高いコンテンツを作成できます。

8-5-2 シーズナルワードでのコンテンツ検討 p330

特定の時期にだけ検索されるキーワードを「シーズナルワード」と呼びます。
シーズナルワードは局所的に検索需要が高くなるため、対策する場合は事前の準備が必要です。

自社のビジネスで、シーズナルワードが対象となるニーズはあるのか、また、現在対策しているキーワードにシーズナル要因があるかを調査し、あらかじめコンテンツを用意する必要があります。

本項では、シーズナルワードの対策に必要な手順を説明します。

・シーズナルワードの洗い出し
・シーズナルコンテンツの作成方法

URL永続化の観点を持つ p332

検索エンジンは「そのURLがどのくらいの間、安定してユーザーにコンテンツを提供していたか」、時間軸での評価も行います。
そのため、毎年必要となるイベントなど、シーズナルコンテンツのURLは変更せず、過去開催分は別URLに変更するのがベストプラクティスだと、GoogleのJohn Mueller氏も明言しています。

例えば、毎年開催されるハロウィンイベント特集ページのURLは、下図の通りになります(図 8.5.2.2)。
なお、URLの永続化に関する詳細は、「10-2-1 URLの永続化」を参照してください。

9-1 外部施策の評価指標 p346

SEOの評価は「内部評価」と「外部評価」の2つに大きく分かれます。
ここまでで内部評価を上げるための施策に関して説明してきましたが、本章ではもう一つの「外部評価」を上げる施策を説明します。

従来はGoogleの評価アルゴリズムに未発達な部分もあったため、比較的簡易に評価できる外部リンクが評価要素として占める割合が高かったといわれています。
しかし、自然言語処理アルゴリズムの発達に伴い、内部コンテンツの評価精度が上がってきたため、被リンクの効果は小さくなってきていると考えられます。
しかし、それは過去と比較して小さくなっているだけであり、依然として被リンクは重要な評価項目であり続けています。

実際にGoogleのJohn Mueller氏は2015年に下記の通り発言しています。

はっきり言うと、被リンクがないと上位表示は困難です。
理屈では可能ですが、競合サイトがいると実際はすごく難しいでしょう。

p348

当初Googleが開発したアルゴリズムは被リンクのみが対象であり、被リンク数が多ければ多いほど、価値あるページとして評価していました。
そのため、外部要素=被リンクと理解されている方も少なくありません。

現在はnofollow値が付与されている被リンク、さらに要素のリンクでない言及も、外部要素として評価されている可能性があります。
これを「サイテーション」(Citation)と呼びます。
サイテーションとは、英語で「引用」を意味する言葉で、まさに外部要素の本質を象徴しています。

また、GoogleのGary Illyes氏は、State of Search 2017カンファレンスのQ&Aセッションで、「Webサイトがインターネットでどのように受け取られているかが重要だ。
例えば、SNSでどのように言及されているかをGoogleは見ている」とも述べています。

被リンクは「明示的」な引用で、サイテーションは「暗示的」な引用であるため、検索エンジンが認識しやすく、より正確に評価できるのは被リンクです。
そのため、外部要素としての重要性は依然として、被リンクの方が高いと考えられますが、サイテーションも意識することで、外部施策の幅が格段に広がります。

9-1-2 被リンク p348

被リンクはa要素で明確にWebページと紐付けられる明示的な引用であり、Googleは現在でも被リンクを重要な評価項目としています。

本項では外部要素の中心である被リンクを、論文や特許情報を元に説明します。
参考にする論文や特許が必ずしも実際の検索アルゴリズムに採用されているとは限りませんが、非公開の検索アルゴリズムをより確度高く紐解くために、論文や特許情報を参考にしています。

被リンクの評価要素として、主に次の4つが挙げられます。

・リンク元のページ評価(ページランク)
・リンク元ページにおけるリンクの掲載状況
・リンク元とリンク先のコンテンツの関連性
・リンクが張られてからの経過時間(リンクエイジ)

リンクが張られてからの経過時間(リンクエイジ) p353

リンクエイジとは、リンクが初めて張られてから(正確には検索エンジンが認識してから)の経過時間を表します。
リンクエイジに関するアルゴリズムは、Googleが2003年12月に出願した特許「Information retrieval based on historical data」から読み解くことができます。
このアルゴリズムの特徴は、新しいリンクが多いページを高く評価することです。

どれだけ価値があるコンテンツでも、時代が変わることに伴い、内容の陳腐化あるいは誤った情報に変化するケースもあります。
ユーザーに「今の」最適な情報を届けるために、検索エンジンは陳腐化したコンテンツを判別する必要があります。
そのために利用されているのがリンクエイジです。

論文に記載されているスコアに、次に挙げる2つがあります。

・被リンクの新規獲得数・消滅数の時系列での前後比較
・全被リンクの内、直近n日間に新規獲得した被リンク数の比率

1つ目は、前期間と比較して新規獲得被リンク数が減少する、あるいは被リンクの消滅数が増加すると、コンテンツが古くなったと判断してページ評価を落とします。
逆に新規獲得被リンク数の増加、あるいは被リンクの消滅数が減少すると、コンテンツが「今の」ユーザーニーズに応えているとして、ページ評価を高めます。

2つ目はページ間の比較方法であり、例えば、全被リンク数における直近10日間で獲得した被リンク数の比率が高いページに対して、より高い評価を与えます。

リンクエイジに関する注意点 p354

新しいリンクが多いと評価されることを逆手に取ったリンクビルディングは評価されず、場合によってはスパムになり得ます。

例えば、「本日の人気記事」といった毎日張り変わるリンクはページランクの分配度が低くなります。
あるいは、人工的なリンクビルディングで急激に被リンク数が増加すると、スパム判定を受ける可能性があります。
正当なWebサイトの被リンク獲得スピードはゆったりとしたものであり、急激な増加は時事的なトピックネタでないと通常は観察されません。
時事ネタでないにも関わらず、被リンクが不自然に急増した場合はスパムシグナルとして認識されるので、注意してください。

まとめ p354

本項で説明した4つの基本的な要素に加えて、現在の検索エンジンはユーザーの行動ログからもページランクの分配を決定しています。
例えば、ユーザーのクリック率が高いリンクには、より多くのページランクを分配しています。
より合理的なサーファーを目指して、Googleはアルゴリズムのブラッシュアップを続けています。

ただし、発リンクしない方が良いわけではない点に注意してください。
発リンクすると相対的に自社サイトの評価の低下に繋がると考えて、発リンクそのものを避けるケースがあります。
しかし、ユーザーにとって価値あるリンクは張るべきであり、実際に検索エンジンも良質なサイトへの発リンクを奨励しています。

9-1-3 サイテーション p354

サイテーションとはnofollow値が付与されている被リンクやa要素のリンクでない言及など、暗示的に引用された外部要素です。
検索エンジンがサイテーションとして認識する要素は主に次の3つです。

・ブランド名(会社名、店舗名、サービス名など)
・住所、電話番号
・a要素ではなく、テキストで記載されたURL

例えば、「グッド・ファッション(URL: https://www.example.com TEL: 03-xxx-xxxx)」というファッション通販サイトを運営している場合、下記の文章がサイテーションに相当します。

テキスト 9.1.3.1: サイテーションの例
#ブランド名
「グッド・ファッション」というファッション通販サイトは、とても品揃えが良く、お洒落な服がピックアップされていて、いい感じ!

#電話番号
「03-xxx-xxxx」から電話が掛かってきたけど、この前コートを購入したファッション通販サイトの運営会社からだった。
サイズが合わなくて、返品できるか問い合わせしたら、丁寧に電話くれた!

#テキストURL
最近、ここのファッション通販サイトをよく利用します。
お洒落な服が多くて、おすすめ!
https://www.example.com (a要素のリンクではない)

こうしたサイテーションで検索エンジンは「グッド・ファッション」がファション通販に関するページだと認識します(①ページ内容の判断)。
また、複数のページで引用されていると、価値あるサービスだと評価します(②ページ価値の判断)。

しかし、そもそも検索エンジンが「グッド・ファッション」とサービス名・Webページの関係性を認識していなければ、どれだけ他ページで引用されていても、検索エンジンが「グッド・ファッション」のページ評価を高めることはありません。
そのため、サイテーション効果を獲得するためには、検索エンジンにWebページと紐付くサービス名や企業名を認識させる必要があります。

Webページとサイト情報の紐付け p355

検索エンジンに、Webページとサイト情報を紐付けて認識させるには、下記の対応が必要です。

全サイト運営者がするべき対応
・自サイトの基本情報を構造化マークアップする
・自サイトのSNSページを作成する

企業や店舗など拠点がある場合の対応
・Googleマイビジネスに登録する
・その他情報メディアに掲載する 

自サイトの基本情報を構造化マークアップする p356

「5-2 構造化マークアップによるサイト情報」で説明した構造化マークアップを活用します。

例えば、企業ではNAP情報やURLを構造化マークアップします。
NAPとはName(名前)、Address(住所)、Phone(電話番号)を指します。
また、企業ではなく個々のサービスでも、Organizationタイプを利用して、サービス名とURLを構造化マークアップできます。

自サイトのSNSページを作成する p356

FacebookやTwitter、Instagramで、企業あるいはサービスアカウントを取得して、SNSページを作成します。
アカウントは数分の作業で作成でき、手間は掛かりません。

アカウント情報には、自サイトの名前や概要説明、URLを記入します。
特に概要説明はサイテーション効果を高めるために、自サイトに関連するキーワードを盛り込むことが重要です。
例えば、ファッション通販サイトであれば、「ファッション」「通販」といった単語を記載することで、自社およびサービスをファッション通販に関するものだと検索エンジンに認識させられます。

ただし、SNSページを作成するだけで実際に運用しない場合、SNSページによるサイテーション効果は低下してしまいます。
もちろん、SEOのためだけにSNSページを運営すべきとまではいいません。
しかし、顧客のロイヤリティを高めたり、潜在顧客を獲得するなど、SNSページの運用は有意義なマーケティング活動なので、ぜひとも運用してみてください。

Googleマイビジネスに登録する p356

実店舗がある場合は、無料で利用できるGoogleマイビジネスにも登録することをおすすめします。
Googleマイビジネスとは、Google検索やGoogleマップなどのGoogleサービス上で表示されるビジネス情報を管理するツールです。

Googleマイビジネスでは名前、住所、電話番号、ビジネスカテゴリ、URL、画像などを登録することが可能です。
本社・本店だけでなく、支社や支店も合わせて登録しましょう。

Googleマイビジネスに登録することで、Google検索の評価向上が見込めるだけでなく。
Googleマップの検索結果にも表示されるようになり、新たな集客チャネルも獲得できます。
実店舗がある場合は必ず対応しましょう。

その他情報メディアに掲載する p357

「iタウンページ」や「Indeed」、「Wantedly」、「スタンバイ」などの無料で利用できる各種情報メディアに自サイトの情報を掲載することも有効です。

まとめ p357

この通り、サイテーション効果を獲得するために、まずは検索エンジンに会社組織やサービスの存在を認識させましょう。
その上で、引用される価値があるコンテンツをしっかりと作成していきます。

他サイトで実際に引用してもらう方法は、通常の被リンク獲得方法と変わらないため、後述の「9-2 効果的なリンクビルディング」や「9-3 SNSでのリンクビルディング」を参照してください。

9-2-2 サテライトサイト p359

サテライトサイトとは、自社サイトと関連するコンテンツを扱う別の自社サイトを指します。
「サテライト」は衛星の意味で、1つのWebサイトの周りに存在するWebサービスを意味しています。

サテライトサイトでは、同一の検索クエリで本サイトと競合しない、本サイトとは異なるコンテンツの提供を心掛けましょう。
また、サテライトサイトから本サイトへ張るリンクは、「ユーザーにとって価値あるコンテンツを紹介する」ことを意識してください。

例えば、自社で求人検索サービスを運営している場合、転職可能性を潜在的に持つユーザー向けのメディアがサテライトサイトとして適切です。
サテライトサイトでは、スキルアップ系の読み物記事などを掲載し、スキルアップしたいユーザーを集客します。
集客したユーザーに、スキルアップに繋がる転職事例を紹介することで、転職ニーズを顕在化させられる可能性があります。
その流れで、本サイトである求人検索サービスを紹介するリンクを掲載します。

本サイトとは異なるページ目的を持って、ユーザーに異なる価値を提供するサテライトサイトであれば、検索エンジンから正当な評価を受けられます。
ただし、サテライトサイトを運営する際は、次の2点に注意しましょう。

・関連性の高いWebサイトからの被リンク効果には一定の上限値が設けられる
・リンク作成のみを目的に運営するサテライトサイトはペナルティ対象になる

9-2-3 他社サイト p361

他社サイトからの被リンクは、本項でここまで紹介してきたリンクとは異なり、他社からの被リンクとなるため、アンコントローラブルな要因が多く、被リンク獲得は容易ではありません。

本施策で重要になるのは、他社からリンクを獲得する施策はSEO業務ではなく「企画業務」だと捉えることです。
つまり、「どうすれば自社メディアを他社に紹介してもらえるのか?」といった視点で企画を考えましょう。

こうしたリンクされやすい記事を「リンクベイト」(Link Bait)と呼びます。
Baitは英語で餌を意味しており、リンクを呼び寄せる餌となる記事を指します。

リンクベイトを作成する際に前提として押さえるべきなのは、リンクを張ってくれるユーザーは限られていることです。
閲覧者自身がWebサイトやブログなどを運営していないと、nofollowでないリンクを貼ることすらできないからです。
そのため、リンクベイティングを企画する際は、リンクを張れるユーザーを意識する必要があります。
こうしたユーザーを「リンケラティ」(Linkerati)と呼びます。

リンケラティは、ブロガーやWebニュースの記者、執筆者など、Webコンテンツの作成者が該当します。
また、ソーシャルメディア利用者(nofollowリンクを掲載)やオフラインのクチコミ伝搬者など、リンケラティに記事の存在を伝えるサポーターの役割を担う人々もいます(図 9.2.3.1)。
リンケラティやそのサポーターが自身のメディアやSNSで紹介したいと考える記事を企画することが、他サイトからの被リンク獲得施策になります。

リンクベイトにおすすめな記事内容 p362

リンクベイトの企画は、発想次第で無限の選択肢が存在しますが、その中でも頻繁に利用される形式を下表にまとめます(表 9.2.3.2)。
特にユーザーや顧客にアンケートを実施して一次情報を作成することはリンクベイティングに有効です。
一次情報を含む記事は自サイトだけではなく、PR TIMESに代表されるプレスリリース配信メディアからも拡散させることをおすすめします。

表 9.2.3.2: リンクベイトにおすすめな記事内容
カテゴリ 詳細
まとめ記事 「~~に関する○○のまとめ」といったまとめ記事やインフォグラフィックス記事
一次情報記事 「2018年度の内定率調査結果」といった、一次情報を掲載する記事
流行記事 「速報!~~の謎解明」など、新鮮さが求められるニュース系情報の紹介、分析記事(フェイクニュースはNG)
ユーモア記事 「笑ったら負け、爆笑動画」など、ユーモア溢れる写真や動画を紹介する記事
香り記事 「文字数が多いとSEOに逆効果!?」など、固定概念を覆す記事
成型的記事 「巷で人気の~~を使ったら大失敗した件」といった、人気の製品や有名人に攻撃的な内容を含む記事

9-3-2 リンク獲得に繋がるSNSボタン p367

ユーザーが簡単にSNSで共有できるように、SNSのシェアボタンを設置しましょう。
基本的にユーザーがシェアしたいと考えるであろう記事ページには必ず設置します。

記事の読了後に冒頭に戻るユーザーも少なくないため、設置場所は読了時に必ず目に入る記事の末尾はもちろん、記事冒頭にも設置することが望ましいです。

設置を推奨するSNSボタンは、Facebook、Twitter、はてなブックマークの3つです。
ユーザーが多いFacebookやTwitterはもちろんですが、はてなブックマークも必ず設置しましょう。
オンラインにブックマークを保存し公開できる、日本最大級のソーシャルブックマークサービスであり。
人気記事にランクインすることで拡散されやすくなります。

また、はてなブックマークはnofollow値が付かない純粋な被リンクになるため、SEO効果が見込めます。
ただし、宣伝目的などスパム行為への対策として、記事詳細(コメント一覧)ページからのリンクにはnofollow値が付与されることがあります。
記事一覧ページではnofollow値は付与されていませんが、今後の運営方針次第では変更されうると認識しておきましょう。

はてなブックマークボタンの設置 p368

はてなブックマークでは、記事に対するブックマーク数に応じて、カテゴリ内の[新着エントリー] → カテゴリ内の[人気エントリー] → 総合の[人気エントリー]へと掲載面がアップしていきます。

はてなブックマークからリンクを獲得するには、まずはカテゴリ内の新着エントリーに掲載されることを最初の目標にしましょう。
正式なアルゴリズムは未公開ですが、新着エントリーには、約1時間で3人以上からブックマークされると掲載される可能性が高まります。
ただし、今まで自サイトへのブックマークをしてきたユーザーではなく、新規ユーザーからのブックマークが必要だと考えられています。

複数アカウントを用いた自作自演のブックマーク登録はアカウント停止処置対象になりますが、運営者アカウントによるブックマーク登録のみは認められているので、忘れずに登録しておきましょう。

なお、はてなブックマークもFacebookやTwitterと同様に、公式ドキュメントでコードを取得できます。

順位取得の自動化 p375

対策キーワードが多くなると、手動での確認は大変な作業になります。
そのため、Search Console APIを利用して順位取得を自動化しましょう。
Search Console APIでは、日付、検索クエリ、ページなどを軸に平均掲載順位データを取得できます。

通常はAPIを叩くにはプログラミングが必要ですが、Googleスプレッドシートのアドオン「Search Analytics for Sheets」を利用すれば、GUI操作のみでSearch Consoleのデータを取得できます。

順位変動時の対応 p377

検索順位はSEOにおいて最も注視される指標であるため、順位変動に一喜一憂しがちです。
しかし、Googleは日々アルゴリズムを更新しているため、順位の上下動は毎日起こり得ます。
ある日、順位が上昇・下落しても、1週間後に元に戻ることは日常茶飯事です。
こうした変化の本質を見抜くために、次の2点を意識しましょう。

・1ヶ月~数ヶ月単位で一方向への変化傾向があるか
・自サイトのみが変動しているか、競合サイトも含めて全体的に変動しているか

主に自サイトの順位のみが変動している場合は、施策の効果による評価が定着していることが推測されます。
一方、競合も含めて全体的に順位が変動している場合は、検索エンジンのアルゴリズム自体が変更された可能性があります。

自サイトのみの順位変動 p378

長期的に自サイトの順位が上昇している場合は、SEO施策が効いていると判断して良いでしょう。
逆に自サイトの順位だけが下落している場合は、コンテンツの重複、内部リンクや被リンクの減少など、評価が下げる要因を探しましょう。

また、特殊なケースですが、Webサイトの新規公開時は一時的に順位が上昇し、その後急落する「Googleハネムーン」と呼ばれる現象が頻繁に起こります。
これは、ユーザーがそのコンテンツに興味を持つかを確かめる仕組みだとGoogle社員が説明しています。
そのため、新規立ち上げ後の順位変動に対しては特別な対応は必要ありません。
順位の定着後に、着実な順位上昇を目指しましょう。

全体的な順位変動 p378

競合サイトも含めて全体的に順位変動した場合、順位上昇したサイト、もしくは順位下落したサイトを1つずつ目視でチェックします。
各サイトに共通する要素が、アルゴリズムの変更で重視されるようになった評価対象である可能性が高いです。

例えば、医療情報に関するアルゴリズム変更時は、記事作成者が信頼できる医療従事者であるページが上位に表示され、コンテンツ量が多くても根拠の乏しい内容を含むページは順位が下落しました。
そのため、根拠の乏しいコンテンツを掲載するWebサイトでは、医療従事者によるコンテンツ作成、そして記事上での作者の明示が求められます。

この通り、自社サイトのみではなく、競合サイトの順位変動もモニターする方が、状況を正確に把握できます。
主要キーワードの上位サイトは定期的に確認し、Excelに保存することをおすすめします。

また、特にベンチマークとすべき競合サイトがある場合は、自サイトと同様にキーワードごとの順位を一通りモニタリング対象にしましょう。
競合サイトの順位から、競合の注力キーワードや弱みを把握でき、自社の戦略にも反映できます。
「8-4 競合との比較」で説明した通り、自サイトで新規作成もしくは追加すべきコンテンツの手掛かりにもなります。

10-1-5 UU価値・CV価値 p384

前頃まででファネル図に登場する各種数値のモニタリングは一通り説明しましたが、最後にUU(ユ ニークユーザー)価値・CV価値を補足説明します。

Webサイトでは、ユーザーのCVが1つのゴールですが、ビジネス本来のゴールはCV数ではなく、実際の売上や利益です。
例えば、通販サイトであれば、CV=商品購入から生まれる売上・利益がビジネスの最終ゴールになります。
あるいは、賃貸物件の仲介事業を運営する企業であれば、Web上でのCV=問い合わせから、来店契約を経て得られる売上・利益がビジネスの目的です。

そのため、CV数を目的にWebサイトを運営することも誤りではありませんが、よりビジネスの目的に沿ったモニタリングをするためには、売上・利益まで追った方がベターです。
そこで、1UU当たりの売上や利益を表すUU価値や、1CV当たりの売上や利益を表すCV価値が登場します。
UUやCVだけ追っていた場合は、共に上昇傾向であるため、Webサイトは好調だと結論付けるでしょう。
しかし、UU価値やCV価値を見てみると、下落の一途を辿っていることが分かります。

これは、新たに集客しているユーザーはCVに達するものの、その後の売上には繋がっていないことを表しています。
例えば、新規作成したページで集客が増えているものの、新規ページの説明文が実際のサービス内容と乖離があるため、CVが売上に繋がっていない可能性があります。

こうした問題はCV数のみを追っていると気付けません。
CV数だけではなく、本来求めるべき売上や利益まで追うことの重要性が分かるはずです。

また、流入チャネル別のUU価値・CV価値データを算出することで、投資判断や施策の優先順位の判断にも役立ちます(図 10.1.5.2)。

例えば、上記の数値を元にすると、SEOとリスティング広告のCVRは同じです。
しかし、UU価値とCV価値を見ると、リスティング広告よりSEOが上回っています。
そのため、SEOは優良な集客チャネルで、さらなる投資も妥当だと判断できます。
さらに、SEO施策に1,000万円を投資することで、1年間で1万UUのSEO流入を増やすことが可能であれば、投資金額は1年で回収できることも推測できます。

通販サイトなどサイト上で売上が確定するケース p385

通販サイトなど、サイト上で売上金額が決定する場合は、Google Analyticsの「eコマーストラッキング」を利用します。
商品購入時にJavaScriptタグを発火させて、Google Analyticsに購入情報(アイテム名や金額など)を送信させます。
実装にはプログラミング技術が必要なため、公式ドキュメントを参考にエンジニアと相談しましょう。

Google Analyticsで売上情報が取得できれば、前述した流入チャネル別の分析だけではなく、ページ別の分析も可能になります。
前項で説明した分析に売上情報も追加して、より本質的な分析を行いましょう。

不動産サイトなどサイト上で売上が確定しないケース p385

サイト上でのCV時に売上が確定しない場合は、Google Analyticsのeコーマストラッキングは利用できません。
本ケースでは2つの対応方法があります。

1つ目はCV時に自社のデータベースで管理しているCVデータに、流入チャネルやランディングページなどのアクセスログのデータを追加で保存することです。
そうすれば、自社データベースの情報からCV価値やUU価値を計算できます。

2つ目の方法は、CV時に自社データベースに登録されたuser_idを、Google Analyticsにも送信します(実装方法は公式ドキュメントを参照)。
自社データベースの売上情報とGoogle Analyticsのアクセス情報をuser_idをキーにして紐付けて、CV価値やUU価値を算出できます。

本項で説明した通り、UU価値やCV価値まで追うことは少々手間が掛かりますが、ビジネスの本質を捉えるために有効な手段です。
ぜひチャレンジしてみてください。

本節では、SEO業務で最低限必要なモニタリング指標を説明しましたが、1UU当たりのページビュー数や直帰率など、触れていない指標も多数存在します。
さらに、流入からCVまでのページ単位での遷移を対象にしたプロセス分析など、分析の切り口もさまざまです。
ぜひアクセス解析を学んで仕事の幅を広げてください。

10-2-1 URLの永続化 p387

保守運用フェーズで発生する問題点として代表的なものがURLの変更です。
大規模なものではブランド名変更、企業の統合や合併に伴うドメイン変更があります。
小さなものでは、リニューアルに伴うディレクトリ構造の変更、日々の運用でのページ統合や削除などが該当します。

一度作成したページを意味もなく削除することは基本的に推奨できません。
当然ですが、ページの削除は、それまで蓄積したSEO評価をすべて手放すことになります。
同じコンテンツを掲載する新規ページを作成しても、それまでの被リンクはすべて0になると同時に、時間経過による権威性評価も0からスタートします。
また、本来であれば訪問したであろうユーザーも失うことになります。
検索エンジンのインデックスから削除され、検索結果に表示されなくなり、外部サイトからのリンクも辿ることができなくなります。

そのため、一度公開して検索エンジンにインデックスされたページのURLは、そのページが存在し続ける限り、同一のURLを使用し続けることが大切です。
これがURLの永続化です。

サイトをリニューアルする際に、サイトのURL構造を変更したり、ブランディングの観点から新しいドメインに変更するケースもありますが、URLはページが存在し続ける限り、同一のURLを使用し続ける=永続化することをおすすめします。

URLの永続化の重要性 p387

URLの永続化はなぜ重要なのでしょうか。
それはWebの利点として誰でも情報発信できることに加え、URLでリンクすることでインターネット上に散在する情報にアクセスできる点にあります。

さまざまなWebサイト同士が互いに関連する情報にリンクされることで、ユーザーはより深い情報や関連情報を探すことが可能になります。
インターネット上に散在する情報同士を相互に参照可能にするシステム(ハイパーテキスト)により、それぞれの情報単一の価値を超えて、情報が繋がりWeb世界の価値を高めています。

しかし、リンク先に遷移してもURLが変更され、情報にアクセスできない状態が多くなると、Webの利点が失われてしまいます。
そのため、URLの永続化は、Webの利点である「リンクによる情報の繋がり」を支える要素として重要なのです。

URL を永続化させるべき理由 p388

URL永続化の重要性はWebの利点を支える要素にありますが、GoogleはこのWebの利点を活かし、リンク構造を元に関連度や品質を算定するアルゴリズムを採用しています。
そのため、URLを永続化させることは、SEOの観点から下記のメリットがあります。

・評価が蓄積される
・SNS上での拡散力が高まる
・ユーザーにとって親切

評価が蓄積される p388

URLが変わらないことで評価が蓄積されます。
また、検索エンジンは良いコンテンツであるかの判断指標として、「そのURLがどのくらいの間、安定してユーザーにコンテンツを提供しているか」を評価しています。
そのため、他にない情報(Googleは必ずしも難しい専門情報である必要はないことを、検索品質評価ガイドラインに明記しています)を長きに渡り、同じURLで提供することはコンテンツの権威性・信頼性の向上に繋がります。

SNS上での拡散力が高まる p388

公開されたURLは誰でもその情報を参照できます。
そのため、公開者がコントロールできない場所でコンテンツやURLの情報が流通します。

最近では、公開直後ではなく、後日SNSなどで拡散されたり、メディアで注目を浴びるケースも珍しくありません。
せっかく拡散され自然リンクが付いたURLも、変更されると評価を引き継げません。
検索エンジンからの評価だけでなく、リンクしてくれたユーザーや、SNSで共有してくれたユーザーからも、信頼を失うことになりかねません。

ユーザーにとって親切 p389

大事な情報や調べた情報をブックマークで保存するユーザーは多数存在します。
また、URLは印刷物に使用されるケースもあります。
しかし、そこに存在すると思っていた大切な情報がなくなっていたら、ユーザーはどう考えるでしょうか。
URLの永続化はユーザーに不便を掛けないためにも大切なことです。

まとめ p389

Webで使われる各種技術の標準化を推進するために設立された非営利団体、W3C(World Wide Web Consortium)の創設者Tim Berners-Lee氏の言葉に、「Cool URls don't change」(クールなURIは変わらない)があります。
クールなURIは変わらないURIであり、URIは人によって変更されるとの言葉に真理があるのではないでしょうか。

コンテンツの情報や扱う幅が変化しても、情報の論理構造が変化するわけではありません。
論理構造を適切に分類することで、新たなコンテンツを扱うことになっても、既存のURLに影響が及ぶことはなく、永続的なものとして扱えるようになります。

Webに携わり、サイトを設計する人やSEO担当者がURLの永続化を意識することで、Web世界の利点を生かし、より良い世界にしていけるのではないでしょうか。

URL変更時の対処方法 p390

URLを変更する際は、基本的に301リダイレクトを実施します。
リダイレクトの方法は「2-1-2 URLの正規化」を参照してください。

しかし、無料ブログなど、.htaccessを利用できず301リダイレクトを実装できないケースがあります。
その場合はJavaScriptでのリダイレクトで代替しましょう。
JavaScriptのscript要素はbody要素内にも記述できるため、head要素を編集できない無料ブログでも問題なく設定できます(JavaScriptでのリダイレクトも「2-1-2 URLの正規化」参照)。

また、ドメインやURLを変更した際は、内部リンクやXMLサイトマップなどに記載しているURLも合わせて修正することを忘れないでください。

ページ削除が適切ではないケース p392

ページ削除による対応が適切ではないケースとして、期間限定のキャンペーンページが挙げられます。
例えば、毎年開催される夏のセールを例にしてみましょう。
セールが開催されるたびにキャンペーンページを作成し、セールが終わったらページを削除する運用の場合、検索エンジンからの評価が毎年リセットされてしまうため、適切ではありません。

毎年開催されることが予測できる場合は「/summer-sale/」など固定URLを使って、ページを削除せずに残すことをお勧めします。

また、商品の販売終了や売り切れの場合もページ削除は適切ではありません。
外部サイトに「おすすめの商品」としてリンクが設置されているケースでは、「おすすめ商品」のクリックで404エラーページが表示されると、ユーザーには売り切れなのか、URLの間違いなどのリンクミスなのか分かりません。

そのため、販売終了や売り切れ後もページを残して、ページ内でその旨をユーザーに伝えるとともに、他の商品や新しいバージョンの商品への導線を設置しましょう。

動的URLを静的化すべき理由 p394

動的URLを静的化した方が良い理由の1つは、「3-1-2 URLの命名方法」で述べた通り、URLは短く分かりやすいことが、ユーザーにとっても検索エンジンにとっても有益なためです。

また、動的URLはパラメータ管理の手間を要することが挙げられます。
検索エンジンは、動的URLのパラメータルールが明確であれば、可能な限り、そのルールに応じた適切な処理を行います。
しかし、必ずしもそのパラメータ処理が適切ではないため、処理に問題がないか確認する必要があります。

この作業は旧Search Consoleで処理でき(項内で後述)、パラメータ数が少なければ特に問題になりませんが、大規模サイトなどでパラメータ数が増えた際はどうしても管理に手間が掛かります。

さらに、動的URLは誰にでも作れるURLです。
極端な話、悪意ある第三者が本来は存在しないパラメータを付与したURLをリンクとして貼れば、検索エンジンはそのパラメータを存在するものとして処理します。
その結果、同じコンテンツなのに別URLと判定されてしまい、重複コンテンツペナルティを受ける可能性も出てきます。
動的URLの静的化で、動的コンテンツの処理を検索エンジンに任せるがゆえに発生する見えないリスクを排除できます。

10-3-1 コンテンツシンジケーション時の対応 p397

コンテンツシンジケーションとは、より多くのユーザーに拡散するために、Webサイトの記事をニュースメディアなどに提供することです(図 10.3.1.1)。

しかし、自サイトのURLとシンジケート先サイト(転載先サイト)のURLで、同一コンテンツが表示されるため、重複コンテンツ評価を受ける可能性があります(「2-1 1URL1コンテンツの原則」参照)。
さらに転載先のニュースメディアやポータルサイトは、基本的にドメインパワーが強く、自サイトよりも上位に表示されることが多々あります。

そのため、シンジケート先の各メディアで自サイトの該当ページに向けてcanonical設定してもらうか、noindex化してもらうことが理想ですが、先方が同意しない場合も少なくありません。
その場合は、最低でも出典元として自サイトの記事URLをシンジケート先の該当ページに明記してもらいましょう。
出典元の記載やリンクがあることで、検索エンジンはオリジナルと認識し、重複コンテンツとして評価を下げられることもなく、検索結果の上位に表示されやすくなります。

機械翻訳は避ける p400

機械での自動翻訳は文章の意味が通じなくなるケースも多く、スパムと認定される可能性があるため避けましょう。
読みにくい自動翻訳の文章はWebサイトのイメージ低下に繋がるケースもあります。

やむを得ずサイト内に自動翻訳のページを用意している場合は、robots.txtを利用してGooglebotのクロールを制限しておきましょう。
クロール禁止の設定は「4-1-2 robots.txtによるクロール制限」を参照してください。

中古ドメインは避ける p402

新規ドメインはページ数や被リンク数が少なく、評価が0からのスタートになります。
そこで所有者が放棄した中古ドメインを利用することで、初期評価を高い状態から、Webサイトを構築すると良いという風説が流布しました。

しかし、基本的に中古ドメインの評価は、コンテンツ内容が変化した場合、引き継がれることはないと考えられます。
Googleが2003年12月31日に出願した特許「Information retrieval based on historical data」には、被リンク元のアンカーテキストと異なるコンテンツに変更されていた場合、ドメインの所有者が変わったとして、被リンク評価を無視するか評価を下げると記載されています。

2003年の時点ではアンカーテキストを元に判断するとありますが、現在では被リンク元のコンテンツとの関連性をより正確に判断できるため、中古ドメインの評価を引き継ぐことは困難になっている可能性が高いといえます。

一方、中古ドメインは所有者が変わっても、ペナルティ評価は引き継がれてしまうことがあります。
過去にペナルティを受けたドメインは、購入前に下記の項目を確認することで避けることは可能です。

・siteコマンドでインデックスを確認できるか(インデックスされている場合はペナルティを受けていない可能性が高い)
・URLを開いた場合にセキュリティエラーが出ないか
・過去のページ内容がアダルト・賭博関係でないか?(アダルト・賭博関係のサイトはスパムが横行しており、ペナルティを受けた結果としてドメインを手放した可能性が高い)
・被リンク元ページもアダルト・賭博関係などの怪しいコンテンツでないか

また、購入後であっても、Search Consoleに登録して手動ペナルティを課されていることが分かった場合、所有者の変更の旨を記載して再審査リクエストを送信することで、ペナルティを解除できるかもしれません。

しかし、ポジティブな評価を引き継げない可能性が高いにも関わらず、ペナルティ修正の対応が必要となるのであれば、中古ドメインの活用は旨味のない手法だといえます。
そのため、中古ドメインではなく、素直にサービス名を表した新規ドメインを取得することをおすすめします。

また、中古ドメインを取得する意図はなかったとしても、偶然中古ドメインであるケースもあり得ます。
そのため、新規ドメインを取得する際も、事前に過去のページ内容や被リンク要素、セキュリティーエラーの有無などは、最低限確認しておくべきでしょう。

ちなみに、既に評価が確立されたドメインを獲得したいのであれば、コンテンツが残っている状態で買収することが正攻法です。

p404

ある意味では過渡期ともいえる現在において、SEO担当者のあるべき姿を示唆する言葉を、AmazonのCEOであるJeffrey Preston Bezos氏が述べています。

「今後10年の間に、どのような変化があるでしょうか?」と問われることが実に多い。
とても興味深いものの、至極ありふれた質問だ。
一方で、「今後10年で変わらないものは何でしょう?」と聞かれることはほとんどない。
こちらの質問の方がより重要だ。
なぜなら、ビジネス戦略は時を経ても揺るがないものに基づいて構築できるからだ。

確かにユーザーの検索行動は常に変化し続けているように見えますが、その中でも変わらない事実があります。
それは「ユーザーはあらゆる場面で、やりたい知りたい・買いたいといったニーズを持ち、そのニーズに最も的確に応えたものが選ばれる」ことです。

Googleの共同創業者であるLarry Page氏が述べた、「完璧な検索エンジンとは、ユーザーの意図を正確に把握し、ユーザーのニーズにぴったり一致するものを返すエンジンである」にも通じるものがあります。

SEO担当者が担う仕事は、ユーザーが持つニーズを把握し、それを最も的確に満たす手段を考案・具現化することです。
これはSEOに限らず、あらゆるビジネスの中核を成す要素です。
したがって、SEO担当者こそがこうしたビジネスの中心的役割を担い、将来的にビジネスを継続させるサステナビリティを提供できる数少ない人材だといえます。
本書が、読者の業務で何らかのきっかけ、手助けになることを祈りつつ、ここに筆を置きます。