このページの本文へ

それでもやっぱりSEOが必要な理由と初心者がやるべきことまとめ

2017年02月28日 08時00分更新

文●Greg Snow-Wasserman

  • この記事をはてなブックマークに追加
本文印刷
SEOは検索エンジンやユーザーをだましてトラフィックを運んでくるテクニック。そんなふうに思っていませんか? SEOが必要な本質的な理由とその基本ステップをコンパクトにまとめました。

SEOとはなにか?

検索エンジンへの最適化はWebサイトへのトラフィックを増やし、検索エンジンの検索結果ページ(SERPs)で上位に表示されるようにするための一連の戦略や手法を意味します。これがGoogleで「SEOとは?」と調べると出てくる短い説明ですが、この定義で十分とは言えません。

より適切な定義としては、コンバージョンや閲覧数を増やすためにターゲットカスタマーが使うキーワードを使って検索エンジンの検索結果において高順位に表示されるようにする戦略や手法を意味します。

たとえば、こう考えてください。近隣でピザレストランを経営しており、ピザに関連したキーワードを使ってWebサイトの最適化に取り組んだとします。対策が功を奏し、「ピザ」というキーワードではGoogle検索結果の上位10位に表示されるようになりました。ここで問題なのは、地元に根ざしたレストランであるにも関わらず、Webサイトがローカルな検索結果向けに最適化されていないことです。レシピ、ピザの歴史、ピザの栄養情報などを知りたい人は見つけられるのに、近隣でピザを注文したいと考えている人はおそらく見つけられません。もっとも売上に結びつきやすいカスタマーが見つけられないのです。これは問題です。

SEOとは、適切な人が適切なときに必ず情報を見つけられるようにすることです。

SEOをする必要があるか?

答えは、イエスです。

SEOを始める方法を読んでいるわけですから、おそらくSEOが必要かもしれないとすでに考えていたはずです。しかしまだ迷っているなら、以下の数字は説得力があります。

上で述べた理由から、カスタマーをWebサイトへ誘導するにはSEOが非常に重要だと言えます。SEOをするための非常に大切な理由がほかにもあります。競合他社もSEOをしているからです。つまり、先ほどのピザレストランが売上を伸ばすチャンスを逃した場合なども良い例です。それだけでなく、より良いSEOを取った競合他社がカスタマーと良好な関係を築き、ブランド認知度を高め、リピーターを増やしているのです。

どのようにSEOをすれば良いか?

Googleを使ってWebサイトにインデックスを付ける

SEOの最終目標は検索結果で上位に入ることです。まず、Googleに自分のWebサイトをクロールしてもらい、インデックスを付けられることです。Google Search Consoleを使ってGoogleに自分のWebサイトを送信します。ちなみに、アカウントの作成は無用です。Google Search Consoleのアカウントを持っている場合は、CrawlセクションでFetchをGoogleツールとして使用します。Googleのボットがページの読み込みに成功したら、「Submit to index(インデックスに送信する)」ボタンをクリックします。

Fetch as Google in Google Search Console

URLのボックスにチェックを入れると、Googleが、送信したページにインデックスを付けます。または「URLとすべてのリンクしたページ」にチェックを入れると、送信したURLから始め、Webサイト全体にインデックスを付けます。これは、内部リンクをたどればすべてのページにアクセスできると仮定した場合です。

URLをBingに送信します。この作業にはBing Web マスター ツールのアカウントが必要です。

Webサイトを検索エンジンにクロールされる別の方法は、できる限り多くの、信頼できる場所にWebサイトへのリンクを作成します。WebサイトへのリンクをソーシャルメディアページのAbout部分に入れます。とりわけ、Twitterのプロフィールページがおすすめです。

WebサイトをGoogle+プロフィールにリンクさせ、WebサイトへリンクするGoogle マイビジネスアカウントを設定します。Webサイトをクロールされることに加え、Googleアンサーボックスに表示される可能性が高くなり、ナレッジグラフのリッチスニペットを最適化できます(『まだSEO会社に頼んでるの?これなら自分でできる外部SEO、4つのアプローチ』参照)。ビジネス用のYouTubeアカウントを持っている場合、チャンネルのAboutページや動画表記の部分にリンクを追加します。

これらのリンクの大部分は追跡されませんので、リンクジュースの質が向上したからといって実際には検索順位が上がることはありません。しかし、それは重要ではありません。クローラーの中にはこれらのリンクを追跡するものもありますし、クロールしたWebサイトにインデックスを付けます。

最後に、Webサイトにブログを追加することも考えてください。一般的にはブログはコンテンツマーケティングやオンページSEOのツールと考えられていますが、日々新しいコンテンツを提供できるツールでもあります。ブログを組み込んだWebサイトはブログのないWebサイトよりも平均して434%以上ページがインデックスされやすくなります。

もっと詳しく知りたい人は『基本すぎて誰にも聞けない、 SEOで最初に取り組むべき3ステップ』を参照してください。

キーワードリサーチ

うわさに反して、キーワードは現在もSEOに密接に関連していて、Webサイトを最適化するために適切なキーワードを選択するのはSEOを成功させる上でもっとも重要な部分です。ターゲットに対する適切なキーワードを見つける作業はキーワードリサーチと呼ばれています。以下にキーワードリサーチのための基本的な手順を紹介します。

検索エンジンで現在どのように自社が検索されているかをGoogle Search Consoleを使って調べます。そして、どのキーワードがもっともユーザーを購買活動に結びつけているかをGoogle アナリティクスを使って調べます。Webサイトがまだできたばかりであったり、オーガニックトラフィックを十分に稼げていない場合、製品やカテゴリから考えるか、または「自社のWebサイトはなにに関するものか?」「事業としてなにをしているのか?」を自問自答して答えを考えます。GoogleやBingのキーワードリサーチツールのAdWords キーワード プランナーやそのほかのツールなどを使用してさまざまな選択肢のなかから新しいキーワード候補を考えます。

ターゲットにしたいと考えている最適なキーワードをたくさん思いついたら、検索数を十分に稼げる使用する価値があるキーワード順に候補を絞ります。アカウントが一定量の明瞭なアクセスのしきい値に達していない場合、Googleはおよその検索数データを表示しないようにしており、月間検索数までしか提供しません。WooRankのSERP Checkerを使うと、キーワード検索数を閲覧できます。

WooRank SERP Checker with estimated search volume

WooRank ProまたはWooRank Premiumのアカウントを持っていない場合、Bingのキーワードリサーチツールを使用して検索数を閲覧できます。しかし、Bingの検索の市場シェアは10%にしか及ばないため、ほんの一部のデータしか分かりません。BingやGoogleのキーワードツールはPPCデータを利用しています。100%正確とは言えませんが、正しい判断材料としては十分と言って良いです。

AdWords Keyword Planner with throttled data

最後に、キーワード対策では、ポートフォリオを必ずヘッドキーワードとロングテールキーワードをうまく組み合わせたものにします。どちらかに偏るのはやめてください。ヘッドキーワードはトラフィックが向上しますが、すぐにコンバージョン率の上昇には結びつきません。また、大規模でかなりうまく構築されたWebサイトでないかぎり、ヘッドキーワードを使用したからといって検索順位で上位に入る可能性は低いです。一方で、ロングテールキーワードばかり使うと、コンバージョン率は大きく上がりますが、十分な数のユーザーを取り込めません。

この記事でキーワード対策やキーワード研究について詳しく解説しています。

テクニカルSEO

キーワードはSEOの中心的なものですが、それ以上の意味があります。Webサイトを構築する場合、検索エンジンを念頭に置く必要があります。Webサイト構築において、検索エンジンの最適化を改善する基本的な技術要素を紹介します。

■Robots.txt
robots.txtファイルはWebサイトのルートディレクトリにあるシンプルなテキストファイルです。このファイルは検索エンジンのボットにどのページがクロールでき、どのページがクロールできないかを伝えます。通常、検索結果に表示したくないページに検索エンジンがインデックスを付けないようにするために使用します。対象のページは、たとえば、一時フォルダまたはデザイン変更や移行前のレガシーWebサイトなどです。すべてのユーザーエージェントをブロックすることも、ブロックしないことも、または選択したボットをブロックすることもできます。すべてのユーザーエージェントをブロックする基本的なrobots.txtファイルは以下のようになります。

User-agent: *
Disallow: /

すべてのロボットがWebサイト全体をクロールできるようにするには、以下のようにします。

User-agent: *
Disallow:

特定のフォルダ、サブフォルダ、ページを関連したUser-agent行の下にあるDisallow(許可しない)行に入れると、ユーザーエージェントがアクセスできないようにできます。「allow(許可)」変数を認識する検索エンジンもあるので、Disallow指定したフォルダの中の特定のファイルにアクセス許可もできます。

robots.txtファイルの利用には細心の注意が必要です。間違ってすべてのボットまたは特定のユーザーエージェントがサーバー全体にアクセスできないようにしてしまうことはよくある間違いですが、SEOに大きな問題が起こります。robots.txtの使い方に関してもっと詳しく知りたい人は、この記事を参照してください。

■XMLサイトマップ
サイトマップはWebサイトのすべてのURLを含むxmlファイルで、各ページの概要を表示します。1ページのWebサイト用のシンプルなサイトマップの例は以下のようになります。

<?xml version="1.0" encoding=”UTF-8”?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9” xmlns:xhtml=”http://www.w3.org/1999/html”>
    <url>
        <loc>https://www.example.com/</loc>
        <lastmod>2016-8-01</lastmod>
        <changefreq>monthly</changefreq>
        <priority>0.9</priority>
        <xhtml:link rel="alternate” hreflang=”fr” href=”https://www.example.com/fr/”/>
   </url>

上のコードの概要です。

  • <urlset>:サイトマップを開いたり閉じたりするために使用される現行のプロトコル。サイトマップがここから始まるということをクローラーに伝えるためのもの
  • <loc>:ページのURLを示す。Webサイトのすべてのページで必要だが、そのほかの変数は厳密には任意。URLは統一して書き、標準的なバージョンを利用する。たとえば、プロトコルで、www resolveなどを使う
  • <lastmod>:ページが最後に更新または修正された日付
  • <changefreq>:ページの更新頻度を伝える。ページが更新されると、検索エンジンに再度、Webサイトをクロールするように知らせる。嘘を知らせないこと。検索エンジンが<changefreq>の値が変更されているのに実際にWebサイトに変更がないと見なすと無視される
  • <priority>:特定のURLをWebサイト上のほかのURLと比べた場合の重要度を伝える
  • <xml:html>:代替的なURLを一覧にする。たとえば、多言語対応または海外向けのWebサイトを持っている場合などに有効

Webサイトはサイトマップがなくても問題なく動作し、インデックスも付けられるので、サイトマップは検索順位の指標ではありません。しかし、サイトマップがあると、あらゆる作業が簡単にかつ素早くできます。加えて、ページを詳しく紹介すればしただけ、検索エンジンはより効率的にWebサイトをクロールできます。つまり、重要ではないページを見に行ってクロールにかかる時間を無駄に多く使ってしまう可能性が低くなるのです。

新規ページを追加したり、リンク数の多くないまたはリンク先のない新しいWebサイトを構築する場合、サイトマップは特に重要です。XMLサイトマップについて詳しく知りたい人はこの記事を参照してください。

■Canonical URLs
正規URLを使うと、Webサイトのコンテンツ重複問題が起こるのを防げます。正規URLはコンテンツが複数のURLにある場合、オリジナルをどこで見つけられるかを検索エンジンに知らせます。

また、どのURLのページを検索結果に反映するべきか、どのURLにリンクジュースをまとめるべきかを知らせます。重複問題が発生するのには正当な理由があります。たとえば、コンテンツ管理システム、Eコマース製品プラットホーム、コンテンツの同時配信などの原因が考えられます。検索エンジンはrel= "cononical"タグを見てコンテンツが正規のURLのコピーだと認識し、検索順位に関する情報をオリジナルのページに知らせます。

rel= "cononical"は、HTMLページの<head>とHTML以外のページのHTTPヘッダーに実装されています。

  • HTML:<link rel="canonical” href=”https://www.example.com”/>
  • HTTP:Links: <https://www.example.com>; rel="canonical”

正規URLを選択する場合、ユーザーや検索エンジン向けに最適化され、しっかりと最適化されたコンテンツを持つURLを選びます。必ずGoogle Search Consoleで優先ドメインを設定したことを確認します。

Google Search Console preferred domain

以上によって、www resolveとして機能します。Googleは現在あるWebサイトへのリンクに遭遇した場合にwww resolveが機能していることを考慮します。そして、Googleは優先ドメインにリンクジュースを渡し信頼性を付与します。その場合、リンクにwwwを付けない人がいても、おそらくwwwを追加します。

rel= "cononical"や重複コンテンツについて詳しく知りたい人はこの記事を参照してください。

■URL
人と検索エンジンどちらにとっても扱いやすいURLを作成することが重要です。どちらもSEOに影響を及ぼします。URLを使って情報の階層を明確にし、ユーザーがどこにいるのかが常に分かるようにします。URLは必ず標準的なバージョン(www resolveやhttpsなど)を使い、フォルダー、サブフォルダー、ページをこの順番で組み込むようにします。

URL構造は検索エンジンにとって重要です。というのは、検索エンジンはURL構造を使って検索対象ページがWebサイトのほかのページとどのような関係にあるかを理解できるからです。URLはタイトルタグと似ていると理想的です。したがって、URLには早い段階でキーワードを入れておくことをおすすめめします。検索エンジンは、ページのトピックや関連性を判断するために複数のURLでキーワードを探します。

URLを最適化すると被リンクプロフィールにも良い効果があります。構造がしっかりしていて、複数のキーワードを含むURLに対して関連したアンカーテキストを使用する人が増える傾向があるからです。URLを最適化すると、これらのキーワードで検索結果の上位に入れます。URLの最適化に関してもっと知りたい人はこの記事を参照してください。

■HTMLヘッダーとHTMLサブヘッダー
<H1> – <H6>タグは、ヘッダーとサブヘッダーとして知られており、ページの見出しや小見出しを意味します。これらのタグ、特に<H1>タグはSEOにおいて非常に重要です。検索エンジンは以下のようにHTMLヘッダーを利用します。

  • 関連性:検索エンジンはヘッダーやサブヘッダーで使用されている単語と検索で使用されているキーワードを比較するため、ここにキーワードを使うのが非常に重要。特に<H1>タグに依存しており、このタグをオンページタイトルとして扱う
  • キーワードの一貫性:検索エンジンはページのヘッダー、サブヘッダー、本文に一貫したキーワードが使われているかをチェックする。たとえば、サブヘッダーに複数の関連性のないキーワードを使用するなど一貫したキーワードを使用していない場合、ページに主題がないと見なされる
  • ユーザーエクスペリエンス:ヘッダーやサブヘッダーはページを見やすく構成するもので、人の閲覧者にとっても重要。また、スクリーン・リーダーを使う必要がある目の不自由な人にとっても役立つ。検索エンジンはユーザーにもっとも適したページを表示したいため、検索順位を上げるにはユーザーエクスペリエンスの質が良いことも重要

HTMLヘッダータグを使用する場合、基本的に守るべきルールがあります。第1に、<H1> – <H6>タグの階層は崩さないようにします。つまり、ほかのあらゆるタグよりも先に、ページの冒頭部に<H1>タグを使います。そして、必ず重要なヘッダーほど低い番号のタグを付けます。<H6>タグにセクションヘッダーが来るようにはしたくないと通常は考えるからです。

第2に、1つのページには1つだけ<H1>タグを使用します。検索エンジンはヘッダーのキーワードに大きく依存しているため、複数のキーワードを使うと検索順位を操作していると見なされます。これはSEOに悪影響を与えます。注意してほしいのは、ページがHTML5を利用している場合、複数の<H1>タグをセクションヘッダーとして利用できます。しかし、HTML5を利用していない、またはHTML5を利用しているか分からない場合、ヘッダーは1つにしておきます。

第3に、自然なヘッダーやサブヘッダーを書きます。検索エンジンは自然言語を解釈することに長けているので、キーワードを詰め込んでHTMLのヘッダーを過剰に最適化してしまうと良い影響どころか悪い影響が出てしまいます。

SEOやユーザビリティのためのHTMLヘッダーの使い方についてもっと詳しい情報を知りたい人はこの記事を参照してください。

オンページSEO

ターゲットキーワードでページを最適化するベストな方法を紹介します。オンページSEOは、おそらくもっともよく知られているもので、SEOと言えばこれだと通常考えるものです。ページを最適化するための基本事項を説明します。

■メタタグ
ページのHTMLヘッド部にはSEOにとって非常に重要なメタタグが2つあります。<title>タグとメタディスクリプションです。<title>タグは必ず必要なので厳密にはメタタグではありません。しかし、似かよっているため、メタタグに分類されています。

<title>タグは予想通りかもしれませんが、ページのタイトルを定義します。以下のようにページの<head>に表示されます。

<title>This is the Page Title</title>

検索エンジンは<title>タグをページのトピックを判断する糸口として利用します。実際に、検索エンジンはほかのオンページ要素以上に<title>タグに依存している様子なので、<title>タグは非常に重要です。<title>タグは以下の方法で最適化します。

  • キーワードを冒頭に入れる
  • キーワードはスペースを含めて50から60文字以内にする。65文字が上限と考えると良い
  • 人間向けにコンテンツを作成する。検索エンジンはユーザーにもっとも適したページを表示しようとするだけなので、タイトルを詰め込んだり、アルゴリズム向けに内容を作成しても意味はない
  • 1つのタグには基本、1つのキーワードを使う。非常に関連性の高いキーワードを使用する場合は2つでもかまわない。複数のキーワード、ブランド名、商号を使う場合、パイプ文字(|)をセパレータとして使う。ローカル検索に依存している場合、会社の場所、商号、産業区分を使う
  • 異なるタイトルを使う。ページがまったく同じということはないので、少なくとも理論上、タイトルはすべて異なるものが良い。タイトルが重複すると重複コンテンツになってしまい、検索順位に悪影響を与える

メタディスクリプションはページのコンテンツの概略を説明するものです。ユーザーに対し、ページを訪問したら得られる情報を伝えます。検索エンジンはメタタグをページ検索スニペット(SERPsに表示されるタイトル、URL、ディスクリプション)の一部として利用します。メタディスクリプションを最適化する場合は、必ず以下のようにします。

  • キーワードを組み込む。キーワードを使ったからといって検索順位の上位に入りやすくなるわけではないが、検索スニペットに太字のテキストが表示される。ユーザーはページが自分が検索している内容に関連しているかどうかを知るために、ページに関心を持つ
  • 正確なディスクリプションにする。ディスクリプションが不正確だとWebサイト訪問者はWebサイトを詳しく見ることなく、すぐにページから去ってしまう。つまり、Webサイトにとどまる時間が短くなり直帰率が高くなるため、Googleで良い検索結果は得られない
  • 魅力的なキーワードを使ってクリックスルー数を増やす。クリックスルー率(CTR)が良いと、検索エンジンはページがキーワードに関連していると判断し、検索順位が上がる

ページのコードでは、メタディスクリプションは以下のように表示されます。

<meta name="description” content=”A short description of your page, 150-160 characters long, including spaces. Use this opportunity to encourage click throughs.”/>

■ページのコンテンツ
ページのコンテンツはオンページ、オフページ(これ以外の要素もこのあとで出てきます)両方においてSEOのバックボーンです。ページのコンテンツを最適化する場合、もちろんキーワードも使用する必要がありますが、ページコンテンツはキーワード以上に重要です。ページコンテンツの作成には以下の原則を忘れないでください。

  • キーワードの一貫性:キーワードの使用が少なくなり、キーワード密度という考え方がなくなった。しかし、実際には、キーワードの使用頻度が少ないままでコンテンツを最適化すると良い結果にならず、ペナルティを課されることもある。したがって、トピックをそのまま書いてすべての階層のコンテンツ(タイトル、<H1>タグ、サブヘッド)で一貫したキーワードを使用する。人による閲覧を想定して自然言語を使うと、コンテンツの中のあらゆる場所でキーワードや関連した単語を何度も使いやすくなる。これこそ検索エンジンが真に求めているものだ
  • 高品質で独自のコンテンツパンダアップデートのあと、SEOの観点からコンテンツを繰り返し使うと罰を受ける。コピーまたは派生的なコンテンツを利用してもペナルティはないが、検索結果で上位に入れずWebサイト全体に悪影響を及ぼす。また、ユーザーへの高品質な体験の提供を重視する必要があるため、Webサイト公開前にスペルや語彙、文法、句読点をしっかりチェックする
  • 回答サイト:検索エンジンはユーザーの質問に答える、または問題を解決する長く詳細で信頼性のあるコンテンツを好む。コンテンツを作成する場合、コンテンツがカスタマーのどのような質問に対して回答しているのか、または質問に答えることでカスタマーがどのような問題を解決しやすくなるのかを自問自答する。このような方法でコンテンツにアプローチすると、ページをGoogleアンサーボックスに使われるという付加的なメリットがある(『注目度は桁違い!Googleアンサーボックスに表示されやすくする方法とは?』参照)

最新のコンテンツを作成する記事『オウンドメディア運営に絶対必要な「エバーグリーンコンテンツ」とは?』を参照して、コンテンツマーケティングを最大限活用してください。

■画像の最適化
検索エンジンは画像を「見られません」が、それでも、画像を使うとターゲットキーワードで検索された場合にページが上位に表示されやすくなります。画像はHTMLの代替的な属性(altタグまたはaltテキストと呼ばれることもある)を使って組み込みます。ページのコードを見ると、alt属性は以下のように表示されます。

<img src="example-image.jpg” alt=”Alt text describing the image”/>

alt属性は、ページコンテンツの一部である画像がキーワードと関連しているかの判断を助けます。また、画像がロードできない場合やスクリーン・リーダーが目の不自由な人の補助をする場合にも利用されます。alt属性をできるだけ具体的に記述し、どのような画像かを記載します。altテキストは文字カウントの対象にはなりませんが、およそ6文字以内におさめるよう努力します。alt属性を使うと、画像が画像検索結果で上位に入りやすくなり、トラフィックの取得元がまた1つ増やせます。

画像の最適化に関してもっと詳しく知りたい人は『ちょっとした工夫で検索流入をアップ!いますぐできる画像SEOのすべて』を参照してください。

リンク

ターゲットキーワードと関連してページやコンテンツを最適化できたので、次はリンクの説明に移ります。リンクは重要です。SEOの指標としてはおそらくもっとも重要です。基本的には、リンクはWebサイトの投票システムとしての役割を果たしています。リンクされるということは、リンクしたページがWebサイト閲覧者がチェックする価値が十分に備わっていると是認されたようなものです。これらの投票数がリンクジュースとして知られる小さな価値(リンク先のページの信頼度によっては大きな価値となることもある)を持つようになります。ページのリンク先が増えるのにしたがってリンクジュースも増加します。

How link juice is passed

リンクジュースのメリットは内部リンクを介してWebサイト内でリンクを広げていけるところです。たとえば、Webサイトのホームなどたくさんのリンクジュースを持つページにリンクを設定します。そして、たとえば、製品またはカテゴリページなどのカスタマーに本来見せたい重要なページへ誘導します。検索順位を上げるリンクの使い方についてもっと知りたい人は『まずい!検索に出ない…を避けるためにスタートダッシュで実践すべきSEOの基本』を参照してください。

では、SEOにとってどのような意味を持つでしょうか。意味するのは、高品質なリンクプロフィールを構築・維持することが、あらゆる検索の最適化活動の大部分を占めるということです。あらゆるリンク構築戦略には重要事項が3つあります。

  • コンテンツ:コンテンツの品質はリンクを得られるかどうかを決める、もっとも重要な要素。カスタマーがなにも得られないページにリンクを設定する人はいない。成功する可能性を高めるには、カスタマーがすでにリンクしていたり共有していたりするリンクを参考にする。BuzzsumoまたはAhrefsを使えば、リンクを呼び込むために人気のコンテンツを改善、拡大、デザイン変更できる
  • 積極的にリンクを構築:うわさに反してリンク構築はなくなっていない。リンクベイトコンテンツだけあれば放っておいてもリンクを稼げるという考え方は現実を反映していない。良いエディトリアルリンク(ページコンテンツの中に現れるリンク)を構築するには、適切なカスタマーに照準を合わせる。AuthorCrawlまたはBlogDashを使ってニッチ市場のもっとも人気のあるブログを見つけるか、または、Majesticを使って競合他社のリンクを探し、そのリンク構築手法を取り入れる
  • 個性を出す:リンク構築を自動化したいと思うかもしれないが、それは良い考えではない。カスタマーは受け取った文書が定型文書かどうか判断できるし、良かれと思って大量にメールを送ってもスパムフォルダに振り分けられるだけだ。そうではなくて、メールを自分の手で作成し、信用度を高めるために個人的な情報を添える。メッセージ作成に合う個人的な情報の概略やテンプレートを作成すれば作業を合理化できる

リンクを定期的かつ頻繁に審査するということでもあります。ペンギンアップデート 4.0がコアアルゴリズムに組み込まれたため、リンクプロファイルを最新の状態に保ち、必ず良いリンクを構築する必要があります。Googleは現在、良くないリンクの評価を下げていますので、良くないリンクを構築するのは時間の無駄です。Googleは手動リンクに対しては、現在もペナルティーを課しています。そのため、リンクプロファイルにスパムリンクがたくさんあると、悪い知らせが届くかもしれません。まだ立ち上げたばかりのWebサイトでリンクがそれほどないなら、ネガティブSEOの被害にあうリスクもあります。めったにないことですが、起こる可能性はあります。

リンク構築やリンク審査に関してもっと詳しく知りたい人は『Link Building for 2017 and Beyond』と『Your Guide to Conducting SEO Link Audits』を参照してください。

最後に

説明してきたように、ページを検索エンジン向けに最適化する現場ではいろいろなことが起きています。この記事では、検索順位を上げてオンラインのカスタマーを取り込むためにする必要のあることの一部を取り上げたにすぎません。しかし、記事のアドバイスに従えば、検索結果順位やトラフィックを素早く上げられます。次のレベルを考えている人は、リンクした記事を必ず読んでください。そうすれば、実際に検索結果でWebサイトのパフォーマンスを上げられます。

※本記事はWooRankのSEOシリーズの1つです。SitePointでの記事公開に協力してくれたパートナーへのサポートに感謝します。

(原文:SEO Bootcamp for Beginners

[翻訳:中村文也/編集:Livit

Web Professionalトップへ

WebProfessional 新着記事