内部SEOについては運営サイトのhtmlやxml,xhtml,cssに関する記述が主に対策の要になります。例えばユーザーからは見た目がほぼ全く同じ「就職」関連の1ページのみのペラサイトがあったとします。

1.htmlとcssで内部SEO対策したサイト

2.htmlとcssで単純に作られたサイト

3.たった1枚の画像で上記を表現したサイト

しかし「就職」で検索された場合の3サイトでの順位は、その他全てが同じ条件であれば1.2.3の順番になります。見た目はほぼ全く同じでも3は画像しかないわけで、画像上に何の文字が記載されているのかは検索ロボットには判断できません。サイトタイトル無しという条件であれば、そのサイトが「就職」関連のサイトという判断すら出来ないからです。

 

検索ロボットの動き

検索ロボットはインターネット上を各サイトのリンクを辿り、常に巡回しています。アクセス解析を取り入れていれば、いつどのロボットが自分の運営サイトに巡回してきたかなどもわかるようになります。検索ロボットはサイトにたどり着くと、htmlやxmlのタグを解析していき、そのサイトのタイトルや記事内の語句を調べてキーワードに対するサイト順位結果につながるポイントをプラスしたり、マイナスしたりしていきます。

 

順位をつけるポイント

検索エンジンのアルゴリズムはブラックボックスですが、ある時期の検索キーワード(IN)とサイトの検索順位結果(OUT)に対して、内部SEO対策を行い一定の期間がたった後に再度、検索結果を表示させれば、その順位の変動により、他のサイトが対策した、しない、検索エンジンののアルゴリズムの変化などにも左右されますが、ある程度は何が有効なプラスポイントで、何がマイナスポイントになるかは想定することが出来ます。

この検証の期間と規模を大きくすればするほど精度が上がり、有効な手段を特定できるといえます

 

アルゴリズムの想定

1つの例を上げると、「ダイエット」のキーワードで検索された結果、ダイエット関連で有益なのサイトを上位表示させるためには上位サイトのタイトルやホームページ内に「ダイエット」が入ってないと、とても「ダイエット」のサイトとは判断できません。検索エンジンのアルゴリズムが未熟な時代は例えば「ダイエット×1000個」など同じ語句がずっと続いているようなサイトやページでも上位表示されることがあったと思われます。

ユーザーに不利益や意味をなさないサイトやページを検索結果上位に表示しないのが検索エンジンのアルゴリズムの役目ですので、こういったスパム的なサイトは排除されていきます。自然に有益な情報を記載した場合に、文章○○文字中、何%くらいキーワード「ダイエット」が入っているのが自然かを検索エンジンのアルゴリズムが判断してそのサイトやそのページに順位付けするポイントをつけていくのです。

その他にも

     

  • 昔から運営されているサイトは歴史がある
  •  →ドメインの取得時期(中古ドメインが売買される理由の1つ)
     

  • 更新される回数が多い
  •  →最新の情報が記載されている。よくメンテナンスされているサイト

なども内部SEOのポイントとなると言われています。

こちらの記事もどうぞ!



ワードプレスでブログを作ってアフィリエイトするときの鉄板レンタルサーバーといえばエックスサーバーです。

⇒ おすすめのレンタルサーバー比較