Googleがユーザーの利便性を考えることがベストだとする理由を考える

・独自のコンテンツが必要な理由は、内容が薄いページには、○○○を□□□くれないから。

・ソーシャルが重要な理由は、ユーザーが拡散して増えてくれないと○○○を□□□くれる数が増えないから。

・関連性の高いコンテンツに評価されなければいけない理由は、流入してくるユーザーが○○○を□□□くれる確率が高くならないから。

・重複コンテンツがダメな理由は、○○○を□□□くれる数が分散してしまい、ページの評価が低くなるから。

・各ブラウザできちんと表示されるかどうか確認しなければいけない理由は、デザインが崩れたページに対して○○○を□□□くれないから。

・ABテストをしなければいけない理由は、わかりやすいコンテンツや配置によって、直帰率や滞在時間が改善され、ユーザーが迷子になることなく○○○を□□□くれるから。

・広告が多すぎてはダメな理由は、広告をうざいと思い○○○を□□□くれないから。

・タイトルタグやaltにキーワードを入力する必要があるのは、○○○を□□□もらう時に評価を最大限にできるから。

・無効なリンクがないかどうか確認しなければいけない理由は、リンク切れのサイトに対して、安心して○○○を□□□くれないから。

・Googleがユーザーの利便性を高めることを常に推奨する理由は○○○を□□□くれるのはユーザーだから

 

○○○…リンク
□□□…張って

※ナチュラルリンクが必須となることですが、「リンクを張る」を強調しすぎると、そればかり意識してしまうユーザーが増えてしまうため、順位に影響を与える大きな基準ではありますが、あえて記載していないのではと考えました。

 

Ahrefs Site Explorer の無料版を使ってみました。

ahref
フルスピード「Ahrefs Site Explorer」を国内発売というニュースを見て、久しぶりにAhrefsを使ってみることにしました。OSEメインで使っていたので、あんまり他のツールを使うことはないだろうと思っていましたが、かなり高機能でびっくりしました。
こんなに多機能でしたっけ。数兆のウェブサイト情報を保有しており、1日10億ページをクロールするとのこと。デイリーの被リンク増減情報などやソーシャル解析などが非常に便利ですね。
ただ、有料でも100~500レポートまでとSEO担当としては物足りなさを感じてしまいます。あっと言う間にMAXまで使ってしまいそうです。しばらく無料で使ってみたいと思います。

ahrefs
https://ja.ahrefs.com/

素晴らしいエクセル用SEOツール

タイトルタグやディスクリプションタグといった内部テキストから、ページランクや被リンク数の外部状況、さらにソーシャルデータなど、ありとあらゆるデータをエクセルで簡単に抽出できるSEOツールです。海外の方が作成したものですので、一部google.comが指標となっているものや、英語圏のみで有効なものなどがありますが、単純な関数だけでも便利なので、ちょこちょこと自分好みのデータシートを作ってみようかと思います。

一気に膨大な量のデータを抽出しようとすると、かなり時間がかかることがありますので注意が必要です。

解凍後、エクセルを立ち上げ、seotools.xllを起動させるとエクセルにseotoolタブが出現します。また、ダウンロード後のフォルダにcookbookというものがありますが、これはすでにテンプレートを用意してくれているいくつかのファイルですので、URLを入れるだけで簡単に利用できるエクセルもあります。いろいろと便利な使い方を探してみてください。
ちなみに画像の関数ですが、2行目は以下のような形です。

A2:http://blog.mf-seo.com/archives/9461
B2:=HtmlTitle(A2)
C2:=FacebookLikes(A2)
D2:=GooglePlusCount(A2)
E2:=TwitterCount(A2)

アイコン画像をクリックして抽出したい情報をクリックしてください。URLなどの必要情報を入力すればデータが抽出されます。

ダウンロードはこちらから
Download SeoTools for Excel!
http://nielsbosma.se/projects/seotools/download/

日本語ドメインSEOのメリットとデメリット

日本語ドメインとは、

  • http://日本語ドメイン.com/
  • http://病院.com/
  • http://おにぎり.com/

のようなドメインのことです。Punycode表記では下記のような形となります。

  • http://xn--eckwd4c7c5976acvb2w6i.com/
  • http://xn--0rys90e.com/
  • http://xn--t8ji0guf.com/

一時期SEOに効果が高いと言われておりましたが、最近はあまり聞かなくなったような気がします。ですが、アフィリエイトキーワードなどで、ずらずらっと独占させているような例を見かけることがあります。日本語ドメインのメリットとデメリットを挙げてみたいと思います。

 
【メリット】
1.アドレスバーに直接日本語を打ち込んでアクセスできる
2.お客様や取引先に覚えてもらいやすい
3.ドメインを見ただけでどういう内容のサイトかわかる
4.検索結果のインパクトが大きいのでクリック率が高い

 

【デメリット】
1.Punycode表記ではわかりずらいので管理がしずらい
2.Punycode表記では余計にURLが長くなってしまう
3.スパムサイトと勘違いされてしまう(SEOに携わる人だけ?)
4.リンクを張ってもらいにくい

 
SEOに影響がある部分を赤字にしています。メリットとしては、検索結果での日本語表示でしょうか。今では当たり前のようになっておりますが、はじめのインパクトは強烈でした。クリック率にもやはり大きな影響がありました。直接的な検索順位に関しましては、個人的に感じる印象としてはあまりメリットはない、です。マイナスになることはありません。ドメイン名とサイト名がマッチしているので、プラスの効果は期待できると思いますが、以前と比べるとそこまで差は感じません。

先日重複コンテンツの情報を集めていたのですが、いろいろな情報を集めている中でリンクタグを作りづらいサイト様がありました。それは、日本語ドメイン&日本語フォルダ名・ファイル名で運営している方の記事です。URLが非常に長くなってしまい、視覚でチェックすることができませんので、URLをまとめたあとに再度直接アクセスして確認しなければならないということで、リンクを張る側からすると、非常に手間のかかる作業だと思いました。URLを多くまとめていたので、余計にそう感じたのかもしれません。通常はそんなに多くのリンクを掲載することは少ないかと思いますので、特に問題はないかもしれません。

被リンクを獲得するということは、SEOで一番重要な部分であると思います。そして、リンクを張る方は、昨日はじめてホームページを作った人から何年もサイト運営をしている人まで様々です。少しでもリンクを張ってもらいやすい工夫をすることは重要ではないかと思いました。コピーして貼り付けしてください。といったような形でリンクタグを用意しているようなページを見ることがありますが、そういった方法で改善できるのかもしれません。

 

301リダイレクトで評価が移らない原因

301リダイレクトで引っ越ししたけれど、評価が移らないケースがあります。ペナルティ解除を目的としたリダイレクトではないけれど、移転前と同等の評価を受けるのに時間がかかってしまったり、評価が一切されていないという場合です。そのようなサイトを調べてみると、以下のような2つのパターンに分かれる傾向にありました。
 
【被リンクの獲得が話題型】

一時期話題になったけれども、もうすでに古い情報になっていたり、今はすでに被リンクを受けにくくなっているコンテンツ。上位化させることは、ユーザーにとって有益ではない為、評価を引き継ぐには、移転後継続した被リンクを獲得する必要があるのかもしれません。
 
 
 
【被リンクの獲得が不変型】

一時的に話題を集めるようなコンテンツではない為、移転後も継続した被リンクを獲得しているようなページ。継続して被リンクを集めているということは、今もユーザーに有益なコンテンツである為、評価を引き継ぐ可能性がある。
 
今まで301リダイレクトをした経験はせいぜい数十サイト程度です。少ないデータでの傾向ですので、あてにならない可能性はありますが、一つの参考として認識して頂ければと思います。
 

重複コンテンツ厳選63記事まとめ

【Google公式 重複するコンテンツについて】

1.重複するコンテンツ

http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=66359

2.クロスドメイン URL の選択 – 複数のドメイン間の重複コンテンツの正規化について
http://googlewebmastercentral-ja.blogspot.jp/2011/11/url.html

3.URL パラメータ
http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=1235687

4.正規化
http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=139066

5.rel=”canonical” 属性について
http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=139394

6.301 リダイレクト
http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=93633

7.多言語ウェブサイトの作成について
http://googlewebmastercentral-ja.blogspot.jp/2011/11/blog-post.html

8.rel=”alternate” hreflang=”x” について
http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=189077

 

【重複コンテンツ対策全般】

9.パンダ・アップデート後の重複コンテンツを知る – 重複コンテンツ対策完全ガイド #1
http://web-tan.forum.impressrd.jp/e/2012/01/30/12025

10.重複コンテンツ問題を解決する12の手段 – 重複コンテンツ対策完全ガイド #2
http://web-tan.forum.impressrd.jp/e/2012/02/06/12026

11.重複コンテンツが発生してしまう19の具体的なパターン – 重複コンテンツ対策完全ガイド #3
http://web-tan.forum.impressrd.jp/e/2012/02/13/12027

12.URL正規化のポイントと重複を診断する4つのツール- 重複コンテンツ対策完全ガイド #4
http://web-tan.forum.impressrd.jp/e/2012/02/20/12028

13.Google、重複コンテンツ(コピペサイト)の対処方法について解説
http://www.sem-r.com/seo/20080616131002.html

14.「重複コンテンツ例とその解決ポイント」解決策は、SEOの知識に「ユーザーへの訴求・心遣い」を融合させて生まれるものがある
http://whitebear-seo.com/seodirector-blog/google/naibutaisaku/copy-content/

15.複製コンテンツ(Duplicate Content)問題丸わかり絵解きガイド
http://web-tan.forum.impressrd.jp/e/2007/04/19/1215

 

【事例&応用】

16.バーバリーのUSサイトがインデックスから消滅、原因は重複コンテンツ 2012年04月06日
http://www.suzukikenichi.com/blog/berburry-us-deindexed-due-to-dupulicate-content/

17.重複コンテンツペナルティを解除した事例のご紹介
http://seo.muraweb.net/blog/seo/%E9%87%8D%E8%A4%87%E3%82%B3%E3%83%B3%E3%83%86%E3%83%B3%E3%83%84%E3%83%9A%E3%83%8A%E3%83%AB%E3%83%86%E3%82%A3%E3%82%92%E8%A7%A3%E9%99%A4%E3%81%97%E3%81%9F%E4%BA%8B%E4%BE%8B%E7%B4%B9%E4%BB%8B/

18.寄稿記事(全文転載)を行う時のベストプラクティス(SEO観点)
http://www.sem-r.com/news-2013/20130111132836.html

19.A/Bスプリットテストはクローキングや重複コンテンツになるのか? 2012年08月10日
http://www.suzukikenichi.com/blog/how-to-run-ab-testting-correctly/

20.ネットショップでオリジナルコンテンツを増やして重複コンテンツを減らす方法 2012年01月16日
http://www.suzukikenichi.com/blog/how-to-make-original-content-and-reduce-duplicate-content-on-ecommerce-sites/

21.ネットショップ運営者が気をつけるべき重複コンテンツ問題 2009年05月28日
http://www.suzukikenichi.com/blog/e-commerce-sites-should-avoid-duplicate-content/

22.地域別の重複ページを差別化する7つのコンテンツ
http://lblevery.com/blog/blog/2012/07/17/differentiation-7contents/

23.Google: 重複コンテンツはrobots.txtでブロックしてはいけない 2009年10月08日
http://www.suzukikenichi.com/blog/google-tells-you-not-to-block-dupulicate-content-via-robots-txt/

24.パンダアップデートをすり抜けた重複コンテンツのサイトの特徴
http://gomiseo.blog.shinobi.jp/google%E3%81%AEseo%E5%AF%BE%E7%AD%96/%E3%83%91%E3%83%B3%E3%83%80%E3%82%A2%E3%83%83%E3%83%97%E3%83%87%E3%83%BC%E3%83%88%E3%82%92%E3%81%99%E3%82%8A%E6%8A%9C%E3%81%91%E3%81%9F%E9%87%8D%E8%A4%87%E3%82%B3%E3%83%B3%E3%83%86%E3%83%B3%E3%83%84%E3%81%AE%E3%82%B5%E3%82%A4%E3%83%88%E3%81%AE%E7%89%B9%E5%BE%B4

25.Googleが重複コンテンツを見破るアルゴリズムとは?
http://www.seojapan.com/blog/google%E3%81%8C%E9%87%8D%E8%A4%87%E3%82%B3%E3%83%B3%E3%83%86%E3%83%B3%E3%83%84%E3%82%92%E8%A6%8B%E7%A0%B4%E3%82%8B%E3%82%A2%E3%83%AB%E3%82%B4%E3%83%AA%E3%82%BA%E3%83%A0%E3%81%A8%E3%81%AF%EF%BC%9F

 

【多言語コンテンツ】

26.グーグル、「rel=alternate hreflang=x」サポートを拡張、多言語サイトを適切にインデックス可能に
http://www.sem-r.com/seo/20111220185440.html

27.Googleの多言語マークアップでグローバルSEOに勝つ方法
http://www.seojapan.com/blog/global-seo-markup-by-google

28.ccTLDと重複コンテンツの関係について、グーグルとヤフーから新情報
http://web-tan.forum.impressrd.jp/e/2009/04/20/5404

29.翻訳記事を公開すると重複コンテンツになるのか 2011年12月22日
http://www.suzukikenichi.com/blog/does-translated-content-cause-a-duplicate-content-issue/

 

【rel=”canonical”】

30.link rel=”canonical”によるURL正規化タグ–SEOにとって非常に重要な進歩(前編)
http://web-tan.forum.impressrd.jp/e/2009/03/05/5112

31.link rel=”canonical”によるURL正規化タグ–SEOにとって非常に重要な進歩(後編)
http://web-tan.forum.impressrd.jp/e/2009/03/06/5113

32.link rel=”canonical”(カノニカルタグ)の使い方
http://whitehatseo.jp/%E3%82%AB%E3%83%8E%E3%83%8B%E3%82%AB%E3%83%AB%E3%82%BF%E3%82%B0%E3%82%92%E4%BD%BF%E3%81%A3%E3%81%A6url%E3%82%92%E6%AD%A3%E8%A6%8F%E5%8C%96%E3%81%95%E3%81%9B%E3%82%8B%E6%96%B9%E6%B3%95/

33.rel=”canonical”の正規化で、重複コンテンツを撃退 2009年02月16日
http://www.suzukikenichi.com/blog/rel-canonical-resolves-duplicate-content/

34.canonicalタグを設定しているのに重複コンテンツとして認識される。
http://productforums.google.com/forum/#!msg/webmaster-ja/W6NiA8eZYwU/vAbA7cxR_QIJ

35.canonicalタグはソーシャルボタンの挙動にも影響する
http://holy-seo.net/blog/seo/canonical-social-button-behavior-influence/

36.記事の7割をコピーしたページに対しGoogleに著作権侵害申立てしたらインデックス削除してくれた
http://www.jweb-seo.com/blog/wordpress/2013/01/28/4323

 

【実験】

37.canonical属性にまつわる6つの興味深いテスト

http://www.7korobi8oki.com/mt/archives/2011/06/canonical6.html

38.canonicalが受け渡す情報についての実験結果
http://www.seo-matome.jp/blog/algorithm/canonical-effect/

39.canonicalタグの恐ろしさを改めて知る
http://lblevery.com/blog/blog/2011/10/06/canonical-fear/

40.WordPressサイト内で起こる重複ページをGoogleはどう処理するのか実験
http://www.jweb-seo.com/blog/wordpress/2012/03/26/3118

41.WordPressブログの自然発生的な重複コンテンツ実験2
http://www.jweb-seo.com/blog/wordpress/2012/03/28/3136

42.重複コンテンツ(コピーページ)をGoogleはどのように処理するのか
http://www.jweb-seo.com/blog/wordpress/2011/09/20/2089

43.重複コンテンツ(コピーページ)実験の途中経過
http://www.jweb-seo.com/blog/wordpress/2011/09/28/2171

44.重複コンテンツ実験の続き~記事にリンクを張ってみる編~
http://www.jweb-seo.com/blog/wordpress/2011/10/05/2207

45.重複コンテンツ実験~リンク後の経過報告~
http://www.jweb-seo.com/blog/wordpress/2011/10/21/2307

 

【ツール&サービス】

46.コピペチェックツール「影武者」を使ってみた

http://www.seotemplate.biz/blog/seo-tool/10938/

47.重複コンテンツ改善支援サービス
http://xn--seo-kc4b382n.com/%E3%82%B5%E3%83%BC%E3%83%93%E3%82%B9%E4%B8%80%E8%A6%A7/%E9%87%8D%E8%A4%87%E3%82%B3%E3%83%B3%E3%83%86%E3%83%B3%E3%83%84%E6%94%B9%E5%96%84%E6%94%AF%E6%8F%B4%E3%82%B5%E3%83%BC%E3%83%93%E3%82%B9/

48.新しい年を迎える前に、やっておくべきブログの大掃除
http://www.wakatta-blog.com/tag-zenback-pagenation.html

 

【www、index.htmlの有り無し統一】

49.URLの正規化ってどうすればいいんですか?
http://girls-seo.com/seo/url-normalization

50.301リダイレクトを使った「WWWあり」と「WWWなし」の統一
http://www.suzukikenichi.com/blog/integrating-www-and-non-www-by-301-redirect/

51.楽:技林ブログ
http://tech.bayashi.jp/archives/entry/techweb/2007/001981.html

52..htaccess ファイルを簡単作成「.htaccess Editor」
http://www.htaccesseditor.com/

53.www有りと無しが検索結果に表示され、何故かトップページはインデックスされません。
http://productforums.google.com/forum/#!category-topic/webmaster-ja/%E3%82%AF%E3%83%AD%E3%83%BC%E3%83%AB%E3%82%A4%E3%83%B3%E3%83%87%E3%83%83%E3%82%AF%E3%82%B9%E3%83%A9%E3%83%B3%E3%82%AF%E4%BB%98%E3%81%91/oZxDmZ8ZHpc

 

【モバイル】

54.図解でわかる、デスクトップPC・スマートフォン・フィーチャーフォンの三つ巴ページ切り替え設定
http://www.seo-matome.jp/blog/mobile-smartphone/raptop-smartphone-featurephone/

55.モバイル向けサイトでクローキングと重複コンテンツを防ぐには 2011年01月19日
http://www.suzukikenichi.com/blog/how-to-avoid-cloaking-and-duplicate-content-for-mobile-seo/

56..htaccessでPC,モバイル,スマートフォンサイトの振り分け
http://lab.gpol.co.jp/tsubo/2011/11/htaccesspc.php

57.Smart QR
http://qr.quel.jp/form_smartlink.php

 

【Google発表】

58.クロスドメイン(ドメイン間)の重複コンテンツ発生をGoogleウェブマスターツールが通知
http://www.suzukikenichi.com/blog/cross-domain-url-selection/

59.クロスドメインURLの重複コンテンツ検出メッセージがウェブマスターツールに届いた
http://www.suzukikenichi.com/blog/cross-domain-url-selection-messages-in-webmaster-tools/

60.Googleウェブマスターツールで、重複コンテンツをチェック
http://www.suzukikenichi.com/blog/looking-into-duplicate-content-with-google-webmaster-tools/

61.大規模サイトの更新をGoogleに伝える方法と重複コンテンツを減らす方法
http://whitebear-seo.com/seo-info/google/large-scale-site-and-duplicate-content/

62.重複コンテンツはペナルティにはならない – グーグルが再説明
http://www.suzukikenichi.com/blog/google-says-duplicate-content-is-not-penalty/

63.矛盾するGoogleのヘルプ:重複コンテンツをrobots.txtでブロックするのはOK?、NG?
http://www.suzukikenichi.com/blog/whether-or-not-to-block-duplicate-content-by-robots-txt/

【4コマ】AR彼女

4コマシリーズ、第何弾か忘れました。google Glassのすばらしい報道を見た彼は、AR(拡張現実)に非常に興味を持ったようです。

4koma-5

パンダアップデートの真意を考える

サイト内に低品質なページが存在する場合、ランキングに影響を与えることがあります。低品質なウェブページとはどのようなページなのか、Googleウェブマスター向け公式ブログの記事で具体的な例が挙げられています。
http://googlewebmastercentral-ja.blogspot.jp/2012/09/more-guidance-on-building-high-quality.html

パンダアップデートは低品質なページの順位を下げるアルゴリズムです。むやみに記事を増やし、インデックス数を増やすことを目的とした場合に、サイト自体の評価が下がるということです。但し、ロボットがどういった基準で低品質であるということができるのでしょうか。項目の中には下記のような一文があります。

あなたはこの記事に書かれている情報を信頼するか?

もちろんこのようなアルゴリズムを作ることは非常に難しいです。なぜなら、信用するという人もいれば、信用しないという人もいるからです。記事の内容を見ただけでは、ロボットには判断することはできません。

以前googleの内部文書が流出しました。人間が品質をチェックするというマニュアルです。一部の人が言いました、Googleの検索エンジンは最終的に人間の目で見られているからどうしようもない。そんなはずはないと思います。日々新しいキーワードが生まれている中、一つ一つのキーワードを目でチェックして品質管理をするという方法は非常に危険です。

世界中に多くの人間が必要となり、その人間に対して絶大な信用が必要となり、今SEOスパムを排除することができたとしても、将来的拡大していくと予想できるウェブサイトを評価する上で危険とコストだけが増大することになるからです。人間の品質管理が行われていたとしても、あくまで新しいアルゴリズムが適切であったか、そうでなかったかの判断に使われる程度で、実際の検索アルゴリズムには導入されていることはないと予想しております。

では、何を基準として低品質だというのでしょうか。被リンクに関する情報を基準としていると判断するのが一番妥当な線ではないでしょうか。もちろんリンクといってもスパムフィルタはあると思いますので、ナチュラルなリンクで、どのようなリンクが、どのようなタイミングで、どのぐらい継続して得られているか。こういったことを指標とすれば、ロボットにも低品質かそうでないかを判断することができそうです。

ここで疑問があります。冒頭の文章です。『サイト内に低品質なページが存在する場合、ランキングに影響を与えることがあります』低品質なページを、被リンクが得られないページと仮定した時に、問い合わせページや、会社概要ページは、低品質となるのかどうかという点です。もちろん、/contact、/company のようなURLには、通常被リンクが得られないことは予想できます。ですが、1.html、2.htmlのような構造をしていて、1.htmlが問い合わせフォームである可能性も十分に考えられます。

わかりやすい事例で説明しましたが、その他にもコンテンツとして必要であるけれども、リンクをもらうことができにくいページというものは存在すると思います。であるなら、それは不完全である可能性が高いということになります。必要であるけれどリンクをもらいにくいページを排除する必要が出てくることになります。ですので、考えられることとして、低品質なページは、多すぎなければ特に影響を受けることはない、ということであれば、納得できるのではないでしょうか。

サイト内に低品質なページがあれば影響を受ける。ここでもう一つの疑問が出てきます。それは、何を基準にサイトと判断しているのかという点です。ドメインということを基準としているのであれば、例えばライブドアブログの場合、blog.livedoor.jp/exampleというURLとblog.livedoor.jp/example2というURLの運営者は同じになってしまいます。サブドメイン形式であれば、また異なる結果となる可能性がありますが、このようにフォルダ区切りで運営者が異なるケースも存在します。

サイトのトップページというのは、URLで判断することはできません。先ほどのレンタルブログのケースでなくとも、/topというページがトップページとなっているサイトも存在します。YSTの場合、サイトを判断してサイト自体に評価を与えるという印象がありましたが、Googleはサイトという一括りですべてを考えているのではなくて、個々のウェブページに対して、評価を与えています。ですので、低品質なウェブページに対してリンクを張る行為が、サイト内外含めて、悪い影響を及ぼす可能性があると判断できるのではないでしょうか。

ライブドアブログの一部の運営者がスパムを行ってペナルティを受けた場合、それはすべての運営者に影響を及ぼすでしょうか。答えは受けないです。であるならば、本サイトとサブサイトを同一ドメインで独立したサイトとして発信するとします。運営者が同一であるかという判断はできない可能性があります。サブサイトで新しいコンテンツを追加し、もし、被リンクを多く獲得できたなら、本サイトと合体させ、被リンクを獲得することができなければ、本サイトと合体しないというような運営方法をすれば、質の高いコンテンツのみを集めることができるということになり、サイトの質は高くなる一方であると言えます。そんなことをしなくても、被リンクを獲得できないコンテンツは修正して充実させればよいということですが、スパム的な利用方法も考えられるということを意味しています。

そしてGoogleが開始したこと、それはウェブサイトの構造化です。サイト作成者やサイトコンテンツの情報を詳しくマークアップしてもらおうという動きです。もし、これがウェブマスターの間で大きく普及することができれば、サイトという括りを明確にすることができます。サブドメインでもフォルダ区切りであっても、異なる運営者か同一の運営者かどうかを知ることができます。重複コンテンツの問題も少なくなる可能性があります。さらに評価すべきコンテンツはどの部分であるのかを明確にすることができるかもしれません。今後の内部対策において、重要な位置を占めることになる可能性があります。

パンダアップデートの話題とは大きく反れてしまいましたが、何を言いたかったかというと、パンダアップデートによってSEOスパムの入口を塞ぎ、サイト構造化によって、SEOスパムの出口を塞いだ印象を受けました。

タイトルタグ最適化でアクセスアップする手順

タイトルタグ変更はSEOに影響を与えることがある、と言われることがあります。注意しなければならないケースを除き、タイトルタグを変更することは可能です。また合わせてウェブページ内を変更することも可能です。ですが、できるだけサイト開設時にバシっと一発で決めておくことをオススメ致します。

タイトルタグを作るコツはこちら

要注意の場合ですが、上位化されたばかりの時期には、あまり変更すべきではありません。ここで変更することによってなぜ影響を与えるのかと言うと、SEOスパムでよく行う手口と似るからだと予想します。上位化しやすいサイトでSEOを行い、上位化した後にコンバージョン最適化したサイトをアップするということは多く行われています。ただし、自分の今までの経験では、そういった挙動を行った場合、すぐに順位を落としてしまうケースがほとんどです。そういった動きと間違われてしまう可能性がありますので、上位化後に大幅な変更を行うことに良い影響を与えることは少ないです。

ただし、ウェブページは、タイトルタグも含めて常に改善を行っていかかないといけません。ですので、クリック率が悪ければ、ユーザーがクリックしやすい文言に変更することも必要ですし、直帰率が高いようであれば、コンテンツの拡充が必要となるケースがあります。今回は検索エンジンからの流入キーワードによって、タイトルタグを改善する方法をご説明します。

ウェブマスターツールをご利用の方であれば、すでにご存じの方もいるかと思いますが、ダッシュボードにあるトラフィック→検索クエリから、どのような検索ワードでウェブページに訪れている人がいるのかというデータを見ることができます。まず、上位のページを見てみることにします。表示回数順にウェブページのURLが並んでいます。修正する優先順位の基準として、表示回数の多いものから見ていくようにしましょう。表示回数が多いということは、改善した時の影響が大きいということになります。

ここで見るべき数字は平均掲載順位も考慮しながら考えることになりますが、CTR(クリック率)です。他の数字と比較して低いようであれば、まだまだ改善することができるということです。改善する為には必要な情報があります。そのURLがどういったキーワードでアクセスされているかということです。それは、URLをクリックすることで見ることができます。いくつかキーワードが出てきたと思いますが、ユーザーはこういったキーワードでアクセスしているということがわかります。キーワードを見渡した時のユーザーの目的は、今のタイトルタグによって解決できる情報でしょうか。そうでないならば、適切なタイトルタグに変更するようにしましょう。

また、データは期間を設定して表示することができるので、変更前のクリック率を記録しておいて、変更後改善されているのかいないのかを見ながら、修正していくようにしましょう。上位20ページ変更するだけでも、大幅な改善ができます。

【4コマ】慣れ

問い合わせフォームは押せそうなボタンを作るようにと日頃からデザイナーには打診しております。ユーザーがこういった行動をしてくれるようなボタンを作ることができればいいですね。