SNS、ブログ連携コンテンツによる重複の問題

ツイッター、フェイスブック、mixi、google+など、ソーシャルメディアの普及によって、複数のSNSアカウントを所有している個人や企業が増えています。数が増えると管理が大変ですが、しっかり作りこまないとうまくいかないのでやっかいです。

あまり手間をかけたくないけど、SNSのアカウントは更新していきたいという場合には、コンテンツを連携させる方法があります。例えば、フェイスブックで投稿した内容を自動でツイッターにも投稿するという方法です。これで1投稿ですべてのSNSを更新することができます。

ただし、SEO的な視点で考えると、重複の問題が出てきます。ツイッターだからだとか、公式の機能だから、などは関係ありません。検索エンジンから見ると、類似したコンテンツとなる可能性があります。ライブドアブログに投稿したら、FC2ブログにも同時に投稿されるのと同じです。

twitterは入力できる文字数が少ないのでタイムセール用、フェイスブックは画像が見やすいので新製品告知用など、SNSの特徴を理解した上で、目的別に分けて作成することが必要です。

但し、あくまでSEOを考えたケースですので、検索経由のアクセスを求めていない場合は全然問題ありません。

ペンギンアップデート 2.1実施、順位変動するサイトの傾向

本日キーワードの全体的な順位変動を確認しまして、情報を探しているとどうやらペンギンアップデートだということです。

米Google、ペンギンアップデート 2.1 を週末実施
http://www.sem-r.com/news-2013/20131005062544.html

ペンギンアップデートは外部リンクに対して、ペナルティを与えるアルゴリズムです。今回は全体の1%に影響を与えるそうです。

ペンギンアップデートの対象となったサイトは順位を落としていますが、その影響もあって順位が上昇するサイトも多くありました。順位を大きく落としてしまったサイトの外部リンクを見ると、以下のような傾向が感じられましたので共有させて頂きます。

・yomi-searh
・自動相互リンク
・コメント&トラックバックスパム
・掲示板リンク

これらのリンクがすべて悪いという訳ではなく、一定の質を保ったページでないと、評価を与えることができないという印象です。ですので新規ドメインのサイトなどはあまり影響を受けていないかもしれません。

オリジナルのテキストやコンテンツがない自動生成系のページからのリンクは、今後評価を与えることができないようになっていく可能性が高いです。

過去に対策している施策でも、現在にまで影響を与えることがあるようです。今回順位保っていたとしても、ペンギンアップデートは次々と更新されていきますので、今のうちに外せるリンクは外しておいた方がいいかもしれません。

記事中にある内部リンクの使い方に注意

文章の中でさりげなく補足される内部リンクはよく使われます。例えば以下のような例です。

日本の検索エンジンはグーグルヤフーで大半のシェアを確保しています。それ以外にもこういう検索エンジンもあります。9月27日に書いた記事でも紹介した通り、グーグルのアルゴリズム「ハミングバード」によって検索エンジンがさらに進化したそうです。

難しい用語であったり、過去の記事と連動した内容であったり、いろんな理由があって記事中にリンクが張られることがあります。ユーザーが意図している内容を表示させることができれば問題はありませんが、異なるリンク先を設定してしまっているサイトを度々見かけます。

上記の例で説明すると、まずグーグルとヤフーにわざわざリンクを設定する意味がありませんね。ここまで知名度が高い検索エンジンをわざわざリンクしてクリックするユーザーはかなり少ないと考えられます。

次に“こういう”に貼られたリンクですが、これは飛び先はbingです。クリックしないとリンク先のコンテンツがわからないので、当然クリックする人は少ないですね。場合によっては、クイズっぽくあえてわからないようにする場合もあるのかもしれませんが、それ以外ではクリック率は低いでしょう。

次に過去記事へのリンクですが、今回の記事とあんまり関連性がないです。記事内リンクはあくまで補足的な役割、でなければ記事の内容から脱線してしまい、ユーザーが離脱する可能性があります。

次にハミングバード、これはひどいケースですが、意味違いの説明へのリンク。クリックしてもユーザーにメリットがありません。日本語の意味がわかる程度でしょうか。記事とは一切関係ないリンク先です。

今回紹介したリンク以外にもユーザーの使い勝手が悪いと感じる記事内リンクは多いと思います。色が通常のテキストと同一でわかりにくいというケースもありますね。また個人的には記事内リンクはTARGET=”_BLANK”を使った方が元記事へ戻りやすいので好きなのですが、インターネット倫理の基本原則で訪問者がリンクを決めるというのがあるそうで、ctrlを押してクリックしようというのを聞いたことがあります。ですが、一般ユーザーがそんなことを知るはずもなく、ユーザーが使いやすいと思う使い方をすればいいんだと思います。

wikipediaは、コンテンツが用語集なので、記事内リンクの飛び先が用語解説ページだということが簡単にわかります。ですが、ユーザーが飛び先を簡単に理解できるリンクの貼り方は意外に難しく、意識できていないものです。

ECサイトの商品ページを上位化させるには

ECサイトの商品詳細ページに対する評価はかなり低いと言えます。書籍名+通販などで検索してみると、アマゾンや一部のサイト以外は、低品質なブログにすら負けていることがあります。記事数が1-3ページ程度の数時間で作ったようなアフィリエイトブログにです。

なぜこういうことになってしまうかというと、テキストが公式の商品説明と同一で、重複コンテンツとなっているからです。オリジナルは公式のテキストだと判断し、それ以外のコンテンツの評価が下げられているからです。

通販ショップの運営者の方は、そういった現状を把握されている方も多いです。現状は商品数が多くて対応することができないという状況です。ただし、重複と判断されて評価が低い場合に、オリジナルコンテンツを作成する以外に解決する道はありません。逆に言えば、あまり対応できていないサイトが多いからこそ、上位表示が簡単ということも言えます。

ECサイトの場合、運営者側でコンテンツを用意するのは非常に困難です。例えばDVDショップの場合、すべての作品を見ることはできないからです。そういった状態でコンテンツを作成したとしても、せいぜいリライトで、誤りの情報を載せてしまうと信用を失うリスクもあります。

上位化を達成しているサイトには共通点があります。それは口コミ(レビュー)機能です。口コミであれば、より多くの商品にも対応することができ、運営者が見えていなかった部分もテキスト情報として掲載することができるからです。色やサイズなど、製品情報として差別化しずらい部分でも、レビューであれば独自性のあるテキストが可能となるかもしれません。「画像で見るよりも色が鮮やかだった」「リンク先のテレビと同じサイズのテレビ台なのでセットで買うとオススメ」などです。

レビュー機能にも一つ問題があります。中小のECサイトで商品数が多い場合、そもそも購入者が少ない為、購入したユーザーでなおかつレビューをしてくれるユーザーとなると、かなり限られた数になってしまいます。

質という点では低いものとなってしまいますが、対応策として、購入前レビュー、購入後レビューという2つを用意して、購入していない人にもレビューを書いてもらう方法も考えられます。購入前と購入後、合わせて書いてもらうことでポイントなどを多く付与するという特典があれば、ユーザーにとってもメリットのあるモチベーションとなります。

特に力を入れているサイトは、口コミランキングなどのコンテンツもあり、より参考になった口コミに対してポイントを付与するということも行っています。レビューは、コンバージョンを高める役割もあり、検索エンジンで上位化することもできます。

Google最大級の検索アルゴリズム、Hummingbird(ハミングバード)

Googleが新しいアルゴリズム(Hummingbird)を導入していたそうです。アクセス解析などを見返してみても、あまり大きな変化があったような様子はありませんが、このアルゴリズムはどうやら会話型検索に影響を与えるものだそうです。音声検索のことかと思いましたが、以下のような表示のことでしょうか。※詳細は不明です。

検索キーワード:アメリカの首都はどこですか
検索結果:ワシントンD.C.

検索キーワード:日本の人口は何人ですか
検索結果:1.276億 (2012年)

検索エンジンの精度が高くなり、単一キーワードから、より詳細な情報を得る為に2語、3語と複合キーワードを入力するユーザーが増えて、解決しなければいけないボリュームになってきたということなのか、siriの普及という背景もあって、文章のような検索キーワードを打つユーザーが増えているのかもしれませんね。参考記事で気になる部分を引用して下記にまとめました。

CNETより
http://japan.cnet.com/news/service/35037714/
Amit Singhal氏によると、「私がGoogleに入社したとき、ウェブサイトに対して簡単な検索ができるようになっただけで人々は喜んだ。その後、その状態に慣れてくると、人々はさらに複雑な質問を投げかけてくるようになった。Hummingbirdは、その根本的な再考の結果である」

ASCII.jpより
http://ascii.jp/elem/000/000/828/828873/
この新しい検索アルゴリズムは、会話型検索で発生するような、長い検索クエリにおいてより適切な検索結果を提示できるようにする働きを持つ。

ロイターより
http://jp.reuters.com/article/topNews/idJPTYE98P07F20130926
新アルゴリズム「ハミングバード」を約1カ月前から導入

ITmediaより
http://www.itmedia.co.jp/news/articles/1309/27/news038.html
The Next Webによると、このアップデートは世界の検索の90%に影響を与えるとしているが、The Search Engine Landによると、GoogleはSEOの変更の必要はなく、パブリッシャーが心配することはないと語ったという。

TechCrunch Japanより
http://jp.techcrunch.com/2013/09/27/20130926google-recently-made-a-silent-shift-to-a-new-search-algorithm-hummingbird/
「このアップデートでは自然言語の質問文(単語を並べた検索ではなく)を高速に解析し、それに応じた適切なコンテンツとランクを判断して回答を提供するアルゴリズムが実装されている」と繰り返し強調した。

コンバージョン率の高いキーワード、指名検索を取りこぼしていませんか

指名検索は、一般のキーワードに比べて、ずば抜けてコンバージョン率が高い傾向にあります。その製品やサービス、会社名のことをある程度知った上で検索しているので、当然と言えば当然なのかもしれません。

指名検索キーワードは見込み客獲得の為には、非常に優秀なキーワードです。但し、お客様は、製品やサービス、会社名を間違えて入力していたり、スペルを間違ってしまったりすることがあります。正式な名前を憶えてなくて、検索して探したけれども見つからない。これは非常にもったいないです。

弊社のコーポレートサイトに訪れてくるユーザーの検索キーワードの中から、指名検索のデータを集計してみました。各キーワードで上位化しているキーワードもあれば、2.3ページ目に表示されるキーワードもあります。また、あくまでアクセス解析で計測されたキーワードのみですので、実際に上位化できておらず、取りこぼしていることもあると思います。

全体の母数の集め方として、「クロス」「cross」「walk」が含まれるキーワードとしました。また、明らかに弊社を探していないであろうキーワードは除外しています。クロスウォーク、株式会社クロスウォークが最も一致したキーワードだと思いますが、その割合はというと、61.6%でした。

また、キーワード「クロスウォーク」では、商業施設である堂島クロスウォークが1位、弊社コーポレートサイトが2位という結果になっており、目的が明確であれば2位でもクリックして頂ける可能性はありますが、取りこぼす可能性は0ではなく、少なからず1位である場合よりも高くなってしまうと思います。

キーワード一覧はすべてではないですが、下記に掲載しております。全体的な印象としては、「ウォ」という字がローマ字表記で打ちづらいという点と、スペルが覚えずらいという欠点がありました。

今後の対策として、社名を変えるということは簡単にできませんので、新たなサービス名を作る場合には覚えやすい名前にすることと、間違いキーワードを入力した場合にも本サイトが表示されるようにする工夫が大事だと感じました。

 
■社名でそのまま
クロスウォーク
株式会社クロスウォーク

■社名間違い
株式会社プロウォーク
seoプロウォーク

■複合キーワードseo
クロスウォーク seo

■英語表記
株式会社crosswalk

■英語表記、複合キーワードseo
crosswalk seo

■省略
クロス seo

■(株)表記
(株)クロスウォーク
株クロスウォーク
株式クロスウォーク
株)クロスウォーク

■英語表記、間違い
crosswalks seo
crosswork seo

■入力間違い
クロスウオーク
クロスヲーク
クロスウォ-ク
クロスウオ-ク
クロスゥォーク
クロスヲーク 株式会社

インデックスされない&削除(一部削除)された場合の対応方法

インデックスされていないということは、順位付け以前の問題で、検索エンジンからアクセスされることがありません。何らかの問題が生じていることは明らかですが、原因として考えられる項目が多い為、現在の状況を把握した上で解決方法を実行していくことになります。まず、大きく2つのパターンに分かれます。そもそもインデックスされない、次にインデックスされていたけど、削除されてしまった。2つのパターン別にどのような確認作業を行うべきかをまとめてみたいと思います。

■そもそもインデックスされないケース
①クローラーがページをまだ見つけていない
検索エンジンは、クローラーと呼ばれるプログラムによって、インターネット上のデータを集めています。はじめて公開されたウェブページは、主にリンクをヒントに辿っていきますが、どこからもリンクされていないページは検索エンジンが発見しずらい状況になっています。すでにインデックスされているトップページなどからリンクを貼ってあげることで、見つかりやすくなり、検索エンジンにインデックスされる可能性も高くなります。リンクを貼る以外にも解決方法はありますが、一番手っ取り早くて安定してクロールされます。

②以前のドメイン所有者によるスパム
あなたがはじめてドメインを契約したとしても、そのドメインは以前誰かに使われていた可能性があります。その所有者がスパム行為を行い、検索エンジンに削除されたようであれば、検索エンジンにインデックスされない状況になっている可能性があります。この場合は、まず、ウェブマスターツールに登録して、状況を確認してみましょう。通知が来ているようであれば、ペナルティ解除の施策を行う必要があるかもしれません。過去のサイト状況はこちらで確認

③robots.txtでクローラーを制御している
ウェブマスターは、検索エンジンのクローラーに対して、情報を与えたり、命令したりすることができます。検索エンジンは、ウェブサイトに訪れる前に、まずrobots.txtというファイルを見に来ます。ウェブマスターは、トップページのindex.htmlと同じ階層に設置することで、クローラーに対して、クロールしてはいけないページやインデックスしてはいけないページ、サイトマップのURL場所など、様々な情報を与えることができます。ここでインデックスしてはいけないという指定をしていれば、検索エンジンはインデックスしてくれませんので注意が必要です。

④.htaccessでクローラーを制御している
.htaccessという強制力の強いファイルを設置することができます。このファイルは、通常モバイル端末はモバイル専用サイトへ、引っ越ししたファイルを新しいURLへ移動させるためなどにも使われますが、URLにアクセスさせないということもできますので、検索エンジンのクローラーが対象のURLに辿り着けていない可能性があります。その場合ももちろんインデックスされることはありません。.htaccessに関しては、専門的な知識が必要ですが、robots.txtに関しては、導入しやすく、*があるなしでインデックスされない指定になってしまう可能性があります。実際に間違った指定をしている例を見ることがあります。

④ページの質が低い、コンテンツ不足
検索エンジンのクローラーは、多くのウェブページをクロールしますが、なるべく有益なページからクロールしたいと考えています。例えば、検索結果が見つかりませんでした。とだけ表示されるページは、なるべくインデックスしたくないのです。また、極端に階層が深いページであれば、与えられるページランクも低くなり、開設したばかりのサイトやページ数が膨大なサイトなど、なかなか下層ページまでインデックスしてくれないケースもあります。

⑤クローラーが認識しずらいコンテンツ
検索エンジンはジャバスクリプトもFLASHも読めるようになってきましたが、完全にすべてを認識できるようになったわけではありません。複雑なリンクの飛ばし方をしていた場合、うまくクロールできない可能性があります。基本的にはHTMLソース上にリンクタグが含まれていれば問題ありません。存在しない場合は静的なリンクを設置して、クローラーが辿り着きやすいようにしてあげる必要がります。

■インデックされていたけれど、消えてしまった場合
①ペナルティを受けた

検索エンジンは過剰なseoを嫌う為、場合によってはインデックス削除を行う可能性があります。但し、検索エンジンペナルティでインデックス削除されてしまう例は、クローキングやSEOポイズニングのようなかなり悪質なスパムに対するものが多い為、ほとんどの場合では問題ありません。ただし、WEBサイトがマルウェアなどに感染してしまっている場合は、インデックス削除の処置を取られてしまう可能性があります。

②対象ページへのリンクがなくなった
先ほど説明した通り、検索エンジンのクローラーは、リンクを参考にしてウェブページを収集します。新着情報としてサイトのトップページに掲載されていたけれど、さらに新しい情報が出てきたのでリンクを削除したケースがあれば、その対象ページへたどり着けるリンクがなくなってしまう為、検索エンジンはページを発見することができなくなってしまうかもしれません。

③クローラーがサイトにアクセスできない
先ほどのクローラー制御と内容は同じです。インデックスされていたということは、途中で書き換わった可能性があります。また、robots.txtを挿入していたとしても、被リンクが多い場合などは、検索エンジンに拾われてしまう場合もあります。

④クローラーが来たときにサーバーが重くてタイムアウト
サーバーやシステムによっては、アクセス増加に伴って、非常にレスポンスが遅くなってしまうサイトがあります。数日の間であれば、特に問題はありませんが、しばらく続いてしまった場合には、対象ページをインデックスから外してしまう可能性があります。但し、この場合はサイトのレスポンスの改善さえおこなえれば、元通りクロールされ、インデックスも復活することができます。

⑤ページが存在しない(404エラー)
ページが存在しなければ、自然にインデックスは消滅してしまいます。ドメインの更新忘れなどでアクセスできなくなってしまった場合も同様です。頻繁に起こる問題ではないと思いますが、ついつい忘れてしまった場合の損害はかなり大きいので、注意が必要です。

ウェブマスターツールでデータが表示されない場合の改善方法

ウェブマスターツールに登録しても、満足したデータが取得できていない場合や、そもそもデータが表示されない時の対策方法がウェブマスター公式ブログに掲載されています。

http://googlewebmastercentral-ja.blogspot.jp/2013/09/wheres-my-data.html

登録時のドメインが www.example.com のようなケースで、

実際に検索エンジンが認識しているドメインが example.com のようになっている場合、正しい数字が表示されません。

wwwがあり、なしで同一のコンテンツが表示されるケースがほとんどですが、技術的にはそれぞれで別々のコンテンツを掲載することも可能です。

ですので、リンクがどちらか片方に張られている場合には、もう片方のドメインには表示されることがないということです。

対策方法としては、両方のドメインをウェブマスターツールに登録し、両方のデータを照らし合わせてみることで、すべてのデータを把握することができます。

手動対応で、外部リンクに対する否認や削除を行わないといけない場合には、それぞれの外部リンクをチェックして対応を行ってみてください。

正規化をつい忘れてしまうということはよくあることです。ただし、検索エンジンにインデックスされているドメインがどちらなのかは把握しておく必要があります。

Googleの第一の目的はユーザーを守ること

2011年2月にパンダアップデートと呼ばれる検索ランキングアルゴリズムが導入されました。低品質なサイトや薄っぺらいサイトの検索ランキングを下げることを目的としたアルゴリズムで全世界で話題となりました。アップデートは定期的に繰り返しており、パンダアップデートは学習し続けています。

低品質なサイトの具体例
・テキストを引用してきただけのコピーコンテンツ
・広告だらけでオリジナルコンテンツが薄いサイト
・内容が薄く、ユーザーに付加価値を与えないサイト
・自動生成された重複コンテンツや内容の薄いサイト
・情報量が少ないサイト
・信ぴょう性に欠けるサイト

ユーザーから自然にリンクされる機会が少ないサイトは、低品質なコンテンツであるという理解をしておく必要があります。
良質なサイトと判断する基準は、Googleウェブマスター向け公式ブログで公開されています。
http://googlewebmastercentral-ja.blogspot.jp/2012/09/more-guidance-on-building-high-quality.html

良質なサイトは、実際にこのような方法で判断している訳ではなく、検索エンジンのアルゴリズムという一定の基準に従って決定されます。

パンダアップデートの登場により、スパム対策が強化されたイメージがありますが、コピーコンテンツや自動生成コンテンツへのペナルティ対策は昔から存在していました。ヤフーやyoutubeなどのAPIを使った自動生成などは、登場当時より対策が行われ、単純にページ数を増やすだけのコンテンツは削除されていました。

以前より存在したアルゴリズムとパンダアップデートとの大きな違いは、スパムでなくとも、低品質と判断すれば評価を下げるという方向性です。例えば、日常的な記録を記しただけの日記や、個人的な内容のコンテンツなどは、訪れるユーザーにメリットを与える可能性が低い為、掲載順位を下げる可能性があるということです。

googleは、外部リンクに対しても同様の方向性を示しています。


あなたのサイトへの不正なリンク操作を行うかもしれません。
Googleの第一の目的はユーザーを守ることです。
(4:07~4:14頃)

Googleは自分が行った外部施策ではなくとも、ユーザーを守る為に場合によってはペナルティを与える可能性があるということです。最優先に考えるべきはユーザーという軸にブレはないでしょう。

低品質なコンテンツが存在することによって、順位に影響を与える可能性がある。ということは、今までウェブマスターはSEOのことを考えずとも、良質なコンテンツを提供していれば様々なキーワードで上位化することができました。

但し、今後は知らなかったでは通らず、知らない間にペナルティを受けてしまう可能性があり、検索エンジンで集客するのであれば、正しい知識を持つ必要があるのかもしれません。

スパムフィルタが優れ、SEOがやりやすくなったという声がありますが、自分のイメージでは、サイト運営者にとっては、SEOに対するハードルがさらに高くなったという印象があります。

内部対策と外部対策に対する比重説明は順位に対してではない

内部対策と外部対策の比率はどれぐらいですか?「3:7ぐらいですかね。最近では4:6ぐらいで内部の比重が高くなっている傾向にありますね。」というような会話を自分自身することがあるのですが、作業レベルでの比重ということでしたら、さほど遠くはないのですが、順位に対する検索エンジンの評価という部分だと認識されている場合には誤りがあります。

なぜなら、加点方式ではなく、ペナルティを加味した上位表示を無視してしまっているからです。それぞれの対策が別々のものではなく、SEOは総合的な状態を見て判断していくべきですので、項目の比率で表すことはできません。イメージを掴んで頂くために、対策状況と順位予測を下記に記します。

内部対策10点、外部対策10点=圏外
内部対策10点、外部対策50点=圏外或いは20位以内
内部対策10点、外部対策100点=圏外或いは10位以内
内部対策100点、外部対策10点=100位以内
内部対策100点、外部対策50点=20位以内
内部対策100点、外部対策100点=10位以内
※あくまで参考です。

内部対策が十分であれば、順位の安定にもつながります。外部対策に対して正当な評価を得られる可能性が高くなります。実際は内部対策や外部対策に100点はありませんが、問題となる箇所(ペナルティとなる要素)を改善することで100点に近づくことができます。

余談ですが、たまに他の方のseo本やブログを見てみると自分の意見と違うことが結構あります。これは自分と他人だけではなく、SEOで知名度が高い方、それぞれを比較しても大きく違うことがあります。

最終的には結果がすべてであり、検索エンジン側が推奨する方法以外の考え方は、話半分ぐらいの意識で理解しておいた方がいいのかもしれませんね。