2013年2月14日 木曜日

ドメインの強さなんてものは存在しない

ドメインが強いから順位が上がる、ということを聞くことがありますが、これは正しい回答ではありません。間接的にはそういうこともありますが、後ほど説明します。例えば、yahoo.co.jpやgoogle.co.jpのウェブページは、検索結果で頻繁に登場するでしょうか。特にYahoo!は膨大なサイトコンテンツを保有していますが、検索結果であまり見ることはありません。ドメインやサイト単位で評価を与えているとするならば、Yahoo!のような有名サイトは検索結果を占領しているはずです。

一方でwikipediaのように様々なページで上位表示を達成しているサイトがあります。これは、ドメインの力が強いことが原因なのでしょうか。ヤフーとの大きな違いは質の高い(リンクを受けやすい)コンテンツのみで構成されているという点です。なぜ質の高いコンテンツのみで構成していれば上位表示ができるのかということですが、ウェブサイトの構造から説明する必要があります。

ヤフーのサイトは階層構造です。トップページからカテゴリがあり、3層目、4層目というように大きなピラミッドのような構造をしています。階層構造のメリットは、トップページに近いほど内部リンクが集まり、上位表示しやすい構造となっています。デメリットとしては、優先すべきコンテンツと、すべきでないコンテンツの分類が難しく、本来検索エンジンで上位化すべきコンテンツが、下層に埋もれてしまい、うまく内部リンクを渡せない状況になってしまうということです。最新情報のみトップに表示させることで、リンクを集中させることもありますが、継続的なものではありません。

wikipediaは網目構造です。一応カテゴリがあり、階層になっている箇所もありますが、基本的には網目状にリンクが張り巡らされ、内部リンクが均等に行き渡るような構造になっています。網目構造のメリットは、それぞれのページに対して均一な評価を与えることができるということです。wikipediaのような辞典のサイトはすべてのコンテンツが質の高いコンテンツとなる為、このような網目構造が非常に効果的ということになります。質の低いコンテンツが発生してしまうようなサイトの場合では、余計なページにまで内部リンクを集中させてしまいます。

内部リンクと外部リンクは、まったく別のものだとされる傾向にありますが、大きな違いはありません。対象のウェブページに張られたリンクを評価の対象としています。ですので、wikipediaのように、常に近くの内部ページが質の高いものであれば、ウェブページの評価は高いものとなります。ヤフーの場合で説明すると、ページが多くなった場合にはどんどん下層ページに追いやられます。下層ページに追いやられると、内部リンクをもらう為のページも下層ページですので、質の高いページからの内部リンクをもらうことができなくなってしまいます。補足ですが、今回の階層というのはリンクのことですので、URLの階層とは関係ありません。

Yahoo!とwikipedia、いずれもドメインの強さというものがあれば申し分ないものだと思います。ですが、このようにコンテンツと構造の違いで大きな差が生まれています。ドメインの強さというものは特に気にする必要はありません。重要なのはリンクの流れです。内部リンク、外部リンク、それをどのウェブページに渡すのかという部分です。強いドメインであれば、新しい記事を公開した時にすぐ上位化されるという意見もあるかもしれません。ですが、それはただ、そのウェブページが質の高い内部リンクを一気に受けるからです。まったくリンクを張らない形でhtmlを作成して公開しても同じ状況になることはありません。もしドメインの強さというものが存在していたとしても、ほんのわずかなものでしかないということです。gov、edu、infoドメインでも評価が違うと言われることがありますが、同じような理由によって、同意見です。

2013年2月13日 水曜日

“いばらき”と”いばらぎ”誤字による検索ボリュームがほっとけない

下記は間違いやすい単語とその検索ボリュームとなります。こうしてみると、ボリュームが大きいキーワードでは、特にほっとけない程のボリュームが存在していることに気が付くと思います。一時、間違いワードの自社指名検索などを拾いに行くためにLPを作っている会社様をよく見かけました。

“次の検索結果を表示しています”
という形で正しいキーワードに誘導してくれる検索結果もありますが、十分ではないのが現状です。検索してくるユーザーのニーズはおそらくメインキーワードの方と変わらないはずです。名詞であれば、自社のサービスなら特に理解して対策をされている方も多いかと思いますが、”はらだたしい”と”はらただしい”のような形容詞でも存在し、それは、ロングテールのSEO対策にも大きな影響を与える可能性があります。

正しい日本語を理解して使用することはもちろん、さらに応用として、間違いワードの検索ボリュームを戦略的に拾いにいくこともできるのではないでしょうか。通常の文章で単語だけを入れ替えた場合、ユーザーの信頼を失う可能性もありますので、使い方に工夫が必要となりますが、ページのキーワードと関連している間違いやすい単語が出現した時には、その話題にも触れてどちらでも上位に表示させるような工夫するのもいいかもしれませんね。

※ほっとけない?ほっておけない?

 いばらき 880
 いばらぎ 720

 テザリング 74,000
 デザリング 9,900

 シミュレーション 12100
 シュミレーション 9900

 アボカド 14800
 アボガド 6600

 マニキュア 4400
 マニュキア 390

 完璧 1300
 完壁 170
※自分が書いた記事でも間違いをしていた箇所がありました。

2013年2月12日 火曜日

トップページを変更致しました。

本日トップページを、イラストレーターの方に書いて頂いたものに変更致しました。すばらしいイラストをありがとうございました。コンバージョン率勝負の結果は、もちろん改めてご報告させて頂きます。ランディングページも変更していきたいと思います。

【変更前】

【変更後】

2013年2月12日 火曜日

米アドワーズ広告が強制的にパソコンとモバイルで1つのパッケージに

グーグル、モバイル広告の値上げが狙いか検索連動広告の方針転換に不満が続出
http://jbpress.ismedia.jp/articles/-/37125

上記のリンクより、米Googleの検索連動型広告Google adwordsですが、今まではPCやモバイル端末それぞれのデバイス選択が可能でしたが、今後は1つのパッケージとして提供されるとのことです。記事中では、モバイル広告が割高になるということに不安を持つ内容となっております。いずれ日本にも適用されるのでしょうか。確かに現在アドワーズを利用する時に設定するキャンペーンは、

1.検索PC
2.検索モバイル
3.検索タブレット
4.検索スマホ
5.ディスプレイPC
6.ディスプレイモバイル
7.ディスプレイタブレット
8.ディスプレイスマホ
あとはリマーケティングやらプレースメントやらトピックやら

デバイスの種類が豊富になり、当たり前に設定しなければならないキャンペーンが膨大になってきています。それぞれにあったキーワードや広告文の作成や設定が必要となります。こんなに複雑では、今後広告主の減少につながる可能性があります。

記事の内容でも触れていたとおり、確かにスマホのみに設定したい広告主や、PCのみに設定したい広告主はいると思いますので、いずれ強制になるという部分はどうなのかなあとは思います。

あくまで予想ではありますが、コンバージョンオプティマイザーのような機能によって、自動でよりよいデバイスを判断してくれるのではないかと思っています。リスティング広告は多機能で優れた広告だと思いますが、最大の難点は複雑で技術による差が大きく出てしまうことだと思います。

今後、リスティング広告に精通していない人が運用したとしても、最大限の効果を発揮してくれるツールとなるのではないでしょうか。

リスティング広告の運用代行サービスを提供する側ですから、そうなってしまうと商売ができなくなってしまう訳ですが、googleアドワーズは広告主の費用対効果を高める為に今よりも敷居を低くしていくのではと感じております。

2013年2月12日 火曜日

Googleがユーザーの利便性を考えることがベストだとする理由を考える

・独自のコンテンツが必要な理由は、内容が薄いページには、○○○を□□□くれないから。

・ソーシャルが重要な理由は、ユーザーが拡散して増えてくれないと○○○を□□□くれる数が増えないから。

・関連性の高いコンテンツに評価されなければいけない理由は、流入してくるユーザーが○○○を□□□くれる確率が高くならないから。

・重複コンテンツがダメな理由は、○○○を□□□くれる数が分散してしまい、ページの評価が低くなるから。

・各ブラウザできちんと表示されるかどうか確認しなければいけない理由は、デザインが崩れたページに対して○○○を□□□くれないから。

・ABテストをしなければいけない理由は、わかりやすいコンテンツや配置によって、直帰率や滞在時間が改善され、ユーザーが迷子になることなく○○○を□□□くれるから。

・広告が多すぎてはダメな理由は、広告をうざいと思い○○○を□□□くれないから。

・タイトルタグやaltにキーワードを入力する必要があるのは、○○○を□□□もらう時に評価を最大限にできるから。

・無効なリンクがないかどうか確認しなければいけない理由は、リンク切れのサイトに対して、安心して○○○を□□□くれないから。

・Googleがユーザーの利便性を高めることを常に推奨する理由は○○○を□□□くれるのはユーザーだから

 

○○○…リンク
□□□…張って

※ナチュラルリンクが必須となることですが、「リンクを張る」を強調しすぎると、そればかり意識してしまうユーザーが増えてしまうため、順位に影響を与える大きな基準ではありますが、あえて記載していないのではと考えました。

 

2013年2月11日 月曜日

Ahrefs Site Explorer の無料版を使ってみました。

ahref
フルスピード「Ahrefs Site Explorer」を国内発売というニュースを見て、久しぶりにAhrefsを使ってみることにしました。OSEメインで使っていたので、あんまり他のツールを使うことはないだろうと思っていましたが、かなり高機能でびっくりしました。
こんなに多機能でしたっけ。数兆のウェブサイト情報を保有しており、1日10億ページをクロールするとのこと。デイリーの被リンク増減情報などやソーシャル解析などが非常に便利ですね。
ただ、有料でも100~500レポートまでとSEO担当としては物足りなさを感じてしまいます。あっと言う間にMAXまで使ってしまいそうです。しばらく無料で使ってみたいと思います。

ahrefs
https://ja.ahrefs.com/

2013年2月8日 金曜日

素晴らしいエクセル用SEOツール

タイトルタグやディスクリプションタグといった内部テキストから、ページランクや被リンク数の外部状況、さらにソーシャルデータなど、ありとあらゆるデータをエクセルで簡単に抽出できるSEOツールです。海外の方が作成したものですので、一部google.comが指標となっているものや、英語圏のみで有効なものなどがありますが、単純な関数だけでも便利なので、ちょこちょこと自分好みのデータシートを作ってみようかと思います。

一気に膨大な量のデータを抽出しようとすると、かなり時間がかかることがありますので注意が必要です。

解凍後、エクセルを立ち上げ、seotools.xllを起動させるとエクセルにseotoolタブが出現します。また、ダウンロード後のフォルダにcookbookというものがありますが、これはすでにテンプレートを用意してくれているいくつかのファイルですので、URLを入れるだけで簡単に利用できるエクセルもあります。いろいろと便利な使い方を探してみてください。
ちなみに画像の関数ですが、2行目は以下のような形です。

A2:http://blog.mf-seo.com/archives/9461
B2:=HtmlTitle(A2)
C2:=FacebookLikes(A2)
D2:=GooglePlusCount(A2)
E2:=TwitterCount(A2)

アイコン画像をクリックして抽出したい情報をクリックしてください。URLなどの必要情報を入力すればデータが抽出されます。

ダウンロードはこちらから
Download SeoTools for Excel!
http://nielsbosma.se/projects/seotools/download/

2013年2月8日 金曜日

日本語ドメインSEOのメリットとデメリット

日本語ドメインとは、

  • http://日本語ドメイン.com/
  • http://病院.com/
  • http://おにぎり.com/

のようなドメインのことです。Punycode表記では下記のような形となります。

  • http://xn--eckwd4c7c5976acvb2w6i.com/
  • http://xn--0rys90e.com/
  • http://xn--t8ji0guf.com/

一時期SEOに効果が高いと言われておりましたが、最近はあまり聞かなくなったような気がします。ですが、アフィリエイトキーワードなどで、ずらずらっと独占させているような例を見かけることがあります。日本語ドメインのメリットとデメリットを挙げてみたいと思います。

 
【メリット】
1.アドレスバーに直接日本語を打ち込んでアクセスできる
2.お客様や取引先に覚えてもらいやすい
3.ドメインを見ただけでどういう内容のサイトかわかる
4.検索結果のインパクトが大きいのでクリック率が高い

 

【デメリット】
1.Punycode表記ではわかりずらいので管理がしずらい
2.Punycode表記では余計にURLが長くなってしまう
3.スパムサイトと勘違いされてしまう(SEOに携わる人だけ?)
4.リンクを張ってもらいにくい

 
SEOに影響がある部分を赤字にしています。メリットとしては、検索結果での日本語表示でしょうか。今では当たり前のようになっておりますが、はじめのインパクトは強烈でした。クリック率にもやはり大きな影響がありました。直接的な検索順位に関しましては、個人的に感じる印象としてはあまりメリットはない、です。マイナスになることはありません。ドメイン名とサイト名がマッチしているので、プラスの効果は期待できると思いますが、以前と比べるとそこまで差は感じません。

先日重複コンテンツの情報を集めていたのですが、いろいろな情報を集めている中でリンクタグを作りづらいサイト様がありました。それは、日本語ドメイン&日本語フォルダ名・ファイル名で運営している方の記事です。URLが非常に長くなってしまい、視覚でチェックすることができませんので、URLをまとめたあとに再度直接アクセスして確認しなければならないということで、リンクを張る側からすると、非常に手間のかかる作業だと思いました。URLを多くまとめていたので、余計にそう感じたのかもしれません。通常はそんなに多くのリンクを掲載することは少ないかと思いますので、特に問題はないかもしれません。

被リンクを獲得するということは、SEOで一番重要な部分であると思います。そして、リンクを張る方は、昨日はじめてホームページを作った人から何年もサイト運営をしている人まで様々です。少しでもリンクを張ってもらいやすい工夫をすることは重要ではないかと思いました。コピーして貼り付けしてください。といったような形でリンクタグを用意しているようなページを見ることがありますが、そういった方法で改善できるのかもしれません。

 

2013年2月7日 木曜日

301リダイレクトで評価が移らない原因

301リダイレクトで引っ越ししたけれど、評価が移らないケースがあります。ペナルティ解除を目的としたリダイレクトではないけれど、移転前と同等の評価を受けるのに時間がかかってしまったり、評価が一切されていないという場合です。そのようなサイトを調べてみると、以下のような2つのパターンに分かれる傾向にありました。
 
【被リンクの獲得が話題型】

一時期話題になったけれども、もうすでに古い情報になっていたり、今はすでに被リンクを受けにくくなっているコンテンツ。上位化させることは、ユーザーにとって有益ではない為、評価を引き継ぐには、移転後継続した被リンクを獲得する必要があるのかもしれません。
 
 
 
【被リンクの獲得が不変型】

一時的に話題を集めるようなコンテンツではない為、移転後も継続した被リンクを獲得しているようなページ。継続して被リンクを集めているということは、今もユーザーに有益なコンテンツである為、評価を引き継ぐ可能性がある。
 
今まで301リダイレクトをした経験はせいぜい数十サイト程度です。少ないデータでの傾向ですので、あてにならない可能性はありますが、一つの参考として認識して頂ければと思います。
 

2013年2月7日 木曜日

重複コンテンツ厳選63記事まとめ

【Google公式 重複するコンテンツについて】

1.重複するコンテンツ

http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=66359

2.クロスドメイン URL の選択 – 複数のドメイン間の重複コンテンツの正規化について
http://googlewebmastercentral-ja.blogspot.jp/2011/11/url.html

3.URL パラメータ
http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=1235687

4.正規化
http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=139066

5.rel=”canonical” 属性について
http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=139394

6.301 リダイレクト
http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=93633

7.多言語ウェブサイトの作成について
http://googlewebmastercentral-ja.blogspot.jp/2011/11/blog-post.html

8.rel=”alternate” hreflang=”x” について
http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=189077

 

【重複コンテンツ対策全般】

9.パンダ・アップデート後の重複コンテンツを知る – 重複コンテンツ対策完全ガイド #1
http://web-tan.forum.impressrd.jp/e/2012/01/30/12025

10.重複コンテンツ問題を解決する12の手段 – 重複コンテンツ対策完全ガイド #2
http://web-tan.forum.impressrd.jp/e/2012/02/06/12026

11.重複コンテンツが発生してしまう19の具体的なパターン – 重複コンテンツ対策完全ガイド #3
http://web-tan.forum.impressrd.jp/e/2012/02/13/12027

12.URL正規化のポイントと重複を診断する4つのツール- 重複コンテンツ対策完全ガイド #4
http://web-tan.forum.impressrd.jp/e/2012/02/20/12028

13.Google、重複コンテンツ(コピペサイト)の対処方法について解説
http://www.sem-r.com/seo/20080616131002.html

14.「重複コンテンツ例とその解決ポイント」解決策は、SEOの知識に「ユーザーへの訴求・心遣い」を融合させて生まれるものがある
http://whitebear-seo.com/seodirector-blog/google/naibutaisaku/copy-content/

15.複製コンテンツ(Duplicate Content)問題丸わかり絵解きガイド
http://web-tan.forum.impressrd.jp/e/2007/04/19/1215

 

【事例&応用】

16.バーバリーのUSサイトがインデックスから消滅、原因は重複コンテンツ 2012年04月06日
http://www.suzukikenichi.com/blog/berburry-us-deindexed-due-to-dupulicate-content/

17.重複コンテンツペナルティを解除した事例のご紹介
http://seo.muraweb.net/blog/seo/%E9%87%8D%E8%A4%87%E3%82%B3%E3%83%B3%E3%83%86%E3%83%B3%E3%83%84%E3%83%9A%E3%83%8A%E3%83%AB%E3%83%86%E3%82%A3%E3%82%92%E8%A7%A3%E9%99%A4%E3%81%97%E3%81%9F%E4%BA%8B%E4%BE%8B%E7%B4%B9%E4%BB%8B/

18.寄稿記事(全文転載)を行う時のベストプラクティス(SEO観点)
http://www.sem-r.com/news-2013/20130111132836.html

19.A/Bスプリットテストはクローキングや重複コンテンツになるのか? 2012年08月10日
http://www.suzukikenichi.com/blog/how-to-run-ab-testting-correctly/

20.ネットショップでオリジナルコンテンツを増やして重複コンテンツを減らす方法 2012年01月16日
http://www.suzukikenichi.com/blog/how-to-make-original-content-and-reduce-duplicate-content-on-ecommerce-sites/

21.ネットショップ運営者が気をつけるべき重複コンテンツ問題 2009年05月28日
http://www.suzukikenichi.com/blog/e-commerce-sites-should-avoid-duplicate-content/

22.地域別の重複ページを差別化する7つのコンテンツ
http://lblevery.com/blog/blog/2012/07/17/differentiation-7contents/

23.Google: 重複コンテンツはrobots.txtでブロックしてはいけない 2009年10月08日
http://www.suzukikenichi.com/blog/google-tells-you-not-to-block-dupulicate-content-via-robots-txt/

24.パンダアップデートをすり抜けた重複コンテンツのサイトの特徴
http://gomiseo.blog.shinobi.jp/google%E3%81%AEseo%E5%AF%BE%E7%AD%96/%E3%83%91%E3%83%B3%E3%83%80%E3%82%A2%E3%83%83%E3%83%97%E3%83%87%E3%83%BC%E3%83%88%E3%82%92%E3%81%99%E3%82%8A%E6%8A%9C%E3%81%91%E3%81%9F%E9%87%8D%E8%A4%87%E3%82%B3%E3%83%B3%E3%83%86%E3%83%B3%E3%83%84%E3%81%AE%E3%82%B5%E3%82%A4%E3%83%88%E3%81%AE%E7%89%B9%E5%BE%B4

25.Googleが重複コンテンツを見破るアルゴリズムとは?
http://www.seojapan.com/blog/google%E3%81%8C%E9%87%8D%E8%A4%87%E3%82%B3%E3%83%B3%E3%83%86%E3%83%B3%E3%83%84%E3%82%92%E8%A6%8B%E7%A0%B4%E3%82%8B%E3%82%A2%E3%83%AB%E3%82%B4%E3%83%AA%E3%82%BA%E3%83%A0%E3%81%A8%E3%81%AF%EF%BC%9F

 

【多言語コンテンツ】

26.グーグル、「rel=alternate hreflang=x」サポートを拡張、多言語サイトを適切にインデックス可能に
http://www.sem-r.com/seo/20111220185440.html

27.Googleの多言語マークアップでグローバルSEOに勝つ方法
http://www.seojapan.com/blog/global-seo-markup-by-google

28.ccTLDと重複コンテンツの関係について、グーグルとヤフーから新情報
http://web-tan.forum.impressrd.jp/e/2009/04/20/5404

29.翻訳記事を公開すると重複コンテンツになるのか 2011年12月22日
http://www.suzukikenichi.com/blog/does-translated-content-cause-a-duplicate-content-issue/

 

【rel=”canonical”】

30.link rel=”canonical”によるURL正規化タグ–SEOにとって非常に重要な進歩(前編)
http://web-tan.forum.impressrd.jp/e/2009/03/05/5112

31.link rel=”canonical”によるURL正規化タグ–SEOにとって非常に重要な進歩(後編)
http://web-tan.forum.impressrd.jp/e/2009/03/06/5113

32.link rel=”canonical”(カノニカルタグ)の使い方
http://whitehatseo.jp/%E3%82%AB%E3%83%8E%E3%83%8B%E3%82%AB%E3%83%AB%E3%82%BF%E3%82%B0%E3%82%92%E4%BD%BF%E3%81%A3%E3%81%A6url%E3%82%92%E6%AD%A3%E8%A6%8F%E5%8C%96%E3%81%95%E3%81%9B%E3%82%8B%E6%96%B9%E6%B3%95/

33.rel=”canonical”の正規化で、重複コンテンツを撃退 2009年02月16日
http://www.suzukikenichi.com/blog/rel-canonical-resolves-duplicate-content/

34.canonicalタグを設定しているのに重複コンテンツとして認識される。
http://productforums.google.com/forum/#!msg/webmaster-ja/W6NiA8eZYwU/vAbA7cxR_QIJ

35.canonicalタグはソーシャルボタンの挙動にも影響する
http://holy-seo.net/blog/seo/canonical-social-button-behavior-influence/

36.記事の7割をコピーしたページに対しGoogleに著作権侵害申立てしたらインデックス削除してくれた
http://www.jweb-seo.com/blog/wordpress/2013/01/28/4323

 

【実験】

37.canonical属性にまつわる6つの興味深いテスト

http://www.7korobi8oki.com/mt/archives/2011/06/canonical6.html

38.canonicalが受け渡す情報についての実験結果
http://www.seo-matome.jp/blog/algorithm/canonical-effect/

39.canonicalタグの恐ろしさを改めて知る
http://lblevery.com/blog/blog/2011/10/06/canonical-fear/

40.WordPressサイト内で起こる重複ページをGoogleはどう処理するのか実験
http://www.jweb-seo.com/blog/wordpress/2012/03/26/3118

41.WordPressブログの自然発生的な重複コンテンツ実験2
http://www.jweb-seo.com/blog/wordpress/2012/03/28/3136

42.重複コンテンツ(コピーページ)をGoogleはどのように処理するのか
http://www.jweb-seo.com/blog/wordpress/2011/09/20/2089

43.重複コンテンツ(コピーページ)実験の途中経過
http://www.jweb-seo.com/blog/wordpress/2011/09/28/2171

44.重複コンテンツ実験の続き~記事にリンクを張ってみる編~
http://www.jweb-seo.com/blog/wordpress/2011/10/05/2207

45.重複コンテンツ実験~リンク後の経過報告~
http://www.jweb-seo.com/blog/wordpress/2011/10/21/2307

 

【ツール&サービス】

46.コピペチェックツール「影武者」を使ってみた

http://www.seotemplate.biz/blog/seo-tool/10938/

47.重複コンテンツ改善支援サービス
http://xn--seo-kc4b382n.com/%E3%82%B5%E3%83%BC%E3%83%93%E3%82%B9%E4%B8%80%E8%A6%A7/%E9%87%8D%E8%A4%87%E3%82%B3%E3%83%B3%E3%83%86%E3%83%B3%E3%83%84%E6%94%B9%E5%96%84%E6%94%AF%E6%8F%B4%E3%82%B5%E3%83%BC%E3%83%93%E3%82%B9/

48.新しい年を迎える前に、やっておくべきブログの大掃除
http://www.wakatta-blog.com/tag-zenback-pagenation.html

 

【www、index.htmlの有り無し統一】

49.URLの正規化ってどうすればいいんですか?
http://girls-seo.com/seo/url-normalization

50.301リダイレクトを使った「WWWあり」と「WWWなし」の統一
http://www.suzukikenichi.com/blog/integrating-www-and-non-www-by-301-redirect/

51.楽:技林ブログ
http://tech.bayashi.jp/archives/entry/techweb/2007/001981.html

52..htaccess ファイルを簡単作成「.htaccess Editor」
http://www.htaccesseditor.com/

53.www有りと無しが検索結果に表示され、何故かトップページはインデックスされません。
http://productforums.google.com/forum/#!category-topic/webmaster-ja/%E3%82%AF%E3%83%AD%E3%83%BC%E3%83%AB%E3%82%A4%E3%83%B3%E3%83%87%E3%83%83%E3%82%AF%E3%82%B9%E3%83%A9%E3%83%B3%E3%82%AF%E4%BB%98%E3%81%91/oZxDmZ8ZHpc

 

【モバイル】

54.図解でわかる、デスクトップPC・スマートフォン・フィーチャーフォンの三つ巴ページ切り替え設定
http://www.seo-matome.jp/blog/mobile-smartphone/raptop-smartphone-featurephone/

55.モバイル向けサイトでクローキングと重複コンテンツを防ぐには 2011年01月19日
http://www.suzukikenichi.com/blog/how-to-avoid-cloaking-and-duplicate-content-for-mobile-seo/

56..htaccessでPC,モバイル,スマートフォンサイトの振り分け
http://lab.gpol.co.jp/tsubo/2011/11/htaccesspc.php

57.Smart QR
http://qr.quel.jp/form_smartlink.php

 

【Google発表】

58.クロスドメイン(ドメイン間)の重複コンテンツ発生をGoogleウェブマスターツールが通知
http://www.suzukikenichi.com/blog/cross-domain-url-selection/

59.クロスドメインURLの重複コンテンツ検出メッセージがウェブマスターツールに届いた
http://www.suzukikenichi.com/blog/cross-domain-url-selection-messages-in-webmaster-tools/

60.Googleウェブマスターツールで、重複コンテンツをチェック
http://www.suzukikenichi.com/blog/looking-into-duplicate-content-with-google-webmaster-tools/

61.大規模サイトの更新をGoogleに伝える方法と重複コンテンツを減らす方法
http://whitebear-seo.com/seo-info/google/large-scale-site-and-duplicate-content/

62.重複コンテンツはペナルティにはならない – グーグルが再説明
http://www.suzukikenichi.com/blog/google-says-duplicate-content-is-not-penalty/

63.矛盾するGoogleのヘルプ:重複コンテンツをrobots.txtでブロックするのはOK?、NG?
http://www.suzukikenichi.com/blog/whether-or-not-to-block-duplicate-content-by-robots-txt/