今日はイギリスマンチェスター、アディールさんからの質問。「"Interflora"(https://www.interflora.co.uk/)はペナルティから11日で復活したようですが、どうやってこんな短期間で復活できたのでしょうか?一般的なケースでは数ヶ月もの間WMTの不確定な情報を頼りにサイトを潔白にするような作業に明け暮れると思うのですが?」
matt:面白い質問ありがとう!名指しである企業の話をするよりも、(というのは、我々が特定企業の件について話すことはできないんだけれども。。)今日は、もう少しジェネラルな観点でお話しましょう。まず前提のお話ですが、リンクを買ったり売ったりするようなよろしくない行為を再三にわたってやっている場合、Googleはその度にシビアな対応をとるようになります。つまり、繰り返し違反行為をしていたという形跡を発見したならば、かなり過激なマニュアルアクションをとることになります。
こんにちは。ねずみ小僧二号です。
日本時間2013年12月6日にGoogleのツールバーページランク(以下ページランク)が更新されました。当ブログのドメインも運営から半年でPR3が付きました。
そもそもページランクと特定ワードのSEO順位に因果関係はありませんし、そこまでページランクの上下に一喜一憂はしないのですが、数値で評価されるものは低いよりは高いほうがいいので、気にはなりますよね。
特にページランクの評価システムを考えるとホワイトハットのSEOを行っているのであれば、純粋に高評価を受けた場合は、これまでのサイト運営は間違っていなかったという裏づけにもなるでしょう。
今日はインドニューデリーのラジェッシュさんからの質問。「ハーイ!マット!一つ伺いたのですが..。さまざまなサイトから、いい感じの短文をコピーしまくってそれらをまとめて自分のコンテンツを作った場合、(勿論!きちんと引用元のURLは掲載しますよ)こういうサイトってどうなのでしょうか?」
matt:こういう質問をするラジェッシュさん....。そのような方向でサイトを運用していったら悲しい結末がまっているかもしれません。例えば、Yahoo!はstiching(縫い合わせる)というこうした手法を前から嫌っていましたよね。いろんなところからコピーしてきて、それを縫い合わせただけのページは、たとえ、引用元URLがきちんと掲載されていたとしても、そのページ自体、何の価値もないんじゃないかなぁ。ましてや、プログラムなんか書いて自動的に生成していたり、逆に自動でやってないにしても、何故、そういうコンテンツを作る必要があるのか、胸に手を当てて問いかけてみてください。
以前、キーワードプランナーの基本的な使い方としてキーワード収集の手順をご紹介しました。
その中で、「東京 ホテル」というクエリワードに対して、キーワードプランナーを使ったところ、「宿 予約」、「宿泊予約サイト」、「宿泊 当日」といった"東京"と"ホテル"というワードが含まれないキーワード群が抽出されたということを挙げました。
今日はこのような抽象的なワードに対して、ユーザーのどのようなインテンションが紐付いているのかを深堀りして調査してみましょう。
こんにちは。ねずみ小僧二号です。
先日、当ブログでもご紹介しましたが、「SEO ねずみ」というクエリワードにおいて6URLのサイトリンクが表示されましたが、意図しないURLが表示されていたため、Googleウェブマスターツールで順位を下げる処理を行いました。(11月27日実施→当該記事)
今日は1週間ほど経過し、サイトリンクのURLがどのようになったか簡単ではありますが、経過報告をさせていただきます。
こんにちは。ねずみ小僧二号です。
当ブログも開設から半年ほど経ちまして、「SEO ねずみ」とGoogleで検索すると6リンクのサイトリンクが表示されるようになりました。
「SEO ねずみ」と検索する人はほとんどいないとは思いますが、サービスサイトを運営している場合、このサイトリンク重要な役割をします。
またよく上層部からここのリンク先変えてくれない?といった感じで無理難題を言われるというのもインハウスSEOあるあるになるのではないでしょうか。
今日はロンドンのシーダさんからの質問。「1つのページにどれだけのリンクまで掲載してOKかなど、ガイドラインはありますか?例えば、限度などの指標があるのならば教えてください。」
matt:では、まずは前提となる背景からお話しましょう。Googlebotのインデクシングシステムでは、数百キロバイトのページまでしかインデックスしないようにしてきました。従来のガイドラインに即して具体的にいうと101KBとかまでが大まか仕様となっているかな。それ以上の容量のあるページはインデックスされないか、省略してしまうことがあります。そういうことから言うと、101KBとかが目安とすると、1KBあたり1URLとしておよそ100個ぐらいが目安になるでしょうか?まぁ、これはテクニカルな仕様上の上での話しですが..。でも僕がこういうことを言うと、ある人は、「じゃぁ102個リンクがあったらスパムになるんだね。」と言いそうですが、これはあくまでも技術的な仕様から「理論的にはこれぐらいは張ることはできるよ!」と言っているだけなのでご注意ください。
interview with RobGarner:リアルタイム検索とソーシャルシグナルによる情報秩序構築について執筆しているRobGarner氏とのインタビューで、GoogleGlass に対してどうサイトをオプティマイズすべきかという面白いインタビューがありましたので紹介します。ことGoogleGlass については、GoogleNowが今後キーになるのではないかと語っていますが、果たして近未来、ウェアラブルデバイスが普及した時、人々の検索行為はどのように変容するのでしょうか?
今日はイギリスブリストル、ジェーンさんからの質問だ。「例えば、外部から嫌がらせで、変なリンクなどが張られているのを見つけたとします。連絡してもリンクをはずしてもらえない場合、ペナルティ警告をもらっていない場合でも否認ツールを使って該当リンクを否認した方がいいのでしょうか?」
matt:はい、まず否認ツールの用途について前提から話しますね。否認ツールは、過去にちょっとやらかしすぎたと認識をもっている人や過去によろしくないSEO会社にお願いしてしまった結果張られたリンクを反省をこめてクリーンナップするためのツールなのですが。。。
こんにちは。ねずみ小僧二号です。
先日、突撃!マット・カッツでご紹介したmeta descriptionについていくつかご質問をいただきましたので、ねずみ小僧の見解を述べさせていただきます。
マット・カッツいわく、ROIを重視するページではSERPsからのクリック率は非常に重要な要素ですので、スニペットに最適な形で表示されるように調整したほうが良いとのこと。
ただ多くのページに一つひとつ個別のdescriptionメタタグを入力するのは至難の業という一定の理解を示した上で、descriptionメタタグが複数ページで重複してしまうのであれば、むしろ設定しないほうが良いとの見解を示しました。
Googleが独自でページを評価し、最適なスニペットを表示できるという自信の表れでしょうかね。インハウスSEOの担当者がこのカッツの見解を聞いて正直どのように思ったか推察してみましょう。