これからのSEO -実践篇-,ピックアップ,最新動向

NSA vs Googleトラフィックの暗号化が本格的始動!使えなくなるであろうQW refer による実計測代用対策について考えてみました。

2013年09月25日 ネズミ1号:略称「T」
, ,
このエントリーをはてなブックマークに追加

indexされたページ評価分析(WMT)と実際のQW意図の合致度分析(analytics)黄金の分析組み合わせが使えなくなる!?では代用手法は?

先月ワシントンポスト:Google encrypts data amid backlash against NSA spyingなどでGoogleがサーバー間トラフィック、ブラウザクライアントとサーバー間通信をすべて暗号化すると記事掲載されていました。マット・カッツさんもTweetしていましたが、9月25日ぐらいから非ログイン状態であってもhttpsプロトコルにリダイレクトされるようになったようです。スノーデン氏の暴露からはじまり、米国民の安全とプライバシーの保護という流れを見てみても、この流れは致し方ないと思われます。
さて、ここで困るのが、analytics上で使うLP(ランディングページ)とQW(クエリワード)のクロス分析です。WMTは、Googleがインデックスしてくれたページ(記事)がどういったQWに対し表示が行われ、どれだけクリックスルーされたかを分析できるツール。一方でAnalyticsのトラフィック分析では、直帰率や滞在時間といった参照元referからセッションが続く限り取得できる貴重なデータにより、実際に仕込んだコンテンツがユーザーのQW意図に則しているか否かを判断できる便利なツールでした。しかし、今後このreferを活用した測定が使えなくなる方向になりそうです。本当はGoogle社ではデコード技術をもっているので、やろうと思えばコストはかかりそうですができそうなものですが。。今後の方針・展開に期待したいところです。このような状況ですが、まずはプロだったらという仮定に基づき、きちんと代用手法を見出し、雑草のごとく運用に支障をきたさないためにはどうすればいいか、考えてみました。



WMTはG社にindexされたページ評価分析(WMT)
Analyticsのトラフィック参照部は、ユーザーが打ち込んだQW意図と仕込んだページの合致度分析
2つの分析組み合わせ技が利かなくなる?

数年前にネズミ2号さんより案件の相談を受け、設計したメソットについてちらっと公開します。我々のコンテンツオリエントなオーガニック対策の根本的なメソットは検索技術観点で以下の2つのフェーズの繰り返しです。これをPDCAで回すことで、TargetQWに対し、SERPs上ランクインしたいなぁと思うポジションにホストやHubページを持って行くべく、ページ単体、ページを内部リンク構造的に束ねるHubページへとQW群パワーが適切に形成されるコンテンツ運営をしてゆくという発想です。では具体的にはどんな感じかというのは以下のとおりです。

1.仕込んだネタがきちんとG社さんのインデックスプロセスでキャッシュされているか見るフェーズ
Googleのプロクシー登録段階。狙い通りにコンテンツやホストが認識されインデックスされたか判断します。

クロールからキャッシュデータ登録、QWから値・結果を返すための記事内容を形態素解析より抽出したフレーズマッピング(indexing)とページのキャッシングするフェーズ。
具体的には、スパイダーによりクロールされ、インデックスされる際に(リンクグラフを除く)、ページ内の主要キーワードフレーズ(Tiltle、Meta、本文)解析によるフレーズグラフが抽出される。その際共起語(co-citationともいう)関連語なども後ほど検索されるQWからひっぱれるよう、index(スキーマ)として登録され、キャッシュされる。

→このタイミングではWMTが大活躍、設計したQWどおり、コンテンツがキャッシュされ、インデックスに登録されたかウォッチします。
 GoogleによりどういったQWフレーズでサイト・ページがインデックスされたかQWボラリティ(アップ・ダウン)・ホスト・記事群ステータスを分析・ベンチマーク

2.どや顔しながらさらし者となり耐えるフェーズ
(QDD,QDFアルゴリズムに即して実際に露出・IMPが増やされ)どんだけぇーとみんなのさらし者になりながら実データを取られ、落としどころが決まる時期です。

キャッシング後、本当にユーザーの検索意図に合致しているかGoogle社が判断するフェーズです。このタイミングではコンテンツアップ後、サイトリニューアルや立ち上げ後のはじめの2週間ぐらいは、ここのQWに対し、QDF,QDD文脈上、ページ上位表示される傾向があり我々は、データ取得、フィジビリティ期間としてこの期間を捉えています。
この期間にインデクシングしたフレーズやキャッシュしたページの対応が本当に適切であるか、実クリックデータ、滞在時間、直帰率データを蓄積することで、最終的な安定評価に落ち着くというフェーズです。

→このフェーズではAnalyticsTootlが大活躍します。referを引数にセッションが続くかぎり、CTsから滞在時間、直帰率という貴重なデータが取得できるのです。LPクロスと併用することで、直帰率が50%以上のページをフィルターし、この数週間のお試し期間の間に、Titleや中身の本文(body)などをチューニングし、ユーザーのQW意図に則したコンテンツであることを立証するための運用をするのに本当に役立ちます。

Analyticsのreferは本当に使えなくなるの?答えはYesのようです。

参照元>オーガニックデータについて9/24-9/25で見てみるとほぼ100%近く(not provided)となっているのがわかります。

サンプルで運営しているBlogサイトのデータです。Google社によるencrypt が本格した日取りからなので、ほぼ100%使えなくなる当感じのようです。

Adwordsで見れるようになったWMTのデータはあまり意味がない!?

Adwords管理ツールに久しぶりにログインしてWMTにひもづけられるというのでやってみましたが、あくまでもWMTの指標しか反映されません。直帰率や滞在時間は見ることはできないのでこれじゃぁ意味ないですね。
また、擬似的にキャンペーンを作らなければならず、SEMをやったことがない人がいきなりAnalyticsからこれを使いこなせというのも、ちょっと怖いですよねぇ。課金設定を後回しにせず支払い設定でクレジットなどいれてしまったりとか。。LSやGDNをがりがりまわす人でないと正直とっつきにくいと思います。一般的に企業組織、SEO会社などでも、ADをやる人とオーガニックをやる人はセクション・担当が分かれているのが普通ですので、1人で両方を完璧にこなせる人材はなかなか日本ではいないのではないでしょうか?

おまけにデータが反映されるのに時間がかかります。ネズミのアカウントでひさびさにいじってみましたが、詳細分析(demension)部分で単にWMTのデータが表示されるだけです。これならAnalyticsの検索最適化メニューにWMTを関連付けた方がオーガニッ対策担当としては、業務効率がありがりそうですね。ただ、しいて言えば、キーワードプランニングツールがadwordsに統合されたのでこれだけ使うぐらいでしょうか。海外の記事では、

adwords paid and organic report

You’ll need an AdWords account, of course, to use the report, but you don’t need to be actively running ads. Your organic reporting will still display.(searchenginlandより)

というように、実際にADをランニング(お金を払う)しなくてもデータが見れる..とありますが、ROI計算をする時以外あまりいみないですね。(確かにQWROIを計算する場合は便利だと思います。)ちなみに私ならリスティング担当にcsv頂戴!といってデータをもらってなれたツールもしくは作ったツールにぶち込んで解析してもいいかなと思いました。

ではどうしたらいい?はい、自分でツールをつくりましょう。

われわれがオーガニックをやってくれといわれた場合、やはり滞在時間と直帰率データは欲しいです。WMTで平均掲載順位とQWボラリティにおまけでついたCTRだけですと、実際にクリックしてからのUSERアクションデータが見えないので、Google社が最終的にどういう判断をコンピューティング上するのか不安で不安でたまりません。
そこで考えてみました。

WMTとanalyticsを関連付けると見られる検索クエリ最適化メニューとコンテンツ>ランディングページの相関を利用してLP×QWのクロスを可能にする。直帰率、滞在時間を按分分配し、だいたいの評価ができればいいというのはどうでしょう?

※「検索エンジン最適化」メニューはWMTのデータです。

検索エンジン最適化>検索クエリ

検索エンジン最適化>ランディングページ

コンテンツ>ランディングページ

設計

1.QW設計時に形態素解析ツールなどを駆使して、各ページのQWフレーズ群をマスターとして整備する

・主ワード(1)
   └(∞)関連ワード

2.LPのURIマスターを作成し、コンテンツ>ランディングページデータフィールドと、検索エンジン最適化におけるデータフィールどをクエリでクロスする

URI 表示回数、クリック数、滞在時間、平均掲載順位、CTR、直帰率が行データになりそうです。

3.最後に、QWはWMTしかほぼとれなくなるので、検索エンジン最適化>検索クエリデータと2で作成したデータを1.で作成したリレーションマスターとなるマッピングデータをRDBMSを作成し突合する。

こうすることで、

・QW
・LP
・平均掲載順位
・CTs(CTR)
・直帰率
・滞在時間

といった行データが作れそうです。

現在は、本業でがっつり手がけていませんので、MSAccessなどで簡単に作成してみるとできそうに思いました。ただし、前提としてSEOにおけるコンテンツマーケティングGoogleのシステムについての考察-両輪が大切でも紹介したように、上流工程できちんとQWと関連語などの共起分析がなされている事と上記1で作成したマッピングデータの精度が高く、WMTとLPの実測データが上手になんとなく、ひもづけられるかという点が肝となりそうです。

とかなんとか難し目の話をしましたが、簡単にやるには、WMTのデータと、Analyticsのコンテンツ>LPデータを見比べてヘルスチェックをすれば今までどおり運用は十分可能かなぁと考えています。結局のところ、工夫すればそんなに困ることもないのかもしれません。Google社が暗号化した背景において、プライバシーの保護を理由に、Adwordsドリブンに?など海外記事では憶測記事も出回っていましたが、”実はそんなに困らない”ということで実施したのかもしれませんね。ワシントンポストの記事については、スノーデン氏の事件以降、ハングアウトやTV番組などにもマットさんがゲスト出演してこうした流れを事前にお話していたのも見かけましたので、今後WebmasterHelpビデオなどでマットさんがどういった言及するか楽しみでもあります。なにもスピークせずスルーかもしれませんが..

※本稿はあくまでも当サイトでの個人的な見解となります。さまざまな施策を検討する上で一つの要素として参考程度にとどめていただければ幸いです。

, ,


関連記事