2013年7月27日土曜日

【PickUp】アトリビューション分析は本気出すと準備だけで10か月、予算は億単位

アトリビューション分析は本気出すと準備だけで10か月、予算は億単位。さすがSUUMOさんは違うぜ!伊達にモシャモシャしてないぜ!(そういう意味ではありません)
本気でアトリビューション分析をする場合は取り組みの準備、仕組みの構築、ヒューマンリソースの確保など、予算以外にも検討・決定事項が山ほどあります。そこまでする意義を会社が認めているからこそ承認されたプロジェクトなんでしょうが、逆にこの成果が出そうにも出にくいものに対して承認したリクルートという会社もやっぱりただ者でないんだなあと思いました。
掲載は去年の記事ですが、かなりおもしろかったですし、実際の業務で役立つコメント、考え方もあると思います。そんな予算うちにあるわけねーし、そこまで解析やってねーし、と思わずに、解析担当者なら読んでソンはないと思います。なぜなら広告の最適化の先にあるのがアトリビューション分析だからです。

参考記事:http://web-tan.forum.impressrd.jp/e/2012/06/13/12915
Web担 「需要予測とアトリビューションを連携。オトナの事情に負けずに分析→最適化を推進:リクルート小川氏×アタラ有園氏 対談」
内容はSUUMOサイトのアトリビューション解析と広告施策について触れられています。あと社内の壁とか。アトリビューション分析の効果測定、手法や運用の難しさ厳しさについても触れられています。おそらくこの点は1年後の今でもそう変わっていないのではないでしょうか。ざっと流して読むだけでもなんか腑に落ちる点が多いです。
ウェブ系の広告会社の営業担当がアトリビューションを語るとき、定義と効果を明確にせずに、「間接効果」というものを自分たちに都合よく使っている話も、最近耳にします。
この対談でも語られているように、アトリビューション分析は分かりやすい効果に結びつけることは難しく、広告やSEOの最適化をやるだけやった、その次のステージにあるものだと思います。
 以下、印象的だった箇所をちょっと引用します。

“ロジックは感情を反映するので、その人の思いや、やりやすさで一番良いものは変わってきます。”

解析者がどういう軸をもち、何を目指して解析設計をし、データを整理するのか。根本的な問題で、スタートでありゴールですよね。 だから、解析ツールでもない、小手先のTIPSでもないここでの「思考」が重要なのかな、と思いました。また、やっぱり統計学の知識は必要だと思いました。数式は覚えなくてもいいと思うんですが「予測」が絡んでくると当然必要。普通にアクセスログ解析で現状把握とか改善する分には出てこないかもですが。

“月次でモニタリングする際にはセッションベースでみることを統一しておきます。アトリビューシ分析をするのは、コスト削減や集客予算の最適化のためであって、報告のためではありません。報告は通常のモニタリングとは別の軸で行うことが大切だと考えています。

“アトリビューション分析をやる時点で評価軸を変える必要があります。セッションからユーザーにすること自体がドラスティック”

解析をやってると、ただでさえつじつまが時々合わないデータだから、せめて解析は軸をぶらさないでおこうと考えがちです。なんかすっきりした!

“Googleアナリティクスの「マルチチャネル」レポートを見てほしいですね。成果のうちアシストが含まれる割合が2割~3割なら、アトリビューション分析に力を入れる必要はないと思います。(中略)SEOやリスティング広告をやりきって、さらに何かをという段階ならば、アトリビューション分析をしてみるのは良いことだと思います。 ”

すべてのところでアトリビューション分析が必要かどうかはわかりません。ムリにやる必要はないけど、もし確認したいのであれば今使っている解析ツールや広告管理ツールをまず見てみることからスタートなら、我々にも出来ることですよね。

最後に下記を引用します。

“アトリビューション分析という考え方自体は正しいと思います。誰でもわかるはずです。セッションではなくユーザーを見て分析しようというのはベースにあって、ここはみな同意できるわけです。(中略)、やろうとしている人が情報共有して、みんなで情報を出しあって頑張っていくのが第一だと思います。当たり前のものとして定着していくことを目指したいですね。”

■余談
先日とある会合の立ち話で、「(会社としては)解析一本だけじゃ売れない。広告から入るのが常套手段だよね」という話題が出ました。これは売方というか営業方法の話なのかもしれませんが、現実問題として、解析というパートだけでは商材になりにくい、むしろ難しいです。
マーケティング会社やコンサル会社が解析業務を商材とするのは、コンサル、提案、提供する情報ありきですし、社内で自社サイト、あるいはクライアントのサイトの解析に携わっている場合は、おそらく運用や制作の延長です。今回の対談のアラタ合同会社はマーケティング、コンサルティングの会社です。とすると、解析業務単体で商材としての価値や市場はどうなんでしょうね。
昨今ビッグデータとかセクスィー解析学とか、今ちょっと解析がホットな感じです。統計学的なデータ分析に引きずられるように、ウェブ解析という業務も新しいステージに移行するのかもしれません。

2013年7月24日水曜日

【解析いろは16】新しいインサイト画面のご紹介

珍しく、解析Tipsのサイトっぽく新しい画面等をご紹介しようと思います。ちなみに当blogは解析Tipsやノウハウのサイトではありません。実務のスキマを埋める解析ネタ話のサイトです。
当方のインサイトもいつの間にか新しい画面が選択できるようになっていました。ちなみに一回だけ、旧インサイト画面に戻すことができますが、そうすると次に全てのユーザーのFBページがアップデートするまで新インサイト画面にもう一度戻すということができないようです。


◎概要
 概要ページはいいね、リーチと、質を示す交流度(いいね!やコメントなどのユーザーの反応の内訳)に分けられて、主な指標が個別に、大きく数字で表示され、一目でわかりやすい思います。また、グレーの線でその前1週間がデフォルトで比較されるので増減の推移も把握できます。
以前は一つのグラフだったのですが、相関がぱっと見てわかるものの指標が「話題にしている人」と「合計リーチ」(+投稿数が円)だったため、そのグラフの意図がよくわからん、という感じでした。いや、リーチしている中で話題にしている人の数が極端に増減してしている場合は、その原因を確認しなくちゃいけませんが、通常ではほぼ同様の波形だと思うんですよね。
で、この下にページの投稿の概要リストがありますが、画像投稿の場合はサムネイルが表示されていてこちらも随分わかりやすくなったと思います。 (例の画像には含まれてませんが)
【FBインサイト新画面:概要ページ】



◎ページ
私の中ではここは「量の指標」の分類かなと思っています。いいね、リーチ、ページのアクセス数です。指数を個別にくっきり分類して、より分かりやすくしたなあという印象です。

平均値のベンチマークをオンマウスで表示が出来たりするんですよ。日次、週次の管理では便利ですよね。 
【FBインサイト新画面:ページタブ 投稿のリーチ ベンチマークラインの表示】













 ◎投稿
コンテンツ管理ですね。ここで各投稿記事へのユーザー反応の指標「交流度」を見ることができます。リーチ(記事が届いた数)に対する反応率も出しやすいですね。どうせなら数字で出しておいてくれればいいのに!この「交流度」という指標は「
概要ページもそうですがサムネイルあるなしで「何の記事だっけ?」「これなんでいいね!が多いんだろ」というのが直感的に把握できます。当方は外部ブログへのリンク、外部リンクの紹介記事が結構多い、ということがわかります。だってFBでダラダラ長い記事掲載しても読みづらいし、メイワクでしょう。よく文章量が多すぎてしんどい、といわれます。
抜け作なもんでサンプルの画像にはないのですが、リーチの内訳が「ファン/ファン以外のリーチ」という分類表示ができるんです。これもコンテンツの質をあげていくために結構重要かなと思います。当方ではある記事でNot-Fanの数がファン数を上回っていたものが幾つかあります。その部分を検討すると、今後さらにリーチが広がるでしょうね。(やれよ!)
ここの「ファン以外のリーチ」というのは初出のワードのような気がしますが、文字通りファン以外の人へのリーチだとして、その定義がちょっと気になります。教えてFBの中の人。

【FBインサイト新画面:投稿タブ すべての投稿】













・ファンがオンラインにいる時間帯
「ページに「いいね!」しているユーザーのFacebook利用時間を知ることで、そのユーザーが目にしやすい時間に合わせて投稿をシェアすることができます。」ということで、投稿カテゴリのタブ切り替えになっています。本来はユーザーのカテゴリに入っているものかもしれませんが、実務での投稿管理を考えた場合、ファンが多い時間帯に投稿するというのは大切ですからここに入ったのだと勝手に推測しています。曜日別の平均(上)にオンマウスすると、下の時間帯別グラフ(全平均)に、曜日別の平均数(@1時間)の折れ線グラフが表示されています。
ただ、「最近一週間のデータ」らしいので、本気で曜日別、時間帯別の動向を把握しようと思ったら1~3か月で傾向をみたほうがいいような気がします。
あと、これまたサンプル画像がないですが(またか!)、このカテゴリには「ベスト投稿タイプ」の提案というか、傾向の算出もデータとともに示してくれているので分かりやすいですね。とくに多種の投稿タイプを利用しているユーザーには役立つと思います。

【FBインサイト新画面:投稿タブ ファンがオンラインにいる時間帯】













 ◎ユーザー
ユーザー属性を人口統計データと共に確認することができます。ターゲットとユーザーのずれがないか、以外なファン層の発見などに役立ちます。ちなみに「何らかのアクションを実行した人」は最低30人がページでアクションを実行した場合にのみ使えます。まあ、そりゃそうだ。

【FBインサイト新画面:ユーザータブ】















■まとめ
新しいインサイトでは毎日、週次の管理は、現場の人が見る限りにおいては前よりも分かりやすいのではないかと思います。
・投稿時間等がユーザー側の時間になったようです
・ところどころ英語が残ってる

・管理運営側をかなり配慮した構成になっている
・やっぱり1週間単位が基本

FBの運用ではこれがまあ基本単位かなと思います。

■余談
レポートは週間、月間、四半期、半期、通年で内容、構成、グラフの表示形式、コメント等、要素が異なります。レポートが期間によって利用目的が異なっているからです(そのはずです)。そのレポートが「何のために+誰のために必要なのか」を考えると、異なっていて然るべきです。
日々の運用PDCAにはインサイトでまあ結構足りているのですが、例えば、ちょっと上へのソーシャルの運用状況の報告(ベンチマークでの他社比較といった他の軸での評価、個別に目標が設定している場合はその達成率と課題)を出すこともあるでしょう。

その場合はエクセルで泣きながら資料を作ったり、別の解析ツールを活用するという方法もあります。

■余談その2 ソーシャルの指標について考えてみた(長いですよ!)
余談ですが、なぜFBを含めソーシャルの指標はなんだかわかりにくいように感じるのは、リーチがエンゲージメントというユーザーの交流の深さ、質の影響を受けるからなのでしょうかね。しかし、FBページに おいてはリーチは記事がファンに到達する範囲ということですから、ここでのリーチは「量の指標」と考えるべきではないかと。ま、ちょっと微妙なんですが、 私的にはページタブの中では量の指標という認識です。

それじゃあ「いいね!」はどうなるんだよ!あれだっていいね!て意思表示してるんだからユーザーの 反応だろ?と仰る向きもあろうかと思います。そこで、なぜ「いいね!」数が、昨今言われているように素直にエンゲージメントの指標にならないのか、なぜエンゲージメントを「リアルに」測ることが難しいのか(あるいは難しく考えすぎなのか)という話になると思います。
まず誤解があってはいけないのは、「いいね!」をエンゲージメント指標と評価してもいいのです。イヤならそもそも「いいね!」すらしませんしね。
指標をどう捉えて何に活用するかは解析する側、ひいてはクライアントの要望にどのように応えるかだと思います。
昨今「いいね!」数だけ見ていてもユーザーエンゲージメントのリアルな反映、あるいは数値とはいえないのではないか、という疑問の提議は、FBの仕様がリーチ率の算出とかけあわあせで、ファン全員に投稿記事がすべて届くわけではない、という点に起因しているからだと思います。
また、ソーシャルにおける「エンゲージメント」の意味を追求していくと、一回限りのいいね!ではなく、記事投稿ごとに対するリアクションで深度を測って いったほうがエンゲージメントのイメージに合うと思うのですよ。ゆえに、FBでは仕様で、ページに「いいね!」をしても100%すべての人に表示される わけでもなく、リーチ率という、エンゲージメント指標が影響する要素でふるいにかけています。
何が何だかわからない、FBで決めてくれたらいいのにと思うかもしれません。私もそうしてほしい(笑) 今回のリニューアルは、多分そういう意向とビジネス利用のためにかなり整理したのだと思います。
しかし、考えてみるとエンゲージメントの定義を何とするか、どの指標をKPIにするのかは、ひいてはFBページで何がしたいか、何を達成したいのかという目標に戻っていくような気がします。
あと、指標の質と量の分類はこれ人様々です。リーチ数がいい例ですね。いいね数もそうですね。ですから、自分の理解と解析のための軸を持つことも大事かなと思いました。

2013年7月16日火曜日

【PickUp】EコマースとCLVとSNSの密月はウソ?

昨今注目されているマーケのキーワード、「カスタマーライフタイムバリュー(顧客生涯価値)(CLV)」。アメリカのマーケティングリサーチ会社のCustona社の調査によると、オーガニック検索を経てアクセスしてくる顧客がCLVが最も高く、優良顧客率が高かった。。。という結果だったそうです。

”優良顧客率が低かったのはソーシャルメディアからの流入顧客だ。Facebookからは1%、Twitter経由では-23%という結果に終わっている。 ソーシャルメディアのコンバージョン率は高いと思われがちだが、今回の調査結果から見ると、むしろ従来型のメールマーケティングの方が効果が高いといえる。”

ニュース元:http://marketing.itmedia.co.jp/mm/articles/1306/28/news050.html
元記事(英語):http://searchenginewatch.com/article/2277756/Most-Valuable-Ecommerce-Customers-Come-from-Organic-Search-Study


そもそもCLVとはなんぞや、というと「顧客満足度を上げてとの良い関係を長く保って、お金やなにやらを継続して落としてもらう幸せな関係」(超意訳)と言う感じでしょうか。正しい定義は検索してくださいネ! 新規顧客を獲得しつづけるのはコスト面も大変だし市場も限られている、という理由もあります。
近時、企業がこぞってFacebookやTwitterなどのSNSを活用しようと乗り出してくるのは『顧客との直接的な接点を増やして企業や商品イメージをアップしてCLVをあげたい』という考えがあることが多いと思います。もしくはマーケやコンサル会社が『SNSを通じてユーザー、潜在的顧客を獲得し、優良な関係を築いてCLVを上げていきましょう』的なプレゼンをしているかもしれません。
 この調査結果では、ソーシャルは確かに流入のチャネルにはなっているけれども、CLVはあんまりだよな、ということが透けて見えたわけです。

“Social media is generally accepted as a common contributor in the path to conversion, and sometimes is the last click or only click in a conversion funnel. However according to Custora, clients coming from social networks don’t stack up against the CLV of clients coming from other channels.

 何が言いたいのかというと、SNS=集客の要になる、CLVの向上に資する、といったことを「=(イコール)」で結ぶのではなく、冷静に受けとめる必要があるということです。 このニュース、特に日本語の抜粋だけ読んで「SNSはCLVに結び付かない、やっぱりSEOとメルマガとCPCで優良顧客を増やしていくべきですよ!」 という結論に結びつけるのもいかがなものか、と思ったり。
この記事の見出しも「~ウソ?」なんてちょっぴり装飾してみましたが、SNSが新しい流入チャネルとして重要であることは変わらないだろうし、SNSを通じてCLVを上げることも可能だと思います。今回の調査はEコマースに限定しているようなので、そうでない会社とSNSとの関係は異なるかもしれません。また、統計的には十分な母数を備えていますが、あくまでも傾向の平均値になるため、本当に自社やクライアントにこの結果が該当するか・しないかというのも考えなくてはなりません。
データというのは事象の分析結果の一端なのですが、言いよう・使いようによってどのような印象をも与えることができる、という好例ともいえますね。今流行りの統計学的思考を身に着けよう、ではないですが、真に受けすぎない・軽んじすぎないさじ加減が必要かと。
でも主張する側に立ったときは主張するメリットに対して論理を貫き通すことが必要ですよ。どのようなことにもメリット・デメリットはあるのですから、そこでどちらにも配慮した平たい論旨を展開すると聞いている側は「どっちやねん」と感じ、不信感が募るだけですから。


ネット関連の施策はリアルのキャンペーンや広告よりもはるかにとっつきやすく、コストも比較的安く済む。また、効果計測がやりやすい。というメリットが高いのは事実です。リスクを考えすぎてやらないよりも失敗を含めやったほうが結果が得られやすい、やったもの勝ちな面があるのもネットだと思ってます。企業ではどうしてもリスクヘッジをしたがりますが、どっちかというとリスクマネジメントをすべきだと、最近すごく思います。

2013年7月9日火曜日

【PickUp】選挙とSNSとビッグデータ

カリフォルニア州の40歳~49歳の富裕層女性はジョージ・クルーニーがお好み! なるほどねぇ~。NY州ではサラ・ジェシカ・パーカーが人気。ブルース・スプリングスティーンがオハイオ州で登場するのも分かる分かる。

でも、これは全米のタレント人気ランキングの結果ではありません。2012年の大統領選挙におけるオバマ陣営の選挙資金パーティーでキャスティングされたセレブです

アメリカではビッグデータに基づく選挙戦略がすでに実行されています。オバマ陣営では、地方での選挙資金集めのパーティーで膨大なビッグデータを元に、土地柄や招待客の層と嗜好にあわせて支持者の俳優や女優などのセレブを選び、効率良く、より高額の選挙資金を集めました。
それに関して興味深いレポートがありました。お暇なときに読んでみてください。ヘタなニュースより面白いです。
KDDI総研 米国大統領選に見るソーシャルとビッグデータの役割
また、つい最近(5月)、選挙をにらんでNHKで特集が組まれました。こちらは短くてわかりやすかったです。

オバマ陣営の戦略は常に進化してます。2008年からアプリを使い、2012年の選挙ではその時から集積したデータを他のデータベースと統合して精度をガツンと上げているそうです。

”ソーシャルメディアのコンテンツを「発信」でなく「受信」して集め、大量のデータを動かして、シミュレーションや解析を行うツールや環境が充実し、データ解析の技術が急速に進化してきたという環境”

このセンテンスを読んだだけで鳥肌が出ます。すごっ! 脳からヨダレ出てきた。

もう一つ、前選挙でオバマ陣営が取ったのはソーシャル戦略の徹底です。キーワードは『パーソナライズ』。

”誰の名前でどういうメッセージを送るのが最も効果的か、膨大なシミュレーションが行われ、それぞれのターゲットに合わせた発信者と内容のメッセージが送られた。支持してくれそうな個人にパーソナルに呼びかけた。”

例として、筆者の元にミッシェル・オバマ夫人から贈られたツィッターのダイレクトメッセージが挙げられています。こんなのがダイレクトメッセージで届いたら興奮しますよね。パーソナライズされていますから、誰にでも同内容のメッセージが送られてきたのではなく、インフルエンサーとして影響力があるがために、その内容に特化したメッセージとなっています。
マスコミに依存するのではなく、ソーシャルをオウンドメディア化し、情報発信と受信によるコミュニケーションとシェアの輪を広げたこと
オバマ陣営は、これを莫大な費用とデータを投入して実装し、勝利を得た、ということになるのでしょう。重要なことは、

“オバマ大統領自身がすべて理解しているわけではないだろうが、それだけのスタッフを雇い、彼らを率いて使いこなせる程度にはITを「理解」しており、そのためにリソースを割く判断ができる。”

という点です。トップは何も知らなくていい、という訳ではないのです。ネット選挙活動が解禁となった日本で、一体どれくらいの候補者がこの点を理解しているでしょうか。日本企業のトップもまた然り。リーダー(決断する立場の人間)が、システムの詳細は知らなくてもいいけれども、その効果ややろうとすることを理解していなくては、クソの役にも立たないことでしょう(あらやだー)。KDDIのレポートの末尾でもこの点について鋭く言及しています。

イン・ザ・ループ Blog (2011/11/01)ソーシャルCEOとは?
 
こういう記事もあるので、CEOという立場、管理職にある立場の方々にはぜひ読んでもらいたいものです。記事自体はちょっと古い時期のものですが、しかし日本ではさほど進んでいないせいか内容は古びてないと思います。まあ、よくてブログですかね。あれも誰に発信しているのかわからないのが多いですけどね。顧客なのか、広く世間なのか、社員なのか、関連会社の幹部なのか。社員や幹部へのメッセージなら社内SNSでやればいいのに、とか思う今日このごろ。


また、最近の記事で気になるものをピックアップしました。
ITmedia マーケター通信 facebookの遊説報告は結局スピーカーでの連呼と同じ?
よく見かけますよねえ、この刺さらない遊説報告。暑苦しいのもうっとおしいけど、「で、だからなによ」というリアクションにもつながりかねない薄さですな。唯一評価されている感じの安倍首相のFacebookページのイメージ写真があざとい・・・(笑 どこが(誰が)フィクサーなんでしょうね?
http://www.facebook.com/abeshinzo?fref=ts

 あとYahoo!からこんなのも。
ビッグデータが導き出した参議院選挙の議席予測
興味深いのが、その結果ではなく、「ビッグデータ(主に検索)を用いてその時々の話題をレポートしていこう」という試みです。元データは置いておくとして、調査方法や予測方法を簡単に説明してくれているのは面白い。まあしかし、「「Yahoo!検索」データなどのネット上の動きと、実際の得票数の間に高い相関がある」ことの真偽はわからないですけどね。
受け手の私たちは結果や予測がどうか、ではなくそれを材料に『自分がどう考え、判断するか』が最も大切なことではないかと。



なぜこうもビッグデータのネタを使うかというと、流行ってるというものあるのですが、これによって今までの解析のロジックや思考がひっくり返る可能性があるからです。実際にビッグデータに触れる機会はそうそうないかもしれませんが、アンテナを張って知識を仕入れておいてもソンはない、と思います。

2013年7月5日金曜日

【解析いろは15】ログ以外のデータはどこから持ってくる?

ぼっちの解析者はどこから情報やデータを持ってくればよいのか、というのが今日のテーマです。

会社に所属していても、こういうデータがあれば、解析結果を補足できるのになぁ・・・ということはありませんか? でもうちの会社にそんなデータなんてないし、と諦めてませんか?
大丈夫です。普通持ってませんから。コンサルをしている会社ならどこでも豊富なデータを保持しているという訳ではありません。デモグラフィックなデータを出せるほど精密で母数の多い客観的なデータを自前で持っているところはごく一部の会社でしょう。

■インターネットからデータを探す
まずは検索して探す。ワードを変え、該当した記事が掲載されているサイトやブログの他の記事も見て掘り起こすことです。中には「そんなのを無料で公開してくれてありがとう!」というすごいデータもあります。調査会社が発行・公開しているホワイトペーパーの抜粋プレスリリースも役に立ちます。 探す作業や資料の読みこみに時間はかかりますが、勉強にもなります。
私が愛用(?)しているのは、ニールセン電通PR総務省の白書コーナー、ビデオリサーチインタラクティブ等。他にもウェブ系、ソーシャル系のコンサル、ニュースサイトのホワイトペーパーも参考になります。大きな会社だから大丈夫~と信用するのではなく、データの収集方法や母集団、提供元の情報を確認する必要があります。

■データを買う

この他、「買う」という手があります。白書として売ってるので必要に応じて購入します。●●白書系はめくってるだけでかなり面白いですよ~。

■あくまでも「補足」。“正しい”っぽいデータに逃げない。
但し、これらのデータでの裏付けはおおまかな傾向等を把握するためので、あくまでも「補足」であるということを忘れないでください。統計学的データとか客観データとか多数の平均とか、そういうものに判断の根拠を求める人はいないと思いますが、しかし、人というものは不安であれば「確かな数字」に根拠を見出したがるものなのです。それはメインであるデータ、例えばアクセスログ解析データを真に理解していない、といえるのではないでしょうか。

白書などの統計データの調査方法はもちろん統計学的手法に則り、相応の母数を集めて集計しているわけですが、しかしそれでも偏りや集計ミスも散見します。例えば家庭内PCからのアクセスが主である、など。あるジャンルを調査するのにデバイスが結構偏ってるような気がしますが、母集団を家庭内PCからのアクセスという風に限定してしまえばそういう集団の特性、ということは言えるのかなと思いますケド。
また、一般的に公開されるホワイトペーパー、概要は意図が含まれています。その結論を出すのに不都合なデータは、まあ普通は掲載されていませんよね。探しているこちら側もまず結論ありきではないでしょうか。それに見合った裏付けデータを探しているだけの話で。

■「統計リテラシー」
分析し説明をする側としては、数字・統計を上手にかつ正しく利用しなくてはいけない、と常に思います。だから私は前述の他社が提供・公開しているデータを報告書に掲載する場合は、補足として目立たないようにページの一番後ろにくっつけます。もちろん、どこそこからの転載と情報元もきちんと指定通り掲載します。

先日、NHKのクローズアップ現代で「数字のカラクリ・データの真実 ~統計学ブームのヒミツ~」という番組がやっていました。これ再放送かアーカイブでもいいので、ぜひ見ていただきたいです。
http://www.nhk.or.jp/gendai/kiroku/detail_3375.html

これを飲んだら98%が痩せた、95%に効果があった、という謳い文句の意味が分かります。まったくのウソではなくても「数字の信仰」を利用したマジックというべきものです。私は文系で数字とか計算は非常に苦手なのですが、「統計リテラシー」は数字の好き・嫌い問わずに多くの人が知るべきだと思いました。
また、すでにビッグデータ解析によって ウェブサイトへのアクセス状況の予測が高い精度で予測できる統計学の数式が編み出されていることにも驚嘆しました。
いいぞ、もっとやれ! え? それじゃあ解析の仕事なくなっちゃうじゃん?て思ったアナタ。解析は「それ」だけに限ったことではありませんし、解析ツールもどんどん進化しています。なくなる・効率化される作業は今後も増えていきます。その中で、何が自分にできるのか、解析担当としての真の職責はなんなのかを考えるべきじゃないでしょうか。あ、自分にぐっさり刺さりました。

さて、番組を見ていなかった人に質問です。「心筋梗塞の人の95%、犯罪者の95%が食べていたという食べ物を禁止すべきか。」この食べ物ってなんだと思います?

2013年7月2日火曜日

【GAの壁】カテゴリには意味がある


GAは項目多すぎ!上から順にとりあえず見てレポートしている。漠然と指標を追っている…という方におすすめしたいネタ。既知の人はすっとばしてください。GAのカテゴリの並びには意味があります、というのが今日のテーマです。
GAIQ持ってますが正直、GAはわからない・知らないことだらけです。やっぱり実際に使ってこそ身に付くものだと思いますが、フルに活用しているかというとそんなことはないです。定期レポートだと見るポイントや指標は大体決まっていますもんね。


アクセスログを通じて何を取得しているのかというとユーザーのサイト内での動向です。具体的には「どのような人が、どこから来て、どこを見て、何をしたか」です。 GAのカテゴリは上から順に以下の通りに並んでいます。

どのような人が=>ユーザー
どこから来て =>広告・トラフィック
どこを見て =>コンテンツ
何をしたのか =>コンバージョン

<引用・参考文献>Google アナリティクス パーフェクトガイド 山浦直宏 著 P37~

アクセスログはユーザーの行動の軌跡を辿るものであり、指標にはそれぞれ必ず意味があります。数あるGAのMetrics、指標はこれらを掘り下げていくためにあるのです。そう考えると、数が多くてもそのサイトに必要な指標がなんとなくわかった気になりませんか? 私はこの分類の意味を知って解析に対する考え方が変わった、というくらいに納得しました。

数多ある指標は各カテゴリにぶら下がる形で配置されています。ユーザーは訪問者が新規かリピーターか、訪問数、PV数、滞在時間・・・などが指標として挙げられます。ですが、ちょっとややこしいのはそれら指標が特定のカテゴリにがっちり拘束されているわけではなく、他のカテゴリに使われていたりセカンダリディメンションとして選択して表示できる点です。
レポートする側としては、混乱が生じないように、カテゴリの趣旨はぶらさない。コンテンツカテゴリで新規、リピーターのセグメント分けをする場合も、結論はあくまでコンテンツに関することにしてであり、セカンダリディメンションは、そのカテゴリの情報を深堀するためのものである、ということを忘れないようにしています。そのコンテンツが質を重視するのか、量を重視するのか。用いる指標によってコンテンツの価値や効果を明確にできますよね。そのような「わかりやすい」レポートを書かねばならないと思っています。
 
GAは無料なのに恐ろしいくらい機能が豊富です。しかし、大きな企業になると、社内規律やPVの上限、ウェブビーコン方式の限界でGAは使ってない・使えないことろも結構多いと思われます。その機能を本当に活用すべきところが使わないにも関わらず、どこよりも早くユニークな機能が開発、付加されています。GAはGoogleの広大な実験農場なのですね。ですから、GAを使う限りは、使い倒してとことん利用したほうがお得だと思います。

あ、GAIQ取得したい人は、前記の本を隅々まで読み倒して自分で補足を加えていけば大丈夫かなと思います。自前のGAの画面見ながらやるとなおよし、です。