2013年11月8日金曜日

【GAの壁】Googleアナリティクスの新しいアドバンスセグメントはできる子です

レポート作業でGA漬けになっておりました。新しくなって戸惑うことが多いGAですが、9月のアップデートで飛躍的に使い勝手が良くなったように思います。特にアドバンスセグメント機能が、いい。もうすでに先達がレポートされていますが、私なりに感じたことや便利な使い方を簡単にまとめてみました。 

1)ユニークユーザーの新規とリピートの“ユニークな数”がわかるようになった
これ見たときにすごく感動しちゃったんですけど当方だけでしょうか? セグメントで新規ユーザーとリピーターを選択すれば、ユーザーサマリーのユーザー数で表示されるようになりました。多くの人たちが以前のバージョンで仮定していたであろう「新規ユーザーの訪問数」=新規ユーザー であることがこれで確認できますね。で、ユーザー数のリピーターを見てください。リピーター28(人)と表示されています。これで、以前まで解明できなかった「リピーターのユニークな数」がわかります。(という理解でいいんですよね!? この点は合っているかどうか、そのうち出るどこかのGA解説本を確認します。)



前にこんな記事(「アナリティクスの新規のユニークユーザーは何人?)を書いたのですが、もはや遠い日の花火になってしまいましたとさ。


2)普通にコホート分析とかロイヤルティ測定用のセグメントとかが作れます

 コホート分析はeコマースタグでないとできないと思い込んでたんですが、カスタムセグメントでも作れます。セグメントがユーザー単位という指定が可能になったので色々な角度での分析が可能になりました。訪問単位でなくユーザー単位で見ることができる、ということは計測期間内でのユーザーの動向が把握しやすくなります。


例えば、ロイヤルティやCLVのセグメントを作ることもできますよね。それらの中身は自分で定義しないといけませんが(実はそれが一番難しい)。
仮に当方のブログでロイヤルティユーザーとして「計測期間中の累計滞在時間2分以上のユーザー」というセグメントを作ってみました。行動で「ユーザーごと」を選択し分を設定。はいこれだけー。
ここでのロイヤルティの定義内容を説明しますと、当方のブログの平均滞在時間は46秒です。一つの記事がまあそんな程度のボリュームですんで。累積時間が2分以上ということは幾つか記事を読んでまったりしていってくれてるんだろうなあと(かなりいい加減な当方のロイヤルティの中身ですが、この定義が解析の中身を左右するので本番では真剣にかんがえます。)
購入というコンバージョンがないコーポレートサイトでもこんな感じでセグメントを作ると会社の事業やブランドの認知を測る指標のひとつとして使えるかなと思います。

・会社のブランドに関わる特定のキーワードで来訪
会社のサービスやブランド、業務内容の特定のページに●分以上滞在したユーザー(というセグメント)




さらに、便利な機能が「シーケンス」。ステップでコンバージョンや行動の設定ができる! ステップごとにユーザー行動を確認し、傾向を見ることができます。
例を挙げますと、
・第一ステップでお問い合わせページでお問い合わせ完了
・第二ステップでサービスの申込みをしたユーザー

というセグメントが作れます。

定点観測で見るのはもちろんKPIとして定めた指標が多いでしょうが、ユーザーの深堀りが設定だけでできるようになれば1か月単位のユーザー分析 だって楽にできますよね。サイト改善は待ったなしですから、予算の計上のための中・長期レポートはさておき、短いスパンでまわしていくことが今後さらに求められるように思います。


3)他の人が作ったセグメントをインポートできる
親切な人が便利なセグメントを作って公開してくれています。気をつけたほうが良い点としては、ギャラリーで海外のセグメントで「これいいやん!」と思っても、日本カスタマイズが必要な場合があります。例えばソーシャル関係。参照元に日本ではメジャーなアメーバが当然含まれてません。エリアや言語などの固有のセグメントは自作したほうが良さそうです。

てことで、新しいセグメントは普通に良く出来る子!
すごく便利で選択肢が増えた半面、これがセグメントの設定であるということを忘れないようにしないと誤解や間違った使い方をしてしまいそうです。また、中でちょっと触れましたが、結局、セグメントを作る目的とどのような値や条件を用いるのかという設計が肝心ですよね。また複数人で見る場合はその設定内容と意図を共有しておくことも重要かと思います。

2013年10月22日火曜日

【PickUp】ソーシャルからコマースの系譜-PinterestからSumally、FANCY、そしてOrigamiへ


ソーシャルからコマースへの系譜 PinterestからSumally、FANCY、そしてOrigamiへ(前編)【Eコマースコンバージョンラボ】 2013/7/16 ソーシャルメディアマーケティングラボ より

Eコマースとソーシャルの接近やソーシャルコマースの事例があげられています。日本ではソーシャルコマースはまだ限定的で、あらゆる商品に適用できる方程式があるという状況ではないですが、こういう方法もあるんだなってことでピックアップしました。

日本発のサービスということでは「Origami」がユニークです。スマートフォン向けのソーシャル買い物アプリで、しかもiPhoneのみ。扱う商材はセレクトショップや百貨店などの、比較的高い価格帯の商品です。ターゲットがすごく限られてマーケットが狭い、と思うでしょう? でも個人的にはこれはおおいにアリだと思うんです。マーケ的に見ると、市場が狭いといいつつ最初から指向性の高いユーザーが入ってくるわけですから、有象無象の中から選別するよりずっと効率がいいと思うんですね。とはいえ、多くの商品はショップや他のモールでも買える場合が多く、価格と価値のバランスをどう取るかが「Origami」の課題になるのかなと思います。今後、OtoO機能や雑誌とのタイアップをする予定があるということなので、ちょっと楽しみなのですが、いかんせんiPhoneアプリ。当方、アンドロでございます…アンドロ対応アプリ作ってください。すごい機会損失だと思うんだけど。


「Pintarest」 は日本でも今後活用される可能性が高いのではないでしょうか。キュレーションサービスの分類なんでんすが、集めて構成した画像からeコマースへの誘導が出来ます。日本では楽天、サンリオなどが導入しているようですが、これが成果を出すのはまだ先という感じです。 スクラップブック好きな女子は惹かれるかもしれません。海外ではそれなりに結果が出ているようですが、日本でのユーザー数がどこまで伸びるか、というところにかかってくるでしょうか。

ところで、本題です。ええ、そうなんです。本日の隠れテーマは実は「Facebookでeソーシャルコマースやソーシャルギフトってどうなのよ」なんですね!(最初から書け)

Facebookのカートや決済機能が導入されますよ、というニュースからはや2年ほどでしょうか。現状、アプリではFacebook内決済機能が幾つか提供されていますが、日本での活用状況はというとちょっと香ばしい感じです。当方の記憶も導入するよ。導入した企業があるよ(http://web-tan.forum.impressrd.jp/e/2011/11/28/11621)。というニュースだけで停止していたため「日本でも今後広がるんじゃない?」とテキトーなことを言ったこともありましたが、その後調べてみると撤収・停止していたり・・・道理で、FBのセミナーに行ったときに商材として全く触れないわけだ。FBのソーシャルギフトも、物品よりデジタルの贈り物の選択が多いので、早々に物販は廃止になってます。
狭義のソーシャルコマース、ソーシャル内で商品の販売が決済まで完結するという定義をした場合、Facebookではソーシャルコマースは上手くいかない。

という説が闊歩するのもやむなしなのが現状です。
以前、セミナーで聞いたのですが、台湾におけるFacebookを参照元とするECサイトの流入割合は相当多いらしいです。しかし台湾でソーシャルコマースが活発かというとそういう話は聞かない。 EC系、販売系でのFBの活用というのは「ファンの獲得、ロイヤルカスタマーの育成」の場として利用することが現実的な利用方法のようです。
アトリビューション分析測定の方法がもう少し進めば、ユーザー行動におけるソーシャルの地位が再評価されると思います。あと、アメリカで効いても日本では効かないということもあります。ソーシャルの市場規模や成熟度もそうですが、商品購入に関するスタンス(ひいては国民性)の違いも関連していると思うのですがどうでしょうか。いつか、そのような違いを研究してみたいですね。
余談ですが、アメリカと日本の様々な違いを数字とかわいいイラストで示したコンテンツがあったので掲載します。元ネタのページはすでに存在しないようです。

http://matome.naver.jp/odai/2131407138973197201(NAVERまとめ)
よだれ出てるよ!


空想レベルの話ばかりで恐縮ですが、そのうちソーシャルで決済しようがECサイトで買おうが、問題にならなくなるんじゃないかと勝手に思っています。 最近うえっとなるほど見かける「オムニチャネル」というワード。どこで買う、というのが重要ではなく、ソーシャル、ネット、リアル店舗などあらゆる接点を駆使し、最終的にはどこでもいいので自社を選んでもらう、という考え方です。ストーカーみたいですね。私的な感想ですが、リタゲ広告すごくウザいです。あれは消えてよし!
次から次へと良くこんな考え方を捻り出せるよなあと感心しているのですが、それだけ消費社会が成熟しきって、熾烈な顧客争奪戦を繰り広げている危機感が強いということなんですね。

もっと極論をいうと、BtoCであれBtoBであれ、業態や商材に合ったとびきりのユーザーエクスペリエンスを深く考える必要があり、それを実現するためにはウェブ上での行動履歴だけじゃ全然足りなくて、業務に踏み込んで、リアル・ネットを問わない顧客の姿を掴むということが必要だ、と企画書を泣きながら書いてて思う今日このごろ。

2013年10月9日水曜日

【解析いろは26】Rでソーシャルリスニングをやってみた 2

Rでソーシャルリスニングをやってみた 1では解析前の設計とデータ取得、整形についての話でした。いよいよ分析に入ります。
と、その前に。ちょっとおさらいです。

<今回のトライの目的>
世の中には無料で使える、基本のレポート機能がついたツールやサービスがリリースされているのになんでわざわざRで、アナログ作業までして分析をやっているの? と思われるかもしれません。
①Rのトレーニング
②Rでテキストマイニング(ツィート内容に極力踏み込まず、できるだけ機械的に判断と処理をするトレーニング)
③アカウントとは無関係のソーシャルリスニングだから。
ツィート数とか日別動向とかインフルエンサーなんてお飾りですよ! アカウントに紐付かない純粋なクチコミを、テキスト内容に踏み込んで分析する!(ような感じだけどそこまで深くやってないよ!)これが今回のメインテーマであります。
実際に、Twitterアカウントを開設していないクライアントがリアルでキャンペーンを実施し、ツィッター上でどの程度話題になっているか知りたい、というオーダーを受けたことがあります。ソーシャルの公開記事は様々な情報、ウソもホントも詰め込まれた生の情報源なのです。

(1) 分析作業1 Rでデータを分類、ソート

整形したデータは下記の通りです。
・データ形式 CSV
・データは、主体を 1=個人 2=関係者 3=セミナー・講座情報、ニュースサイト 4=bot に分類した「主体分類」、「ツィート内容」で構成

エクセルでも出来る作業ですが、練習のためRでデータを主体ごとに切り分けました。
<作業の流れ>
①Rを起動し、プラグインRcmdrを開く
RcmdrはRをGUI的に操作するプラグインです。でもほぼコマンド入力であることに変わりはありません。
②csvデータを読み込み、表示
③データを主体区分の数値別に切り分けて、新たにCSVで保存。今回使用したのは1のグループのデータと、2+3のグループのデータです。botはウザいから除外しました。

(2) RMecabでテキストマイニング

RMecabはRのテキストマイニングのパッケージです。日本語の形態素解析エンジンの「MeCab」をRで操作するためのものです。ギャル語にはぁたいぉうしてるのかしらぁ? あとこのエンジンやパッケージはなんて読むのでしょうか。このエンジンの制作者さんのサイトには「めかぶ」の写真があるんですが…やっぱり「めかぶ」なんですかね。

<作業の流れ>
①RMecabを起動して、(1)で作成したすべての発言データ・ グループ1のデータ・グループ2+3のデータを順次分析する。
②すべての発言の分類データを眺めて気になった点をメモる。
③メモを元にさらに比較用データの絞り込みや気になる単語を調べる。今回はクラスター分析はやりませんでした。今度時間があるときにやってみようと思います。

下のイメージは すべての発言データのRMecabでの分析結果の一部です。
Mecabは「形態素解析」で、意味の最小の単位で切り分け、分類してくれます。すごい!これは基本の解析関数の“RMeCabFreq()”を使っていますが、他にも様々な関数があるので用途に応じて使い分けをします。
切れてしまってますが、「ウェブ解析士」キーワードの絞り込みだから「ウェブ」「解析」「士」が当然頻出回数が多いです。これらのワードはどのグループでも必ず共通で登場するので検討対象からは除外してます。



 吐き出されるデータは、行番号、形態素(最小の日本語)、品詞(大分類)、品詞(小分類)、出現回数(Freq)です。この関数のメリットは重複がなくカウントされ、テキスト内に登場している形態素が頻度という数値で把握、という点ですね。
まずは全部の分類をぼやーっと眺めて、なんとなく全体を把握。こんなことを考えてデータをいじってます。↓
・『個人グループとセミナー・関係者グループのツィートに差があるか>あると仮定>個人とセミ ナー・関係者の形態素の並び比較』
・『個人とセミナー・関係者の形態素の名詞・動詞・形容詞のみの並び比較』
・『個人グループの感情を拾ってみよう>個人グループデータの形容詞絞り込み』や『助動詞と形容詞の「ない」の否定のテキストのピックアップ』

(3) 分析とレポートはエクセルで

最も難関のテキストマイニングの処理はRで行い、詳細の分析はエクセル上でやりました。オートフィルタでちゃちゃと切り替えながら見ていきます。今回はデータをいろんなフィルタでソートしてぱらぱらと見て、気づきをメモって、後で再検討します。いつも大体そんな感じです。
いろんなことを多角的に見て、実施し、それからレポートにまとめていきます。これがクライアント向けの場合は、すべてを載せるのではなく、クライアントの知りたいことに即した形で、不要なデータを削っていきます。

 (4) 結果要旨


がっつりグラフなんかも作ってレポート形式にしたのですが、余所様に関わることを一方的に調べただけなので、公開はしません。オチがなくてすいません。

以下、簡単に今回の分析結果の要旨です。
●計測期間内に運営主体のツィートが少ない。
●インフルエンサーは関係者グループの数名とボット。

●個人のツィート数は全ツィート数の約49%、半分近くあるけれどツィート内容を見ると解析士資格取得者やニュースサイトが含まれているので、純粋ないち個人のツィートの実数はもっと少ない。(分類方法をもっと精密にする必要がある)
●個人のツィートにつき助動詞及び形容詞の「ない」で否定語を調べたところ、強いネガティブ発言は見受けられなかった。
●関係者・セミナーグループでの頻出度が高い名詞は「講座」「認定」、個人では「データ」「講座」「資格」。部分的に被っているものの、個人グループでは「資格」が多いことから、取得対象としての資格や講座に興味があると推測する。

◎まとめ

個人のツィートにフォーカスしたところ、強いネガティブ・否定発言はないようです。形容詞分類でも、形容詞の否定「ない」を除いてネガティブイメージのある形容詞は「難しい」「高い」でした。(いずれも頻度が少ないため、それがすべてのユーザーの状態を示す形容詞であるとはいえません)。
今回はネガティブな発言はなかったものの、継続的にツィートを見て、ユーザーの疑問や資格に対する見方を把握していくことも重要かな、と思いました。
 個人グループのツィートは、認定資格を取得していると思われるユーザー(資格既取得層)と資格に興味がある・これから受験する・勉強中といったユーザー(未取得層)の二つに分類できます。ツィッターで資格既取得層か、未取得層(潜在的ユーザーも含めて)のどこに・どのように情報を発信していくか運用設計を考えることも重要だと思います。

<反省> 
当たり障りのない要旨になってしまいました。通常、レポートはクライアントの要求に応じて定義し、それに役立つように作成するものですから、相手がいないとどうしてもボヤけたレポートになってしまう、という点も収穫でした。今回の分析で分かったその他の課題は、
・ユーザー分類をどのように・いかに効率よくやって精度をあげるか
・ データの取得方法
・今回のテキストマイニングは形態素の数の把握だが、ユーザーと、重要形容詞や名詞との発言の相関のグラフ化や、 ツィート内容についてもっと突っ込んだ分析をしたい。
です。
言語の用法や言語の相関関係や傾向については実に素人的な所感です。当方、テキストマイニングの専門家でもなく、この分析は社会学のような学問の探究を目的としていません。でも、「ユーザーの本音の仮説を立てる」ということであればこの程度でもそれなりに役立つ情報になると思います。

分析に王道はあっても正道はない!(最近気に入ってる言葉らしい)
いろんな方法があっていいと思います。仮説が正しいかどうかはその後のアクションと検証が証明してくれます。

2013年10月7日月曜日

【解析いろは25】Rでソーシャルリスニングをやってみた 1

トレーニングがてら、Rでツィッターのデータを元にソーシャルリスニング(ぽい何か)をやってみました。超適当ですが、解析ってこういうことをするんだな、という段取りや必要なことの確認ができました。



ビッグデータやデータサイエンティストがバズワードとなっていますが、ウェブ解析担当もアクセスログだけを分析するだけでは足りなくなってきています。それはすなわち、ウェブ解析=ユーザーの行動履歴の分析がより効果を求められるようになったからで、解析の意義と目的が浸透してきた証としてよろこぶべきことだと思います。

ビッグデータなんてウチの会社には無縁だよと思っているアナタ。今日、急に上司や社長から「今はユーザーの声に耳を傾けるソーシャルリスニングの時代。だから弊社の企業名がどんだけソーシャルでささやかれているか調べてくれ!」なんて無茶振りがあるかもしれません。昨日どこかのセミナーに行ってなんか聞いてきたんだな……なんて、死んだ魚のような目にならないでください。
時間と人力はある程度必要ですが、すごい分析ツールや他社サービスを導入する前に、やってみてはどうでしょうか。やってみれば意外と簡単です。ヘタレな私が言うのだから間違いない!

今回重要視したのは生のデータをいかに取得し分析するか、という段取りです。下記は一例であり、この方法がベターでもベストでもありません。ただ分析に必要な段取りは積んでいるつもりですので、参考になれば幸いです。

なお、今回収集したサンプルデータと分析は具体的な改善とかなんとかそういった事を一切念頭においてませんし、分析結果が「正解」ではありません。仮説とはいえないほどの想像あるいは妄想というご理解でお願いします。

◎準備するもの
・Rをインストールし使える状態にしておくこと。(必須)
・テキストマイニング用のプラグイン「MeCab」をインストールしておくこと(必須)
・参考書として「Rによるテキストマイニング入門」石田基広 著 (ほぼ必須)
・親しみやすいようにRcmdrというGUIプラグインを入れておくと(若干)効率アップするかもしれない。(気が向けば)


◎Rってなに?という方へ
 無料のくせにすごく優秀なデータ解析ソフト。解析用途別のプラグインもたくさんある。
http://www.r-project.org/

人文科学系や医学系、理工学系の学部にいたら触ったことがあるかもしれないですね。当方、法学部出身ですが、法学って一番データ解析に遠い学問のような気がする……論理思考と解釈の学問なんですよね。言語とデータ処理における論理思考ってちょっと違うんですよね。今ものっそい苦労してます。言葉を解釈でねじ曲げることに慣れているもんだから、言葉でデータをねじ曲げたくなるとか。アカン…

(1) 分析対象となるデータとその範囲を決める

調査内容:Twitter上でキーワード「ウェブ解析士」が期間内にどのくらいツィートされているかを計測し、ユーザーを分類してグループ毎にツィート内容にどのようなワードが頻出しているかを調べる。
調査目的:計測期間内のツィートの頻度とグループ:個人ユーザーのツィートの傾向について仮説を立てる
ソーシャル:Twitter
調査対象キーワード: ウェブ解析士
調査期間:13/9/2~13/10/2




キーワード決めは重要です。決めないと無限に対象が広がるからです。また、調査内容も決めておかないとひどい目に遭います。無限分析のループ。分析をするにあたっては「何を知りたい」「どのように調べるか」「範囲」を決めることがとっても重要です。

もし、初めてソーシャルの調査を行うのであれば、ソーシャルグラフやインタレストグラフを作成してユーザーとの関係を可視化するのもいいと思います。ソーシャルグラフ等の可視化はAPIを利用した無料のツールが結構あります。いいぞ、もっとやれ!
Twitter関係の概要調査なら「Topsy」(http://topsy.com/)をよく利用します。インフルエンサーや期間指定したキーワードの発言やレポートまでしてくれる便利なツールです。かつては日本語が弱いという話でしたが、今はかなり使えると思います。(Analyticsなどの機能をフルに使うにはメールアドレスなどの登録が必要です)。
ちなみに、今回のメインテーマ(であるはず)の『R』でTwitterのソーシャルグラフの作成が可能であるようです。(対象アカウントのパスワードが必要)
参考記事:ITmedia @IT 第5回 インターリュード: TwitterとR

(2) データの取得方法を考える

アクセスログなら大体何らかの分析ツールを介しているので取得については基本的に悩まなくていいです。 ですが今回は自前で収集するのでちょっと考えなくちゃいけません。
Rで直接Twitterにアプローチしてデータをひっぱってくることも可能なようですが、アイパスなどの制約があるのでこれも今回はスルー。(おいぃ!)

公開されているデータを効率よく目的に合致した内容で取得するために、Topsyを使いました。

(3) データの取得とクリーニング



Topsyで検索キーワードで絞り込んで期間を指定して表示します。残念ながらCSVのダウンロード機能はないので、ユーザー、Tw日、Tw内容を手作業でピックアップしました。APIをカスタマイズすればらくらくなんでしょうけど、今回そんな余裕はない! (件数も少なかったし…) 
クリーニングとは、例えば空欄や値が不正な場合(欠損値)★の処理をどうするかとか、不要なデータを削除するとか、分析しやすい形にデータを整える作業です。今回、欠損値はないのと、URLはRで絞り込みをするので放っておきました。
で、最終的にデータをCSV形式に収めます。

★この「欠損値」をどう扱うかが分析データでは重要なファクタなので、本当は真剣に考えないといけないのです。

(4) 解析設計をする

慣れていたり以前やったことのある分析データならば最初に検討しておくべきことですが、今回はお初のデータなので、ここで解析設計をしました。
まず適当に幾つかデータを拾って読んでみて、どんなツィートがあるのかばっくりと感じます。感じる、というのが、目的で、ここで深く読んでいくと分析の意味がありません。

どうやら、関係者や告知のツィートと個人の感想みたいな「感じ」に大きく分かれるようです。
じゃあ、ユーザーをグルーピングして発言の傾向を見よう。そして個人ユーザーに着目して、どのようなワードがよく使われているか、そこにグループ別の差はないかを調べよう、と決めました。

【設計】
1.ユーザーをセグメント分類する > (3) に戻って作業( bot、関係者、セミナー、個人を適当に分類。ルールは、ユーザー名やツィートに特定のワードが含まれているか否か。関係者はサイトをあらかじめ調べてピックアップしておき、分類 など)★
2.エクセルでの作業★
 グラフなどのビジュアル化
 概要のグラフ化と把握(日別動向、ユーザーセグメント別割合)
 3.データの詳細な比較検討

3.Rでの作業
 グループ毎に発言を分類
 グループ毎に発言をテキストマイニングし、傾向を把握

長くなったので、Rで分析編はまた後日~。


★今回は発言数が多くないのと、明らかに関係者やセミナー告知が多かったので強引にユーザー分類をしました。普通はやってらんないので、インフルエンサーという分類が多いのだと思います。分類による比較軸があると分かりやすいのでいいですが、ケースによりますねこの方法。
★今回の作業のほとんどはエクセルで出来ますし、そのほうが早いです。一部、無理矢理Rでやったところもありますが、単純集計やグラフ化はエクセルでやっつけました。ツールに拘りを持つのではなく、目的達成のためにどの方法がいいのか、で決めるべきだと思います。

 <MEMO>
 これら過程の時間と工数をきちんと記録ておくことをおすすめします。できたら、他社サービスの価格も調べておきましょう。レポートと共に調査にかかるコスト概算も提出すれば、レポート作業と効果の費用の把握が容易になります。

Rでソーシャルリスニングをやってみた 2に続きます

2013年10月1日火曜日

【解析いろは24】個人情報保護方針を時々思い出してやってください

今回はちょっと難しいような、でも最近ホットなテーマとつながっているので無視できない話題です。
サイトに掲載している個人情報保護保護方針、最近チェックしてますか? 

“顧”客から“個”客へ、というのが近時のマーケティングの主流です。ユーザーが「求めるもの」を差し出すのは当たり前で、「まだ知らないけど欲しいと思わせるもの」を提供するような時代です。従って、会員登録制度を取り、ログインしてもらって行動履歴と購入データを結びつけて詳細に“個”を分析することがもはや当たり前になってきています。

では、ユーザーに対しては、いつ、どういう目的でどの範囲でこれこれの情報を取得し利用する場合があります、とアナウンスしているのでしょうか。 通販事業者の場合は、会員登録時に規約や個人情報保護方針を見せて同意してもらっているのが通常だと思います。まー、ほとんどの人がきっちり読んでないですよね。また、最近では行動ターゲティング広告やリターゲティング広告についての記載が追加されていると思います。さらっと告知されていたりメールで届いたりしていたかもしれませんが、ほぼスルーじゃないですか。

今後、個人情報の取得や利用について、よりわかりやすい表示と同意が求められる可能性があります。


経済産業省 「IT融合フォーラムパーソナルデータワーキンググループ報告書を取りまとめました」(2013/5/20)
http://www.meti.go.jp/press/2013/05/20130510002/20130510002.html


概要版が分量もコンパクトでわかりやすいです。日米の企業活動におけるIT投資や分析対象データの比較などもとても興味深いです。日本でも分析の対象はぐっと広がることでしょう。ウェブ解析だけやってればいい時代は過ぎてしまったのかもしれません。

どういうことに注意するべきか、覚書です。

(1)説明
(2)ユーザーの選択の自由の保証
(3)透明性の確保(どういう仕組みで情報を収集しているか、など)
(4)データの安全性
 + 
(5)ユーザーのメリットを明示、提供

ちなみにディミトリ・マークス著の「データ・サイエンティストに学ぶ「分析力」」でもこのことに触れています。そこに書かれているように、データ収集と分析は、ユーザーに知られてはいけない後ろ暗いものであってはなりません。データを明示された目的と手段で収集し、ユーザーに高い付加価値を渡すことが重要だと述べています。
個人情報の在り方も、ユーザーの認知や周辺情報や法律の整備によって変わってきます。
また、個人情報は収集する側もユーザー側もよくわかっていないことが多いので急に守りに入ったり壁を作ったりします。守る方に行き過ぎると、例えば地域社会での孤立といった弊害もあるわけです。
両者の理解と了解、その手段が確保される、相互にシアワセな関係になれる制度を期待します。

前記の報告書概要に記載されていた、
「昨今のパーソナルデータを巡る消費者と事業者の間のトラブルの多くは、事業者が消費者の期待を裏切る形でパーソナルデータを利用したと評価され、社会的な批判を受けるというものである。」
 という文言はしっかりと覚えておきたいと思います。
 
ちょっと置き去りになりがちなのですが、各種データ分析を仕事にしている以上は知らないでは済まされません。時々、いや結構な回数で個人情報保護方針ちゃんのことを思い出してやってください。

2013年9月19日木曜日

【解析いろは23】Googleアナリティクスアップデート

メルマガをご覧になっていたら既知かと思いますがGAがちょっとグレードアップしています。
Googleアナリティクス 公式ブログ「新しく生まれ変わったセグメントのご紹介」:http://analytics-ja.blogspot.jp/2013/09/blog-post_17.html

タイトル通り、今回の一番の大きなアップデートは、セッション単位でのユーザーセグメント以外に、なんとなんと!ユーザー単位でのセグメンテーションが可能になった点です。どこから入ってどのページを見てコンバージョンする、といった行動の順序も指定できてしまう。いやー、すごいわ。
自分のGAを確認したのですが、まだ適用されていませんでした。これから徐々にリリースされるようですね。

 ■Googleの今回のアップデートポイント

夏が終わって一皮剥けたってカンジ。 夏休みに何があったんだい……?(ひとなつのこいかしらー?)

●アドバンスセグメント画面の変更で、よりわかりやすく・共有しやすく
セグメントが直感的に設定できるようになったのと、よく使うセグメントは★マークを付けてすぐに呼び出せるようになってます。

●セッション軸からユーザー軸での解析が可能になった
ここがさりげなく一番すごいアップデートだと個人的に思ってます。ユニークユーザーの単位でセグメンテーションできるようになります。ただ、気をつけなければいけないのがレポート。基本的なスタンスというか解析軸は、セッションであることに変更はないと思います。ですのでユーザー軸解析をレポートする場合はレポート軸が違うので、混乱が生じないように(解析側も)留意しておく必要があります。

●コホート分析(cohort analysis)ができちゃう
なんだそれ!という方はコチラをご覧ください(スイマセン、私もやったことがないです)。
定義を引用すると、
コーホート分析とは、同時期に同様な体験をする人々の集団(Cohort)が、時間の経過とともに彼らの行動様式や思考などにどのような変化が生じたのか、時系列でデータを収集することを通じて、これを明らかにすること。
指標の変化を「時代」「年齢」「世代」の3要因で分析する手法。
年代分析とも呼ぶ。 

です。
GAでは「ある期間の新規訪問者」をコホートとしてセグメントし、その後の行動がどのように変容したかを見ています。行動が変わったということは、どこかで意識変容が生じています。流入や意識変容の要因を分析することで、キャンペーンや広告、サイト内コンテンツのより深い分析と見直しが可能となります。

■時代はユーザーへ、統計学的分析へ

今年に入ってビンビン感じていたのですが、ここ数ヶ月で最も自分的にホットなテーマなのが「統計学的分析」です。学的、というのは、あくまでも学問ではなくビジネスの成果につなげるために統計学の知識や手法を使って、より精密に数字と事象を検討していくという意味でそう述べています。ビジネス解析は厳密な意味での「統計学」、学問ではないと個人的には思っています。

ただし、気をつけなければいけないことがたくさんあります。数字に人はいともたやすくダマされる、ということです。解析者もレポートを提出された側もそうです。レポートにちりばめられた、基準化した数値、相関係数、寄与率の数字は、「絶対的に確か」なものなのかというとそうではありません。そのような意味ではないのです。統計学を学んだときのことを思い出してください。ビジネス解析の本では深く書かれていないことかもしれませんが、ある手法を用いる前にその手法の数字の意味、用語の意味を十分に理解する必要があります。
結果だけを求めて統計の手法を用いるとなんかわかった気になってしまうんですよね、本当に自分自身がそうなのでイタイです。アイタター。
 今後は解析する側、レポートを受ける側どちらも統計リテラシーの高さが要求されるようになるかと思います。

では、ここで以前出した質問をもう一度。
「心筋梗塞の人の95%、犯罪者の95%が食べていたという食べ物を禁止すべきか。

常にこの質問と答えを忘れず、数字とその向こうにいるユーザーに向き合っていきたいと思います。

2013年9月18日水曜日

【PickUp】ホワイトペーパー:Webアクセス解析をビジネスに結びつけるための3つのポイント

ネタになりそうなホワイトペーパーの紹介です。

Webアクセス解析をビジネスに結びつけるための3つのポイント
(SAS Institute Japan株式会社 /ダウンロードには会員登録(無料)が必要。)

ウェブアクセスデータの活用ポイントと今後どう活用していくべきか、という内容がコンパクトにまとめられています。オチはSASの総合解析システムを使うといいよ!なんですが、アクセスログ解析の必要性から、これからホットになるであろうウェブ統計解析のことにも触れられています。

よく耳にする悩みとしてこういうのがあります。
「リニューアルの前に、あるいは新規サイト作成のときに解析ツールをいれて解析をしていきましょう、というと「なんで?」「そんな必要あるのか?」と言われる。どう説得したらいいか」
あるあるR(アール)。

あらゆる「なぜ」を追求していくことで道は開ける(かもしれない)

このホワイトペーパーに書いてあることは、たいして目新しくもないのですが、たとえば「ポイント1:目的を明確にする」ということに「なぜそれが必要か」ということを問い直して、自分の中で説明ロジックをもっておけば、クライアントに伝えるときにブレがないと思いますよ。

まず、「なぜ解析が必要なのか」というところを的確に伝える必要があるかと思います。解析をすることでどういう事業メリットが生じるか、という利益に絡めて話をすすめることですかね。あとわかりやすい例え話にするとか。

釣り堀で、クライアントさんはタイを釣るためにある場所に座りました。まず、釣竿に餌をつけないと魚はまず釣れません。タイなんてなおさらですよね。餌はクライアントさんのコンテンツですが、自分が座っている周囲にはまけても遠くにまで及びません。このままではタイが釣れるのはいつになることやら。釣れるまで待つのもいいですが、釣り堀の費用、餌の費用がかかります・・・という具合です。

また、「サイトを作りたい!」「リニューアルしたい!」の目的の「なぜ」を聞いてみることもおすすめします。インターネットへの期待や危機感の表れなどの動機を、言いだしっぺのクライアント自身がきちんと理解し、自己分析していることは意外と少ないものです。 大体、何かを変えたいという時点で何かが行き詰まっていると思うのです。人生と一緒ですね。

過去把握から未来予測へ。行動分析から意識分析へ。

最近、急激にこの傾向が顕著になっているように思います。
過去把握というのはウェブサイトのアクセスログ解析つまりユーザーの行動分析です。ソーシャルの場合はちょっと違っているところがあって、意識分析の要因を含んでいます。

そこにより多くのデータ、顧客データや会員情報、はたまたソーシャルメディアのコメントや投稿などのデータを結合してより詳細に分析し、解析学的手法を用いて、未来予測をすることは、すでにECサイト運用の現場では実施されています。顧客のセグメンテーションやロイヤルティの把握、リコメンデーション、来訪予測に基づくキャンペーンの内容と実施時期などなど。解析ツールにおいてもユーザー基軸は今後主流になると思ってます。 従来の集客や広告施策、ウェブ解析だけでは頭打ちの状況に来ているのかもしれませんね。

・取得できる情報や解析する方法が増えたこと。
・既存の過去把握だけでは行き詰まり感があること。
・より多くの情報で多角的に分析し、コスト削減。


最近、リスティングとかSEOとかLPOはいいツールがたくさんあります。その企業に応じたカスタマイズや動向把握は必要であっても、担当者の負担は随分削減されるし、結果として人的コストも削減されるのではないかと。
こう書いてみると、なんだか今はウェブ解析というものの過渡期に来ているのかなという気がします。

個人的に思うのですが、今後は、企業そのもののリソース分析や顧客分析などのインサイドマーケティングが地味に来るんじゃないかと思います。大きな企業ならばすでにそういうのはシステムとして組み込まれているわけですが、日本は中小企業が圧倒的に多いので、まだ未導入というところが多数だと思います。

ポイントとしては、理解できる人・担当者だけがやってるのではだめで、全社的に理解し、利用されるデータと、好きな時にそれらにアクセスできる仕組みが必要と思います。

でも、解析担当として自戒せねばらないのは、数字だけと向き合うだと思います。つい、やってしまいがちなので本当に自戒しています。数字が示すユーザーや顧客の行動、意識をくみ取り、未来に対して推測する。ということを忘れないようにしたいです(そんな大事なこと忘れるなよ!)。

2013年9月14日土曜日

【解析いろは22】Facebookの広告は使えるか?(リカバリー編)

先日とある勉強会でFacebook広告について聞かれて、ついネガティブな印象の反応をしてしまいました。スミマセン。できるだけ正確に答えようとして部分しか説明できていなかったので、ここでリカバリーしたいと思います。
自分が言いたかったのは、
「通常のウェブ広告と同じ集客効果を期待し、同じやり方をすると失望する」
ということです。
ファン数を増やして、コンテンツからリンクを張って本サイトに誘導する。その先の会員登録であったり商品購入のコンバージョン率はどうですか? もし本サイトへの直接の流入に較べてコンバージョン数やコンバージョン数が高いのならすばらしい!(奇跡だ!)ですが、外部サイトでのコンバージョンを目的とするとFacebookは即効性があんまりないと思ってます。海外ではこんな調査結果(参照元:ITメディアマーケティング Facebookのマーケティング効果を実感しているマーケターは37%――米調査結果発表)もあります。ま、しかし結論を急がないでください。

問い:Facebook広告は使えるのか?
答え:Facebookでの目的と「効果」を決めエンゲージメントを高めるコンテンツと広告の方法の戦略をしっかり作れば効果が出る、はず。
 
まずは、広告の性質の違いに注目です。
Facebook広告とGoogle広告の効果の違い 
参照:SEO Japan 13/1/16記事


グーグル広告は以下のように説明されています。
グーグルは目的地ではなくリソースである。ユーザーはグーグルを使って何かを見つけようとする。グーグルを利用する短い時間においても、複数の広告を提示する機会が存在する – まず、ユーザーが実施する有料検索広告はすぐに売買の価値をもたらす。

対して、Facebook広告はこんな風な説明です。
ユーザーをコアのサイトに留まらせることがフェイスブックの目標である。そのため、ユーザーをフェイスブックに留める機能の広範なインフラを用意しており (eメール、動画、メッセージ送受信等)、内向きの広告戦略はこの点を反映している。関心およびユーザー層のデータによるターゲティングは強力なツールで あり、ユーザーおよびスポンサーの双方において関連性の面で効果が見込めるものの、積極的にトラフィックをフェイスブックの外に向かわせ、ブランドのサイ トに導く行為には向いていない。

で、Facebook広告の特長については下記が端的に表していると思います。
フェイスブックは有料検索ではない。ディスプレイでもない。そして、その他のデジタルチャンネルとは異なり、ブランドのウェブサイトにトラフィックを直接送ることがフェイスブックの強みではない。
とはいえ、日本でもフェイスブックエクスチェンジというリタゲ広告の取扱いが始まったようなので、だんだんと検索広告との区切りが薄れてくるかもしれません。

じゃ、Facebookは何に使うのがよろしいのか、というと、これですよね。

●ブランディング
●ロイヤルティ向上(あるいはユーザーからの推奨のプラットフォーム)

前に「ロイヤルティリーダーに学ぶソーシャルメディア戦略」という本のレビューでも書きましたが、ブランディングやロイヤルティの計測は解析ツールだけでは難しいのも事実です。しかし本当に自社のブランディングや顧客ロイヤルティが成果に結びつくというステージに達しているのであれば、実施するべきだと思います。
例として、Twitterですが、ニッセンとファミマのKPI、KGI、LTVの簡単なレポート記事を引用します。
Twitterの公式アカウントのKPI、KGI、LTV分析
トライバルメディアハウス、ニッセンなど2社のTwitter公式アカウントのマーケティング効果を測定

KGIのブランド想起率、好意度、購入意向調査はアカウントのログ分析から出てきません。すべて別の調査です。
そんな調査、コストがないから出来ないんですけど! という反論もあるでしょう。確かに。ですので、出来ることとしては、KPIとその結果の間に何らかのつながりを仮定して見ていくことかな、と思います。マーケの第一歩でそこからスタートですよね。




いいね数を数多く集めることについて補足しておきます。
リーチの範囲はある数から減少します。これはコミュニケーションを目的とするソーシャルの性質上当然なことです。ファン数1万人~2.5万人でリーチは17.1%という調査結果があります。最大25000人が分水嶺になってるようですね。(情報元:ガイアックスメディアラボ http://gaiax-socialmedialab.jp/facebook/169 13/1/15記事)
まあしかし、リーチの裾野を広げるために、いいね数は大いに越したことはありません。
ですが、ですが。
前から色々いわれている「いいね!」を買ってファンを増やす問題があります。
また、ある程度のファン数を広告で獲得したからといって、それが質に結びつかないことは多々あります。広告をテキトーに全世界に向けて打ったらあら不思議。結構いいね数が集まるのです。でも、日本人向けに商品を売りたいのに、いいね!をしてくれたけど読んでもくれない、コメントもくれないような人って「ファン」といえますか? そりゃ効果でないでしょうよ、そこから自サイトに誘導しても。
 今後はいっそういいね!数の重要性が下がってきて、エンゲージメント、親密度や重みといった「質」がより重視されると思います。というかそうなっています。


Facebookマーケティング FBページの8/30の記事に最新の事例が紹介されています。結果だけなので、どういう過程があったのか気になります。そのうち、セミナーとかで開設してもらいたいです。

Facebookマーケティング FBページ
事例概要(PDF) http://fbrep.com//SMB/Luxa.pdf
いわゆる成功例とされるケースのキーワードは「コミュニケーション 」です。GoogleとFacebook広告の違いを理解しつつ、ユーザーとコミュニケートしてブランド認知や取り扱うサービスや商品の良さを伝えることに集中することだと思います。
とすると、FBの活用はスモールビジネスにも向いていると思います。ただしブランド認知が低い場合は、最初はとにかく友人知人、取引先にも宣伝し、広告も出して「いいね!」を集めることが「スタートラインに立つ条件」と思います。

最後にどうでもいい話を。
自分は基本的にものすごく饒舌です。でも、聞かれたことに正確に答えたいあまりに余計な周辺情報をくっつけすぎて、結局何が言いたいのかわからない、伝えたいことが伝わらないことがママあります。猛省です。
別の機会に仕事の話をしていたら、その人も「状況や情報をまだ把握していない人にいっぺんに情報を出しすぎると『うぐっ』となるから最近は聞かれたことだけ小出しに伝えるようにしている」と聞いて納得。

いっそ、海の底に棲む貝になりたいです。

2013年9月5日木曜日

【解析いろは21】アナリティクス以外の解析ツールに遭遇した場合

上場企業におけるGAの利用割合は64%だそうですよ、奥さん。(出展 Nexal の一期一会http://nexal.jp/blogs/2645.html) 
記事の中で
「お奨めの解析ツールありますか? ただしGAとサイカタ以外で」((株)Nexal提供」)
というセリフがあるのですが、これまだ言われます。アーチンも未だに健在です。

この記事でユニークなのは、サイカタ→GAへの変更パターン。社内で日々見るのに使えなければ結局意味がないのですよね。ウェブ解析の専属担当者がいるのならともかく、普通は他の業務の合間に見るのが多いでしょう。習熟する時間もそうそう取れないということも普通にあります。

導入にあたっては「使いこなせるか」より前に「日々の業務でどう使うか」「それが改善に活かされるか」を検討し、トレーニングの時間が担当者に負担になることによるリスクも勘案しましょう。というか提案のときやアドバイス時にそのことを伝えましょう。でないと、ノリノリな上司さんの横で担当者の人が暗い顔をして俯いてしまいます。

そもそも、解析ツールはすごくわかりにくい膨大な量のアクセスログをいかに見やすく分かりやすく表示するか、というためにあるのですから、業務の負担が軽くならなくては本末転倒です。根本的な問題として、ウェブ解析をする目的と体制が整っていないと、どれほど素晴らしいツールを導入しても劇的な変化はないだろう、と思います。イヤがられてもさらっとリスクや現時点の問題点は指摘することが、提案する側の責任だと考えてます。

長い前置きはさておき(前置きだったのか!)、そんなモテモテのGA以外のツールも使うことがある、という話です。大体、どんな解析ツールにもなにかしら特化した部分があります。例えば広告効果測定だったりユーザーセグメントが独特だったりとか。GAは結構遭遇するし、ノウハウもいろんなところで蓄積されているのですが、他のツールで解析をする依頼がきたらどうしよう、というのが今回のテーマです。

・アクセスログから知りたいことを聞く
 調査の範囲がこれで大体決まります。やろうと思ったらいろんなデータが引き出せてしまうのがログデータですが、興味本位ならともかく仕事でやる以上、作業時間・分析時間も想定してやることが大切です。
・特長を掴む
 強みや解析の評価軸を公式サイト等で調べましょう。解析ツールの評価軸って結構重要なんですよ。
・できれば事前にログインさせてもらう
 ログインしないことにはどんな機能があるか確認できません。実際、あるカテゴリのドリルダウンをしようと思ったら「それは有料のアカウントが必要です」なんて出てきてウェ~~~と思ったり。
・レポートする項目をピックアップした解析設計書を作ろう
 お互いに納得するために、どういう目的でどういう項目を見るか解析設計書を作ることを超・お勧めします。これで合意しておくと、調査漏れがないのと、データをまとめるときにスムーズです。
 まあ、そうはいっても後出しはあるんですけどね…○○について知りたい、とか。後で○月○日からやってたキャンペーンのことを知りたいのだけど、といわれても困りますぅ(> <)

私もさほど他のツールの経験はないですが、データの分類やセカンダリディメンションとの組み合わせで「これ」というデータを作成しやすいGAは、やっぱり自由度が高くて便利と思います。解析の軸が固定されていない分、自由に指標を組み合わせて確認できるのが良いです。
最初 GA → もっと詳しく知りたいから他ツール → やっぱりGAに戻る というパターンもあるのかもしれませんね。

2013年9月3日火曜日

【PickUp】顧客満足度は本当に売上げ増加に貢献しているのか

顧客満足。Customer Satisfaction。マーケやサービス開発、営業といったあらゆる現場で目標とされていますが、 実際のところ顧客満足の効果はどうなんでしょうか、という話です。
では、本日のネタ元記事です。 2つの記事があります。
IT Pro 記者の目 *途中まで公開。登録無料で続きが読めます
(1)「顧客満足度が上がれば売り上げも増える」のウソ、アメックスが採用した究極の指標「NPS」(2013/05/20


タイトルを見ると相反する内容のようですが、タイトルの印象ほど正反対のことをいってません。というかベクトルは同じ向きです。前者の記事では、
本当に役立っているのか分からない顧客アンケートをして業務改善に全く役立てない・役立たないよりも、コストをかけてきちんと顧客満足度を測り、上げていこう。それには最近アメリカで流行ってるNPSという指標がぴったり」(意訳)という内容です。
後者の記事も前者の記事にまるっと反論しているのではなく、
顧客満足度が全然役に立たないってわけじゃなくて。各業種によって程度に差はあるけど、顧客満足度が売上げにも繋がらない、てことはいえない。当社データではそう言えます」(超意訳)という内容でした。日経BPが顧客満足度調査をやってきてるから、意味がないとされたら存在意義が揺らぐ・・・なんてぶっちゃけすぎな理由はジョークだと思いますが、近々顧客満足度調査のデータ集が発売されるんでプロモーションを兼ねてるのでしょう。



(1)顧客満足度を測る指標とは


wikiによると顧客満足は「人は物品を購入するとき、その物品に何らかの満足を感じたときに購入するとの考え方」という風に表現されています。

顧客満足度を計測する手法は顧客アンケート調査が真っ先に思いつきます。日本ではアメリカを参考にしたJCSI(日本版顧客満足度指数:Japanese Customer Satisfaction Index)なんて基準もあるようです。これがあらゆる業種の顧客満足度測定に使える指標なのかというとちょっと分からないのです。というのは、掲載されているスコアランキングはディズニーランドなどのエンタテインメントやホテル業が上位を占めています。

余談ですが、アクセスログ解析で、企業や商品の認知度、顧客満足度を示す指標はありますか、という質問を時々受けます。残念ですが、直接的にそれを示す便利な指標はありません。ウェブサイトのアクセスログはサイトを訪問したユーザーがどこから来てどういうページの遷移を経てどこで離脱したか、という ことが分かります。しかしユーザーが「どのような意図や意識をもって」や「何を考えて」という内心は、サイト内の行動から仮説を立てて推察するしかないのです。それで分かることはあくまでも断片的であり、真意は知る由もありません。

また、顧客満足度の高さが必ずしも業績向上に直結しない場合が多々あることも、これまでの指標やCRM運用の壁となっています。前出の(2)記事では顧客満足度と業種との数値的な連関が統計学的な手法で算出されています。しかし文中にも断りがあるように、すべての業種において高い連関があるわけではなくマチマチなんです。

・顧客満足度を客観的に把握し基準化する指標はあっても、あらゆる業種に適合するとは限らない
・顧客満足度は業績向上に直接的に貢献しない場合がある
 

 (2)変っていく顧客満足の中身

業績に直結しない例として思いつくのは高額の買い物、結婚式や葬儀などのイベント。これらはリピート購入というのはあんまりないですよね。サービス や商品を購入した顧客は高い満足を得たとして、この顧客満足度をどう次のセールスにつなげたらいいかというと、クチコミや推薦という方法が考えられます。 ウェディング系のサイトでの利用者インタビューやショップのレビューということになるかと思います。これは結構重要ですよね。ソーシャルメディアの普及で 人から人への伝播、推奨意志が、企業のブランドやプロモーションに影響するようになってきました。そりゃ「いい商品だなあ、いいサービスだなあ」と満足し ているだけでなく宣伝までしてくれたらすごくいい顧客ですよね、企業にとっては。
従来の顧客満足度は個々人に付随するものでしたが、ここ最近ではソーシャルメディアを経由して個人の気持ちが容易に表明され、伝播する状況になりました。つまり顧客満足度の変容が生じていると思うわけです。

顧客の「推奨意志」に注目したのが、先の記事に出てきた「NPS(ネットプロモーター・スコア)」という指標です。ロイヤルティ指標とも言われます。満足度が高い顧客が常に企業利益に貢献しているわけではないという前提のもとに、「推奨意欲」というソーシャルな繋がりをぶっこんでスコア化しています(超意訳)。(詳細な内容と定義は各種書籍を読んでくださいね!)
これは従来型のCRMから、ソーシャルという要素を加味した進化形といえます。ただ、私が読んだ書籍「ロイヤルティリーダーに学ぶソーシャルメディア戦略」中でも、利用例がBtoC型の販売・サービスでした。BtoCはソーシャルに親和性があるため、この指標とは非常に相性が良いのかなと思います。
こう書いているとわかりやすくてステキな指標なのになぜ広まらないのか?という疑問があるかもしれません。このNPSスコアの測定や判断にはNPS認定資格が必要なようで日本では取得者は数少ないです。また、測定方法や結果の信頼性についてもまだ論じられている段階です。
ひらたくいうと、すごくいい感じで分かりやすいけど使えねぇ~というところでしょうか。概念はいいのだけどね…
こういう指標や考え方もあるというくらいに今は把握しておくのがよいのかなと思います。

(3)まとめ

①あらためてクライアントの「自社の顧客満足」 を定義してみる
 →顧客満足の中身を具体的に列挙してみましょう。
②「自社の顧客満足」の事業貢献程度を調査する
 →顧客アンケートが通常の手段かと思います。ここで重要なのは、適当に質問を考えて適当に配布・回収するのではなく、統計学の論理と手法に基づいて作成し、必ず分析することです。

③高い貢献度と関係性があると推定される場合は計測する手段を考える。顧客アンケート調査や企業認知度調査は1年に一回でいい。自社媒体のブログ、ウェブサイト、ソーシャルメディアでの観測する指標を決める
④調査結果をふまえて検討、改善する

こうやって書いてみると、毎回同じことをまとめている気がします。しかしですよ。結果が出ないと嘆く前にこうした「当たり前のこと」をやっているかどうか確認してはどうでしょうか。効果が実感できないのは効果測定をきちんと目に見える形でやっていないことが多いのです。

2013年8月27日火曜日

【Books】ロイヤルティリーダーに学ぶソーシャルメディア戦略

タイトル:ロイヤルティリーダーに学ぶソーシャルメディア戦略-ロイヤルカスタマー進化論
著者:高見俊介
出版社:ファーストプレス
出版日:2011/3/25
おすすめ度:★★★
本書は従来型の顧客満足にソーシャルメディアの要素のひとつ「クチコミ(推奨)」を加味して考える、顧客像と指標NPS、それを用いた分析事例の本です。 ソーシャルメディアの企業活用の問題、ソーシャルメディア活用の重要性。NPSという顧客ロイヤルティ指標を用いた分析と業務改善というのがこの書籍の内 容です。ソーシャルマーケティング全体の流れやポイントを把握できるが、判断軸や結論がほぼすべて「NPSでは~」になっているのでそこはマスキングしないと使えないのですが、そうするとオチがないことになります。(なんだそりゃ)


出版は2011年ですが、現状も大きな変化はないように思います。その意味では内容が古びている感じはしません。「なう。」なマーケターが読んでも役立つと思います、半分程度は。なぜ半分かといいますと、NPSという指標の説明、それを使った実例と改善が全編にわたって基軸となっているからです。NPS自体はユニークで分かりやすい指標だと思いますが、いかんせん普遍化するには敷居が高い印象が否めません。というのも、日本では認定取得者がごく少なく(著者しかいないのでは?)、この指標の認知度が未だ高いとはいえません
ですので、この本はNPS部分はさておいて、ソーシャルマーケティングという視点で読むほうが分かりやすいし、そのほうがまだ役に立つと思います。じゃあソーシャルメディアマーケティングを理解するために買ってもいいかというと、今なら他にも本があるだろうからNPSやNPSの事例に興味がなければ買わなくていいです。

 <目次>第1章 ソーシャルメディア時代のマーケティング
第2章 ソーシャルメディア時代の顧客セグメンテーション
第3章 ソーシャルメディア活用策(前編)
第4章  ソーシャルメディア活用策(後編)
第5章  ソーシャルメディア活用策の効果測定
第6章  ソーシャルメディア時代に求められる「真」の顧客中心
  
以下、記憶に残った点です。

◎ソーシャルの企業活用が迷走するのは、ソーシャルメディア利用の目的が明確でないから。
 まあ、そうですよね。いや、目的はあることが多いのですよ、一応。企業認知度を上げたいとか、商品の売り上げにつなげたいとか。その目的に適しているのかどうか、達成可能性があるのかという検証や認知がないだけで。強いていうならソーシャルメディアにおけるKPIがない、というのが企業利用においては一番問題なのかも。
 
◎企業の顧客戦略の変化。顧客セグメンテーション
推奨意志があり、顧客収益性が高い人・・・天使
推奨意志はあるが顧客収益性は低い人・・・宣教師

推奨意志もなく顧客収益性が低い顧客(つまり企業や商品に不満を持っている)は反逆者。酷いww
顧客セグメンテーションをソーシャルという側面から再分類してプロモーション手法を変えるなど、面白いと思いました。顧客の心理に踏み込んだ調査で分析し、対応をそれぞれのグループで変えるといったことはこれまでのマーケティングでも常套手段でしょう。しかし、そういった煩雑な調査を「推奨意志」という軸でスコア化したことは評価していいと思います。わかりやすい指標と言われるわけです。

 
◎NPS(ネットプロモータースコア)
詳細はは下記を参照してください。
ウェブ担:用語集 NPS
調 査方法はいたってシンプルで指標として分かりやすいという利点がありますが、NPSはこの手法の提唱者及び会社に商標登録されています。勝手にテストだけ 流用して御社の顧客ロイヤルティを測りますとかなんとかやってると怒られると思います。(そのために認定者制度があるわけで)。これも、広まらない理由の 一つかなと思います。このテストだけで煩雑な顧客意識調査をせずに顧客ロイヤルティが測れる、という点では画期的ですが、精度やフィナンシャル指標との相関性については今も賛否両論です。今後の研究と実績次第ですね。

◎ソーシャルメディアの企業活用はCEOがキー
これはどこでも説かれますが、最も厚く高い壁ですよね。トップが旗を降ればそりゃ社員はやりやすいですよ。予算も付きますし。
日本でウェブへの投資の腰が重い理由はソーシャルメディア活用の効果が企業の経済効果と相関性があるというデータが今のところ明確なものがない、というのが大きいと思います(本書ではNPSだったら説明できるよと言ってるのですが、まあそれはさておいて)。しかし、私自身はソーシャルメディアの成熟が進むにつれて企業の活用の場も必ずある、と思ってます。

ソーシャルは中長期で運用、ROIでは効果測定するとおかしくなるとか不採算性だけ目に付くとか、分かるんですよ。分かってるんですよ。そのヒントを求めて本書を買ったのですが、問題提起だけで終わってしまったのが残念です。まあ、これらソーシャルの効果測定はみなさん、今現在、試行錯誤を重ねて進めています。大きな成功事例もよいのですが、大きな失敗と小さな成功事例の積み重ねがヒントになるのでは、と思っています。

2013年8月25日日曜日

【News】セミナー:2013年大阪ツールトレーニングセミナー(WACA主催)

来る9/13(金)に、インプレスの「ネットショップ担当者フォーラム2013 in 大阪」と同時開催で、ウェブ解析士協会主催の「2013年大阪ツールトレーニングセミナー」が梅田スカイビルで開催されます。
参照:http://web-tan.forum.impressrd.jp/events/ec/osaka201309/waca

参加費は無料で事前申込みが必要です。 「ネットショップ担当者フォーラム2013 in 大阪」とは別の申込みなのでご注意ください。
対象はECサイト運用をしている企業の担当者やECマーケの担当者がメインと思われます。もちろん、これから解析ツールをいろいろ試してみたいという人も情報収集できるのではないでしょうか。各種解析ツールのセミナーが11時から17時までみっしり行われます。
ツールセミナーと銘打っていますが、基本的にツールそのものの習熟を目的としているわけではなく概要説明や操作と見るポイントの解説という感じだと思います。各ベンダーが独自で行っている自前のツールのテクニカルセミナーではないでしょう。まあしかし、デモや資料を申し込まないとなかなか具体的な概要も把握できないので、その意味では良い機会だと思います。

各ツールは下記を予定されているようです。
・アクセス解析ツール シビラ
・ページ内分析アクセス解析ツール:ClickTale(クリックテール)
・SEO対策 SEOマスター」のご説明
・ユーザビリティツール ゴーストレック
・ ネット広告効果測定システム:AD EBiS(アドエビス)
・アクセス解析ツール サイトカタリスト

個人的にはアドエビスと サイトカタリストに興味津々なのですが、特にアドエビスのキャラクター、エビスくんのカバンに無造作に突っ込まれている無気力そうなタイくんが気になります。そんな虚ろな目でええんか!? 君の人生それでええんか!? これSEOと広告キーワード対策で廃人になった担当者のイメージだったら深い。 

セミナーの正しい聴講の仕方としましては、セミナーと銘打っている以上プレゼンターは参加者の情報やリード獲得などの目的があります。ですので、白紙の状態よりも事前に自分なりに各種ツールやベンダーの情報を収集してから臨むとより得るものがあるのでは、と常々考えています。ウェブサイトに掲載されている情報以上の内容を期待しております!

余談ですが、デモや資料請求は重要なリードですから、利用者の情報が欲しいという気持ちはすごく分かります。本気とひやかしを分ける第一ハードルだと思うのですが、これってひそかに機会損失じゃないのかなあと思うことがあります。各種ツールを候補として挙げるときに、まず推薦する立場として実際の画面や使用感、見方などを知識として知っておきたい、ということが良くあるからです。
しかも具体的に推薦する前に絶対聞かれることがあります。
「これまでどんな解析ツールを使ってきましたか?」
という質問です。

マーケをがっつりやっている企業や部署に所属していても、代理店契約などの縛りで複数の有料解析ツール(ソーシャル、SEOなどの各種調査・解析別ツールは別として)は使う機会はそうそうないと思います。
機能や時間制限があっても全然OKなので、メール情報くらいでデモで操作を試すことができたらなぁ・・・と時々思います。

2013年8月21日水曜日

【PickUp】機能からサービスへ~サイト内検索

ニュース元 :MarkeZine
「サイト内検索」がECを変える!「スピードとおもてなし」に大手ECも熱い視線を注ぐ、ゼロスタートの「ZERO-ZONE Search」
http://markezine.jp/article/detail/18219


当ブログで6月に「【解析いろは13】サイト内検索の存在感」というタイトルで書いたのですが、ECサイトのみならずどんな企業サイトでも重要だと思います。サイトサーチアナリティクスはもっと注目されてもいいと何度も(以下省略)
小ネタとしてアマゾンとの検索対決もやってみました(適当なので結果を信用しないでください。ダメ、絶対)。

2013年8月19日月曜日

【解析いろは20】ログ解析からウェブ解析への風

大人の夏休みも終わり、リフレッシュして、あるいは気怠くお仕事をしている人も多いと思います。長い休み明けのメール受信は、どうしてあれほど憂鬱なんでしょうね?
心機一転、今日は解析の風向きで感じたことをつらつら書いてますハイ。
<もくじ>
(1)ログ解析からウェブ解析への風
(2)GAの風向き
(3)今日のネタは明日実装されるかもしれない

2013年8月15日木曜日

【Books】SEXY? データ・サイエンティストに学ぶ「分析力」

”小さな数字から、企業価値を変える新しい試みを。”
タイトル:SEXY LITTLE NUMBERS データ・サイエンティストに学ぶ「分析力」/日経BP社
著者:ディミトリ・マークス、ポール・ブラウン 
私的評価:4点/5点

あらゆるデータを元にビジネスを、業務を改善していくための考え方と、実例の紹介です。Tips本やノウハウ本ほど具体的に方法論を提示しているわけではありません。万能の計算式があるわけではありません。「自分(達)はこう考えた」「これをやった」ということを、目標ごとにクローズアップして述べています。
・自分の知らないビッグデータ分析ビジネスというものを俯瞰して見る。
・あまたのビジネス書同様、自分の業務に当てはめたり空想で補ったり、自分なりに噛み砕く
ということができるなら得るものがあるかと思います。

◎目次
第1章 リトルデータでビジネスを成長させる
第2章 ターゲティング-誰にアプローチするか
第3章 メッセージ-何について話すか
第4章 ロケーション -どこで顧客を見つけるか
第5章 予算 -いくら費やすべきか
第6章 測定 -何が有効か、有効でないかをどう把握するか
第7章 最適化 -有効なものをさらに活用し、無効なものを排除するには
第8章 アナリティクスの未来
1章~7章の末尾には必ず「月曜日の朝にすること」という、簡潔なまとめがあって、これを実行しろよ、やらなくちゃ読んだ意味ねえよ、と言ってるようです(意訳)


書いてあることはさほど難しくもなく、目新しくもありません。分析せよ、仮説を立てろ、実行して検証しよう。業務改善に役立てよう。当たり前のことです。でも当たり前のことを通す、実行することはとても難しい。それがビッグデータ、超グローバル企業のコンサルや分析であっても同じだということが分かって、なんだかほっとしたのでした。文中に「がっかりした」「失望した」というワードを見るたびにニヤニヤ。解析における仮説を「非科学的」という顧客候補(そのくせ自分たちの判断は経験則に基づくというから矛盾している)、理由なく数字に反発するクリエイティブチーム、分析と営業、あるいはウェブ管理部門との遠い距離。ああ、あるある。乗り越えるために、分かり合うためにどうしたか、ということも、簡単ですが書いてあって面白かったです。

個人的には第5章の「予算の配分」、第6章の「重要なものを測定する」「データのビジュアル化」、第7章「クリエイティブへのフィードバック」がツボにはまりました。全編を通してデータをどのようにプレゼンテーションするか、というのが頻出するのですが、すべてにおいて「分かりやすく、シンプル」なんですね。
 「あることを正確に伝えたい」というのが、私の場合は文字数の多さに出てしまって、メールを読むのがしんどいとよく言われます(笑) でも書いてないと絶対後で説明を求めるじゃんよ! 
この本を読んで、最小限の言葉で短く伝え、相手から聞かれたら立て板に水のごとく語ろうと決めました。


余談。
セクスィーというとふーじこちゅわ~んか壇密しか浮かばないのですが、「魅力的な」という意味合いなんですね。魅力的という言葉にSEXYを使うところに欧米と日本の違いを少々、感じました。日本じゃセクスィーとは言わないでしょうなあ。きゃわわデータ、とか、データかわゆす、とか。

2013年8月13日火曜日

【解析いろは19】グランフロント大阪のイベントのバイラル効果を勝手に見てみる

お盆期間に入ったので閑散としていますね。今日から夏休みを、と思っていたらやり残したことがあったのでひっそり仕事をしています。

7月初頭に、当Facebookページの「解析のいろは」でニュースのみピックアップしたのですが、大阪の新名所・グランフロント大阪であるイベントがありました。「初音ミクinナレッジキャピタル」というイベントでございます(http://kc-i.jp/event/miku/)。7月12日時点では対応アプリがアンドロ用しかなかったのですが、iPhone用も間に合ったようですね。7/12のイベント開始直後はなかったので、後で追加されたのでしょう。
まあそんな訳で、ソーシャル代表としてTwitterでのバイラルはどんなもんだったか、ということをザックザクに粗くまとめました。
--------------------------------------------------------

利用した解析ツール:Topsy
計測期間:7/14~8/13(30日)
調査方法:「グランフロント+ミク」という最小のワードでのTweet数を検索。比較として「グランフロント」のみの検索結果を加える。「グランフロント」の検索結果には「グランフロント+ミク」も含まれている。 
基準:数の多寡については目標値、客観的基準が不明のため期間内の1日平均、特定の日の平均を算出して比較・検討。
--------------------------------------------------------


<データ>
◎期間内ツィート数累計
   【検索ワード】
グランフロント+ミク : 1,288 1日あたりの平均ツィート数 42.9 個  
グランフロントのみ:37,871  1日あたりの平均ツィート数 1262.3個 

◎最多ツィートの日 8/3のツィート数比較
   【検索ワード】 
グランフロント+ミク : 137
グランフロントのみ:1,454
 <参考>
・ライブの特設ページのソーシャルリンク(Twitter)が共有された数:369
https://twitter.com/search?q=http%3A%2F%2Fkc-i.jp%2Fhatsuap%2F
・告知ページがTwitterでツィートされた数:71
(「イベント:初音ミク in ナレッジキャピタル」で検索)



【グラフA】
 【グラフB】
  
<ばっくり考察>

◎期間内累計
計測期間内では1日あたり平均ツィート数1362個のうち、約3.4%がワード「ミク」を含むツィートでした。(但しこのワード「ミク」はイベントの初音ミクに限定されません。個人名等を含んでいる場合があります。というかありました)

 
◎最多ツィートの日(8/3)の動向
8/3にワード「ミク」を含むツィートが期間内で最多。一日あたり平均の約3.1倍であり、ワード「グランフロント」を含むツィート内での割合は9.4%と大幅に増加しています。

8/3の外部要因
・8/3~8/7 初音ミクのライブ上映初日


◎わかったこと

単純に「グランフロント+ミク」ワードで、ライブ初日の8/3にツィートが3倍近く増加している点から、ライブへの関心やクチコミは、同時に開催さいていたミク絡みのイベントよりも高かったのでは?という仮説を立ててみる。あとは追加調査。(おいぃ!)
--------------------------------------------------------
本題はここからです。グラフや数字に誤魔化されてはいけません。

この結果はグランフロントで行われた初音ミク関連のイベントについてのごく一部の、断片的なデータです
ワード「グランフロント」「ミク」を含まなくても、ライブのタイトル「夏祭初音鑑」や特設ページのURLを抽出すると、もっと「初音ミクに関連し、言及しているであろう」ツィート数は増えます。それらは含んでいないので、イベント全体のバイラル効果を見るにはデータが不足しています。ゆえに、調査方法と範囲、基準を明示してあらかじめ逃げの手を打っています。

ではこれが効果測定のやり方として間違っているかというとそうでもないと思うのです。どの範囲のデータで、どういう判断基準や方法をもって測定するかは解析する側が決めるべきことです。ただ、この一部のデータで全体のバイラル効果を推察するには根拠が乏しい。ですから数字については全く判断をせず事実だけ述べています。ずるい!

クライアントが期待する効果とは何か。それを測定するためにはどのような条件設定をすればよいか。
 イベントの効果測定、特にソーシャルについて測定する場合は、あらかじめ測定条件とゴールを決めておく
ということが大事なんです。はい、すごく長い前置きでした。

でも、最小の手間でやったのですが、ヒントは得られますよね。8/3はなんだかツィートが多いぞ、と。ライブ上映初日だぞ、と。その前後にはテレビCMが流れていて、 大阪ではポスターが貼ってあって、当日にぴあやその他のメディアでツィートされているようだ。それに較べて、イベント開始当日や前後は動きが少ない。通常イベントの告知は十分だったのか?などなど。これらの疑問も、解析をする上ではとても重要だと思います。特にイベントに絡んだ効果測定は定点観測と異なり、明確な目的と訴求、その効果が必要なのですから。


また、 「グランフロント+ミク」の検索結果のツィート数がこれで多いのか、少ないのか、ということについては基準がないため全く判断ができません。従って、割合を見てみました。これでお分かりかと思いますが、
目標や基準設定されていないとイイも悪いも判断できない 
のです。(そりゃ内部では設定されていると思いますが)。

ちなみに多分GA使ってますね、ログ取るのに。ソーシャルも見るんですかね。あーレポートが大変だぁ・・・

長い思考のお遊びにお付き合いくださりありがとうございました~。しかし、この過程こそが解析においてとても重要だと私は考えてます。
Topsyや、Yahoo!リアルタイム検索はタダで使えるツールです。ぜひ遊んでみてください。応用として、キャンペーン開始直後のバイラル動向だったり、イヤな話ですが炎上の有無の確認とか、そういったことにも使えますよね。

2013年8月7日水曜日

【解析いろは18】アクセスログ解析のKGIとKPIの意味

昨今、どこのサイトや本にも「ウェブサイトのKGIとKPIを決めてPDCA回そうぜ!」と書いてますが、よくよく読んでみるとKGIとKPIの内容がそれぞれで微妙に違ってます。で、実際、特にこれからウェブサイトのKGIとKPIを策定する場合に悩むことが多いのではないでしょうか。

1.結論
早っ! いや、これ正解というものを求めると訳が分からなくなるので最初に書きます。 
・大目的(ゴール)、それを達成するための目標と手段と計測手段(指標)の関連性が密であり、 
・レポート内でのそれらの定義をブラさない。
・それらを常に意識して指標を見る。
ことができれば、どれを何と呼ぼうが全然構わないと思います。でも分析する側は、自分の中とクライアントの間に共通の定義を持っておかねばなりません。これは絶対のお約束です。それをどうやって決めているのか(というより、どうしてこうなった!的な)ということをちょっとご紹介します。

「こういう目的のサイトにはこんなKPIを見るといいよ」的な内容を期待されている方もいらっしゃるかもしれません。なので、末尾に参考リンクを掲載しておきます。しかし重ねていいますが、それがあなたのクライアント全てに適しているとは思えません。結局は結論の1~3に戻らざるをえないと思いますよ?
 
2.「日本流」?のKGIとKPI
海外の解析ツールの仕様を確認していたとき、 主な指標が一覧できるダッシュボードで「重要評価指数(KGI)」というタイトルがついてました。
しかし、あるケースでの私のKGI、KPIの考え方は大体下記のような感じだったんです。
  =====================
(例)
★ウェブサイトの目的(ゴール):企業の活動内容と製品の認知度向上
 ■KGIその1:サイト全体の直帰率を下げる
   ┗KPI(1) サイト全体の直帰率 /判断指標 サイト全体の直帰率
     ┗想定されるアクション(対策) 直帰率の高いサイトトップページの見直し

 ■KGIその2:企業CSR情報ページを良くみてもらう
   ┗KPI(1):CSR情報コンテンツのッション数増加/判断指標 CSRコンテンツのセッション数    ┗KPI(2):ページインデックスの特定のコンテンツ誘導バナーをクリックした数/
  =====================
いわば、KGI=何がしたい、KPI=何をする+その判断、計測の指標をピックアップと、3段重ねでした。 なぜそんなこってこてにしたかというと、このケースにおいて、レポートする先の用語や解析内容の認識など、アクセスログ解析に対するリテラシーがさほど高くないからでした。

(ウェブサイトの本当の意味でのビジネス活用については最近になって浸透してきて、ようやく効果測定しなくちゃねというところに辿り着いたと思います。ですからソーシャル解析とその効果測定については、早いところはやってるけど、まだ少数派だと思います。)

話を戻します。解析ツールでKPIとして表示されている指標は、設定したKPI(を測る指標)として該当するものもあれば、そのままでは出てこないものもあります。ですので「これKPI(ドン!)」と出されてしまうと「じゃあこちらで設定したKPIの扱いはどうすれば?」とちょっと混乱したんです。
開発側にそのKPIの意図を聞いたら、海外ではこれで分かる。日本人が見るとそれまで使ってきたKPIと意味が少し違うようだ。という話でした。
海外がどうか、という話は海外案件をやったことがないのでわからないですが、この差は何かということを考えた場合、ある数値に対する認知、理解なんじゃね?と思った次第です。

アクセスログ解析という多くのユーザーが使うプラットフォームでも、取得する値とそれを当てはめる指標は共通です。 それら数値をどう使うか、というのがユーザーによって異なるだけです。えーとつまり、前記の(例)を書き直すと…
 =====================
★ウェブサイトの目的(ゴール):企業の活動内容と製品の認知度向上
 ■KGIその2:企業CSR情報ページを良くみてもらう
   ┗KPI(1):CSRコンテンツのセッション数 (←CSR情報コンテンツのッション数増加を測るため)*この緑の部分は記載しません
  =====================
とまあ、こんな感じです。KPI=Key Performance Indicator なのですから本来的にはこの使い方が妥当でしょう。業務上、簡潔に状況把握するにはこちらのほうがやりやすい。数値を見て把握できるわけですから。KPIの判断指標を「なぜそれを見るか」「その数字に対してどういう評価をすればよいか」がきちんと認知されていれば(←~ )は不要なんですね。「共有知」という言葉がしっくりきます。業務で、絶対に会計や営業では売上げや見込みといった指標を元に分析や把握をしてますよね。それが「共通の認識と言語」であれば数値だけで報告は通用するのです。PVやユーザー数の増減を見て一喜一憂しているだけ、というのとの差はここにあります。指標を見るという点では行為は似ていますが得られるものが全然違います


(なぜ日本の(?)KPIが回りくどいのか、なぜアクセスログ解析の指標が指標単体で「良い・悪い」といった判断基準になりにくいか、というのは特有の理由が思いつくのですが長くなるのでこれはまた今度。(いつだ!))

でも、「共有知」は短時間で生まれるものではありません。だからレポート内容一本で理解してもらうためにブレない程度にKPIを具体的・詳細に書くことも許されるのでは、と考えます。従ってレポートを作る前に、

 ・大目的(ゴール)、それを達成するための目標と手段と計測手段(指標)

は絶対に決めておく必要があるわけです、はい。KGIやKPIを考えるにあたって、どれを使うということを提示する前に、定義の内容と、それでクライアントの理解が得られるか、がとっても重要ですよね、という話でした。

<参考リンク>
具体的にどのようなKPIを採用すればいいのか、という参考です。記事の掲載年がちょっと古いのですが、内容はまた賞味期限だと思います。
Web担:Web解析のためのKPI大全

http://web-tan.forum.impressrd.jp/e/2011/04/05/9719

Web担:KPIづくり実践術 徹底解説(1) - ゴールが明確でないサイトでも大丈夫!

 

2013年8月2日金曜日

【解析いろは17】戦略的ソーシャル推進のために1:まずコレ読め。

実は、去年まではソーシャルメディアの企業活用というものに、個人的には懐疑的でした(ぉぃ)
マーケッターやリサーチャーが言うほどソーシャルメディアの「効果」というものに確信が持てなかったのです。しかし今年に入って、各所のホワイトペーパーや調査データを追っていくうちに、「あれ?なんかこれいいんじゃね? 将来性あるんじゃね?」と今更思うようになりました。
まず解析全般に言えることなんですが、効果測定の軸や指標、ゴール設定をするという認知がさほど高くないように思います。今年に入ってからなぜか急に解析に関するお尋ねが増えているのですが、まずアクセスログ解析の見方、ウェブの効果の測定についての基本の知識や考え方が、認知されていないあるいはアップデートされていないケースが圧倒的に多いように感じています。

・Facebookにせよ、Twitterにせよ、指標がさほど多くないこと
・どの解析ツールを使っても、元データはTwitterやFacebookが取得し、提供するデータであるという点(ただし解析データベースへデータをひっぱってくる設定やらでツールによって誤差は生じます)

という点で、ソーシャル解析というのは本来見やすいものだと思います。その反面、ソーシャルのコアである「エンゲージメント=ユーザーとの交流の深度」は数字では示しにくく、かつ、それを一つで測る、あるいは示す指標というのは今のところありません。だから最初にソーシャルのその企業なりユーザーなりのゴールを決め、KGI、KPIを決め、どういう形で測定していくか考える必要があるのですね。別にこれ、私の個人的な妄言というわけではありません。とあるリサーチデータでも、ソーシャルの企業活用において効果測定と満足度、その方法についてやるとやらないで差が出るというデータがあります。

 ゴールなき指標(KPI)はただの数字である

極論ですが、そんな感じで考えておいたほうがいいかと思います。
で、本日は、これから社内、あるいはクライアントにソーシャルメディアを導入する際に、ちょっと役に立ちそうな資料をご紹介します。


MarkeZine http://go2.shoeisha.jp/c/abnQajgwecgtslab
解説レポート:小売業者がソーシャルメディアで成功するために ベストプラクティスガイド(Adobe)
*無料。会員登録が必要です。

この資料に記載されているのはTipsではありません。ソーシャルメディアの測定に関する考え方です。営業上、あるいは社内で推進する場合、最初に結論ありき・結果ありきで進めることが多いかもしれませんが、ここに書いてあることは、関係者すべてが認識しておいがほうがいい、ありきたりで普遍的で、でも以外と認知されていない内容です。
実例も絡めて説明されており、かつ目標とそれに対する戦術という明確な筋道で書かれてます。「ソーシャルで儲けるために」的な本を買うよりこのドキュメントをさっと読んだほうがタメになると思います。15分程度で流し読みできます。

2013年7月27日土曜日

【PickUp】アトリビューション分析は本気出すと準備だけで10か月、予算は億単位

アトリビューション分析は本気出すと準備だけで10か月、予算は億単位。さすがSUUMOさんは違うぜ!伊達にモシャモシャしてないぜ!(そういう意味ではありません)
本気でアトリビューション分析をする場合は取り組みの準備、仕組みの構築、ヒューマンリソースの確保など、予算以外にも検討・決定事項が山ほどあります。そこまでする意義を会社が認めているからこそ承認されたプロジェクトなんでしょうが、逆にこの成果が出そうにも出にくいものに対して承認したリクルートという会社もやっぱりただ者でないんだなあと思いました。
掲載は去年の記事ですが、かなりおもしろかったですし、実際の業務で役立つコメント、考え方もあると思います。そんな予算うちにあるわけねーし、そこまで解析やってねーし、と思わずに、解析担当者なら読んでソンはないと思います。なぜなら広告の最適化の先にあるのがアトリビューション分析だからです。

参考記事:http://web-tan.forum.impressrd.jp/e/2012/06/13/12915
Web担 「需要予測とアトリビューションを連携。オトナの事情に負けずに分析→最適化を推進:リクルート小川氏×アタラ有園氏 対談」
内容はSUUMOサイトのアトリビューション解析と広告施策について触れられています。あと社内の壁とか。アトリビューション分析の効果測定、手法や運用の難しさ厳しさについても触れられています。おそらくこの点は1年後の今でもそう変わっていないのではないでしょうか。ざっと流して読むだけでもなんか腑に落ちる点が多いです。
ウェブ系の広告会社の営業担当がアトリビューションを語るとき、定義と効果を明確にせずに、「間接効果」というものを自分たちに都合よく使っている話も、最近耳にします。
この対談でも語られているように、アトリビューション分析は分かりやすい効果に結びつけることは難しく、広告やSEOの最適化をやるだけやった、その次のステージにあるものだと思います。
 以下、印象的だった箇所をちょっと引用します。

“ロジックは感情を反映するので、その人の思いや、やりやすさで一番良いものは変わってきます。”

解析者がどういう軸をもち、何を目指して解析設計をし、データを整理するのか。根本的な問題で、スタートでありゴールですよね。 だから、解析ツールでもない、小手先のTIPSでもないここでの「思考」が重要なのかな、と思いました。また、やっぱり統計学の知識は必要だと思いました。数式は覚えなくてもいいと思うんですが「予測」が絡んでくると当然必要。普通にアクセスログ解析で現状把握とか改善する分には出てこないかもですが。

“月次でモニタリングする際にはセッションベースでみることを統一しておきます。アトリビューシ分析をするのは、コスト削減や集客予算の最適化のためであって、報告のためではありません。報告は通常のモニタリングとは別の軸で行うことが大切だと考えています。

“アトリビューション分析をやる時点で評価軸を変える必要があります。セッションからユーザーにすること自体がドラスティック”

解析をやってると、ただでさえつじつまが時々合わないデータだから、せめて解析は軸をぶらさないでおこうと考えがちです。なんかすっきりした!

“Googleアナリティクスの「マルチチャネル」レポートを見てほしいですね。成果のうちアシストが含まれる割合が2割~3割なら、アトリビューション分析に力を入れる必要はないと思います。(中略)SEOやリスティング広告をやりきって、さらに何かをという段階ならば、アトリビューション分析をしてみるのは良いことだと思います。 ”

すべてのところでアトリビューション分析が必要かどうかはわかりません。ムリにやる必要はないけど、もし確認したいのであれば今使っている解析ツールや広告管理ツールをまず見てみることからスタートなら、我々にも出来ることですよね。

最後に下記を引用します。

“アトリビューション分析という考え方自体は正しいと思います。誰でもわかるはずです。セッションではなくユーザーを見て分析しようというのはベースにあって、ここはみな同意できるわけです。(中略)、やろうとしている人が情報共有して、みんなで情報を出しあって頑張っていくのが第一だと思います。当たり前のものとして定着していくことを目指したいですね。”

■余談
先日とある会合の立ち話で、「(会社としては)解析一本だけじゃ売れない。広告から入るのが常套手段だよね」という話題が出ました。これは売方というか営業方法の話なのかもしれませんが、現実問題として、解析というパートだけでは商材になりにくい、むしろ難しいです。
マーケティング会社やコンサル会社が解析業務を商材とするのは、コンサル、提案、提供する情報ありきですし、社内で自社サイト、あるいはクライアントのサイトの解析に携わっている場合は、おそらく運用や制作の延長です。今回の対談のアラタ合同会社はマーケティング、コンサルティングの会社です。とすると、解析業務単体で商材としての価値や市場はどうなんでしょうね。
昨今ビッグデータとかセクスィー解析学とか、今ちょっと解析がホットな感じです。統計学的なデータ分析に引きずられるように、ウェブ解析という業務も新しいステージに移行するのかもしれません。

2013年7月24日水曜日

【解析いろは16】新しいインサイト画面のご紹介

珍しく、解析Tipsのサイトっぽく新しい画面等をご紹介しようと思います。ちなみに当blogは解析Tipsやノウハウのサイトではありません。実務のスキマを埋める解析ネタ話のサイトです。
当方のインサイトもいつの間にか新しい画面が選択できるようになっていました。ちなみに一回だけ、旧インサイト画面に戻すことができますが、そうすると次に全てのユーザーのFBページがアップデートするまで新インサイト画面にもう一度戻すということができないようです。


◎概要
 概要ページはいいね、リーチと、質を示す交流度(いいね!やコメントなどのユーザーの反応の内訳)に分けられて、主な指標が個別に、大きく数字で表示され、一目でわかりやすい思います。また、グレーの線でその前1週間がデフォルトで比較されるので増減の推移も把握できます。
以前は一つのグラフだったのですが、相関がぱっと見てわかるものの指標が「話題にしている人」と「合計リーチ」(+投稿数が円)だったため、そのグラフの意図がよくわからん、という感じでした。いや、リーチしている中で話題にしている人の数が極端に増減してしている場合は、その原因を確認しなくちゃいけませんが、通常ではほぼ同様の波形だと思うんですよね。
で、この下にページの投稿の概要リストがありますが、画像投稿の場合はサムネイルが表示されていてこちらも随分わかりやすくなったと思います。 (例の画像には含まれてませんが)
【FBインサイト新画面:概要ページ】



◎ページ
私の中ではここは「量の指標」の分類かなと思っています。いいね、リーチ、ページのアクセス数です。指数を個別にくっきり分類して、より分かりやすくしたなあという印象です。

平均値のベンチマークをオンマウスで表示が出来たりするんですよ。日次、週次の管理では便利ですよね。 
【FBインサイト新画面:ページタブ 投稿のリーチ ベンチマークラインの表示】













 ◎投稿
コンテンツ管理ですね。ここで各投稿記事へのユーザー反応の指標「交流度」を見ることができます。リーチ(記事が届いた数)に対する反応率も出しやすいですね。どうせなら数字で出しておいてくれればいいのに!この「交流度」という指標は「
概要ページもそうですがサムネイルあるなしで「何の記事だっけ?」「これなんでいいね!が多いんだろ」というのが直感的に把握できます。当方は外部ブログへのリンク、外部リンクの紹介記事が結構多い、ということがわかります。だってFBでダラダラ長い記事掲載しても読みづらいし、メイワクでしょう。よく文章量が多すぎてしんどい、といわれます。
抜け作なもんでサンプルの画像にはないのですが、リーチの内訳が「ファン/ファン以外のリーチ」という分類表示ができるんです。これもコンテンツの質をあげていくために結構重要かなと思います。当方ではある記事でNot-Fanの数がファン数を上回っていたものが幾つかあります。その部分を検討すると、今後さらにリーチが広がるでしょうね。(やれよ!)
ここの「ファン以外のリーチ」というのは初出のワードのような気がしますが、文字通りファン以外の人へのリーチだとして、その定義がちょっと気になります。教えてFBの中の人。

【FBインサイト新画面:投稿タブ すべての投稿】













・ファンがオンラインにいる時間帯
「ページに「いいね!」しているユーザーのFacebook利用時間を知ることで、そのユーザーが目にしやすい時間に合わせて投稿をシェアすることができます。」ということで、投稿カテゴリのタブ切り替えになっています。本来はユーザーのカテゴリに入っているものかもしれませんが、実務での投稿管理を考えた場合、ファンが多い時間帯に投稿するというのは大切ですからここに入ったのだと勝手に推測しています。曜日別の平均(上)にオンマウスすると、下の時間帯別グラフ(全平均)に、曜日別の平均数(@1時間)の折れ線グラフが表示されています。
ただ、「最近一週間のデータ」らしいので、本気で曜日別、時間帯別の動向を把握しようと思ったら1~3か月で傾向をみたほうがいいような気がします。
あと、これまたサンプル画像がないですが(またか!)、このカテゴリには「ベスト投稿タイプ」の提案というか、傾向の算出もデータとともに示してくれているので分かりやすいですね。とくに多種の投稿タイプを利用しているユーザーには役立つと思います。

【FBインサイト新画面:投稿タブ ファンがオンラインにいる時間帯】













 ◎ユーザー
ユーザー属性を人口統計データと共に確認することができます。ターゲットとユーザーのずれがないか、以外なファン層の発見などに役立ちます。ちなみに「何らかのアクションを実行した人」は最低30人がページでアクションを実行した場合にのみ使えます。まあ、そりゃそうだ。

【FBインサイト新画面:ユーザータブ】















■まとめ
新しいインサイトでは毎日、週次の管理は、現場の人が見る限りにおいては前よりも分かりやすいのではないかと思います。
・投稿時間等がユーザー側の時間になったようです
・ところどころ英語が残ってる

・管理運営側をかなり配慮した構成になっている
・やっぱり1週間単位が基本

FBの運用ではこれがまあ基本単位かなと思います。

■余談
レポートは週間、月間、四半期、半期、通年で内容、構成、グラフの表示形式、コメント等、要素が異なります。レポートが期間によって利用目的が異なっているからです(そのはずです)。そのレポートが「何のために+誰のために必要なのか」を考えると、異なっていて然るべきです。
日々の運用PDCAにはインサイトでまあ結構足りているのですが、例えば、ちょっと上へのソーシャルの運用状況の報告(ベンチマークでの他社比較といった他の軸での評価、個別に目標が設定している場合はその達成率と課題)を出すこともあるでしょう。

その場合はエクセルで泣きながら資料を作ったり、別の解析ツールを活用するという方法もあります。

■余談その2 ソーシャルの指標について考えてみた(長いですよ!)
余談ですが、なぜFBを含めソーシャルの指標はなんだかわかりにくいように感じるのは、リーチがエンゲージメントというユーザーの交流の深さ、質の影響を受けるからなのでしょうかね。しかし、FBページに おいてはリーチは記事がファンに到達する範囲ということですから、ここでのリーチは「量の指標」と考えるべきではないかと。ま、ちょっと微妙なんですが、 私的にはページタブの中では量の指標という認識です。

それじゃあ「いいね!」はどうなるんだよ!あれだっていいね!て意思表示してるんだからユーザーの 反応だろ?と仰る向きもあろうかと思います。そこで、なぜ「いいね!」数が、昨今言われているように素直にエンゲージメントの指標にならないのか、なぜエンゲージメントを「リアルに」測ることが難しいのか(あるいは難しく考えすぎなのか)という話になると思います。
まず誤解があってはいけないのは、「いいね!」をエンゲージメント指標と評価してもいいのです。イヤならそもそも「いいね!」すらしませんしね。
指標をどう捉えて何に活用するかは解析する側、ひいてはクライアントの要望にどのように応えるかだと思います。
昨今「いいね!」数だけ見ていてもユーザーエンゲージメントのリアルな反映、あるいは数値とはいえないのではないか、という疑問の提議は、FBの仕様がリーチ率の算出とかけあわあせで、ファン全員に投稿記事がすべて届くわけではない、という点に起因しているからだと思います。
また、ソーシャルにおける「エンゲージメント」の意味を追求していくと、一回限りのいいね!ではなく、記事投稿ごとに対するリアクションで深度を測って いったほうがエンゲージメントのイメージに合うと思うのですよ。ゆえに、FBでは仕様で、ページに「いいね!」をしても100%すべての人に表示される わけでもなく、リーチ率という、エンゲージメント指標が影響する要素でふるいにかけています。
何が何だかわからない、FBで決めてくれたらいいのにと思うかもしれません。私もそうしてほしい(笑) 今回のリニューアルは、多分そういう意向とビジネス利用のためにかなり整理したのだと思います。
しかし、考えてみるとエンゲージメントの定義を何とするか、どの指標をKPIにするのかは、ひいてはFBページで何がしたいか、何を達成したいのかという目標に戻っていくような気がします。
あと、指標の質と量の分類はこれ人様々です。リーチ数がいい例ですね。いいね数もそうですね。ですから、自分の理解と解析のための軸を持つことも大事かなと思いました。

2013年7月16日火曜日

【PickUp】EコマースとCLVとSNSの密月はウソ?

昨今注目されているマーケのキーワード、「カスタマーライフタイムバリュー(顧客生涯価値)(CLV)」。アメリカのマーケティングリサーチ会社のCustona社の調査によると、オーガニック検索を経てアクセスしてくる顧客がCLVが最も高く、優良顧客率が高かった。。。という結果だったそうです。

”優良顧客率が低かったのはソーシャルメディアからの流入顧客だ。Facebookからは1%、Twitter経由では-23%という結果に終わっている。 ソーシャルメディアのコンバージョン率は高いと思われがちだが、今回の調査結果から見ると、むしろ従来型のメールマーケティングの方が効果が高いといえる。”

ニュース元:http://marketing.itmedia.co.jp/mm/articles/1306/28/news050.html
元記事(英語):http://searchenginewatch.com/article/2277756/Most-Valuable-Ecommerce-Customers-Come-from-Organic-Search-Study


そもそもCLVとはなんぞや、というと「顧客満足度を上げてとの良い関係を長く保って、お金やなにやらを継続して落としてもらう幸せな関係」(超意訳)と言う感じでしょうか。正しい定義は検索してくださいネ! 新規顧客を獲得しつづけるのはコスト面も大変だし市場も限られている、という理由もあります。
近時、企業がこぞってFacebookやTwitterなどのSNSを活用しようと乗り出してくるのは『顧客との直接的な接点を増やして企業や商品イメージをアップしてCLVをあげたい』という考えがあることが多いと思います。もしくはマーケやコンサル会社が『SNSを通じてユーザー、潜在的顧客を獲得し、優良な関係を築いてCLVを上げていきましょう』的なプレゼンをしているかもしれません。
 この調査結果では、ソーシャルは確かに流入のチャネルにはなっているけれども、CLVはあんまりだよな、ということが透けて見えたわけです。

“Social media is generally accepted as a common contributor in the path to conversion, and sometimes is the last click or only click in a conversion funnel. However according to Custora, clients coming from social networks don’t stack up against the CLV of clients coming from other channels.

 何が言いたいのかというと、SNS=集客の要になる、CLVの向上に資する、といったことを「=(イコール)」で結ぶのではなく、冷静に受けとめる必要があるということです。 このニュース、特に日本語の抜粋だけ読んで「SNSはCLVに結び付かない、やっぱりSEOとメルマガとCPCで優良顧客を増やしていくべきですよ!」 という結論に結びつけるのもいかがなものか、と思ったり。
この記事の見出しも「~ウソ?」なんてちょっぴり装飾してみましたが、SNSが新しい流入チャネルとして重要であることは変わらないだろうし、SNSを通じてCLVを上げることも可能だと思います。今回の調査はEコマースに限定しているようなので、そうでない会社とSNSとの関係は異なるかもしれません。また、統計的には十分な母数を備えていますが、あくまでも傾向の平均値になるため、本当に自社やクライアントにこの結果が該当するか・しないかというのも考えなくてはなりません。
データというのは事象の分析結果の一端なのですが、言いよう・使いようによってどのような印象をも与えることができる、という好例ともいえますね。今流行りの統計学的思考を身に着けよう、ではないですが、真に受けすぎない・軽んじすぎないさじ加減が必要かと。
でも主張する側に立ったときは主張するメリットに対して論理を貫き通すことが必要ですよ。どのようなことにもメリット・デメリットはあるのですから、そこでどちらにも配慮した平たい論旨を展開すると聞いている側は「どっちやねん」と感じ、不信感が募るだけですから。


ネット関連の施策はリアルのキャンペーンや広告よりもはるかにとっつきやすく、コストも比較的安く済む。また、効果計測がやりやすい。というメリットが高いのは事実です。リスクを考えすぎてやらないよりも失敗を含めやったほうが結果が得られやすい、やったもの勝ちな面があるのもネットだと思ってます。企業ではどうしてもリスクヘッジをしたがりますが、どっちかというとリスクマネジメントをすべきだと、最近すごく思います。

2013年7月9日火曜日

【PickUp】選挙とSNSとビッグデータ

カリフォルニア州の40歳~49歳の富裕層女性はジョージ・クルーニーがお好み! なるほどねぇ~。NY州ではサラ・ジェシカ・パーカーが人気。ブルース・スプリングスティーンがオハイオ州で登場するのも分かる分かる。

でも、これは全米のタレント人気ランキングの結果ではありません。2012年の大統領選挙におけるオバマ陣営の選挙資金パーティーでキャスティングされたセレブです

アメリカではビッグデータに基づく選挙戦略がすでに実行されています。オバマ陣営では、地方での選挙資金集めのパーティーで膨大なビッグデータを元に、土地柄や招待客の層と嗜好にあわせて支持者の俳優や女優などのセレブを選び、効率良く、より高額の選挙資金を集めました。
それに関して興味深いレポートがありました。お暇なときに読んでみてください。ヘタなニュースより面白いです。
KDDI総研 米国大統領選に見るソーシャルとビッグデータの役割
また、つい最近(5月)、選挙をにらんでNHKで特集が組まれました。こちらは短くてわかりやすかったです。

オバマ陣営の戦略は常に進化してます。2008年からアプリを使い、2012年の選挙ではその時から集積したデータを他のデータベースと統合して精度をガツンと上げているそうです。

”ソーシャルメディアのコンテンツを「発信」でなく「受信」して集め、大量のデータを動かして、シミュレーションや解析を行うツールや環境が充実し、データ解析の技術が急速に進化してきたという環境”

このセンテンスを読んだだけで鳥肌が出ます。すごっ! 脳からヨダレ出てきた。

もう一つ、前選挙でオバマ陣営が取ったのはソーシャル戦略の徹底です。キーワードは『パーソナライズ』。

”誰の名前でどういうメッセージを送るのが最も効果的か、膨大なシミュレーションが行われ、それぞれのターゲットに合わせた発信者と内容のメッセージが送られた。支持してくれそうな個人にパーソナルに呼びかけた。”

例として、筆者の元にミッシェル・オバマ夫人から贈られたツィッターのダイレクトメッセージが挙げられています。こんなのがダイレクトメッセージで届いたら興奮しますよね。パーソナライズされていますから、誰にでも同内容のメッセージが送られてきたのではなく、インフルエンサーとして影響力があるがために、その内容に特化したメッセージとなっています。
マスコミに依存するのではなく、ソーシャルをオウンドメディア化し、情報発信と受信によるコミュニケーションとシェアの輪を広げたこと
オバマ陣営は、これを莫大な費用とデータを投入して実装し、勝利を得た、ということになるのでしょう。重要なことは、

“オバマ大統領自身がすべて理解しているわけではないだろうが、それだけのスタッフを雇い、彼らを率いて使いこなせる程度にはITを「理解」しており、そのためにリソースを割く判断ができる。”

という点です。トップは何も知らなくていい、という訳ではないのです。ネット選挙活動が解禁となった日本で、一体どれくらいの候補者がこの点を理解しているでしょうか。日本企業のトップもまた然り。リーダー(決断する立場の人間)が、システムの詳細は知らなくてもいいけれども、その効果ややろうとすることを理解していなくては、クソの役にも立たないことでしょう(あらやだー)。KDDIのレポートの末尾でもこの点について鋭く言及しています。

イン・ザ・ループ Blog (2011/11/01)ソーシャルCEOとは?
 
こういう記事もあるので、CEOという立場、管理職にある立場の方々にはぜひ読んでもらいたいものです。記事自体はちょっと古い時期のものですが、しかし日本ではさほど進んでいないせいか内容は古びてないと思います。まあ、よくてブログですかね。あれも誰に発信しているのかわからないのが多いですけどね。顧客なのか、広く世間なのか、社員なのか、関連会社の幹部なのか。社員や幹部へのメッセージなら社内SNSでやればいいのに、とか思う今日このごろ。


また、最近の記事で気になるものをピックアップしました。
ITmedia マーケター通信 facebookの遊説報告は結局スピーカーでの連呼と同じ?
よく見かけますよねえ、この刺さらない遊説報告。暑苦しいのもうっとおしいけど、「で、だからなによ」というリアクションにもつながりかねない薄さですな。唯一評価されている感じの安倍首相のFacebookページのイメージ写真があざとい・・・(笑 どこが(誰が)フィクサーなんでしょうね?
http://www.facebook.com/abeshinzo?fref=ts

 あとYahoo!からこんなのも。
ビッグデータが導き出した参議院選挙の議席予測
興味深いのが、その結果ではなく、「ビッグデータ(主に検索)を用いてその時々の話題をレポートしていこう」という試みです。元データは置いておくとして、調査方法や予測方法を簡単に説明してくれているのは面白い。まあしかし、「「Yahoo!検索」データなどのネット上の動きと、実際の得票数の間に高い相関がある」ことの真偽はわからないですけどね。
受け手の私たちは結果や予測がどうか、ではなくそれを材料に『自分がどう考え、判断するか』が最も大切なことではないかと。



なぜこうもビッグデータのネタを使うかというと、流行ってるというものあるのですが、これによって今までの解析のロジックや思考がひっくり返る可能性があるからです。実際にビッグデータに触れる機会はそうそうないかもしれませんが、アンテナを張って知識を仕入れておいてもソンはない、と思います。

2013年7月5日金曜日

【解析いろは15】ログ以外のデータはどこから持ってくる?

ぼっちの解析者はどこから情報やデータを持ってくればよいのか、というのが今日のテーマです。

会社に所属していても、こういうデータがあれば、解析結果を補足できるのになぁ・・・ということはありませんか? でもうちの会社にそんなデータなんてないし、と諦めてませんか?
大丈夫です。普通持ってませんから。コンサルをしている会社ならどこでも豊富なデータを保持しているという訳ではありません。デモグラフィックなデータを出せるほど精密で母数の多い客観的なデータを自前で持っているところはごく一部の会社でしょう。

■インターネットからデータを探す
まずは検索して探す。ワードを変え、該当した記事が掲載されているサイトやブログの他の記事も見て掘り起こすことです。中には「そんなのを無料で公開してくれてありがとう!」というすごいデータもあります。調査会社が発行・公開しているホワイトペーパーの抜粋プレスリリースも役に立ちます。 探す作業や資料の読みこみに時間はかかりますが、勉強にもなります。
私が愛用(?)しているのは、ニールセン電通PR総務省の白書コーナー、ビデオリサーチインタラクティブ等。他にもウェブ系、ソーシャル系のコンサル、ニュースサイトのホワイトペーパーも参考になります。大きな会社だから大丈夫~と信用するのではなく、データの収集方法や母集団、提供元の情報を確認する必要があります。

■データを買う

この他、「買う」という手があります。白書として売ってるので必要に応じて購入します。●●白書系はめくってるだけでかなり面白いですよ~。

■あくまでも「補足」。“正しい”っぽいデータに逃げない。
但し、これらのデータでの裏付けはおおまかな傾向等を把握するためので、あくまでも「補足」であるということを忘れないでください。統計学的データとか客観データとか多数の平均とか、そういうものに判断の根拠を求める人はいないと思いますが、しかし、人というものは不安であれば「確かな数字」に根拠を見出したがるものなのです。それはメインであるデータ、例えばアクセスログ解析データを真に理解していない、といえるのではないでしょうか。

白書などの統計データの調査方法はもちろん統計学的手法に則り、相応の母数を集めて集計しているわけですが、しかしそれでも偏りや集計ミスも散見します。例えば家庭内PCからのアクセスが主である、など。あるジャンルを調査するのにデバイスが結構偏ってるような気がしますが、母集団を家庭内PCからのアクセスという風に限定してしまえばそういう集団の特性、ということは言えるのかなと思いますケド。
また、一般的に公開されるホワイトペーパー、概要は意図が含まれています。その結論を出すのに不都合なデータは、まあ普通は掲載されていませんよね。探しているこちら側もまず結論ありきではないでしょうか。それに見合った裏付けデータを探しているだけの話で。

■「統計リテラシー」
分析し説明をする側としては、数字・統計を上手にかつ正しく利用しなくてはいけない、と常に思います。だから私は前述の他社が提供・公開しているデータを報告書に掲載する場合は、補足として目立たないようにページの一番後ろにくっつけます。もちろん、どこそこからの転載と情報元もきちんと指定通り掲載します。

先日、NHKのクローズアップ現代で「数字のカラクリ・データの真実 ~統計学ブームのヒミツ~」という番組がやっていました。これ再放送かアーカイブでもいいので、ぜひ見ていただきたいです。
http://www.nhk.or.jp/gendai/kiroku/detail_3375.html

これを飲んだら98%が痩せた、95%に効果があった、という謳い文句の意味が分かります。まったくのウソではなくても「数字の信仰」を利用したマジックというべきものです。私は文系で数字とか計算は非常に苦手なのですが、「統計リテラシー」は数字の好き・嫌い問わずに多くの人が知るべきだと思いました。
また、すでにビッグデータ解析によって ウェブサイトへのアクセス状況の予測が高い精度で予測できる統計学の数式が編み出されていることにも驚嘆しました。
いいぞ、もっとやれ! え? それじゃあ解析の仕事なくなっちゃうじゃん?て思ったアナタ。解析は「それ」だけに限ったことではありませんし、解析ツールもどんどん進化しています。なくなる・効率化される作業は今後も増えていきます。その中で、何が自分にできるのか、解析担当としての真の職責はなんなのかを考えるべきじゃないでしょうか。あ、自分にぐっさり刺さりました。

さて、番組を見ていなかった人に質問です。「心筋梗塞の人の95%、犯罪者の95%が食べていたという食べ物を禁止すべきか。」この食べ物ってなんだと思います?

2013年7月2日火曜日

【GAの壁】カテゴリには意味がある


GAは項目多すぎ!上から順にとりあえず見てレポートしている。漠然と指標を追っている…という方におすすめしたいネタ。既知の人はすっとばしてください。GAのカテゴリの並びには意味があります、というのが今日のテーマです。
GAIQ持ってますが正直、GAはわからない・知らないことだらけです。やっぱり実際に使ってこそ身に付くものだと思いますが、フルに活用しているかというとそんなことはないです。定期レポートだと見るポイントや指標は大体決まっていますもんね。


アクセスログを通じて何を取得しているのかというとユーザーのサイト内での動向です。具体的には「どのような人が、どこから来て、どこを見て、何をしたか」です。 GAのカテゴリは上から順に以下の通りに並んでいます。

どのような人が=>ユーザー
どこから来て =>広告・トラフィック
どこを見て =>コンテンツ
何をしたのか =>コンバージョン

<引用・参考文献>Google アナリティクス パーフェクトガイド 山浦直宏 著 P37~

アクセスログはユーザーの行動の軌跡を辿るものであり、指標にはそれぞれ必ず意味があります。数あるGAのMetrics、指標はこれらを掘り下げていくためにあるのです。そう考えると、数が多くてもそのサイトに必要な指標がなんとなくわかった気になりませんか? 私はこの分類の意味を知って解析に対する考え方が変わった、というくらいに納得しました。

数多ある指標は各カテゴリにぶら下がる形で配置されています。ユーザーは訪問者が新規かリピーターか、訪問数、PV数、滞在時間・・・などが指標として挙げられます。ですが、ちょっとややこしいのはそれら指標が特定のカテゴリにがっちり拘束されているわけではなく、他のカテゴリに使われていたりセカンダリディメンションとして選択して表示できる点です。
レポートする側としては、混乱が生じないように、カテゴリの趣旨はぶらさない。コンテンツカテゴリで新規、リピーターのセグメント分けをする場合も、結論はあくまでコンテンツに関することにしてであり、セカンダリディメンションは、そのカテゴリの情報を深堀するためのものである、ということを忘れないようにしています。そのコンテンツが質を重視するのか、量を重視するのか。用いる指標によってコンテンツの価値や効果を明確にできますよね。そのような「わかりやすい」レポートを書かねばならないと思っています。
 
GAは無料なのに恐ろしいくらい機能が豊富です。しかし、大きな企業になると、社内規律やPVの上限、ウェブビーコン方式の限界でGAは使ってない・使えないことろも結構多いと思われます。その機能を本当に活用すべきところが使わないにも関わらず、どこよりも早くユニークな機能が開発、付加されています。GAはGoogleの広大な実験農場なのですね。ですから、GAを使う限りは、使い倒してとことん利用したほうがお得だと思います。

あ、GAIQ取得したい人は、前記の本を隅々まで読み倒して自分で補足を加えていけば大丈夫かなと思います。自前のGAの画面見ながらやるとなおよし、です。

2013年6月28日金曜日

【解析いろは14】解析(または運用)の定番と逆転のセオリー

今回のテーマはセミナー…ではなく解析(または運用)におけるセオリーとは、がテーマです。

先日、 大阪で開催されたFacebookのセミナー「Find us in Japan」に行ってきました。Facebookページ作成の基礎講座あり、運用の話あり、広告の話あり、企業におけるFacebook活用の座談会ありで構成バランスは良かったです。参加者は広告代理店や制作会社の他、FBを活用したいという企業の人たちも来ていたようです。もともとスモールビジネス向けに集客して講演内容を最適化しているので、テクニカルな面では食い足りない面はありました。メインターゲットに合わせるなら、「スモールビジネスでの活用」「導入について」「インサイトの初歩の見方」等を強化すべきだろうな、とぼんやり思いました(余計なお世話)。
セミナーは、こと無料の場合は主催側の明確な意図と実施メリットを想定しているわけですから、それを了解した上で、興味があることを取捨選択し、聞き耳をたてておくと有意義かと思います。

運用の講演は知識の補足になりました。運用は日々のデータ解析と並行しながら行います。解析というほどこってりしてないけど、データチェックは運用の一環です。 そこでは解析と運用が不可分なわけです。
ソーシャルでも、アクセスログ解析と同様に定量と定性を計る指標があり、目標を決めた上でどの指標を見て達成したり、下げたりする施策を実行していきます。
Facebookのコンテンツに対する評価は、コンテンツをカテゴライズして対する反応率を見てカテゴリ別の評価をし、それをもって量を獲得したり質を高めたりする施策を考える・・・のがひとつのセオリーかと思います。わかりやすいですし施策効果も数字で提示しやすいですものね。この欠点は、中期的に見てコンテンツごとの評価の精度を上げること(つまり一過性でない法則、パターンを見出すこと)、それには相応のマンパワーがいる、ということだと思います。

座談会では売上げ規模や知名度ではスモールとは言い難い企業様方の、実際の運用の苦労やメリットの話で、非常に興味深かったです。その中でも、かなり興味深い運用事例がありました。詳細やデータ的な話はほぼなかったのですが、指標は「いいね!」の数。ファンの獲得が目標のようでした。 その企業さんがなにをしたかというと、すごく単純なことでした。

●記事を最低1つ、ほぼ毎日投稿する

●Facebook広告を利用する(スポンサード広告だったかと)

です。シンプル。さらに先程の運用の話であったコンテンツ毎の数字の解析はほとんどされていないとのこと。マンパワーが少ないこともあって検証の時間がない。ゆえに「出来ることを最大活用し、不足は資金(広告予算)で補う」方法になったわけです。
また、こちらの運用チームの中ではリーチする、反応がいいアンパイなコンテンツをがっつり把握できている点が最大の利点ですね。ああ、このヘンの話をもっとお聞きしたかった・・・今度インタビュー、いや研究させてくれませんかねぇ……

基本的には指標の数字を見てチューニングするのが定番のセオリーであるのですが、状況と目標によってはもっとシンプルにしてもある程度効果は得られる、ということもあります。セオリー通りにしようとすると、最初に予算を積んでいかねばなりません。効果は早い段階で得られやすいかもですが、最初から予算やマンパワーを割り当ててソーシャルに算入する企業はそう多くない、というのが非常に良くあります。ですので、逆転のセオリーとして、最初はこのケースのように 「出来ることを最大活用し、不足は資金(広告予算)で補う」方法を提案することもアリだなと。これが座談会で得た教訓でした。どういう形であれ、最初に効果が出たらヤル気が出るし、見せ効果として次のステップに進めやすいですものね。
今後、この企業さんに必要なことは、やはり時々数字の確認をすることだと思います。今の方法でのファンの獲得数や増加率をグラフ化してみるとよいかと思います。ある時点から急速に鈍化しているようであればこの方法だけでは行き詰まる時が遠くないと思います。ピンポイントで新たなタイプのコンテンツ投入をし、コンテンツバリエーションを増やすのも手かと思います。


蛇足ですが、座談会では深掘りされていないので(当たり前か)、上記の件で勝手に勝利条件を考えてみました。
◎企業及び商材のターゲット層が明確
◎(広告)予算がそれなりにある
◎運用の自由度が高い
◎すでにある程度のファン数を獲得している
◎運用チームが自社のことを良く理解し、かつ、かなり好き。(かどうは知りませんがそんな気配)
◎作成する記事がユーザーに高い確率で訴求する・伝わる
◎作成する記事にバリエーションが多くない(商材とか店舗案内とか)

こんな感じ。
セオリーではないけれど、企業がソーシャルで成功するために必要な条件がそこはかとなく見え隠れしてませんか? ほぼそれらをクリアできている前出の事例は相当恵まれていると思います。多くは上司や会社のソーシャルに対する共通認識や理解がなかなか得られず、広告予算もあまりなく、部署間での色々なしがらみがある。その壁を突破するには、担当者さんの努力の積み重ねと継続である、ということが今回の座談会での、あまり目立たないけれども確かな答えなのかもしれません。
説得するには効果を書類に、数字にする必要があるかと思います。解析が担当者さんの心強い味方になるようなレポートを作りたいです。はい。きれいに解析オチがつきました。

2013年6月25日火曜日

【Pick Up】1ツイート=約2,000円!?1ツイートが生み出す価値はいくら?

ニュースソース:ITmedia 「1ツイートが生み出す価値はいくら? ――収益とフォロワーの特性を見て最も効果が高いソーシャルに注力しよう」
http://marketing.itmedia.co.jp/mm/articles/1306/19/news083.html

コンバージョンを売上げ金額に換算したものだそうですが、運用管理のコストを考えると収益率は高くないのだそうです。一日、社内リソースを費やして1日あたりの収益が50~70ドル、マージンが20~30ドルらしいので粗利率が40%前後てことになるんですかね。どこかで見たんですが、ネット関連企業の利益率(ここでは売上高営業利益率)は40%~50%だそうです。数字だけテキトーに見ると及第点じゃない?と思われるかもしれませんが、Twitterでコンバージョンが稼げる会社は多くなく、管理運用リソースのレベルはもう雲泥の差。記事にもあるとおり、空いた時間にちょろっと見てツイート、なんてやってもなかなかコンバージョンに至らないのがおおかたの現実と思われます。

ソーシャルは時間をかけて育てていくもの。費やした時間が目に見えない信頼や評価というエンゲージメントを築き、そこから初めてビジネスの利益を生み出すことができると思います。
だから、クライアントや上司から
「ソーシャルやったら(なんだこの曖昧な名詞の動詞化は!) ウチの会社のブランド認知度上がるんでしょ。だったらやろうよ」
なんて、気軽にいわれてイラっとしたことがあるかもしれません。もし多少なりともソーシャルネットワークについて知っていたらそんなに気軽に言えないはず! しかし、そこで「知らないことを責める」というのは愚の骨頂です。愚かです。機会損失ですむしろ、 私が殺意すら覚えるのは、そういった黒いところを説明せずにまっ白ないいところだけを強調して導入だけさせて、後はほったらかし、というマーケやコンサルを名乗る会社ですね。
まずはソーシャルがどのようなものか説明して(メリットもデメリットも)、どのように運用していくべきものか、そして成果といえるものを出すにはそれを計測する仕組みと時間と労力が必要である、ということを理解してもらうことが大切だと思います。


記事の終わりのほうにあるまとめが、実に普遍的ですが重要です。
「さまざまなソーシャルメディアを比較し、『どのソーシャルが自社にとって最も生産性が高いか』を見きわめ、それに応じてリソース投資比率を変えていくことがソーシャルマーケティング成功のポイントだ」


まぁ、そうはいっても気になるのは効果測定です。1ツイートが2000円の利益を生むといっても自社、あるいはクライアントではどうか、というのは別問題です。
そこで出てくるキーワードは「アトリビューション分析」。GAではマルチチャネルというレポートです。
ソーシャル経由ですぐにコンバージョンできる単純な構造ならいいのですが、そう簡単にはいかない。広告を見て、あるいはソーシャルで認知して、それから紆余曲折を経て商品を買ったという場合に、直近のコンバージョンのポイントだけではなくどの媒体がどこまで貢献しているか、という点も見ていかなくちゃいけません。
直近のコンバージョン元でない限り、ソーシャル解析のいいね!やリツイート数だけではソーシャルネットワークがどれほど貢献しているかわかりにくい。ですが複数の媒体+関節効果を測定できれば一定の数値化は可能ですよね。
解析においても、今まで個別のツールでバラバラに計測せざるをえなかったのですが、ようやくこれで真にウェブ解析といえるウェブ総合の解析ができるようになってきました。解析する立場としては、各種媒体につてい学び、常に俯瞰的な視点を持つよう気をつけたいです。
といっても、アトリビューション分析は私も全然知識不足なので、今度勉強して、軽くまとめてみたいと思います。

2013年6月20日木曜日

【解析いろは13】サイト内検索の存在感

なぜかしら存在感が薄い「サイト内検索」の解析について、が今日のテーマです。GAでは2012/11くらいから実装されたのでしたっけ。それくらい、最近になって注目されてきたのですが、なぜ「いない子」扱いされるのかというと、
(イ)計測の設定していない(GAとかWordPressのプラグインを使う場合)
(ロ)検索機能部分を別のサーバのプログラムで動かしていて、サイト内とのアクセスログと連携していない

(ハ)サイト内検索の重要性が認知されていない

(イ)はむしろ後者の重要性の認知と関係していて、存在すら意識していないから計測していない、ということもあります。
(ロ)はレアケースだと思いますが、サイト内検索のみ別サーバのプログラムで稼働し、検索結果ページが表示され、本体のサイト内にリダイレクトされる、というイメージ。かつログが別々に収集されている、ですね。この場合はクロスドメイン解析で複数サーバのアクセスログを合わせて集計するしかないのでは?
ま、しかし多くの場合は(ハ)ではないでしょうかね。では、サイト内検索のメリットはどんなもんかといいますとこんな感じ。

(1)各ページのSEO対策
(2)ユーザー行動(満足度等も)が把握できる
(3)ユーザーニーズのリサーチ
(4)機会損失の低減

ウェブサイトなんてブラウザでクリックして次々画面を遷移するだけですよ。ユーザーのアクションの主なものは「クリック」です。物言わぬユーザーの、遷移をたどって我々解析側はコンバージョンに至る経路の改善とか、検索エンジンのワードとコンテンツの乖離とか仮説を立てますよね。それが、ユーザー自らが求める情報をご丁寧に入力して、その後、どのページを見てしばらく滞在していたとか、検索画面で離脱してしまったので相当まずいとか分かるわけです。


普通、アクセスログ解析にサイト内検索の解析も含んでいる(つまり一緒にレポーティングする)場合が多いのではないかと思います。一コンテンツのように扱って指標の数字をチェックして検索キーワード上位20件とかその程度のレポートであれば可能でしょうが、サイト内検索の解析は本気で向き合うと濃密で膨大なデータ群だと思います。
さらに、たいていの解析ツールサイト内検索そのものを解析するという点ではちょっと弱いイメージがあります(と、言えるほど他のツールをたくさん試したことがあるわけではないですが)。ちなみにGAではサイト内検索のク エリ(検索した単語やフレーズ)だけではなくリンク先ページ、再検索キーワードの他、サイト内検索をした訪問とそうでない訪問コンバージョン率の比較もできるようになってます。

サイトサーチアナリティクス※という本を読んで「サイト内検索スゲェッ!」と開眼したのですが、特に p105~の『Marko Hurstによる検索関連指標リスト』が個人的にはツボにはまりました。サイト内検索の指標、指標の目的と、考え方・ロジックを記載した注釈で構成されています。要はサイト内検索の指標はこんなのがあり、こういう結果を知りたいのでKPIとしてこの指標を採用する、みたいな一覧です。
この指標の整理方法はアクセスログ解析でも役に立ちます。慣れてくるとあれみてこれみて、を経験値に基づいて組み立てるわけですが、解析ツールごとに自分でこのようなリストを作成しておくと、指標の理解と有効な活用に役立つと思いました。ので、とりあえずGAでやってみるか・・・

サイトサーチアナリティクスに書いてあるケースは本気で検索と向き合い、膨大な時間と人力を費やしています。そこまで対応するのは容易ではないですが、日頃、もう少しサイト内検索を思い出してあげてもいいんじゃないでしょうか。解析の種別では、アクセスログ解析の一環になると思うのですが、ここだけ別に切り出して丁寧に解析し、3か月毎にチューニングしていくという方法もありだと思います。


サイトサーチアナリティクス: Louis Rosenfeld 著/清水 誠 監訳/池田清華、UX TOKYO訳



2013年6月17日月曜日

【Pick Up】:3年後に食えなくなるWebの職種

ニュースソース:3年後に食えなくなるWebの職種は何だ?【サイラボ川原崎xハフポスト松浦】
http://www.huffingtonpost.jp/2013/06/12/story_n_3431645.html

恐ろしいタイトル!記事は「Webメディア業界のキャリアデザインって?」というミーティングの要約です。まあ、最終的には「その人次第=その人がどう生きたいか」なのですが。ですが、IT業界にいて、自分の数年後の在り方、キャリア形成、そこに到達するまでどう具体的にステップアップしていくかを考えるきっかけになるかもしれません。

「Webメディア周りの仕事は寿命が短い」

それを前提に、以下、恐ろしい、「今後衰退する職種」の仮説が挙げられていました。
・Googleの検索システムが最適化され、検索エンジンで自サイトを上位に表示させるための職種・SEO
同意。個人的には全部自動化されてほしい。人力でやる意味が全然ないから。
・ライティングのスキル
消滅するというより、元々ライティングへの「専門性」への金銭評価はあまり高くないところへ、普通に適当に書ける、ネットを調べれば情報があるという環境から総じて減少、だそうで。私はテキストマニアでちょっとした文脈、言い回し、表現方法がかなり気になります。小説や本の現状を見ると残念ながら衰退傾向にあるというのは外れてないだろうけど、先鋭化した部分は生き残ってほしいです。

で、私はこれに下記の職種も追加します。
 ・コーディング
検索システムの最適化で、SEOと同様HTMLソースのフォーマットが進む。
 ・ウェブプログラミング
JqueryとかオープンソースのCMSの進化で必要な機能はすべてパッケージ化、ライブラリ化されつつあるので。プログラミングというとなんかスキルありそうですが、社内システムや機関系システム開発は需要が大幅に減少し、かつ海外の安い労働力に市場を奪われています。
・ウェブデザイナー、ウェブディレクター
このジャンルも専門化していくのではないでしょうか。よく聞かれるのは「いい人いませんか?」というまるで婚活のような言葉。デザインだけ、ウェブの進行だけ、じゃなくて顧客と対話しながら円滑に進めていく、複数の人間が携わる場合は調整をするといった能力を求められるようです。


システムの知識や営業トークのスキルを持ってディレクションすると、他の職種の人の気持ちがわかるというメリットがあり、「30歳くらいまでに色々やって おくといいのでは」と述べた。川原崎さんも「ディレクションされる側からすると、やったことのない奴に指示されたくないって感情はありますよね」と同意。
だそうですよ。でもまさしくその通りだと思います。じゃあ、経験のない自分はどうすれば……と思う向きもおありでしょう。そこで対応力が問われるのです。わからないから教えてください!路線もよし、知ったかぶりをするもよし、黒幕としてうまーく操るもよし、ではないでしょうか。

 
 結論は、
「人の心をつかまえるスキルのある人が残る」 +経験
だそうです。分かったような分からないような(笑 
先鋭化したスペシャリストでもゼネラリストでもいいのですが結局どちらも高いスキルがないと通用しない、というオチでした。

IT業界はロングテール型で、現在もめちゃくちゃアナログな制作市場も存在しています。どのポジションで糧を得るかは、生き方の選択です。幸いなことにIT業界は学歴はほぼ関係ありませんので、自分自身でどうにかなることが多い。でも、定年まで勤務先の会社がある保証はありません。それはどこの業界も同じですが、ITは興るのも潰れるのも尋常でない早さです。
衰退すると挙げられた職種において問われているのは「今のまま、同じことをやっていてもダメなんじゃないか」ということだと思うのです。それは業界としての成熟を意味するので、決してペシミストの溜息ではないと思います。

あ、忘れてました。いわゆるウェブ解析士も数年で食えなくなるスキルだと思います。解析ツールは日夜進歩しています。ちょっとした現状の欠点やアドバイスもデータから導き出されて表示する機能がすでに実装されています。ツールの進化の結果、解析の市場の人的需要がすぐに縮小しても不思議ではありません
スペシャリストになるか、ゼネラリストになるか。人の心をどう捕まえるか。いかに自分をプロデュースしていくか。マーケターの端くれとしては自分自身が格好の実験台だと思いませんか。

2013年6月14日金曜日

【Pick Up】あべのハルカス、グランフロント大阪に見るソーシャル戦略

あべのハルカス、6/13開業でしたね。知人が言ってましたが、高層階のマンションは完売だったそうですよ。日本にもいるんですね富裕層が!
今回のキーワードは「ソーシャル戦略」。大阪を賑わせている大型商業施設もちゃっかりしっかりソーシャル戦略やってます。ソーシャルと言わずにコミュニティ、と言ってますが似たようなもんです。(強引)
あべのハルカス 縁活 http://en-katsu.info/
グランフロント大阪 ソシオ http://www.grandfront-osaka.jp/socio


さて、キタのグランフロント、ミナミのハルカスが出揃ったわけですが、仕掛けとして共通している点があります。コミュニティ形成と拠点の提供です。ちょっと面白いと思ったので適当に考察してみました。むりやり解析的なことととくっつけたりしますが、軽く流してください。

■ソーシャルと構成成分の差
内容は両者で結構な差があります。ハルカスでは地域住民(女性、子供づれ、ファミリー、高齢者向けの健康?)が重視されており、プログラムも市民団体、NPO法人、ボランティアグループが主催しています。グランフロントではもう少しおハイソなサークル活動です。

まず、活動内容については地域の差が現れていると思われます。 あべのというエリア、かつて仕事で良く通ったのですが間近に居住エリアがあります。普通に住宅街。ちょっと行ったら北畠・帝塚山もあります。ファミリー層、高齢者層も多くいるわけです。従って、このコンセプトにこのプログラムというのは納得です。
あと阿倍野は交通の要ですから、夕方から夜間に働く女性向けに何かプログラムがあるといいんじゃないでしょうか。なんで働く男性にプログラムがないかって? そりゃあ・・・需要と供給の問題ですよ(偏見)。

グランフロントは地域性は薄く、ある目的をもって人が集うというイメージです。まさしくサークル活動ですね。都会的といいますか、アクティブな大人が集うイメージです。もちろん全年齢対象なサークル活動もあるのですが、ぱっと見ても大人世代。そもそもグランフロントの店舗ラインナップ、価格帯がビジネスと、ちょっといいものを求める大人世代な感じですね。H&Mがあってもユニクロがないというところに現れているのでは。これで、ダイソーがなくてTIGERがあれば、さらに納得なんですが。
ただし公認サークルが現時点で4つというのはちょっと寂しいですね。まあグランフロント公認コミュニティですからヘンな布教とか啓蒙とかされないように審査が厳しいのかもしません。それぞれのサークルがFacebookページを持っているのも「今」風ですね。
いずれも新しい場所らしく、コミュニティというのがキーです。これ、企業活動などでSNSを利用するのと似てませんか? ネットもリアルでもソーシャル流行ってるなあとしみじみ思いました。


■どっちがいいの?
はい、じゃあここから適当さが炸裂、もう少し深く考えてみました。コミュニティの質が違う上に統計的な参加人数、波及効果の数字は公表されていないため独断と偏見です。真に受けないでください。

「縁活」はコンセプトとターゲッティングがしっかりしており、ここが大きな違いなんですが、
コミュニティデザイナーなる人がいて企画ありきで色々テコ入れしています。団体やグループの誘致、プログラム内容のアドバイスも関わっているんじゃないでしょうかね。それくらい統一した意思を感じます。つまり、
ソーシャルの形成と深化を促す施策を実施している
といえます。
どうも「縁活」そのものは期限があるらしいので、それをふまえてのソーシャルの認知度向上と利用方法の提案、というプロモーションという風にも見ることができます。
では、「ソシオ」はどうか。
まだ開業2か月程度ですが、開業当初は3サークルでした。現時点で4つ。誘致やアピールとかきちんとしているのかちょっと不明です。やっていたとしても成果はまだ出ていないようですね。
http://www.grandfront-osaka.jp/socio/howtojoin
これ、ソシオの参加方法のページなんですけど、この図。元はパワポじゃない!? これ普通に企画資料じゃない!? 本当に一般市民に「のび太、参加しようぜ!」て言う気があるのかちょっと不安になりました。

ネット上でしか伺いしることはできませんが、例えばFBページにしても運用に関してサポートがあるのかどうか。あるにしては、いいね!数が少ないような気がします。
…すいません、ウチのFBページも人のこと言えません。あと「4いいね!」なんです!それで、それでうちのインサイト様が顕現する……。

■強引にまとめ
この二つのコミュニティ形成の手法、似ているようでいてコンセプトもターゲットもコンテンツも違います。縁活はプログラム=コンテンツを各種用意して幅広い層を集客ソシオはサークルが主体で、これという目的を持っており自主活動を重視。しかし集客のための手段が弱い。認知度もまだまだ。後者のほうが早急に手を打たなければならない気がします。が、本当にそうですかね?

集客のためのコンテンツはさておき、ソーシャルの形成はプラットフォームの提供だけではできません。縁活は最初にプロを入れて道筋をつけて一気に集客と認知度を上げています。しかし期限後、縁活はどのようになるのかはわからない。プロモーションと一緒なのですね。
ソシオは現時点での認知度向上と集客が問題で、ウェブのコンテンツ改良やFBページの運用方法のレクチャーなどで部分的にテコ入れできそうです。プロモーションはすべきでしょうが、今後は優良なコンテンツホルダー(サークル)をどれだけ増やせるかがポイントになりそうです。とすると、やはりグランフロントのソシエ部門の営業力と情報収集力そして情報発信の強化が今よりも必要かとつまり、商材よりも事業改善で受注率を上げるというそっちの施策になるのかなと思いました。

実際、Facebookマーケティングというものはアナログであり、それがゆえにコストがかかります。このコストと目に見える数値の効果というのが現時点では直結し難いのも、ソーシャル解析の現状であります。 また、ソーシャルの性質上、コミュニケーションは血の通ったものでないとユーザーはすぐに離れていってしまいます。でもね、ちっ、めんどくせぇな。。。と思ったらそこで試合は終了です。時に、これらコミュニティは想像も付かないムーブメントを起こしたり、暖かいフォローをもらえることがあるのです。このプライスレスな部分を生む、最良の土台作りがソーシャルの醍醐味なんじゃないでしょうか。そしてクライアントとその情報と目的を共有することが、やっぱり早道なんじゃないですかね。そりゃ一日のプレゼンテーションで納得なんてムリでしょ。

■身近なテーマで考えるトレーニングでした

ま、ちょっと強引ですがこういう風に手元にある材料で仮説を立てて軽く分析するトレーニングっていいですよ、という話。ネタにもなります!

2013年6月13日木曜日

【GAの壁】プロファイルとフィルタの扱いは慎重に

今回のお題はプロファイルとフィルタの壁です。取扱い注意の壁です。
GAにはフィルタという機能があります。自社内からのアクセスを除外したり、特定のフォルダだけを計測する、あるいは部署ごとにプロファイルを作成して異なるデータを計測する、といったことができます。他の解析ツールでもデータをフィルタとかフィルタリングで絞り込むとかやりますよね(ツールと設定場所によっては元データの加工である場合もありますが)。いわゆる「フィルタ=取得したデータの絞り込みやセグメント」ということなら、GAではアドバンスセグメントという機能です。
あ、そうそう。GAIQにフィルタとアドバンスセグメントの比較とか正誤問題、すごくたくさん出ます。フィルタでできること・できないことや、設定をどこでするか、など。
GAで言うところのフィルタは取扱い要注意だと個人的には思ってます。

GAにおけるフィルタの特長をばっくり書くと、
・取得するデータそのものの加工
・設定後のデータに反映
・設定期間内に取得したデータは復元や変更ができない
・フィルタの設定内容によっては競合してデータが全く取れなかったりということもある。

なんかフィルタって便利だしデータがすっきりしそうだからどんどん追加しちゃえーといい加減に扱っていると、データがおかしくなったり指標とサマリーの数字が合わなかったり(なんでフィルタで誤差が出るのかわからないですが)、設定前の期間と設定後の期間でえらく数値に差が出て比較にならなかったり。本当に取扱い要注意です。自社アクセス除外とか基本設定以外のフィルタをかけていない生プロファイルをひとつ、絶対に残しておくべきです。

聞いた話なんですが、フィルタを作成して適用していたのですが、不要になったので削除したら大元のデータまで全部消えた、ということがあったそうです。つっこんで聞けなかったので何が起きたのか全くわからないですが、GAでは下記のような構造になっています。

アカウント
 ┗プロパティ(計測サイトA) UA-1234567_-1とかいう感じのトラッキングID
    ┗プロファイル1 (計測サイトAのデータ オリジナル)
    ┗プロファイル2 (計測サイトAのデータ制作部門)←フィルタやコンバージョン、目標設定                                      はプロファイル設定で個別にできる

プロファイル2を削除したつもりがプロパティを削除したのか、あるいはもとからプロファイルが一つしかなくてそのプロファイルを削除しちゃったか。またはアカウントそのものを削除したのか…

余談ですが、GAIQでは設定関連の問題もたくさん出ます。それは、便利だけれど設定関連の文言や定義、できること、できないことを理解しておかないととんでもないことになります。新たにアカウントを作成して新規にデータを取るのであればいいですが、個人的には他の人が設定したところは触りたくない。ユーザーにしてください。案件でGoogle analyticsを見る場合はそのための新しいアカウントを面倒でも取るべきです。 で、管理者にまずアカウント作成をしてもらってからユーザーで追加してもらう。あるいは一時的に管理者にしてもらう。が、望ましいです私的に。
管理する側も「知らない、わからない」で済ますのもどうかと思います。自分とこで管理している以上、基本構造や管理に必要な知識は当然備えているべきです。それが情報とリスクの管理というものではないですかね? 厳しいですが、無料、有料のツール選定、サポートの厚さも含めてあるツールを選んだということの責任だと思います。解析ツールを選ぶときは出来ることだけじゃなくて、出来ないことを知るべきだし、提供側も出来ることと出来ないことをきちんと伝えたほうがいいと思うんですけどね。。ムリですかね、やっぱり。


そして削除したデータはどうなるかというと、元には戻りません。公式サポートにそう書いてあります。
https://support.google.com/analytics/answer/1009714?hl=ja
ネットを探すと、ヘルプセンターに連絡して、復旧できたケースもちらほらあるようです。しかしこれは例外です。基本は削除すればパー。終わりです。そのことを肝に任じ、管理者はプロファイルの扱いは慎重に! ヘルプセンターで復旧できたという話を聞いて思ったのは、「やっぱりGoogleは削除したデータも一定期間は残してるんだな」でした。
あれ?これフィルターの話でしたね。 えーと…だから、生プロファイルは大事ですよ、管理はもっと大事ですよということで。

こういうことがあるから、GAでもバックアップに生ログをダウンロードできるようにしてほしいのですが、プレミアムでもやっぱりなさそうですね。