2013年5月30日木曜日

【News】セミナー:Find us on facebook について 

来る6/26(水)に大阪で、Facebookの「Find us on facebook」セミナーがあります。
Find us on facebook http://fb.mindfree.co.jp/2013fbconf/

Facebook Japan、ソーシャル解析ツールベンダー、マーケティング会社との共催で、セミナー自体はタダです。事前申込みが必要です。時間が合うタイミング、あるいは興味のあるセミナーの時間帯に参加されるのもよいかと思います。私も、午後からですが、行く予定です。

正直、セミナーは行ってみるまで分からないところがありますが、結局どう活かすかは自分次第かなと思います。今回は私の中で最旬のソーシャルの動向とマーケと解析ツールというタッグなのでお得感があります。
東京会場はすでに満員御礼なんだそうですが、大阪はまだ少し空きがあるそうで。これってアンテナの数の差? 私も常にアンテナ張ってないとなあと思いました。あと、こういう企業合同セミナーってどこで告知しているのか、どのツールを使うのか、がありますよね。関連ポータルのメルマガに出稿してたら目に触れる機会があるのですが。

<進捗のご報告>
例のセミナーの件ですが、協力先の会社とアクセスできたのでこれから具体化に向けて話を進めて参ります。もう少し時間がかかりますが、少々お待ちください。

2013年5月29日水曜日

【解析いろは10】ソーシャル解析という壁

今日のソーシャルに関する解析は、ウォール・マリアは突破しウォール・ローゼを超えようとして苦労しています(例えにもなってない)。今日のお題は「ソーシャル解析という壁」です。TwitterやFBを始めると集客できますよ、という誘い文句の行間に、たくさんの「やるべきこと」を含んでいるという認識がようやく浸透してきた今日この頃、みなさんはどのようにソーシャル解析と向き合っているでしょうか。


ウェブ解析の同士や、ポータルとFBを運用している人と話していると、「ソーシャルの指標をどのように見ればいいわからない」「効果がわかりにくい」「クライアントに伝わらない」という声を聞きます。実にそう思います。
あるソーシャル解析のレポートを読ませてもらう機会があったのですが、全然効果がわからなかった。すごい細かいしよく研究してあると思うのに。なんでかなあ、理解力ないなあ自分、と思って、初歩に戻ってFBインサイトの記事や本を読んでも、やっぱりわからない。わからないという意味は、定義はある程度理解しても自分がそのすごさを実感できてないってことに気づいたんですよ。あれ?これアクセスログ解析でもよくあるよね? ぱぁぁ(光が射した音)・・・てな感じでした。
なんで分からなかったのかというと記載しているエンゲージ数やいいね数の「多寡」の判断基準を私が知らないからだ、と。レポートを見るクライアント側が、こういう目的のためにこの項目のこういう指標を見る、この指標は多いほうが良いという理解の共有ができていればレポートは「当たり前の効果測定の結果を示している」といえると思います。さらに、ソーシャルにおいても指標は指標で、やっぱり目標設定が必要で、その目標の達成度を知るためには別のツール、手段も時には必要なんじゃないのかね、と思ったのでした。

FBページのインサイト機能では物足りない。では、別のソーシャル解析ツールを導入すれば効果測定が目に見えてわかるのかというと、そうではないと思うのです。
ソーシャル解析ツールもFBからデータをひっぱってきているわけですから、表示される指標を多様な表示や編集によって「分かりやすく」することはできますが、それと効果測定を結びつけるには「効果=目標設定」が必ず必要です。それはアクセスログ解析ツールも一緒だと思います。訪問数が多ければ多いほどいいという曖昧な理解と同様に、「いいね!」が多ければおおいほど「いい」という、この「いい」の部分を深堀りしていくと、多くの場合は「なんとなく」しかないってこと、ありませんか。それってクライアントが悪いんじゃないですよね。解析側が「いいね!は多いほうがいいから今回は効果がありました!」とレポート してそれが伝わらなかったら、「目標」に立ち帰って説明する必要があるのではないでしょうか。
と、エラソーにいう私もまだソーシャル解析は浅いため、今後実績を積んで、自分の中の曖昧なロジックを確かめていきたいです。
以下はソーシャルの指標の理解と計測についてすごく悩んだときに参考にした文献です。

<参考>
Web担:ソーシャルメディア戦略成功3つの法則/フォレスター・リサーチ
http://web-tan.forum.impressrd.jp/e/2009/11/06/6635
記事は2009年のもので古いんですが、古さを感じないのは基本的なことが書いてあるからで、このときから、新しい効果測定の解析ロジックが出てないからじゃないでしょうか。

Web担:ソーシャルメディアは儲かるのか? 「無印良品とスターバックスが明かす活用の裏側と展望」
http://web-tan.forum.impressrd.jp/e/2012/07/13/13020
実例。 文中の『ソーシャルの結果が出ないという話や、プロモーションよりもエンゲージメントが大事という話はよく聞くが、我々のような小売業は商品を販売することが重要なので、エンゲージメント率などには頼らない。』に痺れましたw 効果測定においてエンゲージメントは万能の指標ではなく、各目的に応じて見るべきものということがいえるのではないでしょうか。エンゲージメントはフォレスターサーチの記事にもある通り、実は誰にも定義決めができないと思います。それを切りすてて、その企業の目的に見合った形でソーシャルを運用して成功したケースがこれですね。
しかし、その逆もあって、プライスレスでコンバージョンを測れない、信頼の醸成とかいったものについては指標にエンゲージメントを使い、年に1、2回、企業イメージ調査などをして確認することも手法のひとつと考えます。

というわけでー、私にソーシャル解析の案件をもっとください。

2013年5月25日土曜日

【Pick Up】グランフロント大阪と解析の質と量

タイトルが意味不明ですね。
今朝のニュースや新聞で、大阪・梅田の再開発地区「グランフロント大阪」のオープン1か月の概況が報道されました。
読売新聞:うめきた1か月で800万人 周辺にぎわい波及(http://osaka.yomiuri.co.jp/e-news/20130525-OYO1T00257.htm


まだ1か月ですので、ようやく稼働して、問題点もいろいろ見えてきたころかと思います。ネガティブ要素だけを見て成功か失敗かを短期間で判断することは、ウェブ解析でも当然御法度です。不毛です。1か月で事業の成功・失敗は判断できません。
ですが、今日はお遊戯で、解析ならどう考えるか、という視点でこのニュースをテーマにしました。

集客力の背景には、来場者の年齢層の厚みがある。
まず、集客力は抜群です。関西ではオープン前からことあるごとにテレビで流れているので老若男女問わずに認知度が高いです。単なる予測ですが、テレビ効果かなと思います。私も内覧会と平日に1回行きましたが、予想外におじいちゃんおばあちゃんが多かった!あとサラリーマン率も高!従来のオサレ複合施設とはちょっと違う客層という印象を受けました。 サラリーマン層はナレッジキャピタル絡みかもしれません。 以外と多様性のあるユーザー層なのだなと思いました。



>業直後の1人当たりの売上高は800円弱と想定の半分程度で、高い集客力が必ずしも売り上げに直結していない。
ここでいう売上げとは仮に物販、飲食と限定した場合ですが、飲食も物販も決してお安くないグランフロントで、一人あたり売上げ高800円というのは安いなぁ~という印象です。 単価がそこそこの本屋、雑貨屋、カフェ、パン屋等ももちろんありますが、一人あたり売上げは1800~2000円を狙っていたんじゃないんですかね。つまり、見に行ったけど買ってない・飲食してない人も相当いたんじゃないかなあと勝手に仮定します。
これを解析風に考えると、集客(量)は多かったけど売上げの目標価格のコンバージョン率が予想より低い、とかそういう感じになります。
集客は「量」す。指標でいうと訪問数。「質」は直帰率やコンバージョン率で普通は計ります。(サイトの性質によっては多い少ないで語れないことに注意!)コンバージョン率が予想より低いな・・・うむ、短期だけど現時点での仮説を一応立てておこうかな。ユーザーもみておこう。という具合です。

この他、新聞記事のほうにはもう少し詳しく書いてあった中で2点をピックアップ。
各テナントで行列ができたりすいていたりと落差がある
集客が活かし切れていないのは立地(コンテンツの配置場所)や商品・サービス(コンテンツ)の他に理由があるか。例えばそこに到達するまでの経路も問題がないかは、短期~中期的に検証すべきですね。↓こんな感じ。
 >北館へのアクセスが限定的
北館へのアプローチは決していいとはいえません。一階は道路を挟んでいるので横断歩道ですかね。あとは2階のブリッジしかないようです(本当になかったんだな・・・)。南館から北館への流入が減少する理由としてはかなり明白ですよね。
来訪が多い南館(別のコンテンツ)の上(飲食など)の階ともっとシームレスに行き来できればもっと人が流入するかもしれません。 リアルのビルでは難しいですが、ウェブサイトならば関連リンクやバナーや特設インデックスページなどを設置して集客の道を作ることが可能です。


グランフロント大阪では新しい試みがあります。企業のプロモーションの場であり、ユーザーとの距離を縮めるナレッジキャピタル、セミナーやワークショップ、ソシオというコミュニティ活動はさしずめソーシャルメディアといったところでしょうか。現実的な売上げに気をとられがちですが、ナレッジキャピタルもソーシャルメディアも金銭価値に置き換えるのは難しい、ですがユーザーの深堀やヘビーユーザー育成ができる可能性があり、潜在能力が高い場あるいは機能(=メディア)だと思います。


結論。仮に1か月のデータであっても現状把握はそこそこできるよ、ということです。(えー)
1か月のド短期、3か月の短期、6か月~年間の中期、数年スパンの長期でも構成する要素(指標)はさほど変わらないと思います。違いは視点と目的です。
考え方や見方のトレーニングをするために、こんな風に頭の中で遊んでみるのも楽しいかと思います。

あと偏見かもしれませんが、ウェブサイトはテコ入れしたほうがいいと思います。サイトトップページでは誰に何を伝えたいのかわからないし、欲しい情報を探すのが大変。特にスマホだと使いづらさ倍増。これ誰得なん・・・?(近大マグロの営業時間を調べたのに見つからず、食べログで発見して、5時に店の前までいって2時間待ち行列を見て溜息をつくなど)


オシャンティーで小ぎれいなのはいいんですよ、せめてサイト内検索つけてほしいです。レストラン等の飲食の情報がショップ&レストランの経路も内容も貧相すぎる。各店舗紹介ページに何階だけの記載で、フロアマップにもリンクしてないんだぜ? カテゴリでレストラン絞り込みとかできないんだぜ? どうかしてるぜ! あと、Twitterと連動させてリアルタイムで各店舗の待ち時間を表示するとか、なんかもうちょっとウェブテクノロジーを使いこなすといいのになあと思った次第です。

2013年5月24日金曜日

【解析いろは9】広告と解析のコンバージョン数が合わないんですが、なにか?

AdwordsやYahoo!リスティング等に広告を出すのは、もう当たり前のことですよね。で、これら広告側にもコンバージョン測定機能が付いてます。そして解析ツール側にも同様のコンバージョン設定を している場合なんかに広告とサイト解析ツールのコンバージョンやクリック数が合わない、というケースがよくあります。
クライアントや上司に「なんで数字合わないの?普通合うでしょコレ!?データとは数字とは神じゃないのムキー」と詰められた経験はありませんか。そしてその数字の齟齬がどうして生じるのか、とか、もう訳わかんなくて誤差の%を出して、大体これくらいの精度で合っていますなんて支離滅裂な対応をしたことがあるかもしれません。いいんです、誰もが通る道です。

なぜ差が出るのか、ということについては下記の記事が詳しいです。わかりやすいです。この「なぜ」を知っていると知らないとで世界と対応が違いますので、ぜひご覧ください。
マーケジン:「そもそも広告効果測定のために作られたツールではない」アクセス解析ツールの仕組みのキホンを押さえよう【アトリビューション編:第3回】

結論はツールが違う・定義が違う、コンバージョンやクリック数の計算方法が違う。ということです。 他には、計測タグの設定ミスなどによる計測モレもあります。
GoogleのAdwordsとGoogleアナリティクスは同じ会社のツールで計測するのだから必ずコンバージョン数なんかが一致してもよさそうなものですが、こちらも合わない場合があります。
Googleサポート:AdWords とアナリティクスでウェブサイトのデータに矛盾がある

大事なのは、効果測定ツールとウェブ解析ツールの数字は異なっていてもおかしくはない、という前提で考え、数字やデータを盲信しないことです。効果測定ツールだけではなくどの解析ツールでもいえることです。

じゃあ、一体広告効果はどこでどう見ればいいのよ?解析結果との矛盾をどう解消したらいいのよ?と思われるでしょう。
そもそも、違うツール間の数字の矛盾は(設定ミスを除いて)報告側でどうにかできるものではありません。広告効果測定についての報告はウェブ解析と分ける、のが私は正しいと思ってます。
ですから、広告からの集客が大きなウェイトを占めるサイトは、広告効果測定ツールを別にいれて、広告効果のみを個別に測定してもいいと思います。広告の効果測定ツールはそこに特化しているので、デバイス別だったり、メール、広告、ソーシャルなどのメディア別流入の切り替えがスムーズだったり小難しい設定が不要だったりして便利です。
お高い有料の解析ツールならそのあたりも充実しているかもしれませんが、私は実務で使ったことがないのでなんともいえません。使いたいなあ・・・誰か使わせてくんないかなあ。

次に、レポートの方法について。ウェブ解析の中に入れるから矛盾するのです。ウェブ解析ではこうでした。広告効果測定は別紙あるいは別表にて。という感じですね。ちゃんと分ける理由と、解析と広告効果測定ツールでの定義を事前に説明しておくことも大事です。ここが、知っていることと知らないことの差です。

2013年5月22日水曜日

【Pick Up】店員よりスマホ、とマルチデバイス解析

ITmediaマーケティング:Googleの調査結果――店舗で買い物をする顧客の82%は、モバイルサーチで購入を決めている

買い物をするときは大抵スマホで価格の底値やレビューを調べてから購入している姿をよく見かけます。私の友人はみっちり調べて購入するか意志決定をしています。すばらしい!

失敗例があります。 先日、ベトナムにいってきました。んで、ある観光先のお店でTシャツを買いました。よくあるスーベニールと違って、ちょっとよさげで値段もかなり高かった。その場で、そのTシャツのブランドを調べれば、自分が宿泊している市内に直営ショップがあったことがわかったのですが、あとの祭。友人がやっぱりこのブランドのTシャツがほしいなあと思って、ホテルに戻ってささっとスマホで調べた結果、めちゃ近所にショップがありました。値段も4割程度でした。というオチ。でも後悔なんてしない!その瞬間の出会いこそプライスレス!(相当悔しかったらしい)

スマートフォンの機能、アクセスのしやすいデバイスという特質は、確かに購入に至る経路を変えていることを実感します。実店舗は実際の物の重さや形を確認するためのショールームであり、購入はスマホ、というケースが増加しているように思います。とくに量産品で販売店によって価格に差が出る商品はその傾向が強いと思います。

実店舗の強みとは、実際に商品に触れられることと、店員による情報提供やサービスです。しかし、様々なノイズが混入しているにせよ、率直な感想が聞けるのはアマゾンや楽天のレビュー、アットコスメの評価です。
スマートフォンの普及率はここ数年で凄まじく、あるサイトのログでも、一年や半年タームで見ても確実に増加しています。

●変化する購入経路
こと、Eコマースにおいては、
(1)スマートフォンの普及→購入場所(実店舗からウェブサイトへ)
(2)購入に至る経路の変化→実店舗や販売店のサイトで確認してから「自分の買いたい・買える」タイミングで「買いたいサイト」で購入)
(3)購入者の情報収集経路→店員や実店舗から、販売元のウェブサイトやレビューサイトへ。
を「日常的に」考えながら、柔軟に運用していかねばならないでしょう。

【補足】
 ちなみに・・・サービスの予約や商品の購入はPCが最も多いという調査データがあります。比較的高めな電化製品はPCで申し込む人が多く、3デバイス共通で「紙の書籍、雑誌」も多いとか。あくまでも傾向ですが、自社やクライアントの商材、あるいはサイトの訪問がどの媒体が多いのか、どの媒体に向けたらよいのか、参考資料にはなるかと思います。
 <参考>
selectbox:ヤフー スマートフォン・タブレット・パソコン3デバイス所有者の利用動向
*PDFの閲覧・ダウンロードには登録が必要ですゾ 

直営・直売ならばまだわかりやすいのですが、メーカーの場合はさらに深く考えねばなりません。さらにさらに、直接利益を生まないブランディングサイトやコーポレートサイトはもっと深く考えねばなりません。直接利益を生じないからこそ、サイトの役割とゴールが問われるのです。ほんとこれ重要だから!

ウェブサイト(スマホサイト含む)、ソーシャル、アプリ、ならずリアルのコールセンター、実店舗での購入情報などを(きちんと設定と設計をしてデータを連結すれば)一つのツールで総合的に解析できると謳っているのが「ユニバーサルアナリティクス」です。
各種解析ツールのサイトをさらっと見たんですが、ウェブサイト、モバイルサイトに加えてソーシャル解析まではフォローしているものの、リアル店舗やコールセンターなどのリアルデータをひとつのソフトで統合管理するのは特別なカスタマイズであって、一般的にオールインワン機能として売っているところはないようでした。見落としてる可能性大ですが。おそらく他の大手の有料解析ツールも年内にはバージョンアップしてそのような多媒体を解析する機能を追加してくるのではないでしょうか。

まあ、行動と実装の早さならGoogleが一番でしょうね。そのかわり初期にはバグが頻発しますけど。しかし、インターネットではやったことがないことを先駆けてやるのが一番利益を生むというのが鉄板です。バグは大きなリスクですが、リスクよりもアクションを優先するところがアメリカの企業らしいなあといつも思います。

結論。ウェブだけ、モバイルだけの解析をしているとこぼれ落ちる情報が増加している。リアルの販売や顧客管理情報との連結が難しくても、ウェブベースの各種媒体(ソーシャル、アプリ)を使っていればそれらの計測は必須であり、やはり何らかのカタチでユーザーを特定し、行動を把握しなければ、明日はあっても来年はない。かも。

2013年5月21日火曜日

【解析いろは8】どうしても他社と較べたいアナタへ

解析業務をやってると必ずといっていいほど聞かれることがあります。
「他の会社のデータはわかりますか? どうなんでしょうか? 業界平均はどのくらい?」
いやいやいやいや。業界平均なんざありませんよ。事業規模、社員数、ウェブサイトの目的、規模、投資額も違うのに数値だけで平均を出すことに意味はありません。
・・・なんて言うとガッカリした顔をされます。辛い。基本的にサービス精神旺盛だから。

業界平均なんて値があるのであれば私たちの仕事の労力の1/3くらいは省略され、他のことに力と時間を注ぐことができるかなぁ。なので、そういう統計学的なロジックが確立されることを期待していますし、実際、ビッグデータ時代ですからそう遠くない日に出るのではないかと思います。

なぜこのような要望が出るか。それは数値を見ても実感がない、達成感がない、わかりにくい。という心の声なのです。
アクセスログ解析というデータの特性上、相対的判断をするにあたって基準がないとこういうことになります。相対評価をしていると客観判断と合わなくなってくるのです。
アクセスログ解析は相対的にデータを解析するものですが、外に広く開いているメディアであり、ビジネスのワークフローの中でうまく回すには、やはり客観性が必要なんですね。

■インターネット視聴率調査
多くの場合、業務で得た情報は守秘義務に反するため公開できません。 ですが、類似のデータを提供する有償・無償のサービスはあります。
これは実際のアクセスログではありません。視聴率=外部からのあるサイトへの接触を調査したデータです。統計的なモニター調査ですから、実際のアクセスログとはかけ離れている可能性がある反面、ユーザー層や年齢、職業の詳細など、ログからは分からないことも分かったりもします。

◎有料の有名どころ
・ビデオリサーチインタラクティブ(http://www.videoi.co.jp/
・ニールセン(http://www.netratings.co.jp/
・マーケギア(http://mgear.jp/
マーケギアはNTT系列(NTTデータキュビット)の視聴率調査のツール紹介サイトです。が、サイトがちょっと古いし更新がされてないようです。無料で見られる範囲もものすごい古いデータです。ビデオリサーチインタラクティブやニールセンは傾向の把握や知識としてホワイトペーパーを読んだりします。

◎無料の有名どころ
・Google アドプランナー(https://www.google.com/adplanner/)ログインが必要。
一時期消えてたような気がしたんですが、今は使えてますね。データがアメリカ中心のため日本のサイトデータはない場合が多いです。あと、調査基準がわかりません。本当にばっくりとこんなもんかな、と見るためのサイト。

その他の無料のツールについてはこちらのブログに詳しく書かれていたので参照させていただきました。(Ginza Metrics:競合他社のウェブサイトはどうなってるんだ? を簡単に調べる無料ツール3選+α

私が個人的に使える・使いたいと思ったのは下記2種。
・ドンナメディア(http://donnamedia.shoeisha.jp/)  →2013年6月にサービス終了となりました。惜しいことを・・・
・Similar Web(http://www.similarweb.com/)
 Similar Webは海外企業のサービスですが、日本のサイトも出ます。すごく多機能です。すばらしい! でも共通しているのは大企業や大規模なサイトでないとそもそも情報がない、という点です。

ドンナメディアはマーケギアから情報提供を受けているNTT系列の会社です。一定範囲での無料リサーチ、情報提供はドンナメディアというハコでやってるようです。 マーケギアのサイトはあくまでもツール紹介でNTTデータキュビットはしっかりNTTフォーマットで、今年の更新もあります。マーケギアというツール(サービス)を売りたいのか売りたくないのか、わかんないですね。

余談ですが、サイトを見てると余計なお世話なことを推測します。更新状態を見たり、昔に作ったサイトを放置したり、新設したサテライトサイトを見て 「この企業はこういうことをやりたいのかな?このサービスはどうするのかな?」など。それが止まらなくなって親分サイトまで遡って企業方針やプレスリリー スを過去半年~1年くらい遡って読んだり。お金にはなりませんが、自分のためのいい勉強になります。これこそが、解析業務で必要な日常の作業なのかもしれ ません。

■利用上の注意
何度もいいますが、有料無料問わず、独自の調査データであって、実際のアクセスログデータではありません。
(1)業界の傾向を把握する

(2)参考程度に留める
データ、特に無料提供の分は調査母数が少なくて偏りが多いようです。データを見る前に、まず調査方法のページなどを確認してください。 有料サービスの場合は明示がありますし、教えてくれるはずです。
(3)レポートに記載する場合は引用を明記。
引用や転載の可、不可や引用時の表記は遵守すべし。

■絶対にやってはいけないこと。
これらの数値を判断基準にしない。あるデータを判断基準にしたくなる気持ちは分かるのですが。これは解析する側も、クライアント側も充分認識しておくべきです。
例えば、レポートでA社よりもPVやセッション数などの指標が多い、少ないという見方です。
なぜそういうことをしてしまうかというと、自社の指標を測る明確な基準(ゴール含め)がないからです。そこに数字やデータという言葉に対する迷信が加われば迷走するにきまってます
アクセスログ解析を知らないほど、比較対象をほしがります。それは自社のアクセスログを理解していないからです。まずはアクセスログに対する基本的な理解と、自社の現状をしっかり認識すべきだと思います。

2013年5月15日水曜日

【Pick Up】ウェブ解析とアイトラッキング

今朝NHKのニュースで取り上げられていた「アイトラッキング」という技術。昨年末くらいからウワサにはなってましたが、SUMSUNの新機種に搭載されているようです。
NHK http://www.nhk.or.jp/ohayou/closeup/20130515.html

体の不自由な方も、アイトラッキング装置を導入し眼球を動かすことができればPCが操作できます。装置のほうはまだまだお高いのですが(低価格帯でも90万円台!)、このように実用化されるのはとても喜ばしいことです。
アイトラッキング技術を利用したマーケティングはすでに行われており、ウェブ解析の分野でもそのサービスを提供している会社が幾つもあります。

■アイトラッキングてなに?
定義としては「人の視線の動きを追跡し、記録する機能及び機械」といえるでしょう。詳細は下記ページ参照。低価格のアイトラッキング装置を開発販売している会社ですね。
ドビー・テクノロジー・ジャパン http://www.advertimes.com/20130215/article101907/


■アイトラッキングとウェブ解析
無料ではユーザーヒートが有名です。(私は使ったことないですけどー)
http://userheat.com/
ただし個人のみ無料で、企業は有料サービスを利用しなくてはなりません。サンプルみてるだけでもかなり面白い!
ウェブ解析におけるアイトラッキングの利用目的は、
○ユーザビリティテストを行う
○ユーザー分析
です。もともとユーザビリティテストの一環として使われています。装置や調査環境などのセッティングに費用がかかること、調査費用もお安くないので常時使うわけにはいきません。ユーザビリティの確認方法は、被験者を集めるユーザビリティテストのほうが安くつく場合もあるでしょう。
<参照>U-site:5ユーザーでテストすれば充分な理由(Why You Only Need to Test with 5 Users
著者:Jakob Nielsen, Ph.D
http://www.usability.gr.jp/alertbox/20000319.html

昨今の解析は、ソーシャルの普及とともにユーザーセグメント、ユーザー分析を強化していく方向性だと思います。アナリティクスはユニバーサルアナリティクスやプレミアムといったユーザー基軸の機能を、従来のアナリティクスとは別に展開を開始したんだな、と勝手に思ってますw。
リファラ等のユーザー情報とアイトラッキングが連動すれば、動向をもっと細密に検証できるでしょう。40代女性層リピーターは圧倒的にこのバナーを見てクリックする、とか。30代男性層新規ユーザーはこの記事のこのリンクから商品詳細を見ている、とか。
ユーザーヒートの企業向けサービス「ユーザーインサイト」ではヒートマップと読者層の男女比や地域、年齢層(推定ですよ、あくまで)も提供しているようですね。画面で見た限りですが。


ただし、アイトラッキングについては、NHKの番組内でも指摘があったように「その人の思考が現れる」傾向があるそうです。『目は口ほどに物をいい』てやつですね。ですので、アイトラッキングを実行する、あるいはしている場合はユーザーに利用目的や内容を明示することが必要だとはと思います。

アクセスログは個人情報ではなく、その情報だけで個人を特定することは通常ではできません。ウェブ解析におけるアイトラッキングも、リファラが連結されていても個人の特定は不可能です。なので必要以上にビビったり警戒することはないですが、 こんなこと書くと、自分のアクセス情報を取られるのはいやだ、拒否したい、でもウェブサイトは見たいという人がいるかもしれません。
前述のとおり「(基本的には)アクセスログは個人情報ではない」、サイトの所有者に帰属する情報だという理解が通説です。JavaScriptを切る(ウェブビーコン方式の場合だけですが)、プロキシサーバ経由でアクセスするなどの手段を使って自己防衛してください、という話になります。

2013年5月13日月曜日

【解析いろは7】ウェブ解析のPDCAサイクルのP、「仮説」について

ウェブ解析でもPDCAサイクルでの思考がほぼ当たり前になってきてます。その中で仮説を立てるという作業(P=PLAN) はどういうことなのか。というお題です。
 
ウェブ解析のフローにPDCAサイクルを当てはめることが流行ってます(流行ってるっていうな)。「そんな風に具体的に説明するとなんとなーく説得力があるから」という実利的な理由もあります。
本音はさておき、PDCAサイクルに解析業務を当てはめるのは、ウェブサイトが業務の内容として占める比重が大きくなり、よりビジネスに貢献することが求められるようになってきたからですね。ウェブ解析は単発では あまり役に立たないですしね。現状把握ができたとして、次に改善したときに効果を検証するには、やっぱり解析が必要です。その意味では現時点では合理的な説明方法といえます。まあ、ただ現場で本気でPDCAに取り組んできたおっちゃんたちには「はぁ?ウチらとっくにそういうのやってんだけどー」という生温い気持ちにもなりかねません。企業の人たちは本当に本気で会社の業務を回してきるのですよ。そこへ外部の人間がドヤ顔でPDCAが・・・なんて語りだしたらどうなるでしょう。
ぺらっぺらな言葉だけで語るのではなく、「御社と同様のビジネスの理論を根底に、我々もウェブをビジネスとして真剣に考えてます」という姿勢を提示すべきだと思います。

長いマエフリになりましたが。PDCAサイクルに則って考えよう、のうちのP=PLAN、仮説立案についてちょっと考えてみました。かつて、すごく率直な疑問を投げかけられたことがあります。
(1)「ウェブ解析での仮説はどのくらいの精度(信憑性)なのか」
(2)「その仮説は仮説を立てる人の思考やスキルに依存しているのではないか」

(1)「ウェブ解析での仮説はどのくらいの精度(信憑性)なのか」
多くの人はどれくらい、という程度を示すのに数字を使いたがります。そうすることで論理の信憑性を補強したいわけです。
これが統計であれば、絶対的・客観的な統計データを元に%の確率で・・・という数字が出せるかもしれませんが、そもそもウェブ解析のデータは「相対的な」数字の上に成り立っています。 そこから生じる仮説の実効性の確率をはじき出すのは困難ですというかムリです。
例えば、研究開発におけるPDCA。数ある遺伝子のうち、ある細胞を作るたに働く遺伝子を特定しなければならない。その場合、数字的な確証を持って実験を行うだろうか?もし数字的な確証を持ってやれるのならそれはすでに確立した理論であって他の人もやっていることではないか。と。

数字や科学反応といったものへ信頼の根拠を求めるのは、不安があったり納得していないからではないでしょうかね?

私の(現時点での)結論は、相対的な、固有のデータを見て、集計して、そこからわかること、推察できることに確率としての数字は出せません。 ですので、その考えに至った思考過程と根拠となるデータを提示します。その上で、私はこう思います。このことにはこういう対応が可能です。と、私なら答えます。
間違ってはいけないのは、ウェブ解析は「答え」を出す行為ではないはずです。ビジネス的な、DO(実行)の判断をするのはあくまでもクライアントで、我々は情報を提供し、最大限協力はできますが、ビジネスの主体はクライアントなのです。 数字への信頼ではなく、ウェブ解析をするプロとしての信頼を得ることが重要と思ってます。答えになってないって?だから答えは出すものではなく・・・
 
(2)「その仮説は仮説を立てる人の思考やスキルに依存しているのではないか」
人間が介在する以上、依存すると思います。正直、経験の差もありえます。
解析担当として、その仮説に不安がある、自分でもちょっと・・・と思う場合は、営業ふくめ社内で検証してみるといいでしょう。ピンの場合は? 守秘義務の範囲内で同業に意見を求めるのも手だと思います。最終的には自分が責任をもってレポートを提出するわけですから、論理破綻がないようにだけは気をつけないといけません。
正解や答えを出そうとすると、数字に基づいたありきたりな内容、ベタベタな指標の説明のみに落ち着きかねません。わかったようでわからないレポートだけが後に残り、読み捨てられていくのです。(アイタタター)
徹底的に調べる・時に他者の参考意見を聞く・論理の道筋が通っていることが「仮説」の信頼性をより厚くすると思っています。
さっきの細胞の話に戻りますけど、可能性のある細胞をひとつの培養皿で培養しました。乱暴な話ですよね。でもそこに至るまでに、膨大なDBを解析し、徹底的に調べ、可能性のある細胞を24個に絞り込んでいるのです。もちろん、はずれる可能性だってあったでしょう。はずれても恐らく、この実験をした人はまた解析し、調べて、別の細胞で検証したと思います。ああ、見事なPDCAサイクル・・・(仮想の話です)。
つまり、仮説というのは想像でも妄想でもヤマ勘でもありません。そこに至るまでの筋道があり、ある程度の精度を備えている。もし成果がでなければ、その筋道を変えてみる。経験やスキルで仮説の差が出るのは、その道筋を経験則(成功体験あるいは失敗)である程度把握し、理解しているから結論への道が短いということだと思います。経験者も失敗しますし、初心者だからこそ鋭い洞察が可能なことがあります。なので、一概に経験数で語れない、ということも仮説にはあります。私個人は経験則や経験年数はあまり信用してません。判断が古いデータに基づく場合も多いからです。 経験をもちつつ、経験に依存しない、まったいらな目でデータを解析できる人が優れた解析者だと思います。そうありたいなぁ・・・と思います。

2013年5月11日土曜日

【GAの壁】GAでPDFのダウンロード数をカウントする

GAではデフォルトでPDFのダウンロード数をカウントすることはできません。通常はイベントトラッキングか仮想ページビューを使ってカウントします。いずれも<a ~>リンクにonClickでJSを実行させるスクリプトを記述します。(以下、PCサイトの計測を前提としています)
<結果>
イベントトラッキング(Event Tracking):イベントとしてイベントトラッキングサマリーで確認できる
仮想ページビュー(Virtual Pageview) :指定したページ名のPV数としてカウント

参考「 Google アナリティクスのバーチャル(仮想)ページビューとそのトラッキングコード」:http://gaforum.jp/basic/spec/3738
★ページの直帰率やページの見出しでの集計結果が変わることをあらかじめ認識しておく必要があります。

でも大量にPDFがあったらスクリプト挿入が手間。管理が大変です。それよりなにより、GAではPDFやらのリンククリックの計測は上記2つということしか頭になかったので、ある計測データを見て「.pdf」があったのですごく悩んだことがあったのですよ・・・
でも他にも方法があるのです。「a がクリックされたらjQueryかJavaScriptでクリックイベントを検出してトラッキングタグに引き渡す」というやり方です。$('a')とか("a")とか。私は勝手にアヒルと呼んでいます。

以下、注意です。
うっかり仮想ページビューと併用した場合でカウントの重複が生じます(当たり前)。また、スクリプトの内容によりけりと思いますが、データがきちんと取れていなさげなものもありました。データの整合性にちょっと難があるかなあというのが感じたところ。スクリプトの中身まで確認してませんが、そのケースではPVとしてカウントされていたため、他の指標への影響が気になりました。本来の使い方ではないため「自己責任で」ということになるでしょうか。jQueryでイベントトラッキングを<a~>に対して自動的に付加していくのであれば、ある程度の精度をもってトラッキングできるのかもしれません。

個人的にはGoogle analytics内で相応に精度を保ち計測を完結させたいのであれば、デフォルトのイベントトラッキングや仮想ページビューを使うほうが悩みが少なくて済むと思いました。<a>にクリックイベント+関数を追加するスクリプトを使う場合は、特に計測対象が多い場合はイベントトラッキングにしたほうが他のデータへの影響が少ないと思います。

一応付け加えておくと、PDFのダウンロード数カウントで悩むのはGA含むウェブビーコン方式です。PDFではJSタグが埋め込みできず、実行できないからです。
さらに。ガラケーの場合はほぼJSが動作しないため外部リンクのクリック数、ダウンロード数の計測は頑張らないといけません(個人的にはこのためだけに、早くガラケー消滅してほしいなどと思ったり)
参照:ダウンロード数などをカウントしたい
http://productforums.google.com/forum/#!category-topic/analytics-ja/%E6%90%BA%E5%B8%AF%E3%82%A2%E3%82%AF%E3%82%BB%E3%82%B9%E8%A7%A3%E6%9E%90/G34axe7w8wQ
 
 
 

2013年5月10日金曜日

【解析いろは6】解析にまつわる資格

アクセスログ解析の認知が高まるにつれて、知名度も少しづつ広がってきた感がある解析士。今日は解析士という資格についてライトにまとめてみました。売り込むための美辞麗句も書けるのですが、こういうものだと知ってもらいたいため、まったいらに書きました。

(1)ウェブ解析の資格
 一つだけじゃなくて色々あります。下記以外にもウェブ、IT系の専門学校でもコースがあると思います。増えたなあ~
(い)WACAウェブ解析士(初級~マスター):http://www.web-mining.jp/
(ろ)アクセスログ認定講座:http://www.pm-college.jp/LP/accesslog/
(は)アクセスログ解析スペシャリスト1級認定講座:http://blog.ssgh.co.jp/article/209529306.html
(に)Google アナリティクス individual Qualification (Google analyticsの個人に対する認定資格)
(ほ) Google アナリティクス 認定パートナー(企業に対するビジネスパートナー認定)
 
(2)民間団体の認定資格であり国家資格ではない
現時点(2013/5)ではすべて民間団体の認定資格です。
ま、国家資格になると資格としてのランクは上がるかもしれませんが、管理団体が肥大して実を伴わないケースもあるので、国家資格だからいいという判断もうかつにできませんが。

★依頼しようかな、どうしようかなと思っている方々へ。
○資格が担保するもの
試験があり、ある基準は満たしていると思うのですが、各資格によってレベルがまちまちなためどう判断していいのかわからないことも多いでしょう。
色々な質問を投げかけてください。普通は正面きって考えないことなのですが、アクセスログ解析への基本理解が試されるような質問がいいと思います。アクセスログ解析やウェブに詳しくない人の素朴な疑問が結構ききます。

○資格のレベル
どんな資格でもそうですが、同じ資格の同じクラスであっても個人によってバラツキはあります。
経験主義ではないですが、案件の経験値は判断や仮説立案でとても重要です。また後日この点については書きますが、「勘」で仮説は立てません。仮説には必ず判断の筋道があります。参考程度に今までやってきた案件のことなどもお尋ねください。

★これから受講しようかな、興味があると思っている方々へ。
 ●どの資格を取ったらいいの?
民間認定資格の名の通り、そのことに法的効力・義務はありませんので、自分で調べて受けたいと思うところで受講するのがいいと思います。個人的には「稼げる」「食べていける」とうたっているのは不誠実だと思いますが。あれ、後に(かも?)という見えないテキストが隠されてるんだぜ?




●資格を取れば仕事がある?
自動的に仕事が降ってくる資格は国家資格も含め皆無です。努力と経験の上に仕事の神様は降臨します。ただ、資格があれば話のネタになるので営業しやすいと思います。



●参考:WACA認定ウェブ解析士について
初級は基礎用語と解析全般に関わる知識です。営業、ディレクター系の人は受講して基礎知識をまとめておくのもいいかなと思います。受講料は、講義がちゃんとあるのでこんなものだと思います。
中級がなくて上級に飛ぶわけですが、受講料もかっとぶので本気が必要です。内容は基礎知識+少々深いところに加えて、実務的な要素も入っていきます。テストに加算される課題はかなり実務的。知識+思考方法を押さえる感じです。
マスターは初級を教えることができます。つまり「お教室・お講座ビジネス」が展開できるわけです。受講料も講習も試験もちょっと(かなり)ハードです。
資格は取りっぱなしではなく、講習会を受講してスキルを維持する義務もあります。

特定の会社の子飼いになるわけでも特定の解析ツールに縛られるわけでもありません。解析というものの認知を広める一役を担っているとは思います。このようなモデルを作ったという点は評価できると思います。




まとめると、資格ホルダーもクライアント側も、資格だけですべてを判断しないでください。一定の知識は備えているだろうという前提のもとに、少し話をする時間をください、と資格ホルダーの私は申し上げます。基本的に、ビジネスの根底にはビジネスなりの信頼関係が必要であると考えています。最初の信頼に値する誠実な態度や回答があれば、まずは使ってみてください。

2013年5月7日火曜日

【GAの壁】アナリティクスの新規のユニークユーザーは何人?

リピーターと新規でユーザー別に訪問回数や平均の閲覧ページビュー数などを見て動向を把握します。クライアント側でユーザー分析をしたことがない場合のとっかかりとして役立ちます。通販系では、リピーターに何回も買い物をしてもらうほうが基本的にコストが低くてすむことが多いし、購入金額も新規よりは高めになる傾向が(一般的に)あるので、リピーター強化に力を入れる場合が多いかなと思います。
で、そんな貴重な指数であるクユーザー(ユニークユーザー、単位は○人)ですが、アナリティクスではサマリーで調査期間内のユニークユーザーは表示されていても、そのうち新規ユーザーは何人、という明記がありません。どういうことよ!? 通常、解析ツールなら大体掲載されてますよね。
ユーザーサマリーの「新規訪問とリピーターの割合」は全セッション数における新規とリピーターのセッション数(訪問回数)の割合であって「○人」ではありません。
アナリティクスの新規訪問の定義は、
『調査期間内に本当に初めてそのサイトを訪問』
のようです。つまり、初めてサイトを訪問した初回の1セッションだけが新規訪問という扱いで、その定義からすると新規訪問=新規訪問者数 と考えることができます。
だけどややこしいのが、じゃあその新規訪問者さんが例えば同じ日に再度訪問した場合はどうなんだ、というと↓
 Web担当者フォーラム:http://web-tan.forum.impressrd.jp/e/2009/04/07/5336
すごくわかりやすくマンガで説明してくれています↓
カグア!さん:マンガで学ぶGoogle Analyticsの新規ユーザー:http://www.kagua.biz/help/manga-repeater.html

さあ、何がなんだかわからなくなってきてる人もいるのでは。GAでは新規ユーザー(○人)という概念は明示していません。新規訪問回数=新規訪問者数 と考えることはできても、リピートユーザー(●人)という概念はなく、単純に新規ユーザー数をユニークユーザー数から引いただけでは算出できない、ということです。

言葉のメージからすると、調査期間内の新規ユーザーは新規ユーザーとしての行動把握ができそうな感じですが、 GAはセッション基軸なんですね。細かいユーザー動向の把握には向いているとはいえません。プレミアムはどうかしりませんが。
知らないとぶちあたる、分かっても納得がないかないGAの壁でした。

2013年5月2日木曜日

【解析いろは5】解析データの数字に踊らされるな

アクセスログ解析のデータの精度は100%ではない。統計で収集するデータと根本的に違う。ということは【解析いろは2】で書きました。それは、アクセスログ解析を否定するのではなく、数字の精度という幻想(と言い切ってみる)に踊らされてはいけない、という意味です。
【解析いろは2】の(私の)答えの一部を言いますと、アクセスログ解析は統計学のような客観的な信頼性はなくとも相対的に、ウェブの状況把握や仮説を立てるには充分な、非常に豊かなデータといえます。
で、今回のお題。数字に踊らされてはいけないというもうひとつの意味は『計測データの不一致』です。
・解析ツールが異なれば、同じウェブビーコン方式であっても同じ指標に差が出ます。
・方式が異なれば同じ指標でも差が出ます。設定によっても差が出ます。

一番イヤなのは解析ツールの指標間で定義が微妙に違っていて、同じ名称なのになぜか異なる場合。
 何度触っていても、こういうシーンに遭遇すると「カンベンしてくれ」と思います。差異が出るのはなぜか確認をしなくてはなりませんから。
差が出る場合はフィルタをかけていたり、根本的にデータエラーだったり、計測期間が長期だったり、が多いです。しかしですねぇ、同じ項目名を使うのならせめてひとつの解析ツールの中では整合性があってほしい。数値が異なるということは、同じ項目名であっても算出ロジックが違っているということなんですから。このように数値が合わない数々の悲劇は【GAの壁】というタイトルで幾つかご紹介していきます。(GAかい!)

有料のツールならヘルプデスクやサポートに確認ができるのですが、無料だとそれができないケースが多いです。サポートと精度の高さを求めるのなら Googke アナリティクスプレミアムを利用することも検討したほうがいいです。ちなみにプレミアムはプレミアム認定リセラーという代理店経由で購入するようです。既存アカウントで利用できることから、無料のGAの次の解析ツールへ移行しやすいですね。いい商売してるぜ!
 Googke アナリティクスプレミアム:
http://www.google.co.jp/intl/ja_ALL/analytics/premium/index.html

そういうわけで解析ツール内でも指標間の数値が合わないことはままあります。ここで大切なのは、解析データとはそういうもので、しかし有益であるということをクライアントに説明し、納得してもらい共有することです。そうすれば、数字だけに拘泥することもないでしょうし、「これの合計が違うんだけど!?」とドヤ顔されることもないでしょう。

思うに、自分がわからないジャンルで(=アクセスログ解析)、その判断基準が不明瞭な場合(=判断基準や目標が共有されていない)、「明確に出ているもの=数字」の整合性に根拠を求めてしまうのだと思います。統計ならばそれでもOKかもしれませんが、解析データでそれをやると間違いなく時間の浪費です。
数字が合わないことの説明は多くの場合は説明ができないのです。仮に生ログをサーバで取っていたとしても、そのデータであるウェブビーコン方式の解析ツールの数字の差異を説明することはできません。有料でサポートがあるならともかく、無料版での解析ツールの定義と仕様を極限までつきつめていけば可能かもしれませんが、そこまでやる価値があるかということですね。

ただし、この場合でも自分で調査し、数字が合わないことを把握しておいたほうがいいとは思います。うっかりフィルターをかけて見ていたり、など原因がある場合もありますし、わからなくても最低限、「やっぱりこことここの定義が違うんだな」という程度でも知らないよりマシです。検索すると同じケースがあったりします。同業の仲間やフォーラムで相談するのも手です。あらゆる手を尽くして、自分なりに齟齬や問題点を整理・把握しておくことは必須作業です。
前段で解析ツール内でのつじつま合わせは時間の無駄だといいましたが、それと問題把握と調査は別のことです。
調べもせず根拠もないのに、合わないのは解析ツールのせいだ、といって終わってしまうと解析そのものへの不信感にもつながります。(まあ、実際そうなんですけど)。そういうケースもあるということ、それが全体の動向を把握するには影響はないということを丁寧に誠実に説明すること。結局は解析に関する認識を共有することが大事ですよね。

2013年5月1日水曜日

【解析いろは4】ソーシャル解析の指標だけでは効果が測れない

ソーシャルの計測は既存の解析ツールの開発がなかなか追いつかないためか、別のサービスを利用するケースが多いようです。Facebookだとインサイト機能、Twitterならクチコミ@係長(http://www.hottolink.co.jp/kakaricho)をよく耳にします。Twitterはbit.lyやTopsyなどの無料ツールもありますが、関連するツィートをアナログで検索して集計して・・・とすごく工数がかかるので、定点観測するのなら絶対有料がおすすめです。

解析の中でもホット(と思われる)ソーシャル解析ですが、ツール間で大体共通している指標があります。
★リーチ:情報の到達度
★エンゲージメント:ユーザーとの接触の密度
★コメント、記事内容のポジティブ/ネガティブ
ツールによって用語定義も内容も様々なんですが概念としてはこんな感じ。アクセスログ解析と異なるのは、立体的といったらいいんでしょうか、ユーザーへの波及効果やその密度、どのような感情でもって受けとめられているかということが明示的に分かる点です。
これまで企業の認知度調査は高い金を払ってアンケートを取る等の方法でしたが、ダイレクトに商品や企業へのリアクションが把握できるようになったわけです。ソーシャルを使っている人という限定的な範囲ですが、ウェブのアプローチとトラフィックの効果を考えるとそれで充分じゃないでしょうか。そもそもネットを利用してアプローチしない層が顧客の場合、問題にならないわけですし。
ダイレクトという利点の反面、解析は自前でやらなくちゃいけないとかネガティブやクレームにも対応をしっかりしなければファン離れを起こすという点もよく理解しておかねばなりません。いいも悪いも含めて真摯にユーザーと向き合う覚悟をもつことが、ソーシャルツールの利用ですよね。

で、指標の話に戻ります。ソーシャルの指標はアクセスログ解析の指標ほど細分化されていなくて一見明快!ですが、いざ報告書にまとめると結果がわからないことが多いのです。実際、報告書を見て「これが、どういう影響を及ぼすのか?」というリアクションが出てきます。
 リーチも、エンゲージメントも、コメントの内容も、どのように判断するかという基準が提示されていないからわからないのです。

『今回の計測ではリーチは●回でした。リーチを今回より5%増やすようにしましょう、そうすれば御社の提供しているサービスの認知度があがります。』

こういう記述は一見、伝わるようにみえて、すっかすかなんですね。下記の流れがないと上の文章は意味がないと思います。
まず最初にソーシャルで何をしたいか(ゴール)、それを達成するための個々具体的な目標(KSFとかKPIとか。上記の例だとKPIは『リーチを5%増』)があって、それらを測る指標にはリーチ数というのを用います。という思考です。
ゴールとKSF、KPIが共有されていれば 上記の結論だけで通じますが、「よく効果がわからない」というリアクションが出る場合は共有されていない、あるいは設定していないと考えられます。指標や用語の定義がわからないというITリテラシーを解決することとは別問題なのです。

アクセスログ解析と同様、ソーシャル解析も指標だけで結果を測ることはできません。指標は確固たるものですが、しかしその数や捉え方はFBページの運用者次第です。コメントのポジティブとかネガティブの判断基準も同じですよね。一見ネガティブに見えてもヘビーユーザーだからこそ愛着と改善を望む声とか。
ネットやソーシャルをよく知らない人にこそよくわかる報告を、判断基準などの設計をまず考えること。が解析する側の任務だと思います。