2017年1月9日月曜日

読書:鬼速PDCA/PDCAノート

みんな大好きPDCA。でも実際の仕事に落としこみにくいのもPDCA。PDCAの導入に悩めるあなたにおすすめしたい本2冊です。


私もチームを持っていますが、自分がPDCAを伝えきれているかというと、できていないと感じています。
皮肉なことに、インシデントが発生して初めてPDCA全体を見直すなんて話はよくあることです。

自分なりに見直し整理するために、PDCAにまつわる本を読みましたのでご紹介です。

職業柄、WEBを中心としたPDCAに意識を向けてしまいがちですが、PDCAは大中小様々に回していくものだということを、あらためて気づかされました。
また、一口にPDCAメソッドといっても、ツールをフレームとして利用するか、基本概念として導入し、ツールはアウトプットであるとするのかで、アプローチは異なります。導入しやすさでいえば前者ですが、応用がきき、チームとして使いやすいのは後者と思いました。

「自分を劇的に成長させる! PDCAノート」 岡村卓朗/フォレスト出版

PDCAの回し方にフォーカスして「PDCAノートメソッド」というツールで可視化し、仕組みに落とし込んで習慣化する方法論と考え方を、大きな文字と分かりやすい文体で解説した本。
どちらかというと、自分のPDCA整理やアウトプットに向いていると思います。また、PDCAに不慣れなメンバーへの導入に使えると思います。
方眼のノートでPDCAを管理する方法は他でも紹介されているのですが(例:http://dime.jp/genre/235907/?first=1)、PDCAそれぞれのステップと定義、そしてフレームとしての「PDCAノート」を提示していることが目新しいと感じました。
チームへの導入はちょっとやりづらい。担当者レベルでのTODO管理はそれぞれなので、リレーションあるいは統合が紙ベースだと難しい。なので、個人向けと感じました。

「鬼速PDCA」 冨田和成/クロスメディア・パブリッシング

PDCAを「前進するためのフレームワーク」と位置付け、PDCAのうちのAを「Adjust(改善、調整)」と再定義し高速で回していくメソッドを紹介している本です。特に「Adjust(改善、調整)」についてはすごく納得。ビジネススキルとしてのPDCAの解説書ですが、どのシーンでも使えるのではないかと。また、DOとTODOの違い、DOの定量化KDI(KEY DO INDICATOR、冨田氏が作ったワードとのこと)などなど、すっと腑に落ちる説明でした。
個人的には第8章の「チームで実践する鬼速PDCA」が参考になります。なにが“鬼速”かというと、週2回のミーティングで実行サイクルを確認していること。その前提として、鬼速PDCAの概念、落とし込み方が他メンバーも理解していることが必要です。導入にあたって、まずは、付録の「10分間PDCA」や、先に紹介した「PDCAノート」の付録サンプルを使ってみたいと思います。

2016年4月3日日曜日

データアナリストへの道:その1 クラスター分析を(久しぶりに)やってみる

データアナリストには二つのキャラクタータイプがあるそうで、1つはコンサル型、もう一つはエンジニア型だとか。所属や企業によるのですが、どちらも兼ね備えている人は少ないし高いし、で個別にアサインされることが多いのではないかと思います。
コンサル型であっても技術知識は必要でして、データを出されたときに「このデータの分析視点や軸は合っているの?」という前提条件を理解しないと、出発点からして間違うことになるからです。

私は分析のスキルセットが極薄なのと、もともとの指向性がコンサル型だと思い込んでいるのですが、せっかくのデータを前に「理解不能」という状況にならないために、少しづつ「おさらい」をしていく予定です。

その1は「クラスター分析」です。
ECのレコメンドシステムやダイレクトメールマーケティングによく使われている分析手法のひとつで、膨大なデータの母集団をグル―ピングします。

久々にRを起動し、デタラメデータでやってみました、クラスター分析。テーマは・・・「会社の人たちのクラスタリング」!! データは嘘データなのですが、評価軸は客観性の高いものを揃えてぶっこんでみました。ポジション、勤務年数、業務などですね。

凍り付いたRの操作方法のおさらいは、下記サイトを参考にしました。分かりやすくて感謝です。
http://bio-info.biz/tips/r_hclust.html

結果はこちら! ↓↓
【豆知識】
下の図は「デンドログラム」といいまして、 並び順で近いもの同士ほど似ているグルーピングとなります。



クラスター分析では、各要素の距離を測るアルゴリズムが複数あって、試行錯誤が必要なのですが、上記はウォード法です。
そして、何種かのアルゴリズムを試してみても変更がないクラスターがありまして「なるほどなあ~~~」と感心した次第です。データの精度が低すぎるわりになかなかR、空気読む子だな!



さて、これはあくまでもデータのアウトプットであり、 この結果を見て分析をすることが本筋です。
それを解説することは諸事情から控えるとして(なぜww) 、私の想像に近いものに落ちました。


データってやっぱり面白い!



2015年2月21日土曜日

Zero Results Found、サイト内検索の該当が0件の場合のキーワードの取得

サイト内検索の検索結果、0件。検索している側にしてみれば、これほどしょっぱいことはありません。もちろん、サイト側にとっても大きな損失につながりかねません。

そこで、検索結果0件に対して、類似語や再検索の手立てなどを表示したりするわけですが、この検索0件のキーワードの検証が当然必要になります。
みんな大好きGoogle Analyticsでは、サイト内検索の解析機能があります。ですが、検索されたキーワードは判明しても、それに対して検索該当件数があったかどうはわかりません。

ちなみにPiwikという解析ツールでは「結果が出なかったのはどのキーワード?(訪問者が探したものの見つからなかったコンテンツはなにか?)」を解析することが可能です。
 http://www.piwikjapan.org/%E6%A9%9F%E8%83%BD%E8%AA%AC%E6%98%8E/4814#022

でも、GAでサイトを解析しているのであれば、GAで把握したいですよね?
日本語ではなかなか方法までは分からなかったのですが、Zero Results と Google Analytics で、海外サイトで情報を発見しました!

http://www.fulcrumtech.net/resources/using-google-analytics-to-track-zero-results-found-for-site-searches/
"Using Google Analytics to Track 'Zero Results Found' for Site Searches"

上記サイトには具体的な方法、ソースが書かれています。発想の転換というか、そういうことかーと納得!
ポイントは、
①検索結果が0件であることを識別して取得(つまり特定の文言が表示されていることを前提にそれを取得する)
②その結果を、GAのイベントトラッキングで計測する
ということかと思います。

上記サイトではphpで検索結果0件を取得していますが、JSで実装可能なら応用範囲が広がると思います。phpを動かせない・書けない場合もありますしね。

2014年1月9日木曜日

【解析いろは27】Facebookインサイトの新機能「競合ページ」

12月に地味に実装されていたらしい、Facebookインサイトの新機能「競合ページ」。
比較対象にしたいFBページを登録し、週ごとの獲得したいいね数が表示されます。

条件は明記されていないのですが、ページへのいいね!が100以上でないと表示されてませんでした。(当社比ならぬ当管理Facebookページ比較。)ただ単に実装時期の違いなのかもしれません。そのうち分かる日がくるでしょう。




日々の運用のときのベンチマークに使えるくらいで、それ以上の深堀りはできません。
もちろん、リーチの母数を増やすのはとても重要です。ここの母数が少ないと、どれほど反応が良くても情報は広がりませんからね。

基本的にFBのリーチのエッジランクはエンゲージ重視というのなら、いっそ競合のリーチ数合計が分かれば、「ぬぬ、やるな!」と思えるのですが、いかがでしょう。

2013年11月8日金曜日

【GAの壁】Googleアナリティクスの新しいアドバンスセグメントはできる子です

レポート作業でGA漬けになっておりました。新しくなって戸惑うことが多いGAですが、9月のアップデートで飛躍的に使い勝手が良くなったように思います。特にアドバンスセグメント機能が、いい。もうすでに先達がレポートされていますが、私なりに感じたことや便利な使い方を簡単にまとめてみました。 

1)ユニークユーザーの新規とリピートの“ユニークな数”がわかるようになった
これ見たときにすごく感動しちゃったんですけど当方だけでしょうか? セグメントで新規ユーザーとリピーターを選択すれば、ユーザーサマリーのユーザー数で表示されるようになりました。多くの人たちが以前のバージョンで仮定していたであろう「新規ユーザーの訪問数」=新規ユーザー であることがこれで確認できますね。で、ユーザー数のリピーターを見てください。リピーター28(人)と表示されています。これで、以前まで解明できなかった「リピーターのユニークな数」がわかります。(という理解でいいんですよね!? この点は合っているかどうか、そのうち出るどこかのGA解説本を確認します。)



前にこんな記事(「アナリティクスの新規のユニークユーザーは何人?)を書いたのですが、もはや遠い日の花火になってしまいましたとさ。


2)普通にコホート分析とかロイヤルティ測定用のセグメントとかが作れます

 コホート分析はeコマースタグでないとできないと思い込んでたんですが、カスタムセグメントでも作れます。セグメントがユーザー単位という指定が可能になったので色々な角度での分析が可能になりました。訪問単位でなくユーザー単位で見ることができる、ということは計測期間内でのユーザーの動向が把握しやすくなります。


例えば、ロイヤルティやCLVのセグメントを作ることもできますよね。それらの中身は自分で定義しないといけませんが(実はそれが一番難しい)。
仮に当方のブログでロイヤルティユーザーとして「計測期間中の累計滞在時間2分以上のユーザー」というセグメントを作ってみました。行動で「ユーザーごと」を選択し分を設定。はいこれだけー。
ここでのロイヤルティの定義内容を説明しますと、当方のブログの平均滞在時間は46秒です。一つの記事がまあそんな程度のボリュームですんで。累積時間が2分以上ということは幾つか記事を読んでまったりしていってくれてるんだろうなあと(かなりいい加減な当方のロイヤルティの中身ですが、この定義が解析の中身を左右するので本番では真剣にかんがえます。)
購入というコンバージョンがないコーポレートサイトでもこんな感じでセグメントを作ると会社の事業やブランドの認知を測る指標のひとつとして使えるかなと思います。

・会社のブランドに関わる特定のキーワードで来訪
会社のサービスやブランド、業務内容の特定のページに●分以上滞在したユーザー(というセグメント)




さらに、便利な機能が「シーケンス」。ステップでコンバージョンや行動の設定ができる! ステップごとにユーザー行動を確認し、傾向を見ることができます。
例を挙げますと、
・第一ステップでお問い合わせページでお問い合わせ完了
・第二ステップでサービスの申込みをしたユーザー

というセグメントが作れます。

定点観測で見るのはもちろんKPIとして定めた指標が多いでしょうが、ユーザーの深堀りが設定だけでできるようになれば1か月単位のユーザー分析 だって楽にできますよね。サイト改善は待ったなしですから、予算の計上のための中・長期レポートはさておき、短いスパンでまわしていくことが今後さらに求められるように思います。


3)他の人が作ったセグメントをインポートできる
親切な人が便利なセグメントを作って公開してくれています。気をつけたほうが良い点としては、ギャラリーで海外のセグメントで「これいいやん!」と思っても、日本カスタマイズが必要な場合があります。例えばソーシャル関係。参照元に日本ではメジャーなアメーバが当然含まれてません。エリアや言語などの固有のセグメントは自作したほうが良さそうです。

てことで、新しいセグメントは普通に良く出来る子!
すごく便利で選択肢が増えた半面、これがセグメントの設定であるということを忘れないようにしないと誤解や間違った使い方をしてしまいそうです。また、中でちょっと触れましたが、結局、セグメントを作る目的とどのような値や条件を用いるのかという設計が肝心ですよね。また複数人で見る場合はその設定内容と意図を共有しておくことも重要かと思います。

2013年10月22日火曜日

【PickUp】ソーシャルからコマースの系譜-PinterestからSumally、FANCY、そしてOrigamiへ


ソーシャルからコマースへの系譜 PinterestからSumally、FANCY、そしてOrigamiへ(前編)【Eコマースコンバージョンラボ】 2013/7/16 ソーシャルメディアマーケティングラボ より

Eコマースとソーシャルの接近やソーシャルコマースの事例があげられています。日本ではソーシャルコマースはまだ限定的で、あらゆる商品に適用できる方程式があるという状況ではないですが、こういう方法もあるんだなってことでピックアップしました。

日本発のサービスということでは「Origami」がユニークです。スマートフォン向けのソーシャル買い物アプリで、しかもiPhoneのみ。扱う商材はセレクトショップや百貨店などの、比較的高い価格帯の商品です。ターゲットがすごく限られてマーケットが狭い、と思うでしょう? でも個人的にはこれはおおいにアリだと思うんです。マーケ的に見ると、市場が狭いといいつつ最初から指向性の高いユーザーが入ってくるわけですから、有象無象の中から選別するよりずっと効率がいいと思うんですね。とはいえ、多くの商品はショップや他のモールでも買える場合が多く、価格と価値のバランスをどう取るかが「Origami」の課題になるのかなと思います。今後、OtoO機能や雑誌とのタイアップをする予定があるということなので、ちょっと楽しみなのですが、いかんせんiPhoneアプリ。当方、アンドロでございます…アンドロ対応アプリ作ってください。すごい機会損失だと思うんだけど。


「Pintarest」 は日本でも今後活用される可能性が高いのではないでしょうか。キュレーションサービスの分類なんでんすが、集めて構成した画像からeコマースへの誘導が出来ます。日本では楽天、サンリオなどが導入しているようですが、これが成果を出すのはまだ先という感じです。 スクラップブック好きな女子は惹かれるかもしれません。海外ではそれなりに結果が出ているようですが、日本でのユーザー数がどこまで伸びるか、というところにかかってくるでしょうか。

ところで、本題です。ええ、そうなんです。本日の隠れテーマは実は「Facebookでeソーシャルコマースやソーシャルギフトってどうなのよ」なんですね!(最初から書け)

Facebookのカートや決済機能が導入されますよ、というニュースからはや2年ほどでしょうか。現状、アプリではFacebook内決済機能が幾つか提供されていますが、日本での活用状況はというとちょっと香ばしい感じです。当方の記憶も導入するよ。導入した企業があるよ(http://web-tan.forum.impressrd.jp/e/2011/11/28/11621)。というニュースだけで停止していたため「日本でも今後広がるんじゃない?」とテキトーなことを言ったこともありましたが、その後調べてみると撤収・停止していたり・・・道理で、FBのセミナーに行ったときに商材として全く触れないわけだ。FBのソーシャルギフトも、物品よりデジタルの贈り物の選択が多いので、早々に物販は廃止になってます。
狭義のソーシャルコマース、ソーシャル内で商品の販売が決済まで完結するという定義をした場合、Facebookではソーシャルコマースは上手くいかない。

という説が闊歩するのもやむなしなのが現状です。
以前、セミナーで聞いたのですが、台湾におけるFacebookを参照元とするECサイトの流入割合は相当多いらしいです。しかし台湾でソーシャルコマースが活発かというとそういう話は聞かない。 EC系、販売系でのFBの活用というのは「ファンの獲得、ロイヤルカスタマーの育成」の場として利用することが現実的な利用方法のようです。
アトリビューション分析測定の方法がもう少し進めば、ユーザー行動におけるソーシャルの地位が再評価されると思います。あと、アメリカで効いても日本では効かないということもあります。ソーシャルの市場規模や成熟度もそうですが、商品購入に関するスタンス(ひいては国民性)の違いも関連していると思うのですがどうでしょうか。いつか、そのような違いを研究してみたいですね。
余談ですが、アメリカと日本の様々な違いを数字とかわいいイラストで示したコンテンツがあったので掲載します。元ネタのページはすでに存在しないようです。

http://matome.naver.jp/odai/2131407138973197201(NAVERまとめ)
よだれ出てるよ!


空想レベルの話ばかりで恐縮ですが、そのうちソーシャルで決済しようがECサイトで買おうが、問題にならなくなるんじゃないかと勝手に思っています。 最近うえっとなるほど見かける「オムニチャネル」というワード。どこで買う、というのが重要ではなく、ソーシャル、ネット、リアル店舗などあらゆる接点を駆使し、最終的にはどこでもいいので自社を選んでもらう、という考え方です。ストーカーみたいですね。私的な感想ですが、リタゲ広告すごくウザいです。あれは消えてよし!
次から次へと良くこんな考え方を捻り出せるよなあと感心しているのですが、それだけ消費社会が成熟しきって、熾烈な顧客争奪戦を繰り広げている危機感が強いということなんですね。

もっと極論をいうと、BtoCであれBtoBであれ、業態や商材に合ったとびきりのユーザーエクスペリエンスを深く考える必要があり、それを実現するためにはウェブ上での行動履歴だけじゃ全然足りなくて、業務に踏み込んで、リアル・ネットを問わない顧客の姿を掴むということが必要だ、と企画書を泣きながら書いてて思う今日このごろ。

2013年10月9日水曜日

【解析いろは26】Rでソーシャルリスニングをやってみた 2

Rでソーシャルリスニングをやってみた 1では解析前の設計とデータ取得、整形についての話でした。いよいよ分析に入ります。
と、その前に。ちょっとおさらいです。

<今回のトライの目的>
世の中には無料で使える、基本のレポート機能がついたツールやサービスがリリースされているのになんでわざわざRで、アナログ作業までして分析をやっているの? と思われるかもしれません。
①Rのトレーニング
②Rでテキストマイニング(ツィート内容に極力踏み込まず、できるだけ機械的に判断と処理をするトレーニング)
③アカウントとは無関係のソーシャルリスニングだから。
ツィート数とか日別動向とかインフルエンサーなんてお飾りですよ! アカウントに紐付かない純粋なクチコミを、テキスト内容に踏み込んで分析する!(ような感じだけどそこまで深くやってないよ!)これが今回のメインテーマであります。
実際に、Twitterアカウントを開設していないクライアントがリアルでキャンペーンを実施し、ツィッター上でどの程度話題になっているか知りたい、というオーダーを受けたことがあります。ソーシャルの公開記事は様々な情報、ウソもホントも詰め込まれた生の情報源なのです。

(1) 分析作業1 Rでデータを分類、ソート

整形したデータは下記の通りです。
・データ形式 CSV
・データは、主体を 1=個人 2=関係者 3=セミナー・講座情報、ニュースサイト 4=bot に分類した「主体分類」、「ツィート内容」で構成

エクセルでも出来る作業ですが、練習のためRでデータを主体ごとに切り分けました。
<作業の流れ>
①Rを起動し、プラグインRcmdrを開く
RcmdrはRをGUI的に操作するプラグインです。でもほぼコマンド入力であることに変わりはありません。
②csvデータを読み込み、表示
③データを主体区分の数値別に切り分けて、新たにCSVで保存。今回使用したのは1のグループのデータと、2+3のグループのデータです。botはウザいから除外しました。

(2) RMecabでテキストマイニング

RMecabはRのテキストマイニングのパッケージです。日本語の形態素解析エンジンの「MeCab」をRで操作するためのものです。ギャル語にはぁたいぉうしてるのかしらぁ? あとこのエンジンやパッケージはなんて読むのでしょうか。このエンジンの制作者さんのサイトには「めかぶ」の写真があるんですが…やっぱり「めかぶ」なんですかね。

<作業の流れ>
①RMecabを起動して、(1)で作成したすべての発言データ・ グループ1のデータ・グループ2+3のデータを順次分析する。
②すべての発言の分類データを眺めて気になった点をメモる。
③メモを元にさらに比較用データの絞り込みや気になる単語を調べる。今回はクラスター分析はやりませんでした。今度時間があるときにやってみようと思います。

下のイメージは すべての発言データのRMecabでの分析結果の一部です。
Mecabは「形態素解析」で、意味の最小の単位で切り分け、分類してくれます。すごい!これは基本の解析関数の“RMeCabFreq()”を使っていますが、他にも様々な関数があるので用途に応じて使い分けをします。
切れてしまってますが、「ウェブ解析士」キーワードの絞り込みだから「ウェブ」「解析」「士」が当然頻出回数が多いです。これらのワードはどのグループでも必ず共通で登場するので検討対象からは除外してます。



 吐き出されるデータは、行番号、形態素(最小の日本語)、品詞(大分類)、品詞(小分類)、出現回数(Freq)です。この関数のメリットは重複がなくカウントされ、テキスト内に登場している形態素が頻度という数値で把握、という点ですね。
まずは全部の分類をぼやーっと眺めて、なんとなく全体を把握。こんなことを考えてデータをいじってます。↓
・『個人グループとセミナー・関係者グループのツィートに差があるか>あると仮定>個人とセミ ナー・関係者の形態素の並び比較』
・『個人とセミナー・関係者の形態素の名詞・動詞・形容詞のみの並び比較』
・『個人グループの感情を拾ってみよう>個人グループデータの形容詞絞り込み』や『助動詞と形容詞の「ない」の否定のテキストのピックアップ』

(3) 分析とレポートはエクセルで

最も難関のテキストマイニングの処理はRで行い、詳細の分析はエクセル上でやりました。オートフィルタでちゃちゃと切り替えながら見ていきます。今回はデータをいろんなフィルタでソートしてぱらぱらと見て、気づきをメモって、後で再検討します。いつも大体そんな感じです。
いろんなことを多角的に見て、実施し、それからレポートにまとめていきます。これがクライアント向けの場合は、すべてを載せるのではなく、クライアントの知りたいことに即した形で、不要なデータを削っていきます。

 (4) 結果要旨


がっつりグラフなんかも作ってレポート形式にしたのですが、余所様に関わることを一方的に調べただけなので、公開はしません。オチがなくてすいません。

以下、簡単に今回の分析結果の要旨です。
●計測期間内に運営主体のツィートが少ない。
●インフルエンサーは関係者グループの数名とボット。

●個人のツィート数は全ツィート数の約49%、半分近くあるけれどツィート内容を見ると解析士資格取得者やニュースサイトが含まれているので、純粋ないち個人のツィートの実数はもっと少ない。(分類方法をもっと精密にする必要がある)
●個人のツィートにつき助動詞及び形容詞の「ない」で否定語を調べたところ、強いネガティブ発言は見受けられなかった。
●関係者・セミナーグループでの頻出度が高い名詞は「講座」「認定」、個人では「データ」「講座」「資格」。部分的に被っているものの、個人グループでは「資格」が多いことから、取得対象としての資格や講座に興味があると推測する。

◎まとめ

個人のツィートにフォーカスしたところ、強いネガティブ・否定発言はないようです。形容詞分類でも、形容詞の否定「ない」を除いてネガティブイメージのある形容詞は「難しい」「高い」でした。(いずれも頻度が少ないため、それがすべてのユーザーの状態を示す形容詞であるとはいえません)。
今回はネガティブな発言はなかったものの、継続的にツィートを見て、ユーザーの疑問や資格に対する見方を把握していくことも重要かな、と思いました。
 個人グループのツィートは、認定資格を取得していると思われるユーザー(資格既取得層)と資格に興味がある・これから受験する・勉強中といったユーザー(未取得層)の二つに分類できます。ツィッターで資格既取得層か、未取得層(潜在的ユーザーも含めて)のどこに・どのように情報を発信していくか運用設計を考えることも重要だと思います。

<反省> 
当たり障りのない要旨になってしまいました。通常、レポートはクライアントの要求に応じて定義し、それに役立つように作成するものですから、相手がいないとどうしてもボヤけたレポートになってしまう、という点も収穫でした。今回の分析で分かったその他の課題は、
・ユーザー分類をどのように・いかに効率よくやって精度をあげるか
・ データの取得方法
・今回のテキストマイニングは形態素の数の把握だが、ユーザーと、重要形容詞や名詞との発言の相関のグラフ化や、 ツィート内容についてもっと突っ込んだ分析をしたい。
です。
言語の用法や言語の相関関係や傾向については実に素人的な所感です。当方、テキストマイニングの専門家でもなく、この分析は社会学のような学問の探究を目的としていません。でも、「ユーザーの本音の仮説を立てる」ということであればこの程度でもそれなりに役立つ情報になると思います。

分析に王道はあっても正道はない!(最近気に入ってる言葉らしい)
いろんな方法があっていいと思います。仮説が正しいかどうかはその後のアクションと検証が証明してくれます。