この記事では、このブログの1ヶ月の運営実績と、データ分析による改善アクションの検討結果について書かせていただきます。
今回は、これまでと趣向を変えて、課題認識から分析結果、アクション検討までを、実務で作成している報告書風のスライド形式で作成してみました。
まだ見習いの身ですので、不備があるかもしれません。お気付きの際には、Twitterやお問い合わせにご連絡いただけますと大変幸いです。
お品書き
- 最近感じた危機感
- このブログの1ヶ月間の運用実績分析
最近感じた危機感
先日、次のようなQiitaの投稿をしました。
ブログ運営の課題を解決するために、優良Tweetを判定する機械学習モデルで改善アクションを考えた on @Qiita https://t.co/KklzLQYbGU
— なびなび/データサイエンティスト見習い (@napinavi) July 1, 2020
なぜ、こんな投稿をしたのかというと、次のような危機感があったからです。
- 最近自分で手を動かす機会がなく、pandas力が錆び付いている
- 仮にもデータサイエンティストを名乗っているのに自分のブログをKKDで運営している
最近自分で手を動かす機会がなく、pandas力が錆び付いている
1点目は、先日参加させていただいたIssue Creation Meet Upで感じたものです。
ゆるーく与えられたビジネス課題に対して、与えられたデータセットから、分析課題を作り出すという、非常に貴重なワークショップでした。
問題は、直近数ヶ月ほど、プログラミング(Python/R/SQL)によるデータ加工や分析をやっておらず、ワークショップ中(チーム制)、一切手を動かさず、御託を並べることしかできなかったことでした。
言い訳をすると、ここ数ヶ月分析をしていなかったわけではなく、現場の方にSQLを叩いてもらったデータを、エクセルで分析していたので、こんなことになってしまったのでした。
ワークショップが終わった後、あまりの悔しさから、自分で手を動かして「一人補講」を行いました(以下、補講資料)。
仮にもDSを名乗っているのに自分のブログをKKDで運営している
「一人補講」をやった後に、ふと思いました。
「自分のブログの分析しろよ」
日々、事業部門に対して「データで意思決定せよ」と偉そうなことを言っているのに、自分のブログは「KKD(感と経験と度胸)」で運営。そんな都合の良い話はないでしょう。
私の勤め先は、超が付くほどのレガシー企業なので、データが無い、分析してもアクションに移してくれないことが非常に多いです。
一方、自分のブログであれば、データは自由に収集できますし、アクションにも落としやすいのです。
また、SNSでの集客から、ブログコンテンツ制作というプロダクションまで、一種のバリューチェーン全体を分析できる、という特典付きです。
現職では、事業現場と距離が遠く現場感は無いですし、大きいがゆえに全体も見通せないのですが、ブログ運営なら現場感もあるし全体も見通せるのです。
これはチャンスだと思いました。
このブログの1ヶ月間の運用実績分析
分析結果は、全編Google Slideで作成しました。
この記事では要点だけ取り上げますので、ご興味持っていただけた方は、下記からスライドをご覧いただければと思います。
今回実施した分析の全体像
今回は、①KPIの可視化により問題のあるKPIを特定した上で、②イケてる記事とそうでない記事の分析、③機械学習を使った良質Tweetの特徴分析、を行いました。

①KPI可視化による現状課題の把握
どうやら、A. ページあたりの滞在時間と、B. Twitterでのエンゲージメントに対するブログ流入の比率(送客効率)に課題があることが分かりました。
A. ページあたりの滞在時間に対しては、②イケてる記事とそうでない記事の分析を、
B. Twitterでのエンゲージメントに対するブログ流入の比率(送客効率)に対しては、③機械学習を使った良質Tweetの特徴分析、を実施することにしました。

②イケてる記事とそうでない記事の分析
ページビューあたりの平均滞在時間と、ページビュー数の2軸で記事を分類しました。なぜ、この2軸を使ったかというと、掛け合わせると「記事の総滞在時間」になるからです。「記事の総滞在時間」は、いわば、「記事の生産性」です。この生産性をいかに高めるかが大事だと考えています。

4つのセグメントの記事をそれぞれ確認したところ、
- 自分だからこそ価値が出せる記事に専念すること
- ユーザ読者目線で文章構成を見直すこと
という当たり前すぎるアクションが導出されました。当たり前が実施できていないから、「④要改善」の記事が存在しているわけで、基本は大事だなあ、と思いました。
③機械学習を使った良質Tweetの特徴分析
エンゲージメント率6%を超える優良なTweetであるかどうかを、投稿時間、投稿内容から判定する機械学習モデルを作り、「いつ」、「どんな内容」のtweetをすると、優良tweetを量産することができるのか、を調べました。
一部、「おや?」と思う結果もありますが、1~5pt程度優良tweet比率を改善できそうなアクションを導出できました。

上記のスライドの補足です。
- 「想定効果」とは、現状、全体の22%程度しかない優良tweetを、記載したアクションによって何pt改善できるのか、を示しています。後述する、部分依存と、アクション達成度の掛け合わせにより、算出しています。
- 「部分依存」とは、着目している説明変数(例:時間帯)を、機械学習モデルから推定される最前の値「例:21時-23時」にした際に、優良tweetの比率が何pt改善するかを表しています。注意点としては、全てのtweetで特定の値に設定している(例:全部の投稿を21-23時に行う)、ということです。非現実的なので、「アクション達成度」でディスカウントします。
- 「アクション達成度」とは、tweetの何割くらいにアクションを適用できそうか、という感覚値です。
直近のtweetの答え合わせ。
その後、以下の2件の投稿があり、両方ともエンゲージメント率6%を達成しており、優良tweetとみなせます。
機械学習モデルを当てはめたところ、1件目、2件目が優良tweetと判定される確率は、33%、66%ということでした。まあ、これだけ見ても、当たっているのか、外れているのか、判断が難しいですね。。笑
今後はテスト方法なども詰めねばと考えています。

最後に
最後まで読んでくださりありがとうございました。
ブログ運営課題が云々とは言ったものの、ブログを始めた当初は、こんなにも多くの方に読んでいただけるとは思っていませんでした。
集計した結果、なんと、7時間以上もこのブログに滞在いただけていることが分かりました。当然もっと読まれているブログはざらにあるわけですが、他のブログとの比較は関係なく、月に7時間も時間を割いていただけるのはとてもありがたいことだと思いました。
今回はじめてご覧いただいた方も、リピートいただいた方も、貴重なお時間を頂戴しまして、本当にありがとうございます。
また気が向いた時に、遊びに来ていただけると幸いです。