ここ数年で、自治体や官公庁においてもDX推進の重要性が叫ばれるようになりました。しかし、「どこから手をつけていいのかわからない」「専門知識を持ったメンバーが不足している」といった課題に直面している組織も多いのではないでしょうか。

本セミナーでは、実際に支援を行った官公庁事例を通じて得られた洞察から、DX推進に欠かせない『データ活用戦略』への有益なアプローチを、官公庁・自治体向けにアレンジして解説します。ここで得た知識をもとに、自治体DXへの新たな一歩を共に進めていきましょう。

講演者紹介

伊東 孝洋氏

クリーク・アンド・リバー株式会社 プロジェクトマネージャー
2001年より、データ分析・データマネジメント領域のエンジニアとしてキャリアをスタート。エンジニア経験を経て、プロジェクトマネジメントに従事。2022年4月よりクリーク・アンド・リバー社に入社。データ基盤構築、BI構築、及び、その他領域のシステム開発のプロジェクトマネジメントに従事。

坂本竜輝

株式会社primeNumber アカウントエグゼクティブ
前職ではvertical SaaSにてフィールドセールスとして施工管理システム・基幹システムの販売に従事。
現在は、業種業界問わず、データ活用基盤の構築を支援。「あらゆるデータを、ビジネスの力に変える」というミッションの元、企業のデータ活用促進に邁進している。


DX推進にあたってありがちな課題

坂本:「DX推進にあたってよくお伺いすることとして、おもに以下の3つの課題が挙げられます。

  1. 人手不足
  2. DXに対する知見不足、理解不足
  3. どのように進めていけばよいのか分からない

その中でも今回は、2と3にフォーカスしてご説明していきます。」

実際に官公庁の案件をご支援していく中で見えたこと

坂本:「DX推進と一口に言っても、(進捗状況についての)レベルが存在すると考えています。本日皆様には、ご自身の組織がどのレベルに属しているかをイメージしながらお話を聞いていただくと、より実りある機会になると思います。

『DXとは何かという理解を深めなければならない段階』にいるのか、あるいは『DX推進の土台作りをしている段階』なのか、それとも『どのように現場主体でDXを推進していくか悩んでいる段階』なのか。または、すでに組織として『DX推進が順調に進んでいる段階』なのか、それぞれの状況に合わせて次のステップを考えるきっかけにしていただければと思います。」

基調講演①:DXの進め方

伊東氏が所属するグループの業務スコープ

伊東氏:「デジタルマーケティング領域で、データ活用全般をご支援しています。この後ご説明する内容は、私がカバーしている領域だと思っていただいて差し支えありません。」

本講演のアジェンダ

伊東氏:「本日は、『お持ち帰りいただきたいこと』『DXのおさらい』『データ活用の定義』『計画の立て方』の4項目についてお話しいたします。」

本講演でお持ち帰りいただきたいこと/学び

伊東氏:「お持ち帰りいただきたいことは、『計画の立て方』と『ベンダー支援での依頼』です。

皆様の課題感として、おもに『実際どのように計画を立てていくか』の点と、『ベンダーに依頼する際、どのように考えていけばいいのか』の点があると思います。本日はこの2点に関する学びをお持ち帰りいただきたいです。」

DXの定義・ポイント

伊東氏:「DXの定義とポイントについてご説明します。

DXの定義は、経済産業省が掲げています。しかし、『組織、企業文化、風土をも改革し、競争上の優位性を確立すること』の言葉尻にとらわれすぎると、動きが取りづらくなる可能性があります。そのため、DXの流れとして、

  1. デジタイゼーション
  2. デジタライゼーション
  3. デジタルトランスフォーメーション

を意識していただくことが望ましいです。

また、業務をデジタル化していくプロセスによって、データが生まれるようになります。『そのデータを蓄積、分析、活用していくことで、DXを本格的に開始するスタートラインに立てる』と理解していただければと思います。」

コールセンターにおけるDXの具体例

伊東氏:「具体例として、コールセンターにおけるDXについてお話しします。

コールセンターは、多くの方にとって馴染みのある存在でしょう。昨今では『機械学習やAIを活用して最適な回答を提供する』技術がビジネスにおいて注目されています。ここでは、コールセンターが今の状態に至るまで、どのような過程を辿ってきたのかについて整理します。

コールセンターが存在しなかった時代では、顧客からの質問は電話などで個別対応されており、業務は完全にアナログな状態でした。

その後、問い合わせの増加により日々の業務が圧迫されるようになり、対応策としてWebフォームの導入やFAQの掲載が行われるようになりました。この段階が、デジタイゼーションに該当すると考えられます。具体的には、顧客がフォームに質問を投稿し、担当者が回答を入力すると、その情報がデータとして蓄積され、よくある質問(FAQ)に繋がる基盤が形成されていきます。

それでも問い合わせや対応件数が多く、さらなる効率化が必要だったため、コールセンターが生まれました。コールセンターでは電話での対応が行われ、その会話がデータとして記録されることで、効率性が向上しました。具体的なメリットとして、データが増えることでFAQが充実したり、担当者が適切な回答を迅速に見つけられるようになったりします。この状態がデジタライゼーションに該当します。

その次の段階として、AIによる自動回答、回答補助の技術が導入されます。この技術により、会話をデータ化している最中に、AIが最適な回答をプッシュしてくれます。デジタライゼーションの段階では担当者が自分で回答を探す必要がありましたが、この段階では回答が自動的に提示されます。この状態まで辿り着けば、他社に対する競争優位性に繋がります。この段階が、DX(デジタルトランスフォーメーション)です。

アナログな状態ではそもそもデータの蓄積がないため、データ活用を行えません。しかし、デジタル化を進めることでデータが蓄積され、それをもとに効率化が図られます。さらに変革が進むことで、デジタルトランスフォーメーションが実現されます。このように、データ活用の促進がDXのプロセスにつながることが、DXとデータ活用がセットで説明される理由でしょう。」

データライフサイクルにおけるフェーズとは

伊東氏:「次に、データ活用の定義について解説します。(データ活用の定義を理解するにあたって、)『データライフサイクル』と呼ばれる概念を意識することが重要です。

データライフサイクルは、まず『生成』の段階から始まります。これは業務で発生するデータを指します。たとえば、コールセンターであれば電話の会話、営業であれば営業記録が該当します。次に、それらをデータとして『蓄積』させ、そのデータをもとに『分析』を行います。そして、この分析結果を『業務に還元する』流れです。

近年では、生成AIが業務に有益な情報を提供できるようになっています。しかし、その情報が本当に正確で信頼できるものかどうかを判断するためには、事前に現状分析を実施しておくことが求められます。

データライフサイクルの運用がシームレスに行われ、全体のPDCAサイクルを遂行できる状態になると、データドリブン経営の領域に到達します。この段階に進むことで、デジタルトランスフォーメーションにより近づくことが可能となります。」

データライフサイクルの各フェーズにおけるポイント

伊東氏:「次に、データライフサイクルにおける各領域のポイントについて説明します。

『生成』と『分析』の文字を赤字で強調しているのは、皆様が主体的に判断し、行動していただくケースが多いからです。データライフサイクルにおいては、とくにこの2つの領域を意識していただければと思います。

『生成』においては、データ環境確認が非常に重要です。皆様が導入しているツールやサービスの利用状況、そこから生成されるデータ、あるいは外部から利用しているデータの整理がポイントになります。また、これらのデータを管理・整理する体制が整っているかどうかも重要な点です。また、データ分析を行う際に使用できるデータは、ここで生成されたものに限られます。そのため、ツールの導入やデータ使用を検討する際には、どのようなデータが得られるのかを事前に把握しておくことが大切です。

『蓄積』においては、専門性が求められる領域のため、実際の対応はベンダーに委託するケースが多いでしょう。しかし、その方針を皆様自身で持つことが重要です。具体的には、データマネジメントの領域を意識し、マスターデータやトランザクションデータを整理しておく必要があります。とくにマスターデータは、その後の分析や業務に直結するため、管理の方針を明確にしておくことが求められます。トランザクションデータについても、保持するデータの種類、保持期間、アクセス権限などに関して明確な方針を立てて管理する必要があります。

『分析』においては、仮説定義・検証と、体制の構築が重要です。仮説定義・検証では、業務課題の原因を解明するための指標や、データの集計粒度(どの程度深掘りするか)を整理する必要があります。また、現状の施策の効果を測るために必要な情報を明確にしておくことも重要です。

初期の分析では、画期的な発見が得られる可能性は低く、むしろ当たり前のことが確認されるケースが多いかと思います。しかし、これは現状のデータが正確であることを検証する機会であり、更なる分析への出発点として捉えるべきです。大切なのは、分析を継続的に行うことであり、『一度アウトプットを作成したから終わり』ではなく、その後も新たな発見を目指して取り組み続けることが求められます。

『業務への還元』においては、分析から得られた示唆をどのように業務やシステム・サービスに還元していくかを考えます。

データライフサイクルがイメージしづらい方は、全国統一テストを例に考えてみてください。テストを受け、その結果が全員分集積され、順位や偏差値、教科・領域別の課題が分析されます。そして、その課題に対して具体的な解決策を実行し、次のテストに臨むでしょう。このような一連の流れをイメージすると、データライフサイクルを理解しやすくなるかと思います。データ活用においても、この一連の整理と、それに基づく計画立案が必要不可欠です。」

データ活用計画の大まかな流れ

伊東氏:「続いて、データ活用の計画の立て方についてお話しします。

全体方針を考えるにあたって、『現状整理』と『あるべき姿のイメージ固め』を行い、その上で全体計画や直近計画を組み立てていくことが重要です。したがって、計画の大まかな流れとしては、大きく分けて以下の4ステップです。

  1. 現状の見える化
  2. あるべき姿の明確化
  3. 全体計画
  4. 直近計画

現状の見える化では、データライフサイクルの現状、その中にある課題を可視化し、現状を把握します。

その後、把握した課題をもとに、あるべき姿を描いていきます。この段階で、必要となるツールやサービス、機能などもイメージ化し、それらを含めたマイルストーンを固めていきます。

次に、前のステップで定義したマイルストーンをもとに、どこから着手するかを整理し、全体計画に落とし込みます。

全体計画が完成したら、直近計画を立てます。この段階では、設定したマイルストーン1つ1つをゴールとして、より具体的な計画を作成していきます。直近計画では、実際に対応を進める際に、どの工程を自分たちで行い、どの工程をベンダーに依頼する必要があるのかを明確にしていくことが重要です。」

STEP 1:現状の見える化・課題のプロット

伊藤氏:「架空の企業と業務を想定し、その状態における具体的な課題の例をご説明します。

まず、営業部門とマーケティング部門、大きく2つの部門があります。

営業部門では対面営業を行っており、その営業情報をExcelに記録し、さらにExcelで分析している状況です。一方、マーケティング部門については、自社イベント(製品説明会など)における参加者情報を紙で管理しています。また、ウェビナーに関しては、ウェビナープラットフォームのベンダーから取得したログをBIツールで分析している状態です。

そして業務還元としては、個人ごとの分析結果が報告されるだけに留まっています。

データライフサイクルの各フェーズに該当する要素を整理する際は、言葉や文章だけでは全体像や具体的なイメージが掴みにくいため、この図のように可視化することが重要です。

次に、課題のプロットについてです。先ほど整理した現状に対して、どのような課題があるのかを具体的にプロットしていきます。

営業部門に関しては、『どこからでも活動記録が可能な状態にしたい』『営業担当者自身が分析を行える状態にしたい』といった課題があります。

マーケティング部門に関しては、自社イベントについて『参加者情報をデータ化し、分析したい』課題、ウェビナーについて『自動連携などによって運用負荷を軽減したい』課題があります。また、業務全体としては、『一斉メール配信』の実現が課題です。

さらに、分析の領域においては、これまで個別で管理していた、対面営業・自社イベント・ウェビナーの情報を統合し、全体で管理・分析を行う仕組みが求められます。また、AIの利用を視野に入れることも課題として挙げられます。

最後に、業務還元の観点では、『分析からの数値的な示唆を具体的な施策として業務還元させる仕組みづくり』の課題があります。」

STEP2:あるべき姿の明確化

伊東氏:「現状の課題が明確になったら、あるべき姿を明確化していきます。

営業部門に関しては、SFAツールを導入し、対面営業のデータを記録・連携しやすい環境にします。

マーケ部門に関して、自社のイベントはSFAツールでデータを管理・連携をしていき、ウェビナーはシステム連携を実施します。また、一斉メール配信のためにMAツールを導入し、そこからデータを連携していきます。

蓄積フェーズではおもにデータ統合をしていき、分析フェーズでBIツールの全社展開を目指します。最後に、統合されたデータからAIを活用して、分析からの施策として業務還元を行います。

図の赤い部分がマイルストーンになると考えていただければと思います。」

課題に対する解決手段が定義されていることを確認

伊東氏:「あるべき姿を定義したら、課題に対しての解決手段が定義されているかを必ず確認しておきましょう。

また、懸念点や施策実施にあたっての課題は、この段階で整理しておくとよいでしょう。たとえば、(施策を実施するうえでの)体制についてや、求められる調査などです。ここで洗い出した懸念点が、後の直近計画にも響いていきます。」

STEP3:全体計画

伊藤氏:「あるべき姿が定義できたら、『施策をどのように進めていくか』を全体計画に落とし込みます。

この際、生成と分析の領域から着手することが望ましいと思います。蓄積の領域は、求められる専門性が高かったり、データの居場所が整理されていないと動きが鈍くなったりしてしまうためです。

今回の例では、以下の3段階で着手していきます。

  1. SFAツール・MAの導入、BIツールの全社展開
  2. システム連携、データ統合
  3. 統合データを利用したAI活用、分析からの施策

データ分析については、2段階目から逐次実施していき、業務に還元していく必要があります。」

分解した計画に対して実施することを定義

伊東氏:「分解した計画に対して、『どのようなことを行う必要があるのか』を定義していきます。

主目的が先ほどのマイルストーンに当たるところであり、そこに対してどのようなゴールを定めるかを検討します。また、この段階で自分たちの組織において『どのような人が推進メンバーになり得るのか』、『どのような人が不足しているのか』についても、分かる範囲で洗い出しておくとよいでしょう。」

STEP4:直近計画①

伊東氏:「次に、直近計画に落とし込んでいきます。全体計画で整理したゴールイメージから、より必要な要素を細分化し、プロジェクト単位で計画を区切っていきます。そして、具体的にどのような流れで施策をしていくかについて、プロジェクト計画を組み立てていきます。

例として、SFAツールを導入する場合について解説します。上段がシステム寄りのプロジェクトで、下段が業務寄りのプロジェクトです。

まずは、SFAの導入にあたって、選定に必要な判断材料/要素を洗い出します。そのためには、業務の要求を整理しておかなければいけません。そこで、『今どのような業務が行われているか』『どのような情報が必要か』などを整理し、ツールに求める機能を明確化します。また、『各工程における達成条件』を定義しておくことも必要です。

ツールの選定が終わりましたら、次はシステム要件です。具体的には、以下の要件を定義していきます。

  • どのようなユーザー操作が必要か
  • どのようなUIであるべきか
  • どのような画面遷移が必要か
  • どのような機能が必要か

一方で、業務寄りのプロジェクトでは、運用設計を並行して進めていく必要があります。具体的には以下の設計を行い、実際にツールを導入した後、どのように運用をしていくかを検討します。

  • QA管理
  • 要望受付のルール
  • トラブル時のフロー
  • 体制の定義

システムの要件が整理できましたら、システム寄りのプロジェクトでは、次はインプリ・テストです。SFAツールへ設定を入れていき、機能を構築していく工程に移ります。業務寄りのプロジェクトでは、運用構築を行います。前の段階で掲げた設計内容に基づいて体制構築などを進めていきます。

これらが全部終わりましたら、リリースに移っていきます。この全体の流れは、システム開発についての情報を参考にしていただくとよいでしょう。」

STEP4:直近計画②

伊東氏:「次に、各工程に必要な時間や達成までの期間、ベンダー支援が必要な工程を定義し、プロジェクト計画書を作成します。

今回の例では、以下の工程(図の赤文字部分)はベンダー支援が必要だと定義しています。

  • 各種システム要件の整理
  • トラブル時のフロー
  • インプリ、テスト
  • リリースに向けての受け入れテスト、実際のリリース

このプロジェクト計画書の作成にあたっては、システム開発の要素が非常に強くなります。この際、ウォーターフォール開発を参考にするとよいでしょう。アジャイル開発という言葉を聞いたことがある方がいるかもしれませんが、要件定義から全てをアジャイルで行うのは高リスクといえます。アジャイル開発がその強みを発揮するのは、しっかりと要件定義ができているケースであるため、そもそもの要件定義や管理には十分な期間を取り、入念に実施することが重要になるかと思います。」

RFPの作成

伊東氏:「次に、RFP(提案依頼書)と呼ばれる、ベンダーに協力を依頼する時の書類を作成します。今回詳細は割愛しますが、これまでの計画の立て方や整理を行っていくと、概ね問題なく書いていけるはずです。

裏を返せば、RFPがしっかり書けることが重要なポイントになると思います。RFPは要件/要求が曖昧であれば曖昧であるほど、金額も時間もかかってくるため、できるだけ計画を詳細に詰めることを意識していただく必要があります。」

データ蓄積領域の難しさ

伊東氏:「データ蓄積領域では、使用するツールがデータベースです。そのため、プログラミングスキルの必要性、専門用語の多さ、データの正規化への理解、結合操作など、ユーザー側からすると非常にハードルが高い領域です。

一方、インフラ(システム環境)や顧客業務データへの理解、データ加工など、ベンダーにとっても難しい部分が多々あります。そのため、現場業務やデータを知らないベンダーがお客様の目的に応じて機能を構築するとなると、必然的に作成されるドキュメント量も多くなりますし、どうしても時間がかかってしまいます。

しかし、このドキュメントが整備・更新されていない場合、属人化のリスクが高まってきます。そしてこの属人化により、次の一手が打ちづらかったり、ベンダーを変えづらくなってしまったり、さまざまなデメリットが出てきます。そこで最近は、それらの問題を未然に防ぐために、データ処理の流れがグラフィカルに表現されるツールも出てきています。

後半では、データ処理をローコードで実施でき、ドキュメント作成の工数を減らせる点に強みを持つTROCCOと呼ばれるツールについて、提供ベンダーであるprimeNumber社に説明していただきます。」

基調講演②:データの利活用を促進するTROCCO

本日のアジェンダ

坂本:「本日は、『そもそもデータの活用とは』『データの利活用を促進するTROCCO®はどこで活用するのか』についてお話しいたします。」

データの処理とは?

坂本:「最初に、『データの処理とは何か』という問いを皆様に投げかけさせていただきます。

私もprimeNumber社に入社する前は、データ処理という言葉に対して、果てしなく難しい話でどこか捉えどころのない言葉だと思っていました。そこで今回は、データの処理が何なのかについて振り返りながら、TROCCOで何ができるのかをお話しいたします。」

データ処理とは、元データを見える化して、施策につなげること

坂本:「たとえば、処理対象の元データについて、推移の仕方やセグメント、割合などがわかりやすいように見える化(グラフ化)します。そしてこのデータを基に、実際の施策へつなげます。

これまでの過去の施策がどこまで現在に対して影響があるのか(キャンペーンが売上向上につながっているか)や、自治体ベースで施策を行った際に、その施策が本当に適切だったかなどを分析します。このように、(データ処理が基となって)より高度なアプローチや仮説立て/検証ができ、データサイエンスに繋がっていきます。この流れが、いわゆるデータの処理から紐づく意思決定です。」

データ処理は考えなければいけないことが多い

坂本:「一連の流れにおけるデータの管理が非常に重要です。ただ、伊東様からご説明がありました通り、やはりデータの蓄積領域は難しいと呼ばれる分野です。

先ほどご覧いただいたデータに関して、一見すると特に問題なさそうに見えますが、実はこれだけ考えなければならないことがあります。たとえば、以下のような問題があります。

  • 空白があって、このデータを集計できない
  • 重複した氏名が入力されている
  • 年月日における表記揺れがある(スラッシュ表記/ハイフン表記)

これだけでも、業務量は多く、作業自体も非常に難しいです。」

データ活用は意思決定が目的

坂本:「しかし、データ処理はデータ活用の事前準備として必要な作業であるものの、データ活用の本質がデータ処理なのではありません。先ほど伊東様からもお話がありました通り、やはりデータを収集、蓄積、分析をしてから、その結果を業務に還元していく動きが求められます。

つまり、データ活用の1番の目的は、それを基に意思決定をすることです。したがって、企業が取り組むデータ活用は、以下のような観点が大切です。

  • 意思決定をどれだけ早められるか
  • 施策をどれだけ正確に回せるか
  • 効果があった部分がわかり、振り返りができる

そして、これらの結果を生かして現状をどのように改善していくかを検討することが非常に重要になってきます。そこで、しっかりとデータを扱っていくために、エンジニアリングの方法を理解し、自分たちで手段を考えられる力をつけていく必要があります。」

TROCCOが目指すビジョンの3本柱

坂本:「TROCCOOが目指すビジョンの3本柱があります。

1つ目は、『素早く安全にあらゆるデータから価値を得られる』です。やはり皆様が所属している組織は、個人情報や機密データを数多く扱っているため、それらは安全に取り扱われるべきだと考えています。

2つ目は、『低い学習コスト』です。ツールを運用していくにあたって、低い学習コストで進められるかは非常に重要なポイントだと思います。

3つ目は、『長期的な運用が可能なデータ基盤が構築できる』です。データ活用は継続的な目線が前提となるため、その点においてTROCCOは、磐石なサポート体制をとれるように努めています。」

TROCCOの主な特徴3つ

坂本:「TROCCOにはさまざまな機能がございますが、今回はその中でも3つに絞ってご紹介いたします。」

特徴①:簡単にデータパイプラインを構築できる

坂本:「データ連携やデータ加工の際、プログラミングなどの高度なスキルが必要になります。

しかしTROCCOであれば、シンプルなUIで、複雑な設定をせずにデータパイプラインを構築できます。まず転送元・転送先を選択し、その詳細情報を入力します。そして最後に、プレビューを見ながら加工します。

一方、プレビューを見ながら加工するフェーズがもっとも難しいといえます。そこでTROCCOでは、テンプレートETL機能をご用意しております。

たとえば、文字列変換により、データの標準化を実施できます。具体的には、年月日がスラッシュ表記やハイフン表記に揺れている場合、簡単に1つの表記へ統一可能です。

また、マスキング機能によって、機密データや個人情報を安全に取り扱えるようになります。たとえば、メールアドレスの@の前をアスタリスク(*)に変更するといった操作が可能です。

さらに、ハッシュ化機能を利用することで、不可逆な暗号化をさせ、ユニークな数値を取りながら分析を行えるようになります。

このようにTROCCOは、データ加工の工数を大きく削減しながら、活用できる状態にしていけることが強みです。」

特徴②:データマート機能のユーザビリティが高い

坂本:「データマート生成におけるユーザビリティが高く、『データ転送モード』と『自由記述モード』から転送モードを選択できます。また、分析用テーブルを自動生成させることも可能です。」

特徴③:一連の流れを完全自動化

坂本:「そして、ワークフロー機能によって、データ活用の一連の流れを完全に自動化させることが可能です。具体的には、最初にデータの転送元・転送先を設定し、データマート生成(データ加工)を行い、データの可視化を行なったり他のワークフローを使って分析を拡充したりできるようになります。

この際、スケジュール設定も可能であるため、一度ワークフローを作成すれば自動化できるようになります。たとえば、前日17時に帰社して、その日の24時にワークフローが動くようにセッティングしておけば、次の日の朝8時に出社した際にはデータが新しい状態になっている、といった使い方が可能です。」

TROCCOを活用した地方自治体のDX事例①

坂本:「1つ目の事例は、子育てアプリを通して、レストランクーポンやニュース、設備データなどを自治体が一元的に管理し、子育て世帯への情報配信などに活用したいケースです。そのアプリでは、その利用状況やユーザーの位置情報、店舗の位置情報などの可視化を目標としています。また、このDXを推進していくうえで、同年の3月末までに利用者が増えるかどうかを1つのポイントとして設定しています。

まずデータ活用にあたって、以下の3つのデータを収集します。

  • 子育てアプリ:ユーザーの利用状況や位置情報、レストランクーポンや決済情報の履歴
  • MAツール:活用可能なデータ
  • オープンデータ:国や市区町村で公開しているデータ(天気予報など)

そしてTROCCOを通してETLを行い、データウェアハウスに集約します。

図の分析①②のようにテーブルを複数作成して、分析結果をBIツールで可視化します。この流れを1ステップずつ行うことで、スモールスタートでデータの可視化を実現できます。

TROCCOを活用した地方自治体のDX事例②

坂本:「2つ目の事例は、自治体×観光×データ活用により、地方創生施策に役立てていきたいケースです。このデータを実際のマーケティング施策に落とし込むことで、地域全体で一貫性のあるシナジーを生むことを目標としています。さらに、施策と決済データを紐づけることで、その施策がどれだけ地域貢献していたのかを定量的に評価したいニーズがあります。

このプロジェクトを実現するにあたって、以下のデータを収集しました。

  • SNSデータ
  • 人流データ
  • マクロな決済データ(どの地域で決済したか)
  • ミクロな決済データ(どの店舗で何を購入したか)
  • 検索データ(その地域では、どのようなワードがよく検索されるか)

そしてこれらのデータをTROCCO経由でデータウェアハウスに集約し、分析、可視化を行います。

これにより、アウトバウンド/インバウンドの方々がどのような状況でどの地域にお金を落としているかを可視化できます。さらに、地域の成長推移や季節ごとの傾向(○○の時期は活発、活発ではないが単価が高いなど)、年代や男女別の分析などが可能です。

これによって、観光客に対してよりクリティカルな施策を立案・実施できるようになります。」

本記事のまとめ

本講演では、まず伊東氏より、DXの定義に立ち返って、「DXはどのような手順で進めていけばよいのか」「その際、どのような点が重要か」について詳しく解説していただきました。自社のDX推進を検討されている方は、本記事で紹介されていた流れとポイントを参考に、実際にスモールスタートでDXへ着手してみてはいかがでしょうか。

ただ、そもそもデータ処理に関する専門知識を持った人材がおらず、分析の準備に時間を要してしまうケースもあるでしょう。しかし、弊社坂本からも解説したとおり、データ活用は、分析結果をもとに意思決定することが目的であり、データの前処理はそのための手段にすぎません。

そこでTROCCOは、ETLツールとしてデータパイプラインの構築を全面的にご支援し、データの利活用を推進させるパートナーとなります。本記事で紹介したテンプレートETL機能や、データマート生成機能、ワークフロー機能はもちろん、データカタログ機能やデータリネージ機能など、データガバナンスにも有効な機能を備えています。

データの連携・整備・運用を効率的に進めていきたいとお考えの方や、プロダクトにご興味のある方はぜひ資料をご覧ください。