2023年7月1日にUniversal Analytics(UA)の計測が停止されました。
Google Analytics4(GA4)へ移行された方もいるでしょう。

しかし、UAからGA4に移行することで、これまで行っていた分析方法が使えなくなってしまうことがあります。

本記事では、2023年3月28日に開催されたセミナーをもとに、UAとGA4の分析方法の異なる点にも触れつつ、GA4のデータを分析する際の課題や解決方法などをご説明します。

以下のようなお悩みをお持ちの方はぜひご覧ください。

  • GA4のデータを用いた分析に悩みを持っている
  • GA4のデータとその他のデータを使用し分析したい
  • レポート作成の作業を自動化したい。ダッシュボードを作成したい

なお、当日のセミナーはこちらからご覧いただけます。

https://www.youtube.com/watch?v=9fCYsChxjxg

※本イベントレポートの内容は2023年3月当時のものです。TROCCO®の利用や接続オプション等の利用の詳細について知りたい方はprimeNumberまでお問い合わせください。
https://trocco.io/inquiry/new

講演者紹介

西 正広

株式会社月曜日のトラ 代表取締役

大手不動産賃貸事業会社におけるWebディレクション・デジタルマーケティング業務、インターネット専業広告代理店における分析業務支援を経て、株式会社電通デジタルにてアクセス解析・DMP・レコメンデーション・BIツールなどの導入・活用支援に取り組む。
2019年7月より株式会社MOLTSに参画し、2020年よりグループ会社KASCADEの設立・取締役就任、2023年より株式会社月曜日のトラの設立し・代表取締役に就任。データに基づくサービス改善、ビッグデータ活用のコンサルティング、インハウス運用、データドリブンなマーケティング組織の構築を支援する。

生田目 裕太

株式会社primeNumber カスタマーサクセス本部 Senior Manager

新卒で豊田通商グループの専門商社へ入社し、新規事業開発、国内外のプロジェクトマネジメントを経験。その後、2022年1月 primeNumberに入社。現在はエンタープライズセールスを担当しており、幅広い業界向けにデータ分析基盤の構築支援に従事している。

SECTION1

SECTION1では、株式会社月曜日のトラ 代表取締役の西氏より、「GA4データをBigQueryで分析するための成功の秘訣」をお話しいただきました。

GA4-BigQueryエクスポート 概要

西氏:「まずはGA4について解説します。GA4はGoogle Analyticsの最新バージョンで、ユーザー統合や機械学習、そしてプラットフォームを問わずデータを集計する機能を持っています。また他の分析ツールやマーケティング基盤への適用も視野に入れており、これからの新機能やアップデートは主にGA4に導入されます。

以前のバージョンであるGoogle Analytics UAでは、2023年の7月1日にデータの計測が終了します。その後のデータ閲覧は2024年の1月1日までの半年間保証されています。」

西氏:「Google Analytics 4(GA4)の特徴について詳しく説明します。

一つ目はクロスプラットフォームの機能です。これによりWeb、アプリ、IoTデバイス等、多岐にわたるプラットフォームにおけるデータを一元化し、統合分析が可能です。

二つ目は自動計測が充実している点です。過去には手動で設定を行う必要があった動画視聴、ページスクロール、ファイルダウンロード等のユーザー行動も、現在は自動的に計測できます。

三つ目は高度な分析が可能になったことです。レポート画面上で複雑な分析が簡単にできます。

四つ目は機械学習による予測機能です。これにより、生涯顧客価値(LTV)や解約率などを自動で予測し、リマーケティングリストの作成などに利用できます。

また、GAデータをBigQueryへエクスポートすることで、詳細なデータ分析を行う基盤を構築することも可能です。」

西氏:「BigQueryへのエクスポートについてご説明します。GA4では、計測したイベントのローデータをGoogleのデータウェアハウスサービスであるBigQueryにエクスポートできます。

これまでは有償版GA(GA360)のユーザーのみが利用できる機能でしたが、GA4の導入により無償版GAユーザーもこの機能を使用できるようになりました。ただし、BigQueryの使用料は別途必要となります。

BigQueryを使うことで、仮説検証から詳細な分析、洞察取得までデータ活用の幅が広がります。」

西氏:「BigQueryのエクスポートを活用することで、以下のような解析や施策が行えます。

まず、個々のユーザージャーニー分析やUXリサーチが可能です。ユーザーのオンライン行動や経路を詳細に解析できます。

また、BIツールを用いてデータを可視化できます。複数のデータソースを合わせて高度な分析を実現できます。

さらに、AIや機械学習によるデータモデリングも可能で、その結果を広告やマーケティングオートメーションに活用することで、より効果的なマーケティング活動を展開できます。

その他にも、Web行動データを蓄積することにより、セールス活動や顧客サポートに役立ちます。具体的には、オンライン上での顧客行動を解析し、それに基づいたセールス戦略を立てたり、顧客サポートの内容を最適化できます。

これらの分析と施策の活用を通じて、ビジネスの成果向上や顧客満足度の向上を実現できます。」

西氏:「BigQueryとはGoogleのデータウェアハウスサービスで、GA4のデータはBigQueryにエクスポートできます。より深いデータ分析や、データ活用が可能になります。

具体的には、GAに蓄積された顧客行動のデータをデータウェアハウスにエクスポートし、ビッグデータやマーケティングオートメーションツールなどに連携します。イベント単位での分析やデータ可視化、さらには施策の立案に活用できます。

なお、Webだけでなくアプリからもデータを取得し、それをBigQueryに蓄積することで、他のデータソースと組み合わせることも可能です。

さらに深い分析が可能になり、データの活用範囲が広がります。」

西氏:「GA4の特性として、イベントデータが最大で14ヶ月から50ヶ月(有償版の場合)しか残らないという点があります。

個人的に14ヶ月は短いと思っています。そのため、過去のデータをバックアップする意味でも、また時間の経過とともにデータを評価したい場合でも、BigQueryのエクスポート機能が有用です。」

西氏:「BigQueryのエクスポートの手順と設定について説明します。設定は「管理」から「BigQueryのリンク」を選択して行います。

初めに必要なのはGoogle Cloud Platform(GCP)のプロジェクトの開設です。GCPの権限を持つ方がアクセスすると、連携が可能になります。

データスポットについては、管理からBigQueryのリンクから設定できます。まだGCPのプロジェクトを開設していない場合は、クレジットカードがあれば約5分で設定が完了します。」

分析活用ケース

西氏:「GA4データのBigQueryでの活用方法について、具体的なケースをご説明します。

一つ目の活用ケースは、各種マスタ情報やオフラインデータとのマッチングです。ユーザーID、トランザクションID、商品IDなどの各種ID情報や記事のコンテンツについて、マスタ情報と結びつけてより深く分析できます。

たとえば、ユーザーの地域性情報や性別、年齢、職業、顧客ランクなどのデータベース情報と合わせることにより、顧客ランク別のサイト利用状況を分析できます。」

西氏:「二つ目の活用ケースはは、前後パス分析です。

GA4では以前あった“ナビゲーションサマリー“機能がなくなりましたが、これはBigQueryで再現できます。BigQueryにはナビゲーション関数、とくに、LAG関数とLEAD関数があり、これらを使用することで特定ページの前後のパスデータが得られます。

LAG関数は前のパスを抽出し、LEAD関数は後のパスを抽出します。このような機能を使うことで、同等の評価や複雑なパスを分析できます。

さらに、これは一つのパスだけでなく、複数のパスに対しても適用可能です。」

西氏:「三つ目の活用ケースは、コンバージョンパス分析です。アクセス解析では、ユーザーがどのような順番でどのページを訪れ、最終的にコンバージョンに至ったかを表すゴールデンパス分析が重要です。

しかし、問題として、コンバージョン以降のデータも評価に含めてしまうことが挙げられます。BigQueryを使用すれば、コンバージョン前後のユーザーの行動をタイムスタンプから切り分けて分析でき、コンバージョンに至るまでにユーザーがどのページを訪れたかを正確に抽出できます。こうしたデータを元に、より厳密にコンバージョン前のページの評価を行ない、ゴールデンパス分析できます。

また、BigQueryのRANK関数を活用すれば、特定のカラムの組み合わせに応じてタイムスタンプ順のナンバリングを作成できます。これにより、データの抽出や分析がより容易になります。コンバージョンに至ったユーザーが具体的にどのような経緯を辿ったか詳しく把握できます。」

西氏:「四つ目の活用ケースは、コンテンツグループです。コンテンツグループはページをグループ化できる非常に有用な機能ですが、設定をした後でないと反映されない点や、タグの実装が難しい点が課題です。

BigQueryを使用することによって、ページをSQL上でグループ化したうえで、コンテンツグループのような集計が可能です。ページのグループ化ルールとしては、CASE関数を利用して分類します。」

西氏:「五つ目の活用ケースは、ビジネスインテリジェンス(BI)ツールとの接続です。GA4データをBigQuery上で一次集計し、それをLooker Studioに反映するという使い方があります。スライドにあるようにデータを可視化をすることができます。」

西氏:「Looker StudioからGA4(Google Analytics 4)の同一プロパティへ短期間に大量にアクセスすると、エラーが起きるという問題があります。

Looker StudioからGA4のデータへのアクセスは、Google Analytics Data APIを用いますが、このAPIは一定期間内に利用できるリクエスト数やデータ量等に制限があり、超過するとエラーが発生します。

制限なくデータを利用したい場合の最善策は、BigQueryにエクスポートされたGA4のデータを用いることです。」

GA4 BigQueryエクスポート データの扱い方

西氏:「GA4のエクスポートデータは2つのテーブルに分かれます。

一つ目は"events_YYYYMMDD"で、日単位でエクスポートされます。このデータは通常、翌日の昼から夕方ごろには前日のデータがエクスポートされますが、具体的な時間は保証されていません。

二つ目は"events_intraday_YYYYMMDD"というストリーミングデータで、リアルタイムなデータ(数秒遅れ)が入ります。これは直近のデータまで含むので、"events_YYYYMMDD"と組み合わせると直近のデータまで利用できます。

ただし、日次エクスポートデータの作成が完了すると、前日のストリーミングデータは削除されます。これらのデータはデータセット(analytics_<Property ID>)という名前でエクスポートされます。たとえば、"analytics_21886"といった形です。」

西氏:「続いてスキーマについて解説します。スキーマは、ユーザーの行動ログがイベント単位で、それぞれのタイムスタンプと共に記録されていきます。これにより、各ユーザーがWebサイトやアプリ上でどのような行動をとっているかが全て把握できます。

これらのデータはエクスポートすると、イベントごとに”登録”のような形となり、それぞれがタイムスタンプと共に記録されていきます。これが、解析を行うデータの基本形となります。」


西氏:「イベントとは、ユーザーの様々な行動や状態を指します。たとえば、ウェブサイトへの訪問、ページビュー、ボタンクリック、フォームの送信など、ユーザーが行った行動全てがイベントとなります。

イベントはそれぞれ名前が付けられ、Googleアナリティクスを通して計測されます。たとえば、”session_start”はセッションの開始を、”page_view”はページ閲覧を表します。任意のイベント名も設定可能で、ユーザがどのように行動したかを確認・識別できます。

また、”purchase”など購入に関連するイベントも計測でき、ユーザーの行動分析やサイト改善策の検討に役立ちます。」

西氏:「GA4のイベントは、自動計測と手動設定するものの2種類が存在します。

自動で計測されるイベントは、たとえば、”page_view”(ページが読み込まれる度に計測)、”Scroll”(ページが一番下までスクロールされた時)、”Click”(移動するリンクがクリックされた時)、”file_download”(文書や圧縮ファイル、アプリケーション、動画のダウンロードリンクがクリックされた時)などがあります。

一方手動で設定するイベントは、”generate_lead”(リードを獲得した時)、”Purchase”(ユーザーが購入した時)、”Sign_up”(ユーザーが会員登録した時)、”mailmagazine_subscribe”(メールマガジンに登録した時)、”tel”(電話番号がタップされた時)などがあります。

これらのイベントの中から、自分たちが重要だと定義するものをコンバージョンと定義し、それを計測します。」

西氏:「イベントパラメータは、イベントをより具体的に特定するための付加情報です。

イベント名がclickだけだとどこをクリックしたのか、”page_view”だけではどのページを見たのか、”purchase”では具体的にどの商品を購入したのかがわかりません。これらを具体化するためにイベントパラメータが用いられます。

たとえば、イベント名が”page_view”の際、”page_location”パラメータと組み合わせることで、具体的に何のページが見られたのかがわかるようになります。それがトップページだったのか、カートページだったのかなどの情報が得られます。

イベントパラメータはイベントとセットで存在し、イベントの具体的な情報を提供する重要な要素です。」

西氏:「イベントパラメータの理解が重要です。

たとえば、イベントごとに特定のイベントパラメータが細かく付与されます。具体的なイメージについては、”debugview”というツールを使うと理解しやすいでしょう。たとえば、"ページビュー"というイベントを見てみると、"page_location"や"page_title"といったイベントパラメータが一緒に送信されています。

それぞれのパラメータには、それに対応する情報が入っています。”page_location”には位置情報、”age_title”にはそのページのタイトル情報が、それぞれ入っています。」

西氏:「イベントパラメータの理解は、GA4データをBigQueryで分析する上で重要な要素です。これは、各イベントが持つ独自のパラメータ情報で、この情報を理解し活用することでより深い分析が可能となります。

先ほどお話ししたように、このイベントパラメータ情報が”event_params”に格納され、それがデータセットとして利用可能になります。」

西氏:「GA4の分析では、「イベント」「セッション」「ユーザー」の3つを理解することが重要です。

まず「イベント」は、ユーザーがアクションを起こすたびに記録されます。たとえば”session_start””page_view””任意イベント””purchase”などがそれに該当します。」

西氏:「スキーマとはデータベースの構造を示す一覧で、GAのスキーマにはこのような(上スライド参照)フィールド名が含まれています。」

西氏:「GA4のBigQueryエクスポートのデータを扱ううえで難しいのがイベントパラメータです。

この二つは、それぞれイベントパラメータ名が”event_params.key”として、その値が”event_params_value”として格納される方式を採用しており、同様の構造になっています。

そして、”event_params_value”は格納する値の形式に応じて、本来”string_value”に入るべきデータが間違って入ってしまうというケースもあります。」

西氏:「スキーマについて詳しく説明します。

スキーマの重要な部分には"event_params"や"user_properties"が含まれています。これらは、"key"と "value"と言ったペアで構成されています。たとえば、"event_params"では、"event_params.key"にはイベントパラメーターの名前が含まれ、"event_params.value"にはそのパラメーターの値が格納されているわけです。

しかしながら、"event_params_value"の値は、特定の条件によっては異なるタイプのデータが入ることがあります。たとえば、文字列の値が、本来入力すべき "string_value"ではなく "int_value"に入力されているといったケースが考えられます。

このようなバリエーションは、分析を複雑にするため、注意が必要です。」

西氏:「GA4のレポートUIから出力できるデータとBigQueryのデータには少々の違いが存在します。

BigQueryでは主にローデータが扱われますが、一方でGA4のレポートUIでは、GA4に蓄積されたデータをより精細に組み立てるとか、集計するなどの予め処理が行われたデータが表示されます。

また、属性情報(性別や年代など)やGoogle広告に関連するデータ(広告コストやインプレッション、キーワードなど)は、BigQueryのエクスポートされたデータには含まれていないという点も留意が必要です。」

西氏:「GA4データは送信されてから一次処理を経て、GA4のデータベースに蓄積されます。その蓄積されたデータは、次に構成や集計が行われます。

たとえばGoogle広告やチャンネルグループの集計等が含まれます。そして最終的にレポートとしてまとめられます。

注目すべきは、レポート作成の前段階で、BigQueryに対してエクスポートされるデータは、まだ構成や集計が行われる前の、いわば「原始的」なデータであるという点です。」

西氏:「データマートの必要性について話します。

GA4のBigQuery Exportデータには、”event_params”や”user_properties”のようにネストされたカラムがあります。これらは基本的なSQLの書き方(SELECT カラム名)だけではデータ抽出できず、学習と利用のコストが高くなります。

さらに、BigQuery Exportデータは全てのイベントが計測されている大規模なデータです。そのままこのデータにクエリを実行すると、BigQueryのクエリの実行にかかる金銭的なコストが高く、レスポンス的にも良くありません。

そのため、一次集計したデータマートを作成し、そのデータマートから必要なデータを抽出してBIツールで接続することを推奨します。」

西氏:「データマート構築のイメージです。

まず、ローデータを変換してバッチによるセッションデータや日々のデータに分けます。これらはそれぞれ"events_YYMMDD"と"events_intr"というテーブルに保存されます。

次に、これらのデータを統合し、さらに細かくセッションデータやイベントデータに分解します。ここから、毎日、あるいは毎時間、新たなデータが追加されて蓄積されていきます。

その結果、最終的にはデータが整理され、BIツール等で分析しやすい形にまとまります。具体的には、"aday_YYYYMMDD"のような形でデータが整理されます。」

西氏:「データマートを構築するために重要な要素について解説します。

まず、エクスポートタイミングについては、日次データがエクスポートされる具体的なタイミングが確定していません。場合によっては翌日かそれ以降に持ち越されることもある点に注意しなければなりません。

次に、レイトヒットという、データが発生した後すぐに送信されないヒットがあり、これはGA4のデータで最大72時間遅れて記録されるものです。レイトヒット記録前に集計処理を行った場合、結果に若干のズレが生じる可能性がある点に留意が必要です。」

西氏:「GA4レポートUIでは、Cookie、ユーザーID、Googleシグナル、モデリングの四つの手法を使用してユーザーの識別を行います。これらは順に左からユーザーの特定に用いられ、デバイスを跨いだ行動やアプリとWebを移動するユーザー行動も、同一ユーザーとして分析できます。」

西氏:「GA4データの分析を成功させるためには、ローデータを適切に変換し、バッチによりデータを蓄積することが重要です。

次に、確定データをセッションの追加やイベントの追加といった形で活用します。

また、”events_YY”というデータを日付別に管理し、未確定データを統合してセッションテーブルを作るなどの計算処理も重要なステップです。

その後、Dailyで”events_intやraday_YYY”といったデータの追加や更新を行います。未確定・ストリームデータはDaily追加前に適切な処理を行うことが求められます。

このような一連の手順により、TROCCO®を活用し、分析を進めることが可能となります。」

西氏:「現時点でのベストプラクティスとして、TROCCO®のデータマート機能がとても役に立ちます。

まず、ローデータをバッチにより集計し、日次でデータを追加します。ここで生成されるデータは、年月日形式の”events_YYMMDD”という形で保存されます。

次に、セッションごとの計算処理を行い、これも日次で”events_int”の形でデータを追加します。こちらは”raday_YYYYMMDD”の形で保存します。

そして、フロントエンドでは、これらのデータを日次で追加する前に、各部分の計算処理をデータマート機能を使って行います。

その結果をうまくフィードバックして使えば、最適化への道筋が見えてくるかと思います。」

TROCCO®と組み合わせて使うメリット

西氏:「GoogleアナリティクスとTROCCO®がどのように接続しているかについて説明します。

まず、Universal Analyticsからのデータエクスポート機能があります。また、Measurement Protocolと呼ばれる手法を用いて、Google AnalyticsにHTTPリクエストでデータ送信できます。これにより、オフラインコンバージョン等のデータをUniversal Analyticsに送信できます。

次にGoogle Analytics 4についてですが、こちらはデータエクスポート機能を開発中で、すぐには利用できない状況です。しかし、Google Analytics 4でも先述のMeasurement Protocolを使ってオフラインデータを送信することは可能です。」

西氏:「上図は、GA4データをBigQueryで分析するための成功の秘訣について、ここまでで紹介した主要な4つのユースケースをまとめたものです。」

まとめ

西氏:「GA4だけでも様々な分析は可能ですが、BigQueryを利用することで、個々のユーザーの行動分析や複数のデータとの組み合わせ、さらには長期間のデータ保存など、より詳細な分析が可能になります。

TROCCO®と組み合わせて利用すると、GA4にオフラインデータを送信することもできますし、データマート機能を利用するだけでも非常に便利です。

また、TROCCO®からSFAやCRM等のデータをBigQueryに連携することで、安価かつ簡易にCDP(顧客データプラットフォーム)としての利用も可能です。

ただし、イベントパラメータやユーザープロパティの抽出・集計など、一部で難易度が高いところもあるので、必要に応じて専門の会社に委託するのも一つの選択肢です。」

SECTION2

SECTION 2では、生田目より、TROCCO®の概要とGAのデータを分析する際のTROCCO®のユースケースについてお話ししました。

データ統合ツールTROCCO®とは

生田目:「TROCCO®とは、データの統合を自動化することで、データエンジニアリングに必要な時間と労力を大幅に削減するフルマネージドETL/ELTサービスです。

この処理エンジンにはEmbulkを用いており、基盤としてAWS東京リージョンのEKSを使用しています。

データの活用には、分散して存在するデータを一元化し、そのデータを蓄積して結果を可視化するという流れが必要です。

TROCCO®の役割は、存在しているデータを一元化する、つまりデータの統合という部分で、これを自動化することでデータエンジニアリングにかかる工数を大幅に削減できます。」

TROCCO®のご提供領域

生田目:「TROCCO®では、データ統合、データモデリング、メタデータという3つの領域の機能を提供しています。

データマート機能やdbtといった連携機能、SnowflakeやBigQueryと連携するデータ品質の確保、データウェアハウスやクラウドDWHのオペレーション領域など、幅広くカバーしています。

また、データガバナンス領域についてもしっかりと取り組んでおり、データの安全性や鮮度を保つためのセキュリティや、運用に関するルールや方針を定めるガバナンス領域も支援しています。

さらに、マスタデータやコンテンツの管理、ドキュメンテーション、そしてTableauやRedashなどのBIツールも取り扱っています。

これらの機能により、TROCCO®はデータ統合のみならず、データモデリングというデータの加工部分、メタデータの管理といった領域も広範にカバーしています。

データ管理には色々な要素が関わってきますが、TROCCO®の一つの特徴として、複数のデータガバナンス領域を網羅的にサポートできるという点が挙げられます。」

GAデータを分析する際のTROCCO®のユースケース


生田目:「GAデータを分析する際、TROCCO®の使用例を参考にすると良い結果が得られます。特定のユースケースについて詳しくご紹介させていただきます。」

生田目:「GAデータを分析する上で、TROCCO®にはいくつかの機能があります。

一つ目はUniversal Analyticsデータのバックアップが可能です。

二つ目にデータ連携機能があり、これによりオフラインコンバージョンをGAに送信できます。

三つ目は、データマート機能を活用することでスケジュールに従ったデータ更新が行えます。これはBigQueryなどのデータマート内のデータを加工できます。

そして四つ目は、GA以外のデータとの組み合わせも可能であり、これによりデータ連携やデータマートを自動化させるワークフロー機能が活用できます。これらの詳細は後ほど紹介します。」

①Universal Analyticsデータのバックアップ

生田目:「Universal Analyticsのデータバックアップについて解説します。

Universal Analyticsの計測は今年7月に終了予定(※セミナー配信当時)なので、多くの方が既に新しいシステムに移行されていると思います。

しかしながら、これまでに取得した過去のデータを分析に活用したいというニーズが多いと感じています。そのためにはデータのバックアップが必要です。

しかし、データエクスポートにはサンプリングという問題があり、データ量が一定量を超えると一部のデータのみを抽出して分析しなければなりません。その際にTROCCO®を用いることで、この課題を解決できます。更にデータ連携は簡単に設定でき、バックアップしたデータをデータレイク等に容易に転送可能です。

ただし、大量のデータを一度にエクスポートするとサンプリング問題が生じる可能性があるため、データを分割しスケジュール実行することで、この問題を回避できます。」

生田目:「Universal Analyticsのデータをバックアップするためのデータパイプラインの構築は、3ステップで完了します。

一つ目のステップでは、転送先を選びます。この例ではgoogle_analyticsとBigQueryを選択しています。

二つ目のステップでは、詳細情報を入力します。たとえば、Google AnalyticsのどのデータをBigQueryのどの場所に転送するかといった具体的な情報を指定します。

最後の三番目のステップでは、プレビューを見ながらデータをお好みに加工できます。

さらにスケジューリングの設定もこの画面で行うことができます。

このように、このシステムの最大の特徴はそのシンプルさであり、それにより非常にスピーディーにデータパイプラインを構築できます。」

②オフラインコンバージョンをGAへ送信

生田目:「オフラインのコンバージョンデータをGoogle Analytics(GA)に送信できます。そのためにはMeasurement Protocolを利用します。これにより、GA以外で計測したコンバージョンデータの送信が可能となります。

また、リバースETLのコネクターも充実しており、前述のデータ連携と同様の設定方法で簡単にデータの送信ができます。

収集したデータを逆にアプリケーションやシステムに理解させるという、リバースETLという手法も取り入れています。

コネクターの種類も豊富で、これが弊社サービスの特徴の一つです。」

生田目:「TROCCO®では100種類以上のコネクタを準備しており、新しいコネクタは常に1つから2つ開発されています。複数の広告系やその他のデータベース系への接続も可能です。」

③データマート機能を利用したスケジュール更新

生田目:「GA4データをBigQueryで分析する際には、データマート機能を活用してスケジュール更新を行うことが重要です。

たとえば、DWHに格納されたデータをTROCCO®のUI上から加工したり、データクレンジングやテーブルの統合をスケジュール実行したりできます。

実際、GAの生データをそのまま使うのは稀で、データクレンジングや複数データの結合による加工が必要となることが多いです。

これを実現するためにはTROCCO®のデータマート機能が大いに役立つでしょう。データマート機能を使えば、たとえばBigQueryを始めとしたエリア別のデータをスケジュール実行によって整理し、スケジューリングできます。」

生田目:「GA4データの分析において、TROCCO®のデータマート機能を活用したスケジュール更新が重要です。

TROCCO®上でSQLを書くことが可能で、指定したDWHに対してそのSQLを実行できます。また、ジョブ管理もUI上で容易に行えます。データマートではデータ抽出でき、さらに新しいマートの構築、データの操作、そしてDWHが許容するクエリにも対応しています。

具体的には、TROCCO®のUI上でSQLを書き、それをスケジュール化することで、指定した時間にクエリが自動的に実行されるように設定できます。

このシステムを利用することで、誰がいつどのような操作をしたかといった点でも管理が容易になり、効率の良いデータ分析が可能となります。」

④GA以外のデータとの掛け合わせ

生田目:「GA以外のデータとの掛け合わせについて説明します。

現在、約100種類以上のコネクタが用意されていて、これを活用することでGoogle Analytics以外のデータと組み合わせて高度なデータ分析が可能になります。

また、ワークフロー機能を使用することで、データのバイプラインを自動化できます。その結果、データを加工したり、他のデータと組み合わせたい場合などに、データマート機能を活用してデータを連携できます。

なお、個別に操作するのは自動化が難しいため、ワークフロー機能を利用してデータの転送や加工を一つのパイプラインとして構築することを推奨しています。」

生田目:「GA4以外のデータとも組み合わせて分析できます。事前に作成した加工設定やデータマート設定を使用して、データ抽出から連携までの一連の流れを画面上で組み立てることが可能です。

ドラッグ&ドロップによるワークフローを構築できるので、コーディングが得意でない方でも手軽にデータ分析ができます。

たとえば、ワークフローが始まると最初に関連するYouTubeのデータを抽出し、その作業が終わったら次に設定したジョブに移動し、すべてのジョブを順次実行していくことで、効率的なデータ分析が可能です。」

その他の標準機能とオプション機能について

生田目:「当セミナーでは、Google Analytics 4(GA4)のデータ分析として、一部の標準機能やオプション機能をご紹介させていただきました。それには、「テンプレートETL」という簡易的なデータ加工機能や、より詳細なデータ加工が可能な「プログラミングETL」機能が含まれます。

また、Web行動ログを取得できる”TROCCO® API機能”や、設定情報の出力とGitリポジトリへの反映を可能とする”Gitリポジトリ連携”等もあります。

加えて、データや設定情報の共有、運用が可能な”チーム機能”や、SSOを利用可能な”SSO機能”、”データカタログ”機能、そしてお客様のAWS VPCと弊社TROCCO®のPrivateLinkを接続できる”AWS PrivateLink接続オプション”もご提供しております。

これらの機能以外にも、データ連携やデータマートなど幅広い機能を有しておりますので、何か気になる点や疑問がありましたら、お気軽にお問い合わせいただければと思います。」

まとめ

生田目:「TROCCO®はフルマネージドのETLを提供しているので、データ統合にかかる工数を削減できます。さらに、GAをはじめとした約100種類のコネクタを用意しており、スピーディにデータ分析できます。

また、データ統合以外の機能も盛り込んでおり、GAデータの分析を円滑に進めることが可能です。」

本記事のまとめ

本セミナーでは、GA4データをBigQueryで分析する際の成功のポイントを詳しく解説しました。GA4はGoogle Analyticsの新しいバージョンであり、BigQueryと組み合わせることで、より深いデータ分析が可能となります。

GA4とBigQueryエクスポートを活用することで、データのバックアップやオフラインデータとのマージ、前後パス分析など、多岐にわたる分析が実現できます。また、スキーマの理解やイベントのパラメーター設定により、GA4のデータ構造を深く理解できます。

さらに、データ分析ツール「TROCCO®」との組み合わせにより、GA4とBigQueryのデータを効率的に活用する方法も紹介しました。TROCCO®を使用することで、Universal AnalyticsのデータバックアップやオフラインコンバージョンのGAへの送信など、GAデータのさらなる活用が可能となります。

データ分析に関する課題を抱えている方、またはGA4とBigQueryの組み合わせに興味がある方は、本内容を参考に、データ分析の更なる効果的な活用を目指してみてください。

データ基盤の総合支援サービス「TROCCO®」は、データの統合や分析をサポートする多機能なツールです。データの連携・整備・運用を効率的に進めていきたいとお考えの方や、プロダクトにご興味のある方は以下よりぜひ資料をご覧ください。

TROCCO ライター

TROCCOブログの記事ライター データマネジメント関連、TROCCOの活用記事などを広めていきます!