「GA4のダッシュボードは見ているけど、結局なにをすればいいのかわからない」——この状態は、データの"読み方"ではなく"判断の仕方"が不足していることが原因です。 本記事では、非アナリスト向けに、GA4とSearch Consoleの主要レポートの読み方と、5つの代表的データパターンに対する具体的なアクションレシピを提供します。
この記事の位置づけ
対象読者はビジネスサイド(事業責任者・マーケ担当・広報担当)です。ソースコードやスクリプトは載せず、「このパターンを見たら→これをやる」の判断手順を中心に解説します。指標定義はGA4およびSearch Consoleの公式ドキュメントに基づき、運用提案は「推測」として分離します。
「数字はあるのに、次の一手が決まらない」問題
データ活用のボトルネックは「取得」ではなく「解釈と行動」
日本企業のデータ活用の現状を見ると、ツールの導入自体は進んでいます。しかし、IPAの「DX推進指標 自己診断結果 分析レポート(2024年版)」(1,349件分析、2025年5月7日公開)やIPAの「DX動向2025」(日米独比較、2025年6月26日公開)からは、DX成熟度に企業間で幅がある傾向が読み取れます。JIPDEC/ITRの「企業IT利活用動向調査2025」(国内1,110社対象、2025年3月14日公表)も、IT利活用の実態が一様ではないことを示唆しています。
この背景を踏まえると、本記事の価値は「ツール機能紹介」ではなく、「判断手順テンプレート」を主役にすることにあります。
非アナリストに必要な4つの能力
アクセスデータを「読んで行動に変える」ために必要な能力は、統計知識ではなく以下の4つです。
- 指標の意味を取り違えない(用語リテラシー)
- 比較条件をそろえる(期間・スコープ・定義の整合)
- データ品質の罠を検知する(しきい値・(other)・サンプリング)
- 仮説とアクションを切り分ける(事実と推測の分離)
記事全体を通じて、この4能力を実務に落とし込む構成で進めます。
まず3画面だけ押さえる
GA4には多くのレポートがありますが、非アナリストがまず押さえるべきは以下の3画面です。この3つで「流入」「獲得」「入口品質」を分けて見ることができます。
1. Traffic acquisition(セッション流入)
何がわかるか:各セッションがどこから来たか(Organic Search、Paid Search、Direct、Social等)
- セッションスコープの指標。「今月のSNS経由の流入はどうだったか」を見るのに使う
- 主要指標:Sessions、Engaged sessions、Engagement rate、Session key event rate
2. User acquisition(新規ユーザー獲得)
何がわかるか:新規ユーザーが最初にどこから来たか
- ユーザースコープの指標。「新規ユーザーはどのチャネルで獲得できているか」を見るのに使う
- 主要指標:New users、Engaged sessions per user、User key event rate
3. Landing page(入口ページ)
何がわかるか:そのセッションで最初に表示されたページごとの挙動
- セッションスコープ。「どのページが入口として機能しているか」「入口での離脱率はどうか」を見るのに使う
- 主要指標:Sessions、Engagement rate、Bounce rate、Session key event rate
User acquisitionとTraffic acquisitionを混ぜて比較しない
User acquisitionはユーザースコープ(新規ユーザー獲得の起点)、Traffic acquisitionはセッションスコープ(各セッションの流入起点)です。この2つを同列に比較すると誤読しやすくなります。「どちらが正しいか」ではなく「用途が違う」と理解してください(GA4公式比較記事に明記)。
GA4のバウンス率はUA時代と定義が違う
GA4のバウンス率は、旧Universal Analytics(UA)とは定義が異なります。
- UA時代:1ページだけ見て離脱した割合
- GA4:非エンゲージドセッションの割合
GA4の「エンゲージドセッション」は以下のいずれかを満たすセッションです。
- 10秒超継続
- Key event(旧コンバージョン)が発生
- 2ページ/画面以上の閲覧
つまり、GA4のバウンス率は「1ページだけ見て離脱した率」ではなく、「上記3条件のいずれも満たさなかったセッションの率」です。UA時代の感覚のままバウンス率を読むと判断を誤ります。
誤読を防ぐデータ品質ゲート
データを読む前に、データそのものの品質を確認するステップが必要です。ここを飛ばすと、データの制約が原因の変動を「実際の変化」と誤認するリスクがあります。
確認すべき5つの制約
| 項目 | 内容 | 実務上のリスク |
|---|---|---|
| データ鮮度 | GA4のデータは通常24〜48時間で変動し得る | 直近2日程度は暫定値の可能性。確定値として扱わない |
| しきい値 | システム適用で利用者が閾値自体を調整できない | demographic系や一部条件で値が欠けることがある |
| (other)行 | 高カーディナリティ(目安500+)で一部が集約される | 詳細な内訳が見えなくなる。BigQuery等で再確認が必要 |
| サンプリング | Explore/一部クエリで発生し得る | 大規模データの分析で精度が低下する可能性 |
| スコープ混在 | User指標とSession指標を混在比較 | 増減の判断を誤る |
Search Consoleと合わせて読む理由
GA4だけでは「流入前」の状況がわかりません。Search Consoleと組み合わせることで、「検索結果上のパフォーマンス(流入前)」と「サイト到達後の行動(流入後)」を分離できます。
ただし、両者の数値は一致しないのが正常です。 Google公式ドキュメントでも「ClicksとSessionsは完全一致しない」ことが明示されています。主要なズレの要因は以下のとおりです。
- 計測実装差(タグ欠損・設定差)
- 同意取得による観測欠損
- タイムゾーン差(GA4は設定タイムゾーン、Search ConsoleはPT基準)
- canonical URL基準差
- bot/非HTML等の取り扱い差
この記事で使う読解原則
- 直帰率を単体で意思決定しない
- Engagement rateとSession key event rateをセットで見る
- User指標とSession指標を混ぜて増減判断しない
- 直近24〜48時間を確定値として扱わない
5つのデータパターン→アクションレシピ
ここからが本記事の核心です。「このパターンを見たら→これをやる」の5つのレシピを、それぞれ事実(公式定義に基づく)と運用提案(推測)に分けて提示します。
図2: パターン別の対応時間目安
図3: パターン→アクション対応表
| パターン | 最初に見る画面 | 主指標 | 典型原因レイヤ | 初動アクション |
|---|---|---|---|---|
| 1. セッション急落 | Traffic acquisition | Sessions, Session source/medium | 需要/露出、計測、配信障害 | 流入源特定→GSC突合→計測確認 |
| 2. 横ばい停滞 | User + Traffic acquisition | New users, Sessions, Engaged sessions | 獲得不足、再訪不足、訴求停滞 | 新規不足か再訪不足かを分解 |
| 3. 局所的成功 | Landing page | Sessions, Engagement rate, Key event率 | 入口ページ適合、検索意図一致 | 成功LP要因を抽出し横展開 |
| 4. 直帰率高止まり | Landing page + Engagement | Bounce rate, Engagement rate | 導線、表示速度、訴求ミスマッチ | 直帰単体判断をやめ複合指標で判定 |
| 5. CV率低下 | Key events関連レポート | sessionKeyEventRate, keyEvents | 定義変更、フォーム障害、質変化 | Key event定義確認→分母分子分解 |
パターン1: セッション急落(全体)
事実- セッションはセッションスコープ指標で、流入評価はTraffic acquisitionが基本
- Search ConsoleのクリックとGA4のセッションは定義が異なるため、完全一致しない
初動を3段階に固定すると、パニック対応や誤判定を減らせます。
- 15分:GA4のTraffic acquisitionでチャネル別の減少箇所を特定する(Organic Search/Paid Search/Direct/Social等)
- 60分:Search Consoleで同期間のClicks/Impressions/Positionを確認し、検索側の変動か計測側の問題かを切り分ける
- 当日中:タグ実装・同意設定・直近のリリース差分を確認する
- 総セッション数だけを見て「SEOが落ちた」と断定する(実際はPaid停止やDirect減少かもしれない)
- 直近24時間のデータを確定値として扱い、緊急対応を始める
パターン2: 横ばい停滞(伸びない)
事実- User acquisitionとTraffic acquisitionは用途が違う(ユーザースコープ vs セッションスコープ)
- GA4にはBenchmarking機能が実装されている
停滞の解像度を上げるには、まず「新規不足」か「再訪不足」かを分けます。
- 新規不足の確認:User acquisitionでfirst user sourceの弱化を確認
- 再訪不足の確認:Traffic acquisitionでreturningユーザー寄りの劣化を確認
- 入口品質の確認:Landing pageでEngagement rate/Key event率を確認
- チャネル全体に同じ施策を一律に打つ(原因がチャネルごとに異なる可能性を無視)
- 獲得施策だけで停滞を解消しようとする(再訪の問題かもしれない)
パターン3: 局所的成功(特定LPだけ伸びる)
事実- Landing page reportは「そのセッションの最初のページ」を起点に分析できる
局所成功は「再現資産」として扱います。
- 成功LPの流入源を特定する:セカンダリ次元でsession source/mediumを確認
- 成功要因を言語化する:そのLPの検索意図と訴求軸、CTA、導線、見出し構成を整理
- テンプレート化する:再現可能な要素を抽出してテンプレートにする
- 類似ページへ横展開する:テンプレートを適用し、効果を検証する
- 単月の一時的な上振れを「成功法則」と認定する(季節性やトレンドの影響かもしれない)
- 流入増だけを見てCV品質を見落とす(PVは増えたがCVにつながっていない場合がある)
パターン4: 直帰率高止まり
事実- GA4のバウンス率は「非エンゲージドセッション率」(UA時代の定義とは異なる)
- エンゲージド判定には3条件(10秒超/Key event/2ページ以上)がある
判定は3指標の同時確認にします。バウンス率だけで改善判断をしません。
- Bounce rate:非エンゲージドセッション率を確認
- Engagement rate:エンゲージドセッション率を確認
- Session key event rate:セッション内でKey eventが発生した率を確認
この3つが同時に悪化しているページを優先改善対象にします。1つだけ悪い場合は、原因が異なる可能性があるため、分解してから判断します。
失敗しやすい判断- バウンス率だけを見てページを改修する(エンゲージメント率は高いかもしれない)
- ページ速度だけに原因を寄せる(訴求のミスマッチや導線設計の問題かもしれない)
パターン5: CV率(Key event率)低下
事実- GA4は
conversionからkey eventへ命名体系が更新されている(Data API changelog、2024年5月6日の変更) - Data APIでは
sessionKeyEventRate/userKeyEventRateが正規の指標名
CV率の低下に気づいたら、先に定義変更を疑うのが最も効率的です。
- Key event設定の変更履歴を確認:最近Key eventの定義を変更していないか
- 計測イベントの発火確認:タグの動作に異常がないか
- 分母分子の分解:主要LP/主要チャネルごとに、Key event数とSessionsをそれぞれ確認する
- 率(%)のみで判断し、分母(Sessions)の急増を見落とす(流入が増えた結果、率が下がっただけかもしれない)
- Key eventの定義変更や命名変更(conversion→key event)を見落とす
週次・月次の運用ルーティン
5つのパターンを「知っている」だけでは不十分です。定期的にデータを見る習慣を仕組み化しないと、異常に気づくのが遅れます。
週次ルーティン(約35分)
| ステップ | 内容 | 時間目安 |
|---|---|---|
| 1. 全体ヘルス確認 | Sessions, Engagement rate, Session key event rateの増減を確認 | 5分 |
| 2. チャネル確認 | Traffic acquisitionで上位3チャネルの変動を確認 | 5分 |
| 3. 入口確認 | Landing pageで上位10ページの指標を確認 | 8分 |
| 4. 検索確認 | Search Consoleで上位クエリ/ページの変化を確認 | 7分 |
| 5. 品質確認 | データ鮮度/しきい値/(other)/サンプリングの影響を確認 | 3分 |
| 6. アクション決定 | 今週やることを3件までに絞る | 7分 |
アクションは3件までに絞るのがポイントです。データを見ると「あれもこれも」と手を広げたくなりますが、実行できる施策に集中した方が効果を検証しやすくなります。
月次ルーティン(90分)
| ステップ | 内容 | 時間目安 |
|---|---|---|
| 1. パターン分類の再評価 | 今月のデータを5パターンに当てはめ、先月との変化を確認 | 30分 |
| 2. 前月アクションの効果確認 | 先月実行した施策の効果を、指標変動と突き合わせて検証 | 20分 |
| 3. 成功要因テンプレート更新 | 局所的成功パターンの横展開可否を判定 | 20分 |
| 4. 計測定義の棚卸し | Key eventの定義、カスタム定義の追加/変更を確認 | 20分 |
データ読解で最も大切な3つの問い
分析の経験や統計知識の有無にかかわらず、以下の3つの問いを毎回自分に向けることで、判断の精度が上がります。
- 何が起きたか(事実)— 指標は具体的にいくら変動したか
- なぜそう言えるか(根拠)— その変動の原因はデータで裏付けられるか
- 次に何をするか(行動)— 具体的なアクションは1つに絞れるか
誤読防止チェックリスト(付録)
分析を始める前に、以下の7項目を確認してください。1つでも該当する場合は、その制約を踏まえた上で判断する必要があります。
- データ鮮度:直近24〜48時間は暫定値の可能性がある
- しきい値:demographic系や一部条件で値が欠けることがある
- (other)行:高カーディナリティで一部データが集約されている
- サンプリング:Explore/APIでサンプリングが発生している
- スコープ混在:User指標とSession指標を混在比較していないか
- タイムゾーン差:GA4(設定タイムゾーン)とSearch Console(PT基準)の時刻基準差
- canonical差:Search Consoleはcanonical基準、GA4は計測URL基準
あわせて読みたい
まとめ
本記事で提示したアクセスデータ読解ガイドのポイントを整理します。
- データ読解の本質は「次の行動を決めること」 — 数値を読む技術より、判断手順を持つことが重要。非アナリストに必要なのは統計知識ではなく4つの能力(用語リテラシー・比較条件・品質検知・仮説分離)
- まず3画面だけ押さえる — Traffic acquisition(流入)、User acquisition(獲得)、Landing page(入口品質)の3つで十分に状況を把握できる
- データを読む前にデータ品質を確認する — 鮮度・しきい値・(other)・サンプリング・スコープ混在の5つの制約を見落とすと、制約による変動を「実際の変化」と誤認する
- 5パターン→アクションレシピで判断する — セッション急落/横ばい停滞/局所的成功/直帰率高止まり/CV率低下の5パターンを覚え、パターンごとの初動手順を固定する
- 週次約35分・月次90分で仕組み化する — データを見る習慣を定期ルーティンとして固定し、アクションは週3件までに絞る
- GA4とSearch Consoleは合わせて読む — 両者の数値が一致しないのは正常。「流入前」と「流入後」を分離して見ることで、原因の切り分けが正確になる
アクセスデータの読解体制の構築や、自社データに基づく5パターンの判定基準のカスタマイズについて、具体的なご相談を承っています。週次・月次ルーティンの設計から、GA4/Search Consoleの計測設計まで、実務に即したサポートが可能です。
Agenticベースへお問い合わせこの記事の著者
Agentic Base 編集部
AIエージェントとWebメディア運用の知見を活かし、実践的なナレッジを発信しています。



