Reboot Hub

Big4出身フリーランスがClaude Codeで記事改善ループを自動化した話

AI×コンサルキャリア10分で読める
Kay
KayBig4出身のAI・ITコンサルタント
Big4出身フリーランスがClaude Codeで記事改善ループを自動化した話
シェア:XはてブLINE
目次

コンサルを辞めて独立すると、全ての業務を自分1人でやることになる。案件獲得、実務、経理、そしてブログ・メディア運営も含めて。特にメディア運営で詰まるのが「データを見て仮説を立てて改善する」サイクルだ。コンサル時代はチームで分担できた作業を、1人で同じスピードで回すのは無理がある。

この記事では、僕がBig4を辞めてフリーランスになった後、Claude Codeとデータ分析APIを組み合わせて、メディア改善の仮説検証サイクルを1日で7つ並行で回せる仕組みを作った話を書く。コンサル出身の独立フリーランスにとって、自分の時間を最大の希少資源として扱うための一つの解だ。

1. 独立後のメディア運営で詰んだ話

僕は独立してからコンサルキャリアをテーマにした媒体を運営している。記事を書き、Google AnalyticsとSearch Consoleでアクセスを見て、仮説を立てて改善する——書くだけなら問題なく回せるが、改善サイクルでいつも詰まっていた。

独立後のメディア運営で典型的に詰まる3箇所

  • データ取得:GA4とSearch Consoleを毎週見に行くのがだるい
  • 仮説生成:どの記事のどこを直せば効くか、判断に時間がかかる
  • 実装:タイトル書き換え・内部リンク追加・新規執筆を片手間でやると1週間消える

コンサル時代なら、アナリストがデータを整形して、マネージャーが仮説を出して、コンサルタントが実装する——役割分担で回っていた。独立後は全部1人でやるから、「分析」と「執筆」のどちらかが犠牲になる。

多くのフリーランスコンサルタントが経験しているはずのこの壁を、僕は今年、AIを組み合わせて壊した。

2. 使ったのはClaude Codeと3つのAPI

自動化の主役はClaude Code——Anthropicが提供するコーディングエージェントだ。CLIで動作し、ファイルを読み書きしてgitコミットまで実行してくれる。

データ取得のために使ったのは以下の3つのAPI。

  • GA4 Data API:ページ別のアクセス・イベント・流入元を取得
  • Google Search Console API:検索クエリ・順位・CTR・インプレッションを取得
  • Bing Webmaster API:Bing検索側のクエリ情報を取得(日本でもBing経由は全流入の30%近くある)

スケジューリングにはGitHub Actionsを使い、毎週月曜9時(JST)に自動実行している。週次でリポジトリに分析結果のJSONファイルとMarkdownサマリーがコミットされる。

重要なのは、すべて「コードで書ける範囲」に収まっていること。複雑なBIツールも、有料のSaaSも不要。全部GCPとGitHubの無料枠で動く。

コード自体は僕が書いたわけじゃない。Claude Codeに「GA4とSearch Consoleから週次でデータを取るNode.jsスクリプトを書いて、サマリーのMarkdownも生成して」と頼んだら、30分で完成した。

3. 自動化した全体フロー

具体的に何が自動化されているか、ステップごとに整理する。

Step 1:データ取得(週次、自動コミット)

GitHub Actionsが月曜9時に起動。GA4とSearch ConsoleとBing Webmasterから過去7日間のデータを取得し、analytics-data/ ディレクトリにJSONで保存。新しい週のデータが揃えば自動でchore(analytics): weekly report YYYY-MM-DDというコミットが走る。

Step 2:サマリー生成

同じスクリプトが、取得したデータを元にClaude-readableなMarkdownサマリーを生成する。含まれる情報は、週次PVと先週比、カテゴリ別パフォーマンス、Top検索クエリ、CTA発火状況、そして「Top 3 priorities」という改善アクション候補だ。

Step 3:Claude Codeに読ませる

ローカルでgit pullしてから、Claude Codeに「analytics-data/summary/latest.md を読んで、Top 3 priorities を今週やるべきことに変換して」と指示する。Claude Codeはサマリーを読み、具体的な改善案を出してくれる。

Step 4:実装までClaude Codeに任せる

「じゃあこの記事のタイトルを書き直して」と頼むと、Claude Codeは対象の記事ファイルを開き、frontmatterのtitleとdescriptionを書き換えてgitコミットまで実行する。

ここまでのフローで人間がやるのは3つだけ

  • git pullして最新データを取る
  • Claude Codeに「今週のpriorityは?」と聞く
  • 提案を承認してコミットを承認する

Step 5:計測と次のループ

書き換えた記事はGoogle Indexing APIで即時再クロール通知。次週のGitHub Actions自動実行で効果が計測される。うまくいけばCTRが上がり、うまくいかなければ次の仮説に進む。

データを毎週自動でコミットしているから、WoW(週次比較)のdiffが自然に取れる。これが効いた・効かなかったの判定がクリーンに回る。

4. コンサル出身者にこそ刺さる理由

このフローは、コンサル出身者にとって特に使いやすい構造になっている。

理由1:ロジカルな仮説検証力がそのまま活きる

データを見て「なぜCTRが低いのか」を言語化し、「タイトルがクエリとミスマッチしている」「ベネフィットが不可視」のような仮説に落とすのは、コンサル業務で毎日やっていることだ。Claude Codeに指示するには、まさにこの仮説の言語化が必要になる。

理由2:Claude Codeとのやり取りが「Jrコンサルとのレビュー」に似ている

「このタイトル、クエリ全体をカバーしていないから書き直して。根拠はこのクエリがpos 11でCTR 0%だから」——この指示の出し方は、コンサル時代にジュニアメンバーに作業を依頼する時と完全に同じ構造だ。Claude Codeは指示の抽象度を上げすぎると雑に動くが、コンサル式の具体指示を出せば狙い通りに動く。

理由3:独立後のSG&Aが減る

フリーランスのSG&A(販管費)の最大項目は、自分の時間だ。メディア改善の分析に週8時間かけていたのが、Claude Codeに任せれば週30分で済む。浮いた7.5時間を本業のクライアントワークに充てれば、月額数十万円の売上増に直結する。

コンサル時代に培った「論点整理」「仮説検証」「フレームワーク思考」は、AIとペアで作業する時に最も活きる。逆に、これらが苦手なエンジニアがClaude Codeを使うと、指示が曖昧で期待通りのアウトプットが出ないケースが多い。

コンサル×AIで年収はどれだけ上がるかでも書いたが、コンサル出身者のAI×スキル掛け合わせは、市場で希少な人材像になっている。

5. 実例:1日で10コミット・7実験を並行稼働

これは机上の話ではない。実際に1日でやったことを書く。

朝、GA4とSearch Consoleの週次サマリーをClaude Codeに読ませた。サマリーから以下の課題が浮かんだ。

  • あるキーワードが検索で62インプレッション出ているのに、CTR 0%
  • 中盤に挿入している誘導ボックス(CTA)が40回表示されてクリック0件
  • Big4関連のクエリ群が50以上あるが、まとめて受ける記事がない

ここからClaude Codeと一緒に、1日で10コミットを回した。

  • 既存記事のタイトル書き換え(5件、各15分)
  • 誘導ボックスのデザイン全面改修(1件、30分)
  • Big4を網羅する新規ハブ記事の執筆(1件、1時間、約6,500字)
  • 新規ハブ記事への被リンク補強(8記事、各5分)
  • サマリーに「タイトルと検索クエリの不一致を自動検出する機能」を追加(30分)

実例の重要な点

  • これら10コミットは全てClaude Code経由で実装・コミットされた
  • 僕が書いたコード行数はゼロ
  • 僕がやったのは仮説立て・判断・承認のみ
  • この記事が公開されている時点で、10コミット全てがproduction環境に反映されている

7つの独立した実験が並行稼働しているので、次週のサマリーで「どの施策がどれだけ効いたか」を個別に検証できる。この因果分離が、改善サイクルの学習速度を加速させる。

6. 始めるのに必要なもの

このフローを始めるためのチェックリストを書いておく。

必要ツール

  • Claude Code(Anthropic CLI):Pro プランで月$20〜。コンサル業務も自動化するなら初日で元が取れる
  • GCPアカウント:GA4 Data APIとSearch Console APIを有効化。課金登録は必要だが、週次の小規模クエリでは無料枠に収まる
  • GitHub private repo:月2,000分までActions無料。週次cronは余裕で収まる
  • Netlify等のホスティング:既存のものでOK

必要スキル

  • ターミナルの基本操作(ls、cd、git)
  • 簡単なコードレビュー能力(Claude Codeが書いたスクリプトを「何となく読める」レベル)
  • プログラミング経験は不要

初期セットアップの所要時間

僕の場合、ゼロから動く状態まで2〜3時間だった。内訳は:

  • GCPサービスアカウント作成とAPI有効化:30分
  • Claude Codeにスクリプトを書いてもらう:30分
  • GitHub Actionsのyml書いてもらう:30分
  • 試行錯誤:1時間

Big4時代にPythonを触ったことがある人なら、さらに早く終わる。

7. 独立後のキャリアへの示唆

このフロー自体の面白さより重要なのは、独立後のフリーランスコンサルタントのキャリア戦略としての意味合いだ。

フリーランスは時間単価で収益が決まる。週に1時間節約できれば、それは月4時間、年48時間。時給1万円の案件に換算すれば年48万円の収益増だ。

僕は独立後、メディア運営だけでなく、クライアントワークの議事録整理・資料ドラフト・市場調査レポートの骨子作成も、AIと組み合わせることで工数を1/3にした。Big4を辞めてフリーランスになった1年目のリアルな工数配分の変化はここにまとめている。

コンサル出身者のキャリア5パターンでも書いたが、独立という選択肢を取る時、AIで生産性を補強できるかどうかは、持続可能性を大きく左右する。

まとめ

AIでメディア運営を自動化した実録を書いたが、核心はシンプルだ。

この記事のポイント

  • コンサル時代のロジカルな仮説検証力は、AIとのペア作業で最大化される
  • Claude Codeとデータ分析APIを組み合わせれば、メディア改善サイクルを週30分で回せる
  • 独立後のフリーランスコンサルにとって、時間を買い戻すAI活用は競争優位の源泉になる
  • 始めるのに必要なのは、ターミナルが開ける最低限のスキルだけ

コンサルで培った思考方法を、AIと組み合わせて掛け算する。これが独立後のキャリア戦略として、最も費用対効果が高い動き方だと僕は思っている。

この記事が参考になったら応援お願いします

にほんブログ村 転職キャリアブログへ
シェア:XはてブLINE
Kay

Kay

IT業界12年Big4コンサル出身日英バイリンガル

新卒でメガベンチャーに入社後、ITベンチャー、事業会社のシステム部門を経て、Big4コンサルファームでITコンサルタントとしてチームリーダーを務める。その後フリーランスとして独立し、現在はAI活用コンサルティング・ITコンサルティングを中心に活動。日英バイリンガル。

この記事のプロンプトをまとめたパッケージ

AI業務自動化テンプレート集

コンサル実務で使えるAI業務自動化のプロンプトテンプレート50選。Claude API・ChatGPT対応。

¥9,800

詳細を見る