Big4出身フリーランスがClaude Codeで記事改善ループを自動化した話

目次
コンサルを辞めて独立すると、全ての業務を自分1人でやることになる。案件獲得、実務、経理、そしてブログ・メディア運営も含めて。特にメディア運営で詰まるのが「データを見て仮説を立てて改善する」サイクルだ。コンサル時代はチームで分担できた作業を、1人で同じスピードで回すのは無理がある。
この記事では、僕がBig4を辞めてフリーランスになった後、Claude Codeとデータ分析APIを組み合わせて、メディア改善の仮説検証サイクルを1日で7つ並行で回せる仕組みを作った話を書く。コンサル出身の独立フリーランスにとって、自分の時間を最大の希少資源として扱うための一つの解だ。
1. 独立後のメディア運営で詰んだ話
僕は独立してからコンサルキャリアをテーマにした媒体を運営している。記事を書き、Google AnalyticsとSearch Consoleでアクセスを見て、仮説を立てて改善する——書くだけなら問題なく回せるが、改善サイクルでいつも詰まっていた。
独立後のメディア運営で典型的に詰まる3箇所
- データ取得:GA4とSearch Consoleを毎週見に行くのがだるい
- 仮説生成:どの記事のどこを直せば効くか、判断に時間がかかる
- 実装:タイトル書き換え・内部リンク追加・新規執筆を片手間でやると1週間消える
コンサル時代なら、アナリストがデータを整形して、マネージャーが仮説を出して、コンサルタントが実装する——役割分担で回っていた。独立後は全部1人でやるから、「分析」と「執筆」のどちらかが犠牲になる。
多くのフリーランスコンサルタントが経験しているはずのこの壁を、僕は今年、AIを組み合わせて壊した。
2. 使ったのはClaude Codeと3つのAPI
自動化の主役はClaude Code——Anthropicが提供するコーディングエージェントだ。CLIで動作し、ファイルを読み書きしてgitコミットまで実行してくれる。
データ取得のために使ったのは以下の3つのAPI。
- GA4 Data API:ページ別のアクセス・イベント・流入元を取得
- Google Search Console API:検索クエリ・順位・CTR・インプレッションを取得
- Bing Webmaster API:Bing検索側のクエリ情報を取得(日本でもBing経由は全流入の30%近くある)
スケジューリングにはGitHub Actionsを使い、毎週月曜9時(JST)に自動実行している。週次でリポジトリに分析結果のJSONファイルとMarkdownサマリーがコミットされる。
コード自体は僕が書いたわけじゃない。Claude Codeに「GA4とSearch Consoleから週次でデータを取るNode.jsスクリプトを書いて、サマリーのMarkdownも生成して」と頼んだら、30分で完成した。
3. 自動化した全体フロー
具体的に何が自動化されているか、ステップごとに整理する。
Step 1:データ取得(週次、自動コミット)
GitHub Actionsが月曜9時に起動。GA4とSearch ConsoleとBing Webmasterから過去7日間のデータを取得し、analytics-data/ ディレクトリにJSONで保存。新しい週のデータが揃えば自動でchore(analytics): weekly report YYYY-MM-DDというコミットが走る。
Step 2:サマリー生成
同じスクリプトが、取得したデータを元にClaude-readableなMarkdownサマリーを生成する。含まれる情報は、週次PVと先週比、カテゴリ別パフォーマンス、Top検索クエリ、CTA発火状況、そして「Top 3 priorities」という改善アクション候補だ。
Step 3:Claude Codeに読ませる
ローカルでgit pullしてから、Claude Codeに「analytics-data/summary/latest.md を読んで、Top 3 priorities を今週やるべきことに変換して」と指示する。Claude Codeはサマリーを読み、具体的な改善案を出してくれる。
Step 4:実装までClaude Codeに任せる
「じゃあこの記事のタイトルを書き直して」と頼むと、Claude Codeは対象の記事ファイルを開き、frontmatterのtitleとdescriptionを書き換えてgitコミットまで実行する。
ここまでのフローで人間がやるのは3つだけ
git pullして最新データを取る- Claude Codeに「今週のpriorityは?」と聞く
- 提案を承認してコミットを承認する
Step 5:計測と次のループ
書き換えた記事はGoogle Indexing APIで即時再クロール通知。次週のGitHub Actions自動実行で効果が計測される。うまくいけばCTRが上がり、うまくいかなければ次の仮説に進む。
データを毎週自動でコミットしているから、WoW(週次比較)のdiffが自然に取れる。これが効いた・効かなかったの判定がクリーンに回る。
4. コンサル出身者にこそ刺さる理由
このフローは、コンサル出身者にとって特に使いやすい構造になっている。
理由1:ロジカルな仮説検証力がそのまま活きる
データを見て「なぜCTRが低いのか」を言語化し、「タイトルがクエリとミスマッチしている」「ベネフィットが不可視」のような仮説に落とすのは、コンサル業務で毎日やっていることだ。Claude Codeに指示するには、まさにこの仮説の言語化が必要になる。
理由2:Claude Codeとのやり取りが「Jrコンサルとのレビュー」に似ている
「このタイトル、クエリ全体をカバーしていないから書き直して。根拠はこのクエリがpos 11でCTR 0%だから」——この指示の出し方は、コンサル時代にジュニアメンバーに作業を依頼する時と完全に同じ構造だ。Claude Codeは指示の抽象度を上げすぎると雑に動くが、コンサル式の具体指示を出せば狙い通りに動く。
理由3:独立後のSG&Aが減る
フリーランスのSG&A(販管費)の最大項目は、自分の時間だ。メディア改善の分析に週8時間かけていたのが、Claude Codeに任せれば週30分で済む。浮いた7.5時間を本業のクライアントワークに充てれば、月額数十万円の売上増に直結する。
コンサル×AIで年収はどれだけ上がるかでも書いたが、コンサル出身者のAI×スキル掛け合わせは、市場で希少な人材像になっている。
5. 実例:1日で10コミット・7実験を並行稼働
これは机上の話ではない。実際に1日でやったことを書く。
朝、GA4とSearch Consoleの週次サマリーをClaude Codeに読ませた。サマリーから以下の課題が浮かんだ。
- あるキーワードが検索で62インプレッション出ているのに、CTR 0%
- 中盤に挿入している誘導ボックス(CTA)が40回表示されてクリック0件
- Big4関連のクエリ群が50以上あるが、まとめて受ける記事がない
ここからClaude Codeと一緒に、1日で10コミットを回した。
- 既存記事のタイトル書き換え(5件、各15分)
- 誘導ボックスのデザイン全面改修(1件、30分)
- Big4を網羅する新規ハブ記事の執筆(1件、1時間、約6,500字)
- 新規ハブ記事への被リンク補強(8記事、各5分)
- サマリーに「タイトルと検索クエリの不一致を自動検出する機能」を追加(30分)
実例の重要な点
- これら10コミットは全てClaude Code経由で実装・コミットされた
- 僕が書いたコード行数はゼロ
- 僕がやったのは仮説立て・判断・承認のみ
- この記事が公開されている時点で、10コミット全てがproduction環境に反映されている
7つの独立した実験が並行稼働しているので、次週のサマリーで「どの施策がどれだけ効いたか」を個別に検証できる。この因果分離が、改善サイクルの学習速度を加速させる。
6. 始めるのに必要なもの
このフローを始めるためのチェックリストを書いておく。
必要ツール
- Claude Code(Anthropic CLI):Pro プランで月$20〜。コンサル業務も自動化するなら初日で元が取れる
- GCPアカウント:GA4 Data APIとSearch Console APIを有効化。課金登録は必要だが、週次の小規模クエリでは無料枠に収まる
- GitHub private repo:月2,000分までActions無料。週次cronは余裕で収まる
- Netlify等のホスティング:既存のものでOK
必要スキル
- ターミナルの基本操作(ls、cd、git)
- 簡単なコードレビュー能力(Claude Codeが書いたスクリプトを「何となく読める」レベル)
- プログラミング経験は不要
初期セットアップの所要時間
僕の場合、ゼロから動く状態まで2〜3時間だった。内訳は:
- GCPサービスアカウント作成とAPI有効化:30分
- Claude Codeにスクリプトを書いてもらう:30分
- GitHub Actionsのyml書いてもらう:30分
- 試行錯誤:1時間
Big4時代にPythonを触ったことがある人なら、さらに早く終わる。
7. 独立後のキャリアへの示唆
このフロー自体の面白さより重要なのは、独立後のフリーランスコンサルタントのキャリア戦略としての意味合いだ。
フリーランスは時間単価で収益が決まる。週に1時間節約できれば、それは月4時間、年48時間。時給1万円の案件に換算すれば年48万円の収益増だ。
僕は独立後、メディア運営だけでなく、クライアントワークの議事録整理・資料ドラフト・市場調査レポートの骨子作成も、AIと組み合わせることで工数を1/3にした。Big4を辞めてフリーランスになった1年目のリアルな工数配分の変化はここにまとめている。
コンサル出身者のキャリア5パターンでも書いたが、独立という選択肢を取る時、AIで生産性を補強できるかどうかは、持続可能性を大きく左右する。
まとめ
AIでメディア運営を自動化した実録を書いたが、核心はシンプルだ。
この記事のポイント
- コンサル時代のロジカルな仮説検証力は、AIとのペア作業で最大化される
- Claude Codeとデータ分析APIを組み合わせれば、メディア改善サイクルを週30分で回せる
- 独立後のフリーランスコンサルにとって、時間を買い戻すAI活用は競争優位の源泉になる
- 始めるのに必要なのは、ターミナルが開ける最低限のスキルだけ
コンサルで培った思考方法を、AIと組み合わせて掛け算する。これが独立後のキャリア戦略として、最も費用対効果が高い動き方だと僕は思っている。
この記事が参考になったら応援お願いします
にほんブログ村 転職キャリアブログへあなたの次の一歩は?
Kay
IT業界12年Big4コンサル出身日英バイリンガル新卒でメガベンチャーに入社後、ITベンチャー、事業会社のシステム部門を経て、Big4コンサルファームでITコンサルタントとしてチームリーダーを務める。その後フリーランスとして独立し、現在はAI活用コンサルティング・ITコンサルティングを中心に活動。日英バイリンガル。


