年齢別

20代データサイエンティストの職務経歴書|差がつく書き方と実例

ショクレキ代行
📌 この記事でわかること
  • 20代データサイエンティストが採用担当者に評価される職務経歴書の書き方
  • 経験が浅くても「即戦力候補」として見せる方法
  • 担当領域(分析・モデル開発・ダッシュボード構築)別の伝え方
  • SQL・Python・BIツール・MLライブラリの書き方
  • 経験年数別(1〜2年・3〜4年・5年前後)の書き方の違い
  • NG例・改善例つきで今日から使える例文

「データ分析や機械学習モデルの開発で実務経験を積んできたのに、職務経歴書に何を書けばいいかわからない」「業務でやってきたことが分析屋なのかエンジニア寄りなのか区別がつかない」20代データサイエンティストの転職活動でよく聞く悩みです。

20代データサイエンティストの転職市場では「経験の深さ」より「分析量とスピード」「事業課題への翻訳力」「他チームとの協働姿勢」が評価されます。多くの20代が「Kaggleの上位入賞経験がない」「論文発表経験がない」と思い込み、自分を過小評価した職務経歴書を書いてしまっています。

採用担当者が20代データサイエンティストに期待しているのは「完成された研究者」ではありません。「分析量と学習スピード」「SQL・Python・BIツールへの実務適応力」「事業課題と分析を接続する姿勢」です。この3点を職務経歴書で伝えられれば、経験が浅くても十分に評価されます。

採用担当は何を見ている?

20代データサイエンティストの採用担当者が職務経歴書で確認しているのは、主に次の3点です。

観点内容
担当領域と分析・開発の量データ分析(アドホック分析・レポーティング)、ダッシュボード構築、機械学習モデル開発、ABテスト設計など、担当領域と件数を確認している。「月次定常レポート約8本」「ABテスト分析年間約25件」「機械学習モデル本番デプロイ3件」のような具体的な数字が判断材料になる
使用言語・ツールと習熟度SQL(BigQuery・Snowflake・Redshift)、Python(pandas・scikit-learn・PyTorch・TensorFlow)、BI(Tableau・Looker Studio・Power BI)、Notebook(Jupyter・Databricks)への対応を確認している。「業務日常使用」「個人プロジェクトで使用」を分けて書ける具体性が評価される
事業課題への翻訳力分析が「キレイなレポート」で終わらず、ビジネスの意思決定や施策に接続できているか。「離脱率が高いユーザーセグメントを特定→マーケチームに施策提案→CVR改善」のような数字接続が書けると評価される

ポイント

採用担当者の視点:「20代データサイエンティストで最も差がつくのは、分析が事業に接続しているか。Kaggleや論文より、『この分析でいくら売上が動いた』『このABテスト結果でこう判断した』が書ける人は面接に呼びたくなる。LLM・生成AI を業務にどう活用しているかも重要なシグナル」

よくある失敗(書類が通らない人に共通する3つのパターン)

パターン①:「データ分析を担当」で終わっている

「自社サービスのデータ分析を担当してきました」という記述では、採用担当者には何も伝わりません。担当領域(アドホック分析・ダッシュボード構築・モデル開発)、扱ったデータ規模、分析件数、使用ツールが書かれて初めて評価材料になります。

パターン②:使用ツールを並べるだけで習熟度が伝わらない

「SQL・Python・Tableau・PyTorch 使用経験あり」と並べるだけでは、どのツールをどう使えるかが判断できません。「SQL(BigQuery 業務日常使用・ウィンドウ関数・CTE活用)」「Python(pandas・scikit-learn での前処理〜モデル評価まで実装)」のように、ツールごとに業務での使い方を書くことが重要です。

パターン③:事業課題との接続が書かれていない

20代データサイエンティストで最も差がつくのは「分析した件数」より「分析でビジネスをどう動かしたか」です。「ユーザー行動分析を実施した」だけでなく「離脱率が高いユーザーセグメント(オンボーディング3日目で離脱)を特定し、マーケチームに教育コンテンツ追加を提案。実装後オンボーディング完了率が58%→74%に改善」のような事業接続が書けるかが評価の分かれ目です。

書き方のポイント|20代データサイエンティストならではの伝え方

ポイント①:担当領域とデータ規模を冒頭に明記する

「BtoC SaaSサービス(月間アクティブユーザー約120万人・月間データレコード数約8億件)のデータ分析チームに所属。BigQuery を中心としたアドホック分析・Looker Studio によるダッシュボード構築・ABテスト設計分析を担当」のように、担当領域とデータ規模を冒頭に書くことで業務のスケール感がつかめます。

ポイント②:使用言語・ツールと業務での使い方をセットで書く

データベース(BigQuery・Snowflake・Redshift・PostgreSQL)、言語(Python・R・SQL)、機械学習(scikit-learn・PyTorch・TensorFlow・XGBoost・LightGBM)、BI(Tableau・Looker Studio・Power BI・Metabase)、開発(Git・Docker・Jupyter・Databricks)への対応を、業務での使い方とセットで書きましょう。

ポイント③:分析の事業接続を1〜2件詳しく書く

20代データサイエンティストが差別化できるポイントは「分析を施策・意思決定に接続する力」です。「分析→提案→施策実行→数字の変化」までセットで書ける案件を1〜2件選び、詳しく記述しましょう。「離脱要因分析→マーケへの教育コンテンツ提案→オンボーディング完了率58%→74%改善」のような流れが理想です。

20代データサイエンティストならではの悩みに答える

「機械学習モデルの本番運用経験がない場合、どうアピールすればいい」

本番運用経験は必須ではありません。「分析実務とビジネス接続力」を強みとして書きましょう。「アドホック分析でマーケチームと連携してCVR改善」「ABテスト設計・分析で意思決定を支援」「ダッシュボード整備で経営報告の自動化」など、分析実務での貢献を具体的に書くことで評価されます。MLOps の学習姿勢(個人で MLflow・Airflow・SageMaker を検証中など)を併記すると展開力もアピールできます。

「LLM・生成AIをどう書けばいい」

LLM・生成AI関連の取り組みは積極的に書きましょう。「ChatGPT・Claude の API を使った社内ツール開発」「RAG(Retrieval Augmented Generation)の検証実装」「LangChain・LlamaIndex を使った検証プロトタイプ」のような取り組みが評価されます。業務外の個人プロジェクトでも書く価値があります。

例文

例①:BtoC SaaS・データアナリスト(経験1年半・第二新卒)

従業員数約200名のBtoC SaaSサービス(月間アクティブユーザー約120万人)のデータ分析チームに所属。BigQuery によるアドホック分析・Looker Studio によるダッシュボード構築・ABテスト設計分析を担当。

【業務内容】
・月次定常レポート(約8本)の作成・運用
・マーケ・PM チームからの分析依頼対応(月平均15件)
・ABテスト設計・分析・レポート(年間約25件)
・Looker Studio ダッシュボードの設計・運用(10ダッシュボード)
・経営層への月次データレポートへの数値提供

【実績】
・離脱要因分析→マーケチームへの教育コンテンツ提案により、オンボーディング完了率を58%→74%に改善
・ABテスト結果に基づくUI改善案を提案し、CVR を 2.3%→3.4%に改善
・月次レポート自動化により、レポート作成時間を週8時間→週1時間に短縮
・担当ABテスト結果を踏まえた施策で、年間累計売上に約3,000万円規模の影響
・取得資格:統計検定2級(2024年)・Google Data Analytics Professional(2024年)

【主な取り組み】
入社時はSQLでのアドホック分析が中心だったが、依頼を受けた分析が「レポートを作って終わり」になっていることに課題を感じ、必ず「示唆 → 推奨アクション → 想定効果」までセットで提案するスタイルに変更した。マーケ・PM チームと月次の分析レビュー会を立ち上げ、過去の分析結果が施策にどう活きたかを振り返るサイクルを作った。LLM 活用では、ChatGPT・Claude の API を使った定型レポート文章生成のプロトタイプを業務外で開発し、社内勉強会で共有した。


自己PRでのアピールポイント
データアナリストとして「分析を事業に接続する」姿勢を1年半で実行してきた経験を持つ。SQL・Python・Looker Studio の実務経験と、ABテスト分析・施策提案までセットで動くスタイルが強み。次の職場でもデータドリブンな意思決定の支援に貢献したい。

例②:受託・分析コンサル(経験3年・中堅手前)

従業員数約60名のデータ分析コンサルティング企業にて、複数クライアント(小売・金融・人材の計5社)のデータ分析・モデル開発支援を担当。

【業務内容】
・クライアントの事業データ分析(顧客行動・売上要因・在庫最適化)
・機械学習モデル開発・PoC・本番デプロイ支援(年間6件程度)
・ダッシュボード構築(Tableau・Power BI)
・クライアント側担当者への分析設計支援・教育
・提案資料作成・社内勉強会主催

【実績】
・担当案件数:3年間で計15件(うちアドホック分析8件・モデル開発7件)
・機械学習モデル本番デプロイ:5件(うち需要予測3件・離脱予測2件)
・顧客満足度評価:平均4.5/5.0
・クライアントの事業KPI改善:平均で需要予測精度(MAPE)を25%→12%に改善、離脱率を15%削減した実績
・取得資格:統計検定準1級(2023年)・AWS Machine Learning Specialty(2024年)・Tableau Desktop Specialist(2022年)

【主な取り組み】
受託分析で重要なのは「クライアントが活用できる成果物を作る」ことだった。モデル開発では精度追求だけでなく、「現場が運用できる仕組み」を意識。MLflow による実験管理・モデルレジストリ整備・データドリフト監視まで含めた MLOps 設計を提案・実装した。クライアント側の社内データサイエンティストへの引き継ぎ資料・運用ガイドラインも整備し、自分が抜けた後も運用継続できる状態を作った。LLM 活用では、RAG ベースの社内ナレッジ検索プロトタイプを構築し、クライアント企業向けの提案にも展開した。


自己PRでのアピールポイント
複数業界(小売・金融・人材)のデータ分析・モデル開発支援を経験してきたことが強み。「分析屋で終わらず、現場が運用できる仕組みまで設計する」スタイルで、次の職場でも分析と現場接続の両立に貢献したい。

例③:自社サービス・サブリーダー候補(経験5年・20代後半)

従業員数約400名のメガベンチャー(月間アクティブユーザー約500万人)にて、データサイエンスチームのメンバーとして勤務。3年目からサブリーダーとして後輩2名の指導も担当。

【業務内容】
・自社サービスの機械学習モデル開発・運用(推薦・離脱予測・LTV予測)
・ABテスト設計・大規模分析・経営層への提言
・データ基盤連携(dbt・Airflow による分析パイプライン整備)
・後輩データサイエンティスト2名のレビュー・指導
・マーケ・PM・開発チームとの連携・分析提案

【実績】
・推薦モデルのオフラインCTR 改善:4.2%→6.8%(年間影響:約1.5億円規模)
・離脱予測モデルの本番運用:CRMチームと連携し離脱率を2.1ポイント削減
・ABテスト分析年間約30件・うち継続採用施策の年間売上影響約2億円規模
・データ分析パイプライン整備により、定常レポート工数を月40時間→月8時間に削減
・後輩2名の育成:両名がモデル開発を独立して担当できるレベルに成長
・取得資格:AWS Machine Learning Specialty(2022年)・統計検定1級(2024年)・JDLA E資格(2023年)

【主な取り組み】
サブリーダーとして「分析の属人化排除」と「事業接続サイクルの仕組み化」に注力した。分析依頼の受付フローと優先度判定を整備し、依頼チームと分析チームの認識合わせを高速化。MLflow・Airflow・dbt を組み合わせた分析・モデル運用パイプラインを整備し、再現性のある実験管理を確立した。LLM 活用では、ChatGPT・Claude を分析タスクの初期検討・コード生成・レポート文章生成に組み込み、チーム全体の分析スピードを向上させた。


自己PRでのアピールポイント
データサイエンティストとして「事業接続するモデル開発」「分析チームの仕組み化」「LLM 活用」を5年間追求してきた経験を持つ。次の職場でもデータサイエンス組織の生産性向上と事業貢献に取り組みたい。

書き方ステップ

① 担当領域と分析量を書き出す

担当した分析タイプ(アドホック分析・定常レポート・ダッシュボード構築・モデル開発・ABテスト分析)と件数を書き出します。

② 数字を3軸で探す

規模(データ量・ユーザー数・分析件数)、改善(モデル精度向上・KPI改善・工数削減)、事業接続(提案した施策の売上影響・採用された施策件数)の3軸で数字を探します。

③ 使用言語・ツールと使い方をセットで整理する

SQL(BigQuery・Snowflake等)・Python(pandas・scikit-learn・PyTorch等)・BI(Tableau・Looker Studio等)・MLOps(MLflow・Airflow・SageMaker等)を業務での使い方と一緒に書き出します。

④ LLM・生成AI 活用経験を書く

ChatGPT・Claude・LangChain・LlamaIndex・RAG 検証など、業務または個人での取り組みを記載しましょう。20代では差別化要素になります。

⑤ 事業接続の具体例を1〜2件詳しく書く

「分析→提案→施策実行→数字の変化」の流れを1〜2件詳しく書きます。20代の再現性を示す核心部分です。

NG例 → 改善例|通らない書き方の直し方

失敗①:担当業務の抽象的な記述

NG

自社サービスのデータ分析を担当してきました。

改善後

BtoC SaaSサービス(月間アクティブユーザー約120万人)のデータ分析チームに所属。BigQuery によるアドホック分析・Looker Studio によるダッシュボード構築・ABテスト設計分析を担当。1年半で離脱要因分析からのオンボーディング完了率改善(58%→74%)、ABテスト結果に基づくCVR改善(2.3%→3.4%)を実現した。

失敗②:ツール使用の羅列

NG

使用言語・ツール:SQL、Python、Tableau、PyTorch、scikit-learn

改善後

SQL(BigQuery 業務日常使用・ウィンドウ関数・CTE活用)、Python(pandas・scikit-learn・XGBoost で前処理〜モデル評価まで実装、PyTorch は個人検証中)、Looker Studio(業務日常使用・10ダッシュボード設計運用)、Git/GitHub(チーム開発で日常使用)、Jupyter/Colab(業務日常使用)。資格:統計検定2級(2024年)。

失敗③:事業接続が見えない

NG

ABテスト分析を担当しCVRを改善しました。

改善後

オンボーディングフローのCVR が低い課題に対し、ファネル分析で「3日目離脱」が大半を占めることを特定。離脱者と継続者の行動差分から「初期設定の難易度」が原因と仮説立てし、マーケチームへ教育コンテンツ追加を提案。実装後オンボーディング完了率を58%→74%に改善し、月間アクティブユーザー数の純増に貢献した。

失敗④:LLM・生成AI への対応が書かれていない

NG

これまでのデータ分析経験を活かして貢献したいと思っています。

改善後

LLM 活用:ChatGPT・Claude の API を使った定型レポート文章生成のプロトタイプを業務外で開発し、社内勉強会で共有。RAG(Retrieval Augmented Generation)の検証実装も進めており、LangChain・LlamaIndex を使った社内ナレッジ検索プロトタイプを個人プロジェクトとして構築している。

経験年数別アドバイス

経験1〜2年(第二新卒・若手)

「分析量と学習継続」が最大のアピールポイントです。大きな実績がなくても「月次レポート○本」「ABテスト分析○件」「統計検定2級取得」など、行動量と学習姿勢を具体的に書きましょう。

ポイント

個人で Kaggle・SIGNATE のコンペに参加している場合は積極的に記載しましょう。GitHub にデータ分析・モデル開発のコードを公開していると評価が高まります。

経験3〜4年(中堅手前)

「複数領域の経験」「機械学習モデルの本番デプロイ実績」「事業KPI貢献の数字」が評価の軸になります。アドホック分析に加えて「モデル開発・運用の実装力」を書くことで差別化できます。

経験5年前後(20代後半)

「サブリーダー・チームリードとしての実績」「複数モデルの本番運用経験」「データパイプライン・MLOps 設計」が評価の軸になります。30代に近づくにつれ「個人分析の成果」より「チーム成果・仕組み化」が求められ始めます。

よくある質問

Q. データアナリストからデータサイエンティスト・MLエンジニアへの転換は可能ですか?

可能です。ただし機械学習モデルの実装経験(個人プロジェクト・Kaggle・社内検証PoC等)と、Python での実装力を職務経歴書に書く必要があります。AWS Machine Learning Specialty・JDLA E資格の取得も評価につながります。

Q. Kaggle 経験がないと不利ですか?

不利ではありません。実務での分析・モデル開発実績の方が評価されます。ただし業務外で取り組んでいる場合は積極的に書きましょう。「Kaggle Expert」レベルなら明記する価値があります。

Q. LLM・生成AI への対応はどこまで書けばいいですか?

個人検証レベルでも書く価値があります。「ChatGPT・Claude の API 利用経験」「LangChain・LlamaIndex の検証」「RAG プロトタイプ開発」などの取り組みは差別化になります。実務で導入している場合は必ず書きましょう。

Q. 統計検定・資格はどこまで書くべきですか?

統計検定2級以上、AWS Machine Learning Specialty、JDLA E資格、Tableau認定などは積極的に書きましょう。取得時期も併記すると学習継続の証明になります。

Q. 職務経歴書はA4何枚が適切ですか?

1〜2枚が目安です。担当領域・分析量・使用ツール・事業接続事例・取得資格など20代データサイエンティストならではの情報を優先して記載しましょう。GitHub・技術ブログのURLも添えると評価が高まります。

まとめ

  • 採用担当者は20代データサイエンティストに「分析量と学習スピード」「事業課題への翻訳力」を求めている
  • 担当領域とデータ規模(月間アクティブユーザー数・データ量)を冒頭に明記する
  • 使用言語・ツールは「使用経験あり」ではなく「何をどう使ったか」で書く
  • 「分析→提案→施策→数字の変化」の事業接続を1〜2件詳しく書く
  • LLM・生成AI(ChatGPT・Claude・RAG)の活用経験を書いて差別化する
  • 統計検定・AWS ML Specialty・JDLA E資格などの取得時期と業務活用を書く

20代データサイエンティストの経験は「分析量と事業接続力」として必ず評価されます。まずは担当領域・分析量・使用ツール・事業接続した分析事例を書き出すところから始めてみてください。

梶原
梶原
運営責任者
人事・採用担当として1,000名以上の面接、30社の採用支援に携わった経験をもとに、職務経歴書の作成代行・添削を行っています。 採用側での経験をもとに、評価される書類づくりをサポートしています。「経験はあるのに書類で落ちる」という方に特に支持をいただいています。 これまでのご支援数は370名以上。製造・IT・金融・医療・サービス業など、幅広い業界・職種に対応しております。 職務経歴書の書き方にお悩みの方は、お気軽にご相談ください!
記事URLをコピーしました