2026 年 5 月、InfoQ で Presentation: Leadership in AI-Assisted Engineering が公開され、Justin Reock 氏が GenAI Divide — パイロットの 95%が失敗する現象と、それを乗り越えるための DORA / SPACE / Core 4 フレームワークの活用法を語りました。アネクドートを超えて、DORA・DX 研究の硬いデータで AI の ROI を測るという主張です。
弊社では受託案件で 「AI を導入したい、でも効果が見えない」というご相談が増えています。本記事では、3 つのフレームワークを受託の現場で使うための実装、契約に組み込む KPI 設計、落とし穴を整理します。
なぜ 95%のパイロットが失敗するのか
GenAI Divide の核心は、「ツール導入は成功するが、組織変革は失敗する」ギャップにあります。受託案件の典型的な失敗パターンは以下のとおりです。
| 失敗パターン | 受託案件での現れ方 |
|---|---|
| 計測なし | 「使ってる人いるよね」で終わる |
| 指標が出力量 | コミット数 / 行数だけを KPI にし、品質劣化を見逃す |
| 個人の生産性のみ | チーム全体のリードタイムが改善しない |
| 学習投資ゼロ | 「使えば慣れる」で放置、誰も活用パターンを共有しない |
| 経営の関心なし | 中間管理層が成果を翻訳できず、予算が継続しない |
これらは AI エージェント企業二極化 2026 で扱った “勝ち組と負け組の差” と同じ構造で、「ツール導入の上にある組織設計」が抜けているのが根本原因です。
3 つのフレームワークを受託に翻訳する
Reock 氏が推奨する 3 つのフレームワークを、受託の現場でどう使うかを整理します。
DORA — デリバリー速度・安定性の指標
DORA は 「ソフトウェアデリバリーの速度と安定性」を 4 指標で測ります。
| DORA 指標 | 内容 | 受託での使いどころ |
|---|---|---|
| デプロイ頻度 | 本番デプロイの回数 / 期間 | 月次レポートのトップ指標 |
| 変更リードタイム | コミットから本番までの時間 | スプリント別に追跡 |
| 平均復旧時間(MTTR) | 障害発生から復旧までの時間 | SLA との整合 |
| 変更失敗率 | 本番で障害を起こす変更の割合 | 自動化前後の比較 |
DORA は 「お客様が直接価値を感じる指標」なので、契約の月次レポートに入れやすい性質があります。
SPACE — 5 次元で生産性を測る
SPACE は 「生産性は単一指標で測れない」という前提のフレームワークです。
| 次元 | 受託での使い方 |
|---|---|
| Satisfaction(満足度) | 開発者・顧客 PM の満足度サーベイ |
| Performance(成果) | 顧客ビジネス KPI への寄与 |
| Activity(活動量) | コミット・PR・レビュー数 |
| Communication(連携) | レビュー応答時間・ペアプロ時間 |
| Efficiency(効率) | 中断回数・コンテキストスイッチ数 |
特に Activity だけで判断しないのが SPACE の主旨で、「コミット数は減ったが満足度が上がった」ようなケースを正しく評価できます。
Core 4 — 経営に翻訳する 4 指標
Core 4 は DORA と SPACE の間を埋める 「経営報告用」の指標群です。
| Core 4 指標 | 内容 |
|---|---|
| Speed | リードタイム・サイクルタイム |
| Quality | バグ密度・本番障害件数 |
| Impact | 顧客 KPI への寄与(売上・解約率等) |
| Engagement | 開発者満足度・離職率 |
Core 4 は 「経営層に AI 投資の継続を説得する」際に使う、最終アウトプット側の指標です。
受託で組む「AI ROI 計測の 4 階層」
弊社では、受託案件に AI を導入するときに以下の 4 階層で計測体制を組みます。
[Layer 1: ツールメトリクス]
├ AI 利用回数・トークン消費・受諾率
├ ベンダーが提供するダッシュボード
└ 計測コスト: ほぼゼロ
[Layer 2: DORA メトリクス]
├ デプロイ頻度・リードタイム・MTTR・変更失敗率
├ GitHub Actions + DORA エクスポーター
└ 計測コスト: 初期 50 万円、月次 5 万円
[Layer 3: SPACE メトリクス]
├ 5 次元のうち最低 3 次元(S, A, E)を測定
├ 月次サーベイ + 自動収集
└ 計測コスト: 初期 80 万円、月次 8 万円
[Layer 4: Core 4 ダッシュボード]
├ 経営層向け四半期レポート
├ 顧客ビジネス KPI との突合
└ 計測コスト: 初期 150 万円、月次 15 万円
特に Layer 3 の SPACE は受託の差別化ポイントで、「数字だけ良いが現場が疲弊」を可視化できます。これは Claude Code 運用コスト最適化 2026 でも触れた “コスト効率と人的負荷の両立” と同じ思想です。
受託契約に書く「KPI レポート条項」
AI を含む受託案件の契約に、KPI レポート条項を以下のように明記します。
| 条項 | 内容 | 顧客が確認すべきこと |
|---|---|---|
| 計測スコープ | DORA / SPACE / Core 4 のうち何を測るか | 業界標準との整合 |
| レポート頻度 | 月次 / 四半期 / 案件完了時 | 経営報告サイクル |
| ベースライン取得 | 開始前 4 週間の計測 | 改善前の数字の妥当性 |
| 改善目標 | 6 ヶ月後の DORA 指標 % 改善目標 | 目標の現実性 |
| 未達時の対応 | 目標未達時のアクションプラン | 契約継続条件 |
| データ取扱 | 計測データの保管・削除条件 | 個人情報・機微情報の扱い |
特に **「未達時の対応」を最初に決めておくと、「半年経って数字が出ない、でも契約は続いている」**という最悪パターンを防げます。
価格モデル — AI 導入 + ROI 計測パッケージ
ROI 計測を組み込んだ AI 導入受託パッケージは以下のレンジです。
| プラン | 初期 / 月額 | 対象 | 内容 |
|---|---|---|---|
| ROI Lite | 100 万円 / 12 万円〜 | 5 〜 10 人チーム | Layer 1/2 + 月次レポート |
| ROI Standard | 300 万円 / 30 万円〜 | 20 〜 50 人チーム | Layer 1/2/3 + 月次レビュー |
| ROI Enterprise | 800 万円〜 / 70 万円〜 | 100 人超 / 上場企業 | 全 Layer + 経営報告四半期 |
特に ROI Standard は 「AI を入れたが効果が説明できず、来期予算が削られそう」な情シス・開発部門の典型的な悩みに刺さるレンジです。
ハマりやすい 5 つの落とし穴
ROI 計測を受託で組むときの落とし穴を共有します。
落とし穴 1: 計測ツールに過剰投資
最初から Core 4 まで揃えると、計測自体に開発リソースが食われ、本末転倒です。Layer 1/2 から始めて段階的に拡張します。
落とし穴 2: ベースラインを取らずに開始
導入前の数字がないと、「改善した気がする」で終わります。最低 4 週間のベースライン取得を契約必須にします。
落とし穴 3: Activity 指標だけで判断
コミット数・行数だけを KPI にすると、「AI が冗長なコードを大量生成して数字だけ良い」事態が起きます。SPACE の Satisfaction を必ず併用します。
落とし穴 4: 顧客 KPI との突合を怠る
Core 4 の Impact は 「売上・解約率・NPS」等の顧客 KPI と紐付けないと意味がありません。契約初期に「突合する顧客 KPI」を合意します。
落とし穴 5: 開発者を計測対象としか見ない
サーベイなしの計測は 開発者の不信を招き、データ自体が歪みます。月次サーベイ + フィードバック反映を契約に組み込みます。
まとめ — 「AI を入れた」から「ROI を語れる」へ
GenAI Divide の 95%失敗を乗り越える鍵は、「ツール導入の上にある計測と組織設計」です。受託の現場で 「AI で何が良くなったか」を顧客の言葉で語れる体制を作ることが、案件の継続率と単価向上に直結します。
弊社では ROI Lite / Standard / Enterprise の 3 段階で DORA・SPACE・Core 4 を組み込んだ AI 導入受託パッケージを提供しています。「AI を入れたが効果が説明できない」「経営に投資継続を説得したい」というご相談は お問い合わせフォーム からお気軽にどうぞ。