こんにちは!
今日は「生成AIを入れたら生産性が落ちた気がする…」という、現場でよく聞くモヤモヤに向き合います。結論を先に言うと、落ちているのはAIの性能ではなく責任の設計です。AIを“門番”、人間を“最終責任者”に据える運用へ切り替えると、レビュー地獄の問題は無くなると考えます。
なぜこのような記事を書いたかというと以下のような記事を読んだからです。

確かになぁ~と思いながら、どうにか解決できないかな~と思いつつ、本稿をまとめてみました。
当記事は該当の記事を否定する意図はなく「生成AIが原因で生産性が落ちることもある」という問題を解決したい意図ありきになります。
要約
生産性が落ちるのはAIの欠陥ではなく“責任の拡散”が原因です。
プロセスをAIゲート → 人間レビューの順にすると、粗は機械側で止まり、設計判断は人間に戻ります。
「AIで速くなったはずなのにレビューが詰まる…」という悩みは、責任の流れを再設計すれば解決します。
背景:なぜ“AIで生産性が下がる”ように見えるのか
まずは現場で起きる典型的な症状を、人の動きに沿って整理します。
- 所有者意識の希薄化:AIが下書きを出すと、「あとで直せばいいかorレビューで指摘を貰えばいいか」が増えます。ゴミ箱があると公園が散らかる、あの状態に似ています。ゴミ箱に入ったゴミは誰が片付けるのか、誰が最終責任者か曖昧だと、気がつけば“みんなの仕事”になり、“誰の仕事でもない”状態になります。
- 学習の停滞:ジュニアが“生成AIが出力したコードを読む係”になると、設計判断の筋肉が育ちません。例えるなら、自転車の補助輪を外すタイミングが永遠に来ない状態です。組織としてソース管理をするのであればコードの生成そのものを生成AIに任せないでください。
- レビューの遅延:巨大PRがどーん。自己レビューなし。シニアが「粗取り係」に陥ります。これ、最も高価な人が最も安い作業をする構図です。本来であればジュニアが行うべき段階で、シニアにPRが来てしまっているのであればそのPRそのものがなぜ届いているのかを考える必要があります。生成AIがアウトプットしたコードはゴミ、と言ってもなにも解決しません。
- 検証不在:NFR(性能・信頼性・セキュリティ・保守性)や権限・境界・並行性の確認が曖昧なまま次工程へ。表面は進んでいるようで、見えない負債が静かに増えます。
一見「AIのせい」に見えますが、実態は運用設計の欠陥です。責任の所在がふわっとしているために、前工程で止めるべき粗が後工程に流れる。すると、シニアのレビューで詰まるのは当然です。ここをほどけば、AIはむしろ生産性を押し上げる味方になります。
解決の鍵:AIは“門番”、人間は“最終責任者”
ここがコアです。
AIの役割は「粗の自動検出・テンプレ生成・比較表作成などの前工程ゲート」。つまり“門番”です。Lint・型チェック・依存監査・PRサイズの警告など、機械が得意な機械的検証を先にまとめて叩きます。Dangerなどを使えば、PRサイズや規約違反を自動で赤札にできます。人が“忘れがち”なことこそ機械化するのがコツです。
人間の役割は「設計判断と最終承認」。つまり責任は人間に明記します。PRの冒頭に“責任者宣言”を置き、DoD(完了の定義)に署名する。さらにブランチ保護で署名抜けや未通過チェックのマージをブロックします。これで“誰が責任者か”と“何を満たせばOKか”が一目でわかります。
ポイントは、AIを“レビューの代替”にしないことです。AIは前処理で粗を止める門番、人間は判断と承認の責任者。この切り分けをプロセスとして固定すると、レビュー地獄は構造的に消えます。
即導入テンプレ
1. 責任者宣言(PR冒頭に貼る)
### 責任者宣言
私(@author)はこのPRの設計・品質の最終責任者です。
- 目的を150字で説明できます。
- 代替案を1つ以上検討しました(採否と理由を記載)。
- NFR/テスト/セキュリティを自分で確認しました(下部に証跡あり)。
2. セルフレビュー4点セット(PR本文に必須)
#### セルフレビュー
- 目的1行:非エンジニアにも説明して理解されたか?
- 差分の音読:自分の変更を行単位で説明できたか?
- NFR確認:p95性能/権限/失敗時動作/ロールバックを記述したか?
- テスト証跡:境界・エラー・権限・性能テストの有無と結果
3. Definition of Done(サイン式)
#### DoD(完了の定義)
- NFR(性能/信頼性/セキュリティ/保守性)をPR本文に記載
- CIテストが落ちた履歴と、その修正コミットが存在
- 依存追加は許可リストを更新済み(理由と影響範囲を記載)
- ロールバック手順(Feature FlagやRelease計画)を記述
- 責任者サイン:@author
4. AI許容度マトリクス(現場ルール)
| 仕事の性質 | 例 | AIの使い方 | 最終責任 |
|---|---|---|---|
| 低リスク・機械的 | 型/雛形/単純リファクタ | 積極利用(生成→人間検証) | 人間 |
| 中リスク・解釈必要 | バリデーション/権限 | 提案まで(根拠つき代替案) | 人間 |
| 高リスク・設計判断 | API設計/削除系 | 比較材料(長短表の提示) | 人間 |
| クリティカル | セキュリティ/法務/瑕疵対応 | 参考のみ/原則禁止 | 人間 |
ルールは“ざっくり”ではなくPRテンプレとCIゲートで強制するのがコツです。PRテンプレはGitHubのテンプレ機能で標準化できます。
導入ロードマップ
1:テンプレと保護を置く
- PRテンプレ(責任者宣言+DoD)とIssueテンプレ(NFR必須)を作成。
- ADR雛形を
/docs/adrに置き、決定の履歴を残す文化を宣言。ADRは「なぜそうしたか」を短く残すメモで、後からの議論コストを下げます。 - ブランチ保護で「必要なステータスチェックの合格」「レビュー必須」「線形履歴」などを設定。これだけで“素通りマージ”が止まります。
2:CIにlint/typecheck/test/build/auditを並べる
- まず落ちるべきものは落とす。コメント指摘ではなくCIの失敗に変えます。
- PRチェック(Danger等)を導入し、閾値超えでFailや強い警告。巨大PRは分割を誘導。人が「小さくしてください」と言い続けるより千倍ラクです。
3:依存の許可リストとSBOM(CycloneDX)
- 依存パッケージは許可制にし、理由と担当者を記録。
- SBOMを自動生成して成果物に添付。CycloneDXは広く使われるBOM標準で、ライセンスや依存関係の可視化に強いです。まずは生成し、成果物と一緒に保管するところから。
4:AI自己レビューをPRに強制添付(基準点<80はFail)
- 生成AIでセルフレビュー要約と抜け漏れチェックを出力し、PR本文に貼ることを義務化。
- Dangerで「
AI-Review-Score: 85が本文にない/80未満はFail」にすれば、形骸化を防げます。
5:NFR必須化(性能予算/失敗時動作)
- PRにp95応答時間やメモリ上限など“パフォーマンス”を明記。
- アクセシビリティも最初から対応するように設計。後戻りコストが跳ね上がる領域ほど前倒しで書きます。SLO思考で「どの指標をどれくらい守るか」を数字で置くと、議論が短くなります。
6:権限/境界/エラー/並行テストの雛形
- テスト観点を「権限(誰ができるか)」「境界(端/ゼロ/Max)」「エラー(失敗時の姿)」「並行(同時更新/排他)」の4箱に分解したテンプレケースを整備。
- “何を試すか”が見えるだけで、ジュニアの手が動きます。
7:KPIの初回スナップショット → OKRへ反映
- 「いつから改善したか」が分かるように、今日の指標を残す。
- 翌週以降の回し方(週次レビュー/ボトルネック潰し)をOKRに落とし込みます。
計測KPI(最小セットと目安)
- 再修正率(レビュー後コミット回数/PR)
目標:一定期間(例:2週間)で≤2。自己レビュー+AIゲートが効くと、後追い修正が減ります。 - レビュー時間/PR(AI自己レビュー投稿→Approveまで)
目標:20–30%短縮。粗が前工程で止まるため、人のレビューは“判断”に集中できます。 - “無署名PR”率(責任者宣言のないPR)
目標:常に0%。ブランチ保護+テンプレ必須化で技術的に塞ぎます。
小さく運用するコツ:最初は“測れるKPIだけ”でOKです。測れないものを追うのは、体重計なしでダイエットするようなものです。
よくある反論に“先回り”で答える
- 「AIレビューは信用できない」
→ 信用するのはアウトプットではなく門番としての役割です。落ちるべきものを落とす役割に限定し、承認は人間に残します。 - 「テンプレは形骸化する」
→ Dangerで未記入=Failにします。形骸化は“運用の優しさ”が原因です。仕組みで守ります。 - 「SBOMは大げさ」
→ 依存は“あとで効いてくる”領域の筆頭です。まずは生成して保管から。将来の脆弱性調査が一瞬になります。 - 「SLOとか難しい」
→ 「p95で○ms」の一行から始めれば十分です。最初は雑でも数値化するほうが前に進みます。 - 「ADR書く時間がない」
→ 200字でOK。“なぜ×1”が残っているだけで、未来の自分が助かります。
というわけで:明日から回すための“最小構成”
最後に、最小の工数で効果が出る順にまとめます。
- PRテンプレ+責任者宣言+DoDを置く
- ブランチ保護でテンプレとCI通過を必須化
- CIにlint/typecheck/test/build/audit+PR(Danger)
- SBOM(CycloneDX)を自動生成して保管
- AI自己レビューをPR本文に強制添付
- NFR必須化+SLOの数値を置く
責任の拡散こそが“生産性低下”の原因です。AIゲート→人間レビューで粗を前工程で止め、責任は人間に戻す。生成AIを使う運用設計を見直せば生産性が落ちたということは運用責任者である人間の落ち度であるということがわかるはずです。






