#ai#agents#engineering#automation#reliability
AIエージェント時代のスクラム運用設計:速度と品質を同時に伸ばす方法
速度は上がる。だが放置すると崩れる
AIエージェントをスプリントに入れると、短期的にはほぼ確実に処理量が増えます。PR草案、テスト雛形、ドキュメント更新が速くなるためです。問題は2か月目以降で、ストーリーポイントが増えているのに、レビュー負荷・不具合流入・設計の一貫性低下が同時進行しやすい点です。
つまり、従来スクラムへエージェントを足すだけでは不十分です。運用モデル自体を更新しなければ、速度は持続しません。
エージェント導入で変わる3つの前提
1. バックログ品質がスケール制約になる
人間同士なら口頭補足で解けた曖昧要件が、エージェントでは手戻りループになります。受け入れ条件、非機能要件、依存範囲を明示する粒度が必須です。
2. Definition of DoneにAI要件を追加する必要がある
従来の「テスト通過・レビュー済み」だけでは足りません。最低限、以下をDoDへ組み込みます。
- 生成成果の来歴記録
- 制限領域ファイルへのポリシー順守
- 設計判断の人間承認
- AI関与変更のマージ後監視
3. 学習機会が失われるリスクがある
難しい思考を丸ごと委譲すると、短期成果は出てもメンバーの設計力が育ちません。学習責任を運用へ埋め込む必要があります。
役割分離モデル(実務向け)
- Planner(人間): ストーリー分解、制約設定、成功条件定義
- Executor(エージェント): 草案実装、テスト雛形、限定リファクタ
- Verifier(人間): 意図妥当性、リスク、本番影響の最終判断
- Auditor(自動化): CIでポリシーと品質ゲートを強制
中〜高リスク変更で、PlannerとVerifierを同じエージェントに兼務させないことが重要です。
セレモニーの更新ポイント
スプリント計画
- チケットに「Agent Suitability」ラベルを追加
- 実装工数とレビュー工数を分離見積もり
- 自律変更禁止領域(認証/課金/規約)を先に明示
デイリースタンドアップ
- エージェント実行の詰まり要因を分類共有
- AI生成PRの手戻り率を確認
- プロンプト/テンプレ更新の影響を共有
スプリントレビュー
- 処理量だけでなく品質推移を提示
- AI関与変更と人手変更の欠陥率比較
- 学習成果を1件は明示
レトロスペクティブ
- 節約できた工数と増えた負債を棚卸し
- テンプレ/境界条件を更新
- ゲーム化しやすい指標(ポイント総量など)を廃止
進捗を見るための指標設計
有効な指標:
- リスク階層別サイクルタイム
- 初回AI生成PR後の手戻り率
- 100マージあたりの流出不具合
- AI高関与差分のレビュー深度時間
- 新規メンバーの立ち上がり速度と品質維持
単体で危険な指標:
- AI生成コミット数
- トークン消費量
- ストーリーポイント総量
実例:6人チームの8週間
2週間スプリントで、テスト雛形・移行作業・文書更新にエージェントを導入。
- 1週目: 処理量+20%、ただしレビュー待ち増加
- 3週目: チケットテンプレ厳格化とリスク別ルーティングで待ち行列解消
- 5週目: CI強化と役割明確化により、導入前より欠陥率低下
要点は、エージェントの数ではなく運用規律が成果を決めることです。
8週間導入ステップ
- 1〜2週: バックログを適合性とリスクで分類
- 3〜4週: DoDとCIへ来歴・ポリシー要件を追加
- 5〜6週: セレモニー項目を更新し報告粒度を統一
- 7〜8週: 見せかけ指標を削除し品質中心スコアカードへ移行
結論
AIエージェントはスクラムの速度を上げます。ただし持続的な成果は、境界条件の明確化、品質ゲートの自動化、判断責任の人間保持でしか生まれません。そこまで設計して初めて、速度は資産になります。