#agents#security#identity#architecture#privacy
CAPTCHA後の時代へ: AIエージェント利用を前提にした検証アーキテクチャ
Hacker Newsなどで議論されている「エージェント向けCAPTCHA」論点は、単発の防御話ではありません。Webの前提が、人間ユーザー中心から「機械ユーザー共存」へ移る兆候です。
参照: https://news.ycombinator.com/
従来モデルの限界
これまでのボット対策は、
- 人間のブラウザ利用
- 排除すべき自動アクセス
の二分法で成立してきました。しかし現在は、利用者の委任で動く正規エージェントが増え、この前提が崩れています。
新しい検証で必要な3問い
- このリクエストは誰の代理か
- 何をどこまで実行してよいか
- 問題発生時に即時停止・追跡できるか
CAPTCHA単体では、いずれも十分に答えられません。
推奨する5層構成
1) 主体IDの確立
エージェント資格情報を、人間/サービス主体に紐付ける。
2) 能力トークン
短命・限定スコープの権限トークンを発行する。
3) 挙動スコアリング
頻度、遷移、到達先で異常検知する。
4) 実行環境シグナル
取得可能な範囲で実行元の健全性を検証する。
5) 人手確認への昇格
高リスク操作は明示確認を必須化する。
UX原則: 摩擦はリスク比例
すべてに同じ壁を置くと、正規利用が離脱します。
- 閲覧系: 低摩擦
- 設定変更: 中摩擦
- 課金・権限変更: 高摩擦+本人確認
この設計で生産性と安全性の両立が可能になります。
運用指標
- 正規エージェント誤検知率
- 侵害資格情報の失効時間
- スコープ別インシデント率
- チャレンジ導入後の完了率低下
まとめ
問いは「botを止める方法」から「機械ユーザーをどう統治するか」へ変わりました。検証基盤をID・権限・監査中心に再設計した組織が、次のWeb運用で優位になります。