生成AIで脆弱性診断を高度化
株式会社リチェルカセキュリティは、生成AIを活用した脆弱性診断プロジェクトを実施し、2025年10月中の1週間で13件の脆弱性を発見・報告したと公表した。自社の脆弱性診断サービスに生成AIを統合することで、利用企業は個別にAIツールを導入・運用することなく、診断サービスを通じてAI活用の利点を享受できるとしている。今回の取り組みでは、AIだけに依存せず、人間の専門家と組み合わせたハイブリッドな体制を前提に、AI診断の長所と限界を整理している。
1週間で13件の脆弱性、ClipBucket V5で複数CVE
本プロジェクトでは、生成AIを組み込んだ診断により1週間で13件の脆弱性を発見し、製品開発元に責任ある開示を行っている。軽微なものや修正対応中のものも含まれるが、リリースでは代表例として動画配信用オープンソースソフトウェア「ClipBucket V5」で発見された複数の脆弱性を挙げている。
ClipBucket V5では、以下のCVEが登録された。
- CVE-2025-62429:認証後の任意コード実行(High)
- CVE-2025-62423:認証後のブラインドSQLインジェクション(Moderate)
- CVE-2025-62424:パストラバーサルによる任意ファイルの読み書き(Moderate)
- CVE-2025-62709:パスワードリセットリンクを悪用したアカウントハイジャック(Moderate)
- CVE-2025-62430:複数フィールドでの蓄積型クロスサイトスクリプティング(Moderate)
同社は、特に「ログイン後にしか見つからない脆弱性を多く発見できた点」を成果として強調している。従来のDAST(動的アプリケーションセキュリティテスト)やSASTは、認証前後でシステムの状態がどう変化するかを十分に捉えにくく、認証後の深い処理に潜む欠陥を見逃しがちであると指摘する。
そこで同社は、AIに対し状態遷移を理解させる調整を行い、人間側で「どの状態で何がバグとなるか」という判定基準を精密に設計した。これにより、AIは認証前後の境界を認識しながら検査し、従来ツールでは到達できなかった領域の脆弱性を効率よく発見できたとしている。
ClipBucket V5以外にも、チャットアプリケーション、メディア管理系OSS、ハイパーバイザなどで複数の脆弱性を発見しており、現在も開発元との調整を進めている。
AI診断ツールとの違い
リチェルカセキュリティは、生成AIを自社サービスに組み込むアプローチを取っており、「企業が自前でAI診断ツールを導入する場合」との違いを整理している。
自前導入では、AIに適切な指示を与えるためのプロンプト設計や運用ノウハウを備えた人材育成が必要になる。また、AIが出力した診断結果には誤検知・過検知や情報提供のみの指摘も含まれるため、精査・検証にセキュリティエンジニアの工数がかかる。さらに、自社システムへの影響評価や修正優先度の判断、経営層への報告など、ビジネスコンテキストに基づく解釈が不可欠であると指摘する。
これに対し同社は、既存の脆弱性診断サービスに生成AIを組み込む形を採用している。企業側は新たなツール調達や稟議、システム統合を行うことなく、従来の診断サービスを利用するだけでAI活用の恩恵を得られるとしている。AIが検出した内容は必ずセキュリティの専門家がレビューし、誤検知の除去、悪用可能性の検証、ビジネスインパクト評価、修正優先度の整理などを行ったうえで報告する構成である。
また、AI技術や検出手法のアップデートは同社側で継続的に行うため、利用企業は最新技術を追い続ける投資を行わずに済むとしている。
AIが得意な領域と人間の専門性が必要な領域
今回のプロジェクトで得られた知見として、AI診断の「得意な領域」と「人間が不可欠な領域」を明確に区分している。
AIが高精度で力を発揮できる領域としては、まずWebアプリケーション脆弱性が挙げられる。SQLインジェクション、XSS、認可の不備など、高レイヤのwebアプリケーション脆弱性については、HTTPリクエスト / レスポンスのパターン解析と組み合わせることで、安定した検出が可能であるという。
次に、ハードコードされた認証情報や安全でない暗号化アルゴリズム(MD5 / SHA-1など)、不適切なエラーハンドリングといった「アンチパターン実装」の検出を挙げている。大規模コードベースに対しても一貫した視点で機械的に指摘できる点は、人手のレビューを補完する役割を果たすと評価している。さらに、数十万行規模のコードでも短時間でスキャンできるため、マイクロサービスやレガシーシステムなど、人手による全量レビューが現実的でないケースで特に有効であるとする。
一方、人間の専門性が必要な領域としては、C / C++におけるバッファオーバーフローやUse-After-Freeなどの低レイヤのメモリ安全性、そしてビジネスロジック脆弱性を挙げている。複数コンポーネントが連動する仕組みの中で、仕様上は「動いている」ように見えても、業務上不適切な挙動となるケースでは、要件定義や運用ポリシーの理解が不可欠であり、AI単体での判定は難しいと位置付けている。
このため同社では、専門家が事前に仕様や要件を読み込み、「何が正常で、何が脆弱性となるか」という判断基準をAIに与える運用を採用している。AIはその枠組みの中で効率的に探索を行い、最終的な判断は専門家が下すことで、精度と効率の両立を図っている。
動的検証、自動化と今後の方針
同社は、Dockerコンテナによるサンドボックス環境でPoCコードを自動実行し、悪用可能性を検証するパイプラインを運用している。これにより、理論上の脆弱性と実際に悪用可能な脆弱性を自動的に切り分け、誤検知・過検知を削減していると説明する。一方で、ビジネスロジックの理解など、AIだけでは判断できない領域については、今後も人間のレビューを前提とした体制を維持するとしている。
生成AI利用時の情報保護
生成AIの利用にあたっては、学習データに顧客情報が再利用されないエンタープライズ向け環境を用いることで、ソースコードやシステム情報が外部に学習・蓄積されないよう配慮していると説明する。また、組織ポリシー上、生成AIの利用に制約がある場合でも、従来型の診断手法に切り替えることでサービス提供は可能であるとしている。
出典:リチェルカセキュリティ、生成AI活用により1週間で脆弱性13件を報告―脆弱性診断サービスへのAI統合により検出効率が向上―
