ラック、生成AIシステムに対するセキュリティ診断サービスを提供
~特有の脆弱性の有無を評価し、安全なシステム開発をサポート~
株式会社ラック(以下 ラック)は、生成AIシステムのセキュリティを強化するための新サービス「生成AI活用システム リスク診断」の提供を、2024年2月20日より開始したとリリースした。生成AIを使ったシステムに対して特有のセキュリティ評価を行うことで、安心・安全な生成AIシステムの開発・提供が可能になる。
米OpenAI社が提供する「ChatGPT」を中心とする生成AIは、文書の要約や顧客へのメールの文案作成、データ分析などさまざまな業務に活用することで、業務を効率化できると期待されている。生成AIが持つ機能を独自のソフトウェアやアプリケーションに組み込むことで、イノベーションの促進や新しいビジネスモデルを構築することが期待される。しかし、生成AIを組み込んだシステムは従来型のシステムと異なり、AIを欺くために設計された敵対的な攻撃(プロンプトインジェクション)に対して脆弱であるなど、特有のセキュリティ課題を持つことが明らかになってきている。
ラックの生成AI活用システム リスク診断は、生成AIを使ったシステムを対象に、特有の脆弱性が含まれていないかを評価して改善点をレポートするサービスである。「プロンプトの悪用による機密情報の窃取」、「不適切なコンテンツの表示」、「内部的に設定されたプロンプトなど知的財産の窃取」、「プロンプトの大量入力によるサービス拒否やトークンの過剰消費」などの脆弱性の有無を評価することが可能だ。このサービスに含まれる評価項目は以下のとおりとのことである。
プロンプトインジェクション | システムの設定を回避して、モデルに学習されている機密情報やシステム情報を窃取できてしまう脆弱性。 |
---|---|
ジェイルブレイク | システムに設定されたポリシーを回避して、不適切なコンテンツ(攻撃的、または有害なコンテンツ)を回答できてしまう脆弱性。 |
プロンプトリーク | システムの内部で設定されているプロンプトを窃取できてしまう脆弱性。システム内部のプロンプトは企業の知的財産として保護する必要があります。 |
大規模言語モデル出力の改ざん | 大規模言語モデル(Large Language Models:LLM)の出力を改ざんすることで、SQLインジェクションやクロスサイトスクリプティングなどの攻撃を誘発する脆弱性。 |
プロンプトの大量入力による サービス拒否 | 繰り返し大量のプロンプトを機械的に入力することで、システムが不安定になったり、大量のトークンを消費させ過剰な料金請求が発生してしまったりする脆弱性。 |
生成AIシステムに特有の脆弱性評価に加えて、Webアプリケーションの安全性を攻撃者の視点から調査する「Webアプリケーション診断」や、クラウド環境の潜在的な設定ミスや脆弱性の見落としを発見・修正する「クラウドセキュリティ設定診断」などと組み合わせてシステム全体の脆弱性を点検することも可能。診断の項目は、今後も随時追加していくとしている。