日本人の92%、AI業務利用のリスクを理解せず
約45%がディープフェイク詐欺を識別できず、AI悪用リスクが顕在化
NordVPNは3月3日、国際調査「National Privacy Test(ナショナル・プライバシー・テスト)」の最新データを公開した。調査は世界192カ国・36,667人を対象にオンラインプライバシーに関する知識やスキルを測定したもので、日本ではAI利用に伴う情報漏えいリスクへの理解不足と、AIを悪用した詐欺への対応力不足が課題として浮き彫りになった。
日本人の92%、AI業務利用のリスクを正しく把握できず
調査によると、日本人回答者の92%が業務でAIツールを利用する際のリスクを十分に理解していないことが分かった。
生成AIの普及が急速に進む一方で、従業員のセキュリティリテラシーが追いついていない状況が明らかになっている。入力した情報がどのように保存・処理され、誰がアクセスできるのかを理解しないまま、機密情報をAIツールに入力してしまうケースも少なくない。
AIとの会話内容は一般的な対話とは異なり、ログとして保存され、将来のモデル学習に利用される可能性がある。顧客情報や社内戦略、個人情報などを入力することで、意図せずプライバシー上の脆弱性を生む恐れがある。
日本人の約半数、ディープフェイク詐欺を識別できず
また、日本人の45%がディープフェイクや音声クローンなどのAIを利用した詐欺を識別できないことも明らかになった。
近年のAI技術の進化により、人物の声や顔、動作を高精度で再現した動画生成が可能となっており、詐欺の手口はますます巧妙化している。NordVPNの過去調査では、世界で3人に1人が過去2年間にオンライン詐欺に遭遇し、そのうち49%が金銭的損失を経験したと回答している。
NordVPN CTOが提言するAI時代の3つの対策
NordVPNの最高技術責任者(CTO) マリユス・ブリエディス 氏は、AI時代のセキュリティ対策として次の3点を推奨している。
1. 機密情報をAIツールに入力しない
顧客データや社内情報などの機密情報を生成AIへ入力しないことが重要。業務利用では企業のAI利用ガイドラインを確認する必要がある。
2. 音声だけで本人確認をしない
音声クローン詐欺のリスクを踏まえ、金銭や機密情報を求められた場合は別の連絡手段で本人確認を行う。家族間で合言葉を設定する方法も有効とされる。
3. 映像や音声を過信しない
AIにより本物と見分けがつかない動画や音声が生成可能になっているため、セキュリティソフトの活用やアップデートなど基本的な対策を徹底する必要がある。
ブリエディス 氏は「AIはサイバー犯罪の技術的ハードルを大きく下げている」と指摘する。フィッシングメールの作成や偽ショッピングサイトの構築が容易になり、サイバー犯罪への参入障壁が低下しているという。
同氏は「AIとの会話はログとして保存され、将来のモデル学習に利用される可能性がある。顧客情報や社内戦略などを共有することで、意図せずプライバシー上の脆弱性を生む恐れがある」とし、情報の取り扱いには慎重な対応が必要だと警鐘を鳴らした。
出典:PRTimes 【サイバーセキュリティ月間】NordVPN、192カ国・約3.7万人の調査データを公開。日本人の92%がAI業務利用のリスクを正確に理解できず、45%はAI詐欺を識別できないことが明らかに。