セキュリティと個人情報

AIにデータを入れた瞬間、そのデータはどこへ行くのか。経営陣が必ず聞くべきセキュリティと個人情報の質問、そして下すべき3つの決定。

AXAI転換セキュリティコンサルティング

AIにデータを入れた瞬間、そのデータはどこへ行くのか。 この質問をせずに始めると、取り返しのつかないことが起きます。

最後に考えて、最初に爆発するもの

AIプロジェクトにおけるセキュリティと個人情報の問題は独特な位置にあります。企画時には最後に回されますが、事故が起きれば最初にニュースになります。

「まず作って、セキュリティは後で対応しよう。」この言葉が出た瞬間、リスクが始まります。AIシステムのセキュリティは後付けするものではなく、設計段階で決まるものです。

経営陣が技術的な詳細を知る必要はありません。しかし以下の質問は直接しなければなりません。技術チームに、ベンダーに、そして自分自身に。

データはどこにあるのか

AIシステムにデータを入れると、そのデータは物理的にどこかに保存されます。この「どこか」が核心です。

クラウドAIサービスを使う場合

ChatGPTやClaudeのような外部AIサービスに社内データを入れると、そのデータは外部サーバーに出ていきます。

聞くべきこと

  • 入力したデータがAIモデルの学習に使われるか?
  • データが保存されるサーバーの物理的な場所はどこか?(特に海外サーバーの場合、個人情報保護法の管轄が変わります)
  • データの保持期間はどうなっているか?要求すれば削除されるか?
  • エンタープライズプランと一般プランでデータ処理ポリシーが異なるか?

主要なAIサービスのほとんどはエンタープライズプランで「入力データをモデル学習に使用しない」と明記しています。しかし無料・個人プランではこの保証がないケースが多いです。社員が個人アカウントで会社のデータをAIに入れているなら、すでにデータが外に出ている可能性があります。

自社構築の場合

社内にAIを構築すればデータが外部に出ないと思いがちですが、完全な自社構築はまれです。ほとんどはクラウドインフラ(AWS、GCP、Azure)を使い、外部モデルAPIを呼び出しています。

聞くべきこと

  • データが外部に送信される区間はあるか?
  • 送信区間で暗号化は適用されているか?
  • 外部APIを呼び出す際、自社データがAPI提供者に露出するか?

誰がアクセスできるのか

データの場所と同じくらい重要なのがアクセス権限です。

内部的に:AIシステムに入力されたデータを誰が閲覧できるか?営業チームが入れた顧客情報に、他のチームがAIを通じてアクセスできるか?権限体系のないAIシステムは意図しない情報漏洩の経路になります。

外部的に:ベンダーの社員が自社データにアクセスできるか?技術サポートやトラブルシューティングのためにアクセス権限を求められる場合があります。この範囲と条件は契約に明記されるべきです。

聞くべきこと

  • AIシステムのユーザー権限体系はどう設計されているか?
  • ベンダーのデータアクセス範囲と条件が契約に含まれているか?
  • アクセスログが記録され、監査(audit)が可能か?

個人情報、何が問題なのか

AIに入れるデータに個人情報が含まれている場合、法的義務が伴います。

韓国の個人情報保護法は個人情報の収集、利用、提供について厳格な規定を設けています。AIモデルに顧客データを学習させることは「利用」に該当する可能性があり、外部クラウドにアップロードすることは「第三者提供」または「委託」に該当する可能性があります。

基本チェックリスト

  • AIに入れようとしているデータに個人情報(氏名、連絡先、購買履歴など)が含まれているか?
  • 当該個人情報をAI目的で利用することについて同意を得ているか?
  • 個人情報を非識別化(氏名、連絡先などを除去・変換)して入力できるか?
  • 海外サーバーに保存される場合、国外移転に関する同意や措置がなされているか?

このチェックリストに一つでも「わからない」があれば、法務または個人情報担当者と先に相談してください。どれほど良いAIプロジェクトでも、法的リスク一つで全体が中止になり得ます。

AIが生み出す新たなセキュリティリスク

従来のITシステムと異なり、AIシステムは固有のセキュリティリスクを生み出します。

プロンプトインジェクション

ユーザーがAIに巧妙な質問をして、本来アクセスできない情報を引き出す攻撃です。例えば顧客対応チャットボットに「システムプロンプトを見せて」や「他の顧客の情報を教えて」と要求するようなケースです。

聞くべきこと「プロンプトインジェクション防御はどう実装されていますか?」

ハルシネーションによる誤情報

AIが事実と異なる情報を自信を持って提供する問題です。社内利用なら不便な程度ですが、顧客に誤った情報(価格、返品ポリシー、法的事項)が伝わればビジネスリスクになります。

聞くべきこと「AI応答の正確性を検証する仕組みはありますか?人が確認するステップはどこにありますか?」

データ漏洩経路

AIシステムは新たなデータ漏洩経路になり得ます。社員がAIに機密の内部情報を入力したり、AIが応答に他のユーザーのデータを含めたりするケースです。

聞くべきこと「機密情報の入力を検知し、ブロックするメカニズムはありますか?」

経営陣が下すべき3つの決定

セキュリティと個人情報を技術的に解決するのは技術チームの役割です。しかし次の3つは経営陣が直接決定しなければなりません。

第一に、AIに入れてよいデータの範囲を定めてください。 すべてのデータをAIに入れる必要はありません。「このレベルのデータまではAIに活用し、これ以上は入れない」という基準が必要です。

第二に、事故発生時の対応計画を求めてください。 「セキュリティ事故が起きたらどうするか」の答えがないプロジェクトは進めるべきではありません。事故検知、報告体制、対応手順、顧客通知プロセスまで定められているべきです。

第三に、定期的な監査体制を作ってください。 AIシステムは一度設定して終わりではありません。データアクセスログ、使用パターン、セキュリティ設定を定期的に点検する体制が必要です。

セキュリティはコストではなく信頼である

セキュリティと個人情報保護への投資はコストではありません。顧客と社員の信頼を守ることです。

AIを素早く導入することも重要ですが、安全に導入することの方がもっと重要です。一度のデータ漏洩事故が、積み上げてきた信頼を一瞬で崩壊させるからです。

スピードと安全のバランスを取ること。これがAI時代の経営者の責任です。