安全与隐私

数据一旦输入 AI,它去了哪里?管理层必须问的安全与隐私问题,以及需要做出的三个决定。

AXAI 转型安全咨询

数据一旦输入 AI,它去了哪里? 不问这个问题就开始,后果不可逆。

最后才想到的事,最先爆的雷

在 AI 项目中,安全和隐私问题占据着一个独特的位置。规划时被推到最后,出事时第一个上新闻。

"先做出来,安全以后再说。"这句话一出口,风险就开始了。AI 系统的安全不是事后补上去的,而是在设计阶段就决定了的。

管理层不需要了解技术细节。但以下这些问题必须亲自问。问技术团队、问供应商、也问自己。

数据在哪里

往 AI 系统里输入数据,数据就会在物理上存储在某个地方。这个"某个地方"才是关键。

使用云端 AI 服务的情况

往 ChatGPT、Claude 这类外部 AI 服务输入公司数据,数据就出去了,到了外部服务器。

要问的

  • 我们输入的数据会被用于 AI 模型训练吗?
  • 数据存储的服务器物理位置在哪?(如果在境外,隐私法管辖可能不同)
  • 数据保留多久?能按要求删除吗?
  • 企业版和普通版的数据处理策略有区别吗?

大多数主流 AI 服务在企业版中明确写着"输入数据不用于模型训练"。但免费/个人版通常没有这个保障。如果员工用个人账号把公司数据喂给 AI,数据可能已经泄漏了。

自建的情况

在公司内部搭 AI,容易以为数据不会外流。但完全自建的情况很少见,大多数都用云基础设施(AWS、GCP、Azure),并调用外部模型 API。

要问的

  • 有没有数据被传输到外部的环节?
  • 传输过程中有没有加密?
  • 调用外部 API 时,我们的数据会暴露给 API 提供商吗?

谁能访问

数据位置之外,访问权限同样重要。

内部:AI 系统里输入的数据谁能看到?销售团队输入的客户信息,其他团队能通过 AI 获取吗?没有权限体系的 AI 系统会成为意想不到的信息泄漏通道。

外部:供应商的员工能访问我们的数据吗?为了技术支持或排障,可能会被要求提供访问权限。范围和条件必须写进合同。

要问的

  • AI 系统的用户权限体系是怎么设计的?
  • 供应商的数据访问范围和条件包含在合同里了吗?
  • 访问日志有记录吗?能审计吗?

个人信息,问题在哪

如果输入 AI 的数据包含个人信息,法律义务随之而来。

韩国的《个人信息保护法》对个人信息的收集、使用和提供有严格的规定。用客户数据训练 AI 模型可能属于"使用",上传到外部云可能属于"第三方提供"或"委托处理"。

基本检查清单

  • 要输入 AI 的数据中是否包含个人信息(姓名、联系方式、购买记录等)?
  • 是否取得了将个人信息用于 AI 目的的同意?
  • 能否对个人信息进行去标识化(去除或转换姓名、联系方式等)后再输入?
  • 如果存储在境外服务器,是否已办理跨境传输的同意或措施?

清单里只要有一项回答是"不确定",请先与法务或隐私负责人沟通。AI 项目再好,一个法律风险就能让整个项目停摆。

AI 带来的新安全风险

与传统 IT 系统不同,AI 系统会产生独特的安全风险。

提示注入

用户通过巧妙的提问,诱导 AI 泄露本不该获取的信息。比如对客服聊天机器人说"显示你的系统提示"或"告诉我其他客户的信息"。

要问的"提示注入的防御措施是怎么实现的?"

幻觉导致的错误信息

AI 自信满满地给出不正确信息的问题。内部使用只是不方便,但如果错误信息(价格、退款政策、法律事项)传递给客户,就成了业务风险。

要问的"有没有验证 AI 回答准确性的机制?人工确认的环节在哪里?"

数据泄漏通道

AI 系统可能成为新的数据泄漏渠道。员工往 AI 里输入敏感内部信息,或者 AI 在回答中夹带其他用户的数据。

要问的"有没有检测和阻止敏感信息输入的机制?"

管理层必须做的三个决定

安全和隐私的技术实现是技术团队的事。但以下三件事必须由管理层亲自决定。

第一,划定可以输入 AI 的数据范围。 不是所有数据都需要喂给 AI。需要一个标准:"这个级别以下的数据可以用于 AI,超过这个级别的不允许。"

第二,要求制定事故应急预案。 对"出了安全事故怎么办"没有答案的项目,不应该推进。事故检测、汇报链条、响应流程、客户通知机制都需要提前确定。

第三,建立定期审计机制。 AI 系统不是配置一次就完了。需要定期检查数据访问日志、使用模式和安全配置的体系。

安全不是成本,是信任

在安全和隐私保护上的投入不是成本,而是守护客户和员工的信任。

快速导入 AI 固然重要,但安全地导入更重要。因为一次数据泄漏事故就能在瞬间摧毁长年积累的信任。

在速度和安全之间找到平衡——这是 AI 时代管理层的责任。