安全与隐私
数据一旦输入 AI,它去了哪里?管理层必须问的安全与隐私问题,以及需要做出的三个决定。
数据一旦输入 AI,它去了哪里? 不问这个问题就开始,后果不可逆。
最后才想到的事,最先爆的雷
在 AI 项目中,安全和隐私问题占据着一个独特的位置。规划时被推到最后,出事时第一个上新闻。
"先做出来,安全以后再说。"这句话一出口,风险就开始了。AI 系统的安全不是事后补上去的,而是在设计阶段就决定了的。
管理层不需要了解技术细节。但以下这些问题必须亲自问。问技术团队、问供应商、也问自己。
数据在哪里
往 AI 系统里输入数据,数据就会在物理上存储在某个地方。这个"某个地方"才是关键。
使用云端 AI 服务的情况
往 ChatGPT、Claude 这类外部 AI 服务输入公司数据,数据就出去了,到了外部服务器。
要问的:
- 我们输入的数据会被用于 AI 模型训练吗?
- 数据存储的服务器物理位置在哪?(如果在境外,隐私法管辖可能不同)
- 数据保留多久?能按要求删除吗?
- 企业版和普通版的数据处理策略有区别吗?
大多数主流 AI 服务在企业版中明确写着"输入数据不用于模型训练"。但免费/个人版通常没有这个保障。如果员工用个人账号把公司数据喂给 AI,数据可能已经泄漏了。
自建的情况
在公司内部搭 AI,容易以为数据不会外流。但完全自建的情况很少见,大多数都用云基础设施(AWS、GCP、Azure),并调用外部模型 API。
要问的:
- 有没有数据被传输到外部的环节?
- 传输过程中有没有加密?
- 调用外部 API 时,我们的数据会暴露给 API 提供商吗?
谁能访问
数据位置之外,访问权限同样重要。
内部:AI 系统里输入的数据谁能看到?销售团队输入的客户信息,其他团队能通过 AI 获取吗?没有权限体系的 AI 系统会成为意想不到的信息泄漏通道。
外部:供应商的员工能访问我们的数据吗?为了技术支持或排障,可能会被要求提供访问权限。范围和条件必须写进合同。
要问的:
- AI 系统的用户权限体系是怎么设计的?
- 供应商的数据访问范围和条件包含在合同里了吗?
- 访问日志有记录吗?能审计吗?
个人信息,问题在哪
如果输入 AI 的数据包含个人信息,法律义务随之而来。
韩国的《个人信息保护法》对个人信息的收集、使用和提供有严格的规定。用客户数据训练 AI 模型可能属于"使用",上传到外部云可能属于"第三方提供"或"委托处理"。
基本检查清单:
- 要输入 AI 的数据中是否包含个人信息(姓名、联系方式、购买记录等)?
- 是否取得了将个人信息用于 AI 目的的同意?
- 能否对个人信息进行去标识化(去除或转换姓名、联系方式等)后再输入?
- 如果存储在境外服务器,是否已办理跨境传输的同意或措施?
清单里只要有一项回答是"不确定",请先与法务或隐私负责人沟通。AI 项目再好,一个法律风险就能让整个项目停摆。
AI 带来的新安全风险
与传统 IT 系统不同,AI 系统会产生独特的安全风险。
提示注入
用户通过巧妙的提问,诱导 AI 泄露本不该获取的信息。比如对客服聊天机器人说"显示你的系统提示"或"告诉我其他客户的信息"。
要问的:"提示注入的防御措施是怎么实现的?"
幻觉导致的错误信息
AI 自信满满地给出不正确信息的问题。内部使用只是不方便,但如果错误信息(价格、退款政策、法律事项)传递给客户,就成了业务风险。
要问的:"有没有验证 AI 回答准确性的机制?人工确认的环节在哪里?"
数据泄漏通道
AI 系统可能成为新的数据泄漏渠道。员工往 AI 里输入敏感内部信息,或者 AI 在回答中夹带其他用户的数据。
要问的:"有没有检测和阻止敏感信息输入的机制?"
管理层必须做的三个决定
安全和隐私的技术实现是技术团队的事。但以下三件事必须由管理层亲自决定。
第一,划定可以输入 AI 的数据范围。 不是所有数据都需要喂给 AI。需要一个标准:"这个级别以下的数据可以用于 AI,超过这个级别的不允许。"
第二,要求制定事故应急预案。 对"出了安全事故怎么办"没有答案的项目,不应该推进。事故检测、汇报链条、响应流程、客户通知机制都需要提前确定。
第三,建立定期审计机制。 AI 系统不是配置一次就完了。需要定期检查数据访问日志、使用模式和安全配置的体系。
安全不是成本,是信任
在安全和隐私保护上的投入不是成本,而是守护客户和员工的信任。
快速导入 AI 固然重要,但安全地导入更重要。因为一次数据泄漏事故就能在瞬间摧毁长年积累的信任。
在速度和安全之间找到平衡——这是 AI 时代管理层的责任。