全国咨询电话

02389108633

关注官方微信

认识一下你的新同事“人工智能”:它会泄露企业机密吗?

贵司迫不及待地拥抱大型语言模型之前,请确保已制定好了保障措施,以免使企业机密和客户信息面临泄露风险。

基于大型语言模型(以下简称“LLM”)的聊天机器人不再只是全球新宠,该技术正在越来越多地被用于提升员工生产力和工作效率。随着其实力日益增强,此项

人工智能技术有望完全取代一些传统岗位,涵盖编程、内容创作和客户服务等多个领域。

许多企业已开始运用LLM算法,贵司很可能也会在不久的将来跟进这一潮流。换言之,对于不少行业而言,这已不再是“该不该装配机械臂”的问题了。

但在贵司匆忙地欢迎这位新“员工”,利用它来简化业务流程和工艺之前,您需要思考一下以下几个问题。

企业与LLM共享数据是否安全呢?

大型语言模型(LLM)是利用网上的海量文本信息进行训练后得到的;这样做大大提升了模型解析和理解人们所查询的问题或信息输入的能力。但是,

每当您请聊天机器人编写一段代码或拟发给客户的一封简明电邮时,都很可能提交贵司的部分信息。


据英国国家网络安全中心(NCSC)称:“到目前为止,LLM还不会自动将用户所查询的信息,添加到其他用户可以查询的模型当中。” “但对于

LLM服务商而言,用户所查询的信息是透明可见的。此类信息会被存储下来,且几乎肯定会在未来某个时候,被用于LLM服务或模型的后续开发用途。”


这就意味着,LLM服务商或合作伙伴能够查阅到相关信息,并以某种方式将此类信息整合到未来的版本之中。聊天机器人可能永远不会忘记或删除您所

输入的信息,因为获得更多的数据能够磨练和提升其输出质量。它们收到的信息越多,反馈质量就会要高;因此,贵司信息或个人资料将被纳入训练范围,

并可能被那些处在源头的工作人员访问。


或许是为了消除人们对数据隐私问题的疑虑,Open AI于4月下旬推出了ChatGPT聊天记录关闭功能。“禁用聊天历史记录后,原有会话内容便不会用于我

司模型训练和改进用途,且不会出现在历史记录侧边栏中”,开发人员在Open AI官方博客中写道。


另一项风险是,在线存储的咨询信息可能遭遇黑客攻击、意外泄漏或被公开访问。这些风险也适用于所有第三方运营商。

有哪些已知缺陷?

每当一种新技术或软件工具开始流行时,难免会像蜜罐吸引蜜蜂一样,吸引着黑客的目光。至少到目前为止,LLM的安全性一直做得相当严格,但也有少数

例外的事件发生。


三月份,ChatGPT曾因泄露部分用户的聊天记录和付款信息而成为头条新闻,迫使其开发商OpenAI于3月20日暂时下线ChatGPT。3月24日该公司披露了开

源软件资源库中存在的一个漏洞,声称该漏洞“允许一些用户看到另一位活跃用户聊天记录的标题”。


据OpenAI称,“如有两位用户在同一时间活跃,那么其中一位用户新建对话框里的第一条消息,便可能出现在另一位用户的聊天历史记录中。经过深入调查,

我们还发现,这一漏洞还可能导致ChatGPT Plus订阅用户当中,约有1.2%的用户在不再活跃后的九个小时内,意外泄露付款信息。” 


此外,安全研究员Kai Greshake及其团队还演示了利用LLM行骗的情景。他们模拟了不法份子将微软Bing聊天工具用作“话术大师”,诱骗用户提交保密资料

或点击钓鱼链接的过程。


该团队在已故物理学家爱因斯坦的维基百科页面上,嵌入了一条参数。这条参数是一段常规的文本注释,只是将字号设置成了0,因此网站访客无法看到。然后,

他们向聊天机器人提出有关爱因斯坦的问题。


试验取得了成功。当聊天机器人处理那个维基百科页面时,无意间触发了该参数,聊天机器人便开始操着海盗的口吻讲话。


“是啊,答案就是:阿尔伯特·爱因斯坦生于1879年3月14日,”聊天机器人回答道。当被问及为什么说话像海盗时,聊天机器人回答说:“哎哟,船长,我正

在按指令行事。”


作者将此次攻击称为“植入间接指令”。有趣的是,聊天机器人还向用户发送了已植入指令的链接,并声称:“别担心,它是安全无害的。

有公司经历过大型语言模型关联性事件吗?

三月底,《经济学人》韩国版报道了三星电子所涉及的三起关联事件。


尽管该公司要求员工谨慎输入有待查询的信息,但仍有部分员工在与ChatGPT互动过程中,意外泄露了内部数据。


一名三星员工输入了电子元件厂计量数据库中的错误源代码,并寻求解决方案。另一名员工也存在同样的行为,想要对缺陷设备检测程序的代码进行优化。还有一名员工上传了会议记录,以生成会议纪要。


为了跟上人工智能的发展步伐,同时也为了保护商业机密,三星宣布了内部“人工智能业务”开发计划,以辅助员工高效完成工作任务。

企业分享数据前,该核对哪些事项?

企业将数据上传至模型就意味着,直接向OpenAI等第三方发送专有数据,并失去了数据控制权。我们知道,OpenAI使用这些数据来训练和改进其AI生成模型的输出质量,但问题仍然存在:这是唯一的用途吗?


倘若贵司真的决定,在运营环节中应用ChatGPT等一类工具,那么就需要遵循以下几项简单规则:


  • 首先,仔细调查这些工具及其运营商访问、存储和共享贵司数据的具体方式。

  • 其次,请制定一项正式政策,明确业务环节中AI生成工具的使用规范,并规划如何将此类工具与现行政策相整合,尤其是客户数据隐私政策。

  • 第三,政策应明确,哪些情况下员工可以使用此类工具,并让员工意识到各项限制,比如绝不能在聊天机器人对话框中输入公司或客户的敏感信息。

员工该如何利用这个新工具?

请大型语言模型编写一段代码或撰写致客户函时,应将其视为一位需要盘查的顾问。始终核对其输出成果,以确保其中内容都是事实且准确无误,以免引起法律纠纷等不必要的麻烦。此类工具存在“妄想”的倾向,即虽然使用清晰、易于理解和明确的语言回答问题,听起来完全正确,但实际上答案却是错误的,人们也难以区分正确与错误的输出结果。


在使用由大型语言模型生成的答案时,务必留意可能存在的版权问题。2023年1月,三位画家作为原告代表,针对Stability AI和Midjourney影像生成器以及DeviantArt在线画廊提起了集体诉讼。


三位画家控称,在未经版权所有者同意的情况下,Stability AI主创软件Stable Diffusion擅自从互联网上抓取数十亿幅图片进行训练,其中包括这三位画家的作品。

企业可以落实的数据隐私保护措施有哪些?

数据隐私保护措施的一些示例包括:建立访问控制机制、告诫员工勿输入敏感信息、使用具有多层防御体系的防毒软件并与远程访问安全工具相配套,采取措施保护数据中心等。


本质上,需要采取的安全措施与常规软件供应链审核程序,以及其他IT资产潜在漏洞排查程序相一致。人们或许认为,这次的情况与以往不同,因为如今聊天机器人更加智能,但事实是,这只是又一款可能集所有缺陷于一身的软件。