2022 年 ,由美国 OpenAI 公司开发的聊天机器人 ChatGPT 出道即巅峰。这款被业界概括为聊天机器人+搜索工具+文本创造工具的组合,一时间风靡全球。
ChatGPT在短短两个月内活跃用户数就突破了1亿,成为了有史以来用户增长最快的应用程序之一,并且随着其功能的日益完善,ChatGPT已大面积融入了人们的日常生活和工作,成为许多企业和个人必不可少的工具。(直呼666~~~)
但在受到多方赞美的同时,社会对于ChatGPT背后数据和网络安全的担忧也日渐增长。多地政府及大型企业都已开始警惕ChatGPT带来的潜在威胁。
● 中国成为第一个针对生成式人工智能立法的国家。我国网信办于2023年4月11日起草并公布了《生成式人工智能服务管理方案》(征求意见稿)。
●意大利成为首个禁止访问ChatGPT的国家。该禁令是由ChatGPT一度出现漏洞造成用户数据泄露引起的,涉及约1.2%的ChatGPT Plus用户的姓名、邮箱地址、付款地址、信用卡后四位数字等。
● 金融企业对ChatGPT的使用接连作出应对。早在2月,美国银行、JP摩根大通、德意志银行、包括日本的软银、瑞穗金融集团等金融企业接连限制或禁止ChatGPT在工作中的使用。
● 科技行业企业使用ChatGPT发生数据泄露事件。手机巨头三星曾在ChatGPT使用过程中连续发生三起资料外泄事故,泄露了包括半导体设备测量源代码、产品良率程序代码、内部会议纪要等机密信息,
● 数据安全隐患成为各国“围剿”ChatGPT的源头。德国表示将效仿意大利,以数据安全方面的担忧为由,屏蔽ChatGPT。日本、加拿大、法国和爱尔兰方面,也纷纷表示将加强对 ChatGPT的监管,必要情况下可能会追随意大利的脚步。
事实上,在意大利数据泄露事件前,OpenAI 公司一直默认将用户输入的内容用作训练数据,获取了大量敏感数据。美国本土企业亚马逊、沃尔玛,已向员工发出通知,警告员工不要向ChatGPT的AI工具共享敏感信息。之所以如此,就是因为发现 ChatGPT 生成的内容与其保密数据高度相似,这显然是有员工将保密数据输入 ChatGPT 所致。
举一个典型的场景:
员工小Y将公司代码库里的源代码输入ChatGPT去检查并修复Bug,即使OpenAI公司明确表示了不会滥用用户数据,但竞对公司也依旧能通过巧妙的提问方式绕开 ChatGPT 的过滤机制,获取小Y公司的源代码数据。这种形式的敏感数据泄露将会对公司安全与业务带来巨大的风险。
此外,ChatGPT还会降低网络犯罪分子的准入门槛,更容易生成攻击代码,对企业内部进行钓鱼或撞库攻击,威胁企业信息安全。
在多方压力下,OpenAI 公司已为ChatGPT添加了“禁止用用户数据训练人工智能”的选项,但寄托于外部条件管理对企业而言终究并非是“上上之策”。
企业在这科技革命浪潮中该如何“自我防御”,应当采用怎样的安全措施来实现信息安全与数据安全?
别着急!亿格云枢 “功能上新”:协助企业解决ChatGPT使用带来的数据安全难题!!!
有效实现:
实时监测复制粘贴敏感数据行为
实时监测敏感数据外发
模拟复制敏感数据(源代码)到ChatGPT的过程
数据泄露全链路行为,无论是截图还是文字,都会被跟踪监测到,以便后期的审计与溯源,防止企业内部员工将敏感数据上传到ChatGPT发生信息安全事件,最大程度上降低企业信息泄露风险!
行为审计实时监测敏感数据复制到ChatGPT的过程
不可否认的是,任何新技术的迭代都会推进产业与社会的变革与进步,但更要辩证看待任何事物都具有双面性!我们在享受ChatGPT带来工作效率提升的同时,更要善于运用AI这一革新级的稀缺资源,进一步规划增强企业的安全能力,让科技更好的为生活与工作服务!