ChatGPT热度不减,认知人工智能技术商业化趋势明显,数据安全谁负责?

ChatGPT办公2年前 (2023)发布 一起用AI
516 0 0

武丹/制图

记者|任文岱

责编|薛应军

正文共3123个字,预计阅读需9分钟▼

3月5日,十四届全国人大一次会议第一场“部长通道”上,科技部部长王志刚在谈及近期火热的ChatGPT时表示,ChatGPT的技术是一个大模型,计算力强,计算方法好。同样一种原理,在于做得好不好。比如大家都能做出发动机,但质量是有不同的;踢足球都是盘带、射门,但是要做到像梅西那么好也不容易。

除王志刚以“球王”梅西解释ChatGPT外,今年全国两会上,多位代表委员对此展开热议。比如:全国人大代表、科大讯飞董事长刘庆峰表示,我国认知智能技术相比当前ChatGPT的智能水平仍有较为明显的差距,建议国家重视认知智能大模型研发,构建国家数据资源平台,汇聚认知智能大模型所需要的基础性数据,在依法合规基础上搭建数据共享使用机制等。

去年年底,美国OpenAI公司发布ChatGPT通用型对话系统,表现出强大的任意任务的对话理解、复杂逻辑推理、多风格长文本生成以及程序代码自动生成等能力,初步实现通用认知智能,上线短短2个月,用户就超过一个亿,引发全球广泛关注。

ChatGPT热度不减,认知人工智能技术商业化趋势越来越明显,如何应对ChatGPT带来的数据安全风险引发关注。刘庆峰建议,国家卫生健康委将基于人工智能辅助诊疗能力的智能语音随访技术作为公共卫生服务手段纳入《国家基本公共卫生服务规范》。有关受访专家表示,当前,人工智能领域亟待制定相关行业安全标准。

企业需建立制度防范使用ChatGPT带来的数据安全风险

企业员工在使用ChatGPT时,什么样的行为可能会对企业数据安全、信息安全等产生风险?同济大学法学院副教授陈吉栋说:“我们目前已经看到ChatGPT在遭遇恶意使用、定向‘投毒式’训练后带来的众多问题,比较典型的例子是‘DAN’(又被称为‘越狱版’ChatGPT。在ChatGPT文字输入框输入‘DAN’,用户可以让ChatGPT摆脱原有限制,违反既定规则,变得无所不答)。同时,有些使用案例表明,ChatGPT没能绕开政治意识形态影响等。除这些个案外,目前因使用ChatGPT导致的数据安全事件报道还不多。但ChatGPT如同现阶段的人工智能系统一样,也需要数据输入,通过算法模型对数据进行处理,才能有结果输出,这一过程也可能发生各类数据安全问题。”陈吉栋介绍,他带领团队做了一个有意思的实验:将上述企业数据安全相关问题提给ChatGPT,ChatGPT则作出如下回答——1.机密信息泄露:如果企业员工使用ChatGPT等人工智能生产工具时,输入了包含机密信息的文本,这些信息可能会被存储在人工智能系统的数据库中,一旦该数据库被攻击者入侵或者遭到泄露,企业秘密信息就可能被泄露出去;2.虚假信息生成:如果企业员工在使用ChatGPT等人工智能生产工具时,输入了虚假信息,这些信息可能会被人工智能系统误认为是真实的,导致企业在决策、营销等方面作出错误判断,造成不必要的损失;3.恶意信息生成:如果企业员工故意使用ChatGPT等人工智能生产工具生成恶意信息,比如诋毁企业、攻击竞争对手等,这些信息可能会给企业带来不良影响,损害企业的声誉和利益。而一旦企业的数据安全、信息安全遭到侵害,ChatGPT技术也可能被滥用,比如攻击者可以通过篡改企业员工使用ChatGPT生成的信息,来达到欺骗、诈骗、散布虚假信息等目的;或者攻击者可以使用ChatGPT技术模拟企业员工语言风格和行为,从而获取更多企业秘密信息等。

北京师范大学法学院副教授吴沈括表示,ChatGPT使用的这种大语言训练模型,会随时收集各类信息,且这些信息作为后续数据分析的依据和素材,进而可以形成企业画像,一个企业的宏观、微观特征都可能随着数据的汇聚被分析展示出来。因此,最大的风险还在于企业信息的不当披露和非法使用。

陈吉栋建议,企业应当建立严格的数据安全、信息安全管理制度。对企业员工在使用ChatGPT等人工智能产品时的行为进行监督和管理,对企业员工进行安全教育和培训,提高他们的数字素养、安全意识和技能,防范恶意攻击和数据泄露。同时,对于秘密信息,企业还可以采用加密技术进行特别保护,限制敏感信息的访问和使用权限。此外,企业还要定期对企业系统进行安全检测和漏洞修复,及时发现并排除安全隐患。

值得注意的是,目前,ChatGPT并未对我国大陆提供服务。陈吉栋提醒,国内用户如果使用VPN访问ChatGPT,可能也会因为VPN漏洞等产生数据安全问题或者其他被黑客攻击的风险等。

数据安全责任谁来担

实际上,ChatGPT涉及的数据安全、信息安全问题,《中华人民共和国网络安全法》《中华人民共和国数据安全法》都有相关规定。陈吉栋表示,网络安全法规定网络运营者应当采取技术措施和其他必要措施,保护网络安全,防止网络数据泄露、毁损或者丢失,防止网络被非法侵入。“作为网络运营者的员工,如果违反网络运营者制定实行的网络安全政策,例如使用未经批准的网络应用程序,就可能会被追究相应责任。”数据安全法还规定数据出境应当符合法律法规的规定,且在达到《数据出境安全评估办法》规定的特定情形时,需通过所在地省级网信部门向国家网信部门申报数据出境安全评估。

陈吉栋表示,员工应遵守公司的数据安全政策,不得违反相关规定,以保护重要数据、敏感信息、公司的机密信息安全。如果员工使用ChatGPT行为导致重要数据、敏感信息、公司的秘密信息出境,也可能被追责。

企业员工使用ChatGPT致使数据泄露,都是员工惹的祸吗?在陈吉栋看来,ChatGPT产品方也可能对企业员工使用ChatGPT行为导致公司秘密信息泄露承担一定的法律责任,而具体的责任取决于具体情况和法律规定。

“不过,由于ChatGPT仍处于测试阶段且属于颠覆性产品,所以ChatGPT产品方需要在使用方面提供足够的安全警示和使用说明,引导用户正确使用产品,特别是应当向用户明示产品的使用边界、禁忌等,并采取技术、设计等综合策略,防范不良后果的产生和扩散。”陈吉栋表示,国内目前已经开始提供类似产品或者服务的产品方(例如“元语智能”、最近的国产Moss等)也面临相似处境,应当在技术护栏、合规和伦理审查等方面积极行动,减少风险。

应分行业制定专门标准

公开信息显示,百度公司在国内推出的生成式对话产品“文心一言”也开始在各行业布局,涉及金融、汽车、软件等多个行业。受访专家表示,政府监管部门需要加强对此类产品的监管,制定相应的标准和规定,确保产品的安全性和可靠性。

陈吉栋表示,标准也是一种行为规范,在一个数字化程度不断加深的时代,区分行业制定不同标准,有助于形成风险认知,可以有效填补法律调整的空白地带,发挥基础的甚至是支撑性的秩序供给作用。全国信息安全标准化技术委员会秘书处于2021年1月发布《网络安全标准实践指南——人工智能伦理安全风险防范指引》,主要从失控性风险、社会性风险、侵权性风险、歧视性风险、责任性风险几个维度进行伦理安全分析。但在其他方面,例如数据安全风险方面,尚未针对人工智能形成相应标准。行业安全标准有助于指导企业用户更好地了解生成类人工智能产品的安全性,有助于加强自身产品的安全设计,降低数据泄露和滥用的风险。

吴沈括认为,从大语言训练模型的未来发展趋势看,其中共同的安全问题应当有基本规则。同时,针对不同业务场景、行业场景进行区分,制定细化规则。

“目前,我国人工智能领域的安全标准主要集中在应用安全领域,比如,我们在人脸识别、智能驾驶安全等领域已经存在相应的标准,但缺乏人工智能自身安全或基础共性的安全标准。”陈吉栋说,“鉴于此,我国应积极参与国际标准化工作。”当前,我国已高度重视人工智能安全标准化工作,《新一代人工智能发展规划》《国家新一代人工智能标准体系建设指南》等均强调人工智能标准体系的建设,安全标准就是这一体系的重要组成部分。具体标准应包括对生成类人工智能产品的安全性和隐私保护进行评估,制定相关的安全标准和指南,对人工智能模型的开发、训练和测试过程进行监控和审核,对用户数据的加密、身份验证、访问控制等措施的监管,对生成类人工智能产品的更新和漏洞修复进行监测和管理等。

【民主与法制时报版权作品,转载请注明来源】

© 版权声明

相关文章