ChatGPT用户信息泄露:把数据交给人工智能前要先保证安全

ChatGPT办公2年前 (2023)发布 一起用AI
521 0 0

技术越先进,安全越重要。

近日,OpenAI发布声明,向其用户和整个ChatGPT社区道歉,并称将努力重建信任。声明称,本周早些时候,该公司将ChatGPT下线,原因是开源库中存在一个漏洞,致使一些用户可以看到另一用户的聊天记录等信息。目前,该漏洞已被修复。OpenAI表示,“在ChatGPT下线前的几个小时,一些用户有可能看到另一在线用户的姓名、电子邮件地址、付款地址、信用卡号后四位,以及信用卡有效期。完整的信用卡号码在任何时候都没有暴露”。

ChatGPT作为当下最热的AI技术,受到业界及公众追捧。随着微软将GPT-4接入Office,PPT、Word、Excel等应用,以及国内文心一言等同类产品的推出,代表着AIGC的广应用阶段来临,包括内容生成、智能客服、金融服务、教育培训、数据分析和处理、医疗、基础法律服务等,都会成为其用武之地。

如此,越来越多的行业和领域逐步接入GPT技术,代表着相关行业的数据、信息、应用等为类GPT服务平台所共享,并且会随着应用范围和频率的增加,获得海量数据和信息。如此就产生了一个问题:人们是否放心将数据和信息都交由类GPT服务平台?毕竟,数据和信息代表着个体隐私,也指向行业的生产要素,具有很高的私密性,一旦外泄,将对消费者和企业、行业造成严重影响,包括给个体与企业带来巨大的经济损失,一旦敏感信息被泄露,黑客或其他恶意组织可能会利用这些信息进行诈骗、盗窃、欺诈等行为,从而损害个人和企业的经济利益。

此外,数据外泄也说明企业安全管理系统存在明显的漏洞,黑客等一旦利用漏洞进行大规模的网络攻击、恶意软件感染等,将造成企业安全系统的全面崩溃。而当大量敏感信息被泄露,客户可能会失去对企业的信任和忠诚度,如此将对企业的品牌形象和声誉造成不可逆危害,从而影响企业的长期竞争力和市场地位。

ChatGPT目前已经拥有超过1亿用户,虽然OpenAI并未说明,此次泄密事件中,所谓“一些”用户可以看到另一用户的聊天记录标题,“一些”到底是多少数量级?但哪怕只有千分之一的用户接触到这一漏洞,其后果都是不可估量的。也因此,OpenAI将ChatGPT紧急下线,但如果部分用户以此为由提起诉讼,OpenAI将面临不小的麻烦。

ChatGPT泄密事件也是一种警示:再先进的新技术,如果存在安全后门,则应用越广泛、带来的不可控风险越高。因此,无论是技术开发方和使用方都要高度重视其安全体系建设。对于OpenAI来说,固然要加快技术迭代,推动GPT技术更加先进和成熟,如GPT-4技术的推出,也要同步加大在安全性测试和后续常态化管理的投入,包括出现数据外泄等问题时的紧急检测及修补措施,以及更为重要的预防体系建设,如内控流程的完善、数据的脱敏处理等,最大限度保障GPT技术及产品的安全性。

而作为GPT技术的使用方,个人需提高自我保护意识,对涉及个人隐私的敏感信息和数据,不轻易提供给类GPT技术服务平台,使用安全可靠的防火墙软件并定期更新,学习各类最新网络安全防范知识。企业则应与类GPT技术服务平台在事先签订的服务合约中,明确厘清双方在数据信息安全保护的权责边界,一旦对方管理不当可严肃追责,倒逼类GPT技术服务平台强化安全服务意识。同时,企业自身也要持续加大安全投入,建立严格的信息和数据安全制度, 使用加密技术来保护敏感信息的传输和存储;建立多个数据备份库,对敏感信息进行访问控制;加强监控和审计,定期检查和分析企业系统和网络中的安全事件和异常行为,及时发现和解决安全问题。

ChatGPT被称为新一代AI技术的代表,人们兴奋于其技术的颠覆式创新,讨论其未来能够在辅助人类工作、学习等方面发挥多么强大的作用。然而请不要忘记,没有安全后盾的技术将一无是处。ChatGPT也应成为新一代网络安全技术的代表,提供高标准的技术防范体系,确保个人及企业的信息安全性和业务连续性。如此,ChatGPT才能成为人类发展之福,而不是打开了潘多拉盒子。

财经评论人 毕舸

编辑 徐超

校对

© 版权声明

相关文章