陈根:OpenAI积极回应ChatGPT带来的安全隐患

ChatGPT办公2年前 (2023)发布 一起用AI
514 0 0

原标题:陈根:OpenAI积极回应ChatGPT带来的安全隐患

文/陈根

ChatGPT,作为新型AI聊天机器人的代表,从2022年11月30日诞生的那一天起,就凭借其依托于数字的“超能力”——可根据用户的要求快速生成文章、故事、歌词、散文、笑话,甚至代码,并回答各类疑问,在互联网上掀起智能新革命风暴的同时,却也激起了安全隐私风险的千重浪。

ChatGPT受世界多国“狙击”

在刚刚过去的3月份,在意大利的ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况,该平台没有就收集处理用户信息进行告知,且缺乏大量收集和存储个人信息的法律依据;而且,根据OpenAI的条款声称该服务面对13岁以上的用户,但平台没有使用任何过滤机制来验证用户的年龄。

就如此情况,意大利个人数据保护局(GPDP)宣布:从3月31日起,禁止在意大利使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息;同时针对OpenAI及 ChatGPT 涉嫌违反隐私规则着手立案调查。

几乎同时,韩国三星半导体部门发生了3起因员工在ChatGPT上输入设备信息及重要会议摘要,导致公司机密外泄风险陡增的事件。据韩国《国民日报》报道,包括三星、SK海力士、韩国浦项制铁公司在内的多家韩企正在采取限制使用ChatGPT的措施,严防员工泄密。

而在GPDP实施禁令并展开调查后,德国监管机构便一直跟 GPDP保持着联系与沟通,并于4月3日表示:出于对个人信息安全的担忧,德国可能会效仿意大利禁止ChatGPT。

4月4日,加拿大联邦隐私监管机构宣布:对聊天机器人ChatGPT的开发公司OpenAI展开调查,因为该公司涉嫌“未经同意收集、使用和披露个人信息”。

4月4日,英国《卫报》称:英国信息专员办公室已经向科技公司发出警告,不要使用个人信息来开发聊天机器人。该机构的技术和创新总监阿尔蒙德表示,类似ChatGPT的生成式人工智能“如果被不负责任地使用,有可能对数据隐私构成风险”。

日本经济新闻网报道,出于对信息泄露的担忧,包括软银、日立、富士通、三菱日联银行和三井住友银行在内的日本公司已开始限制在业务运营中使用ChatGPT等交互式人工智能服务。

英国路透社报道,爱尔兰和法国的个人数据监管机构已经和意大利的同行取得联系,以了解更多有关该禁令的依据。西班牙的数据监管机构也表示,虽然暂未收到任何有关ChatGPT的投诉,但不排除未来对该软件展开调查的可能性。

除此之外,非营利性科技伦理组织AI和数字政策中心(CAIDP)也投诉ChatGPT对隐私和公共安全构成了风险,要求美国联邦贸易委员会(FTC)对OpenAI展开调查,并呼吁官员们审查并监管OpenAI的生成式AI技术,尤其是其新一代大型语言模型GPT-4。

OpenAI积极响应安全危机

OpenAI是由特斯拉CEO埃隆•马斯克(Elon Musk)、美国创业孵化器Y Combinator总裁阿尔特曼、全球在线支付平台PayPal联合创始人彼得·蒂尔等硅谷科技大亨于2015年联合创立的,主攻AI技术应用领域,凭借ChatGPT和图像生成器Dall-E 2等人工智能程序而闻名。

在GPDP就ChatGPT 涉嫌违反数据收集规则展开调查后,OpenAI主动与其进行联系,下线了ChatGPT在该国的相关服务,并表示愿意进行合作,以解决其对数据安全的担忧。OpenAI 相信公司符合个人数据保护法律,但还是会加强个人数据使用的透明度,增强数据主体权利行使机制以及对儿童的保护措施。

在4月6日凌晨,OpenAI发表博客称:“我们认为,强大的人工智能系统应该接受严格的安全评估。需要有监管来确保这种做法被采纳,我们积极与政府接触,探讨这种监管可能采取的最佳形式。”OpenAI还称,解决人工智能安全问题的一个切实可行的方法是投入更多时间和资源来研究有效的缓解和校准技术,并在现实世界的滥用情况下测试它们。

在以ChatGPT为代表的新一轮人工智能浪潮中,越来越多的科技企业将面临着技术发展与数据安全、隐私保护之间的平衡难题。而从OpenAI的声明中,我们不难看出一种谨慎的态度,也相信该公司会采取力所能及的方法来降低AI带来的风险,但还是有两大固有问题是难心解决的:其一,是用户滥用问题,各国用户滥用技术的方法层出不尽,科技公司包括OpenAI在内,是无法全面预防的,所以也只能采用事后纠正的做法;其二,是训练数据的缺陷问题,ChatGPT基于公开数据训练,但公开数据质量参差不齐,所以,即便OpenAI努力做到最好,也可能永远无法实现绝对的安全。返回搜狐,查看更多

责任编辑:

© 版权声明

相关文章