美国政府周二表示,正在就人工智能(AI)系统的潜在问责措施征求公众意见。
就在前一天,中国国家互联网信息办公室也就《生成式人工智能服务管理办法(征求意见稿)》向社会公开征求意见。
AI的发展前提是信任
美国国家电信和信息管理局(NTIA)4月11日表示,该机构希望得到公众的意见,因为对人工智能问责机制的监管已经引起越来越大的兴趣。NTIA是商务部的一个机构,就电信和信息政策向白宫提供建议。
该机构称,希望了解是否可以采取措施来保证人工智能系统是“合法、有效、合乎道德且安全的,并且在其他方面值得信赖”。
“负责任的人工智能系统可以带来巨大的好处,但前提是我们要解决它们的潜在后果和危害。 为了让这些系统发挥全部潜力,公司和消费者需要能够信任它们。”NTIA负责人Alan Davidson表示。
有关人工智能对数据安全和个人信息保护方面的问题正在引起全球监管部门的关注。有消息称,4月12日,拜登政府还将召集美国科技公司高管开会,进一步研究是否需要对ChatGPT等人工智能工具进行审查。
ChatGPT作为人工智能程序,已经引起了公众的高度关注,并成为历史上增长最快的消费者应用程序,拥有超过1亿月活跃用户。与此同时,它也吸引了美国立法者的注意。
美国总统拜登上周表示,人工智能是否有潜在的危险还有待观察。 “在我看来,科技公司有责任确保他们的产品发布之前是安全的。”拜登说。
此前美国技术伦理组织人工智能和数字政策中心要求美国联邦贸易委员会(FTC)阻止OpenAI发布新的GPT-4商业版本,称其“有偏见、具有欺骗性,并对隐私和公共安全构成风险”。
OpenAI公司周二表示,它将向报告其人工智能系统漏洞的用户提供高达 2万美元的奖励。OpenAI发布了一项名为Bug Bounty的计划,并邀请研究人员审查ChatGPT的某些功能以及OpenAI系统如何与第三方应用程序共享数据的框架。
但随着ChatGPT在行业内外引发越来越多的担忧,监管部门一致认为,指望开发商自我监督是不够的。
欧洲各国政府也正在将人工智能的监管提上议程。法国隐私监管机构CNIL周二表示,已收到多起关于ChatGPT的投诉,并正在调查这些投诉。
西班牙数据保护机构AEPD周二也表示,已要求欧洲数据保护委员会评估围绕OpenAI的人工智能聊天应用程序ChatGPT的隐私问题。AEPD还表示,欧盟可能需要在针对个人权利产生重大影响的技术方面做出协调一致的决定。
“在短期内,我们已要求将ChatGPT的监管问题纳入欧洲数据保护委员会的下一次全体会议,以便在《通用数据保护条例》(GDPR)的应用框架内实施协调一致的行动。”AEPD称。
法国和西班牙监管机构的表态是在意大利暂时禁止ChatGPT的使用后发出的。德国监管部门上周也警告称,可能会效仿意大利的做法,出于数据安全问题阻止ChatGPT在该国的使用;英国数据监管机构表示,已经向那些在没有适当考虑隐私的情况下开发聊天机器人的科技公司发出警告。
中国拟加强生成式AI监管
近期,由ChatGPT和Midjourney等功能强大的文本和图像生成模型的推出,带来的风险和挑战比以往任何时候都更加明显,不仅触发了大量虚假信息的爆发式增长,还引发了大量失业的潜在风险。
“令人震惊的不仅仅是技术的进步程度,而且还在于技术进步的速度,尤其是当科技公司竞相超越彼此时,我们不知道会发生什么。”一位人工智能业内资深人士告诉第一财经记者。
上述人士认为,网络上流传的AI生成图片或者文字,还只是虚假信息的“冰山一角”。 “如果不及时加以规范,错误、有害及不负责任的信息可能会随着技术的狂奔加剧。”他对第一财经记者表示,“虽然这对监管提出了很高的要求,但这仍然是需要的。”
在中国,包括商汤科技和阿里巴巴在内的科技巨头公司都发布了类似ChatGPT的人工智能应用程序,这同样引起了中国监管部门的关注。
在4月11日国家网信办发布的一份《生成式人工智能服务管理办法(征求意见稿)》中提出,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
昆山杜克大学电子与计算机工程教授、大数据研究中心主任黄开竹对第一财经记者表示:“看到这个征求意见稿,第一感觉就是生成式AI(AIGC)的‘护栏’终于要来了。”
黄开竹告诉第一财经记者,从2022年底以来,生成式人工智能技术和应用就以前所未有的速度发展,给用户带来震撼的同时,也带来了很多担忧和隐患。
“各种利用生成式人工智能技术的应用和系统大量涌现,但算法背后的安全性、公平性, 可信性、隐私保护和风险等方面得引导和规范应该来说是滞后的。”他对第一财经记者说道,“生成式人工智能服务管理办法(征求意见稿)来得非常及时,而且从技术角度看起来非常专业,给开发和利用AIGC加上了‘护栏’,要求清晰合理,这将有利于引导和规范AIGC技术朝正确的轨道发展。”
与此同时,由于担心跨境数据泄露的可能性,中国支付清算协会本周也警告其成员不要使用ChatGPT和类似的人工智能工具。“支付行业的从业者必须遵守所在地区的互联网使用规定。”该机构称,“他们应该全面评估使用ChatGPT等工具处理工作的风险,并依法合规使用ChatGPT等工具。”
中国支付清算协会还警告称,使用聊天机器人的支付清算行业的工作人员不应上传涉及国家、金融行业及其公司的机密文件或数据,包括支付和结算基础设施中的客户信息和代码。
中国工程院院士顾晓松在近期举办的一场论坛上也针对ChatGPT引发的伦理问题发表看法。他表示:“ChatGPT是大数据、程序化的计算辅助系统。如何提高效率、加强产品准入,要有规范,要考虑到人工智能可能会犯错。人工智能对人类的发展会产生深远的影响,行业需要有一定的规范,在国际上也要达成一个共识。”
IEEE Fellow郭书祥也在同一场合表示,对于技术的进步,不应该害怕,我国必须迎头赶上。“我们国家也在跟踪ChatGPT的发展,一方面需要各个行业通过法规来约定,另一方面我国也必须要迎头赶上,否则又会落后。”