行业专家对记者表示,ChatGPT类AI技术发展过程中,面临着虚假信息、数据安全、知识产权合规、伦理等各种各样的风险。

类似ChatGPT的AI(人工智能)技术合规和安全性备受关注。4月11日,中国国家网信办正式发布《生成式人工智能服务管理办法(征求意见稿)》(下称“意见稿”),促进生成式人工智能技术健康发展和规范应用。

与此同时,美国拜登政府已经开始研究是否需要对ChatGPT等人工智能工具进行审查。此前,意大利、德国监管机构已发布ChatGPT禁令,法国、爱尔兰、西班牙等国也开始考虑对AI聊天机器人采取更严格的监管。

收紧对ChatGPT类AI的监管折射出的是人们对数据和隐私信息泄露的担忧。“大规模使用网络公开数据训练模型,很有可能意外泄漏个人隐私信息。”多位行业专家对记者表示,ChatGPT类AI技术发展过程中,面临着虚假信息、数据安全、知识产权合规、伦理等各种各样的风险。

数据、隐私信息泄露受诟病

ChatGPT类AI工具一直饱受“泄露数据和隐私信息”诟病,中国支付清算协会4月10日发布的《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》(下称《倡议》)指出,ChatGPT类智能化工具已暴露出跨境数据泄露等风险。

博通咨询金融行业首席分析师王蓬博对记者表示,ChatGPT等工具需要对数据库不断更新,通过持续训练才能逐渐进化。在这个过程中,很有可能造成个人信息泄露。

“不可否认的是,在ChatGPT发展过程中,面临着虚假信息、数据安全、知识产权合规、伦理等各种各样的风险。” 萨摩耶云科技集团创始人林建明告诉记者。

金融壹账通人工智能研究院总工程师徐亮在接受记者采访时表示,目前,ChatGPT存在事实性错误、实时性差、缺乏稳定和可重复性等不足,通过OpenAI放出的训练核心步骤可以发现,ChatGPT更像是一个组合了数种新技术模块的基本框架,这个框架自身的每个部分都还有广阔的改进空间。

冰鉴科技董事长顾凌云也对记者表示,类似ChatGPT的AI技术目前确实还存在不少风险。比如大规模使用网络公开数据训练模型,可能会使得意外泄漏的个人隐私信息留存在神经网络中,存在隐私风险。

顾凌云进一步指出,ChatGPT模型使用人类的反馈来对模型进行调优,但这些反馈无法代表所有的人,这也给模型带来了统一的有偏好的价值判断,存在一定的道德风险。

ChatGPT类AI监管正当时

为了促进生成式人工智能技术健康发展和规范应用,中国国家网信办发布的意见稿指出,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。

用于生成式人工智能产品的预训练、优化训练数据,不但要符合《中华人民共和国网络安全法》等法律法规的要求,还不能含有侵犯知识产权的内容。如果数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形。此外,还要能够保证数据的真实性、准确性、客观性、多样性。

中国支付清算协会发布的《倡议》表示,支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具。在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。

不单单是中国在抓紧对ChatGPT类AI的监管,据外媒报道,美国拜登政府已经开始研究是否需要对ChatGPT等人工智能工具进行审查,美国AI巨头将共同商议并制定AI相关安全协议。

此前的3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。同时个人数据保护局开始立案调查。

意大利个人数据保护局认为,ChatGPT泄露了用户对话数据和付款服务支付信息,没有告知用户将收集处理其信息,缺乏大量收集和存储个人信息的法律依据,同时缺乏年龄验证系统,因此未成年人可能接触到非法信息。OpenAI公司必须在20天内通过其在欧洲的代表,向意大利个人数据保护局通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。

随后,德国监管机构也宣布禁止使用ChatGPT,法国、爱尔兰、西班牙等欧洲国家也开始考虑对AI聊天机器人采取更严格的监管。加拿大隐私专员办公室在当地时间4月4日宣布对聊天机器人ChatGPT开发公司OpenAI展开调查,该调查涉及“OpenAI未经同意收集、使用和披露个人信息”的指控。