人工智能通用大模型横空出世,全世界看到了AIGC(人工智能生成内容)的强大。与此同时,AIGC的可信度、隐私保护、伦理等问题亦引发空前争议。
我国有关部门快速反应。4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《管理办法》),提出二十一条举措。业界认为,这是国内首次明确针对生成式人工智能服务征求管理意见,将有利于推动AIGC产业健康稳定发展。
近期,大模型开始被指控侵犯个人数据隐私。3月30日,韩国有媒体报道,三星内部发生三起涉及ChatGPT误用与滥用案例,包括两起“设备信息泄露”和一起“会议内容泄露”,三星公司担心,在ChatGPT输入内容后,可能会让敏感内容外泄。当地时间3月31日,意大利宣布禁止使用ChatGPT,起因是一周前,多名ChatGPT用户表示看到其他人与ChatGPT对话记录的标题。意大利官方认为,OpenAI没有提前告知、非法收集用户个人信息,对OpenAI立案调查,并要求公司作出回应。4月初,德国、爱尔兰、加拿大等相继开始关注ChatGPT的数据安全问题。
当地时间4月5日,OpenAI在官网发布文章,详细介绍了公司在AI安全上的部署,回应相关争议,措施包括模型发布前构建完整的AI安全体系,从用户实际使用中积累经验以改善安全措施,保护儿童,尊重隐私,提高事实准确性等。文中特别提到,公司将努力在可行情况下,从训练数据集中删除个人信息,对模型微调以拒绝有关使用者个人信息的请求等。
这封公开信呼吁暂停对超过GPT-4能力的大模型的研发,换句话说,目前绝大多数大模型研发者并不会面临上述挑战,OpenAI仍是众矢之的。
事实上,自3月以来,AI安全问题就频受关注。
3月25日,OpenAI发布公告,证实部分ChatGPT Plus服务订阅用户的个人隐私和支付信息存在泄露。
3月29日,包括马斯克在内的众多人工智能专家和高管联名呼吁,所有人工智能实验室应立刻暂停训练比GPT-4更强大的大模型。
3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并开始立案调查。ChatGPT被指控不遵守有关个人数据的立法并且没有验证未成年用户年龄的系统
4月2日,三星在引入ChatGPT不到20天里,发生了三起半导体机密资料外泄事故,包括两起“设备信息泄露”和一起“会议内容泄露”。
4月3日,德国联邦数据保护专员发言人表示,出于数据保护方面的顾虑,暂时禁止在德国使用ChatGPT在原则上是有可能的。
4月5日,据加拿大CTV新闻报道,加拿大隐私专员办公室(OPC)4日宣布开始调查ChatGPT背后的公司OpenAI,涉及“指控OpenAI未经同意收集、使用和披露个人信息”的投诉。
国盛证券表示,借鉴OpenAI的做法,厂商可以通过下列途径来保障AI安全性:首先要保障数据隐私,包括训练数据来源应公开合法,使用下游应用提供的数据做微调时应协定数据使用范围。
其次,通过人类反馈强化学习等手段让AI与人类价值观对齐,遵循人类意图,还可以向用户提供内容审查工具如OpenAI的moderation endpoint等,帮助用户判断内容是否违规。
技术手段方面,国盛证券指出,AIGC可能生成的虚假信息,需要类似换脸甄别的技术来鉴别图像等信息是否由AI生成;数据隐私方面,隐私计算可以在不暴露数据的情况下进行计算和分析,以实现数据隐私的保护。
3月28日,微软正式发布Microsoft Security Copilot,Security Copilot集成了GPT-4以及微软自己开发的特定安全模型,定位于网络安全人员的AI助手,让安全人员能够通过自然语言交互的方式来实现漏洞识别、威胁检测、安全响应、内部协同等多种操作。