近期,ChatGPT的火爆已从科技界扩散至各行各业,同时也在A股市场上掀起狂热的炒作浪潮。科技在给人带来便捷的同时,也带来监管和道德的问题。
例如,用ChatGPT“作弊”成为全球所关注的话题。根据美国一项调查显示,每10名学生中就有超过9名知道ChatGPT,超过89%的学生使用ChatGPT来完成家庭作业。为应对AI给教育带来的挑战,纽约教育部已经颁布了禁止ChatGPT的命令。
在学术领域,用ChatGPT生成的论文也是令期刊头疼。为防止AI作弊,多家全球知名学术期刊正在更新编辑规则。《科学》明确禁止将ChatGPT列为合著者,且不允许在论文中使用ChatGPT所生产的文本;《自然》则表示,可以在论文中使用大型语言模型生成的文本,其中也包含ChatGPT,但不能将其列为论文合著者。
由于ChatGPT产生的内容几乎可以达到“以假乱真”的地步,人们通过肉眼很难发现背后的作者是AI.那么,有无科技手段识别AI产生的内容呢,以达到监管AI的目的?
近日,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正在接受采访时表示,针对目前潜在的风险及监管隐患,加入“数字水印”或将成为一种解决方案。
数码视讯则在互动平台表示,公司是第一家通过ChinADRMLAB安全评估的数字水印产品方案商。
汉邦高科在投资者互动平台表示,其数字水印技术可以在盗版追溯、媒资管理、安全保护、防伪验真等多方面有众多衍生应用