到目前为止,我们都在炒算力、应用、模型,这一类都没问题,我们可以把这一类看做发展型的炒作方向。
人工智能只有发展型的炒作方向吗?这种新生事物,是不是必然有监管型的炒作方向?
近日马斯克在在世界政府峰会(WGS)开幕式上,针对近期爆火的ChatGPT,马斯克表达了他的顾虑,“人工智能是值得人们担忧的,尤其是在安全方面。”马斯克强调说,AI安全需要立法保护,无论是飞机、汽车还是医疗,任何先进技术都可能威胁人类安全,而AI对于人类来说,则是一个更大的安全隐患。
前天的2023中国发展高层论坛上,周鸿祎认为:值得担忧的是由此带来的“大安全”问题,目前GPT-4已经具有看图的能力,预计GPT-6到GPT-8人工智能将会产生意识,变成新的物种去年12月,欧盟理事会通过了关于《人工智能法案》的共同立场,提议成员国必须任命或建立至少一个监督机构,负责确保必要的程序得到遵循。
马云昨天谈ChatGPT:要用人工智能去解决问题,而不是被人工智能所控制。
三位大佬都在说监管问题,人工智能有哪些问题需要防范呢?
ChatGPT或生成式AI的5大安全隐患不容忽视!
1. 数据隐私泄露。
2. 人工智能黑客攻击。
3. 人工智能网络钓鱼。
4. 电话诈骗、短信诈骗。
5. 自我学习产生的类意识(GPT-6到GPT-8)。
AI 监管大势所趋,监管型是人工智能下一步跨越不了的炒作方向!以上5大隐患都指向网络安全板块。
1.任子行:零信任AI解决方案方便快捷了用户操作,智能防止了数据泄露,更全面保护了客户重要敏感业务系统的数据安全。图像持久化存储为事故溯源取证提供了数据支撑,实现了场景应用的闭环,具有重大的产品价值。
2.天融信:公司专门针对数据安全进行前瞻性布局研发,推出针对数据的终端防泄漏、网络端防泄漏、数据脱敏、大数据安全防护、数据安全管控平台等数据安全专用产品,并同步构建针对数据安全治理的咨询服务团队。
3.启明信息:公司麾下全资子公司长春启明信息集成服务技术有限公司,主要开展网络安全等级保护定级协助、等级保护建设咨询、等级保护方案设计、等级保护测评、等级保护培训、安全运维服务以及应急响应等安全服务业务,是从事专业化的信息安全服务提供商。