异动
登录注册
微软论文ChatGPT 仅仅20B 参数
空心入网
超短追板的萌新
2023-10-31 08:17:04
微软论文声称 ChatGPT 是 20B (200亿) 参数量的模型

如果是真的,对国内大模型是一个比较大的影响,对算力是一个比较大的利空

国内一直觉得落后ChatGPT的原因是参数问题,觉得ChatGPT的参数在100B以上,甚至在175B以上。

如果这个论文是真的,那么ChatGPT对国内大模型是碾压的。ChatGPT甚至能在个人电脑上跑起来。对国内算力算一个不大不小的利空

ChatGPT是目前大模型的领导者,他这个论文无疑会较大的影响国内大模型的发展方向

接下来国内大模型很可能从卷参数(也就是算力)转向卷数据质量


论文链接:https://arxiv.org/pdf/2310.17680.pdf


字数补充,字数补充,字数补充,字数补充,字数补充

字数补充,字数补充,字数补充,字数补充,字数补充

作者利益披露:原创,不作为证券推荐或投资建议,截至发文时,作者不持有相关标的。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
高新发展
工分
0.47
转发
收藏
投诉
复制链接
分享到微信
有用 1
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
暂无数据