异动
关注
社群
搜公告
产业库
时间轴
公社AI
通知
全部已读
暂无数据
私信
暂无数据
登录注册
我的主页
退出
ling836
2023-04-16 23:17:09
谢谢分享。加油!
@困境博弈:
1、AI服务器需要高功率机柜,液冷或成为必选项。AI大模型训练和推理运算所用的GPU服务器的功率密度将大幅提升,以英伟达DGX A100服务器为例,其单机最大功率约可以达到6.5kW,大幅超过单台普通CPU服务器500w左右的功率水平。根据《冷板式液冷服务器可靠性白皮书》数据显示,自然风冷的数据中心
12 赞同-13 评论
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
工分
0.01
转发
收藏
投诉
复制链接
分享到微信
有用 0
打赏作者
无用
真知无价,用钱说话
0个人打赏
清空
确定
清空
确定
导入文档
同时转发
发布
暂无数据
确定要分配的奖金