异动
关注
社群
搜公告
产业库
时间轴
公社AI
通知
全部已读
暂无数据
私信
暂无数据
登录注册
我的主页
退出
成都华微=低价+次新+央企+SRAM
专注次新华仔
无师自通的老司机
2024-02-20 20:32:32
作者利益披露:原创,不作为证券推荐或投资建议,截至发文时,作者持有相关标的,下一个交易日内没有卖出计划。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
成都华微
S
北京君正
S
纳思达
S
光力科技
S
西测测试
工分
8.91
转发
收藏
投诉
复制链接
分享到微信
有用 10
打赏作者
无用
真知无价,用钱说话
0个人打赏
清空
确定
清空
确定
导入文档
同时转发
发布
评论(9)
只看楼主
热度排序
最新发布
最新互动
镜面
超短追板的老韭菜
只看TA
02-22 13:45
谢谢分享
0
0
打赏
回复
投诉
于2024-02-22 13:54:24更新
查看1条回复
捣股王
只看TA
02-20 22:58
0
0
打赏
回复
投诉
于2024-02-20 23:10:19更新
查看1条回复
专注次新华仔
无师自通的老司机
只看TA
02-20 21:52
0
0
打赏
回复
投诉
小毛日记
疯狂点赞
只看TA
02-20 21:02
为了支持运行单个AI模型,你需要配置大约256个LPU,相当于4个满载的服务器机架。每个机架可以容纳8个LPU单元,每个单元中又包含8个LPU。
相比之下,你只需要一个H200(相当于1/4个服务器机架的密度)就可以相当有效地运行这些模型。
GROP的LPU一张卡2万美金,256张卡才等于一张H200,没什么实际应用。太贵
0
3
打赏
回复
投诉
于2024-02-20 21:52:18更新
查看1条回复
上一页
1
下一页
前往
页
确定要分配的奖金