我这里有一个ChatGPT的回答:微软开源DeepSpeed Chat可以提高深度学习模型的训练效率,让训练更快、更高效。它可以在大型集群上加速模型的训练,因此可以更好地利用现有的算力资源,提高算力的利用率。但是,它并不一定会降低算力的建设需求,因为随着深度学习模型的复杂度和数据量的增加,算力需求也会相应增加。
我认为ChatGPT的回答还是符合逻辑的,所以当大量的模型普及,算力的需求应该是爆发性的增长。算力依然是最硬的逻辑,也是必然最早兑现的逻辑之一。
那么我们可以设想一个环境,每一个家庭甚至每一个都有一个服务辅助机器人,你会不会希望自己的机器人更符合自己的需求,契合自己的知识结构和生活习惯,那么你是不是需要找一个优秀的模型对他进行个性化训练,你是不是要找一个合适的语料库来训练他,同时需要接入一个云端算力平台进行训练。这就提出了两个要求:优秀的语料库和云端算力。当然如果你够土豪,可以自己本地搞一个训练服务器。将来会不会出现针对个人定制化的语料库售卖平台?这个我感觉是必然的。
所以归根结底,大趋势是算力需求爆发,掌握优秀数据的公司可以卖数据了,然后机器人也走入寻常百姓家。我们可以预料三个方向的受益:机器人,算力,数据资源。