首页 > 资讯 >

计算机行业:微软开源DEEP SPEED CHAT 将加快大模型应用在各行业的落地 资讯

2023-04-14 09:32:25 来源:平安证券股份有限公司


(资料图)

事项:

当地时间4月12日,微软宣布开源Deep Speed Chat,帮助用户轻松训练类ChatGPT等大语言模型。

平安观点:

Deep Speed Chat的开源,将显著降低用户获得大模型的成本。DeepSpeed Chat是基于微软Deep Speed深度学习优化库开发而成,具备训练、强化推理等功能,还使用了RLHF(人工反馈机制的强化学习)技术,可将训练速度提升15倍以上,成本却大幅度降低。根据微软公布的数据,使用Deep Speed Chat训练,在微软Azure云上,以8X A100-80GB的GPU集群配置,训练一个130亿参数的大模型,只需9小时就能完成训练,训练花费约290美元。以64X A100-80GB的GPU集群配置,训练一个130亿参数的大模型,只需1.25小时就能完成训练,训练花费约320美元;而训练一个1750亿参数的大模型,也只需要20小时,训练花费约5120美元。Deep Speed Chat的开源,能大幅提升大模型训练速度并降低训练成本,将显著降低大模型的获得成本。

Deep Speed Chat的开源,将加速大模型在千行百业的应用落地。获得成本的显著降低,将加快大模型产品在企业端以及C端用户的普及。于企业端用户而言,利用行业know-how数据训练自己的专属大模型变得更具可行性;于C端用户而言,个人拥有自己的大模型产品也成为可能。

自ChatGPT面世以来,办公、游戏、数字人等应用场景已经初见端倪。

随着大模型的普及,预计千行百业都将加快大模型应用的探索,大模型在各行业应用的落地将加快。需要特别提出的是,大模型的普及将带来对算力的巨大需求。虽然Deep Speed Chat能大幅降低大模型的训练成本。但是根据我们之前的估算,在大模型的训练和推理中,推理的花费占比超过80%。更重要的是,参考个人电脑和智能手机的发展历程,获得成本的降低带来的产品普及,将带来对算力的长期巨大需求。

投资建议:Deep Speed Chat的开源,将显著降低用户获得大模型的成本,加速大模型在千行百业的应用落地。大模型产品应用的想象空间已经打开,国内AIGC产业链将迎来空前的市场机会。算法方面,预计今年国内龙头AI厂商将持续推出更多大模型产品;应用场景方面,预计国内将有办公、教育、医疗、金融等越来越多的行业探索大模型产品的应用;算力是短板,由于供应链的问题,我国高端训练芯片供给可能面对较大的压力,AI算力不足的问题可能显现,相关设备研发和基础设施建设企业可能继续受益。同时,AIGC新技术也会带来新的安全挑战,国产安全厂商也将受益。在标的方面:1)算法方面,推荐科大讯飞;2)应用场景方面,推荐金山办公,建议关注拓尔思、远光软件;3)算力方面 ,推荐浪潮信息、紫光股份、中科曙光、龙芯中科、海光信息,建议关注寒武纪、景嘉微;4)网络安全方面,强烈推荐启明星辰,推荐深信服、安恒信息和绿盟科技。

风险提示:1)合规风险上升。部分国家对ChatGPT较为严格,应用落地出现困难,如果后续国内采取类似措施,AIGC行业国内应用将存在较大挑战。2)国内大模型发展可能不及预期。虽然龙头企业持续在推出或规划推出大模型产品,但大规模应用落地还需要市场检验。3)供应链风险可能上升。AIGC在算力领域对海外供应商依赖比较严重,国产替代还需要时间,如果海外限制趋严,国内AIGC发展可能遭到迟滞。

关键词

最近更新