《英特尔联手中兴优化深度学习模型推理,实现降本增效》白皮书发布

发布时间:2022-12-28

2022年12月,中兴通讯联合英特尔共同发布了《英特尔联手中兴优化深度学习模型推理,实现降本增效》白皮书。本白皮书深入介绍了中兴通讯主导的开源项目Adlik如何与英特尔OpenVINO工具结合,实现深度学习模型落地 “多快好省”的目标,助力行业智慧化变革。

 

以深度学习为代表的人工智能技术已经在多个领域大放异彩,成为行业数智化转型的核心推动力。但模型部署、模型优化、硬件选择等多重挑战制约了深度学习模型落地的步伐。因此中兴通讯在Linux基金会人工智能&数据基金会发起了开源项目:Adlik深度学习推理工具链,以加速深度学习模型落地的工程化、产业化、规模化。

 

为了满足通信领域不同的业务场景和复杂的 AI 工作负载,以及在不同的应用场景和部署环境下对模型推理性能的要求,中兴通讯与英特尔合作,将 Adlik与英特尔® 至强® 可扩展处理器和OpenVINO™ 工具套件结合,打造了端到端的深度学习模型优化和部署方案,加速深度学习应用进程。

 

本白皮书详细探讨了如何基于Adlik+第三代英特尔® 至强® 可扩展处理器+ OpenVINO™工具套件快速构建端到端的深度学习推理工作流,显著提升云边端等多种场景下的推理性能,并降低用户在性能优化方面的时间成本与技术门槛。

 

后续,中兴通讯将持续深入在AI技术发展与创新方面的产业合作,助力不同行业实现智慧化转型,为数字经济发展提供强劲动力。

 

点击下载:《英特尔联手中兴优化深度学习模型推理,实现降本增效》

file