模型|做AI这么轻松吗?因为百度飞桨技术力又飙升了( 六 )


为了进一步降低企业开发者的应用门槛 , 飞桨企业版在模型部署方面也迎来了全新升级 , 让AI应用的最后一公里高效便捷 。 据忻舟介绍 , 此次飞桨企业版模型部署的全新升级基于飞桨推理部署工具链 , 与平台深度融合 , 打造自动高效的企业级部署功能 。

模型|做AI这么轻松吗?因为百度飞桨技术力又飙升了
文章图片

飞桨企业版模型部署升级显著提升了推理性能 , 还能广泛适配推理芯片 , 大幅提高部署效率 。 如何做到的呢?要从以下三个方面说起 。
? 模型压缩上 , 基于PaddleSlim工具 , 结合一些前沿的压缩算法 , 根据不同模型和硬件的特点和压缩级别的要求 , 设计了多条全自动组合压缩流水线 , 自动选择最佳压缩路径 。 对常见的模型 , 平均精度损失控制在 1% 内 , 加速比能达到 3-5 倍 。
? 推理和硬件适配上 , 采用飞桨推理部署工具链中的飞桨推理引擎 , 如Paddle Inference、Paddle Lite和 Paddle.js , 适配了超过 30 多款芯片 。 推理性能也十分出色 , 在端和边缘设备的Arm芯片上尤为突出 。 此平台更是为开发者测试并验证了9345 种模型芯片的组合 , 覆盖 95% 的适配需求 。 通过平台提供的推理能力 , 开发者能够节省97% 的自行适配开发时间;
? 最后是文章开头百度展示的模型服务化与智能边缘控制台 , 能够大幅提高部署效率 。
对了 , 还有最后的彩蛋 , 那就是全新发布的飞桨EasyDL桌面版 。

模型|做AI这么轻松吗?因为百度飞桨技术力又飙升了
文章图片

有了它 , 开发者不必繁琐地配置各种套件 , 在桌面一键极速安装即可实现本地高效建模 , 1分钟安装完成 , 15分钟即可完成模型开发 。 本地实现数据管理、算力调度、网络应用 , 让AI「触手可得」 。
WAVE SUMMIT+ 2021上飞桨发布的新技术 , 无不紧跟当前AI研究前沿 , 提升AI模型开发、训练与部署的整合的速度 , 降低了应用门槛 。 飞桨这些年 , 沿着这条道路越走越宽 , 开发者已经达到了406万 , 人们在飞桨平台中构建了47.6万个模型 , 飞桨提供的服务也已覆盖了15.7万家企事业单位 。
这样的成绩 , 让百度飞桨在中国深度学习平台综合市场份额排名第一 。

模型|做AI这么轻松吗?因为百度飞桨技术力又飙升了
文章图片

深度学习框架下接芯片 , 上承各种应用 , 堪称「智能时代的操作系统」 , 作为国内首个自主研发、开源开放的产业级深度学习平台 , 飞桨是越来越多AI开发者的首选 , 承载了无数工业级应用 。
【模型|做AI这么轻松吗?因为百度飞桨技术力又飙升了】

推荐阅读