你的位置:首页 > 互连技术 > 正文

瑞芯微AI芯片加持百度飞桨,携手加速AI应用落地

发布时间:2020-05-14 责任编辑:lina

【导读】5月13日,瑞芯微Rockchip正式宣布,旗下AI芯片RK1808、RK1806适配百度飞桨(PaddlePaddle)开源深度学习平台,充分兼容飞桨轻量化推理引擎Paddle Lite。此次瑞芯微与百度合作,旨在为AI行业赋能更多应用场景,加速AI产品落地进程。
 
5月13日,瑞芯微Rockchip正式宣布,旗下AI芯片RK1808、RK1806适配百度飞桨(PaddlePaddle)开源深度学习平台,充分兼容飞桨轻量化推理引擎Paddle Lite。此次瑞芯微与百度合作,旨在为AI行业赋能更多应用场景,加速AI产品落地进程。
 
瑞芯微AI芯片加持百度飞桨,携手加速AI应用落地
百度飞桨与瑞芯微兼容性认证书
 
在AI时代,深度学习框架和操作系统类似,起着承上启下的作用,连接芯片与应用。拥有强大算力的AI芯片加持,AI技术将得到更广泛普及。
 
NPU时代来临软硬结合性能优化
瑞芯微AI芯片RK1808及RK1806,内置独立NPU神经计算单元,INT8 算力高达3.0TOPs;采用22nm FD-SOI工艺,相同性能下的功耗相比主流28nm工艺产品降低约30%,在算力、性能、功耗等指标上均有优异的表现。经实测,瑞芯微AI芯片在Paddle Lite中运行MobileNet V1耗时仅为6.5 ms,帧率高达153.8 FPS,二者充分兼容并高效稳定运行。
 
瑞芯微AI芯片加持百度飞桨,携手加速AI应用落地
 
飞桨产业级深度学习开源平台以百度多年的深度学习技术研究和产业应用为基础,集深度学习核心训练和预测框架、基础模型库、端到端开发套件、工具组件和服务平台于一体,2016年正式开源,是中国极具影响力的全面开源开放、技术领先、功能完备的产业级深度学习平台。Paddle Lite是飞桨推出的一套功能完善、易用性强且性能卓越的轻量化推理引擎,支持多种硬件、多种平台,具备轻量化部署、高性能实现等重要特性。
 
瑞芯微AI芯片加持百度飞桨,携手加速AI应用落地
瑞芯微RK18xx系列芯片适配Paddle Lite
 
如下图所示的实测結果可以看出,与手机等移动端常用的国内外主流CPU相比,RK18系列NPU在MobileNET_v1的耗时表现出色,由此证明在AI相关领域,如图像分类、目标检测、语音交互上,专用的AI芯片将带来更出色的效果。
 
瑞芯微AI芯片加持百度飞桨,携手加速AI应用落地
瑞芯微RK18xx系列芯片在MobileNETV1上对比主流CPU性能卓越
 
通过适配飞桨开源深度学习平台,瑞芯微芯片将能更好地赋能国内用户的业务需求,为端侧AI提供强劲算力;二者的融合,将充分发挥软硬件结合的优势,加快开发部署速度,推动更多AI应用的落地。
 
国产芯合作升级实操教程详解
瑞芯微AI芯片在飞桨上的详细操作方法可参考Paddle Lite文档,内容涵盖支持的芯片、设备列表、Paddle模型与算子及参考示例演示等等。
(搜索路径:百度搜索“Paddle-Lite 文档”,左下角选择版本release-v2.6.0,部署案例板块“PaddleLite使用RK NPU预测部署”)
 
瑞芯微AI芯片加持百度飞桨,携手加速AI应用落地
 
瑞芯微AI芯片加持百度飞桨,携手加速AI应用落地
 
测试设备(RK1808EVB)
 
瑞芯微AI芯片加持百度飞桨,携手加速AI应用落地
 
此外,除RK1808及RK1806芯片解决方案外,瑞芯微旗下搭载NPU的AI系列芯片也将陆续升级适配百度飞桨,进一步深化双方合作关系,携手助力我国自主可控AI生态的构建。
 
 
免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。
 
推荐阅读:
如何减小共模辐射电磁干扰?
差分线也有差模,共模,奇模,偶模?看完这篇你就明白了
如何优化汽车电池管理系统的精密电池测量精度?
射频PA+FEM导杂散差的原因分析
TI毫米波传感器:边缘智能化为自主工厂提供动力
要采购工具么,点这里了解一下价格!
特别推荐
技术文章更多>>
技术白皮书下载更多>>
热门搜索
 

关闭

 

关闭