Qualcomm AI神经处理SDK


Qualcomm®骁龙™高端移动平台拥有各种异构计算功能,允许在设备上运行经过训练的神经网络,无需连接到云端。Qualcomm®人工智能(AI)神经处理SDK旨在帮助开发者在骁龙移动平台上(不管是CPU、GPU还是DSP)运行一个或多个在Caffe/Caffe2,ONNX或TensorFlow中训练的神经网络模型。

Qualcomm神经处理SDK可以帮助开发者节约开发时间和工作量,优化骁龙设备上经过训练的神经网络的性能。它提供模型转换和执行工具以及API,利用功耗和性能配置文件,匹配相应的用户体验,达到上述目的。此外,Qualcomm神经处理SDK还支持卷积神经网络和自定义层。

Qualcomm神经处理SDK执行了在骁龙移动平台上运行神经网络所需的大量繁重工作,为开发者节约了更多时间和资源,可以专注于构建其他创新的用户体验。

如果希望更深入地了解人工智能和神经处理SDK,可以观看我们组织的骁龙和人工智能在边缘网络研讨会,其中介绍了我们在此方面提供的产品和服务。


SDK内含:

• Android和Linux运行时,执行神经网络模型

• 支持Qualcomm Hexagon™ DSP®、Qualcomm® Adreno™ GPU和 Qualcomm® Kryo™、CPU加速1

• 支持Caffe、Caffe2、ONNX和TensorFlow格式的模型2

• 提供控制运行时加载、执行和调度的API

• 供模型转换的桌面工具

• 识别瓶颈的性能基准

• 示例代码和教程

• HTML文档

为方便AI开发者,Qualcomm神经处理SDK没有另外定义一个网络层库;相反,在发布时就支持Caffe/Caffe2、ONNX和TensorFlow,因此,开发者可以自由使用熟悉的框架,设计和训练网络。开发流程如下:

设计和培训后,模型文件需要转换成“.dlc”(深度学习容器)文件,供Snapdragon NPE运行时使用。转换工具将输出转换信息,包括有关不支持或非加速层的信息,供开发者调整初始模型的设计。


Qualcomm AI神经处理SDK是否适合您?

使用Qualcomm神经处理SDK开发人工智能解决方案需要具备以下基本前提。

• 需要在一个或多个垂直领域运行卷积模型,包括移动、汽车、物联网、增强现实、无人机和机器人

• 知道如何设计和训练模型或已经有预先训练过的模型文件

• 选择的框架是Caffe/Caffe2、ONNX或TensorFlow

• 为Android开发JAVA应用,或为Android或Linux开发本地应用程序

• 具备Ubuntu 14.04开发环境

• 拥有一台支持设备,测试应用程序

有关其他用途或需求,请通过支持论坛和我们取得联系。


论坛和反馈

我们欢迎您就Qualcomm神经处理SDK提出反馈和问题。您可以访问Qualcomm神经处理SDK论坛,阅读常见问题的答案,注册并发布新主题,跟踪更新的主题,或者回答其他机器学习爱好者提出的问题。

1.Qualcomm神经处理SDK支持Qualcomm® 骁龙™ 855,845,820,835,675,660,653,652,650,636,632,630,626,625,450,439和429、Qualcomm® QCS605、Qualcomm® 骁龙™ 820Am汽车平台和Qualcomm Flight。如需支持Qualcomm® Adreno™GPU,设备中必须有libOpenCL.so。

2.由于网络和层发展迅速,加速支持仅覆盖部分,将来会予扩展。

XR

Qualcomm XR专区是 Qualcomm和CSDN联合建立的聚焦增强现实(AR)、虚拟现实(VR)等技术的技术专区。本专区将为开发者打造一流的开发环境,提供丰富的技术支持,和新闻资讯,以及最全面的下载资料。让开发者感受非凡移动体验、带来身临其境的移动享受、感受精彩生活、无限接近逼真视觉提供支持,打造一个全面的移动开发者技术服务社区。

了解更多

SDK 下载

本版块下载 SDK,只需简单注册,就可轻松下载。