ZHCABI1B February   2022  – January 2024 AM2434 , AM6411 , AM6412 , AM6421 , AM6441 , AM6442

 

  1.   摘要
  2.   2
  3.   商标
  4. 1简介
  5. 2处理器内核基准测试
    1. 2.1 Dhrystone
    2. 2.2 三角函数
  6. 3计算和存储系统基准测试
    1. 3.1 存储器带宽和延迟
      1. 3.1.1 LMBench
      2. 3.1.2 STREAM
      3. 3.1.3 Cortex-R5 存储器存取延迟
    2. 3.2 CoreMark®-Pro
    3. 3.3 快速傅里叶变换
    4. 3.4 加密基准测试
  7. 4应用基准测试
    1. 4.1 机器学习推理
    2. 4.2 场定向控制 (FOC) 环路
    3. 4.3 使用 BCDMA 时的 PCIE 到 DDR 性能
      1. 4.3.1 测试设置
      2. 4.3.2 结果和观察
    4. 4.4 使用 BCDMA 时的 DDR 到 DDR 性能
      1. 4.4.1 测试设置
      2. 4.4.2 结果和观察
  8. 5参考文献
  9. 6修订历史记录

机器学习推理

AM64x SDK 已经集成了开源 TensorFlow Lite,用于边缘的深度学习推理。AM64x 并非专门针对实时图像处理的,但可以用于对一些边缘应用执行机器学习推理。以下示例是基于 ImageNet 数据库和 1000 种物体类别运行 TensorFlow Lite 模型进行图像分类(224 x 224 像素,3 字节颜色)。海军少将葛丽丝·霍普 (Grace Hopper) 的示例图像安装在文件系统中(可点击访问)。在调用 TensorFlow Lite 之前,示例 label_image 程序将裁剪并调整 bmp 图像大小为 224 x 224 像素。经过量化感知训练的 Mobilenetv1 网络 (mobilenet_v1_1.0_224_quant.tflite) 的推理时间基准是 280 毫秒。示例运行如下所示,也可参阅 AM64x Linux SDK(位于文件夹 /usr/share/tensorflow-lite/examples):

root@am6x-evm:/usr/share/tensorflow-lite-1.15/examples# ./label_image -i grace_hopper.bmp -l labels.txt -m mobilenet_v1_1.0_224_quant.tflite 
Loaded model mobilenet_v1_1.0_224_quant.tflite
resolved reporter
invoked 
average time: 280.587 ms 
0.780392: 653 military uniform
0.105882: 907 Windsor tie
0.0156863: 458 bow tie
0.0117647: 466 bulletproof vest
0.00784314: 835 suit

基于浮点 Mobilenetv2 模型的且分辨率 (224 x 224 x 3) 完全相同的图像的推理时间是 362 毫秒。控制台命令和打印输出如下所示:

root@am6x-evm:/usr/share/tensorflow-lite-1.15/examples# ./label_image -i grace_hopper.bmp -l labels.txt -mtest/mobilenet_v2_1.0_224.tflite
Loaded model test/mobilenet_v2_1.0_224.tflite
resolved reporter
invoked
average time: 362.22 ms
0.911345: 653 military uniform
0.014466: 835 suit
0.0062473: 440 bearskin
0.00296661: 907 Windsor tie
0.00269019: 753 racket
root@am6x-evm:/usr/share/tensorflow-lite-1.15/examples#

控制台中打印的位于推理时间下面的数字是前五个分类结果,即 imagenet labels.txt 中 0 至 1 之间的数字和 1000 种类别之一。准确度结果是模型和输入图像的基准,而不是运行推理的器件的基准。

所有 .tflite 模型将在 AM64x 上运行,并选择量化 Mobilenetv1 和浮点 Mobilenetv2 作为共同基准,可以用于内插计算推理应用的性能。量化 Mobilenetv1 在文件系统中,Mobilenetv2 从托管模型(托管模型见 tensorflow.org)中下载。