ZHCACI1 march 2023 AM62A3 , AM62A3-Q1 , AM62A7 , AM62A7-Q1
TI 已投入大量精力来简化处理器(如 AM62A)的边缘 AI 开发和评估,这些处理器包含用于边缘 AI 的硬件加速器 [2]。
如参考文献的 E2E 博客文章中所述,TI 提供的工具可帮助您选择模型、进行训练/优化、评估并部署到处理器,同时更大限度地降低代码复杂性。开发人员只需在 TensorFlow Lite (TFlite)、ONNX 或 TVM-DLR API 调用中添加几行代码,即可调用深度学习加速器。
Linux 是边缘 AI 应用程序的主要操作系统,TI 提供的 Linux 边缘 AI 开箱即用演示可进一步加快基于 C++ 和 Python 的应用程序的开发速度。这些演示采用经过训练的神经网络模型和输入-输出描述,对于端到端示例应用,可从 C7xMMA 和 ISP 运行模型并全面加速。例如,开发人员可以从 Texas Instruments Model Zoo 选择使用 COCO 数据集训练过的 MobileNetV2SSD 作为模型,以存储的视频文件作为输入,以 HDMI 显示作为输出媒介。
这些演示使用 GStreamer 构建,可将图像采集、预处理、深度学习推理、后处理以及其他特定于应用的软件(包括 H.264/H.265 编码)高效地流水线化。TI 的定制 gstreamer 插件使用零复制缓冲减少了开销,从而节省了 RAM/DDR 带宽。除了 GStreamer 和开源运行时(TFLite、ONNX、TVM),在默认 Linux 构建中还启用了 OpenCV,可帮助开发人员执行硬件加速器不直接支持的计算机视觉运算。
对于 Linux 环境之外的用户,可以通过 TI 实施的 OpenVX 标准 TIOVX 公开硬件加速器。