ZHDT015A March   2026  – March 2026 TMS320F28P550SJ

 

  1.   1
  2.   2

关键要点

  • 边缘 AI 不仅适用于高端应用。TI 微控制器 (MCU) 集成了 TinyEngine 神经处理单元 (NPU),可在更多电子产品中实现边缘 AI,从资源受限的器件(包括便携式、电池供电产品)到复杂的工业应用均可适用。
  • 通过访问 TI 免费提供的 CCStudio™ Edge AI Studio(包含 60 多个代码示例),嵌入式系统设计人员可以更快地启动 AI 相关设计,简化开发流程。

什么是 TinyEngine NPU?

TinyEngine NPU 是一款专有硬件加速器,集成于 TI C2000 及基于 Arm® Cortex 的 MCU® 中(图 1),专为帮助嵌入式系统设计人员在大规模部署边缘 AI 模型时降低延迟、提升能效而设计。

 集成 TinyEngine NPU 的 TI 边缘 AI MCU 简化框图图 1 集成 TinyEngine NPU 的 TI 边缘 AI MCU 简化框图

TinyEngine NPU 与主 CPU 并行执行机器学习算法,从而能够在资源受限的器件上实时处理神经网络模型。此 NPU 对深度学习推理运算进行优化,降低边缘端处理的延迟与功耗,消除云端推理的往返延迟,提升系统响应速度。

该 NPU 助力将边缘 AI 能力拓展至此前无法承载有效 AI 工作负载的器件中。包括电池供电电子设备、具备实时分析能力的医疗可穿戴设备、个人电子及工业设备。

TinyEngine NPU 的主要优势

TinyEngine NPU 提供以下优势,突破了传统上阻碍嵌入式 AI 广泛应用的关键设计限制:

  • 相比基于软件的 AI 方案,每次推理能耗仅为其 1/120,延迟仅为其 1/90
  • 提供 2.56 GOPS 计算性能,支持深度学习模型实时边缘 AI 推理
  • 支持 8 位、4 位和 2 位以及混合精度配置,可完成量化和就地计算,以解决存储器占用空间限制
  • 支持多种神经网络层类型,如卷积层(常规、深度、逐点、转置)、全连接层池化层(平均池化和最大池化),并支持批量归一化
  • 通过简化工具链降低开发复杂性,将开发时间从数周缩短至数小时

哪些 TI MCU 采用 TinyEngine NPU?

  • TMS320F28P550SJTMS320F28P55x 系列 C2000 MCU 中的 NPU 可从主 CPU 中分担 AI 推理任务。对于电机驱动应用,该 NPU 支持电机轴承故障检测,以支持预测性维护,帮助设计人员及早发现机械性能下降,从而减少计划外停机时间与维修成本。对于太阳能和储能应用,NPU 支持电弧故障检测,用于识别危险的电气故障,从而提高系统安全性并减少误报。在这两种情况下,NPU 在本地运行卷积神经网络,其延迟比实施纯软件方案低 5 到 10 倍。

  • AM13E230x这类 Arm Cortex-M33 内核的 MCU 通过集成 NPU 和先进的实时控制架构,可在电器、机器人和工业系统中实现自适应控制和预测性维护。这种高集成度使设计人员无需外部元件,即可同时实现复杂的电机控制和 AI 功能,并为多达四个电机维持精确的实时控制环路。NPU 可运行自适应控制算法,用于负载检测和能量优化。

  • MSPM0G5187这类 80MHz Arm Cortex-M0+ 内核的 MCU 属于 TI MSPM0 MCU 系列,利用 NPU 在具有成本效益的低功耗电子产品中实现边缘 AI 功能。专用硬件 NPU 可独立于主 CPU 执行深度神经网络模型,延迟时间比实施软件方案低 90 倍在待机模式下消耗低于 2µA

TI 支持边缘 AI 功能的 MCU 快速入门

设计人员可以使用 TI 免费且免专利费的 CCStudio Edge AI Studio 更快开展边缘 AI 设计,该工具支持 TI 全系列 MCU 无缝开发,包括通用型、实时控制、无线连接及雷达类 MCU。借助 CCStudio Edge AI Studio,开发人员可通过集成的工作流完成全流程开发,涵盖数据采集与标注、特征提取、神经网络模型选型与调优、模型编译及目标硬件部署。

该平台提供 60 余个代码示例、专用应用参考设计(电弧故障检测、电机故障预测),支持 PyTorch 等行业标准框架,同时提供无代码设计方案。经过训练的模型自动转换为经过优化的软件库,无需手动编码。

TI 的量化工具和神经网络编译器还可为使用专有 AI 框架的开发人员实现快速模型移植,显著缩短开发周期。这些工具还支持多种神经网络层,兼容 ONNX 等行业标准训练模型格式。