ZHDA053
February 2026
1
摘要
商标
1
简介
1.1
NPU 定义和用途
1.2
关键功能
1.3
技术限制
2
开发流程概述
2.1
模型开发阶段
2.2
模型编译阶段
2.3
应用程序集成阶段
3
模型创建示例 (Python)
3.1
模型选型依据
3.2
模型架构设计
3.3
训练详细信息
3.3.1
开发环境设置
3.3.2
数据集生成
3.3.3
模型训练配置
3.3.4
量化感知训练流程
4
嵌入式平台量化
4.1
量化方法:QAT 与 PTQ
4.1.1
训练后量化 (PTQ)
4.1.2
量化感知训练 (QAT)
4.2
量化框架和包装器模块
4.2.1
用于 CPU 量化的通用包装器
4.2.2
用于 NPU 硬件加速的 TINPU 包装器
5
验证模型
5.1
两阶段训练策略
5.1.1
初始训练阶段
5.1.2
微调阶段
5.2
训练阶段比较
5.3
验证结果和指标
6
测试模型
6.1
推理设置和方法
6.1.1
通用用户测试方法
6.2
测试结果和可视化分析
6.2.1
可视化性能评估
6.3
定量性能指标
7
将模型迁移至 TI MCU (C2000 – F28P55x)【入门级】
8
将模型迁移至 TI MCU (C2000 – F28P55x)【开发人员级别】
8.1
编译前提条件
8.1.1
必需的 TI 软件组件
8.1.2
环境设置过程
8.2
配置文件设置
8.2.1
配置文件结构
8.2.1.1
需要反量化标志的模型
8.2.2
回归模型专属配置
8.2.2.1
输出反量化标志
8.2.2.2
编译器常量修改
8.2.2.3
编译字典更新
8.3
编译处理流程
8.3.1
启动编译
8.3.2
编译阶段
8.3.3
需要注意的常见问题
9
MCU 工程设置
9.1
为 NPU 应用创建 CCS 工程
9.2
了解 NPU 接口
9.2.1
主要接口组件
9.2.2
基本使用模式
10
在嵌入式环境中测试模型
10.1
可视化性能评估
10.2
定量性能指标
11
NPU 在实时信号链中的集成
11.1
应用方框图
11.2
应用代码实现
11.3
所使用的硬件组件
11.4
硬件验证结果
11.4.1
输入信号特性
11.4.2
神经网络输出分析
12
关键设计决策和影响
12.1
NPU 数值处理
12.1.1
纯整数架构
12.1.2
负值与浮点值处理
12.2
支持的神经网络层和约束
12.2.1
支持的层类型
12.2.1.1
卷积层
12.2.1.2
其他核心层
12.2.1.3
灵活性
12.3
模型复杂度和大小限制
12.3.1
内存约束和模型大小
12.3.2
优化流程和性能权衡
13
基准测试
13.1
模型性能比较
13.1.1
128 神经元模型
13.1.2
64 神经元模型
13.1.3
16 神经元模型
13.1.4
参考基准测试
13.2
性能分析
13.2.1
模型选择权衡
13.2.2
CPU 与 NPU 性能对比
13.3
流水线级时序测量
14
总结
14.1
关键功能和约束
14.2
开发工作流程
14.3
模型设计注意事项
14.4
实现挑战和解决方案
14.5
更广泛的应用
15
参考资料
Application Note
神经网络处理单元 (NPU) 指南
下载最新的英语版本