ZHDA053 February 2026
表 5-1 对比常规浮点训练最后一轮与量化感知微调最后一轮的性能指标:
| Metric | 浮点训练 160 轮后指标 | QAT 微调 16 轮后指标 | 变化 (%) |
|---|---|---|---|
| 验证损失 | 0.00181 | 0.00105 | 提高了 42% |
| 验证 MAE | 0.02031 | 0.0215 | 下降 6% |
| 验证 R² 分数 | 0.9963 | 0.9989 | 提高了 0.26% |
标准浮点模型在传统环境中性能优异,但在 NPU 纯整数运算约束下,精度大幅衰减。QAT 过程可模拟整个训练过程中的量化效应,使神经网络能够相应地调整参数。此优化验证了在部署到 F28P55x NPU 时,该模型在利用硬件专用的神经网络加速功能的同时保持计算完整性。
在验证损失 (-42.0%) 和 R² 评分 (+0.26%) 方面观察到的提升表明,QAT 可以在为 NPU 部署准备模型的同时增强特定的性能指标。MAE 小幅增加 (+5.9%),这正是量化过程中的内在权衡。这些结果验证了量化感知训练方法在资源受限的嵌入式硬件上实现出色性能的有效性。