摘要:模型压缩算法旨在将一个大模型转化为一个精简的小模型。工业界的模型压缩方法有:知识蒸馏、轻量化模型架构、剪枝、量化。

本文分享自华为云社区《深度学习模型压缩方法综述》,作者:嵌入式视觉 。

一,模型压缩技术概述

因为嵌入式设备的算力和内存有限,因此深度学习模型需要经过模型压缩后,方才能部署到嵌入式设备上。

在一定程度上,网络越深,参数越多,模型也会越复杂,但其最终效果也越好。而模型压缩算法是旨在将一个庞大而复杂的预训练模型转化为一个精简的小模型。本文介绍了卷积神经网络常见的几种压缩方法。

按照压缩过程对网络结构的破坏程度,《解析卷积神经网络》一书中将模型压缩技术分为“前端压缩”和“后端压缩”两部分:

  • 前端压缩,是指在不改变原网络结构的压缩技术,主要包括知识蒸馏、轻量级网络(紧凑的模型结构设计)以及滤波器(filter)层面的剪枝(结构化剪枝)等;
  • 后端压缩,是指包括低秩近似、未加限制的剪枝(非结构化剪枝/稀疏)、参数量化以及二值网络等,目标在于尽可能减少模型大小,会对原始网络结构造成极大程度的改造。

总结:前端压缩几乎不改变原有网络结构(仅仅只是在原模型基础上减少了网络的层数或者滤波器个数),后端压缩对网络结构有不可逆的大幅度改变,造成原有深度学习库、甚至硬件设备不兼容改变之后的网络。其维护成本很高。

1.1,模型压缩技术分类

工业界主流的模型压缩方法有:知识蒸馏(Knowledge Distillation,KD)轻量化模型架构(也叫紧凑的模型设计)、剪枝(Pruning)、量化(Quantization)。各个模型压缩方法总结如下:

模型压缩方法描述涉及的网络层示例
知识蒸馏属于迁移学习的一种,主要思想是将学习能力强的复杂教师模型中的“知识”迁移到简单的学生模型中。卷积和全连接层经典KD论文,属于蒸 “logits”方法,将Teacher Network输出的soft label作为标签来训练Student Network。必须重新训练模型。
轻量化模型架构轻量级网络的核心是在尽量保持精度的前提下,从体积和速度两方面对网络进行轻量化改造。卷积层/卷积模块Mobilenet 提出深度可分离卷积;
shufflenetv2 论文提出的四个高效网络设计的实用指导思想
RepVGG 提出重参数化思想。
都需要重新设计backbone和和重新训练模型。
剪枝将权重低于阈值的连接都从网络中删除。卷积层和全连接层韩松2016年Deep Compression属于开山之作,剪枝步骤:正常训练,删除网络中权重低于阈值的连接层,重新训练。需要重新训练模型。
量化指将神经网络的浮点算法转换为定点算法卷积、全连接、激活、BN层等TensoRT框架中的基于 KL 散度方法的INT8量化策略是主流技术。PTQ训练后量化方法不需要重新训练模型。

二,知识蒸馏

一个复杂模型可由多个简单模型或者强约束条件训练得到。复杂模型特点是性能好,但其参数量大,计算效率低。小模型特点是计算效率高,但是其性能较差。知识蒸馏是让小模型去拟合大模型,从而让小模型学到与大模型相似的函数映射。使其保持其快速的计算速度前提下,同时拥有复杂模型的性能,达到模型压缩的目的。模型蒸馏的关键在于监督特征的设计,例如使用Soft Target(软标签KD) 所提供的类间相似性作为依据,或使用大模型的中间层特征图或 attention map 作为暗示,对小网络进行训练。整体的框架图如图下所示。

三,轻量化模型架构

关于如何手动设计轻量级网络的研究,目前还没有广泛通用的准则,只有一些指导思想,和针对不同芯片平台(不同芯片架构)的一些设计总结,建议大家从经典论文中吸取指导思想和建议,然后自己实际做各个硬件平台的部署和模型性能测试。

3.1,如何设计高效CNN架构一些结论

  1. 分析模型的推理性能得结合具体的推理平台(常见如:英伟达GPU、移动端ARMCPU、端侧NPU芯片等);目前已知影响CNN模型推理性能的因素包括: 算子计算量FLOPs(参数量Params)、卷积block的内存访问代价(访存带宽)、网络并行度等。但相同硬件平台、相同网络架构条件下,FLOPs加速比与推理时间加速比成正比。
  2. 建议对于轻量级网络设计应该考虑直接metric(例如速度speed),而不是间接metric(例如FLOPs)。
  3. FLOPs低不等于latency低,尤其是在有加速功能的硬体 (GPUDSPTPU)上不成立,得结合具硬件架构具体分析
  4. 不同网络架构的CNN模型,即使是FLOPs相同,但其MAC也可能差异巨大。
  5. Depthwise卷积操作对于流水线型CPUARM等移动设备更友好,对于并行计算能力强的GPU和具有加速功能的硬件(专用硬件设计-NPU 芯片)上比较没有效率Depthwise卷积算子实际上是使用了大量的低FLOPs、高数据读写量的操作。因为这些具有高数据读写量的操作,再加上多数时候GPU芯片算力的瓶颈在于访存带宽,使得模型把大量的时间浪费在了从显存中读写数据上,从而导致GPU的算力没有得到“充分利用”。结论来源知乎文章-FLOPs与模型推理速度和论文G-GhostNet。

一些建议

  1. 在大多数的硬件上,channel数为16的倍数比较有利高效计算。如海思351x系列芯片,当输入通道为4倍数和输出通道数为16倍数时,时间加速比会近似等于FLOPs加速比,有利于提供NNIE硬件计算利用率。(来源海思351X芯片文档和MobileDets论文)
  2. channel数的情况下 (如网路的前几层),在有加速功能的硬件使用普通convolution通常会比separable convolution有效率。(来源MobileDets 论文)
  3. shufflenetv2 论文提出的四个高效网络设计的实用指导思想: G1同样大小的通道数可以最小化MAC、G2-分组数太多的卷积会增加MAC、G3-网络碎片化会降低并行度、G4-逐元素的操作不可忽视。
  4. GPU芯片上3×33×3卷积非常快,其计算密度(理论运算量除以所用时间)可达1×11×1和5×55×5卷积的四倍。(来源RepVGG 论文)
  5. 从解决梯度信息冗余问题入手,提高模型推理效率。比如CSPNet网络。
  6. 从解决DenseNet的密集连接带来的高内存访问成本和能耗问题入手,如VoVNet网络,其由OSAOne-Shot Aggregation,一次聚合)模块组成。

3.2,轻量级模型部署总结

在阅读和理解经典的轻量级网络mobilenet系列、MobileDetsshufflenet系列、cspnetvovnetrepvgg等论文的基础上,做了以下总结:

  1. 低算力设备-手机移动端cpu硬件,考虑mobilenetv1(深度可分离卷机架构-低FLOPs)、低FLOPs和 低MACshuffletnetv2channel_shuffle算子在推理框架上可能不支持)
  2. 专用asic硬件设备-npu芯片(地平线x3/x4等、海思3519、安霸cv22等),分类、目标检测问题考虑cspnet网络(减少重复梯度信息)、repvgg2(即RepOptimizer:vgg型直连架构、部署简单)
  3. 英伟达gpu硬件-t4芯片,考虑repvgg网络(类vgg卷积架构-高并行度有利于发挥gpu算力、单路架构省显存/内存,问题:INT8 PTQ掉点严重)

MobileNet block(深度可分离卷积block,depthwise separable convolution block)在有加速功能的硬件(专用硬件设计-NPU芯片)上比较没有效率。

这个结论在CSPNet和MobileDets论文中都有提到。

除非芯片厂商做了定制优化来提高深度可分离卷积block的计算效率,比如地平线机器人x3芯片对深度可分离卷积block做了定制优化。

下表是MobileNetv2ResNet50在一些常见NPU芯片平台上做的性能测试结果。

以上,均是看了轻量级网络论文总结出来的一些不同硬件平台部署轻量级模型的经验,实际结果还需要自己手动运行测试。

四,模型剪枝

深度学习模型中一般存在着大量冗余的参数,将权重矩阵中相对“不重要”的权值剔除(即置为0),可达到降低计算资源消耗和提高实时性的效果,而对应的技术则被称为模型剪枝。

图片来源论文Han et al. Learning both Weights and Connections for Efficient Neural Networks, NIPS 2015

剪枝算法步骤:

  1. 正常训练模型;
  2. 模型剪枝;
  3. 重新训练模型

以上三个步骤反复迭代进行,直到模型精度达到目标,则停止训练。

模型剪枝算法根据粒度的不同,可以粗分为4种粒度:

  1. 细粒度剪枝(fine-grained):对连接或者神经元进行剪枝,它是粒度最小的剪枝。
  2. 向量剪枝(vector-level):它相对于细粒度剪枝粒度更大,属于对卷积核内部(intra-kernel)的剪枝。
  3. 核剪枝(kernel-level):去除某个卷积核,它将丢弃对输入通道中对应计算通道的响应。
  4. 滤波器剪枝(Filter-level):对整个卷积核组进行剪枝,会造成推理过程中输出特征通道数的改变。

五,模型量化

模型量化是指将神经网络的浮点算法转换为定点。量化有一些相似的术语,低精度(Low precision)可能是常见的。

  • 低精度模型表示模型权重数值格式为FP16(半精度浮点)或者INT8(8位的定点整数),但是目前低精度往往就指代INT8
  • 常规精度模型则一般表示模型权重数值格式为FP32(32位浮点,单精度)。
  • 混合精度(Mixed precision)则在模型中同时使用FP32FP16的权重数值格式。FP16减少了一半的内存大小,但有些参数或操作符必须采用FP32格式才能保持准确度。

模型量化过程可以分为两部分:将模型从 FP32 转换为 INT8(即量化算术过程),以及使用 INT8 进行推理

5.1,模型量化的方案

在实践中将浮点模型转为量化模型的方法有以下三种方法:

  1. data free:不使用校准集,传统的方法直接将浮点参数转化成量化数,使用上非常简单,但是一般会带来很大的精度损失,但是高通最新的论文DFQ不使用校准集也得到了很高的精度。
  2. calibration:基于校准集方案,通过输入少量真实数据进行统计分析。很多芯片厂商都提供这样的功能,如tensorRT、高通、海思、地平线、寒武纪
  3. finetune:基于训练finetune的方案,将量化误差在训练时仿真建模,调整权重使其更适合量化。好处是能带来更大的精度提升,缺点是要修改模型训练代码,开发周期较长。

按照量化阶段的不同,量化方法分为以下两种:

  • Post-training quantizationPTQ(训练后量化、离线量化);
  • Quantization-aware trainingQAT(训练时量化,伪量化,在线量化)。

5.2,量化的分类

目前已知的加快推理速度概率较大的量化方法主要有:

  1. 二值化,其可以用简单的位运算来同时计算大量的数。对比从 nvdia gpu 到 x86 平台,1bit 计算分别有 5 到128倍的理论性能提升。且其只会引入一个额外的量化操作,该操作可以享受到 SIMD(单指令多数据流)的加速收益。
  2. 线性量化(最常见),又可细分为非对称,对称和ristretto几种。在nvdia gpux86arm和 部分AI芯片平台上,均支持8bit的计算,效率提升从1倍到16倍不等,其中tensor core甚至支持4bit计算,这也是非常有潜力的方向。线性量化引入的额外量化/反量化计算都是标准的向量操作,因此也可以使用SIMD进行加速,带来的额外计算耗时不大。
  3. 对数量化,一种比较特殊的量化方法。两个同底的幂指数进行相乘,那么等价于其指数相加,降低了计算强度。同时加法也被转变为索引计算。目前nvdia gpux86arm三大平台上没有实现对数量化的加速库,但是目前已知海思351X系列芯片上使用了对数量化。

六,压缩方法总结

  1. 一般情况下,参数剪枝,特别是非结构化剪枝,能大大压缩模型大小,且不容易丢失分类精度。对于需要稳定的模型分类的应用,非结构化剪枝成为首要选择。
  2. 如果需要一次性端对端训练得到压缩与加速后模型,可以利用基于紧性滤波设计的深度神经网络压缩与加速方法。
  3. 影响神经网络推理速度主要有4个因素:FLOPs、MAC、计算并行度、硬件平台架构与特性(算力、GPU内存带宽)。

参考资料

    1. 深度学习模型压缩与加速

    2. Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding

点击关注,第一时间了解华为云新鲜技术~