CN111353517A - 一种车牌识别方法、装置及电子设备 - Google Patents
一种车牌识别方法、装置及电子设备 Download PDFInfo
- Publication number
- CN111353517A CN111353517A CN201811580274.7A CN201811580274A CN111353517A CN 111353517 A CN111353517 A CN 111353517A CN 201811580274 A CN201811580274 A CN 201811580274A CN 111353517 A CN111353517 A CN 111353517A
- Authority
- CN
- China
- Prior art keywords
- license plate
- network
- absolute value
- quantization
- quantization scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种车牌识别方法、装置及电子设备,该方法包括:将已训练的第一网络模型量化处理为第二网络模型;将目标图像输入至所述第二网络模型,获得所述目标图像中车牌的字符识别结果和车牌类别信息;其中,所述第二网络模型基于每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像进行处理;依据所述字符识别结果和所述车牌类别信息识别所述车牌。本申请通过定点数形式的网络模型进行车牌识别,大大降低了车牌识别过程中占用的内存空间,从而提升了电子设备的运行效率。
Description
技术领域
本申请涉及图像处理技术领域,特别涉及一种车牌识别方法、装置及电子设备。
背景技术
车牌是车辆的“身份证”,可唯一指示车辆。在治安监控、交通管理等领域,车牌识别技术被广泛应用,以获取治安卡口、出入口、停车场等场景中的车辆的车牌信息。全球各国家或地区的大多数车牌是由数字、字母和当地文字构成,若按照不同国家或地区来区分,则各地的车牌都有其固有模式,可分为若干种车牌类型。
在相关技术中,可以利用深度学习的方法提取图像的特征后,对图像特征进行识别,从而获得图像中的车牌信息。
然而,在相关技术中,通常采用浮点模型(即深度学习的网络模型中的权值参数均为浮点数)实现车牌识别,而在需要车牌识别的场景中往往存在数量众多的车辆,这就导致运算量巨大,在计算过程中会占用大量的内存空间,且执行的车牌识别的设备的运行效率不高。
发明内容
有鉴于此,本申请提供一种车牌识别方法、装置及电子设备,用以在降低占用的内存空间的情况下实现车牌识别,并提高运行效率。
具体地,本申请是通过如下技术方案实现的:
一种车牌识别方法,包括:
将已训练的第一网络模型量化处理为第二网络模型;其中,所述第一网络模型中网络层的权值参数通过浮点数表示,所述第二网络模型中网络层的权值参数通过定点数表示,所述第二网络模型的每一网络层除包括权值参数和量化比例系数,所述量化比例系数包括输入方向和输出方向的量化比例系数;
将目标图像输入至所述第二网络模型,获得所述目标图像中车牌的字符识别结果和车牌类别信息;其中,所述第二网络模型基于每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像进行处理;
依据所述字符识别结果和所述车牌类别信息识别所述车牌。
在所述车牌识别方法中,所述将已训练的第一网络模型量化处理为第二网络模型,包括:
将参考图像输入至所述第一网络模型,以由所述第一网络模型对所述参考图像进行处理,获得每一网络层处理所述参考图像时输入参数的最大绝对值和最小绝对值、输出参数的最大绝对值和最小绝对值、权值参数的最大绝对值和最小绝对值;
依据所述输入参数的最大绝对值、最小绝对值和预设的第一量化位宽计算该网络层输入方向的量化比例系数;
依据所述输出参数的最大绝对值、最小绝对值和所述第一量化位宽计算该网络层输出方向的量化比例系数;
依据所述权值参数的最大绝对值、最小绝对值和预设的第二量化位宽计算该网络层的权值参数的量化比例系数,并基于所述权值参数的量化比例系数对所述权值参数进行量化处理。
在所述车牌识别方法中,所述将已训练的第一网络模型量化处理为第二网络模型,包括:
将参考图像输入至所述第一网络模型,以由所述第一网络模型对所述参考图像进行处理,获得每一网络层处理所述参考图像时输入参数的最大绝对值、输出参数的最大绝对值、权值参数的最大绝对值;
依据所述输入参数的最大绝对值和预设的第一量化位宽计算该网络层输入方向的量化比例系数;
依据所述输出参数的最大绝对值和所述第一量化位宽计算该网络层输出方向的量化比例系数;
依据所述权值参数的最大绝对值和预设的第二量化位宽计算该网络层的权值参数的量化比例系数,并基于所述权值参数的量化比例系数对所述权值参数进行量化处理。
在所述车牌识别方法中,所述方法还包括:
基于所述第一网络模型的每一网络层的量化前的权值参数和量化后的权值参数,计算出alpha系数;
根据所述alpha系数对量化后的权值参数进行调整。
在所述车牌识别方法中,所述第二网络模型包括:
车牌定位模型,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像中的车牌进行检测,并输出所述车牌在所述目标图像中的坐标信息;
图像倾斜矫正网络,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对车牌区域图像进行矫正;其中,所述车牌区域图像是基于所述坐标信息从所述目标图像中获取到的;
字符识别网络,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对矫正后的车牌区域图像进行处理、并输出所述车牌的字符识别结果;
类别判断网络,用于基于自身的每一网络层的权值参数、输入方向和输出方向的量化比例系数对矫正后的车牌区域图像进行处理、并输出所述车牌的车牌类别信息。
一种车牌识别装置,包括:
量化单元,用于将已训练的第一网络模型量化处理为第二网络模型;其中,所述第一网络模型中网络层的权值参数通过浮点数表示,所述第二网络模型中网络层的权值参数通过定点数表示,所述第二网络模型的每一网络层除包括权值参数和量化比例系数,所述量化比例系数包括输入方向和输出方向的量化比例系数;
处理单元,用于将目标图像输入至所述第二网络模型,获得所述目标图像中车牌的字符识别结果和车牌类别信息;其中,所述第二网络模型基于每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像进行处理;
识别单元,用于依据所述字符识别结果和所述车牌类别信息识别所述车牌。
在所述车牌识别装置中,所述量化单元,进一步用于:
将参考图像输入至所述第一网络模型,以由所述第一网络模型对所述参考图像进行处理,获得每一网络层处理所述参考图像时输入参数的最大绝对值和最小绝对值、输出参数的最大绝对值和最小绝对值、权值参数的最大绝对值和最小绝对值;
依据所述输入参数的最大绝对值、最小绝对值和预设的第一量化位宽计算该网络层输入方向的量化比例系数;
依据所述输出参数的最大绝对值、最小绝对值和所述第一量化位宽计算该网络层输出方向的量化比例系数;
依据所述权值参数的最大绝对值、最小绝对值和预设的第二量化位宽计算该网络层的权值参数的量化比例系数,并基于所述权值参数的量化比例系数对所述权值参数进行量化处理。
在所述车牌识别装置中,所述量化单元,进一步用于:
将参考图像输入至所述第一网络模型,以由所述第一网络模型对所述参考图像进行处理,获得每一网络层处理所述参考图像时输入参数的最大绝对值、输出参数的最大绝对值、权值参数的最大绝对值;
依据所述输入参数的最大绝对值和预设的第一量化位宽计算该网络层输入方向的量化比例系数;
依据所述输出参数的最大绝对值和所述第一量化位宽计算该网络层输出方向的量化比例系数;
依据所述权值参数的最大绝对值和预设的第二量化位宽计算该网络层的权值参数的量化比例系数,并基于所述权值参数的量化比例系数对所述权值参数进行量化处理。
在所述车牌识别装置中,所述装置还包括:
计算单元,用于基于所述第一网络模型的每一网络层的量化前的权值参数和量化后的权值参数,计算出alpha系数;
第一调整单元,用于根据所述alpha系数对量化后的权值参数进行调整。
在所述车牌识别装置中,所述第二网络模型包括:
车牌定位模型,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像中的车牌进行检测,并输出所述车牌在所述目标图像中的坐标信息;
图像倾斜矫正网络,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对车牌区域图像进行矫正;其中,所述车牌区域图像是基于所述坐标信息从所述目标图像中获取到的;
字符识别网络,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对矫正后的车牌区域图像进行处理、并输出所述车牌的字符识别结果;
类别判断网络,用于基于自身的每一网络层的权值参数、输入方向和输出方向的量化比例系数对矫正后的车牌区域图像进行处理、并输出所述车牌的车牌类别信息。
一种电子设备,所述电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的机器可执行指令,其中,所述处理器执行所述机器可执行指令时实现如下方法:
将已训练的第一网络模型量化处理为第二网络模型;其中,所述第一网络模型中网络层的权值参数通过浮点数表示,所述第二网络模型中网络层的权值参数通过定点数表示,所述第二网络模型的每一网络层除包括权值参数和量化比例系数,所述量化比例系数包括输入方向和输出方向的量化比例系数;
将目标图像输入至所述第二网络模型,获得所述目标图像中车牌的字符识别结果和车牌类别信息;其中,所述第二网络模型基于每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像进行处理;
依据所述字符识别结果和所述车牌类别信息识别所述车牌。
在本申请技术方案中,电子设备通过对已训练的第一网络模型量化处理得到定点数形式的第二网络模型,进一步地,将目标图像输入至上述第二网络模型,使得上述第二网络模型可以记忆每一网络层的权值参数、输入方向和输出方向的量化比例系数对上述目标图像进行处理、并输出上述目标图像中车牌的字符识别结果和车牌类别信息,从而依据上述字符识别结果和上述车牌类别信息识别上述车牌;
由于通过定点数形式的第二网络模型进行车牌识别,大大降低了车牌识别过程中占用的内存空间,从而提升了电子设备的运行效率。
附图说明
图1是本申请示出的一种车牌识别方法的示意图;
图2是本申请示出的一种车牌识别方法的流程图;
图3是本申请示出的一种车牌识别装置的实施例框图;
图4是本申请示出的一种电子设备的硬件结构图。
具体实施方式
为了使本技术领域的人员更好地理解本发明实施例中的技术方案,并使本发明实施例的上述目的、特征和优点能够更加明显易懂,下面结合附图对现有技术方案和本发明实施例中的技术方案作进一步详细的说明。
参见图1,为本申请示出的一种车牌识别方法的示意图。如图1所示,在本申请技术方案中,目标图像首先交由车牌定位模型,车牌定位模型检测出目标图像中车牌的坐标信息。接着,基于上述坐标信息从上述目标图像中抠出上述车牌的车牌区域图像。由于车牌区域图像中的车牌可能呈现为倾斜状态,不利用识别,因此,将上述车牌区域图像交由图像倾斜矫正网络,图像倾斜矫正网络对上述车牌区域图像进行倾斜矫正。
进一步地,将上述矫正后的车牌区域图像分别交由类别判断网络和字符识别网络。
类别判断网络检测出上述车牌区域图像中车牌的车牌类别信息。字符识别网络确定出上述车牌区域图像中车牌的字符识别结果。
上述车牌类别信息和上述字符识别结果即为上述车牌区域图像的车牌识别结果。
在简要介绍本申请车牌识别方法后,下面说明具体的实现过程。
首先,需对本申请各网络模型进行训练,得到可使用的网络模型。
本申请实用的网络模型包括用于车牌定位的车牌定位模型、用于图像矫正的图像倾斜矫正网络、用于字符识别的字符识别网络和用于车牌类别判断的类别判断网络。
其中,上述车牌定位模型用于检测出目标图像中的车牌,并确定出车牌在目标图像中的坐标信息,可以是YOLO(You Only Look Once)模型或FRCNN(Faster Regions withCNN或Fast Regions with CNN)模型,当然,也可以是其它可实现目标定位功能的网络模型。
上述图像倾斜矫正网络用于对从目标图像中抠出的车牌区域图像进行矫正,将车牌区域图像在空间上对齐,从而减少车牌轮廓由于在空间上旋转、平移、扭曲等几何变换对车牌识别的影响,可解决目标图像中车牌倾斜或拍摄角度过大等问题。上述图像倾斜矫正网络可以是STN(Spatial Transformer Networks,空间变换网络)网络,当然,也可以是其它可实现图像矫正的网络模型。
上述字符识别网络用于对车牌区域图像进行编解码处理,从而获得车牌区域图像中车牌的字符识别结果。上述字符识别网络可以是AM(Attention Model,注意力模型)模型,当然,也可以是其它可实现字符识别的网络模型,比如循环卷积神经网络。
上述类别判断网络可以是包括分类函数(比如softmax函数)的卷积神经网络,当然,也可以是其它可实现分类的网络模型。
在本申请中,若车牌定位模型为YOLO模型,则可以首先搭建基于神经网络的YOLO模型,然后获取样本图像。其中,上述样本图像标记有图像中车牌的坐标信息,该坐标信息包括车牌的边界框(bounding box)的中心坐标和边界框的宽和高。利用上述YOLO模型输出上述样本图像中车牌的坐标信息,然后根据YOLO模型输出的坐标信息和标记的坐标信息之间的差异,对上述神经网络进行训练。通过一定数量的样本图像对上述神经网络进行训练,从而获得可以实现车牌定位的YOLO模型。
在本申请中,若车牌定位模型为Faster RCNN,则可以首先搭建包括基础卷积神经网络、RPN(Region Proposal Networks,区域推荐网络)网络、感兴趣池化层和分类网络的Faster RCNN模型。进一步地,获取样本图像,上述样本图像标记有图像中车牌的坐标信息,该坐标信息包括车牌所在位置的左上角坐标和右下角坐标。利用上述Faster RCNN模型输出上述样本图像的坐标信息,然后根据Faster RCNN模型示出的坐标信息和标记的坐标信息之间的差异,对该Faster RCNN模型进行训练,从而获得可以实现车牌定位的FasterRCNN模型。
在本申请中,若上述图像倾斜矫正网络为STN模型,可以搭建基于神经网络的STN模型,然后获取样本图像。其中,上述样本图像标记有图像中车牌用于仿射变换六个角度值。利用STN模型的定位网络(Localisation Network)对样本图像计算得到的六个角度值与标记的六个角度值之间的差异,对上述神经网络进行训练。通过一定数量的样本图像对上述神经网络进行训练,从而获得可以实现车牌区域图像矫正的STN模型。
在本申请中,若上述字符识别网络为AM模型,可以搭建基于神经网络的AM模型,然后获取样本图像,上述样本图像为标记了图像中字符信息的车牌区域图像。利用AM模型输出的上述样本图像中的字符识别结果,根据上述字符识别结果和标记的字符信息之间的差异,对上述神经网络进行训练,通过一定数量的样本图像对上述AM模型进行训练,从而获得可以识别车牌区域图像中的字符的AM模型。
在本申请中,若上述类别判断网络为包括分类函数的卷积神经网络,则该卷积神经网络还可以包括若干卷积层、池化层、ReLu激励层和全连接层。
可以获取样本图像,上述样本图像为标记了车牌类别信息的车牌区域图像。利用该卷积神经网络输出上述车牌区域图像中车牌的车牌类别信息,然后根据该卷积神经网络输出的车牌类别信息与标记的车牌类别信息之间的差异,对上述卷积神经网络进行训练,通过一定数量的样本图像对上述卷积神经网络进行训练,从而可以获得可以识别车牌类别信息的卷积神经网络。
至此,网络模型的训练过程介绍完毕。
下面介绍网络模型的应用过程。
参见图2,为本申请示出的一种车牌识别方法的流程图,如图2所示,该方法包括以下步骤:
步骤201:将已训练的第一网络模型量化处理为第二网络模型;其中,所述第一网络模型中网络层的权值参数通过浮点数表示,所述第二网络模型中网络层的权值参数通过定点数表示,所述第二网络模型的每一网络层除包括权值参数和量化比例系数,所述量化比例系数包括输入方向和输出方向的量化比例系数。
其中,上述车牌识别方法可以应用于涉及车牌识别的电子设备,比如,交通卡口的监控设备,或者,交通监控系统的后台服务器。
这里,第一网络模型即为训练得到的用于车牌识别的网络模型,在量化处理以前,第一网络模型为浮点数形式的网络模型,每一网络层的权值参数均通过浮点数表示。
第二网络模型是对第一网络模型量化处理后得到的网络模型,每一网络层的权值参数均通过定点数表示,且每一网络层存在输入方向的量化比例系数和输出方向的量化比例系数。
在本申请实施例中,为降低计算过程占用的内存空间,提高车牌识别的效率,需对上述第一网络模型进行量化处理。
在示出的一种实施方式中,在训练得到本申请所需的第一网络模型后,可利用上述第一网络模型对图像进行处理,进而对上述第一网络模型进行量化处理。
作为一种实施例,可通过线性量化的方式对第一网络模型进行量化处理。
首先,将参考图像输入至上述第一网络模型,以由所述第一网络模型对上述参考图像进行处理,获得每一网络层处理上述参考图像时输入参数的最大绝对值和最小绝对值、输出参数的最大绝对值和最小绝对值、权值参数的最大绝对值和最小绝对值。
其中,对于第一网络模型的第一个网络层而言,输入参数为图像,对其它网络层而言输入参数为特征图;而输出参数均为特征图。上述权值参数包括卷积核。无论是图像、特征图还是卷积核,均可表示为矩阵。
因此,输入参数的最大绝对值,即为矩阵中绝对值最大的元素的绝对值;输入参数的最小绝对值,即为矩阵中绝对值最小的元素的绝对值;
输出参数的最大绝对值,即为矩阵中绝对值最大的元素的绝对值,输出参数的最小绝对值,即为矩阵中绝对值最小的元素的绝对值。
权值参数的最大绝对值,即为矩阵中绝对值最大的元素的绝对值;权值参数的最小绝对值,即为矩阵中绝对值最小的元素的绝对值。
上述参考图像包括与样本图像存在类似车牌的图像,或者,也可以直接选择样本图像作为参考图像,当然,作为参考图像的样本图像需去除已标记的信息。
需要指出的是,若参考图像仅为一帧,则每一网络层的输入参数的最大绝对值和最小绝对值可基于该网络层处理该参考图像时的输入参数确定,输出参数的最大绝对值和最小绝对值可基于该网络层处理该参考图像时的输出参数确定。
若参考图像为多帧,则每一网络层的输入参数的最大绝对值和最小绝对值可基于该网络层处理多帧参考图像时的多个输入参数来确定,输出参数的最大绝对值和最小绝对值可基于该网络层处理多帧参考图像时的多个输出参数来确定。
进一步地,可以依据上述输入参数的最大绝对值、最小绝对值和预设的第一量化位宽计算该网络层输入方向的量化比例系数;以及,可以依据上述输出参数的最大绝对值、最小绝对值和上述第一量化位宽计算该网络层输出方向的量化比例系数。
另外,可以依据上述权值参数的最大绝对值、最小绝对值和预设的第二量化位宽计算该网络层的权值参数的量化比例系数。
其中,上述量化位宽可视网络模型的处理效果而定,通常而言第一量化位宽可控制在8bit到16bit之间,第二量化位宽可控制在2bit到8bit之间。
在本实施例中,通过线性量化的方式计算量化比例系数,可用如下公式(1)表示:
其中,beta表示量化比例系数,pw表示量化位宽(比如:对于输入参数和输出参数而言,可以是8bit-16bit;对于权值参数而言,可以是2bit-16bit),max表示输入参数或输出参数或权值参数的最大绝对值,min表示输入参数或输出参数或权值参数的最小绝对值。
在计算得到权值参数的量化比例系数后,进一步地,基于计算出的量化比例系数,对每一网络层的权值参数进行量化处理,得到定点数形式的权值参数。
在本实施例中,可通过如下公式(2)对权值参数进行量化处理:
dataf*beta=dataq (2)
其中,beta表示权值参数的量化比例系数,dataf为浮点数形式的权值参数,dataq为定点数形式的权值参数。
作为另一种实施例,可通过指数量化的方式对第一网络模型进行量化处理。
首先,将参考图像输入至上述第一网络模型,以由上述第一网络模型对上述参考图像进行处理,获得每一网络层处理上述参考图像时输入参数的最大绝对值、输出参数的最大绝对值、权值参数的最大绝对值。
其中,输入参数、输出参数和权值参数均可表示为矩阵。输入参数的最大绝对值,即为矩阵中绝对值最大的元素的绝对值;输出参数的最大绝对值,即为矩阵中绝对值最大的元素的绝对值;权值参数的最大绝对值,即为矩阵中绝对值最大的元素的绝对值。
上述参考图像包括与样本图像存在类似车牌的图像,或者,也可以直接选择样本图像作为参考图像,当然,作为参考图像的样本图像需去除已标记的信息。
需要指出的是,若参考图像仅为一帧,则每一网络层的输入参数的最大绝对值可基于该网络层处理该参考图像时的输入参数确定,输出参数的最大绝对值可基于该网络层处理该参考图像时的输出参数确定。
若参考图像为多帧,则每一网络层的输入参数的最大绝对值可基于该网络层处理多帧参考图像时的多个输入参数来确定,输出参数的最大绝对值可基于该网络层处理多帧参考图像时的多个输出参数来确定。
进一步地,可以依据上述输入参数的最大绝对值和预设的第一量化位宽计算该网络层输入方向的量化比例系数;以及,可以依据上述输出参数的最大绝对值和上述第一量化位宽计算该网络层输出方向的量化比例系数。
另外,可以依据上述权值参数的最大绝对值和预设的第二量化位宽计算该网络层的权值参数的量化比例系数。
其中,上述量化位宽可视网络模型的处理效果而定,通常而言第一量化位宽可控制在8bit到16bit之间,第二量化位宽可控制在2bit到8bit之间。
在本实施例中,通过指数量化的方式计算量化比例系数,可用如下公式(3)表示:
beta=pw-log2max-1 (3)
其中,beta表示量化比例系数,pw表示量化位宽(比如:对于输入参数和输出参数而言,可以是8bit-16bit;对于权值参数而言,可以是2bit-16bit),max表示输入参数或输出参数或权值参数的最大绝对值。
在计算得到权值参数的量化比例系数后,进一步地,基于计算出的量化比例系数,对每一网络层的权值参数进行量化处理,得到定点数形式的权值参数。
在本实施例中,可以通过如下公式(4)对权值参数进行量化处理:
dataf*2beta=dataq (4)
其中,beta表示权值参数的量化比例系数,dataf为浮点数形式的权值参数,dataq为定点数形式的权值参数。
将上述第一网络模型的权值参数全都转化为定点数形式的权值参数,并计算出上述第一网络模型的每一网络层输入方向和输出方向的量化比例系数后,即获得定点数形式的第二网络模型。需要说明的是,若上述第二网络模型中包括循环网络(比如,若字符识别模型为基于循环网络的AM模型),则循环网络的各网络层的输入方向和输出方向的量化比例系数可共享。
在示出的一种实施方式中,在线性量化的基础上,为了使量化后的定点数形式的权值参数尽可能拟合至浮点数形式的权值参数,防止车牌识别的精度损失,基于上述第二网络模型的每一网络层的量化前的权值参数和量化后的权值参数计算alpha系数。
具体地,需为每一权值参数计算出alpha系数。可以通过如下公式(5)计算alpha系数:
其中,Wf为浮点数形式的权值参数,Wq为定点数形式的权值参数,公式中的*表示卷积计算。
在计算得到alpha系数后,利用上述alpha系数对网络模型的权值参数进行调整。可通过如下公式(6)对定点数形式的权值参数进行调整:
Wd=Wq*alpha (6)
其中,Wq为调整以前定点数形式的权值参数,Wd为调整以后定点数形式的权值参数。
通过alpha系数对权值参数进行调整后,可使第二网络模型的权值参数满足精度要求,从而有效地提高车牌识别的精度。
在本申请实施例中,为进一步保证定点数形式的第二网络模型的车牌识别效果,可以对定点数形式的上述第二网络模型进行微调。微调可通过fine-tuning方式实现。
具体地,在训练迭代过程中会更新网络模型的权值参数,在此基础上,每一网络层的权值参数的量化比例系数也会发生变化。因此,通过比较不同量化比例系数对识别效果的影响,确定最优的权值参数和此时的量化比例系数。
比如:权值参数中的一组浮点数形式的数据(0.1,1.2,5.6,0.06,9.4),若量化位宽为8bit,通过指数量化的方式可计算得到比例系数beta=8-log29.4-1=3,则上述浮点数据量化处理后为(0.8,9.6,44.8,0.48,75.2),四舍五入取整后为(1,10,45,0,75)。最后得到的整数即为量化处理后定点数形式的数据。可见原来的浮点数据0.06量化后变为了0,这会造成明显的精度损失。
而通过一定的约束,继续对网络模型训练后,将权值参数中的上述数据调整为(0.1,1.2,2.6,0.06,3.8),量化位宽仍为8bit,通过指数量化的方式计算得到比例系数beta=8-log23.8-1=5,则上述浮点数据量化处理后为(3.2,38.4,83.2,1.92,121.6),四舍五入取整后为(3,38,83,2,122)。可见此时没有浮点数据被量化至0,减少了精度损失。
在获得定点形式的第二网络模型后,可以对图像进行处理。
步骤202:将目标图像输入至所述第二网络模型,获得所述目标图像中车牌的字符识别结果和车牌类别信息;其中,所述第二网络模型基于每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像进行处理。
对于浮点数形式的网络模型,每一网络层的计算可通过如下公式(7)表示:
If*Wf=Of (7)
其中,If表示浮点数形式的输入参数,Of表示浮点数形式的输出参数,Wf表示该网络层的浮点数形式的权值参数。
一种情况下,若第一网络模型通过线性量化的方式转换为定点数形式的第二网络模型,则对于定点数形式的第二网络模型,每一网络层的计算可通过如下公式(8)表示:
其中,Iq表示定点数形式的输入参数,Ibeta表示输入方向的量化比例系数,Wq表示定点数形式的权值参数,Wbeta表示权值参数的量化比例系数,Oq表示定点数形式的输出参数,Obeta表示输出方向的量化比例系数。
该公式(8)经演变可表示为公式(9):
需要指出的是,若定点数形式的第二网络模型的权值参数此前通过alpha系数调整,则计算公式中还需加入alpha系数,表示为公式(10):
另一种情况下,若第一网络模型通过指数量化的方式转换为定点数形式的第二网络模型,则对于定点数形式的第二网络模型,每一网络层的计算可通过如下公式(11)表示:
其中,Iq表示定点数形式的输入参数,Ibeta表示输入方向的量化比例系数,Wq表示定点数形式的权值参数,Wbeta表示权值参数的量化比例系数,Oq表示定点数形式的输出参数,Obeta表示输出方向的量化比例系数。
该公式(11)经演变可表示为公式(12):
同样地,若定点数形式的第二网络模型的权值参数此前通过alpha系数调整,则计算公式中还需加入alpha系数,表示为公式(13):
在将目标图像输入至定点数形式的第二网络模型后,对输入参数和输出参数的量化处理实际上与每一网络层的计算同时进行。
当然,对于网络模型的第一网络层而言,首先需对浮点数形式的输入参数(即目标图像)量化处理为定点数形式的输入参数。然后基于上述公式(9)、公式(10)、公式(12)和公式(13)中的一种(视网络模型的量化方式而定),利用第一网络层的输入方向、输出方向和权值参数的量化比例系数完成计算后,获得第一网络层的定点数形式的输出参数。
由于第i个网络层的输出参数即为第i+1个网络层的输入参数,所以此时已经获得第二网络层的定点数形式的输入参数。进一步地,基于上述公式(9)、公式(10)、公式(12)和公式(13)中的一种,利用第二个网络层的输入方向、输出方向和权值参数的量化比例系数完成计算后,获得第二个网络层的定点数形式的输出参数。
以此类推,可见,对于N个网络层而言,实际的量化处理正好是N次。
在本申请实施例中,上述第二网络模型包括车牌定位模型、图像倾斜矫正网络、字符识别网络和类别判断网络。
因此,首先可将上述目标图像输入至定点数形式的上述车牌定位模型。上述定点数形式的车牌定位模型可基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对上述目标图像中车牌进行检测,并输出上述车牌在上述目标图像中的坐标信息。
接着,基于上述车牌在上述目标图像中的坐标信息从上述目标图像中获取上述车牌的车牌区域图像,然后将上述车牌区域图像输入至定点数形式的图像倾斜矫正网络。上述定点数形式的图像倾斜矫正网络可基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数将车牌区域图像在空间上对齐,从而得到矫正后的车牌区域图像。
进一步地,将矫正后的车牌区域图像分别输入至定点数形式的字符识别网络和类别判断网络。
上述字符识别网络可基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对上述车牌区域图像进行编解码处理,进而输出上述车牌区域图像中车牌的字符识别结果。
上述类别判断网络可基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对上述车牌区域图像进行识别,从而示出上述车牌区域图像中车牌的车牌类别信息。
其中,各网络模型对输入参数和输出参数的量化处理可通过前文所述的方法来实现,在此不再赘述。
步骤203:依据所述字符识别结果和所述车牌类别信息识别所述车牌。
在通过定点数形式的第二网络模型获得上述目标图像中车牌的字符识别结果和车牌类别信息,即可实现对上述车牌的识别。
综上所述,在本申请实施例中,电子设备通过对已训练的第一网络模型量化处理得到定点数形式的第二网络模型,进一步地,将目标图像输入至上述第二网络模型,从而获得所述目标图像中车牌的字符识别结果和车牌类别信息;其中,上述第二网络模型可以基于每一网络层的权值参数、输入方向和输出方向的量化比例系数对上述目标图像进行处理;进一步地,依据上述字符识别结果和上述车牌类别信息识别上述车牌;
由于通过定点数形式的第二网络模型进行车牌识别,大大降低了车牌识别过程中占用的内存空间,从而提升了电子设备的运行效率;
此外,通过多种量化方式和调整方式,灵活地调整定点数形式的网络模型的识别精度,保证网络模型的识别效果。
与前述车牌识别方法的实施例相对应,本申请还提供了车牌识别装置的实施例。
参见图3,为本申请示出的一种车牌识别装置的实施例框图:
如图3所示,该车牌识别装置30,包括:
量化单元310,用于将已训练的第一网络模型量化处理为第二网络模型;其中,所述第一网络模型中网络层的权值参数通过浮点数表示,所述第二网络模型中网络层的权值参数通过定点数表示,所述第二网络模型的每一网络层除包括权值参数和量化比例系数,所述量化比例系数包括输入方向和输出方向的量化比例系数。
处理单元320,用于将目标图像输入至所述第二网络模型,获得所述目标图像中车牌的字符识别结果和车牌类别信息;其中,所述第二网络模型基于每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像进行处理。
识别单元330,用于依据所述字符识别结果和所述车牌类别信息识别所述车牌。
在本例中,所述量化单元310,进一步用于:
将参考图像输入至所述第一网络模型,以由所述第一网络模型对所述参考图像进行处理,获得每一网络层处理所述参考图像时输入参数的最大绝对值和最小绝对值、输出参数的最大绝对值和最小绝对值、权值参数的最大绝对值和最小绝对值;
依据所述输入参数的最大绝对值、最小绝对值和预设的第一量化位宽计算该网络层输入方向的量化比例系数;
依据所述输出参数的最大绝对值、最小绝对值和所述第一量化位宽计算该网络层输出方向的量化比例系数;
依据所述权值参数的最大绝对值、最小绝对值和预设的第二量化位宽计算该网络层的权值参数的量化比例系数,并基于所述权值参数的量化比例系数对所述权值参数进行量化处理。
在本例中,所述量化单元310,进一步用于:
将参考图像输入至所述第一网络模型,以由所述第一网络模型对所述参考图像进行处理,获得每一网络层处理所述参考图像时输入参数的最大绝对值、输出参数的最大绝对值、权值参数的最大绝对值;
依据所述输入参数的最大绝对值和预设的第一量化位宽计算该网络层输入方向的量化比例系数;
依据所述输出参数的最大绝对值和所述第一量化位宽计算该网络层输出方向的量化比例系数;
依据所述权值参数的最大绝对值和预设的第二量化位宽计算该网络层的权值参数的量化比例系数,并基于所述权值参数的量化比例系数对所述权值参数进行量化处理。
在本例中,所述装置还包括:
计算单元340(图中未示出),用于基于所述第一网络模型的每一网络层的量化前的权值参数和量化后的权值参数,计算出alpha系数;
第一调整单元350(图中未示出),用于根据所述alpha系数对量化后的权值参数进行调整。
在本例中,所述第二网络模型包括:
车牌定位模型,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像中的车牌进行检测,并输出所述车牌在所述目标图像中的坐标信息;
图像倾斜矫正网络,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对车牌区域图像进行矫正;其中,所述车牌区域图像是基于所述坐标信息从所述目标图像中获取到的;
字符识别网络,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对矫正后的车牌区域图像进行处理、并输出所述车牌的字符识别结果;
类别判断网络,用于基于自身的每一网络层的权值参数、输入方向和输出方向的量化比例系数对矫正后的车牌区域图像进行处理、并输出所述车牌的车牌类别信息。
本申请车牌识别装置的实施例可以应用在电子设备上。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在电子设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。
从硬件层面而言,如图4所示,为本申请车牌识别装置所在电子设备的一种硬件结构图,该电子设备可包括处理器401、存储有机器可执行指令的机器可读存储介质402。处理器401与机器可读存储介质402可经由系统总线403通信。处理器401通过加载并执行机器可读存储介质402存储的机器可执行指令,能够实现上述车牌识别。
本文中提到的机器可读存储介质402可以是任何电子、磁性、光学或其它物理存储装置,可以包含或存储信息,如可执行指令、数据,等等。例如,机器可读存储介质可以是:RAM(Radom Access Memory,随机存取存储器)、易失存储器、非易失性存储器、闪存、存储驱动器(如硬盘驱动器)、固态硬盘、任何类型的存储盘(如光盘、dvd等),或者类似的存储介质,或者它们的组合。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
Claims (11)
1.一种车牌识别方法,其特征在于,包括:
将已训练的第一网络模型量化处理为第二网络模型;其中,所述第一网络模型中网络层的权值参数通过浮点数表示,所述第二网络模型中网络层的权值参数通过定点数表示,所述第二网络模型的每一网络层除包括权值参数和量化比例系数,所述量化比例系数包括输入方向和输出方向的量化比例系数;
将目标图像输入至所述第二网络模型,获得所述目标图像中车牌的字符识别结果和车牌类别信息;其中,所述第二网络模型基于每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像进行处理;
依据所述字符识别结果和所述车牌类别信息识别所述车牌。
2.根据权利要求1所述的方法,其特征在于,所述将已训练的第一网络模型量化处理为第二网络模型,包括:
将参考图像输入至所述第一网络模型,以由所述第一网络模型对所述参考图像进行处理,获得每一网络层处理所述参考图像时输入参数的最大绝对值和最小绝对值、输出参数的最大绝对值和最小绝对值、权值参数的最大绝对值和最小绝对值;
依据所述输入参数的最大绝对值、最小绝对值和预设的第一量化位宽计算该网络层输入方向的量化比例系数;
依据所述输出参数的最大绝对值、最小绝对值和所述第一量化位宽计算该网络层输出方向的量化比例系数;
依据所述权值参数的最大绝对值、最小绝对值和预设的第二量化位宽计算该网络层的权值参数的量化比例系数,并基于所述权值参数的量化比例系数对所述权值参数进行量化处理。
3.根据权利要求1所述的方法,其特征在于,所述将已训练的第一网络模型量化处理为第二网络模型,包括:
将参考图像输入至所述第一网络模型,以由所述第一网络模型对所述参考图像进行处理,获得每一网络层处理所述参考图像时输入参数的最大绝对值、输出参数的最大绝对值、权值参数的最大绝对值;
依据所述输入参数的最大绝对值和预设的第一量化位宽计算该网络层输入方向的量化比例系数;
依据所述输出参数的最大绝对值和所述第一量化位宽计算该网络层输出方向的量化比例系数;
依据所述权值参数的最大绝对值和预设的第二量化位宽计算该网络层的权值参数的量化比例系数,并基于所述权值参数的量化比例系数对所述权值参数进行量化处理。
4.根据权利要求2所述的方法,其特征在于,所述方法还包括:
基于所述第一网络模型的每一网络层的量化前的权值参数和量化后的权值参数,计算出alpha系数;
根据所述alpha系数对量化后的权值参数进行调整。
5.根据权利要求1所述的方法,其特征在于,所述第二网络模型包括:
车牌定位模型,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像中的车牌进行检测,并输出所述车牌在所述目标图像中的坐标信息;
图像倾斜矫正网络,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对车牌区域图像进行矫正;其中,所述车牌区域图像是基于所述坐标信息从所述目标图像中获取到的;
字符识别网络,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对矫正后的车牌区域图像进行处理、并输出所述车牌的字符识别结果;
类别判断网络,用于基于自身的每一网络层的权值参数、输入方向和输出方向的量化比例系数对矫正后的车牌区域图像进行处理、并输出所述车牌的车牌类别信息。
6.一种车牌识别装置,其特征在于,包括:
量化单元,用于将已训练的第一网络模型量化处理为第二网络模型;其中,所述第一网络模型中网络层的权值参数通过浮点数表示,所述第二网络模型中网络层的权值参数通过定点数表示,所述第二网络模型的每一网络层除包括权值参数和量化比例系数,所述量化比例系数包括输入方向和输出方向的量化比例系数;
处理单元,用于将目标图像输入至所述第二网络模型,获得所述目标图像中车牌的字符识别结果和车牌类别信息;其中,所述第二网络模型基于每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像进行处理;
识别单元,用于依据所述字符识别结果和所述车牌类别信息识别所述车牌。
7.根据权利要求6所述的装置,其特征在于,所述量化单元,进一步用于:
将参考图像输入至所述第一网络模型,以由所述第一网络模型对所述参考图像进行处理,获得每一网络层处理所述参考图像时输入参数的最大绝对值和最小绝对值、输出参数的最大绝对值和最小绝对值、权值参数的最大绝对值和最小绝对值;
依据所述输入参数的最大绝对值、最小绝对值和预设的第一量化位宽计算该网络层输入方向的量化比例系数;
依据所述输出参数的最大绝对值、最小绝对值和所述第一量化位宽计算该网络层输出方向的量化比例系数;
依据所述权值参数的最大绝对值、最小绝对值和预设的第二量化位宽计算该网络层的权值参数的量化比例系数,并基于所述权值参数的量化比例系数对所述权值参数进行量化处理。
8.根据权利要求6所述的装置,其特征在于,所述量化单元,进一步用于:
将参考图像输入至所述第一网络模型,以由所述第一网络模型对所述参考图像进行处理,获得每一网络层处理所述参考图像时输入参数的最大绝对值、输出参数的最大绝对值、权值参数的最大绝对值;
依据所述输入参数的最大绝对值和预设的第一量化位宽计算该网络层输入方向的量化比例系数;
依据所述输出参数的最大绝对值和所述第一量化位宽计算该网络层输出方向的量化比例系数;
依据所述权值参数的最大绝对值和预设的第二量化位宽计算该网络层的权值参数的量化比例系数,并基于所述权值参数的量化比例系数对所述权值参数进行量化处理。
9.根据权利要求7所述的装置,其特征在于,所述装置还包括:
计算单元,用于基于所述第一网络模型的每一网络层的量化前的权值参数和量化后的权值参数,计算出alpha系数;
第一调整单元,用于根据所述alpha系数对量化后的权值参数进行调整。
10.根据权利要求6所述的装置,其特征在于,所述第二网络模型包括:
车牌定位模型,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像中的车牌进行检测,并输出所述车牌在所述目标图像中的坐标信息;
图像倾斜矫正网络,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对车牌区域图像进行矫正;其中,所述车牌区域图像是基于所述坐标信息从所述目标图像中获取到的;
字符识别网络,用于基于自身每一网络层的权值参数、输入方向和输出方向的量化比例系数对矫正后的车牌区域图像进行处理、并输出所述车牌的字符识别结果;
类别判断网络,用于基于自身的每一网络层的权值参数、输入方向和输出方向的量化比例系数对矫正后的车牌区域图像进行处理、并输出所述车牌的车牌类别信息。
11.一种电子设备,其特征在于,所述电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的机器可执行指令,其中,所述处理器执行所述机器可执行指令时实现如下方法:
将已训练的第一网络模型量化处理为第二网络模型;其中,所述第一网络模型中网络层的权值参数通过浮点数表示,所述第二网络模型中网络层的权值参数通过定点数表示,所述第二网络模型的每一网络层除包括权值参数和量化比例系数,所述量化比例系数包括输入方向和输出方向的量化比例系数;
将目标图像输入至所述第二网络模型,获得所述目标图像中车牌的字符识别结果和车牌类别信息;其中,所述第二网络模型基于每一网络层的权值参数、输入方向和输出方向的量化比例系数对所述目标图像进行处理;
依据所述字符识别结果和所述车牌类别信息识别所述车牌。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811580274.7A CN111353517B (zh) | 2018-12-24 | 2018-12-24 | 一种车牌识别方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811580274.7A CN111353517B (zh) | 2018-12-24 | 2018-12-24 | 一种车牌识别方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111353517A true CN111353517A (zh) | 2020-06-30 |
CN111353517B CN111353517B (zh) | 2023-09-26 |
Family
ID=71195395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811580274.7A Active CN111353517B (zh) | 2018-12-24 | 2018-12-24 | 一种车牌识别方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111353517B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860405A (zh) * | 2020-07-28 | 2020-10-30 | Oppo广东移动通信有限公司 | 图像识别模型的量化方法、装置、计算机设备及存储介质 |
TWI741877B (zh) * | 2020-07-31 | 2021-10-01 | 大陸商星宸科技股份有限公司 | 網路模型量化方法、裝置及電子設備 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105760933A (zh) * | 2016-02-18 | 2016-07-13 | 清华大学 | 卷积神经网络的逐层变精度定点化方法及装置 |
US20160328646A1 (en) * | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Fixed point neural network based on floating point neural network quantization |
CN106778745A (zh) * | 2016-12-23 | 2017-05-31 | 深圳先进技术研究院 | 一种车牌识别方法及装置、用户设备 |
CN107480770A (zh) * | 2017-07-27 | 2017-12-15 | 中国科学院自动化研究所 | 可调节量化位宽的神经网络量化与压缩的方法及装置 |
CN107644254A (zh) * | 2017-09-09 | 2018-01-30 | 复旦大学 | 一种卷积神经网络权重参数量化训练方法及系统 |
CN107679531A (zh) * | 2017-06-23 | 2018-02-09 | 平安科技(深圳)有限公司 | 基于深度学习的车牌识别方法、装置、设备及存储介质 |
CN107766939A (zh) * | 2017-11-07 | 2018-03-06 | 维沃移动通信有限公司 | 一种数据处理方法、装置及移动终端 |
CN108009625A (zh) * | 2016-11-01 | 2018-05-08 | 北京深鉴科技有限公司 | 人工神经网络定点化后的微调方法和装置 |
CN108053028A (zh) * | 2017-12-21 | 2018-05-18 | 深圳云天励飞技术有限公司 | 数据定点化处理方法、装置、电子设备及计算机存储介质 |
WO2018112900A1 (zh) * | 2016-12-23 | 2018-06-28 | 深圳先进技术研究院 | 一种车牌识别方法及装置、用户设备 |
WO2018140294A1 (en) * | 2017-01-25 | 2018-08-02 | Microsoft Technology Licensing, Llc | Neural network based on fixed-point operations |
CN108628807A (zh) * | 2017-03-20 | 2018-10-09 | 北京百度网讯科技有限公司 | 浮点数矩阵的处理方法、装置、设备及计算机可读存储介质 |
WO2018219054A1 (zh) * | 2017-06-02 | 2018-12-06 | 杭州海康威视数字技术股份有限公司 | 一种车牌识别方法、装置及系统 |
CN108985453A (zh) * | 2018-06-27 | 2018-12-11 | 中国科学技术大学苏州研究院 | 基于非对称三元权重量化的深度神经网络模型压缩方法 |
-
2018
- 2018-12-24 CN CN201811580274.7A patent/CN111353517B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160328646A1 (en) * | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Fixed point neural network based on floating point neural network quantization |
CN107636697A (zh) * | 2015-05-08 | 2018-01-26 | 高通股份有限公司 | 基于浮点神经网络量化的定点神经网络 |
CN105760933A (zh) * | 2016-02-18 | 2016-07-13 | 清华大学 | 卷积神经网络的逐层变精度定点化方法及装置 |
CN108009625A (zh) * | 2016-11-01 | 2018-05-08 | 北京深鉴科技有限公司 | 人工神经网络定点化后的微调方法和装置 |
WO2018112900A1 (zh) * | 2016-12-23 | 2018-06-28 | 深圳先进技术研究院 | 一种车牌识别方法及装置、用户设备 |
CN106778745A (zh) * | 2016-12-23 | 2017-05-31 | 深圳先进技术研究院 | 一种车牌识别方法及装置、用户设备 |
WO2018140294A1 (en) * | 2017-01-25 | 2018-08-02 | Microsoft Technology Licensing, Llc | Neural network based on fixed-point operations |
CN108628807A (zh) * | 2017-03-20 | 2018-10-09 | 北京百度网讯科技有限公司 | 浮点数矩阵的处理方法、装置、设备及计算机可读存储介质 |
WO2018219054A1 (zh) * | 2017-06-02 | 2018-12-06 | 杭州海康威视数字技术股份有限公司 | 一种车牌识别方法、装置及系统 |
CN107679531A (zh) * | 2017-06-23 | 2018-02-09 | 平安科技(深圳)有限公司 | 基于深度学习的车牌识别方法、装置、设备及存储介质 |
CN107480770A (zh) * | 2017-07-27 | 2017-12-15 | 中国科学院自动化研究所 | 可调节量化位宽的神经网络量化与压缩的方法及装置 |
CN107644254A (zh) * | 2017-09-09 | 2018-01-30 | 复旦大学 | 一种卷积神经网络权重参数量化训练方法及系统 |
CN107766939A (zh) * | 2017-11-07 | 2018-03-06 | 维沃移动通信有限公司 | 一种数据处理方法、装置及移动终端 |
CN108053028A (zh) * | 2017-12-21 | 2018-05-18 | 深圳云天励飞技术有限公司 | 数据定点化处理方法、装置、电子设备及计算机存储介质 |
CN108985453A (zh) * | 2018-06-27 | 2018-12-11 | 中国科学技术大学苏州研究院 | 基于非对称三元权重量化的深度神经网络模型压缩方法 |
Non-Patent Citations (2)
Title |
---|
CONG LENG: "Extremely Low Bit Neural Network Squeeze the Last Bit Out With ADMM" * |
孙晶晶;静大海;: "基于神经网络复杂背景下车牌识别系统的研究", 国外电子测量技术, no. 08 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860405A (zh) * | 2020-07-28 | 2020-10-30 | Oppo广东移动通信有限公司 | 图像识别模型的量化方法、装置、计算机设备及存储介质 |
TWI741877B (zh) * | 2020-07-31 | 2021-10-01 | 大陸商星宸科技股份有限公司 | 網路模型量化方法、裝置及電子設備 |
Also Published As
Publication number | Publication date |
---|---|
CN111353517B (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110956169B (zh) | 一种车牌识别方法、装置及电子设备 | |
CN111062413A (zh) | 一种道路目标检测方法、装置、电子设备及存储介质 | |
CN110913243B (zh) | 一种视频审核的方法、装置和设备 | |
CN105787466B (zh) | 一种车辆类型的精细识别方法及系统 | |
CN111626295B (zh) | 车牌检测模型的训练方法和装置 | |
CN113947766B (zh) | 一种基于卷积神经网络的实时车牌检测方法 | |
CN111695609A (zh) | 目标物损伤程度判定方法、装置、电子设备及存储介质 | |
CN110189341B (zh) | 一种图像分割模型训练的方法、图像分割的方法及装置 | |
CN111242026B (zh) | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 | |
CN112150497B (zh) | 基于二值神经网络的局部激活方法与系统 | |
CN109165654B (zh) | 一种目标定位模型的训练方法和目标定位方法及装置 | |
CN111353517A (zh) | 一种车牌识别方法、装置及电子设备 | |
CN115909079A (zh) | 结合深度特征和自注意力模型的裂缝检测方法及相关设备 | |
CN110598758A (zh) | 训练建模方法、车辆收费方法、管理系统及存储介质 | |
CN111914845A (zh) | 一种车牌中字符分层方法、装置及电子设备 | |
CN113205102B (zh) | 一种基于忆阻神经网络的车辆标志识别方法 | |
CN109977937B (zh) | 图像处理方法、装置及设备 | |
CN111401394B (zh) | 一种图像标注方法及装置、计算机可读存储介质 | |
CN116452802A (zh) | 车损检测方法、装置、设备及存储介质 | |
CN115798004A (zh) | 基于局部区域的人脸打卡方法、装置、电子设备及介质 | |
CN113012132B (zh) | 一种图像相似度确定方法、装置及计算设备、存储介质 | |
CN110942073A (zh) | 一种集装箱拖车编号识别方法、装置和计算机设备 | |
CN112288748B (zh) | 一种语义分割网络训练、图像语义分割方法及装置 | |
CN112149674A (zh) | 一种图像处理方法及装置 | |
CN113743413B (zh) | 一种结合图像语义信息的视觉slam方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |