CN108021933A - 神经网络识别模型及识别方法 - Google Patents

神经网络识别模型及识别方法 Download PDF

Info

Publication number
CN108021933A
CN108021933A CN201711180075.2A CN201711180075A CN108021933A CN 108021933 A CN108021933 A CN 108021933A CN 201711180075 A CN201711180075 A CN 201711180075A CN 108021933 A CN108021933 A CN 108021933A
Authority
CN
China
Prior art keywords
attribute
target
loss
multiple target
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711180075.2A
Other languages
English (en)
Other versions
CN108021933B (zh
Inventor
刘凯
程小磊
吴伟华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHENZHEN HARZONE TECHNOLOGY Co Ltd
Original Assignee
SHENZHEN HARZONE TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN HARZONE TECHNOLOGY Co Ltd filed Critical SHENZHEN HARZONE TECHNOLOGY Co Ltd
Priority to CN201711180075.2A priority Critical patent/CN108021933B/zh
Publication of CN108021933A publication Critical patent/CN108021933A/zh
Application granted granted Critical
Publication of CN108021933B publication Critical patent/CN108021933B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开了一种神经网络识别模型及识别方法,其中方法包括:输入层接收输入的目标图像;多个共享卷积层对所述目标图像进行特征提取得到多个目标全局特征图;多个目标区域池化层对所述多个目标全局特征图进行图像分割得到多个目标局部特征图;多个深层特征卷积层根据所述多个基础属性对所述多个目标全局特征图和所述多个目标局部特征图进行特征提取得到多个目标全局属性和多个目标局部属性;输出层根据所述多个目标全局属性和所述多个目标局部属性确定所述目标图像中目标车辆和所述目标车辆的驾驶员的属性,并输出所述目标车辆和所述驾驶员的属性。本申请实施例,可提高非标准车和其驾驶员的准确率。

Description

神经网络识别模型及识别方法
技术领域
本申请涉及神经网络算法领域,具体涉及一种神经网络识别模型及识别方法。
背景技术
非标准车包括自行车、电动车,摩托车、三轮车等除了允许进入机动车道之外的车辆。在现代城市中,由非标准车产生的道路交通问题越来越多,比如违法占道、乱停车、非法带人以及不带安全头盔等等,且存在犯罪嫌疑人乘坐摩托车进行抢劫的情况。因此,如何提高对非标准车的视频监控已成为本领域技术人员待解决的技术问题。
发明内容
本申请实施例提出了一种神经网络识别模型及识别方法,可提高非标准车和其驾驶员的准确率。
第一方面,本申请实施例提供了一种神经网络识别模型,包括输入层、与所述输入层连接的多个共享卷积层、与所述多个共享卷积层连接的多个目标区域池化层、与所述多个共享卷积层和所述多个目标区域池化层连接的多个深层特征卷积层,与所述多个深层特征卷积层连接的输出层,其中:
所述输入层,用于接收输入的目标图像;
所述多个共享卷积层,用于对所述目标图像进行特征提取,得到多个目标全局特征图;对所述多个目标全局特征图进行特征提取,得到多个基础属性;
所述多个目标区域池化层,用于对所述多个目标全局特征图进行图像分割,得到多个目标局部特征图;
所述多个深层特征卷积层,用于根据所述多个基础属性对所述多个目标全局特征图和所述多个目标局部特征图进行特征提取,得到多个目标全局属性和多个目标局部属性;
所述输出层,用于根据所述多个目标全局属性和所述多个目标局部属性确定所述目标图像中的目标车辆的属性和所述目标车辆的驾驶员的属性,并输出所述目标车辆的属性和所述驾驶员的属性。
结合第一方面,第一方面的第一种可能的实施方式中,所述多个共享卷积层和所述多个深层特征卷积层均包含卷积操作、归一化操作、激活操作、池化操作。
结合第一方面,第二方面的第一种可能的实施方式中,所述多个深层特征卷积层具体用于根据所述多个基础属性对所述多个目标全局特征图和所述多个目标局部特征图进行角度识别,得到多个全局角度特征和多个局部角度特征;根据所述多个全局角度特征和所述多个局部角度特征对所述多个目标全局特征图和所述多个目标局部特征图进行特征提取,得到所述多个目标全局属性和所述多个目标局部属性。
结合第一方面至第一方面的第二种可能的实施方式中的任意一种,第一方面的第三种可能的实施方式中,所述神经网络识别模型还包括与所述输出层连接的检测模块,用于在所述目标图像为训练图像,且所述神经网络识别模型的训练次数小于第二阈值时,获取所述目标车辆的属性和所述驾驶员的属性中每一属性与对应的期望输出属性之间的损失,得到多个损失;获取所述多个损失中大于第一阈值的损失,得到损失集;根据所述损失集中每一损失对所述神经网络识别模型中与该损失对应的部分进行反向梯度传播。
结合第一方面的第三种可能的实施方式,第一方面的第四种可能的实施方式中,所述检测模块具体用于根据公式:
loss=(yp-y)2
计算所述多个损失loss,其中,所述y为所述目标车辆的属性和所述驾驶员的属性中的任一属性,所述yp为所述y对应的期望输出属性。
第二方面,本申请实施例提供了一种神经网络识别模型的识别方法,所述方法基于第一方面所述的神经网络识别模型,其中:
输入层接收输入的目标图像;
多个共享卷积层对所述目标图像进行特征提取,得到多个目标全局特征图;对所述多个目标全局特征图进行特征提取,得到多个基础属性;
多个目标区域池化层对所述多个目标全局特征图进行图像分割,得到多个目标局部特征图;
多个深层特征卷积层根据所述多个基础属性对所述多个目标全局特征图和所述多个目标局部特征图进行特征提取,得到多个目标全局属性和多个目标局部属性;
输出层根据所述多个目标全局属性和所述多个目标局部属性确定所述目标图像中的目标车辆的属性和所述目标车辆的驾驶员的属性,并输出所述目标车辆的属性和所述驾驶员的属性。
结合第二方面,第二方面的第一种可能的实施方式中,所述多个共享卷积层和所述多个深层特征卷积层均包含卷积操作、归一化操作、激活操作、池化操作。
结合第二方面,第二方面的第二种可能的实施方式中,所述多个深层特征卷积层根据所述多个基础属性对所述多个目标全局特征图和所述多个目标局部特征图进行特征提取,得到多个目标全局属性和多个目标局部属性,包括:
所述多个深层特征卷积层根据所述多个基础属性对所述多个目标全局特征图和所述多个目标局部特征图进行角度识别,得到多个全局角度特征和多个局部角度特征;根据所述多个全局角度特征和所述多个局部角度特征对所述多个目标全局特征图和所述多个目标局部特征图进行特征提取,得到所述多个目标全局属性和所述多个目标局部属性。
结合第二方面至第一方面的第二种可能的实施方式中的任意一种,第二方面的第三种可能的实施方式中,在所述输出层根据所述多个目标全局属性和所述多个目标局部属性确定所述目标图像中的目标车辆的属性和所述目标车辆的驾驶员的属性之后,所述方法还包括:
检测模块在所述目标图像为训练图像,且所述神经网络识别模型的训练次数小于第二阈值时,获取所述目标车辆的属性和所述驾驶员的属性中每一属性与对应的期望输出属性之间的损失,得到多个损失;获取所述多个损失中大于第一阈值的损失,得到损失集;根据所述损失集中每一损失对所述神经网络识别模型中与该损失对应的部分进行反向梯度传播。
结合第二方面的第三种可能的实施方式,第二方面的第四种可能的实施方式中,所述检测模块获取所述目标车辆的属性和所述驾驶员的属性中每一属性与对应的期望输出属性之间的损失,得到多个损失包括:
所述检测模块根据公式:
loss=(yp-y)2
计算得到所述多个损失loss,其中,所述y为所述目标车辆的属性和所述驾驶员的属性中的任一属性,所述yp为所述y对应的期望输出属性。
第三方面,本申请实施例提供了一种计算机可读存储介质,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行上述第二方面的方法。
采用了上述的神经网络识别模型及识别方法之后,通过输入层接收目标图像的输入,通过多个卷积层进行特征提取得到多个目标全局特征图和多个基础属性,通过多个目标区域池化层对多个目标全局特征图进行图像分割得到多个目标局部特征图,在多个基础属性的基础上通过多个深层特征卷积层对多个目标全局特征图和多个目标局部特征图进行特征提取得到多个目标全局属性和多个目标局部属性,通过输出层确定目标图像中的目标车辆和其驾驶员的属性,并输出上述属性。可以理解,通过局部特征图和全局特征图分别提取特征,提高了目标车辆和其驾驶员的识别准确率,便于提高非标准车和其驾驶员的再识别能力。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
其中:
图1是本申请实施例提供的一种神经网络识别模型的结构示意图;
图1A是本申请实施例提供的一种神经网络识别模型的场景示意图;
图1B是本申请实施例提供的一种神经网络识别模型的训练方法的流程示意图;
图1C是本申请实施例提供的另一种神经网络识别模型的训练方法的流程示意图;
图2是本申请实施例提供的一种神经网络识别模型的识别方法的流程示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
本申请实施例提出了一种神经网络识别模型及识别方法,可提高非标准车和其驾驶员的准确率。以下结合具体实施例,并参照附图,对本申请进一步详细说明。
请参照图1,图1为本申请提供的一种神经网络识别模型。如图1所示,上述神经网络识别模型100包括输入层102、与输入层102连接的多个共享卷积层104、与多个共享卷积层104连接的多个目标区域池化层106、与多个共享卷积层104和多个目标区域池化层106连接的多个深层特征卷积层108、与多个深层特征卷积层108连接的输出层110。
在本申请中,输入层102用于接收输入的目标图像。
其中,目标图像为视频监控场景下摄像头采集的任一测试图像或训练集中的任一训练图像,还可以是测试图像中具有跟踪价值的图像,例如:目标图像为犯罪嫌疑人或违法乱纪的抓拍图像等。当对摄像头采集的目标图像进行训练时,可提高视频监控场景下识别目标图像的准确率,便于后续的跟踪监控。
在本申请中,多个共享卷积层104用于对上述目标图像进行特征提取,得到多个目标全局特征图;对上述多个目标全局特征图进行特征提取,得到多个基础属性。
每一属性可对应一个神经网络或一个卷积层,通过共享卷积层可以缩短提取特征的时间,即使用一个神经网络就可识别提高了识别效率。且共享卷积层可以获取共享卷积层之间的属性对应的关联关系,便于提高识别的准确率。例如:男性一般是短头发,女性一般是长头发,即性别和头发长短这两个属性是有关联的,共享卷积层的话可以让机器学习到这两种属性之间的联系。
其中,基础属性为目标图像的浅层属性,例如:人的轮廓、五官特征、衣服颜色等。
多个共享卷积层104中每一卷积层均包括输入层、中间层和输出层,且每一层的输入层与前一层的输出层相连,最后的输出层的输出神经元个数与期望输出神经元的数目一致。其中,中间层可包括卷积操作、归一化操作、激活操作、最大池化或者平均池化操作等池化操作,通过多个卷积层104得到目标图像的多个目标全局特征图和多个目标全局特征图对应的多个基础属性。
在本申请中,多个目标区域池化层106用于对上述多个目标全局特征图进行图像分割,得到多个目标局部特征图。
其中,多个目标区域池化层106中每一目标区域池化层对应目标全局特征图中的一个目标区域,即将目标全局特征图分割为多个目标区域对应的目标局部特征图。目标区域也可以称为兴趣区域(region of interest,ROI)。
例如,假设神经网络识别模型包括3个目标区域池化层,即第一目标区域池化层、第二目标区域池化层和第三目标区域池化层,且第一目标区域池化层的目标区域为头部区域、第二目标区域池化层的目标区域为人上半身区域、第三目标区域池化层的目标区域为车身区域,则将目标图像输入至神经网络识别模型100之后,多个共享卷积层102得到多个目标全局特征图和多个基础属性,第一目标区域池化层得到头部区域对应的多个头部区域特征图,第二目标区域池化层得到人上半身区域对应的多个人上半身区域特征图,第三目标区域池化层得到车身区域对应的多个车身区域特征图。
在本申请中,多个深层特征卷积层108用于根据上述多个基础属性对上述多个目标全局特征图和上述多个目标局部特征图进行特征提取,得到多个目标全局属性和多个目标局部属性。
其中,多个深层特征卷积层108中每一深层特征卷积层与共享卷积层104中的卷积层一致,都包括输入层、中间层和输出层,且每一层的输入层与前一层的输出层相连,最后的输出层的输出神经元个数与期望输出神经元的数目一致。其中,中间层可包括卷积操作、归一化操作、激活操作、最大池化或者平均池化操作等池化操作。
由于多个深层特征卷积层108与多个共享卷积层104连接,即在基础属性的基础上提取多个目标全局特征图和多个目标局部特征图的特征,也就是提取进一步的特征得到对应的属性。本申请对于深层特征卷积层的层数不作限制,也就是不对进一步的特征进行限制,可根据具体的实际情况设计多个卷积层,从而获取深层特征。
举例来说,如图1A所示的神经网络识别模型的场景示意图。假设神经网络识别模型包括3个目标区域池化层,即第一目标区域池化层、第二目标区域池化层和第三目标区域池化层,且第一目标区域池化层的目标区域为头部区域、第二目标区域池化层的目标区域为人上半身区域、第三目标区域池化层的目标区域为车身区域。当将目标图像输入至神经网络识别模型100之后,多个共享卷积层104进行特征提取得到多个目标全局特征图和多个基础属性,第一目标区域池化层得到头部区域对应的多个头部区域特征图,第二目标区域池化层得到人上半身区域对应的多个人上半身区域特征图,第三目标区域池化层得到车身区域对应的多个车身区域特征图,将多个目标全局特征图、多个基础属性、多个头部区域特征图、多个人上半身区域特征图、多个车身区域特征图输入至多个深层特征卷积层108,可得到多个目标全局属性、多个头部属性、多个人上半身属性和多个车身属性。
在本申请中,输出层110用于根据上述多个目标全局属性和上述多个目标局部属性确定上述目标图像中的目标车辆和上述目标车辆的驾驶员的属性,并输出上述目标车辆和上述驾驶员的属性。
输出层110在整个神经网络识别模型中起到“分类器”的作用,将多个深层特征卷积层得到的全局属性和局部属性进行分类,分别得到目标车辆的属性和驾驶员的属性,提高了目标车辆和其驾驶员的识别准确率,便于提高非标准车和其驾驶员的再识别能力。
如图1所示的神经网络识别模型中,通过输入层102接收目标图像的输入,通过多个卷积层104进行特征提取得到多个目标全局特征图,并对多个目标全局特征图进行特征提取得到多个基础属性,通过多个目标区域池化层106对上述多个目标全局特征图进行图像分割得到多个目标局部特征图,在多个基础属性的基础上通过多个深层特征卷积层108对上述多个目标全局特征图和上述多个目标局部特征图进行特征提取得到多个目标全局属性和多个目标局部属性,通过输出层110确定目标图像中的目标车辆和其驾驶员的属性,并输出上述属性。可以理解,通过局部特征图和全局特征图分别提取特征,提高了目标车辆和其驾驶员的识别准确率,便于提高非标准车和其驾驶员的再识别能力。
本申请对于神经网络识别模型100中的训练集包括的训练图像的数量不作限制,数量越多,训练次数越多,神经网络识别模型100的准确率越高。
在本申请中,将训练的损失的收敛值设置为第一阈值,将训练次数的阈值设置为第二阈值。本申请所涉及的神经网络识别模型100与其它神经网络模型的训练方法一致,即一个训练周期由单次正向运算和反向梯度传播完成。神经网络识别模型100还包括与输出层110连接的检测模块112,用于检测训练图像的输出属性与期望输出属性之间的损失,若损失收敛于第一阈值,或神经网络识别模型100的训练次数大于第二阈值时,则完成训练图像的训练,否则根据损失对神经网络模型100进行训练。
也就是说,按照神经网络识别模型100中的连接方式进行正向运算;在神经网络识别模型100得到的输出属性与期望输出属性之间的损失未收敛于第一阈值,且训练次数小于或等于第二阈值时,检测模块112根据损失进行反向梯度传播,即按损失梯度下降的方式修正各层权值,对各层权值进行调整。通过周而复始的信息正向传播和损失反向梯度传播过程,对神经网络识别模型100进行训练,可减少神经网络识别模型100输出的损失,提高准确率。
举例来说,请参照图1B,图1B为神经网络识别模型100训练方法的流程示意图。如图1B所示,输入层102接收输入的训练图像,多个共享卷积层104对训练图像进行特征提取得到多个训练全局特征图,并对多个训练全局特征图进行特征提取得到多个训练基础属性,多个目标区域池化层106对多个训练全局特征图进行图像分割得到多个训练局部特征图,多个深层特征卷积层108根据多个训练基础属性对多个训练全局特征图和多个训练局部特征图进行特征提取得到多个训练全局属性和多个训练局部属性,输出层110根据多个训练全局属性和多个训练局部属性确定训练图像中的目标车辆的属性和其驾驶员的属性,检测模块112获取目标车辆的属性和其驾驶员的属性中每一属性与对应的期望输出属性之间的损失,得到多个损失;判断多个损失中是否存在大于第一阈值的损失,或神经网络识别模型100的训练次数是否大于第二阈值;若是,根据该损失对神经网络识别模型100进行反向梯度传播;若否,完成神经网络识别模型100的训练。
可选的,检测模块112具体用于根据公式:loss=(yp-y)2计算上述多个损失loss。
其中,上述y为上述目标车辆的属性和上述驾驶员的属性中的任一属性,上述yp为上述y对应的期望输出属性。
可选的,上述检测模块112用于在上述目标图像为训练图像,且上述神经网络识别模型100的训练次数小于第二阈值时,获取上述多个目标全局属性和上述多个目标局部属性中每一属性与对应的期望输出属性之间的损失,得到多个损失;获取上述多个损失中大于第一阈值的损失,得到损失集;根据上述损失集中每一损失对上述神经网络识别模型100中与该损失对应的部分进行反向梯度传播。
其中,损失集包括至少一个损失。
可以理解,在神经网络识别模型100的训练次数小于或等于预设的第二阈值,且存在大于第一阈值的损失时,只需对神经网络识别模型100中该损失对应的部分进行反向训练,而其余部分不需要进行反向训练,从而节省训练的时间,并提高识别的准确率。
举例来说,若多个共享卷积层104得到多个目标全局特征图和多个基础属性,第一目标区域池化层得到多个头部区域特征图,第二目标区域池化层得到多个人上半身区域特征图,第三目标区域池化层得到车身区域特征图,多个深层特征卷积层108得到多个目标全局属性、多个头部属性、多个人上半身属性和多个车身属性,输出层110根据多个目标全局属性、多个头部属性、多个人上半身属性和多个车身属性得到人的属性包括:目标头部属性和目标人上半身属性,车的属性包括目标车身属性。假设神经网络识别模型的训练次数小于预设的第二阈值,目标头部属性的损失大于第一阈值,则通过目标头部属性的损失反向调整多个特征卷积层108、第一目标区域池化层和多个共享卷积层104的权值,节省了训练的时间,并提高识别的准确率。
神经网络识别模型100的训练集还包括多个角度对应的多张训练图像,且每一角度对应至少一张训练图像,训练图像可以是不同摄像头采集的图像,也可以是同一摄像头采集同一人和车的不同角度下的图像。当针对不同的角度对属性进行训练,提高不同角度下测试图像的准确率。
具体的训练过程请参照图1C,图1C为本申请提出的另一种神经网络识别模型100训练方法的流程示意图。如图1C所示,输入层102接收输入的训练图像;多个共享卷积层104分别对训练图像进行特征提取得到多个训练全局特征图,对多个训练全局特征图进行特征提取得到多个训练基础属性;多个目标区域池化层106对多个训练全局特征图进行图像分割得到多个训练局部特征图;多个深层特征卷积层108根据多个训练基础属性对多个训练全局特征图和多个训练局部特征图进行角度识别得到多个训练全局角度特征和多个训练局部角度特征,根据多个训练全局角度特征和多个训练局部角度特征对多个训练全局特征图和多个训练局部特征图进行特征提取得到多个训练全局属性和多个训练局部属性;输出层110根据多个训练全局属性和多个训练局部属性确定训练图像中的目标车辆的属性和其驾驶员的属性;检测模块112获取目标车辆的属性和目标车辆的驾驶员的属性中每一属性与对应的期望输出属性之间的损失,得到多个损失;判断多个损失中是否存在大于第一阈值的损失,或神经网络识别模型100的训练次数是否大于第二阈值;若是,根据该损失对神经网络识别模型100进行反向梯度传播;若否,完成神经网络识别模型100的训练。
与此对应的神经网络识别模型识别目标图像的具体过程为:上述多个深层特征卷积层108具体用于根据上述多个基础属性对上述多个目标全局特征图和上述多个目标局部特征图进行角度识别得到多个全局角度特征和多个局部角度特征,根据上述多个全局角度特征和上述多个局部角度特征对上述多个目标全局特征图和上述多个目标局部特征图进行特征提取得到上述多个目标全局属性和上述多个目标局部属性。
可以理解,多个深层特征卷积层108先识别多个目标全局特征图和多个目标局部特征图的角度特征,再针对角度特征进行特征提取,也就是将多角度任务的细分的特征提取出来,再针对原本输出的属性进行特征提取,可提高不同角度下属性识别的准确率。
举例来说,驾驶员的性别属性包括男、女两种,将角度属性分为正面、侧面和背面3种,则针对上述情况,可通过6类属性得到输出结果,再针对之前的男和女2类的属性判断得到最终的输出结果,从而提高属性识别的准确率。
需要说明的是,本申请所涉及的目标车辆包括但不限于非标准车,即其他车和其驾驶员的属性识别方法也可参照此方法。
请参见图2,图2是本申请实施例提供的一种神经网络识别模型的识别方法的流程示意图,如图2所示,该方法应用于如图1所示的神经网络识别模型,其中:
201:输入层接收输入的目标图像。
202:多个共享卷积层对上述目标图像进行特征提取,得到多个目标全局特征图;对上述多个目标全局特征图进行特征提取得到多个基础属性。
203:多个目标区域池化层对上述多个目标全局特征图进行图像分割得到多个目标局部特征图。
204:多个深层特征卷积层根据上述多个基础属性对上述多个目标全局特征图和上述多个目标局部特征图进行特征提取得到多个目标全局属性和多个目标局部属性。
205:输出层根据上述多个目标全局属性和上述多个目标局部属性确定上述目标图像中的目标车辆的属性和上述目标车辆的驾驶员的属性,并输出上述目标车辆的属性和上述驾驶员的属性。
可选的,上述多个共享卷积层和上述多个深层特征卷积层均包含卷积操作、归一化操作、激活操作、池化操作。
可选的,上述多个深层特征卷积层根据上述多个基础属性对上述多个目标全局特征图和上述多个目标局部特征图进行特征提取,得到多个目标全局属性和多个目标局部属性,包括:
上述多个深层特征卷积层根据上述多个基础属性对上述多个目标全局特征图和上述多个目标局部特征图进行角度识别,得到多个全局角度特征和多个局部角度特征;根据上述多个全局角度特征和上述多个局部角度特征对上述多个目标全局特征图和上述多个目标局部特征图进行特征提取,得到上述多个目标全局属性和上述多个目标局部属性。
可选的,在上述输出层根据上述多个目标全局属性和上述多个目标局部属性确定上述目标图像中的目标车辆的属性和上述目标车辆的驾驶员的属性之后,上述方法还包括:
检测模块在上述目标图像为训练图像,且上述神经网络识别模型的训练次数小于第二阈值时,获取上述目标车辆的属性和上述驾驶员的属性中每一属性与对应的期望输出属性之间的损失,得到多个损失;获取上述多个损失中大于第一阈值的损失,得到损失集;根据上述损失集中每一损失对上述神经网络识别模型中与该损失对应的部分进行反向梯度传播。
可选的,上述检测模块获取上述目标车辆的属性和上述驾驶员的属性中每一属性与对应的期望输出属性之间的损失,得到多个损失包括:
上述检测模块根据公式:
loss=(yp-y)2
计算得到上述多个损失loss,其中,y为上述目标车辆的属性和上述驾驶员的属性中的任一属性,yp为上述y对应的期望输出属性。
如图2所示的神经网络识别模型的识别方法中,通过输入层接收目标图像的输入,通过多个卷积层进行特征提取得到多个目标全局特征图,并对多个目标全局特征图进行特征提取得到多个基础属性,通过多个目标区域池化层对上述多个目标全局特征图进行图像分割得到多个目标局部特征图,在多个基础属性的基础上通过多个深层特征卷积层对上述多个目标全局特征图和上述多个目标局部特征图进行特征提取得到多个目标全局属性和多个目标局部属性,通过输出层确定目标图像中的目标车辆和其驾驶员的属性,并输出上述属性。可以理解,通过局部特征图和全局特征图分别提取特征,提高了目标车辆和其驾驶员的识别准确率,便于提高非标准车和其驾驶员的再识别能力。
在本发明的另一实施例中提供一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序包括程序指令,上述程序指令当被处理器执行时使上述处理器执行图像识别方法中所描述的实现方式。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的终端和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的终端和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例上述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,在附图或说明书正文中,未绘示或描述的实现方式,均为所属技术领域中普通技术人员所知的形式,并未进行详细说明。此外,上述对各元件和方法的定义并不仅限于实施例中提到的各种具体结构、形状或方式,本领域普通技术人员可对其进行简单地更改或替换。
以上上述的具体实施例,对本申请的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上上述仅为本申请的具体实施例而已,并不用于限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种神经网络识别模型,其特征在于,包括输入层、与所述输入层连接的多个共享卷积层、与所述多个共享卷积层连接的多个目标区域池化层、与所述多个共享卷积层和所述多个目标区域池化层连接的多个深层特征卷积层以及与所述多个深层特征卷积层连接的输出层,其中:
所述输入层,用于接收输入的目标图像;
所述多个共享卷积层,用于对所述目标图像进行特征提取,得到多个目标全局特征图;对所述多个目标全局特征图进行特征提取,得到多个基础属性;
所述多个目标区域池化层,用于对所述多个目标全局特征图进行图像分割,得到多个目标局部特征图;
所述多个深层特征卷积层,用于根据所述多个基础属性对所述多个目标全局特征图和所述多个目标局部特征图进行特征提取,得到多个目标全局属性和多个目标局部属性;
所述输出层,用于根据所述多个目标全局属性和所述多个目标局部属性确定所述目标图像中的目标车辆的属性和所述目标车辆的驾驶员的属性,并输出所述目标车辆的属性和所述驾驶员的属性。
2.根据权利要求1所述的神经网络识别模型,其特征在于,所述多个共享卷积层和所述多个深层特征卷积层均包含卷积操作、归一化操作、激活操作、池化操作。
3.根据权利要求1所述的神经网络识别模型,其特征在于,所述多个深层特征卷积层具体用于根据所述多个基础属性对所述多个目标全局特征图和所述多个目标局部特征图进行角度识别,得到多个全局角度特征和多个局部角度特征;根据所述多个全局角度特征和所述多个局部角度特征对所述多个目标全局特征图和所述多个目标局部特征图进行特征提取,得到所述多个目标全局属性和所述多个目标局部属性。
4.根据权利要求1-3任一项所述的神经网络识别模型,其特征在于,所述神经网络识别模型还包括与所述输出层连接的检测模块,用于在所述目标图像为训练图像,且所述神经网络识别模型的训练次数小于第二阈值时,获取所述目标车辆的属性和所述驾驶员的属性中每一属性与对应的期望输出属性之间的损失,得到多个损失;获取所述多个损失中大于第一阈值的损失,得到损失集;根据所述损失集中每一损失对所述神经网络识别模型中与该损失对应的部分进行反向梯度传播。
5.根据权利要求4所述的神经网络识别模型,其特征在于,所述检测模块具体用于根据公式:
loss=(yp-y)2
计算所述多个损失loss,其中,所述y为所述目标车辆的属性和所述驾驶员的属性中的任一属性,所述yp为所述y对应的期望输出属性。
6.一种神经网络识别模型的识别方法,其特征在于,所述方法基于上述权利要求1-5项任一项所述的神经网络识别模型,所述方法包括:
输入层接收输入的目标图像;
多个共享卷积层对所述目标图像进行特征提取,得到多个目标全局特征图;对所述多个目标全局特征图进行特征提取,得到多个基础属性;
多个目标区域池化层对所述多个目标全局特征图进行图像分割,得到多个目标局部特征图;
多个深层特征卷积层根据所述多个基础属性对所述多个目标全局特征图和所述多个目标局部特征图进行特征提取,得到多个目标全局属性和多个目标局部属性;
输出层根据所述多个目标全局属性和所述多个目标局部属性确定所述目标图像中的目标车辆的属性和所述目标车辆的驾驶员的属性,并输出所述目标车辆的属性和所述驾驶员的属性。
7.根据权利要求6所述的方法,其特征在于,所述多个共享卷积层和所述多个深层特征卷积层均包含卷积操作、归一化操作、激活操作、池化操作。
8.根据权利要求6所述的方法,其特征在于,所述多个深层特征卷积层根据所述多个基础属性对所述多个目标全局特征图和所述多个目标局部特征图进行特征提取,得到多个目标全局属性和多个目标局部属性,包括:
所述多个深层特征卷积层根据所述多个基础属性对所述多个目标全局特征图和所述多个目标局部特征图进行角度识别,得到多个全局角度特征和多个局部角度特征;根据所述多个全局角度特征和所述多个局部角度特征对所述多个目标全局特征图和所述多个目标局部特征图进行特征提取,得到所述多个目标全局属性和所述多个目标局部属性。
9.根据权利要求6-8任一项所述的方法,其特征在于,在所述输出层根据所述多个目标全局属性和所述多个目标局部属性确定所述目标图像中的目标车辆的属性和所述目标车辆的驾驶员的属性之后,所述方法还包括:
检测模块在所述目标图像为训练图像,且所述神经网络识别模型的训练次数小于第二阈值时,获取所述目标车辆的属性和所述驾驶员的属性中每一属性与对应的期望输出属性之间的损失,得到多个损失;获取所述多个损失中大于第一阈值的损失,得到损失集;根据所述损失集中每一损失对所述神经网络识别模型中与该损失对应的部分进行反向梯度传播。
10.根据权利要求9所述的方法,其特征在于,所述检测模块获取所述目标车辆的属性和所述驾驶员的属性中每一属性与对应的期望输出属性之间的损失,得到多个损失包括:
所述检测模块根据公式:
loss=(yp-y)2
计算得到所述多个损失loss,其中,所述y为所述目标车辆的属性和所述驾驶员的属性中的任一属性,所述yp为所述y对应的期望输出属性。
CN201711180075.2A 2017-11-23 2017-11-23 神经网络识别装置及识别方法 Active CN108021933B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711180075.2A CN108021933B (zh) 2017-11-23 2017-11-23 神经网络识别装置及识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711180075.2A CN108021933B (zh) 2017-11-23 2017-11-23 神经网络识别装置及识别方法

Publications (2)

Publication Number Publication Date
CN108021933A true CN108021933A (zh) 2018-05-11
CN108021933B CN108021933B (zh) 2020-06-05

Family

ID=62080074

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711180075.2A Active CN108021933B (zh) 2017-11-23 2017-11-23 神经网络识别装置及识别方法

Country Status (1)

Country Link
CN (1) CN108021933B (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145759A (zh) * 2018-07-25 2019-01-04 腾讯科技(深圳)有限公司 车辆属性识别方法、装置、服务器及存储介质
CN109348589A (zh) * 2018-08-29 2019-02-15 浙江大丰实业股份有限公司 基于图像识别的射灯定向照明平台
CN109359696A (zh) * 2018-10-29 2019-02-19 重庆中科云丛科技有限公司 一种车款识别方法、系统及存储介质
CN109886951A (zh) * 2019-02-22 2019-06-14 北京旷视科技有限公司 视频处理方法、装置及电子设备
CN109948509A (zh) * 2019-03-11 2019-06-28 成都旷视金智科技有限公司 对象状态监测方法、装置及电子设备
CN110363101A (zh) * 2019-06-24 2019-10-22 杭州电子科技大学 一种基于cnn特征融合框架的花卉识别方法
CN110427814A (zh) * 2019-06-24 2019-11-08 深圳云天励飞技术有限公司 一种骑行者重识别方法、装置及设备
CN110443185A (zh) * 2019-07-31 2019-11-12 京东城市(北京)数字科技有限公司 驾驶员识别方法、驾驶员识别装置、电子设备及存储介质
CN110516518A (zh) * 2018-05-22 2019-11-29 杭州海康威视数字技术股份有限公司 一种非机动车违法载人检测方法、装置及电子设备
CN110852276A (zh) * 2019-11-12 2020-02-28 智慧视通(杭州)科技发展有限公司 一种基于多任务深度学习的行人再识别方法
CN110909258A (zh) * 2019-11-22 2020-03-24 上海喜马拉雅科技有限公司 一种信息推荐方法、装置、设备及存储介质
CN110969861A (zh) * 2019-12-20 2020-04-07 中国移动通信集团黑龙江有限公司 一种车辆识别方法、装置、设备及计算机存储介质
WO2020125216A1 (zh) * 2018-12-18 2020-06-25 深圳云天励飞技术有限公司 一种行人重识别方法、装置、电子设备及计算机可读存储介质
CN111383207A (zh) * 2018-12-11 2020-07-07 深圳开立生物医疗科技股份有限公司 一种肌骨超声图像处理方法、系统、装置及可读存储介质
CN111723612A (zh) * 2019-03-20 2020-09-29 北京市商汤科技开发有限公司 人脸识别和人脸识别网络的训练方法和装置、存储介质
CN109447095B (zh) * 2018-10-30 2020-09-29 上海七牛信息技术有限公司 视觉属性识别方法、装置及存储介质
US20210272236A1 (en) * 2019-02-28 2021-09-02 Tencent Technology (Shenzhen) Company Limited Image enhancement method and apparatus, and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105975915A (zh) * 2016-04-28 2016-09-28 大连理工大学 一种基于多任务卷积神经网络的前方车辆参数识别方法
CN106599773A (zh) * 2016-10-31 2017-04-26 清华大学 用于智能驾驶的深度学习图像识别方法、系统及终端设备
CN106682602A (zh) * 2016-12-16 2017-05-17 深圳市华尊科技股份有限公司 一种驾驶员行为识别方法及终端
CN106874840A (zh) * 2016-12-30 2017-06-20 东软集团股份有限公司 车辆信息识别方法及装置
US20170262736A1 (en) * 2016-03-11 2017-09-14 Nec Laboratories America, Inc. Deep Deformation Network for Object Landmark Localization
CN107330360A (zh) * 2017-05-23 2017-11-07 深圳市深网视界科技有限公司 一种行人衣着颜色识别、行人检索方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170262736A1 (en) * 2016-03-11 2017-09-14 Nec Laboratories America, Inc. Deep Deformation Network for Object Landmark Localization
CN105975915A (zh) * 2016-04-28 2016-09-28 大连理工大学 一种基于多任务卷积神经网络的前方车辆参数识别方法
CN106599773A (zh) * 2016-10-31 2017-04-26 清华大学 用于智能驾驶的深度学习图像识别方法、系统及终端设备
CN106682602A (zh) * 2016-12-16 2017-05-17 深圳市华尊科技股份有限公司 一种驾驶员行为识别方法及终端
CN106874840A (zh) * 2016-12-30 2017-06-20 东软集团股份有限公司 车辆信息识别方法及装置
CN107330360A (zh) * 2017-05-23 2017-11-07 深圳市深网视界科技有限公司 一种行人衣着颜色识别、行人检索方法和装置

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110516518A (zh) * 2018-05-22 2019-11-29 杭州海康威视数字技术股份有限公司 一种非机动车违法载人检测方法、装置及电子设备
CN109145759B (zh) * 2018-07-25 2023-04-18 腾讯科技(深圳)有限公司 车辆属性识别方法、装置、服务器及存储介质
CN109145759A (zh) * 2018-07-25 2019-01-04 腾讯科技(深圳)有限公司 车辆属性识别方法、装置、服务器及存储介质
CN109348589A (zh) * 2018-08-29 2019-02-15 浙江大丰实业股份有限公司 基于图像识别的射灯定向照明平台
CN109359696A (zh) * 2018-10-29 2019-02-19 重庆中科云丛科技有限公司 一种车款识别方法、系统及存储介质
CN109359696B (zh) * 2018-10-29 2021-04-02 重庆中科云从科技有限公司 一种车款识别方法、系统及存储介质
CN109447095B (zh) * 2018-10-30 2020-09-29 上海七牛信息技术有限公司 视觉属性识别方法、装置及存储介质
CN111383207B (zh) * 2018-12-11 2024-03-15 深圳开立生物医疗科技股份有限公司 一种肌骨超声图像处理方法、系统、装置及可读存储介质
CN111383207A (zh) * 2018-12-11 2020-07-07 深圳开立生物医疗科技股份有限公司 一种肌骨超声图像处理方法、系统、装置及可读存储介质
WO2020125216A1 (zh) * 2018-12-18 2020-06-25 深圳云天励飞技术有限公司 一种行人重识别方法、装置、电子设备及计算机可读存储介质
CN109886951A (zh) * 2019-02-22 2019-06-14 北京旷视科技有限公司 视频处理方法、装置及电子设备
US20210272236A1 (en) * 2019-02-28 2021-09-02 Tencent Technology (Shenzhen) Company Limited Image enhancement method and apparatus, and storage medium
US11790497B2 (en) * 2019-02-28 2023-10-17 Tencent Technology (Shenzhen) Company Limited Image enhancement method and apparatus, and storage medium
CN109948509A (zh) * 2019-03-11 2019-06-28 成都旷视金智科技有限公司 对象状态监测方法、装置及电子设备
CN111723612A (zh) * 2019-03-20 2020-09-29 北京市商汤科技开发有限公司 人脸识别和人脸识别网络的训练方法和装置、存储介质
CN110427814A (zh) * 2019-06-24 2019-11-08 深圳云天励飞技术有限公司 一种骑行者重识别方法、装置及设备
CN110363101A (zh) * 2019-06-24 2019-10-22 杭州电子科技大学 一种基于cnn特征融合框架的花卉识别方法
CN110443185B (zh) * 2019-07-31 2020-11-24 北京京东智能城市大数据研究院 驾驶员识别方法、驾驶员识别装置、电子设备及存储介质
CN110443185A (zh) * 2019-07-31 2019-11-12 京东城市(北京)数字科技有限公司 驾驶员识别方法、驾驶员识别装置、电子设备及存储介质
CN110852276A (zh) * 2019-11-12 2020-02-28 智慧视通(杭州)科技发展有限公司 一种基于多任务深度学习的行人再识别方法
CN110852276B (zh) * 2019-11-12 2022-07-01 杭州云栖智慧视通科技有限公司 一种基于多任务深度学习的行人再识别方法
CN110909258A (zh) * 2019-11-22 2020-03-24 上海喜马拉雅科技有限公司 一种信息推荐方法、装置、设备及存储介质
CN110909258B (zh) * 2019-11-22 2023-09-29 上海喜马拉雅科技有限公司 一种信息推荐方法、装置、设备及存储介质
CN110969861A (zh) * 2019-12-20 2020-04-07 中国移动通信集团黑龙江有限公司 一种车辆识别方法、装置、设备及计算机存储介质

Also Published As

Publication number Publication date
CN108021933B (zh) 2020-06-05

Similar Documents

Publication Publication Date Title
CN108021933A (zh) 神经网络识别模型及识别方法
CN108710865A (zh) 一种基于神经网络的司机异常行为检测方法
CN104299008B (zh) 基于多特征融合的车型分类方法
CN101551863B (zh) 基于非下采样轮廓波变换的遥感图像道路提取方法
CN105335716A (zh) 一种基于改进udn提取联合特征的行人检测方法
CN104299009B (zh) 基于多特征融合的车牌字符识别方法
CN101551852B (zh) 训练系统、训练方法和检测方法
CN105139004A (zh) 基于视频序列的人脸表情识别方法
CN108764096B (zh) 一种行人重识别系统和方法
CN106599854A (zh) 基于多特征融合的人脸表情自动识别方法
CN104298981A (zh) 人脸微表情的识别方法
CN112733581B (zh) 车辆属性识别方法及系统
CN110135558B (zh) 基于可变强度组合测试的深度神经网络测试充分性方法
CN103778409A (zh) 基于人脸特征数据挖掘的人脸识别方法与装置
CN107644221A (zh) 基于参数压缩的卷积神经网络交通标志识别方法
CN108805166B (zh) 一种建立图像分类神经网络模型及图像分类方法、装置
CN103473571A (zh) 一种人体检测方法
CN105069447A (zh) 一种人脸表情的识别方法
CN106157283A (zh) 道路分割物的检测方法和装置
CN104408711A (zh) 一种基于多尺度区域融合的显著区域检测方法
CN108009481A (zh) 一种cnn模型的训练方法及装置、人脸识别方法及装置
CN103984948A (zh) 一种基于人脸图像融合特征的软双层年龄估计方法
CN105303163B (zh) 一种目标检测的方法及检测装置
CN106780450A (zh) 一种基于低秩多尺度融合的图像显著性检测方法
CN107292933A (zh) 一种基于bp神经网络的车辆颜色识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant