CN111767855A - 一种卷积神经网络模型的训练方法及装置 - Google Patents

一种卷积神经网络模型的训练方法及装置 Download PDF

Info

Publication number
CN111767855A
CN111767855A CN202010609653.5A CN202010609653A CN111767855A CN 111767855 A CN111767855 A CN 111767855A CN 202010609653 A CN202010609653 A CN 202010609653A CN 111767855 A CN111767855 A CN 111767855A
Authority
CN
China
Prior art keywords
neural network
network model
convolutional neural
wearing
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010609653.5A
Other languages
English (en)
Inventor
郑波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Logichealth Co ltd
Original Assignee
Logichealth Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Logichealth Co ltd filed Critical Logichealth Co ltd
Priority to CN202010609653.5A priority Critical patent/CN111767855A/zh
Publication of CN111767855A publication Critical patent/CN111767855A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本发明公开了一种卷积神经网络模型的训练方法及装置,所述方法,包括:获取训练数据集;利用卷积神经网络模型训练训练数据集中的每张穿戴图像,分别得到每张穿戴图像对应的特征图;将每张穿戴图像对应的特征图进行融合,得到标准特征图;对标准特征图进行特征分类,得到分类结果;对分类结果进行校正,得到校正结果;利用校正结果,对卷积神经网络模型进行更新,得到训练后的卷积神经网络模型。本发明可使用上述训练方法训练卷积神经网络模型,可将训练后的卷积神经网络模型直接应用于穿戴防护图像识别,进而对医护人员的穿戴防护状态进行准确识别,从而避免使用人工方式检查,不仅效率高和准率高,还大大的减少了人力成本。

Description

一种卷积神经网络模型的训练方法及装置
技术领域
本发明涉及图像技术领域,具体涉及一种卷积神经网络模型的训练方法及装置。
背景技术
随着我国医院感染控制的不断深化,消毒供应中心作为医院无菌物品供应的核心部门,工作区域的医护人员穿戴防护必须按照国家卫健委发布的管理规范文件时刻到位。
目前,消毒供应中心的穿戴防护管理一般都是采用人工管理,即在现场人为检查医护人员的穿戴防护是否符合标准。但是,采用人工检测需要检查人员时刻在现场驻守进行检查,不仅耗时耗力,增加了人工成本,且检查的效率低,准确率不高。所以,如何高效准确的进行医护人员的穿戴防护检查成为了一个亟待解决的问题。
发明内容
为了解决现有医护人员穿戴防护检查采用人工所存在的耗时耗力,成本高、效率低且准确率不高问题,本发明的目的在于提供一种能够使用训练后的卷积神经网络模型进行图像识别,进而准确得出医护人员的穿戴防护是否符合标准的卷积神经网络模型的训练方法、装置、计算机主设备、计算机可读存储介质及医护人员穿戴防护状态识别方法。
第一方面,本发明提供了一种卷积神经网络模型的训练方法,包括:
获取训练数据集,其中,所述训练数据集包含有待识别对象同一种状态下的多张穿戴图像;
利用卷积神经网络模型训练所述训练数据集中的每张穿戴图像,分别得到每张穿戴图像对应的特征图;
将每张所述穿戴图像对应的特征图进行融合,得到标准特征图;
对所述标准特征图进行特征分类,得到分类结果;
对所述分类结果进行校正,得到校正结果;
利用所述校正结果,对所述卷积神经网络模型进行更新,得到训练后的卷积神经网络模型。
基于上述发明内容,本发明以待识别对象同一种状态下的多张穿戴图像作为训练数据集,并输入卷积神经网络模型中进行训练,即使用卷积神经网络模型对多张穿戴图像进行特征提取,得到多张穿戴图像对应的特征图,然后对特征图进行融合,实质为特征图中特征信息的融合,得到标准特征图,其次再对标准特征图进行特征分类,得到分类结果,即得到了训练时的识别结果,另外,本发明会对识别结果进行校正,即与穿戴防护的标准图像进行对比,对分类结果进行修正,得到修正结果,最后,利用修正结果对卷积神经网络模型进行更新,即可得到训练后的卷积神经网络模型。
通过上述设计,本发明可使用上述训练方法训练卷积神经网络模型,可将训练后的卷积神经网络模型直接应用于穿戴防护图像识别,进而对医护人员的穿戴防护状态进行准确识别,从而可避免使用人工方式检查,不仅效率高和准率高,还大大的减少了人力成本。
在一个可能的设计中,得到每张穿戴图像对应的特征图,包括:
利用所述卷积神经网络模型的卷积层,按照预设规则对每张所述穿戴图像进行卷积,分别得到每张所述穿戴图像的第一特征图;
利用所述卷积神经网络模型的池化层,对每张所述穿戴图像对应的第一特征图进行池化,分别得到每张所述穿戴图像对应的所述特征图。
基于上述发明内容,本发明提供了得到每张穿戴图像对应特征图的具体方法,即进行卷积和池化操作,其中,卷积的目的是为了提取每张穿戴图像的特征信息(以特征图的形式输出,即每张第一特征图即代表对应穿戴图像提取的特征信息),而池化的作用则是为了降低数据量,减轻计算负担,进而提高识别效率。当然,上述公开的获取特征图的方法仅仅为特征图获取方法中的一种。
在一个可能的设计中,所述预设规则采用3*3卷积核对每张穿戴图像进行卷积。
在一个可能的设计中,对每张所述穿戴图像对应的第一特征图进行池化,所述方法包括:
去除所述卷积神经网络模型中的最大池化层;
利用所述卷积神经网络模型中的剩余池化层,以2*2的步长尺寸,并按照最大池化方式对每张所述穿戴图像对应的第一特征图进行池化,分别得到每张所述穿戴图像对应的所述特征图。
在一个可能的设计中,获取所述训练数据集,包括:
获取原始数据集,其中所述原始数据集包含有待识别对象同一种状态下的多张原始穿戴图像;
对所述原始数据集中的每张所述原始穿戴图像进行尺寸变换,分别得到每张原始穿戴图像对应的穿戴图像;
利用每张原始穿戴图像对应的穿戴图像,组成所述训练数据集。
基于上述公开的内容,对待识别人员的每张原始穿戴图像进行尺寸变化,可适应不同卷积神经网络模型的数据输入要求,提高适用性。
在一个可能的设计中,所述卷积神经网络模型采用VGG13卷积神经网络模型。
第二方面,本发明提供了一种医护人员穿戴防护状态识别方法,包括:
获取待识别医护人员的至少一张穿戴防护图像;
利用经第一方面或第一方面中任意一种可能设计的所述卷积神经网络模型的训练方法训练后的卷积神经网络模型,对所述至少一张穿戴防护图像进行图像识别,得出医护人员穿戴防护状态识别结果。
基于上述发明内容,本发明可直接使用经第一方面或第一方面中任意一种可能设计的所述卷积神经网络模型的训练方法,训练后的卷积神经网络模型进行医护人员的穿戴防护图像识别,进而快速准确的得出医护人员穿戴防护是否符合标准。通过上述设计,可避免使用人工方式检查,不仅效率高和准率高,还大大的减少了人力成本。
第三方面,本发明提供了一种卷积神经网络模型的训练装置,包括:获取单元、训练单元、特征图融合单元、特征分类单元、校正单元和更新单元;
所述获取单元,用于获取训练数据集,其中,所述训练数据集包含有待识别对象同一种状态下的多张穿戴图像;
所述训练单元,用于利用卷积神经网络模型训练所述训练数据集中的每张穿戴图像,分别得到每张穿戴图像对应的特征图;
所述特征图融合单元,用于将每张所述穿戴图像对应的特征图进行融合,得到标准特征图;
所述特征分类单元,用于对所述标准特征图进行特征分类,得到分类结果;
所述校正单元,用于对所述分类结果进行校正,得到校正结果;
所述更新单元,用于利用所述校正结果,对所述卷积神经网络模型进行更新,得到训练后的卷积神经网络模型。
在一个可能的设计中,所述训练单元包括:卷积子单元和池化子单元;
所述卷积子单元,用于利用所述卷积神经网络模型的卷积层,按照预设规则对每张所述穿戴图像进行卷积,分别得到每张所述穿戴图像的第一特征图;
所述池化子单元,用于利用所述卷积神经网络模型的池化层,对每张所述穿戴图像对应的第一特征图进行池化,分别得到每张所述穿戴图像对应的所述特征图。
在一个可能的设计中:
所述池化子单元,具体用于去除所述卷积神经网络模型中的最大池化层,并在去除后,利用所述卷积神经网络模型中的剩余池化层,以2*2的步长尺寸,并按照最大池化方式对每张所述穿戴图像对应的第一特征图进行池化,分别得到每张所述穿戴图像对应的所述特征图。
在一个可能的设计中,所述卷积神经网络模型的训练装置还包括尺寸变换单元;
所述获取单元,还用于获取原始数据集,其中所述原始数据集包含有待识别对象同一种状态下的多张原始穿戴图像;
所述尺寸变换单元,用于对所述原始数据集中的每张所述原始穿戴图像进行尺寸变换,分别得到每张原始穿戴图像对应的穿戴图像,以便利用每张原始穿戴图像对应的穿戴图像,组成所述训练数据集。
第四方面,本发明提供了一种计算机主设备,包括依次通信相连的存储器、处理器和收发器,其中,所述存储器用于存储计算机程序,所述收发器用于收发消息,所述处理器用于读取所述计算机程序,执行如第一方面或第一方面中任意一种可能设计的所述卷积神经网络模型的训练方法。
第五方面,本发明提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,执行如第一方面或第一方面中任意一种可能设计的所述卷积神经网络模型的训练方法。
第六方面,本发明提供了一种包含指令的计算机程序产品,当所述指令在计算机上运行时,使所述计算机执行如第一方面或第一方面中任意一种可能设计的所述卷积神经网络模型的训练方法。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的卷积神经网络模型的训练方法的流程示意图。
图2是本发明提供的医护人员穿戴防护状态识别方法的流程示意图。
图3是本发明提供的卷积神经网络模型的训练装置的结构示意图。
图4是本发明提供的计算机主设备的结构示意图。
图5是本发明提供的2*2*3的数据示例。
图6是本发明提供的卷积操作示意图。
图7是本发明提供的池化操作示意图。
图8是本发明提供的特征图融合操作示意图。
图9是本发明提供的特征分类操作示意图。
具体实施方式
下面结合附图及具体实施例来对本发明作进一步阐述。在此需要说明的是,对于这些实施例方式的说明虽然是用于帮助理解本发明,但并不构成对本发明的限定。本文公开的特定结构和功能细节仅用于描述本发明的示例实施例。然而,可用很多备选的形式来体现本发明,并且不应当理解为本发明限制在本文阐述的实施例中。
应当理解,尽管本文可能使用术语第一、第二等等来描述各种单元,但是这些单元不应当受到这些术语的限制。这些术语仅用于区分一个单元和另一个单元。例如可以将第一单元称作第二单元,并且类似地可以将第二单元称作第一单元,同时不脱离本发明的示例实施例的范围。
应当理解,对于本文中可能出现的术语“和/或”,其仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,单独存在B,同时存在A和B三种情况;对于本文中可能出现的术语“/和”,其是描述另一种关联对象关系,表示可以存在两种关系,例如,A/和B,可以表示:单独存在A,单独存在A和B两种情况;另外,对于本文中可能出现的字符“/”,一般表示前后关联对象是一种“或”关系。
应当理解,在本文中若将单元称作与另一个单元“连接”、“相连”或“耦合”时,它可以与另一个单元直相连接或耦合,或中间单元可以存在。相対地,在本文中若将单元称作与另一个单元“直接相连”或“直接耦合”时,表示不存在中间单元。另外,应当以类似方式来解释用于描述单元之间的关系的其他单词(例如,“在……之间”对“直接在……之间”,“相邻”对“直接相邻”等等)。
应当理解,本文使用的术语仅用于描述特定实施例,并不意在限制本发明的示例实施例。若本文所使用的,单数形式“一”、“一个”以及“该”意在包括复数形式,除非上下文明确指示相反意思。还应当理解,若术语“包括”、“包括了”、“包含”和/或“包含了”在本文中被使用时,指定所声明的特征、整数、步骤、操作、单元和/或组件的存在性,并且不排除一个或多个其他特征、数量、步骤、操作、单元、组件和/或他们的组合存在性或增加。
应当理解,还应当注意到在一些备选实施例中,所出现的功能/动作可能与附图出现的顺序不同。例如,取决于所涉及的功能/动作,实际上可以实质上并发地执行,或者有时可以以相反的顺序来执行连续示出的两个图。
应当理解,在下面的描述中提供了特定的细节,以便于对示例实施例的完全理解。然而,本领域普通技术人员应当理解可以在没有这些特定细节的情况下实现示例实施例。例如可以在框图中示出系统,以避免用不必要的细节来使得示例不清楚。在其他实例中,可以不以不必要的细节来示出众所周知的过程、结构和技术,以避免使得示例实施例不清。
实施例
如图1所示,本实施例第一方面所提供的卷积神经网络模型的训练方法,经过其训练后的卷积神经网络模型可用于任何领域的人员穿戴识别,在此,举例经过本实施例第一方面所述的训练方法训练后的卷积神经网络模型,适用于医护人员的穿戴防护识别。
在本实施例中,本实施例第一方面所提供的卷积神经网络模型的训练方法,可以但不限于包括有如下步骤S101~S106。
S101.获取训练数据集,其中,所述训练数据集包含有待识别对象同一种状态下的多张穿戴图像。
步骤S101则是获取训练数据集的过程,由于要达到对人员穿戴状态的识别,所以,在本实施例中,举例训练数据集包含有待识别对象同一种状态下的多张穿戴图像。
在本实施例中,同一种状态可以但不限于为:待识别人员穿戴状态不变,但拍摄角度不同。如医护人员穿戴完毕后,从前方、左右两侧、后方等角度进行拍摄,获取到的多张拍摄图像。也可为:拍摄待识别人员穿戴完毕后的视频,对视频进行处理(如按帧数处理),获取到待识别人员的连续多张穿戴图像。
在本实施例中,举例待识别人员同一状态下的穿戴图像可以但限于由以下方式得到:摄像头拍摄得到。
在本实施例中,举例训练数据集的获取可以但不限于如下步骤S101a~S101c。
S101a.获取原始数据集,其中所述原始数据集包含有待识别对象同一种状态下的多张原始穿戴图像。
步骤S101a则是获取原始数据集的过程,即获取待识别对象同一种状态下的多张原始穿戴图像,即上述提到的直接拍摄待识别人员,得到的拍摄图像,或对拍摄的视频进行处理,得到连续的多张图像。
通过上述说明可知,穿戴图像是原始穿戴图像经过处理后得到的,具体的处理即步骤S101b所示。
S101b.对所述原始数据集中的每张所述原始穿戴图像进行尺寸变换,分别得到每张原始穿戴图像对应的穿戴图像。
步骤S101b则是对每张原始穿戴图像进行尺寸变换的过程,由于卷积神经网络模型对输入的图片数据有固定的尺寸大小要求,所以需要对输入的图像进行尺寸变换,以符合卷积神经网络模型的输入尺寸要求。
当然,在本实施例中,步骤S101b所进行的尺寸变换,与所要使用的卷积神经网络模型的要求相符,即卷积神经网络模型的图片尺寸要求是多少,步骤S101b则将原始穿戴图像转换为相应的尺寸。
例如,若使用的卷积神经网络模型为VGG13卷积神经网络模型,那么对原始穿戴图像进行尺寸变换后,得到的穿戴图像,其尺寸就为224*224*3,其中,两个224分别代表图像的长度和宽度,3代表图像的通道数。
在本实施例中,举例尺寸变换可以但不限于利用图片处理库中的resize函数。而上述的函数为一种现有函数,可直接使用。
S101c.利用每张原始穿戴图像对应的穿戴图像,组成所述训练数据集。
对每张原始穿戴图像进行尺寸变换后,即可得到相应的穿戴图像,即得到最终输入卷积神经网络模型中进行训练的图像,而多张穿戴图像就组成了训练数据集。
S102.利用卷积神经网络模型训练所述训练数据集中的每张穿戴图像,分别得到每张穿戴图像对应的特征图。
步骤S102则是利用卷积神经网络模型对输入的穿戴图像进行训练的过程,以便得到每张穿戴图像对应的特征图,即得到每张穿戴图像的特征信息,以便进行特征分类。
在本实施例中,举例卷积神经网络模型可以但不限于采用VGG13卷积神经网络模型。
在本实施例中,举例得到每张穿戴图像对应的特征图,可以但不限于包括以下步骤S102a~S102b。
S102a.利用所述卷积神经网络模型的卷积层,按照预设规则对每张所述穿戴图像进行卷积,分别得到每张所述穿戴图像的第一特征图。
在本实施中,在卷积层的卷积处理中,参与处理的数据(即每张穿戴图像)均为数组形式,并且常为2维和3维数组(2维数组类似与矩阵形式),3维数组则类似于多张矩阵重叠。
例如,一张图像读取后,数据格式为H*W*C的数组,其中,H为高度,W为宽度,C为通道数,数组中的每一个元素则是对应图像中该点RGB色值。
如图5所示,图5则为一个2*2*3的数据示例。
在本实施例中,举例利用VGG13卷积神经网络模型进行训练,即进行卷积和池化。
VGG13卷积神经网络模型包括10个卷积层和5个池化层,下面以VGG13卷积神经网络模型为例,对卷积和池化进行详细的介绍:
如图6所示,图6为卷积操作示意图,在本实施例中,举例预设规则采用3*3卷积核对每张穿戴图像进行卷积。
即VGG13卷积神经网络模型中的每个卷积层都使用3*3卷积核,步长为1,对输入的每张穿戴图像进行卷积,卷积示意图如图6所示,卷积的操作具体如下:
图6的中心框起来的区域则为原始数据,首先在外部补了一圈0(该操作可保证卷积后得到的特征图与原始数据相比尺寸不变),中间的矩阵则为3*3卷积核,右图为经过卷积后得到的特征图。图6中的左方第一幅图中左上方框出的3*3数据与卷积核对应位置相乘,然后全部相加,得到的则为右侧特征图中的一个值,然后向右移动一格(移动的格数成为步长),进行相同的操作得到第二个值,遍历左方整个图后,即可得到卷积后的特征图。
在本实施例中,卷积的目的则是进行每张穿戴图像特征信息的提取,但是其输出是以特征图的形式。
卷积完毕后,还需要利用卷积神经网络模型中的池化层,进行池化,以降低数据量,减轻计算负担,进而提高识别速率,具体如步骤S102b所示。
S102b.利用所述卷积神经网络模型的池化层,对每张所述穿戴图像对应的第一特征图进行池化,分别得到每张所述穿戴图像对应的所述特征图。
在本实施例中,在进行池化前,需要去除卷积神经网络模型中的最大池化层,然后利用剩余的池化层,以2*2的步长尺寸,并按照最大池化方式对每张所述穿戴图像对应的第一特征图进行池化,池化完毕后,即可分别得到每张所述穿戴图像对应的所述特征图。
在本实施例中,最大池化方法为一种现有技术。
如图7所示,图7为池化操作示意图,下面以VGG13卷积神经网络模型为例,对池化操作进行具体的介绍:
图7中左图为池化层输入的原始数据,即每张穿戴图像对应的第一特征图,图7中的右图为经过池化后得到的特征图。图7中左图所框出的2*2数据中,其中最大值则为特征图中对应的值,此操作即为最大池化,然后黑框移动两格(步长为2),相同的操作即可得到第二个值,遍历整个左图后即可得到池化后的特征图,即得到每张穿戴图像的特征图。
通过步骤S102a和步骤S102b,即可得到每张穿戴图像对应的特征图,完成特征信息的提取。
在本实施例中,卷积层与池化层的结构是由使用者自己设定的,即卷积核大小、步长、池化尺寸、池化方式(除最大池化外,还有平均池化等其他方式)、步长,以及是否补0均由使用者自己设定,上述举例仅仅为其中一个示例。
在得到每张穿戴图像对应的特征图后,会进行特征信息的融合,即将特征图进行融合,得到一张包含有所有特征图中特征信息的总图,如步骤S103所示。
S103.将每张所述穿戴图像对应的特征图进行融合,得到标准特征图。
在本实施例中,举例采用Elementwise Maximum(对应元素最大池化)算法,对每张穿戴图像对应的特征图进行融合。上述算法是一种现有算法,其原理为,将多张特征图的对应像素点的元素值大小进行比较,输出最大的一个值,从而达到将多张特征图合并长一张图的效果,如图8所示。
通过融合多张特征图,得到标准特征图后,即可进行特征分类,得到分类结果。在本实施例中,分类结果则是直接通过卷积神经网络模型得出的识别结果,如步骤S104所示。
S104.对所述标准特征图进行特征分类,得到分类结果。
由于前述就已说明,在卷积层的卷积处理中,参与处理的数据均为数组形式,并且常为2维和3维数组(2维数组类似与矩阵形式),3维数组则类似于多张矩阵重叠,而步骤S103进行融合,其实质为多张矩阵重叠而成,所以,标准特征图为一个3维数组。
在本实施例中,得到分类结果的方法可以但不限于为:将3维数组展平,即将里面的数值按顺序列成一个一维列向量。然后通过全连接层输出成两个数值(此处由分类类别决定,需要分成多少类则输出几个数值,而其中数值最大的数所代表的类别即为最终分类的结果),达到分类效果。
在本实施例中,由于识别结果就只有两个,穿戴符合标准和穿戴不符合标准,所以,为2个分类类别,即分类具有两个,其中,最大数值的分类结果则代表穿戴符合标准,而数值最小的则为不符合标准。
如图9所示,图9为特征分类操作示意图,同时,结合图9对特征分类做出详细的介绍:
高维向量通过全连接层向低维向量(两个数值可看做1*2列向量)的转化,其前后两层的每一个元素之间都相连,每根连线代表其的权重,通过Y=WX(Y为后一层元素值,X为前一层元素值,W为每根线代表的权重)累加,向后传递。最终若为二分类,则会输出两个值,较大数值所代表的类别即为穿戴符合标准的识别结果。
通过步骤S104,则可得出卷积神经网络模型的识别结果,但是,由于识别结果存在误差,为了保证识别的准确性,还需要对误差信息校验修正,即将分类结果与真实类别结果进行对比,通过对比结果进行校正,如步骤S105所示。
S105.对所述分类结果进行校正,得到校正结果。
步骤S105则是进行校正的过程,此过程需要将分类结果与真实类别进行比较,真实类别则是实际标准的图像,由使用人员输入,其实质为:进分类结果与真实类别的结果进行数值大小比较,通过比较结果对分类结果进行修正,使之更靠近真实结果,修正后,即可得到校正结果(即校正后的分类结果)。
对分类结果进行校正后,就可以进行模型的更新,如步骤S106所示。
S106.利用所述校正结果,对所述卷积神经网络模型进行更新,得到训练后的卷积神经网络模型。
步骤S106更新模型的实质为;反向对特征提取阶段的卷积核进行更新,对特征分类的全连接权重进行更新,使得每一张图片通过模型识别后,输出的结果相真实类别(即实际标准图像,即符合标准的图像和不符合标准的图像)靠近,进而提高识别的准确率,通过对每一次训练得出的分类结果进行校正,并更新,当模型输出的结果与真实结果之间的误差在预设范围内(由使用人员预设),即可得到训练后的卷积神经网络模型。
由此通过步骤S101~S106所提供的卷积神经网络模型的训练方法,本发明可实现卷积神经网络模型的训练,可将训练后的卷积神经网络模型直接应用于穿戴防护图像识别,进而对医护人员的穿戴防护进行准确识别,从而可避免使用人工方式检查,不仅效率高和准率高,还大大的减少了人力成本。
如图2所示,本实施例第二方面提供了一种医护人员穿戴防护状态识别方法,包括以下步骤S201和S202。
S201.获取待识别医护人员的至少一张穿戴防护图像。
S202.利用经实施例第一方面所述的卷积神经网络模型的训练方法训练后的卷积神经网络模型,对所述至少一张穿戴防护图像进行图像识别,得出医护人员穿戴防护状态识别结果。
通过步骤S201和步骤S202则是利用经实施例第一方面所述的训练方法训练后的卷积神经网络模型进行医护人员穿戴防护状态识别的具体应用。使用时,直接将穿戴防护图像输入训练后的卷积神经网络模型,即可完成图像识别,得出穿戴防护状态识别结果。
通过上述设计,可快速准确的得出医护人员穿戴防护是否符合标准,避免使用人工方式检查,不仅效率高和准率高,还大大的减少了人力成本。
如图3所述,本实施例第三方面提供了一种实现实施例第一方面中卷积神经网络模型的训练方法的硬件装置,包括:获取单元、训练单元、特征图融合单元、特征分类单元、校正单元和更新单元。
所述获取单元,用于获取训练数据集,其中,所述训练数据集包含有待识别对象同一种状态下的多张穿戴图像。
所述训练单元,用于利用卷积神经网络模型训练所述训练数据集中的每张穿戴图像,分别得到每张穿戴图像对应的特征图。
所述特征图融合单元,用于将每张所述穿戴图像对应的特征图进行融合,得到标准特征图。
所述特征分类单元,用于对所述标准特征图进行特征分类,得到分类结果。
所述校正单元,用于对所述分类结果进行校正,得到校正结果。
所述更新单元,用于利用所述校正结果,对所述卷积神经网络模型进行更新,得到训练后的卷积神经网络模型。
在一个可能的设计中,所述训练单元包括:卷积子单元和池化子单元。
所述卷积子单元,用于利用所述卷积神经网络模型的卷积层,按照预设规则对每张所述穿戴图像进行卷积,分别得到每张所述穿戴图像的第一特征图。
所述池化子单元,用于利用所述卷积神经网络模型的池化层,对每张所述穿戴图像对应的第一特征图进行池化,分别得到每张所述穿戴图像对应的所述特征图。
在一个可能的设计中:
所述池化子单元,具体用于去除所述卷积神经网络模型中的最大池化层,并在去除后,利用所述卷积神经网络模型中的剩余池化层,以2*2的步长尺寸,并按照最大池化方式对每张所述穿戴图像对应的第一特征图进行池化,分别得到每张所述穿戴图像对应的所述特征图。
在一个可能的设计中,所述卷积神经网络模型的训练装置还包括尺寸变换单元。
所述获取单元,还用于获取原始数据集,其中所述原始数据集包含有待识别对象同一种状态下的多张原始穿戴图像。
所述尺寸变换单元,用于对所述原始数据集中的每张所述原始穿戴图像进行尺寸变换,分别得到每张原始穿戴图像对应的穿戴图像,以便利用每张原始穿戴图像对应的穿戴图像,组成所述训练数据集。
本实施例提供的硬件装置的工作过程、工作细节和技术效果,可以参见实施例第一方面,于此不再赘述。
如图4所示,本实施例第四方面提供了一种执行实施例第一方面中所述的卷积神经网络模型的训练方法的计算机主设备,包括依次通信相连的存储器、处理器和收发器,其中,所述存储器用于存储计算机程序,所述收发器用于收发消息,所述处理器用于读取所述计算机程序,执行如实施例第一方面所述的卷积神经网络模型的训练方法。
具体举例的,所述存储器可以但不限于包括随机存取存储器(RAM)、只读存储器(ROM)、闪存(Flash Memory)、先进先出存储器(FIFO)和/或先进后出存储器(FILO)等等;所述处理器可以不限于采用型号为STM32F105系列的微处理器、ARM(Advanced RISCMachines)、X86等架构处理器或集成NPU(neural-network processing units)的处理器;所述收发器可以但不限于为WiFi(无线保真)无线收发器、蓝牙无线收发器、通用分组无线服务技术(General Packet Radio Service,GPRS)无线收发器、紫蜂协议(基于IEEE802.15.4标准的低功耗局域网协议,ZigBee)无线收发器、3G收发器、4G收发器和/或5G收发器等。此外,所述计算机主设备还可以但不限于包括有电源模块、显示屏和其它必要的部件。
本实施例提供的计算机主设备的工作过程、工作细节和技术效果,可以参见实施例第一方面,于此不再赘述。
本实施例第五方面提供了一种存储包含有实施例第一方面所述的卷积神经网络模型的训练方法的指令的计算机可读存储介质,即所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,执行如第一方面所述的卷积神经网络模型的训练方法。其中,所述计算机可读存储介质是指存储数据的载体,可以但不限于包括软盘、光盘、硬盘、闪存、优盘和/或记忆棒(Memory Stick)等,所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。
本实施例提供的计算机可读存储介质的工作过程、工作细节和技术效果,可以参见实施例第一方面,于此不再赘述。
本实施例第六方面提供了一种包含指令的计算机程序产品,当所述指令在计算机上运行时,使所述计算机执行如实施例第一方面所述的卷积神经网络模型的训练方法,其中,所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。
以上所描述的多个实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备执行各个实施例或者实施例的某些部分所述的方法。
本发明不局限于上述可选实施方式,任何人在本发明的启示下都可得出其他各种形式的产品,但不论在其形状或结构上作任何变化,凡是落入本发明权利要求界定范围内的技术方案,均落在本发明的保护范围之内。

Claims (10)

1.一种卷积神经网络模型的训练方法,其特征在于,包括:
获取训练数据集,其中,所述训练数据集包含有待识别对象同一种状态下的多张穿戴图像;
利用卷积神经网络模型训练所述训练数据集中的每张穿戴图像,分别得到每张穿戴图像对应的特征图;
将每张所述穿戴图像对应的特征图进行融合,得到标准特征图;
对所述标准特征图进行特征分类,得到分类结果;
对所述分类结果进行校正,得到校正结果;
利用所述校正结果,对所述卷积神经网络模型进行更新,得到训练后的卷积神经网络模型。
2.如权利要求1所述的一种卷积神经网络模型的训练方法,其特征在于,得到每张穿戴图像对应的特征图,包括:
利用所述卷积神经网络模型的卷积层,按照预设规则对每张所述穿戴图像进行卷积,分别得到每张所述穿戴图像的第一特征图;
利用所述卷积神经网络模型的池化层,对每张所述穿戴图像对应的第一特征图进行池化,分别得到每张所述穿戴图像对应的所述特征图。
3.如权利要求2所述的一种卷积神经网络模型的训练方法,其特征在于,所述预设规则采用3*3卷积核对每张穿戴图像进行卷积。
4.如权利要求2所述的一种卷积神经网络模型的训练方法,其特征在于,对每张所述穿戴图像对应的第一特征图进行池化,所述方法包括:
去除所述卷积神经网络模型中的最大池化层;
利用所述卷积神经网络模型中的剩余池化层,以2*2的步长尺寸,并按照最大池化方式对每张所述穿戴图像对应的第一特征图进行池化,分别得到每张所述穿戴图像对应的所述特征图。
5.如权利要求1所述的一种卷积神经网络模型的训练方法,其特征在于,获取所述训练数据集,包括:
获取原始数据集,其中所述原始数据集包含有待识别对象同一种状态下的多张原始穿戴图像;
对所述原始数据集中的每张所述原始穿戴图像进行尺寸变换,分别得到每张原始穿戴图像对应的穿戴图像;
利用每张原始穿戴图像对应的穿戴图像,组成所述训练数据集。
6.如权利要求1所述的一种卷积神经网络模型的训练方法,其特征在于,所述卷积神经网络模型采用VGG13卷积神经网络模型。
7.一种卷积神经网络模型的训练装置,其特征在于,包括:获取单元、训练单元、特征图融合单元、特征分类单元、校正单元和更新单元;
所述获取单元,用于获取训练数据集,其中,所述训练数据集包含有待识别对象同一种状态下的多张穿戴图像;
所述训练单元,用于利用卷积神经网络模型训练所述训练数据集中的每张穿戴图像,分别得到每张穿戴图像对应的特征图;
所述特征图融合单元,用于将每张所述穿戴图像对应的特征图进行融合,得到标准特征图;
所述特征分类单元,用于对所述标准特征图进行特征分类,得到分类结果;
所述校正单元,用于对所述分类结果进行校正,得到校正结果;
所述更新单元,用于利用所述校正结果,对所述卷积神经网络模型进行更新,得到训练后的卷积神经网络模型。
8.一种卷积神经网络模型的训练主设备,其特征在于,包括:依次通信相连的存储器、处理器和收发器,其中,所述存储器用于存储计算机程序,所述收发器用于收发消息,所述处理器用于读取所述计算机程序,执行如权利要求1~6任意一项所述的卷积神经网络模型的训练方法。
9.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,执行如权利要求1~6任意一项所述的卷积神经网络模型的训练方法。
10.一种医护人员穿戴防护状态识别方法,其特征在于,包括:
获取待识别医护人员的至少一张穿戴防护图像;
利用经权利要求1~6任意一项所述的卷积神经网络模型的训练方法训练后的卷积神经网络模型,对所述至少一张穿戴防护图像进行图像识别,得出医护人员穿戴防护状态识别结果。
CN202010609653.5A 2020-06-29 2020-06-29 一种卷积神经网络模型的训练方法及装置 Pending CN111767855A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010609653.5A CN111767855A (zh) 2020-06-29 2020-06-29 一种卷积神经网络模型的训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010609653.5A CN111767855A (zh) 2020-06-29 2020-06-29 一种卷积神经网络模型的训练方法及装置

Publications (1)

Publication Number Publication Date
CN111767855A true CN111767855A (zh) 2020-10-13

Family

ID=72722941

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010609653.5A Pending CN111767855A (zh) 2020-06-29 2020-06-29 一种卷积神经网络模型的训练方法及装置

Country Status (1)

Country Link
CN (1) CN111767855A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434622A (zh) * 2020-11-27 2021-03-02 浙江大华技术股份有限公司 基于卷积神经网络的行人分割与步态识别一体化方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434622A (zh) * 2020-11-27 2021-03-02 浙江大华技术股份有限公司 基于卷积神经网络的行人分割与步态识别一体化方法

Similar Documents

Publication Publication Date Title
US11151723B2 (en) Image segmentation method, apparatus, and fully convolutional network system
WO2018126638A1 (zh) 检测图像中的特征点的方法、设备和计算机可读存储介质
CN109840485B (zh) 一种微表情特征提取方法、装置、设备及可读存储介质
CN109064428A (zh) 一种图像去噪处理方法、终端设备及计算机可读存储介质
CN109740721B (zh) 麦穗计数方法及装置
CN108961180A (zh) 红外图像增强方法及系统
JP6104010B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
EP4109393A1 (en) Method and device for removing moiré patterns
JP3621304B2 (ja) 画像の輝度補正方法
US20190206117A1 (en) Image processing method, intelligent terminal, and storage device
CN108428224B (zh) 基于卷积神经网的动物体表温度检测方法及装置
WO2021248859A1 (zh) 视频分类方法、装置、设备及计算机可读存储介质
WO2020059446A1 (ja) 学習装置及び学習方法
CN108334810A (zh) 视线追踪设备中确定参数的方法和装置
CN110490822A (zh) 图像去运动模糊的方法和装置
CN106709862B (zh) 一种图像处理方法及装置
CN111598176B (zh) 一种图像匹配处理方法及装置
CN111767855A (zh) 一种卷积神经网络模型的训练方法及装置
CN116188331A (zh) 一种建设工程施工状态变化监测方法及系统
CN114298942A (zh) 图像去模糊方法及装置、计算机可读介质和电子设备
CN108257086A (zh) 一种全景照片处理的方法及装置
CN115393470B (zh) 一种文物数字线图的绘制方法、绘制系统及绘制装置
CN115587943B (zh) 点云数据的去噪方法、装置、电子设备及存储介质
CN116012517A (zh) 一种正则化的图像渲染方法及装置
CN112270361B (zh) 一种人脸数据处理方法、系统、存储介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination