CN111144285A - 胖瘦程度识别方法、装置、设备及介质 - Google Patents

胖瘦程度识别方法、装置、设备及介质 Download PDF

Info

Publication number
CN111144285A
CN111144285A CN201911359221.7A CN201911359221A CN111144285A CN 111144285 A CN111144285 A CN 111144285A CN 201911359221 A CN201911359221 A CN 201911359221A CN 111144285 A CN111144285 A CN 111144285A
Authority
CN
China
Prior art keywords
image
neural network
network model
degree
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911359221.7A
Other languages
English (en)
Inventor
喻晨曦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN201911359221.7A priority Critical patent/CN111144285A/zh
Publication of CN111144285A publication Critical patent/CN111144285A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种胖瘦程度识别方法、装置、计算机设备及存储介质,所述方法包括:获取待识别图像;将待识别图像输入头像检测模型,获取待识别图像的头像照;将待识别图像的头像照进行灰度处理,得到头像照的灰度图像;将灰度图像输入预设的深度神经网络模型,通过深度神经网络模型中的预设增强卷积增强灰度图像的脖子特征和人脸特征;通过对灰度图像增强之后的脖子特征和人脸特征进行提取,并获取深度神经网络模型输出的根据脖子特征和人脸特征得出的胖瘦程度的识别结果;其中,深度神经网络模型包括预设增强卷积,识别结果包括胖瘦程度为胖、中、瘦。实现了快速地、有效地、便捷地识别出人物的胖瘦程度,也提高了识别准确率,节省了运营成本。

Description

胖瘦程度识别方法、装置、设备及介质
技术领域
本发明涉及图像分类领域,尤其涉及一种胖瘦程度识别方法、装置、计算机设备及存储介质。
背景技术
目前,身体质量指数(BMI,Body Mass Index)是国际上常用的衡量人体胖瘦程度和是否健康的重要标准,如果需要提供身体质量指数(比如胖瘦程度)对个人的健康状况进行风险评估,则需要客户进行复杂、冗长和繁琐的传统体检流程,就得需要在正规医院中获取体检报告,之后再对体检报告中的身体质量指数进行相应处理之后才能继续进行,如此,大大加长了处理周期,造成成本浪费,而且根据身体质量指数判断胖瘦程度在很多应用场景中存在局限性。
发明内容
本发明提供一种胖瘦程度识别方法、装置、计算机设备及存储介质,实现了快速地、有效地、便捷地识别出人物的胖瘦程度,也提高了识别准确率,缩短了处理周期,极大提高了效率,节省了运营成本。
一种胖瘦程度识别方法,包括:
获取待识别图像;
将所述待识别图像输入头像检测模型,获取所述待识别图像中的头像照;其中,所述头像照包括脖子和人脸;
将所述待识别图像的头像照进行灰度处理,得到所述头像照的灰度图像;
将所述头像照的灰度图像输入预设的深度神经网络模型,通过所述深度神经网络模型中的预设增强卷积增强所述灰度图像的脖子特征和人脸特征,得到最终特征图;
通过所述深度神经网络模型对所述最终特征图进行提取增强之后的所述脖子特征和所述人脸特征,并获取所述深度神经网络模型输出的根据所述脖子特征和人脸特征得出的胖瘦程度的识别结果;其中,所述深度神经网络模型包括预设增强卷积,所述识别结果包括胖瘦程度为胖、中、瘦。
一种胖瘦程度识别装置,包括:
获取模块,用于获取待识别图像;
提取模块,用于将所述待识别图像输入头像检测模型,获取所述待识别图像中的头像照;其中,所述头像照包括脖子和人脸;
转换模块,用于将所述待识别图像的头像照进行灰度处理,得到所述头像照的灰度图像;
增强模块,用于将所述头像照的灰度图像输入预设的深度神经网络模型,通过所述深度神经网络模型中的预设增强卷积增强所述灰度图像的脖子特征和人脸特征,得到最终特征图;
识别模块,用于通过所述深度神经网络模型对所述最终特征图进行提取增强之后的所述脖子特征和所述人脸特征,并获取所述深度神经网络模型输出的根据所述脖子特征和人脸特征得出的胖瘦程度的识别结果;其中,所述深度神经网络模型包括预设增强卷积,所述识别结果包括胖瘦程度为胖、中、瘦。
本发明提供的胖瘦程度识别方法、装置、计算机设备及存储介质,通过获取待识别图像;通过头像检测模型获取所述待识别图像中的头像照,其中,所述头像照包括脖子和人脸;对所述待识别图像的头像照进行灰度处理,通过加权平均法得到所述头像照的灰度图像;将所述头像照的灰度图像输入预设的深度神经网络模型,其中,所述深度神经网络模型包括预设增强卷积,从而增强了脖子特征和人脸特征,以及减少数据处理;对所述灰度图像进行脖子特征和人脸特征进行提取,得出的胖瘦程度的识别结果。如此,实现了通过待识别图像经过头像检测模型提取头像照,再对头像照进行灰度处理得到灰度图像,将灰度图像输入深度神经网络模型通过提取脖子特征和人脸特征得到胖瘦程度的识别结果,从而快速地、有效地、便捷地识别出人物的胖瘦程度,也提高了识别准确率,缩短了处理周期,极大提高了效率,节省了运营成本。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中胖瘦程度识别方法的应用环境示意图;
图2是本发明一实施例中胖瘦程度识别方法的流程图;
图3是本发明一实施例中胖瘦程度识别方法的步骤S20的流程图;
图4是本发明一实施例中胖瘦程度识别方法的步骤S30的流程图;
图5是本发明一实施例中胖瘦程度识别方法的步骤S40的流程图;
图6是本发明一实施例中胖瘦程度识别方法的步骤S40之前的流程图;
图7是本发明另一实施例中胖瘦程度识别方法的步骤S40之前的流程图;
图8是本发明一实施例中胖瘦程度识别装置的原理框图;
图9是本发明一实施例中计算机设备的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的胖瘦程度识别方法,可应用在如图1的应用环境中,其中,客户端(计算机设备)通过网络与服务器进行通信。其中,客户端(计算机设备)包括但不限于为各种个人计算机、笔记本电脑、智能手机、平板电脑、摄像头和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种胖瘦程度识别方法,其技术方案主要包括以下步骤S10-S50:
S10,获取待识别图像。
其中,所述待识别图像可以为包括RGB通道(三个通道为红色通道、绿色通道、蓝色通道)的身份证正面彩色图。在一个实施例中,服务器可以通过安装在终端的摄像头进行拍摄以获取所述待识别图像;亦可以服务器通过终端从存储于终端的本地相册中获取所述待识别图像。
S20,将所述待识别图像输入头像检测模型,获取所述待识别图像中的头像照;其中,所述头像照包括脖子和人脸。
可理解地,将所述待识别图像输入头像检测模型,所述头像检测模型包括mtcnn(Multi-task convolutional neural network,多任务卷积神经网络)算法,并且为已经训练完成的模型。所述mtcnn算法将脖子及人脸区域检测和关键点检测放在了一起,识别出最终的头像区域和特征点位置,通过所述头像检测模型中的mtcnn算法对所述待识别图像进行头像检测,以检测出所述待识别图像是否包含脖子和人脸;在所述头像检测模型检测出所述待识别图像包含脖子和人脸时,则对所述待识别图像进行剪切,剪切的区域尺寸为预设的尺寸,优选地,所述预设的尺寸设置为64×64,即剪切的区域为边长是64个像素点的正方形区域,并将提取出来的图像标记为所述待识别图像的头像照。例如:将人物正面照片输入头像检测模型,检测出该照片包含头像,根据检测出的头像区域(通常该区域为矩形区域),对人物正面照片进行提取,则提取下来的图像即为人物的头像照。
在一实施例中,如图3所示,所述步骤S20中,即所述将所述待识别图像输入头像检测模型,获取所述待识别图像中的头像照,包括:
S201,通过所述头像检测模型中的mtcnn算法检测所述待识别图像中是否包含脖子和人脸。
可理解地,通过所述头像检测模型中的mtcnn算法对所述待识别图像进行头像检测,可以判断出所述待识别图像是否包含脖子和人脸。例如,所述待识别图像为摄像头拍摄的人物正面图像,根据实验数据可以得出人物正面图像检测的准确率为99.8%。
S202,在所述待识别图像中包含脖子和人脸时,则确定所述待识别图像中包含头像照的头像区域,并提取所述头像区域中的头像照。
可理解地,在判断出所述待识别图像中包含有脖子和人脸时,可以识别出所述待识别图像的头像区域。具体的,头像区域可以包括所述待识别图像中人物的锁骨以上的区域,是因为锁骨以上的头部区域包括了脖子和人脸。
如此,通过所述mtcnn算法进行头像的识别,可以减少除所述头像区域以外的图像产生的数据干扰,只提取有用的图像数据,从而提高识别的效率。
在一实施例中,所述步骤S201之后,即所述通过所述头像检测模型中的mtcnn算法检测所述待识别图像中是否包含脖子和人脸之后,包括:
在所述待识别图像中不包含脖子或/和人脸时,则提示重新输入所述待识别图像。
也即,在所述待识别图像中不包含脖子或/和人脸时,则提示重新输入所述待识别图像,所述提示的方式和内容可以根据需求进行设定,比如:弹出提示窗口为“输入图像错误,请重新输入!”等。
S30,将所述待识别图像的头像照进行灰度处理,得到所述头像照的灰度图像。
可理解地,所述待识别图像的头像照包括RGB三个通道的图像(R:红色通道,G:绿色通道,B:蓝色通道),即每个所述头像照中的每个像素点有三个通道的风量值,分别为R分量值(红色分量值)、G分量值(绿色分量值)和B分量值(蓝色分量值),将所述头像照中的每个像素点进行灰度处理,通过加权平均法的公式得出每个像素点的灰度值,从而生成所述头像照的灰度图像,如此,则将三个通道的所述头像照变换成一个通道的灰度图像,进而在后续的过程中只对一个通道进行处理,减少了分别对各个通道的处理操作和时间。
在一实施例中,如图4所示,所述步骤S30中,即所述将所述待识别图像的头像照进行灰度处理,得到所述头像照的灰度图像,包括:
S301,获取所述头像照的每个像素点的RGB分量值。
可理解地,获取所述头像照的每个像素点的R分量值、G分量值和B分量值,例如:获取所述头像照的一个像素点的R分量值为200,G分量值为100,B分量值为40。
S302,根据所述每个像素点的RGB分量值,按照加权平均法的公式得出每个像素点的灰度值,并生成所述头像照的灰度图像。
可理解地,根据每一个所述像素点的R分量值、G分量值和B分量值,按照所述加权平均法的公式计算出每一个所述像素点对应的灰度值,如此类推,计算出所述头像照汇总所有所述像素点对应的灰度值,从而生成与所述头像照对应的灰度图像。
在一实施例中,所述步骤S302中,所述加权平均法的公式为:
A=0.299R+0.587G+0.114B
其中,
A为每个像素点的灰度值;
R为每个像素点中的R分量值;
G为每个像素点中的G分量值;
B为每个像素点中的B分量值。
例如:一个像素点的R分量值为200,G分量值为100,B分量值为40,则通过所述加权平均法的公式计算出该像素点的灰度值A为123.06。
S40,将所述头像照的灰度图像输入预设的深度神经网络模型,通过所述深度神经网络模型中的预设增强卷积增强所述灰度图像的脖子特征和人脸特征。
可理解地,将所述头像照的灰度图像输入至所述深度神经网络模型,所述深度神经网络模型包括多个级卷积和预设增强卷积,而且所述每一级卷积包括至少一个卷积,优选地,所述卷积为3×3卷积核的卷积,所述预设增强卷积为将其中一级卷积的输入的特征图也作为所述预设增强卷积的输入的特征图,通过所述预设增强卷积处理后输出与该级卷积相应的的增强特征图,然后将该级卷积输出的特征图与所述增强特征图进行拼接,生成与该级卷积对应的下一级卷积的输入的特征图,优选地,所述预设增强卷积可以为1×1卷积核的卷积,利用1×1卷积核的卷积替代一个3×3卷积核的卷积的一部分工作,并且单独生成一个增强脖子特征和人脸特征的特征图拼接进所述下一级卷积的输入的特征图中,如此,不仅减少了该级卷积的数据处理,还增强了脖子特征和人脸特征。通过实验数据得出,所述深度神经网络模型的容量大小大概为2兆字节,而且实现所述胖瘦程度识别的方法的装置容量大小大概为10兆字节,如此,可以应用在便携式容量小的移动终端中,而且十分方便。
在一实施例中,如图5所示,所述步骤S40中,即所述将所述头像照的灰度图像输入预设的深度神经网络模型,通过所述深度神经网络模型中的预设增强卷积增强所述灰度图像的脖子特征和人脸特征,得到最终特征图,包括:
S401,将所述头像照的灰度图像输入所述深度神经网络模型中的第一级卷积,得到第一原始特征图。
优选地,所述第一级卷积包括两个卷积和两个激活函数,两个卷积分别为第一个卷积和第二个卷积,所述第一个卷积包括32个3×3卷积核和步幅为2×2,所述第二个卷积包括64个3×3卷积核和步幅为1×1,两个激活函数分别为第一激活函数和第二激活函数,所述第一个卷积和所述第二个卷积之后都需进行激活处理,即对每个所述卷积的输出结果经过激活函数得出激活处理后的值,也即将所有输出结果的负数全部变为零,将所有输出结果的正数不做处理。
可理解地,将所述头像照的灰度图像输入至所述第一个卷积,将所述第一个卷积处理输出的结果经过所述第一激活函数的激活处理后再输入至所述第二个卷积,再经过所述第二激活函数的激活处理后得出所述第一原始特征图。
S402,将所述第一原始特征图分别输入所述深度神经网络模型中的所述预设增强卷积和第二级卷积,分别得到第一增强特征图和第二原始特征图。
优选地,所述预设增强卷积包括1个1×1卷积核和步幅为2×2,所述1×1卷积核和和步幅为2×2能够导致维度简化,例如,将64个200×200的特征图输入所述预设增强卷积,输出1个100×100的特征图,可以将维度减少和尺寸变小,而且通过实验可以保留并强化所提取的特征。所述第二级卷积包括两个卷积、一个激活函数和一个最大池化,两个卷积分别为第三个卷积和第四个卷积,所述第三个卷积包括128个3×3卷积核和步幅为1×1,所述第四个卷积包括128个3×3卷积核和步幅为1×1,所述第三个卷积的3×3卷积核和所述第四个卷积的3×3卷积核可以相同也可以不相同,根据需求进行设定,一个激活函数为第三激活函数,一个最大池化为第一最大池化,所述最大池化为读取局部区域中所有值的最大值,其中所述局部区域为根据需求设定的区域。
可理解地,将所述第一原始特征图输入所述预设增强卷积,生成所述第一增强特征图;将所述第一原始特征图输入所述第三个卷积,将所述第三个卷积处理输出的结果经过所述第三激活函数的激活处理后输入所述第四个卷积,再将所述第四个卷积处理输出的特征图经过所述第一最大池化的池化处理后得出第二原始特征图。
S403,将所述第一增强特征图和所述第二原始特征图进行拼接,得到第一拼接特征图。
可理解地,在所述第一增强特征图上叠加所述第二原始特征图进行生成所述第一拼接特征图,如此,拼接后生成的所述第一拼接特征图为强化提取的脖子特征和人脸特征后的特征图。
S404,将所述第一拼接特征图输入所述深度神经网络模型中的所述预设增强卷积,得到第二增强特征图。
可理解地,将所述第一拼接特征图输入至所述预设增强卷积,经过所述预设增强卷积处理后生成所述第二增强特征图。
S405,将所述第一拼接特征图输入所述深度神经网络模型中的第三级卷积,得到第三原始特征图。
其中,所述第三级卷积包括两个卷积、两个激活函数和一个最大池化,两个卷积分别为第五个卷积和第六个卷积,两个激活函数分别为第四激活函数和第五激活函数,一个最大池化为第二最大池化,所述第四激活函数在所述第五个卷积之前,所述第五激活函数在所述第六个卷积之前,所述第五个卷积包括256个3×3卷积核和步幅为1×1,所述第六个卷积包括256个3×3卷积核和步幅为1×1,所述第五个卷积的3×3卷积核和所述第六个卷积的3×3卷积核可以相同也可以不相同,根据需求进行设定。
可理解地,将所述第一拼接特征图经过所述第四激活函数的激活处理后输入所述第五个卷积,再将所述第五个卷积处理输出的结果经过所述第五激活函数的激活处理后输入所述第六个卷积,最后将所述第六个卷积处理输出的特征图经过所述第二最大池化的池化处理后得出第三原始特征图。
S406,将所述第二增强特征图和所述第三原始特征图进行拼接,得到第二拼接特征图。
如此,拼接后生成的所述第二拼接特征图为更加强化提取的脖子特征和人脸特征后的特征图。
S407,将所述第二拼接特征图输入所述深度神经网络模型中第四级卷积,得到第四原始特征图,并将所述第四原始特征图记录为最终特征图。
优选地,所述第四级卷积包括一个卷积,一个卷积为第七个卷积,所述第七个卷积包括512个3×3卷积核和步幅为1×1,将所述第二拼接特征图输入所述第七条卷积,将所述第七个卷积处理输出的结果为所述第四原始特征图,并将所述第四原始特征图记录为最终特征图。
如此,所述最终特征图包含了丰富的增强之后的脖子特征和人脸特征。本发明通过将所述头像照的灰度图像输入所述深度神经网络模型中的所述第一级卷积,得到所述第一原始特征图;将所述第一原始特征图分别输入所述深度神经网络模型中的所述预设增强卷积和所述第二级卷积,分别得到所述第一增强特征图和所述第二原始特征图;将所述第一增强特征图和所述第二原始特征图进行拼接,得到所述第一拼接特征图;将所述第一拼接特征图输入所述深度神经网络模型中的所述预设增强卷积,得到所述第二增强特征图;将所述第一拼接特征图输入所述深度神经网络模型中的所述第三级卷积,得到所述第三原始特征图;将所述第二增强特征图和所述第三原始特征图进行拼接,得到所述第二拼接特征图;将所述第二拼接特征图输入所述深度神经网络模型中所述第四级卷积,得到所述第四原始特征图,并将所述第四原始特征图记录为最终特征图。如此,通过将头像照的灰度图像输入深度神经网络模型中,并在深度神经网络模型中通过预设增强卷积输出的增强特征图与一个卷积输出的原始特征图进行拼接再输入下一个卷积的方法,能够增强脖子特征和人脸特征,并减少数据处理量,从而提高了识别准确率和加快了数据处理速度。
S50,通过所述深度神经网络模型对所述最终特征图进行提取增强之后的所述脖子特征和所述人脸特征,并获取所述深度神经网络模型输出的根据所述脖子特征和人脸特征得出的胖瘦程度的识别结果;其中,所述深度神经网络模型包括预设增强卷积,所述识别结果包括胖瘦程度为胖、中、瘦。
其中,所述深度神经网络模型通过所述最终特征图进行提取增强之后的所述脖子特征和所述人脸特征,所述深度神经网络模型根据增强之后的所述脖子特征和所述人脸特征输出的胖瘦程度的识别结果,所述识别结果只有3种分类,即胖、中、瘦,即所述头像照的灰度图像输入所述深度神经网络模型后会得出胖、中、瘦其中一个的识别结果。
本发明通过获取待识别图像;通过头像检测模型获取所述待识别图像中的头像照,其中,所述头像照包括脖子和人脸;对所述待识别图像的头像照(包括RBG三个通道)进行灰度处理,通过加权平均法得到所述头像照的灰度图像(只有一个通道);将所述头像照的灰度图像输入预设的深度神经网络模型,其中,所述深度神经网络模型包括预设增强卷积,从而增强了脖子特征和人脸特征,以及减少数据处理;对所述灰度图像进行脖子特征和人脸特征进行提取,得出的胖瘦程度(胖、中、瘦)的识别结果。如此,实现了通过待识别图像经过头像检测模型提取头像照,再对头像照进行灰度处理得到灰度图像,将灰度图像输入深度神经网络模型通过提取脖子特征和人脸特征得到胖瘦程度的识别结果,从而快速地、有效地、便捷地识别出人物的胖瘦程度,也提高了识别准确率,缩短了处理周期,极大提高了效率,节省了运营成本。
在一实施例中,所述步骤S50中,即所述通过所述深度神经网络模型对所述最终特征图进行提取增强之后的所述脖子特征和所述人脸特征,并获取所述深度神经网络模型输出的根据所述脖子特征和人脸特征得出的胖瘦程度的识别结果,包括:
S501,根据所述最终特征图提取的增强之后的所述脖子特征和所述人脸特征进行所述深度神经网络模型中的全局平均池化处理,得到所述灰度图像的胖瘦程度的识别结果。
可理解地,将所述最终特征图提取的所述灰度图像的脖子特征和人脸特征经过所述全局平均池化的处理后,再通过所述深度神经网络模型中的第六激活函数进行激活处理得出结果,进而得出所述灰度图像关于胖瘦程度的识别结果。所述平均池化为最后对提取出的脖子特征和人脸特征进行值的汇总成一维的矩阵。所述胖瘦程度包括胖、中、瘦3类,其中,所述胖对应一个胖的范围值,为胖区间值;所述中对应一个中的范围值,为中区间值;所述瘦对应一个瘦的范围值,为瘦区间值;根据所述通过第六激活函数的激活处理得出结果的值和所述胖、中、瘦区间值可以得出对应的识别结果,即胖、中、瘦其中一个。其中,通过实验数据得出,所述深度神经网络模型的容量大小大概为2兆字节,如此,可以应用在便携式容量小的移动终端中,而且十分方便。
在一实施例中,如图6所示,所述步骤S40之前,即所述将所述头像照的灰度图像输入预设的深度神经网络模型,通过所述深度神经网络模型中的预设增强卷积增强所述灰度图像的脖子特征和人脸特征,得到最终特征图之前,包括:
S408,获取图像训练样本;其中,每一个所述图像训练样本均与一个胖瘦程度标签关联,所述标签根据该图像训练样本中的人物的身体质量指数确定。
其中,所述身体质量指数(BMI,Body Mass Index)是根据身高和体重来衡量体重状态的指标数值,根据所述图像训练样本中的人物的所述身体质量指数确定所述图像训练样本的胖瘦程度的标签值,比如将身体质量指数范围为小于18.5的范围对应关联所述胖瘦程度的标签值为瘦,将身体质量指数范围为大于或等于18.5且小于24的范围对应关联所述胖瘦程度的标签值为中,将身体质量指数范围为大于或等于24的范围对应关联所述胖瘦程度的标签值为胖。
S409,将所述图像训练样本输入包含初始参数的初始神经网络模型。
可理解地,所述初始神经网络模型包括所述初始参数,将所述图像训练样本输入至所述初始神经网络模型中。
S410,通过所述初始神经网络模型提取所述图像训练样本中的脖子特征和人脸特征。
可理解地,通过所述初始神经网络模型对所述图像训练样本进行处理,提取出脖子特征和人脸特征,所述脖子特征跟胖瘦程度有密切的关联,所述人脸特征也跟胖瘦程度有密切的关联。
S411,根据所述脖子特征和人脸特征获得所述初始神经网络模型的识别结果,并根据所述识别结果和所述胖瘦程度标签的匹配程度确定损失值。
可理解地,根据所述初始神经网络模型提取出的所述脖子特征和人脸特征,通过所述初始神经网络模型进行胖瘦识别,获取得到所述初始神经网络模型识别的结果,通过所述图像训练样本的识别结果与所述图像训练样本的胖瘦程度标签进行比对,确定出与之相对应的损失值,即通过所述初始神经网络模型的损失函数计算出损失值。
S412,在所述损失值达到预设的收敛条件时,将收敛之后的所述初始神经网络模型记录为训练完成的深度神经网络模型。
其中,在所述损失值满足预设的收敛条件时,则将收敛之后的所述初始神经网络模型记录为训练完成的深度神经网络模型。所述预设的收敛条件可以为所述损失值经过了5000次计算后值为很小且不会再下降的条件,即在所述损失值经过5000次计算后值为很小且不会再下降时,停止训练,并将收敛后的所述初始神经网络模型记录为训练完成的深度神经网络模型;所述预设的收敛条件也可以为所述损失值小于设定阈值的条件,即在所述损失值小于设定阈值时,停止训练,并将收敛后的所述初始神经网络模型记录为训练完成的深度神经网络模型。
如此,通过根据所述图像训练样本中的人物的所述身体质量指数确定所述图像训练样本的胖瘦程度的标签值,并训练所述初始神经网络模型,能够通过提取脖子特征和人脸特征进行识别并提升识别结果的准确率和可靠性。
在一实施例中,如图7所示,所述步骤S412之后,即所述根据所述脖子特征和人脸特征获得所述初始神经网络模型的识别结果,并根据所述识别结果和所述胖瘦程度标签的匹配程度确定损失值之后,包括:
S413,在所述损失值未达到预设的收敛条件时,迭代更新所述初始神经网络模型的初始参数,直至所述损失值达到所述预设的收敛条件时,将收敛之后的所述初始神经网络模型记录为训练完成的深度神经网络模型。
可理解地,所述损失值步满足所述预设的收敛条件时,通过所述初始神经网络模型的激活函数进行收敛,并迭代更新所述初始神经网络模型的初始参数,一直循环步骤S411和S412,直到所述损失值满足所述预设的收敛条件时,停止训练,将收敛之后的所述初始神经网络模型记录为训练完成的深度神经网络模型。
如此,在所述损失值未达到预设的收敛条件时,不断更新迭代所述初始神经网络模型的初始参数,可以不断向准确的识别结果靠拢,让识别结果的准确率越来越高。
在一实施例中,提供一种胖瘦程度识别装置,该胖瘦程度识别装置与上述实施例中胖瘦程度识别方法一一对应。如图8所示,该胖瘦程度识别装置包括获取模块11、提取模块12、转换模块13、识别模块14和识别模块15。
各功能模块详细说明如下:
获取模块11,用于获取待识别图像;
提取模块12,用于将所述待识别图像输入头像检测模型,获取所述待识别图像中的头像照;其中,所述头像照包括脖子和人脸;
转换模块13,用于将所述待识别图像的头像照进行灰度处理,得到所述头像照的灰度图像;
增强模块14,用于将所述头像照的灰度图像输入预设的深度神经网络模型,通过所述深度神经网络模型中的预设增强卷积增强所述灰度图像的脖子特征和人脸特征,得到最终特征图;
识别模块15,用于通过所述深度神经网络模型对所述最终特征图进行提取增强之后的所述脖子特征和所述人脸特征,并获取所述深度神经网络模型输出的根据所述脖子特征和人脸特征得出的胖瘦程度的识别结果;其中,所述深度神经网络模型包括预设增强卷积,所述识别结果包括胖瘦程度为胖、中、瘦。
在一实施例中,所述提取模块12包括:
识别头像单元,用于通过所述头像检测模型中的mtcnn算法检测所述待识别图像中是否包含脖子和人脸;
提取头像单元,用于在所述待识别图像中包含脖子和人脸时,则确定所述待识别图像中包含头像照的头像区域,并提取所述头像区域中的头像照。
在一实施例中,所述转换模块13包括:
获取所述头像照的每个像素点的RGB分量值;
根据所述每个像素点的RGB分量值,按照加权平均法的公式得出每个像素点的灰度值,并生成所述头像照的灰度图像。
在一实施例中,所述加权平均法的公式为:
A=0.299R+0.587G+0.114B
其中,
A为每个像素点的灰度值;
R为每个像素点中的R分量值;
G为每个像素点中的G分量值;
B为每个像素点中的B分量值。
在一实施例中,所述增强模块14包括:
第一卷积单元,用于将所述头像照的灰度图像输入所述深度神经网络模型中的第一级卷积,得到第一原始特征图;
第一增强单元,用于将所述第一原始特征图分别输入所述深度神经网络模型中的所述预设增强卷积和第二级卷积,分别得到第一增强特征图和第二原始特征图;
第一拼接单元,用于将所述第一增强特征图和所述第二原始特征图进行拼接,得到第一拼接特征图;
第二增强单元,用于将所述第一拼接特征图输入所述深度神经网络模型中的所述预设增强卷积,得到第二增强特征图;
第二卷积单元,用于将所述第一拼接特征图输入所述深度神经网络模型中的第三级卷积,得到第三原始特征图;
第二拼接单元,用于将所述第二增强特征图和所述第三原始特征图进行拼接,得到第二拼接特征图;
第三卷积单元,用于将所述第二拼接特征图输入所述深度神经网络模型中第四级卷积,得到第四原始特征图,并将所述第四原始特征图记录为最终特征图。
在一实施例中,所述识别模块15包括:
获取样本单元,用于获取图像训练样本;其中,每一个所述图像训练样本均与一个胖瘦程度标签关联,所述标签根据该图像训练样本中的人物的身体质量指数确定;
样本输入单元,用于将所述图像训练样本输入包含初始参数的初始神经网络模型;
特征提取单元,用于通过所述初始神经网络模型提取所述图像训练样本中的脖子特征和人脸特征;
训练确定单元,用于根据所述脖子特征和人脸特征获得所述初始神经网络模型的识别结果,并根据所述识别结果和所述胖瘦程度标签的匹配程度确定损失值;
训练完成单元,用于在所述损失值达到预设的收敛条件时,将收敛之后的所述初始神经网络模型记录为训练完成的深度神经网络模型。
在一实施例中,所述识别模块15还包括:
训练迭代单元,用于在所述损失值未达到预设的收敛条件时,迭代更新所述初始神经网络模型的初始参数,直至所述损失值达到所述预设的收敛条件时,将收敛之后的所述初始神经网络模型记录为训练完成的深度神经网络模型。
关于胖瘦程度识别装置的具体限定可以参见上文中对于胖瘦程度识别方法的限定,在此不再赘述。上述胖瘦程度识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种胖瘦程度识别方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中胖瘦程度识别方法。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中胖瘦程度识别方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种胖瘦程度识别方法,其特征在于,包括:
获取待识别图像;
将所述待识别图像输入头像检测模型,获取所述待识别图像中的头像照;其中,所述头像照包括脖子和人脸;
将所述待识别图像的头像照进行灰度处理,得到所述头像照的灰度图像;
将所述头像照的灰度图像输入预设的深度神经网络模型,通过所述深度神经网络模型中的预设增强卷积增强所述灰度图像的脖子特征和人脸特征,得到最终特征图;
通过所述深度神经网络模型对所述最终特征图进行提取增强之后的所述脖子特征和所述人脸特征,并获取所述深度神经网络模型输出的根据所述脖子特征和人脸特征得出的胖瘦程度的识别结果;其中,所述深度神经网络模型包括预设增强卷积,所述识别结果包括胖瘦程度为胖、中、瘦。
2.如权利要求1所述的胖瘦程度识别方法,其特征在于,所述将所述待识别图像输入头像检测模型,获取所述待识别图像中的头像照,包括:
通过所述头像检测模型中的mtcnn算法检测所述待识别图像中是否包含脖子和人脸;
在所述待识别图像中包含脖子和人脸时,则确定所述待识别图像中包含头像照的头像区域,并提取所述头像区域中的头像照。
3.如权利要求1所述的胖瘦程度识别方法,其特征在于,所述将所述待识别图像的头像照进行灰度处理,得到所述头像照的灰度图像,包括:
获取所述头像照的每个像素点的RGB分量值;
根据所述每个像素点的RGB分量值,按照加权平均法的公式得出每个像素点的灰度值,并生成所述头像照的灰度图像。
4.如权利要求3所述的胖瘦程度识别方法,其特征在于,所述加权平均法的公式为:
A=0.299R+0.587G+0.114B
其中,
A为每个像素点的灰度值;
R为每个像素点中的R分量值;
G为每个像素点中的G分量值;
B为每个像素点中的B分量值。
5.如权利要求1所述的胖瘦程度识别方法,其特征在于,所述将所述头像照的灰度图像输入预设的深度神经网络模型,通过所述深度神经网络模型中的预设增强卷积增强所述灰度图像的脖子特征和人脸特征,得到最终特征图,包括:
将所述头像照的灰度图像输入所述深度神经网络模型中的第一级卷积,得到第一原始特征图;
将所述第一原始特征图分别输入所述深度神经网络模型中的所述预设增强卷积和第二级卷积,分别得到第一增强特征图和第二原始特征图;
将所述第一增强特征图和所述第二原始特征图进行拼接,得到第一拼接特征图;
将所述第一拼接特征图输入所述深度神经网络模型中的所述预设增强卷积,得到第二增强特征图;
将所述第一拼接特征图输入所述深度神经网络模型中的第三级卷积,得到第三原始特征图;
将所述第二增强特征图和所述第三原始特征图进行拼接,得到第二拼接特征图;
将所述第二拼接特征图输入所述深度神经网络模型中第四级卷积,得到第四原始特征图,并将所述第四原始特征图记录为最终特征图。
6.如权利要求1所述的胖瘦程度识别方法,其特征在于,所述将所述头像照的灰度图像输入预设的深度神经网络模型,通过所述深度神经网络模型中的预设增强卷积增强所述灰度图像的脖子特征和人脸特征,得到最终特征图之前,包括:
获取图像训练样本;其中,每一个所述图像训练样本均与一个胖瘦程度标签关联,所述标签根据该图像训练样本中的人物的身体质量指数确定;
将所述图像训练样本输入包含初始参数的初始神经网络模型;
通过所述初始神经网络模型提取所述图像训练样本中的脖子特征和人脸特征;
根据所述脖子特征和人脸特征获得所述初始神经网络模型的识别结果,并根据所述识别结果和所述胖瘦程度标签的匹配程度确定损失值;
在所述损失值达到预设的收敛条件时,将收敛之后的所述初始神经网络模型记录为训练完成的深度神经网络模型。
7.如权利要求6所述的胖瘦程度识别方法,其特征在于,所述根据所述脖子特征和人脸特征获得所述初始神经网络模型的识别结果,并根据所述识别结果和所述胖瘦程度标签的匹配程度确定损失值之后,包括:
在所述损失值未达到预设的收敛条件时,迭代更新所述初始神经网络模型的初始参数,直至所述损失值达到所述预设的收敛条件时,将收敛之后的所述初始神经网络模型记录为训练完成的深度神经网络模型。
8.一种胖瘦程度识别装置,其特征在于,包括:
获取模块,用于获取待识别图像;
提取模块,用于将所述待识别图像输入头像检测模型,获取所述待识别图像中的头像照;其中,所述头像照包括脖子和人脸;
转换模块,用于将所述待识别图像的头像照进行灰度处理,得到所述头像照的灰度图像;
增强模块,用于将所述头像照的灰度图像输入预设的深度神经网络模型,通过所述深度神经网络模型中的预设增强卷积增强所述灰度图像的脖子特征和人脸特征,得到最终特征图;
识别模块,用于通过所述深度神经网络模型对所述最终特征图进行提取增强之后的所述脖子特征和所述人脸特征,并获取所述深度神经网络模型输出的根据所述脖子特征和人脸特征得出的胖瘦程度的识别结果;其中,所述深度神经网络模型包括预设增强卷积,所述识别结果包括胖瘦程度为胖、中、瘦。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述胖瘦程度识别方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述胖瘦程度识别方法。
CN201911359221.7A 2019-12-25 2019-12-25 胖瘦程度识别方法、装置、设备及介质 Pending CN111144285A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911359221.7A CN111144285A (zh) 2019-12-25 2019-12-25 胖瘦程度识别方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911359221.7A CN111144285A (zh) 2019-12-25 2019-12-25 胖瘦程度识别方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN111144285A true CN111144285A (zh) 2020-05-12

Family

ID=70520096

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911359221.7A Pending CN111144285A (zh) 2019-12-25 2019-12-25 胖瘦程度识别方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN111144285A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111666890A (zh) * 2020-06-08 2020-09-15 平安科技(深圳)有限公司 脊柱变形人群识别方法、装置、计算机设备及存储介质
CN112241952A (zh) * 2020-10-22 2021-01-19 平安科技(深圳)有限公司 大脑中线识别方法、装置、计算机设备及存储介质
CN112308957A (zh) * 2020-08-14 2021-02-02 浙江大学 一种基于深度学习的最佳胖瘦人脸肖像图像自动生成方法
CN114449312A (zh) * 2020-11-04 2022-05-06 深圳Tcl新技术有限公司 一种视频播放控制方法、装置、终端设备及存储介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111666890A (zh) * 2020-06-08 2020-09-15 平安科技(深圳)有限公司 脊柱变形人群识别方法、装置、计算机设备及存储介质
CN111666890B (zh) * 2020-06-08 2023-06-30 平安科技(深圳)有限公司 脊柱变形人群识别方法、装置、计算机设备及存储介质
CN112308957A (zh) * 2020-08-14 2021-02-02 浙江大学 一种基于深度学习的最佳胖瘦人脸肖像图像自动生成方法
CN112308957B (zh) * 2020-08-14 2022-04-26 浙江大学 一种基于深度学习的最佳胖瘦人脸肖像图像自动生成方法
CN112241952A (zh) * 2020-10-22 2021-01-19 平安科技(深圳)有限公司 大脑中线识别方法、装置、计算机设备及存储介质
CN112241952B (zh) * 2020-10-22 2023-09-05 平安科技(深圳)有限公司 大脑中线识别方法、装置、计算机设备及存储介质
CN114449312A (zh) * 2020-11-04 2022-05-06 深圳Tcl新技术有限公司 一种视频播放控制方法、装置、终端设备及存储介质

Similar Documents

Publication Publication Date Title
CN109389030B (zh) 人脸特征点检测方法、装置、计算机设备及存储介质
CN111144285A (zh) 胖瘦程度识别方法、装置、设备及介质
CN109034078B (zh) 年龄识别模型的训练方法、年龄识别方法及相关设备
WO2019033572A1 (zh) 人脸遮挡检测方法、装置及存储介质
CN109840524B (zh) 文字的类型识别方法、装置、设备及存储介质
CN108447061B (zh) 商品信息处理方法、装置、计算机设备和存储介质
WO2021012382A1 (zh) 配置聊天机器人的方法、装置、计算机设备和存储介质
CN109325468B (zh) 一种图像处理方法、装置、计算机设备和存储介质
CN111666990A (zh) 车辆损伤特征检测方法、装置、计算机设备及存储介质
CN110807491A (zh) 车牌图像清晰度模型训练方法、清晰度检测方法及装置
US10489636B2 (en) Lip movement capturing method and device, and storage medium
CN110675940A (zh) 病理图像标注方法、装置、计算机设备及存储介质
CN108427874A (zh) 身份认证方法、服务器及计算机可读存储介质
CN111191568A (zh) 翻拍图像识别方法、装置、设备及介质
WO2019033570A1 (zh) 嘴唇动作分析方法、装置及存储介质
CN111275685A (zh) 身份证件的翻拍图像识别方法、装置、设备及介质
CN112884782B (zh) 生物对象分割方法、装置、计算机设备和存储介质
CN111832581B (zh) 肺部特征识别方法、装置、计算机设备及存储介质
CN113011253B (zh) 基于ResNeXt网络的人脸表情识别方法、装置、设备及存储介质
CN112434556A (zh) 宠物鼻纹识别方法、装置、计算机设备及存储介质
CN111079587B (zh) 人脸的识别方法、装置、计算机设备及可读存储介质
CN113111880A (zh) 证件图像校正方法、装置、电子设备及存储介质
CN110942067A (zh) 文本识别方法、装置、计算机设备和存储介质
CN111144372A (zh) 车辆检测方法、装置、计算机设备和存储介质
CN112163110B (zh) 图像分类方法、装置、电子设备和计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination