CN111275754A - 一种基于深度学习的脸部痘印比例计算方法 - Google Patents
一种基于深度学习的脸部痘印比例计算方法 Download PDFInfo
- Publication number
- CN111275754A CN111275754A CN202010070992.0A CN202010070992A CN111275754A CN 111275754 A CN111275754 A CN 111275754A CN 202010070992 A CN202010070992 A CN 202010070992A CN 111275754 A CN111275754 A CN 111275754A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- mark
- model
- pox
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于深度学习的脸部痘印比例计算方法,包括:首先图片采集器采集人脸图像,正面、左侧面、右侧面图片,并通过照片合成技术合成一张人脸完整三维图片;特征分离,分割眼、鼻、嘴巴区域,留下其余脸部图像,获取样本数据集并存储在数据采集装置中;对样本数据集进行放大和清晰度处理,并对处理后的样本中加入高斯噪声,扩充样本数据集;通过人脸局部特征识别与卷积网络学习,构建基于深度学习的新型检测器;训练检测模型,用样本数据集对检测器进行训练;获取患者的面部图片,检测痘印的位置,计算与脸部的面积比例并输出百分比。本发明解决现有技术下人工诊断效率低、不准确和机器诊断模型复杂、繁琐的问题。
Description
技术领域
本发明涉及脸部清洁技术领域,尤其涉及一种基于深度学习的脸部痘印比例计算方法。
背景技术
脸部痘痘通俗又叫青春痘,粉刺,暗疮,是皮肤病的一种比较常见病,并且是多发病。据不完全统计,青春期的男性95%和85%的青春期女性有不同程度的痤疮(青春痘),多见于高中的学生。所以青春痘及时规范的诊治,不但可以避免或减少皮肤的损害,而且还可以在一定程度上提高青春期学生的学业成绩。现有的脸部痘识别主要是通过皮肤科医生和整形美容医生的诊断,但是对于大部分的青春期年轻人来说并没有经过系统的医生诊断,而是自己或者家人的人眼判断,并不合理和科学,也不能对痘痘有很好的控制和消灭。对于爱美的年轻女性来说,过了青春期的青春痘以后,对于脸上的痘痘也有更加严苛讨厌的态度,决不能容忍脸上痘痘的存在,这也就更加突出了痘痘比例计算的重要性,如果对脸部痘痘比例有很清楚的了解就可以采用相应的等级治疗和干预手段来消除和掩盖。
为了解决本领域普遍存在痘印识别不精准、痘印比例不准确等等问题,作出了本发明。
发明内容
本发明的目的在于,针对目前脸部痘印识别所存在的不足,提出了一种基于深度学习的脸部痘印比例计算方法。
为了克服现有技术的不足,本发明采用如下技术方案:
一种基于深度学习的脸部痘印比例计算方法,所述计算方法包括:
S1:合成人脸:通过图片采集器采集多张人脸照片,包括但不限于正面、左侧面、右侧面图片,并通过照片合成技术将以上采集到的多张人脸照片合成一张人脸完整三维图像;
S2:特征分离:分割人脸完整三维图像的眼、鼻、嘴巴区域,留下其余脸部图像即为样本数据,获取多个样本数据形成样本数据集并存储在数据采集装置中;
S3:平滑处理:对样本数据集进行放大和清晰度处理,并对处理后的样本中加入高斯噪声,扩充样本数据集;
S4:构建模型:通过人脸局部特征识别与卷积网络学习,构建基于深度学习的检测器;
S5:训练模型:训练检测模型,用样本数据集对检测器进行训练;
S6:验证模型:获取患者的面部图片,输入检测器中,检测痘印的位置,计算与脸部的面积比例并输出百分比或数量个数。
可选的,所述检测模型的检测方法包括:采集脸部的人脸图片并把人脸图片进行区域的划分,所述人脸图片划分为第一区域和第二区域;
所述第一区域被配置为对脸部图片的选取并生成检测框,所述检测框用于检测所述脸部图像的范围;
所述第二区域被配置为寻找脸部图像中的痘印的痕迹,并把痘印的痕迹存储在痘印模型中;
将第一区域的某一个时刻获取的图像中所述检测框中的像素强度与在随后时刻获取的第二区域中的对应的痘印痕迹的像素强度进行比较,超过预设的阈值,则确定该人脸为检测的脸部模型并把所述人脸图片存储在检测模型中。
可选的,所述特征分离方法包括:对人脸图像建立人脸模型,人脸模型被配置为存储人物人脸的国家、性别、区别特征的参数分类存储;
通过检测器检测人脸图像的眼、鼻、嘴巴区域的位置关系,并结合人脸模型中的参数进行区域的划分;
根据区域划分中分离出各个区域中人脸样板数据采集。
可选的,所述样本数据采集方法包括:接收从所述图片采集器发送的数据;
根据所述图片采集器不同的分析数据格式,对接收到的数据进行分析,获取分析数据;将数据写入并存储到作为不可重写存储器的第一数据存储器中;
将分析后的数据写入并存储到第二数据存储中,所述第二数据存储比第一数据存储更快地访问并且存储的数据量小于第一数据存储。
可选的,所述检测器被配置为用于检测痘印的位置,并由所述检测器根据所述痘印的位置生成痘印分布图,并把所述痘印分布图进行存储。
可选的,采集的方法包括将对象的三维模型存储在数据库中并将输入图像与目标对象的模型相关联,并通过将新的输入图像与正面、左侧面、右侧面图片进行比较,并检测新的输入图像与多个已知人脸图片之间的对应关系;
所述已知图像是从正面、左侧面、右侧面图片。
可选的,在所述样本数据集进行收集后,把所述样本数据集图像先灰度化转化为图像像素点,并把所述图像像素点与所述痘印模型中的脸部图像进行比对。
可选的,所述检测方法还包括:把所述检测器中采集的图像进行痘印向量特征的划分得出向量集合;
根据所述向量计算出平均图像,并对所述平均图像中的图像进行锐化,暴露出高像素点,所述高像素点与周围的像素进行比较得出若干个预先标记;
根据各个所述预先标记之间的关系投影到脸部面积图片中,得出若干组向量M。
可选的,根据各组所述向量M的数据代入公式(1)中,
Fll=Yi jYk (1);
i为向量M中的第i个向量,k为k*k组向量,j为第j组向量;根据公式(1)得出痘印面积。
可选的,根据所述痘印面积在计算出痘印的特征,痘印计算公式(2)在M个向量中抽取N组向量,并在这N组向量中,计算出痘印的特征,
其中,N为从M中抽取连续的N组向量,s为N组向量中的S个连续的向量,t为检测次数。
本发明所取得的有益效果是:
1.本发明解决现有技术下人工诊断效率低、不准确和机器诊断模型复杂、繁琐的问题;
2.通过采用通过采集器识别所述人脸图像,使得所述人脸图像在所述采集器的采集下,对所述人脸图像进行采集,采集的人脸范围包括正面、左侧面和右侧面,采集后的所述人脸图像存储在存储器中并对所述人脸图像进行标号,使得后续在计算时调用所述人脸图像;
3.通过采用把脸部划分为嘴巴、鼻子和眼睛的区域,针对各个位置进行细致的识别;
4.通过采用对所述第一区域中的某个区域进行像素的标记,标记的范围为对所述人脸图像中的高像素点进行标记,也能对所述第一区域中的所述人脸图像进行灰度的变换,使得所述痘印与所述痘印周围的物品进行精准的识别的操作;
5.通过采用对所述人脸图片中的痘印的面积进行面积像素的阈值的标记,但所述图片采集器或是检测摄像装置检测到所述人脸图像中痘印的范围超过预设的所述阈值后,把该信息进行报警或者提醒所述控制器进行面积的显示,使得所述痘印的面积进行精准显示出来;
6.通过采用对所述脸部的面积进行区分,保证痘印的位置能够更加的精准的被识别出来。
附图说明
从以下结合附图的描述可以进一步理解本发明。图中的部件不一定按比例绘制,而是将重点放在示出实施例的原理上。在不同的视图中,相同的附图标记指定对应的部分。
图1为所述计算方法的控制步骤图。
图2为所述检测模型的检测方法控制流程图。
图3为所述特征分离方法的控制流程图。
图4为所述样本数据采集方法的控制流程图。
图5为数据采集方法的控制流程框图。
图6为所述检测器的检测方法流程框图。
图7为所述痘印面积的计算框图。
图8为所述痘印特征的计算框图。
具体实施方式
为了使得本发明的目的技术方案及优点更加清楚明白,以下结合其实施例,对本发明进行进一步详细说明;应当理解,此处所描述的具体实施例仅用于解释本发明,并不用于限定本发明。对于本领域技术人员而言,在查阅以下详细描述之后,本实施例的其它系统.方法和/或特征将变得显而易见。旨在所有此类附加的系统.方法.特征和优点都包括在本说明书内.包括在本发明的范围内,并且受所附权利要求书的保护。在以下详细描述描述了所公开的实施例的另外的特征,并且这些特征根据以下将详细描述将是显而易见的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”.“下”.“左”.“右”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或组件必须具有特定的方位.以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
实施例一:一种基于深度学习的脸部痘印比例计算方法,所述计算方法包括:S1:合成人脸:通过图片采集器采集多张人脸照片,包括但不限于正面、左侧面、右侧面图片,并通过照片合成技术将以上采集到的多张人脸照片合成一张人脸完整三维图像;S2:特征分离:分割人脸完整三维图像的眼、鼻、嘴巴区域,留下其余脸部图像即为样本数据,获取多个样本数据形成样本数据集并存储在数据采集装置中;S3:平滑处理:对样本数据集进行放大和清晰度处理,并对处理后的样本中加入高斯噪声,扩充样本数据集;S4:构建模型:通过人脸局部特征识别与卷积网络学习,构建基于深度学习的检测器;S5:训练模型:训练检测模型,用样本数据集对检测器进行训练;S6:验证模型:获取患者的面部图片,输入检测器中,检测痘印的位置,计算与脸部的面积比例并输出百分比或数量个数。所述检测模型的检测方法包括:采集脸部的人脸图片并把人脸图片进行区域的划分,所述人脸图片划分为第一区域和第二区域;所述第一区域被配置为对脸部图片的选取并生成检测框,所述检测框用于检测所述脸部图像的范围;所述第二区域被配置为寻找脸部图像中的痘印的痕迹,并把痘印的痕迹存储在痘印模型中;将第一区域的某一个时刻获取的图像中所述检测框中的像素强度与在随后时刻获取的第二区域中的对应的痘印痕迹的像素强度进行比较,超过预设的阈值,则确定该人脸为检测的脸部模型并把所述人脸图片存储在检测模型中。具体的,主要解决现有技术下人工诊断效率低、不准确和机器诊断模型复杂、繁琐的问题。其实现方法为:1)首先采集人脸照片,正面、左侧面、右侧面图片,并通过照片合成技术合成一张人脸完整三维图片;2)特征分离,分割眼、鼻、嘴巴区域,留下其余脸部图像,获取样本数据集;3)对样本数据集进行放大和清晰度处理,并对处理后的样本中加入高斯噪声,扩充样本数据集;4)通过人脸局部特征识别与卷积网络学习,构建基于深度学习的新型检测器;5)训练新型检测模型,用样本数据集对检测器进行训练;6)获取患者的面部图片,输入检测器中,检测痘印的位置,计算与脸部的面积比例,在比例较低的情况下可以计算出痘的个数,得到检测结果,输出百分比或数量个数,为患者治疗和干预痘痘提供了准确的参考。本发明检测方法简单,结果准确,减轻了医生的观察负担,为患者提供了直观的数据结果。
实施例二:一种基于深度学习的脸部痘印比例计算方法,所述计算方法包括:S1:合成人脸:通过图片采集器采集多张人脸照片,包括但不限于正面、左侧面、右侧面图片,并通过照片合成技术将以上采集到的多张人脸照片合成一张人脸完整三维图像;S2:特征分离:分割人脸完整三维图像的眼、鼻、嘴巴区域,留下其余脸部图像即为样本数据,获取多个样本数据形成样本数据集并存储在数据采集装置中;S3:平滑处理:对样本数据集进行放大和清晰度处理,并对处理后的样本中加入高斯噪声,扩充样本数据集;S4:构建模型:通过人脸局部特征识别与卷积网络学习,构建基于深度学习的检测器;S5:训练模型:训练检测模型,用样本数据集对检测器进行训练;S6:验证模型:获取患者的面部图片,输入检测器中,检测痘印的位置,计算与脸部的面积比例并输出百分比或数量个数。具体的,在本实施例中,通过采集器识别所述人脸图像,使得所述人脸图像在所述采集器的采集下,对所述人脸图像进行采集,采集的人脸范围包括正面、左侧面和右侧面,采集后的所述人脸图像存储在存储器中并对所述人脸图像进行标号,使得后续在计算时调用所述人脸图像。另外,在采集的过程中,需要对人脸进行三维模型的建立,在本实施例中,建立人脸三维模型的方法包括:预先在2D图像的每个帧中的面部对准的面部图像上进行共轭点设定并在所述2D图像中进行共轭点的搜索,并通过使用变换函数进行角度的对准面部图像上的源点与对齐的面部图像上的点之间指定一对一的可逆对应关系在图像上可见,从对齐的图像中获取共轭点,然后,它们可以非常准确地重新计入原始图像中。三维人脸模型的坐标系的投影变换以及旋转和空间传递的变换是连续函数,因此,该关系为真时,lim(ε′)=0时ε→0,其中,ε是确定对齐后的人脸图像中共轭点的误差,ε′是确定原始人脸图像中共轭点的误差。从数据源接收信息,该信息包含至少两个第一张2D图像,其中包含人脸的显示。源图像是从数据源(例如:相机,摄像机,立体相机)获得的第一类图像,接着,在从源接收的每个2D图像上确定人的脸部区域,构造人脸区域的至少一个中间3D模型,其从原始图像构造,所述中间模型从从源获得的至少一个2D图像构造,即,从原始2D图像构造面部区域3D模型的过程。生成的模型允许您自由地使用其在空间中的位置进行操作,而与原始2D图像的角度无关。然后,在获得的中间3D模型上确定人脸的角度候,可以使用一个或多个中间3D模型。如果所提到的中间3D模型的角度与人的面部区域的角度非常不同,则将它们改变,为此,他们将面部区域的模型旋转到所需位置。将所获得的至少一个面部区域的3D模型转换为至少一个2D图像的第二视角图像,该第二视角图像将具有显示人脸区域的必要视图。接下来,在至少一个第二类型的2D图像中确定人的面部区域,并在确定面部区域的共轭点的坐标。为此,使用至少两个2D图像,其中至少一个是第二种类的2D图像。必须以这样的方式更改视图,以获取一组至少两个角度相似的2D图像,从中可以高精度确定共轭点,并且该组只能包含2D图像的2D图像。第二类型,或者一个2D图像为第一视图的图像和一个或多个2D图像为第二视图。将面部区域的共轭点的所述坐标转换为至少一种第一类2D图像中的面部区域的共轭点的二维坐标,根据所获得的共轭点的坐标,在三维坐标系中计算源校准在第一类面部区域的至少一个2D图像中的位置和矩阵。在本实施例中,为了执行面部区域的3D模型的旋转,在至少一个第一类型的2D图像上确定人的面部的人体测量点的坐标,该图像用于执行第一类2D图像的旋转。面部的中间三维模型可以表示可变形的三维模型,在三维空间中选择其形状和方向,以便三维模型上的人体测量点可以投影到人体的各种2D图像上第一种,尽可能接近在这些2D图像上定义的二维人体测量点的坐标。二维人体测量点的坐标是使用二维搜索算法确定的。
所述检测模型的检测方法包括:采集脸部的人脸图片并把人脸图片进行区域的划分,所述人脸图片划分为第一区域和第二区域;所述第一区域被配置为对脸部图片的选取并生成检测框,所述检测框用于检测所述脸部图像的范围;所述第二区域被配置为寻找脸部图像中的痘印的痕迹,并把痘印的痕迹存储在痘印模型中;将第一区域的某一个时刻获取的图像中所述检测框中的像素强度与在随后时刻获取的第二区域中的对应的痘印痕迹的像素强度进行比较,超过预设的阈值,则确定该人脸为检测的脸部模型并把所述人脸图片存储在检测模型中。具体的,所述检测方法使得所述检测模型人脸图像进行区域划分,具体的,把脸部划分为嘴巴、鼻子和眼睛的区域,针对各个位置进行细致的识别。在本实施例中,提供一种精确检测的方法,具体的,把人脸图像划分为第一区域和第二区域,所述第一区域上设置有对人脸抓取的检测框,并在所述检测框中进行人脸的痘印进行识别,对所述第一区域中的人脸特征进行采集,在采集的过程中,识别所述第一区域中的痘印的范围、面积和广度进行精准的识别。在本实施例中,所述第一区域和所述第二区域能够混合使用且所述第一区域和所述第二区域内置在所述图片采集器中,使得所述图片采集器能够在所述检测框中进行对所述痘印的识别的工作。在本实施例中,所述图片采集器还与控制器进行控制连接,所述控制器是本领域的技术人员所公知的装置,在本实施例中,不再针对所述控制器进行赘述。另外,痘印模型中存储各个种类的痘印的类型和治疗建议,在所述痘印模型中,所述痘印模型中,每个所述痘印模型中均会对应各个所述痘印的类型标号,使得各个所述痘印类型中能够为后续同种类型或者相似的类型进行识别或者调用。在本实施例中,所述检测装置在所述图片采集器的实时的检测下,对所述第一区域的某哟个所述人脸图片中的痘印的像素进行像素的识别,具体的做法为:对所述第一区域中的某个区域进行像素的标记,标记的范围为对所述人脸图像中的高像素点进行标记,也能对所述第一区域中的所述人脸图像进行灰度的变换,使得所述痘印与所述痘印周围的物品进行精准的识别的操作。另外,本实施例中,还预置对所述人脸图片中的痘印的面积进行面积像素的阈值的标记,但所述图片采集器或是检测摄像装置检测到所述人脸图像中痘印的范围超过预设的所述阈值后,把该信息进行报警或者提醒所述控制器进行面积的显示,使得所述痘印的面积进行精准显示出来。
所述特征分离方法包括:对人脸图像建立人脸模型,人脸模型被配置为存储人物人脸的国家、性别、区别特征的参数分类存储;通过检测器检测人脸图像的眼、鼻、嘴巴区域的位置关系,并结合人脸模型中的参数进行区域的划分;根据区域划分中分离出各个区域中人脸样板数据采集。具体的,特征分离使得把所述人脸图像中的特征进行分离,把人脸图像中划分为几个区域,并对各个所述区域中的图像进行划分,同时,各个区域的特征之间的位置关系被记录在存储器中,所述区别特征在所述存储是进行分类,分类存储在所述存储器中。所述区别特征在本实施例中,设有若干个标号,如:黄种人、白种人和黑种人,或者脸型或者眼型进行分类,使得对所述脸部的面积进行区分,保证痘印的位置能够更加的精准的被识别出来。在本实施例中,所述检测器的在对不同的人脸模型进行检测的过程中,结合所述标号与检测到的脸型或者眼型进行识别,并结合使得对所述人脸图像的区别的特征进行划分的过程更加的精准且高效。在本实施例中,对所述区别特征的识别,需要对识别的过程进行训练使得所述检测器在识别的过程中,能够跟家的精准和高效。
所述样本数据采集方法包括:接收从所述图片采集器发送的数据;根据所述图片采集器不同的分析数据格式,对接收到的数据进行分析,获取分析数据;将数据写入并存储到作为不可重写存储器的第一数据存储器中;将分析后的数据写入并存储到第二数据存储中,所述第二数据存储比第一数据存储更快地访问并且存储的数据量小于第一数据存储。具体的,在本实施例中,对所述数据进行采集的过程是居于所述图片采集器收集到的图像数据进行采集的,采集的过程包括获取所述图像上的像素等信息,以及在所述图像中,针对所述图片采集器中的数据的高像素点和传输的格式进行分析或者解码。解码的过程是在所述控制器的控制操作下统一的进行转化为同一的格式,使得所述控制器在调用相同的格式的过程中,不会经过多次重复的工作,使得所述数据收集的效率大大的提升上来。在本实施例中,所述图像采集器的采集的过程中,所述图片采集器与所述控制器之间进行配合使用,使得收集到的数据进行分散的存储。在本实施例中,所述第一数据存储器和所述第二数据存储器比存储得更加的快,有效的保证所述数据的安全。所述第一数据存储器和所述第二数据存储器之间配合使用使得所述数据存储更加的高效。
所述检测器被配置为用于检测痘印的位置,并由所述检测器根据所述痘印的位置生成痘印分布图,并把所述痘印分布图进行存储。具体的,所述检测器用于对所述人图像进行检测,具体的,检测所述痘印的位置,在所述检测器用于生成所述痘印的分布图中,所述控制器与所述检测器实时的检测,使得检测所述痘印分布图存储在存储器中。所述存储器与所述控制器控制连接,使得所述控制器能够实时的检测所述痘印分布图的位置或者所述痘印的大小。所述检测器还与所述样本数据采集方法相互匹配,即:所述样本数据采集方法设置在所述检测器中,并指导所述检测器对所述人脸图像进行收集。
采集的方法包括将对象的三维模型存储在数据库中并将输入图像与目标对象的模型相关联,并通过将新的输入图像与正面、左侧面、右侧面图片进行比较,并检测新的输入图像与多个已知人脸图片之间的对应关系;所述已知图像是从正面、左侧面、右侧面图片。具体的,对所述人脸图像进行采集的过程中,收集的数据存储在所述人脸模型中,存储在所述人脸模型中的图像的数据包括收集到的所述输入图像和人脸图像的正满、左侧面和所述有侧面的图像,并在各个零散的图片之中与所述图片采集器中收集到的完整的所述人脸图像进行比对并进行重组,使得采集图像能够进行三维模型的建立。在所述三维模型分别基于收集到的所述人脸图像进行整合而成。在本实施例中还能够采用其他三维模型的组建的方法,在本实施例中,不在一一赘述。
在所述样本数据集进行收集后,把所述样本数据集图像先灰度化转化为图像像素点,并把所述图像像素点与所述痘印模型中的脸部图像进行比对。具体的,所述样本数据采集后通过对所述收集的图像进行数据灰度的转化使得所述图像的像素点能够被显示出来,在本实例中,对所述样本数据集图像进行灰度化后,检测到的所述人脸图像能够突出所述痘印的范围或者痘印的面积等情况进行及时检测,使得所述痘印的面积能够形成所述痘印分布图。有效保证所述痘印的比例能够被计算出来。
所述检测方法还包括:把所述检测器中采集的图像进行痘印向量特征的划分得出向量集合;根据所述向量计算出平均图像,并对所述平均图像中的图像进行锐化,暴露出高像素点,所述高像素点与周围的像素进行比较得出若干个预先标记;根据各个所述预先标记之间的关系投影到脸部面积图片中,得出若干组向量M。具体的,在所述收集的所述人脸图像中,对所有收集到的所述人脸图像进行痘印向量特征的划分,形成所述向量集合。在本实施例中,根据所诉向量集合中,计算所述平均图像,并在所述平均图像中进行锐化,使得所述图像在锐化的过程中,暴露出所述平均图像的所述高像素的点,在本实施例中,所述痘印与正常的皮肤存在色差,使得在对所述平均图像进行锐化的处理后,即可得出所述痘印的分布图。另外,在所述高像素点的暴露后,对各个所述像素点进行分别的标记,使并投影到正常的人脸图像中,使得所述高像素点标记的所述痘印能够在正常的人脸图像中进行显示,显示出所述人脸图像中的痘印的面积。
根据各组所述向量M的数据代入公式(1)中,
Fll=Yi jYk (1);
i为向量M中的第i个向量,k为k*k组向量,j为第j组向量;根据公式(1)得出痘印面积。具体的,在收集所述向量组M后,在所述向量M中的数据进行痘印面积的计算。由于所述痘印的存在程不规则的面积,因而在所述向量组M中的各个数据代入公式(1)中,并由所述公式(1)进行非痘印的面积的干扰的计算,使得算出来的所述痘印的面积能够更加的准确。
根据所述痘印面积在计算出痘印的特征,计算公式(2)在M个向量中抽取N组向量,并在这N组向量中,计算出痘印的特征,
其中,N为从M中抽取连续的N组向量,s为N组向量中的S个连续的向量,t为检测次数。具体的,基于所述痘印面积的基础之上,计算出所述痘印的特征,使得所述痘印的高度和大小进行细致的划分,使得所述痘印的特征能够被计算出来。在本实施例中,从M个向量中抽取出所述N组向量,并在所述N组向量中计算出所述痘印的特征,代入公式(2)中对所述痘印的特征进行计算,使得所述痘印的特征被计算出来。
另外,在本实施例中,在对各个所述痘印进行标号后,结合所述痘印的位置进一步细化所述痘印的高度或者大小等特征进行计算,为患者提供一种参考,提高对所述痘印计算的完整性。
综上所述,本发明的一种基于深度学习的脸部痘印比例计算方法,本发明解决现有技术下人工诊断效率低、不准确和机器诊断模型复杂、繁琐的问题;通过采用通过采集器识别所述人脸图像,使得所述人脸图像在所述采集器的采集下,对所述人脸图像进行采集,采集的人脸范围包括正面、左侧面和右侧面,采集后的所述人脸图像存储在存储器中并对所述人脸图像进行标号,使得后续在计算时调用所述人脸图像;通过采用把脸部划分为嘴巴、鼻子和眼睛的区域,针对各个位置进行细致的识别;通过采用对所述第一区域中的某个区域进行像素的标记,标记的范围为对所述人脸图像中的高像素点进行标记,也能对所述第一区域中的所述人脸图像进行灰度的变换,使得所述痘印与所述痘印周围的物品进行精准的识别的操作;通过采用对所述人脸图片中的痘印的面积进行面积像素的阈值的标记,但所述图片采集器或是检测摄像装置检测到所述人脸图像中痘印的范围超过预设的所述阈值后,把该信息进行报警或者提醒所述控制器进行面积的显示,使得所述痘印的面积进行精准显示出来;通过采用对所述脸部的面积进行区分,保证痘印的位置能够更加的精准的被识别出来。
虽然上面已经参考各种实施例描述了本发明,但是应当理解,在不脱离本发明的范围的情况下,可以进行许多改变和修改。也就是说上面讨论的方法,系统和图片采集器是示例。各种配置可以适当地省略,替换或添加各种过程或组件。例如,在替代配置中,可以以与所描述的顺序不同的顺序执行方法,和/或可以添加,省略和/或组合各种部件。而且,关于某些配置描述的特征可以以各种其他配置组合,如可以以类似的方式组合配置的不同方面和元素。此外,随着技术发展其中的元素可以更新,即许多元素是示例,并不限制本公开或权利要求的范围。
在说明书中给出了具体细节以提供对包括实现的示例性配置的透彻理解。然而,可以在没有这些具体细节的情况下实践配置例如,已经示出了众所周知的电路,过程,算法,结构和技术而没有不必要的细节,以避免模糊配置。该描述仅提供示例配置,并且不限制权利要求的范围,适用性或配置。相反,前面对配置的描述将为本领域技术人员提供用于实现所描述的技术的使能描述。在不脱离本公开的精神或范围的情况下,可以对元件的功能和布置进行各种改变。
综上,其旨在上述详细描述被认为是例示性的而非限制性的,并且应当理解,以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (10)
1.一种基于深度学习的脸部痘印比例计算方法,其特征在于,所述计算方法包括:
S1:合成人脸:通过图片采集器采集多张人脸照片,包括但不限于正面、左侧面、右侧面图片,并通过照片合成技术将以上采集到的多张人脸照片合成一张人脸完整三维图像;
S2:特征分离:分割人脸完整三维图像的眼、鼻、嘴巴区域,留下其余脸部图像即为样本数据,获取多个样本数据形成样本数据集并存储在数据采集装置中;
S3:平滑处理:对样本数据集进行放大和清晰度处理,并对处理后的样本中加入高斯噪声,扩充样本数据集;
S4:构建模型:通过人脸局部特征识别与卷积网络学习,构建基于深度学习的检测器;
S5:训练模型:训练检测模型,用样本数据集对检测器进行训练;
S6:验证模型:获取患者的面部图片,输入检测器中,检测痘印的位置,计算与脸部的面积比例并输出百分比或数量个数。
2.根据权利要求1所述的一种基于深度学习的脸部痘印比例计算方法,其特征在于,所述检测模型的检测方法包括:采集脸部的人脸图片并把人脸图片进行区域的划分,所述人脸图片划分为第一区域和第二区域;
所述第一区域被配置为对脸部图片的选取并生成检测框,所述检测框用于检测所述脸部图像的范围;
所述第二区域被配置为寻找脸部图像中的痘印的痕迹,并把痘印的痕迹存储在痘印模型中;
将第一区域的某一个时刻获取的图像中所述检测框中的像素强度与在随后时刻获取的第二区域中的对应的痘印痕迹的像素强度进行比较,超过预设的阈值,则确定该人脸为检测的脸部模型并把所述人脸图像存储在检测模型中。
3.根据权利要求1所述的一种基于深度学习的脸部痘印比例计算方法,其特征在于,所述特征分离方法包括:对人脸图像建立人脸模型,人脸模型被配置为存储人物人脸的国家、性别、区别特征的参数分类存储;
通过检测器检测人脸图像的眼、鼻、嘴巴区域的位置关系,并结合人脸模型中的参数进行区域的划分;
根据区域划分中分离出各个区域中人脸样板数据采集。
4.根据权利要求1所述的一种基于深度学习的脸部痘印比例计算方法,其特征在于,所述样本数据采集方法包括:接收从所述图片采集器发送的数据;
根据所述图片采集器不同的分析数据格式,对接收到的数据进行分析,获取分析数据;将数据写入并存储到作为不可重写存储器的第一数据存储器中;
将分析后的数据写入并存储到第二数据存储中,所述第二数据存储比第一数据存储更快地访问并且存储的数据量小于第一数据存储。
5.根据权利要求1所述的一种基于深度学习的脸部痘印比例计算方法,其特征在于,所述检测器被配置为用于检测痘印的位置,并由所述检测器根据所述痘印的位置生成痘印分布图,并把所述痘印分布图进行存储。
6.根据权利要求1所述的一种基于深度学习的脸部痘印比例计算方法,其特征在于,采集的方法包括将对象的三维模型存储在数据库中并将输入图像与目标对象的模型相关联,并通过将新的输入图像与正面、左侧面、右侧面图片进行比较,并检测新的输入图像与多个已知人脸图片之间的对应关系;
所述已知图像是从正面、左侧面、右侧面图片。
7.根据权利要求2所述的一种基于深度学习的脸部痘印比例计算方法,其特征在于,在所述样本数据集进行收集后,把所述样本数据集图像先灰度化转化为图像像素点,并把所述图像像素点与所述痘印模型中的脸部图像进行比对。
8.根据权利要求1所述的一种基于深度学习的脸部痘印比例计算方法,其特征在于,所述检测方法还包括:把所述检测器中采集的图像进行痘印向量特征的划分得出向量集合;
根据所述向量计算出平均图像,并对所述平均图像中的图像进行锐化,暴露出高像素点,所述高像素点与周围的像素进行比较得出若干个预先标记;
根据各个所述预先标记之间的关系投影到脸部面积图片中,得出若干组向量M。
9.根据权利要求8所述的一种基于深度学习的脸部痘印比例计算方法,其特征在于,根据各组所述向量M的数据代入公式(1)中,
Fll=Yi jYk (1);
i为向量M中的第i个向量,k为k*k组向量,j为第j组向量;根据公式(1)得出痘印面积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010070992.0A CN111275754B (zh) | 2020-01-21 | 2020-01-21 | 一种基于深度学习的脸部痘印比例计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010070992.0A CN111275754B (zh) | 2020-01-21 | 2020-01-21 | 一种基于深度学习的脸部痘印比例计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111275754A true CN111275754A (zh) | 2020-06-12 |
CN111275754B CN111275754B (zh) | 2023-04-07 |
Family
ID=71001216
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010070992.0A Active CN111275754B (zh) | 2020-01-21 | 2020-01-21 | 一种基于深度学习的脸部痘印比例计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111275754B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112333439A (zh) * | 2020-10-30 | 2021-02-05 | 南京维沃软件技术有限公司 | 面部清洁设备控制方法、装置及电子设备 |
CN112767383A (zh) * | 2021-01-29 | 2021-05-07 | 深圳艾摩米智能科技有限公司 | 人脸痘痘定位识别方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097034A (zh) * | 2019-05-15 | 2019-08-06 | 广州纳丽生物科技有限公司 | 一种智能人脸健康程度的识别与评估方法 |
-
2020
- 2020-01-21 CN CN202010070992.0A patent/CN111275754B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097034A (zh) * | 2019-05-15 | 2019-08-06 | 广州纳丽生物科技有限公司 | 一种智能人脸健康程度的识别与评估方法 |
Non-Patent Citations (1)
Title |
---|
陈友升;刘桂雄;: "基于Mask R-CNN的人脸皮肤色斑检测分割方法" * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112333439A (zh) * | 2020-10-30 | 2021-02-05 | 南京维沃软件技术有限公司 | 面部清洁设备控制方法、装置及电子设备 |
CN112767383A (zh) * | 2021-01-29 | 2021-05-07 | 深圳艾摩米智能科技有限公司 | 人脸痘痘定位识别方法 |
CN112767383B (zh) * | 2021-01-29 | 2024-02-27 | 深圳艾摩米智能科技有限公司 | 人脸痘痘定位识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111275754B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106780591B (zh) | 一种基于颅面稠密对应点云的颅面形态分析及面貌复原方法 | |
CN110491502B (zh) | 显微镜视频流处理方法、系统、计算机设备和存储介质 | |
CN109190540B (zh) | 活检区域预测方法、图像识别方法、装置和存储介质 | |
US20110025834A1 (en) | Method and apparatus of identifying human body posture | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
Liang et al. | Improved detection of landmarks on 3D human face data | |
CN106650619A (zh) | 一种人体动作识别方法 | |
CN115063482A (zh) | 物品识别及追踪方法与系统 | |
US20120157800A1 (en) | Dermatology imaging device and method | |
US11798299B2 (en) | Methods and systems for generating 3D datasets to train deep learning networks for measurements estimation | |
CN105938513A (zh) | 为计算机辅助诊断提供可靠性的装置和方法 | |
CN111275754B (zh) | 一种基于深度学习的脸部痘印比例计算方法 | |
CN113435236A (zh) | 居家老人姿态检测方法、系统、存储介质、设备及应用 | |
CN112349391A (zh) | 一种优化肋骨自动标号方法 | |
CN105551042B (zh) | 一种扫描床标记点位置的确定方法和装置 | |
Mardia et al. | On statistical problems with face identification from photographs | |
CN112801038B (zh) | 一种多视点的人脸活体检测方法及系统 | |
CN112686865B (zh) | 一种3d视图辅助检测方法、系统、装置及存储介质 | |
Banumathi et al. | Diagnosis of dental deformities in cephalometry images using support vector machine | |
CN109740458B (zh) | 一种基于视频处理的体貌特征测量方法及系统 | |
CN113469942B (zh) | 一种ct图像病变检测方法 | |
CN115994911A (zh) | 一种基于多模态视觉信息融合的游泳馆目标检测方法 | |
CN111428577B (zh) | 一种基于深度学习与视频放大技术的人脸活体判断方法 | |
CN113112475A (zh) | 一种基于机器学习的中医耳部五脏区域分割方法和装置 | |
CN112215873A (zh) | 用于对变电站内多目标跟踪定位的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |