CN107679507B - 面部毛孔检测系统及方法 - Google Patents
面部毛孔检测系统及方法 Download PDFInfo
- Publication number
- CN107679507B CN107679507B CN201710964617.9A CN201710964617A CN107679507B CN 107679507 B CN107679507 B CN 107679507B CN 201710964617 A CN201710964617 A CN 201710964617A CN 107679507 B CN107679507 B CN 107679507B
- Authority
- CN
- China
- Prior art keywords
- pore
- image
- skin
- neural network
- quantization index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000011148 porous material Substances 0.000 title claims abstract description 266
- 230000001815 facial effect Effects 0.000 title claims abstract description 46
- 238000001514 detection method Methods 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title abstract description 31
- 238000013139 quantization Methods 0.000 claims abstract description 69
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 62
- 238000012545 processing Methods 0.000 claims abstract description 50
- 238000011176 pooling Methods 0.000 claims description 43
- 238000012549 training Methods 0.000 claims description 25
- 230000004913 activation Effects 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000007781 pre-processing Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 7
- 238000003745 diagnosis Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 238000003706 image smoothing Methods 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 5
- 210000003491 skin Anatomy 0.000 description 100
- 238000010586 diagram Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 28
- 230000000875 corresponding effect Effects 0.000 description 14
- 238000003860 storage Methods 0.000 description 12
- 210000004243 sweat Anatomy 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 238000012360 testing method Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 210000004207 dermis Anatomy 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000004209 hair Anatomy 0.000 description 3
- 210000003780 hair follicle Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000001732 sebaceous gland Anatomy 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 210000002615 epidermis Anatomy 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000028327 secretion Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 201000004624 Dermatitis Diseases 0.000 description 1
- 208000025309 Hair disease Diseases 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000008595 infiltration Effects 0.000 description 1
- 238000001764 infiltration Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 208000026721 nail disease Diseases 0.000 description 1
- 230000001613 neoplastic effect Effects 0.000 description 1
- 230000037311 normal skin Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000035790 physiological processes and functions Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000037380 skin damage Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种面部毛孔检测系统及方法。所述方法包括:获取待检测皮肤的皮肤图像;利用训练好的卷积神经网络模型对所述皮肤图像中的毛孔图像进行识别;对识别出的毛孔图像进行图像处理,得到毛孔的量化指标,所述量化指标包括毛孔色差量化指标、毛孔面积量化指标和毛孔密度量化指标中的任一种或任意组合。本公开利用卷积神经网络得到包含毛孔的毛孔图像,再对毛孔图像进行图像处理,得到毛孔色差量化指标、毛孔面积量化指标和毛孔密度量化指标等量化指标,能够快速、准确、客观的给出面部毛孔的量化指标,不但方便对自身面部的毛孔粗大程度进行判断,而且方便检验面部毛孔治疗的治疗效果。
Description
技术领域
本公开涉及图像识别技术领域,尤其涉及一种面部毛孔检测系统及方法。
背景技术
皮肤毛孔粗大表现为皮肤表面凹陷不平整的外观,伴有或不伴有颜色加深,通常将毛孔粗大定义为单个超过0.02mm2的圆形结构。毛孔粗大是因为毛孔体积增大,在聚焦激光显微镜下毛孔表现为表皮增长并延伸刺入真皮内,真皮乳头层上升到表皮层面,形成镜下的“钟乳石样外观”表现,造成肉眼上见到皮肤质地不平整及凹陷样外观。
面部毛孔粗大作为一个美容问题广受大众关心,并急欲得到解决。根据毛孔粗大的不同原因有不同的治疗方案,在临床上均取得了良好疗效。然而,对于个体毛孔粗大的程度及治疗效果的评估一直缺乏量化标准。
发明内容
有鉴于此,本公开提出了一种面部毛孔检测系统及方法,用以解决现有技术中缺乏面部毛孔粗大的量化指标,以及缺乏有效的面部毛孔粗大的检测手段的问题,其中所述方法包括:
根据本公开的一方面,提供了一种面部毛孔检测方法,包括如下步骤:
获取待检测皮肤的皮肤图像;
利用训练好的卷积神经网络模型对所述皮肤图像中的毛孔图像进行识别;
对识别出的毛孔图像进行图像处理,得到毛孔的量化指标,所述量化指标包括毛孔色差量化指标、毛孔面积量化指标和毛孔密度量化指标中的任一种或任意组合。
在一种可能的实现方式中,所述方法还包括:
根据所述量化指标和预设的皮肤毛孔对应关系,确定所述待检测皮肤的皮肤状态,所述皮肤毛孔对应关系包括皮肤状态和毛孔量化指标之间的对应关系。
在一种可能的实现方式中,还包括:训练得到所述卷积神经网络模型,具体包括:
获取训练样本;
将所述训练样本输入初始卷积神经网络模型进行处理,得到输出结果;
将所述输出结果和样本图像进行比较,得到比较结果;
根据所述比较结果优化所述初始卷积神经网络模型中的参数,得到训练好的卷积神经网络模型。
在一种可能的实现方式中,还包括:
构建所述初始卷积神经网络模型,所述初始卷积神经网络模型包括输入层、隐藏层和输出层,其中,
所述隐藏层包括至少三层卷积池化层和至少两层全连接层,所述卷积池化层包括卷积层和池化层。
在一种可能的实现方式中,构建所述初始卷积神经网络模型,包括:
所述卷积层根据接收到的数据,利用预设数量的卷积核,按照卷积步长进行卷积运算,并利用激活函数进行激活运算后,得到卷积结果;
所述池化层根据接收到的卷积结果,采用最大轮询算法进行采样处理后,得到池化结果。
在一种可能的实现方式中,对所述毛孔图像进行图像处理,得到所述毛孔的量化指标,包括;
对所述毛孔图像进行预处理,得到预处理图像;
根据所述预处理图像确定所述预处理图像中的毛孔颜色和毛孔面积;
根据所述毛孔面积和所述皮肤图像,确定毛孔密度,以及根据所述毛孔颜色和所述皮肤图像,确定毛孔色差;
根据所述毛孔色差、所述毛孔面积和所述毛孔密度,确定所述毛孔的量化指标。
根据本公开的另一方面,提供了一种面部毛孔检测系统,包括:
皮肤图像获取模块,用于获取待检测皮肤的皮肤图像;
神经网络识别模块,用于利用训练好的卷积神经网络模型对所述皮肤图像中的毛孔图像进行识别;
图像处理模块,用于对识别出的毛孔图像进行图像处理,得到毛孔的量化指标,所述量化指标包括毛孔色差量化指标、毛孔面积量化指标和毛孔密度量化指标中的任一种或任意组合。
在一种可能的实现方式中,还包括:
皮肤状态确定模块,用于根据所述量化指标和预设的皮肤毛孔对应关系,确定所述待检测皮肤的皮肤状态,所述皮肤毛孔对应关系包括皮肤状态和毛孔量化指标之间的对应关系。
在一种可能的实现方式中,还包括:
神经网络训练模块,用于训练得到所述卷积神经网络模型,具体包括:
训练样本获取单元,用于获取训练样本;
输出结果获取单元,用于将所述训练样本输入初始卷积神经网络模型进行处理,得到输出结果;
比较结果确定单元,用于将所述输出结果和样本图像进行比较,得到比较结果;
参数优化单元,用于根据所述比较结果优化所述初始卷积神经网络模型中的参数,得到训练好的卷积神经网络模型。
在一种可能的实现方式中,还包括:
神经网络构建模块,用于构建所述初始卷积神经网络模型,所述初始卷积神经网络模型包括输入层、隐藏层和输出层,其中,
所述隐藏层包括至少三层卷积池化层和至少两层全连接层,所述卷积池化层包括卷积层和池化层。
在一种可能的实现方式中,所述神经网络构建模块,包括:
卷积层构建单元,用于所述卷积层根据接收到的数据,利用预设数量的卷积核,按照卷积步长进行卷积运算,并利用激活函数进行激活运算后,得到卷积结果;
池化层构建单元,用于所述池化层根据接收到的卷积结果,采用最大轮询算法进行采样处理后,得到池化结果。
在一种可能的实现方式中,图像处理模块,包括;
预处理单元,用于对所述毛孔图像进行预处理,得到预处理图像;
图像处理单元,用于根据所述预处理图像确定所述预处理图像中的毛孔颜色和毛孔面积;
量化指标确定单元,用于根据所述毛孔面积和所述皮肤图像,确定毛孔密度,以及根据所述毛孔颜色和所述皮肤图像,确定毛孔色差;根据所述毛孔色差、所述毛孔面积和所述毛孔密度,确定所述毛孔的量化指标。
根据本公开的另一方面,提供了一种面部毛孔检测系统,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行本公开实施例中的方法中的步骤。
根据本公开的另一方面,提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其中,所述计算机程序指令被处理器执行本公开实施例中的方法。
本公开利用卷积神经网络得到包含毛孔的毛孔图像,再对毛孔图像进行图像处理,得到毛孔色差量化指标、毛孔面积量化指标和毛孔密度量化指标等量化指标,能够快速、准确、客观的给出面部毛孔的量化指标,不但方便对自身面部的毛孔粗大程度进行判断,而且方便检验面部毛孔治疗的治疗效果。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1是根据一示例性实施例示出的一种面部毛孔检测方法的流程图。
图2是根据一示例性实施例示出的一种面部毛孔检测方法的流程图。
图3是根据一示例性实施例示出的一种面部毛孔检测方法的流程图。
图4是根据一示例性实施例示出的皮肤图像示意图。
图5是根据一示例性实施例示出的标识了毛孔图像的皮肤图像示意图。
图6是根据一示例性实施例示出的负样本示意图。
图7是根据一示例性实施例示出的正样本示意图。
图8是根据一示例性实施例示出的标识了毛孔的皮肤图像示意图。
图9是根据一示例性实施例示出的卷积神经网络模型的结构示意图。
图10是根据一示例性实施例示出的一种卷积神经网络模型的框图。
图11是根据一示例性实施例示出的一种面部毛孔检测方法的流程图。
图12是根据一示例性实施例示出的一种面部毛孔检测系统的框图。
图13是根据一示例性实施例示出的一种面部毛孔检测系统的框图。
图14是根据一示例性实施例示出的一种面部毛孔检测系统的应用框图。
图15是根据一示例性实施例示出的一种用于毛孔检测的系统的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1是根据一示例性实施例示出的一种面部毛孔检测方法的流程图,如图1所述的面部毛孔检测方法,包括:
步骤S10,获取待检测皮肤的皮肤图像。
举例来说,所述待检测皮肤包括面部皮肤,也可以包括躯干部皮肤、手部皮肤等其它部位的皮肤。在实际的使用中,可使用皮肤镜获取待检测皮肤的皮肤图像,皮肤镜是一种广泛应用的非侵袭性诊断工具,通过光学放大、浸润和偏振技术,显示裸眼无法观察到的皮损表面和皮表下结构特征。皮肤镜最初用于肿瘤性疾病的诊断,近年来适应证扩展到炎症性皮肤病、毛发及甲病等。
图4是根据一示例性实施例示出的皮肤图像示意图。如图4所示,为更准确的获取毛孔量化指标,方便后续的图像识别步骤,本实施例使用20倍皮肤镜获取待检测皮肤的皮肤图像,其他倍数的皮肤镜也可用于获取皮肤图像,本公开对此不作限制。
步骤S20,利用训练好的卷积神经网络模型对所述皮肤图像中的毛孔图像进行识别。
举例来说,毛孔是指毛囊口,它是毛囊和皮脂腺的共同开口,具有特定的生理功能。毛孔除了是公众最熟知“长出毛发的孔”,其重要功能为排泄皮脂腺的分泌物。
所述训练好的卷积神经网络模型,用于在皮肤图像中定位出包含毛孔的毛孔图像。由于获取的皮肤图像中,毛孔的形态多变,不同的人的毛孔的大小、颜色及密度均不同,而训练好的卷积神经网络模型,可以快速、高效,准确的从皮肤图像中,定位出毛孔图像。
图5是根据一示例性实施例示出的标识了毛孔图像的皮肤图像示意图。如图5所示,利用训练好的卷积神经网络模型,在皮肤图像上将部分毛孔图像的位置进行了确定。
步骤S30,对识别出的毛孔图像进行图像处理,得到毛孔的量化指标,所述量化指标包括毛孔色差量化指标、毛孔面积量化指标和毛孔密度量化指标中的任一种或任意组合。
举例来说,所述图像处理,包括利用计算机中的图像处理程序,对图像进行分析,以达到所需结果的技术。图像处理包括对于二维数组的数字图像处理,其中,对于灰度图,二维数组主要的坐标就是像素坐标,二维数组的值是灰度值。对于色彩图,是在每一个RGB色彩分量上的二维数组,数组值是色彩分量在相应像素上的值。在图像处理中,可以根据需求的不同,通过调整图像处理程序的参数,得到不同的识别结果。所述图像处理包括边缘检测图像处理。
图8是根据一示例性实施例示出的标识了毛孔的皮肤图像示意图。如图8所述,利用图像处理软件对识别出的毛孔图像进行图像处理后,在毛孔图像中圈出了毛孔的具体位置,利用不同的封闭曲线对毛孔的具体形态进行了识别,图像处理软件同时对于封闭曲线内毛孔的颜色进行识别,以及封闭曲线的面积进行计算,得到毛孔的颜色,大小,最后根据毛孔的大小和颜色,计算出毛孔和非毛孔部位的皮肤图像之间的色差、毛孔的密度等指标。
本实施例利用卷积神经网络得到包含毛孔的毛孔图像,再对毛孔图像进行图像处理,得到毛孔色差量化指标、毛孔面积量化指标和毛孔密度量化指标等量化指标,能够快速、准确、客观的给出面部毛孔的量化指标,不但方便对自身面部的毛孔粗大程度进行判断,而且方便检验面部毛孔治疗的治疗效果。
图2是根据一示例性实施例示出的一种面部毛孔检测方法的流程图,如图2所述的面部毛孔检测方法,在上述实施例的基础上,所述方法还包括:
步骤S40,根据所述量化指标和预设的皮肤毛孔对应关系,确定所述待检测皮肤的皮肤状态,所述皮肤毛孔对应关系包括皮肤状态和毛孔量化指标之间的对应关系。
举例来说,皮肤毛孔粗大表现为皮肤表面凹陷不平整的外观,伴或不伴有颜色加深,毛孔粗大定义为单个超过0.02mm2(mm表示毫米)的圆形结构。毛孔粗大是因为毛孔体积增大,在聚焦激光显微镜下毛孔表现为表皮增长并延伸刺入真皮内,真皮乳头层上升到表皮层面,形成镜下的“钟乳石样外观”表现,造成肉眼上见到皮肤质地不平整及凹陷样外观。目前,医学上认为面部毛孔粗大主要有以下三点成因:皮脂腺分泌旺盛、毛孔周围组织结构弹性松弛及毛囊肥大。因此,面部皮肤的状态,与毛孔的量化指标有直接的关联。
所述皮肤状态,包括根据毛孔量化指标、毛孔粗大的程度,划分为正常皮肤、轻度毛孔粗大皮肤、重度毛孔粗大皮肤等不同的皮肤状态等级;也包括根据毛孔粗大的医学诊断结果,划分为单纯型毛孔粗大、皮脂溢出型毛孔粗大(双边缘征阳性及色差加大者)、毳毛加重型毛孔粗大及混合性毛孔粗大等皮肤状态。根据面部皮肤检测的需求,将毛孔量化指标与预设的皮肤状态进行关联即可。
本实施例通过将毛孔量化指标和皮肤状态进行对应后,根据检测出的毛孔量化指标,给出皮肤状态的检测结果,提供更加直观、专业的皮肤状态诊断结果。
图3是根据一示例性实施例示出的一种面部毛孔检测方法的流程图,如图3所述的面部毛孔检测方法,在上述实施例的基础上,所述方法还包括:训练得到所述卷积神经网络模型,具体包括:
步骤S50,获取训练样本。
举例来说,图6是根据一示例性实施例示出的负样本示意图。图7是根据一示例性实施例示出的正样本示意图。所述负样本为非毛孔图像,所述正样本为毛孔图像。
利用20倍皮肤镜采集到皮肤图像后,将皮肤图像经过图像预处理系统,利用边缘检测技术,获取毛孔的形态、色度、面积、毳毛生长情况等,其中形态包括双边缘征、毛周鳞屑等,毳毛生长情况包括毳毛的颜色、最大直径、平均直径及长度等。在实际的试验中,通过定位疑似单个毛孔的区域,并生成包含该区域的固定大小的图片作为正样本,例如,采用32x32像素尺寸的图片作为正样本。同时采集不含毛孔的皮肤区域,生成相同的固定尺寸的图片作为负样本。本公开对正样本和负样本的尺寸不做限制。
步骤S60,将所述训练样本输入初始卷积神经网络模型进行处理,得到输出结果。
举例来说,图9是根据一示例性实施例示出的卷积神经网络模型的结构示意图。如图9所示,训练好的卷积神经网络模型包括输入层、隐藏层和输出层。其中,输入层输入的为已标记为的样本图片,在本实施例中为正样本和负样本,样本图片大小为23x23的彩色RGB三通道的图片集。隐藏层包括卷积层、池化层、全连接层等。卷积层和池化层主要利用对图像的卷积计算以增强图像的特征。池化层用于降低噪声。如图9所示,输出层包括两个节点,表示神经网络的输出结果包括毛孔或非毛孔。本公开对于样本图片的大小以及色彩不作限定。
步骤S70,将所述输出结果和样本图像进行比较,得到比较结果。
举例来说,根据毛孔或非毛孔的输出结果,与输入时的正样本或负样本进行比较,得到的比较结果包括输出正确,或输出错误。
步骤S80,根据所述比较结果优化所述初始卷积神经网络模型中的参数,得到训练好的卷积神经网络模型。
举例来说,优化所述初始卷积神经网络模型中的参数,包括当输出结果错误时,利用损失函数和优化函数,沿神经网络进行反向传播,以更新和优化卷积神经网络参数。
由于毛孔识别仅牵扯到二分类问题,在本实施例中,损失函数可采用LogisticRegression(逻辑回归分析)作为损失函数。优化函数可采用常见的优化函数如:Stochastic gradient descent(随机梯度下降),RMSprop(Adadelta的中间形式),Adagrad,Adadelta,Adam等。针对毛孔识别,选用stochastic gradient descent.其定义如下公式(1):
其中,w代表权值,即每一次权值更新都沿着误差梯度负方向;η代表步长值,即学习率(learning rate);n代表训练样本数量
在一种可能的实现方式中,卷积神经网络模型的激活函数选取relu(RectifiedLinear Units)函数,relu函数为公式(2)
f(x)=max(x,0) (2)
本实施例通过利用毛孔图片和非毛孔图片训练卷积神经网络,使得训练后的卷积神经网络,能够快速、准确的识别出皮肤图像中的毛孔图像。
在一种可能的实现方式中,面部毛孔检测方法还包括:构建所述初始卷积神经网络模型,所述初始卷积神经网络模型包括输入层、隐藏层和输出层,其中,所述隐藏层包括至少三层卷积池化层和至少两层全连接层,所述卷积池化层包括卷积层和池化层。
在一种可能的实现方式中,构建所述初始卷积神经网络模型,包括:
所述卷积层根据接收到的数据,利用预设数量的卷积核,按照卷积步长进行卷积运算,并利用激活函数进行激活运算后,得到卷积结果;
所述池化层根据接收到的卷积结果,采用最大轮询算法进行采样处理后,得到池化结果。
举例来说,图10是根据一示例性实施例示出的一种卷积神经网络模型的框图,如图10所示,在上述实施例的基础上,面部毛孔检测方法中卷积神经网络的构建包括:
采用至少3层以上的卷积池化层。本实施例采用5层以上的卷积池化层作为示例,每层卷积池化层包括卷积层,卷积层中的预设数量的卷积核、卷积步长均可根据需求进行灵活设置,本公开对此不做限制。
例如,卷积池化层采用如下设置:
卷积层1:采用96个(预设数量)11x11(像素尺寸),步长为4(卷积步长)的卷积核函数,并采用relu作为激活函数进行计算;即以11x11为窗口扫描整个图像,进行96遍卷积计算,以下各卷积层相同。
池化层1:采用max_polling进行采样,结果作为卷积层2的输入。
卷积层2:采用256个5x5,步长为1的卷积核函数,并采用relu作为激活函数进行计算。
池化层2:采用max_polling进行采样,结果作为卷积层3的输入。
卷积层3:采用384个3x3,步长为1的卷积核函数,并采用relu作为激活函数进行计算,结果作为卷积层4的输入。
池化层3:采用max_polling进行采样,结果作为卷积层4的输入。
卷积层4:采用384个3x3,步长为1的卷积核函数,并采用relu作为激活函数进行计算,结果作为卷积层5的输入。
池化层4:采用max_polling进行采样,结果作为卷积层5的输入。
卷积层5:采用256个3x3,步长为1的卷积核函数,并采用relu作为激活函数进行计算,结果作为层6输入。
池化层5:采用max_polling进行采样,结果作为全连接层1的输入。
连接层6-7:对层5输出的所有结果图片,以每个像素为单位,进行权重计算和优化,最终生成分类结果作为输出层。
在一种可能的实现方式中,所述卷积运算参见公式(3):
其中I为输入图像;K为卷积核函数;i,j代表图像尺寸;m,n代表卷积核函数。
卷积核函数可以定义为一个图像窗口,以3x3卷积核为例,其中一种卷积核参见下表1:
表1
1 | 2 | 1 |
1 | 2 | 1 |
1 | 2 | 1 |
池化层函数的示例如下:
针对毛孔识别,采用5x5的max_pooling作为运算。Max_pooling算法为以3X3窗口对图像进行扫描,且每次扫描都将图像中窗口区域内的值,设为窗口中对应的最大值。
在本实施例中,利用多层卷积池化层和多层全连接层,构建的卷积神经网络,可以最大程度的捕捉到皮肤图像中的毛孔图像的特征,准确高效的在皮肤图像中定位出毛孔图像。
在一种可能的实现方式中,所述卷积神经网络模型的训练,还包括利用测试样本,对训练好的卷积神经网络模型进行测试。
举例来说,在所采集的大量样本中,按照一定比例划分样本集和测试集。一种可行的方法是:样本集包含60000张图片,其中分别标记毛孔和非毛孔的图片各30000张;测试集包含10000张图片,正负样本集各5000张。
在本实施例中,通过样本集和测试集,能够提升卷积神经网络模型的准确率。
图11是根据一示例性实施例示出的一种面部毛孔检测方法的流程图,如图11所示,在上述实施例的基础上,步骤S30包括:
步骤S31,对所述毛孔图像进行预处理,得到预处理图像。
举例来说,预处理主要包括图像平滑滤波和图像色彩增强。其中,
图像平滑滤波采用图像滤波算法对原始图像进行平滑处理,以减少图像的噪声对最终检测结果的影响。
图像色彩增强的目的是,提高原始图像的色彩对比度。由于受到光线,拍摄环境等因素的影响,采集到的图片往往在处理时不能很好的区分毛孔。利用色彩增强,可以进一步提高图像的对比度,增加识别的精度。
步骤S32,根据所述预处理图像确定所述预处理图像中的毛孔颜色和毛孔面积。
举例来说,利用边缘检测等图像处理方法,可确定预处理图像中的毛孔的颜色,以及毛孔所占的面积。
步骤S33,根据所述毛孔面积和所述皮肤图像,确定毛孔密度,以及根据所述毛孔颜色和所述皮肤图像,确定毛孔色差;根据所述毛孔色差、所述毛孔面积和所述毛孔密度,确定所述毛孔的量化指标。
举例来说,所述毛孔的量化指标,包括毛孔部分和非毛孔部分的皮肤颜色之间的色差,所有毛孔面积的平均值、最大值、最小值,以及毛孔在皮肤上的分布密度等,均可用直观的数值进行表达。
为更好的理解本公开,图14是根据一示例性实施例示出的一种面部毛孔检测系统的应用框图,如图14所示,皮肤镜获取到大量的皮肤图像,并存储在皮肤照片数据库中,存储的皮肤图像经过图片预处理后,得到训练样本图像,将训练样本桐乡输入卷积神经网络进行训练后,得到训练好的卷积神经网络模型即识别模型。
在进行面部毛孔检测时,同样利用皮肤镜得到待测皮肤图片,利用训练好的识别模型进行图像处理,将待测皮肤图片上的毛孔标记出来后,对毛孔的颜色和面积进行量化,最终得到量化指标,包括毛孔色差量化指标、毛孔面积量化指标和毛孔密度量化指标中的任一种或任意组合。
在本实施例中,将卷积神经网络识别出的毛孔图像,利用图像处理方法,确定毛孔的颜色、面积等,最终得到毛孔的量化指标。
图12是根据一示例性实施例示出的一种面部毛孔检测系统的框图,如图12所示,所述面部毛孔检测系统包括:
皮肤图像获取模块10,用于获取待检测皮肤的皮肤图像;
神经网络识别模块20,用于利用训练好的卷积神经网络模型对所述皮肤图像中的毛孔图像进行识别;
图像处理模块30,用于对识别出的毛孔图像进行图像处理,得到毛孔的量化指标,所述量化指标包括毛孔色差量化指标、毛孔面积量化指标和毛孔密度量化指标中的任一种或任意组合。
在本实施例中,利用卷积神经网络得到包含毛孔的毛孔图像,再对毛孔图像进行图像处理,得到毛孔的色差、面积即密度等量化指标,能够快速、准确、客观的给出面部毛孔的量化指标,不但方便对自身面部的毛孔粗大程度进行判断,而且方便检验面部毛孔治疗的治疗效果。
图13是根据一示例性实施例示出的一种面部毛孔检测系统的框图,如图13所示,在上述实施例的基础上,所述面部毛孔检测系统,还包括:
皮肤状态确定模块40,用于根据所述量化指标和预设的皮肤毛孔对应关系,确定所述待检测皮肤的皮肤状态,所述皮肤毛孔对应关系包括皮肤状态和毛孔量化指标之间的对应关系。
神经网络训练模块50,用于训练得到所述卷积神经网络模型,具体包括:训练样本获取单元,用于获取训练样本;输出结果获取单元,用于将所述训练样本输入初始卷积神经网络模型进行处理,得到输出结果;比较结果确定单元,用于将所述输出结果和样本图像进行比较,得到比较结果;参数优化单元,用于根据所述比较结果优化所述初始卷积神经网络模型中的参数,得到训练好的卷积神经网络模型。
神经网络构建模块60,用于构建所述初始卷积神经网络模型,所述初始卷积神经网络模型60包括输入层、隐藏层和输出层,其中,所述隐藏层包括至少三层卷积池化层和至少两层全连接层,所述卷积池化层包括卷积层和池化层。所述神经网络构建模块60,包括卷积层构建单元,用于所述卷积层根据接收到的数据,利用预设数量的卷积核,按照卷积步长进行卷积运算,并利用激活函数进行激活运算后,得到卷积结果;池化层构建单元,用于所述池化层根据接收到的卷积结果,采用最大轮询算法进行采样处理后,得到池化结果。
所述图像处理模块30,包括预处理单元,用于对所述毛孔图像进行预处理,得到预处理图像;图像处理单元,用于根据所述预处理图像确定所述预处理图像中的毛孔颜色和毛孔面积;量化指标确定单元,用于根据所述毛孔面积和所述皮肤图像,确定毛孔密度,以及根据所述毛孔颜色和所述皮肤图像,确定毛孔色差;根据所述毛孔色差、所述毛孔面积和所述毛孔密度,确定所述毛孔的量化指标。
图15是根据一示例性实施例示出的一种用于面部毛孔检测的装置1900的框图。例如,装置1900可以被提供为一服务器。参照图15,装置1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
装置1900还可以包括一个电源组件1926被配置为执行装置1900的电源管理,一个有线或无线网络接口1950被配置为将装置1900连接到网络,和一个输入输出(I/O)接口1958。装置1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由装置1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (4)
1.一种面部毛孔检测系统,其特征在于,包括:
皮肤图像获取模块,用于获取待检测皮肤的皮肤图像,所述皮肤图像获取模块包括皮肤镜;
神经网络识别模块,用于利用训练好的卷积神经网络模型对所述皮肤图像中的毛孔图像进行识别;
图像处理模块,用于对识别出的毛孔图像进行图像处理,得到毛孔的量化指标,所述量化指标包括毛孔色差量化指标、毛孔面积量化指标和毛孔密度量化指标中的任一种或任意组合,
其中,图像处理模块,包括:
预处理单元,用于对所述毛孔图像进行预处理,得到预处理图像,所述预处理包括图像平滑滤波处理和图像色彩增强;
图像处理单元,用于根据所述预处理图像确定所述预处理图像中的毛孔颜色和毛孔面积;
量化指标确定单元,用于根据所述毛孔面积和所述皮肤图像,确定毛孔密度,以及根据所述毛孔颜色和所述皮肤图像,确定毛孔色差;根据所述毛孔色差、所述毛孔面积和所述毛孔密度,确定所述毛孔的量化指标,
其中,所述系统还包括:
皮肤状态确定模块,用于根据所述量化指标和预设的皮肤毛孔对应关系,确定所述待检测皮肤的皮肤状态,所述皮肤毛孔对应关系包括皮肤状态和毛孔量化指标之间的对应关系,
所述皮肤状态包括皮肤医学诊断结果,所述皮肤医学诊断结果包括单纯型毛孔粗大、皮脂溢出型毛孔粗大、毳毛加重型毛孔粗大和混合性毛孔粗大中的任一种。
2.根据权利要求1所述的系统,其特征在于,还包括:
神经网络训练模块,用于训练得到所述卷积神经网络模型,具体包括:
训练样本获取单元,用于获取训练样本;
输出结果获取单元,用于将所述训练样本输入初始卷积神经网络模型进行处理,得到输出结果;
比较结果确定单元,用于将所述输出结果和样本图像进行比较,得到比较结果;
参数优化单元,用于根据所述比较结果优化所述初始卷积神经网络模型中的参数,得到训练好的卷积神经网络模型。
3.根据权利要求2所述的系统,其特征在于,还包括:
神经网络构建模块,用于构建所述初始卷积神经网络模型,所述初始卷积神经网络模型包括输入层、隐藏层和输出层,其中,
所述隐藏层包括至少三层卷积池化层和至少两层全连接层,所述卷积池化层包括卷积层和池化层。
4.根据权利要求3所述的系统,其特征在于,所述神经网络构建模块,包括:
卷积层构建单元,用于所述卷积层根据接收到的数据,利用预设数量的卷积核,按照卷积步长进行卷积运算,并利用激活函数进行激活运算后,得到卷积结果;
池化层构建单元,用于所述池化层根据接收到的卷积结果,采用最大轮询算法进行采样处理后,得到池化结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710964617.9A CN107679507B (zh) | 2017-10-17 | 2017-10-17 | 面部毛孔检测系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710964617.9A CN107679507B (zh) | 2017-10-17 | 2017-10-17 | 面部毛孔检测系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107679507A CN107679507A (zh) | 2018-02-09 |
CN107679507B true CN107679507B (zh) | 2019-12-24 |
Family
ID=61140688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710964617.9A Active CN107679507B (zh) | 2017-10-17 | 2017-10-17 | 面部毛孔检测系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107679507B (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109117862B (zh) * | 2018-06-29 | 2019-06-21 | 北京达佳互联信息技术有限公司 | 图像标签识别方法、装置及服务器 |
CN109008970A (zh) * | 2018-07-19 | 2018-12-18 | 上海试美网络科技有限公司 | 一种带有人工智能的皮肤检测仪 |
JP7108127B2 (ja) * | 2018-08-21 | 2022-07-27 | ザ プロクター アンド ギャンブル カンパニー | 毛穴の色を特定する方法 |
CN109300131A (zh) * | 2018-10-18 | 2019-02-01 | 广州智颜科技有限公司 | 一种图像处理方法、装置、计算机设备和存储介质 |
CN109544516B (zh) * | 2018-11-05 | 2020-11-13 | 深圳和而泰数据资源与云技术有限公司 | 图像检测方法及装置 |
CN109544515B (zh) * | 2018-11-05 | 2021-08-31 | 深圳和而泰数据资源与云技术有限公司 | 一种趋势确定方法及装置 |
CN109583330B (zh) * | 2018-11-15 | 2023-05-05 | 北京理工大学 | 一种用于人脸照片的毛孔检测方法 |
CN110263806B (zh) * | 2019-05-09 | 2023-04-18 | 广东工业大学 | 一种基于深度学习的皮肤图像实际面积估算方法 |
JP7503757B2 (ja) | 2019-05-13 | 2024-06-21 | パナソニックIpマネジメント株式会社 | 情報生成装置、情報生成方法、及び、コンピュータプログラム |
CN110298393A (zh) * | 2019-06-14 | 2019-10-01 | 深圳志合天成科技有限公司 | 一种基于深度学习的头发头皮健康状况检测方法 |
CN110570479B (zh) * | 2019-09-03 | 2022-03-18 | 云南白药集团健康产品有限公司 | 一种图像处理方法、装置及系统 |
CN110796638B (zh) * | 2019-09-29 | 2023-03-24 | 合肥方程式电子科技有限公司 | 毛孔检测方法 |
CN112700398A (zh) * | 2019-10-22 | 2021-04-23 | 华为技术有限公司 | 人脸皮肤检测方法及装置 |
CN111428552B (zh) * | 2019-12-31 | 2022-07-15 | 深圳数联天下智能科技有限公司 | 黑眼圈识别方法、装置、计算机设备和存储介质 |
CN111428553B (zh) * | 2019-12-31 | 2022-07-15 | 深圳数联天下智能科技有限公司 | 人脸色素斑识别方法、装置、计算机设备和存储介质 |
CN111275703B (zh) * | 2020-02-27 | 2023-10-27 | 腾讯科技(深圳)有限公司 | 图像检测方法、装置、计算机设备和存储介质 |
JP7436708B2 (ja) | 2020-05-08 | 2024-02-22 | ザ プロクター アンド ギャンブル カンパニー | 樹状毛穴を識別するための方法 |
CN112308827A (zh) * | 2020-10-23 | 2021-02-02 | 复旦大学 | 基于深度卷积神经网络的毛囊检测方法 |
CN113189018B (zh) * | 2021-04-13 | 2022-07-12 | 河北省农林科学院昌黎果树研究所 | 一种使用色差仪评价板栗叶片背面茸毛密度的方法 |
CN113887483A (zh) * | 2021-10-19 | 2022-01-04 | 杭州颜云科技有限公司 | 一种基于深度神经网络的人脸毛孔检测方法 |
KR102445257B1 (ko) * | 2022-02-23 | 2022-09-23 | 주식회사 룰루랩 | 인공신경망에 기반하여 모공을 검출하고 검출된 모공을 시각화하는 방법 및 장치 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103152476A (zh) * | 2013-01-31 | 2013-06-12 | 广东欧珀移动通信有限公司 | 检测皮肤状态的手机及其使用方法 |
CN104299011A (zh) * | 2014-10-13 | 2015-01-21 | 吴亮 | 一种基于人脸图像识别的肤质与皮肤问题识别检测方法 |
CN105069818A (zh) * | 2015-09-02 | 2015-11-18 | 泰山学院 | 一种基于图像分析的皮肤毛孔识别方法 |
CN106469302A (zh) * | 2016-09-07 | 2017-03-01 | 成都知识视觉科技有限公司 | 一种基于人工神经网络的人脸肤质检测方法 |
CN107169960A (zh) * | 2017-05-15 | 2017-09-15 | 精诚工坊电子集成技术(北京)有限公司 | 一种基于图像颜色空间的皮肤表面毛孔大小检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2596455A1 (en) * | 2010-07-20 | 2013-05-29 | Lockheed Martin Corporation | Image analysis systems using non-linear data processing techniques and methods using same |
-
2017
- 2017-10-17 CN CN201710964617.9A patent/CN107679507B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103152476A (zh) * | 2013-01-31 | 2013-06-12 | 广东欧珀移动通信有限公司 | 检测皮肤状态的手机及其使用方法 |
CN104299011A (zh) * | 2014-10-13 | 2015-01-21 | 吴亮 | 一种基于人脸图像识别的肤质与皮肤问题识别检测方法 |
CN105069818A (zh) * | 2015-09-02 | 2015-11-18 | 泰山学院 | 一种基于图像分析的皮肤毛孔识别方法 |
CN106469302A (zh) * | 2016-09-07 | 2017-03-01 | 成都知识视觉科技有限公司 | 一种基于人工神经网络的人脸肤质检测方法 |
CN107169960A (zh) * | 2017-05-15 | 2017-09-15 | 精诚工坊电子集成技术(北京)有限公司 | 一种基于图像颜色空间的皮肤表面毛孔大小检测方法 |
Non-Patent Citations (1)
Title |
---|
面部老化的分级和定量分析;吴艳;《皮肤病与性病》;20140430;第70-72页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107679507A (zh) | 2018-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107679507B (zh) | 面部毛孔检测系统及方法 | |
US11922626B2 (en) | Systems and methods for automatic detection and quantification of pathology using dynamic feature classification | |
JP2021166062A (ja) | 顕微鏡スライド画像のための焦点重み付き機械学習分類器誤り予測 | |
CN104887183A (zh) | 基于光学的肌肤健康监测和预诊断智能方法 | |
SG190730A1 (en) | Method and an apparatus for determining vein patterns from a colour image | |
CN110310247B (zh) | 图像处理方法、装置、终端及计算机可读存储介质 | |
CN107767358B (zh) | 一种图像中物体模糊度确定方法和装置 | |
Choi et al. | Skin texture aging trend analysis using dermoscopy images | |
CN103767728A (zh) | 影像辨识方法及影像辨识系统 | |
CN115601811B (zh) | 面部痤疮的检测方法和装置 | |
CN111862040B (zh) | 人像图片质量评价方法、装置、设备及存储介质 | |
CN110348326A (zh) | 基于身份证识别和多设备访问的家庭健康信息处理方法 | |
Messadi et al. | Extraction of specific parameters for skin tumour classification | |
CN114332132A (zh) | 图像分割方法、装置和计算机设备 | |
CN109241930B (zh) | 用于处理眉部图像的方法和装置 | |
CN109961060B (zh) | 用于生成人群密度信息的方法和装置 | |
CN111814738A (zh) | 基于人工智能的人脸识别方法、装置、计算机设备及介质 | |
WO2023218485A1 (en) | System and method for classifying skin conditions | |
CN117095182A (zh) | 一种医疗器械图像识别方法、系统、设备及可读存储介质 | |
KR102495889B1 (ko) | 반자동 라벨링에 따라 학습된 딥러닝 기반 주름 검출 모델을 이용하여 얼굴 주름을 검출하기 위한 방법 및 장치 | |
CN113963015A (zh) | 图像分割方法、装置、计算机设备和存储介质 | |
CN115249377A (zh) | 一种微表情的识别方法及装置 | |
CN113723461A (zh) | 超声设备及超声图像分析方法 | |
CN112686145A (zh) | 一种面部皮肤肤质的识别方法及其智能终端 | |
Chin et al. | Skin condition detection of smartphone face image using multi-feature decision method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240903 Address after: 1314, 13th Floor, Building 2, No. 78 Shuangying West Road, Changping District, Beijing 102200 Patentee after: Beijing Guoyuan Liannuo Technology Co.,Ltd. Country or region after: China Address before: 100191 No. 49 Garden North Road, Beijing, Haidian District Patentee before: PEKING UNIVERSITY THIRD Hospital Country or region before: China |
|
TR01 | Transfer of patent right |