CN112200017A - 图像处理设备 - Google Patents
图像处理设备 Download PDFInfo
- Publication number
- CN112200017A CN112200017A CN202010984802.6A CN202010984802A CN112200017A CN 112200017 A CN112200017 A CN 112200017A CN 202010984802 A CN202010984802 A CN 202010984802A CN 112200017 A CN112200017 A CN 112200017A
- Authority
- CN
- China
- Prior art keywords
- wrinkle
- image
- bounding box
- face
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 29
- 230000037303 wrinkles Effects 0.000 claims abstract description 265
- 238000001514 detection method Methods 0.000 claims abstract description 103
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 46
- 238000012549 training Methods 0.000 claims description 96
- 238000000034 method Methods 0.000 claims description 59
- 238000013434 data augmentation Methods 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 11
- 238000013519 translation Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000003321 amplification Effects 0.000 claims description 2
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 2
- 206010040954 Skin wrinkling Diseases 0.000 description 224
- 238000004364 calculation method Methods 0.000 description 3
- 239000002537 cosmetic Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 235000019580 granularity Nutrition 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例涉及目标检测技术领域,尤其涉及图像处理设备,图像处理设备根据所述边界框位置、所述皱纹位置、所述最小闭包面积以及所述并集面积,来计算所述边界框位置与所述皱纹位置之间的位置偏差,能更好的反映所述边界框位置和所述皱纹位置的重合度。在此基础上,将所述位置偏差用于计算所述第一标签和所述检测结果之间的误差,并根据所述误差反向调整所述预设卷积神经网络的模型参数,可以使得所述模型参数得到更好的优化,从而,得到的皱纹检测模型更加准确。
Description
技术领域
本发明实施例涉及目标检测技术领域,尤其涉及图像处理设备。
背景技术
脸部皱纹检测技术越来越多地应用在多个领域中。例如,在化妆品研发领域中,需要针对不同的脸部皱纹特征,设计化妆产品或者推荐用户相应的化妆品。又例如,在照片美化特效领域中,需要针对不同的脸部皱纹进行不同程度的美化特效。又例如,在人脸识别中,需要根据脸部皱纹作为用户特征以验证用户身份。
当前较为常见的脸部皱纹检测技术,是通过人脸关键特征点分割出皱纹集中出现的区域,然后采用颜色规则以及二值化等处理方法对皱纹集中区域进行处理得到皱纹结果。然而,容易受脸部本身存在的一些因素的干扰,比如头发丝、粗大毛孔等的干扰。另外,只能识别出是否有皱纹,然后,不能识别出皱纹的种类。也即,没有对皱纹的类别进行精细化研究。
发明内容
本发明实施例主要解决的技术问题是提供图像处理设备,对预设卷积神经网络进行训练,训练出的皱纹检测模型能快速准确地直接对皱纹进行分类及定位。
为解决上述技术问题,本发明实施例中提供一种图像处理设备,其特征在于,包括存储器以及一个或多个处理器,所述一个或多个处理器用于执行存储在所述存储器中的一个或多个计算机程序;所述一个或多个计算机程序被存储在所述存储器中;所述一个或多个处理器在执行所述一个或多个计算机程序时,执行如下步骤:
获取包括人脸的图像样本;
根据所述图像样本,截取人脸区域图像,所述人脸区域图像标注有第一标签,其中,所述第一标签包括所述图像样本中的皱纹的皱纹位置和皱纹类别;
将标注有所述第一标签的人脸区域图像作为训练样本,输入预设卷积神经网络,以获取所述预设卷积神经网络输出的所述训练样本的检测结果,所述检测结果包括所述预设卷积神经网络识别出的所述训练样本中皱纹对应的边界框位置、所述边界框位置对应的皱纹属于各个皱纹类别的概率以及所述边界框位置对应的置信度;
根据所述边界框位置、所述皱纹位置,计算所述边界框位置和所述皱纹位置的最小闭包面积,以及,所述边界框位置和所述皱纹位置的并集面积;
根据所述边界框位置、所述皱纹位置、所述最小闭包面积以及所述并集面积,计算所述边界框位置与所述皱纹位置之间的位置偏差;
根据所述边界框位置、所述皱纹位置、所述位置偏差、所述皱纹类别、所述概率以及所述边界框位置对应的置信度,计算所述第一标签和所述检测结果之间的误差;
根据所述误差,反向调整所述预设卷积神经网络的模型参数,以获取皱纹检测模型。
本发明实施例的有益效果:区别于现有技术的情况,图像处理设备通过获取包括人脸的图像样本,根据所述图像样本,截取人脸区域图像,所述人脸区域图像标注有第一标签,其中,所述第一标签包括所述图像样本中的皱纹的皱纹位置和皱纹类别,将标注有所述第一标签的人脸区域图像作为训练样本,输入预设卷积神经网络,以获取所述预设卷积神经网络输出的所述训练样本的检测结果,所述检测结果包括所述预设卷积神经网络识别出的所述训练样本中皱纹对应的边界框位置、所述边界框位置对应的皱纹属于各个皱纹类别的概率以及所述边界框位置对应的置信度,根据所述边界框位置、所述皱纹位置,计算所述边界框位置和所述皱纹位置的最小闭包面积,以及,所述边界框位置和所述皱纹位置的并集面积,然后,根据所述边界框位置、所述皱纹位置、所述最小闭包面积以及所述并集面积,计算所述边界框位置与所述皱纹位置之间的位置偏差,根据所述边界框位置、所述皱纹位置、所述位置偏差、所述皱纹类别、所述概率以及所述边界框位置对应的置信度,计算所述第一标签和所述检测结果之间的误差,最后,根据所述误差,反向调整所述预设卷积神经网络的模型参数,以获取皱纹检测模型。
也即,根据所述边界框位置、所述皱纹位置、所述最小闭包面积以及所述并集面积,来计算所述边界框位置与所述皱纹位置之间的位置偏差,能更好的反映所述边界框位置和所述皱纹位置的重合度。在此基础上,将所述位置偏差用于计算所述第一标签和所述检测结果之间的误差,并根据所述误差反向调整所述预设卷积神经网络的模型参数,可以使得所述模型参数得到更好的优化,从而,得到的皱纹检测模型更加准确。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1为本发明其中一实施例提供的一种图像处理设备的结构示意图;
图2为本发明其中一实施例提供的一种训练皱纹检测模型的方法的流程示意图;
图3为图2所示方法后则能够截取人脸区域图像的示意图;
图4为图2所示方法中一标注有第一标签的训练样本的示意图;
图5为图2所示方法中皱纹位置、边界框以及最小闭包区域的示意图;
图6为图2所示方法中步骤S25的一子流程示意图;
图7为图2所示方法中步骤S23的一子流程示意图;
图8为本发明其中一实施例提供的一种数据增强处理的流程示意图;
图9为本发明其中一实施例提供的一种检测皱纹的方法的流程示意图;
图10为图9所示方法中检测出的皱纹类别和皱纹位置的示意图;
图11为图9所示方法中步骤S32的一子流程示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互结合,均在本申请的保护范围之内。另外,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。此外,本文所采用的“第一”、“第二”、“第三”等字样并不对数据和执行次序进行限定,仅是对功能和作用基本相同的相同项或相似项进行区分。
除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本说明书中在本发明的说明书中所使用的术语只是为了描述具体的实施方式的目的,不是用于限制本发明。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明实施例提供了一种图像处理设备10,请参阅图1,为本发明实施例提供的一种图像处理设备10的硬件结构图,具体的,如图1所示,所述图像处理设备10包括通信连接的至少一个处理器11和存储器12(图2中以总线连接、一个处理器为例)。
其中,所述处理器11用于提供计算和控制能力,以控制图像处理设备10执行相应任务,例如,控制所述图像处理设备10执行下述发明实施例提供的任意一种训练皱纹检测模型的方法或下述发明实施例提供的任意一种检测皱纹的方法。
可以理解的是,所述处理器11可以是通用处理器,包括中央处理器 (CentralProcessing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路 (Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field- Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
所述存储器12作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态性计算机可执行程序以及模块,如本发明实施例中的训练皱纹检测模型的方法对应的程序指令/模块,或本发明实施例中检测皱纹的方法对应的程序指令/模块。所述处理器11通过运行存储在存储器12中的非暂态软件程序、指令以及模块,可以实现下述任一方法实施例中的训练皱纹检测模型的方法,以及可以实现下述任一方法实施例中的检测皱纹的方法。具体地,所述存储器12可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器12还可以包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本发明实施例中图像处理设备用于对预设卷积神经网络进行训练,从而得到用于检测人脸皱纹的皱纹检测模型。存储器12用于存储训练皱纹检测模型的方法的计算机实现程序,处理器11用于读取和执行计算机可读指令。具体的,处理器11可用于调用存储于存储器12中的训练皱纹检测模型的方法的计算机实现程序,并执行该计算机实现程序中包含的指令,从而执行有关于训练皱纹检测模型的方法的方法步骤。有关于处理器11执行的训练皱纹检测模型的方法的方法步骤,可参见下述图2-图8对应的描述。可选地,存储器12还用于存储检测皱纹的方法的计算机程序,处理器11可用于调用存储于存储器12中的检测皱纹的方法的计算机实现程序,并执行该计算机实现程序中包含的指令,从而执行有关于检测皱纹的方法的方法步骤。有关于处理器11执行的检测皱纹的方法的方法步骤,可参见下述图9-图11对应的描述。
以下,对处理器11执行的有关方法进行详细说明。
以下,对本发明实施例提供的训练皱纹检测模型的方法进行详细说明,请参阅图2,该方法所述方法S20包括但不限制于以下步骤:
S21:获取包括人脸的图像样本。
S22:根据所述图像样本,截取人脸区域图像,所述人脸区域图像标注有第一标签,其中,所述第一标签包括所述图像样本中的皱纹的皱纹位置和皱纹类别。
S23:将标注有所述第一标签的人脸区域图像作为训练样本,输入预设卷积神经网络,以获取所述预设卷积神经网络输出的所述训练样本的检测结果,所述检测结果包括所述预设卷积神经网络识别出的所述训练样本中皱纹对应的边界框位置、所述边界框位置对应的皱纹属于各个皱纹类别的概率以及所述边界框位置对应的置信度。
S24:根据所述边界框位置、所述皱纹位置,计算所述边界框位置和所述皱纹位置的最小闭包面积,以及,所述边界框位置和所述皱纹位置的并集面积。
S25:根据所述边界框位置、所述皱纹位置、所述最小闭包面积以及所述并集面积,计算所述边界框位置与所述皱纹位置之间的位置偏差。
S26:根据所述边界框位置、所述皱纹位置、所述位置偏差、所述皱纹类别、所述概率以及所述边界框位置对应的置信度,计算所述第一标签和所述检测结果之间的误差。
S27:根据所述误差,反向调整所述预设卷积神经网络的模型参数,以获取皱纹检测模型。
在本实施例中,根据所述边界框位置、所述皱纹位置、所述最小闭包面积以及所述并集面积,来计算所述边界框位置与所述皱纹位置之间的位置偏差,能更好的反映所述边界框位置和所述皱纹位置的重合度。在此基础上,将所述位置偏差用于计算所述第一标签和所述检测结果之间的误差,并根据所述误差反向调整所述预设卷积神经网络的模型参数,可以使得所述模型参数得到更好的优化,从而,得到的皱纹检测模型更加准确。
具体的,在所述步骤S21中,所述图像样本包括人脸,可由上述图像获取装置获取,例如,所述图像样本可以为由所述图像获取装置采集到的证件照或自拍照等。可以理解的是,所述图像样本也可以是现有的开源人脸库中的数据,其中,所述开源人脸库可以为FERET人脸数据库、CMU Multi-PIE人脸数据库或YALE人脸数据库等。在此,对所述图像样本的来源不做限制,只要包括人脸即可。
在所述步骤S22中,所述图像样本中包括人脸和背景,其中,人脸是检测皱纹的目标区域。为了减小背景对皱纹检测的干扰,以及减小后续算法模型的训练时间,只截取人脸区域图像作为样本。如图3所示,可先通过现有的dlib工具包获取人脸框,再结合所述图像样本自身的宽高比例,将所述人脸框的宽高比例调整至所述图像样本自身的宽高比例,从而,可截取所述人脸区域图像。其中,所述dlib工具包是用于图像中的对象检测的工具,例如,将所述dlib工具包用于人脸检测。
如图4所示,所述人脸区域图像标注有第一标签,即为所述人脸区域图像打标签。其中,所述第一标签包括图样样本中的皱纹的皱纹位置和皱纹类别,图4中的标记框为第一标签中的皱纹位置。在一些实施例中,所述皱纹类别为皱纹种类和严重程度的组合,所述皱纹种类用于反馈所述皱纹的类型,例如,所述皱纹种类包括抬头纹、眉间纹、鱼尾纹或法令纹中至少一种。所述严重程度用于反馈所述皱纹的严重程度,例如,所述严重程度包括无、轻度、中度或重度中至少一种。从而,可将所述皱纹类别细分为16类。所述皱纹类别是根据皱纹位于面部的部位而设置的,一个所述皱纹位置对应一个所述皱纹类别。所述皱纹类别和皱纹位置能反映面部衰老情况,以辅助用户能做出具有针对性的缓解措施,例如,保养眼部周围的皮肤,或,改掉抬眉头的习惯等。
在所述步骤S23中,将标注有所述第一标签的人脸区域图像作为训练样本,输入预设卷积神经网络,以获取所述预设卷积神经网络输出的所述训练样本的检测结果。
将训练样本输入预设卷积神经网络,所述预设卷积神经网络中的卷积层会以一组初始的模型参数分别学习所述训练样本中图像的图像特征,比如形状、边缘和类别等,然后,所述预设卷积神经网络会对各图像样本中皱纹类别和皱纹位置进行预测,所述预设卷积神经网络输出所述训练样本的检测结果。其中,所述检测结果包括所述预设卷积神经网络识别出的所述训练样本中皱纹对应的边界框位置、所述边界框位置对应的皱纹属于各个皱纹类别的概率以及所述边界框位置对应的置信度。
其中,所述训练样本中皱纹对应的边界框位置是指预测到的皱纹所在原图像样本中的位置,一般,所述边界框位置包括4个参数:边界框的中心坐标(x,y)、边界框的宽w,边界框的高h。所述边界框位置对应的皱纹属于各皱纹类别的概率是指所述边界框在所述图像样本中框出的皱纹为某一皱纹类别的概率,例如,边界框在所述图像样本中框出的皱纹为抬头纹的概率为0.9。所述边界框位置对应的置信度是指所述边界框中有皱纹的概率以及所述边界框靠近真实皱纹位置的程度,即所述置信度,一方面反映所述边界框在原图像样本中框出的区域不是背景的概率,所述背景是原图像样本中不是皱纹的区域,另一方面,当边界框在原图像样本中框出的区域包括皱纹时,反映边界框为真实皱纹位置 (真实框)的可信程度。
在步骤S24中,根据所述边界框位置、所述皱纹位置,计算所述边界框位置和所述皱纹位置的最小闭包面积,以及,所述边界框位置和所述皱纹位置的并集面积。
其中,将所述皱纹位置作为真实框,所述最小闭包面积是指能框住所述边界框和所述真实框的最小矩形框的面积。例如,如图6所示,所述皱纹位置对应的真实框为框A(实线),框A中存在皱纹c,所述边界框为框B(虚线),则能框住边界框B和真实框A的最小矩形框为框D(实线加粗),由此,所述最小闭包面积即为框D的面积。
所述边界框位置和所述皱纹位置的并集面积是指边界框和真实框的并集区域的面积U。例如,如图5所示,所述并集面积为边界框B和真实框A的并集区域对应的面积。
在步骤S25中,根据所述边界框位置、所述皱纹位置、所述最小闭包面积以及所述并集面积,计算所述边界框位置与所述皱纹位置之间的位置偏差。
所述最小闭包面积及所述并集面积可反映所述边界框位置与所述皱纹位置之间的位置偏差,所述位置偏差即为所述边界框和所述皱纹位置的重合程度。例如,上述举例中,框D的面积和并集面积U可反映出边界框B和真实框B的位置偏差,若框D的面积(最小闭包面积)和并集面积U越大,则说明边界框B和真实框A的重合度越小,位置偏差越大,若框D的面积(最小闭包面积)和并集面积U越小,则说明边界框B和真实框A的重合度越大,位置偏差越小。
从而,可根据所述边界框位置、所述皱纹位置、所述最小闭包面积以及所述并集面积,建立数学模型,计算出所述边界框位置与所述皱纹位置之间的位置偏差。
在步骤S26中,根据所述边界框位置、所述皱纹位置、所述位置偏差、所述皱纹类别、所述概率以及所述边界框位置对应的置信度,计算所述第一标签和所述检测结果之间的误差。
通过所述边界框位置和所述皱纹位置可反映检测结果中边界框位置和第一标签中的皱纹位置之间的位置误差,所述皱纹类别和所述概率可反映检测结果中皱纹类别和第一标签中皱纹类别之间的类别误差,所述边界框位置对应的置信度和所述位置偏差可反映检测结果中边界框为真实皱纹位置(真实框)的可信程度与第一标签中皱纹位置的真实值之间的置信度误差。从而,将误差细分为位置误差、类别误差和置信度误差,能更反映所述预设卷积神经网络模型的检测效果,即反映所述预设卷积神经网络模型中初始模型参数的损失,有益于后续根据所述误差调整模型参数。
最后,在步骤S27中,根据所述误差,调整所述预设卷积网络的模型参数,可以得到更为准确的图像特征,从而,能够提高皱纹检测模型的精度。其中,所述模型参数为卷积核参数,即为卷积核的权重和偏差。
如此,通过多次训练,获取误差,调整模型参数,迭代生成新的皱纹检测模型,直到所述误差收敛在一个范围内波动,停止训练,选取准确度最高的皱纹检测模型对应的模型参数作为最终的皱纹检测模型的模型参数,即可获取训练好的皱纹检测模型。
在本实施例中,该方法根据所述边界框位置、所述皱纹位置、所述最小闭包面积以及所述并集面积,来计算所述边界框位置与所述皱纹位置之间的位置偏差,能更好的反映所述边界框位置和所述皱纹位置的重合度。在此基础上,将所述位置偏差用于计算所述第一标签和所述检测结果之间的误差,并根据所述误差反向调整所述预设卷积神经网络的模型参数,可以使得所述模型参数得到更好的优化,从而,得到的皱纹检测模型更加准确。
在一些实施例中,请参阅图6,所述步骤S25具体包括:
S251:计算所述最小闭包面积与所述并集面积之间的绝对差值。
S252:计算所述边界框位置与所述皱纹位置之间的交并比,所述交并比用于反馈所述边界框位置与所述皱纹位置之间的重叠程度。
S253:将所述交并比减去第一比值,得到所述位置偏差,所述第一比值为所述绝对差值与所述最小闭包面积的比值。
其中,上述交并比的计算公式为:
IoU为并交比,A为皱纹位置的面积,B为边界框的面积,GIoU为位置偏差。
在边界框和皱纹位置无线重合的情况下,位置偏差G为1,在边界框和皱纹位置无交集且无限远的时候位置偏差G取最小值-1,从而,所述位置偏差不仅能反映边界框和皱纹位置的重合程度,还能反映两者之间的非重合程度。
在本实施例中,通过上述步骤计算得到的位置偏差,不仅考虑到了边界框和皱纹位置(真实框)的重合区域,还考虑到了边界框和皱纹位置的非重合区域,例如,当边界框和皱纹位置不存在重合区域时,位置偏差不都为0,而是一个能反映不重合程度的负数,从而,能更好的反映边界框和皱纹位置(真实框)的重合度。
在一些实施例中,所述步骤S26具体包括:
根据以下公式计算所述第一标签和所述检测结果之间的误差:
其中,λcoord和λnoobj为预设权重,M为预设的用于预测皱纹位置的先验框的数量,j为先验框的标号,K×K为预设卷积特征神经网络提取得到的用于确定检测结果的卷积特征图包含的网格数量,i为网格的标号, (xi,yi,wi,hi)为所述边界框位置,()为所述皱纹位置,Ci为所述边界框对应的置信度,为所述皱纹位置的真实值,pi(c)为所述概率,为真实概率,c为皱纹类别,Iij obj表示第i个网格的第j个先验框是否负责皱纹,Iij noobj表示第i个网格的第j个先验框是否不负责皱纹, 其中,若所述位置偏差不为0,则Iij obj为1,Iij noobj为0,若所述位置偏差为0,则Iij obj为0,Iij noobj为1。
在本实施例中,损失函数是综合位置损失、置信度损失以及分类损失后的结果,其中,位置损失对预设卷积神经网络输出的类别的位置信息(边界框)与第一标签中的位置信息(皱纹位置)之间的关系进行约束,即最小化第一标签中皱纹位置()与输出的检测结果中相对应的边界框位置(xi,yi,wi,hi)之间的误差,使得预设卷积神经网络输出的类别的位置信息(即边界框)不断逼近图像样本标注的类别的位置信息(皱纹位置),以优化模型参数。
其中,分类损失对预设卷积神经网络输出的类别的概率与第一标签中的类别的真实概率之间的关系进行约束,即最小化第一标签中的类别的真实概率与输出的检测结果中类别的概率之间的误差,使得预设卷积神经网络输出的类别的概率不断靠近第一标签中的类别的真实概率,以优化模型参数。
置信度损失通过网格是否包含目标(皱纹)来约束优化模型参数,整个训练过程是监督训练,使得预设卷积神经网络输出的检测结果不断逼近第一标签,从而,降低检测结果与第一标签之间的误差,使得模型参数达到最优解,以获得皱纹检测模型。
具体的,将训练样本输入预设卷积神经网络中的特征卷积层进行特征采样,以获取至少一张特征图。预设卷积神经网络将特征图进行K×K 栅格化,即将特征图分成K×K个网格,然后将图片中某个对象(皱纹) 的位置的预测任务交给该对象中心位置所在的网格的边界框,一个网格对应M个先验框,即对于一个网络,预测输出M个边界框去标识该网格对应的图像区域中的皱纹的皱纹位置。例如,对于图像样本中的抬头纹T,由中心落在网格S1的某个范围内的像素组成,则预设卷积神经网络就在网格S1周围以一定大小范围去寻找所有满足抬头纹T的像素,也即,所述抬头纹T由中心落在网格S1的先验框负责预测,一般一个网格对应一组先验框,3个先验框为一组,每个先验框只负责与之相应网格附近的皱纹的预测。
然后,将先验框进行量化,使先验框的尺寸大致符合图像样本中真实框的尺寸比例,从而得到边界框。其中,真实框为图像样本中真实的皱纹位置,由于真实框的尺寸多样,因此,先验框的尺寸也具有多样性。具体的,可以使用K-means算法在训练样本中所有图像样本的真实框中聚类出具有代表性形状的宽和高(训练样本中最常出现的几个真实框的尺寸),例如,扁长、瘦高和近正方形等,每组先验框中的3个先验框具有不同的形状。每个先验框通过在图像样本中滑移微调后会生成一个边界框,从而,一个网格对应3个不同尺寸的边界框。
由于3个不同尺寸的边界框均可负责预测网格对应的皱纹,但对于一个网格需要确定与真实框最匹配的边界框进行误差计算,其他边界框与真实框之间的误差可适当减小,以减小预设卷积神经网络的误差,又能反映预设卷积神经网络的预测偏差。例如,对于网格S1,其对应的皱纹为抬头纹,有3个中心落在网格S1中的3个先验框,其中,先验框L 与网格S1处的真实框ground truth最接近,从而,将先验证框L生成的边界框L’作为真实框ground truth的预测值,参与误差计算,将与真实框ground truth相差较大的先验框M生成的边界框M’、先验框N生成的边界框N’均进行权重处理,以减小对误差的干扰。
具体的,当第i个网格的第j个先验框对应的边界框与真实框之间的位置偏差不为0时,则说明第i个网格的第j个先验框负责皱纹(包括皱纹),则Iij obj为1,Iij noobj为0,则第i个网格的第j个先验框对应的边界框与真实框之间的误差()参与计算第一标签和所述检测结果之间的误差,当第i个网格的第j个先验框对应的边界框与真实框之间的位置偏差为0时,则说明第i个网格的第 j个先验框不负责皱纹(不包括皱纹),则Iij obj为0,Iij noobj为1,则第i个网格的第j个先验框对应的边界框的误差乘以预设权重λnoobj后(即再参与计算第一标签和所述检测结果之间的误差,从而,使得边界框和真实框在有交集的情况下,参与误差计算,进行梯度回传,反向传播,从而得以训练,另一方面,使得边界框和真实框在没有交集的情况下,也能以一定的权重进行梯度回传,反向传播,从而得以训练,以提高皱纹检测模型的准确度。
在一些实施例中,请参阅图7,所述步骤S23包括:
S231:将标注有所述第一标签的人脸区域图像作为训练样本,输入所述预设卷积神经网络的特征卷积层进行特征采样,以获取第一训练特征图和第二训练特征图,其中,所述第一训练特征图相对于所述人脸区域图像的第一下采样倍数大于所述第二训练特征图相对于所述人脸区域图像的第二下采样倍数,并且所述第一下采样倍数小于32。
S232:将所述第一训练特征图和所述第二训练特征图输入所述预设卷积神经网络的检测卷积层,以获取所述训练样本的检测结果。
将训练样本输入至所述特征卷积层,所述特征卷积层会以一组初始的模型参数进行特征采样,得到第一训练特征图和第二训练特征图。所述第一训练特征图和所述第二训练特征图均相对于原图像样本缩小尺寸,即相对于原图像样本为下采样。例如,若输入的人脸区域图像的尺寸为416*416,经特征卷积层处理后,得到的训练特征图的尺寸为13*13,则训练特征图相对于人脸区域图像的下采样倍数为416/13=32倍。下采样倍数越大,则得到的训练特征图越小,训练特征图的感受野越大,从而,适合检测所述人脸区域图像中尺寸对比大的对象。
其中,所述第一训练特征图相对于所述人脸区域图像的第一下采样倍数大于所述第二训练特征图相对于所述人脸区域图像的第二下采样倍数,从而,可以实现不同细粒度的检测。
由于人脸中的皱纹区域属于中等以下物体区域,若采用的训练特征图的感受野较大,则不利于皱纹的检测。因此,所述第一下采样倍数小于32。也即,第一训练特征图具有中等尺度的感受野,适合检测中等尺寸的对象,例如抬头纹等,第二训练特征图具有小尺度的感受野,适合检测小尺寸的对象,例如鱼尾纹等。
通过采用上述两种尺寸的第一训练特征图和第二训练特征图,不仅可以更准确地检测皱纹,而且,还能减少边界框冗余,并且,相对于采用3种或3种以上的训练特征图,能简化特征卷积层的模型参数,提高预设卷积神经网络的学习效率。
在本实施例中,利用多尺寸的训练特征图进行检测,可消除图像的空间维度和分辨率对检测结果的影响,此外,通过上述第一训练特征图和第二训练特征图,在能兼顾多种尺寸的目标,即,能满足中等尺寸目标(例如抬头纹)的检测和小尺寸目标(例如鱼尾纹)的检测,检测精度高,并且,能减少边界框冗余,使得预设卷积神经网络的学习效率高。
在一些实施例中,请参阅图8,在所述步骤S23之前还包括:
S28:对所述训练样本进行数据增广处理,所述数据增广处理包括图像平移、旋转、裁剪和直方图均值化中的至少一种。
为了提高训练样本的数据量,避免因数据量较少导致模型不准确的问题,对所述训练样本进行数据增广处理,具体采用几何变换来进行数据增广,也即,所述数据增广处理包括图像平移、旋转、裁剪和直方图均值化中的至少一种。例如,采用图像平移,或,图像平移与旋转对所述训练样本进行数据增广。
为了提高模型的精度,在一些实施例中,所述对所述训练样本进行数据增广处理具体包括:
S29:遍历所述训练样本中的人脸区域图像,对目标人脸区域图像从所述图像平移、旋转、裁剪和直方图均值化中随机选择至少一种进行数据增广处理,其中,所述目标人脸区域图像为所述训练样本中的任一人脸区域图像。
在此实施例中,对训练样本不统一采用某种数据增广方式进行处理,而是,对训练样本中的任一目标人脸区域图像,以随机选择的方式从所述图像平移、旋转、裁剪和直方图均值化中随机选择至少一种进行数据增广处理。例如,对于人脸区域图像1#选择图像平移和旋转进行数据增广,对于人脸区域图像2#选择图像裁剪进行数据增广处理等。可以理解的是,对于一目标人脸区域图像,其对应的数据增广处理的组合方式是随机的。从而,使得数据增广后的训练样本更加真实,有利于提高模型的精度。
以下,对本发明实施例所提供的检测皱纹的方法进行详细说明,请参阅图9,所述方法S30包括但不限制于以下步骤:
S31:获取待测人脸图像。
S32:利用上述任一项实施例中的皱纹检测模型检测所述待测人脸图像,获取所述待测人脸图像中的皱纹的皱纹位置和皱纹类别。
所述待测人脸图像为人脸面部图像,可由上述图像获取装置20获取,例如,所述待测人脸图像可以为对所述图像获取装置20采集到的证件照或自拍照等(初始待测人脸图像)进行截取人脸区域后获取的人脸面部图像。在此,不对所述待测人脸图像的来源做任何限制,为人脸面部图像即可。
可以理解的是,当初始待测人脸图像还包括背景时,例如上述证件照或自拍照还包括背景,可先通过现有的dlib工具包获取人脸框,再结合所述初始待测人脸图像自身的宽高比例,将所述人脸框的宽高比例调整至所述初始待测人脸图像自身的宽高比例,从而,截取人脸面部图像,并作为最终的所述待测人脸图像。通过上述方式,截取人脸面部图像,去除所述待测人脸图像的背景,能够减小背景对皱纹检测的干扰,提高检测的准确率。
将所述待测人脸图像输入所述皱纹检测模型,即可获取所述待测人脸图像中的皱纹位置和皱纹类别。例如,如图10所示,将待测人脸图像 A输入所述皱纹检测模型,经特征处理后,检测出所述待测人脸图像A 中存在的皱纹是:轻度抬头纹、无鱼尾纹、无眉间纹以及轻度法令纹,图11中的标记框为各皱纹种类对应的位置。
可以理解的是,所述皱纹检测模型是通过上述实施例中训练皱纹检测模型的方法训练得到的,与上述实施例中的皱纹检测模型的结构和功能均相同,在此不再一一赘述。
在本实施例中,通过所述皱纹检测模型,对待测人脸图像进行检测,能直接定位出皱纹类别和皱纹位置,从而,能快速准确地直接对皱纹进行定位及分类,有助于用户针对皱纹的类别的位置,做出更加精细化的护理。
在一些实施例中,请参阅图11,所述步骤S32具体包括:
S321:将所述待测人脸图像输入至所述皱纹检测模型中的特征卷积层进行特征采样,以获取第一待测特征图和第二待测特征图,其中,所述第一待测特征图相对于所述待测人脸图像的第一下采样倍数大于所述第二待测特征图相对于所述待测人脸图像的第二下采样倍数,并且所述第二下采样倍数小于32。
S322:将所述第一待测特征图和所述第二待测特征图输入至所述皱纹检测模型中的检测卷积层,以获取所述待测人脸图像中的皱纹的皱纹位置和皱纹类别。
将所述待测人脸图像输入至所述皱纹检测模型中的特征卷积层进行特征采样,得到第一待测特征图和第二待测特征图。所述第一待测特征图和所述第二待测特征图均相对于所述待测人脸图像缩小尺寸,即相对于所述待测人脸图像为下采样。下采样倍数越大,则得到的待测特征图越小,待测特征图的感受野越大,从而,适合检测所述待测人脸图像中尺寸对比大的对象。
其中,所述第一待测特征图相对于所述待测人脸图像的第一下采样倍数大于所述第二待测特征图相对于所述人脸区域图像的第二下采样倍数,从而,可以实现不同细粒度的检测。
由于人脸中的皱纹区域属于中等以下物体区域,若采用的训练特征图的感受野较大,则不利于皱纹的检测。因此,所述第一下采样倍数小于32。也即,第一待测特征图具有中等尺度的感受野,适合检测中等尺寸的对象,例如抬头纹等,第二待测特征图具有小尺度的感受野,适合检测小尺寸的对象,例如鱼尾纹等。
通过采用上述两种尺寸的第一待测特征图和第二待测特征图,不仅可以更准确地检测皱纹,而且,还能减少边界框冗余,并且,相对于采用3种或3种以上的待测特征图,能简化特征卷积层的模型参数,提高皱纹检测模型的检测效率。
在本实施例中,利用多尺寸的待测特征图进行检测,可消除图像的空间维度和分辨率对检测结果的影响,此外,通过上述第一待测特征图和第二待测特征图,在能兼顾多种尺寸的目标,即,能满足中等尺寸目标(例如抬头纹)的检测和小尺寸目标(例如鱼尾纹)的检测,检测精度高,并且,能减少边界框冗余,检测效率高。
本发明其中一实施例还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使图像处理设备执行,例如,执行以上描述的图2-图11中的方法。
本发明实施例提供了一种计算机程序产品,包括存储在非易失性计算机可读存储介质上的计算程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任意方法实施例中的检测皱纹的方法,例如,执行以上描述的图2-图11中方法步骤。
需要说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (8)
1.一种图像处理设备,其特征在于,包括存储器以及一个或多个处理器,所述一个或多个处理器用于执行存储在所述存储器中的一个或多个计算机程序;所述一个或多个计算机程序被存储在所述存储器中;所述一个或多个处理器在执行所述一个或多个计算机程序时,执行如下步骤:
获取包括人脸的图像样本;
根据所述图像样本,截取人脸区域图像,所述人脸区域图像标注有第一标签,其中,所述第一标签包括所述图像样本中的皱纹的皱纹位置和皱纹类别;
将标注有所述第一标签的人脸区域图像作为训练样本,输入预设卷积神经网络,以获取所述预设卷积神经网络输出的所述训练样本的检测结果,所述检测结果包括所述预设卷积神经网络识别出的所述训练样本中皱纹对应的边界框位置、所述边界框位置对应的皱纹属于各个皱纹类别的概率以及所述边界框位置对应的置信度;
根据所述边界框位置、所述皱纹位置,计算所述边界框位置和所述皱纹位置的最小闭包面积,以及,所述边界框位置和所述皱纹位置的并集面积;
根据所述边界框位置、所述皱纹位置、所述最小闭包面积以及所述并集面积,计算所述边界框位置与所述皱纹位置之间的位置偏差;
根据所述边界框位置、所述皱纹位置、所述位置偏差、所述皱纹类别、所述概率以及所述边界框位置对应的置信度,计算所述第一标签和所述检测结果之间的误差;
根据所述误差,反向调整所述预设卷积神经网络的模型参数,以获取皱纹检测模型。
2.根据权利要求1所述的设备,其特征在于,所述处理器在执行所述根据所述边界框位置、所述皱纹位置、所述最小闭包面积以及所述并集面积,计算所述边界框位置与所述皱纹位置之间的位置偏差的步骤的过程中,具体执行如下步骤:
计算所述最小闭包面积与所述并集面积之间的绝对差值;
计算所述边界框位置与所述皱纹位置之间的交并比,所述交并比用于反馈所述边界框位置与所述皱纹位置之间的重叠程度;
将所述交并比减去第一比值,得到所述位置偏差,所述第一比值为所述绝对差值与所述最小闭包面积的比值。
3.根据权利要求1所述的设备,其特征在于,所述处理器在执行所述根据所述边界框位置、所述皱纹位置、所述位置偏差、所述皱纹类别、所述概率以及所述边界框位置对应的置信度,计算所述第一标签和所述检测结果之间的误差的步骤的过程中,具体执行如下步骤:
根据以下公式计算所述第一标签和所述检测结果之间的误差:
其中,λcoord和λnoobj为预设权重,M为预设的用于预测皱纹位置的先验框的数量,j为所述先验框的标号,K×K为所述预设卷积特征神经网络提取得到的用于确定所述检测结果的卷积特征图包含的网格数量,i为网格的标号,(xi,yi,wi,hi)为所述边界框位置,为所述皱纹位置,Ci为所述边界框对应的置信度,为所述皱纹位置的真实值,pi(c)为所述概率,为真实概率,c为皱纹类别,Iij obj表示第i个网格的第j个先验框是否负责皱纹,Iij noobj表示第i个网格的第j个先验框是否不负责皱纹,其中,若所述位置偏差不为0,则Iij obj为1,Iij noobj为0,若所述位置偏差为0,则Iij obj为0,Iij noobj为1。
4.根据权利要求1-3任一项所述的设备,其特征在于,所述处理器在执行所述将标注有所述第一标签的人脸区域图像作为训练样本,输入预设卷积神经网络,以获取所述预设卷积神经网络输出的所述训练样本的检测结果的步骤的过程中,具体执行如下步骤:
将标注有所述第一标签的人脸区域图像作为训练样本,输入所述预设卷积神经网络的特征卷积层进行特征采样,以获取第一训练特征图和第二训练特征图,其中,所述第一训练特征图相对于所述人脸区域图像的第一下采样倍数大于所述第二训练特征图相对于所述人脸区域图像的第二下采样倍数,并且所述第一下采样倍数小于32;
将所述第一训练特征图和所述第二训练特征图输入所述预设卷积神经网络的检测卷积层,以获取所述训练样本的检测结果。
5.根据权利要求1所述的设备,其特征在于,所述处理器在执行所述将标注有所述第一标签的人脸区域图像作为训练样本,输入预设卷积神经网络的特征卷积层进行特征采样,以获取第一训练特征图和第二训练特征图的步骤之前,还执行如下步骤:
对所述训练样本进行数据增广处理,所述数据增广处理包括图像平移、旋转、裁剪和直方图均值化中的至少一种。
6.根据权利要求5所述的设备,其特征在于,所述处理器具体用于执行如下步骤:
遍历所述训练样本中的人脸区域图像,对目标人脸区域图像从所述图像平移、旋转、裁剪和直方图均值化中随机选择至少一种进行数据增广处理,其中,所述目标人脸区域图像为所述训练样本中的任一人脸区域图像。
7.根据权利要求1所述的设备,所述处理器在执行所述根据所述误差,反向调整所述预设卷积神经网络的模型参数,以获取皱纹检测模型之后,还执行如下步骤:
获取待测人脸图像;
利用所述皱纹检测模型检测所述待测人脸图像,获取所述待测人脸图像中的皱纹的皱纹位置和皱纹类别。
8.根据权利要求7所述的设备,其特征在于,所述处理器在执行所述利用所述皱纹检测模型检测所述待测人脸图像,获取所述待测人脸图像中的皱纹的皱纹位置和皱纹类别的步骤的过程中,具体执行如下步骤:
将所述待测人脸图像输入至所述皱纹检测模型中的特征卷积层进行特征采样,以获取第一待测特征图和第二待测特征图,其中,所述第一待测特征图相对于所述待测人脸图像的第一下采样倍数大于所述第二待测特征图相对于所述待测人脸图像的第二下采样倍数,并且所述第二下采样倍数小于32;
将所述第一待测特征图和所述第二待测特征图输入至所述皱纹检测模型中的检测卷积层,以获取所述待测人脸图像中的皱纹的皱纹位置和皱纹类别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010984802.6A CN112200017A (zh) | 2020-09-18 | 2020-09-18 | 图像处理设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010984802.6A CN112200017A (zh) | 2020-09-18 | 2020-09-18 | 图像处理设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112200017A true CN112200017A (zh) | 2021-01-08 |
Family
ID=74015534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010984802.6A Pending CN112200017A (zh) | 2020-09-18 | 2020-09-18 | 图像处理设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112200017A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112926566A (zh) * | 2021-02-26 | 2021-06-08 | 南京信息工程大学 | 一种基于网页验证码的图像标注方法 |
-
2020
- 2020-09-18 CN CN202010984802.6A patent/CN112200017A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112926566A (zh) * | 2021-02-26 | 2021-06-08 | 南京信息工程大学 | 一种基于网页验证码的图像标注方法 |
CN112926566B (zh) * | 2021-02-26 | 2023-06-30 | 南京信息工程大学 | 一种基于网页验证码的图像标注方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111860670B (zh) | 域自适应模型训练、图像检测方法、装置、设备及介质 | |
KR102592270B1 (ko) | 얼굴 랜드마크 검출 방법과 장치, 컴퓨터 장치, 및 저장 매체 | |
CN111160269A (zh) | 一种人脸关键点检测方法及装置 | |
KR101896357B1 (ko) | 객체를 검출하는 방법, 디바이스 및 프로그램 | |
CN111178251B (zh) | 一种行人属性识别方法及系统、存储介质及终端 | |
CN109711416B (zh) | 目标识别方法、装置、计算机设备和存储介质 | |
WO2021129181A1 (en) | Portrait segmentation method, model training method and electronic device | |
CN108305260B (zh) | 一种图像中角点的检测方法、装置及设备 | |
CN113361495A (zh) | 人脸图像相似度的计算方法、装置、设备及存储介质 | |
Do et al. | Automatic license plate recognition using mobile device | |
CN111985458A (zh) | 一种检测多目标的方法、电子设备及存储介质 | |
CN111968134A (zh) | 目标分割方法、装置、计算机可读存储介质及计算机设备 | |
CN113160239A (zh) | 一种违法用地检测方法及装置 | |
CN112200017A (zh) | 图像处理设备 | |
Liu et al. | Remote sensing image vehicle detection based on pre-training and random-initialized fusion network | |
CN112347843A (zh) | 一种训练皱纹检测模型的方法及相关装置 | |
CN116798041A (zh) | 图像识别方法、装置和电子设备 | |
CN112101185B (zh) | 一种训练皱纹检测模型的方法、电子设备及存储介质 | |
Mamalet et al. | Embedded facial image processing with convolutional neural networks | |
Zhu et al. | Real-time traffic sign detection based on YOLOv2 | |
CN111967365B (zh) | 影像连接点的提取方法和装置 | |
CN110717969A (zh) | 一种阴影生成方法和装置 | |
Brown | Deep face-iris recognition using robust image segmentation and hyperparameter tuning | |
Fanfani et al. | Addressing Domain Shift in Pedestrian Detection from Thermal Cameras without Fine-Tuning or Transfer Learning | |
Jia et al. | Is normalized iris optimal for iris recognition based on deep learning? |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210108 |