CN116797809A - 一种眼镜分类方法、装置、设备和存储介质 - Google Patents
一种眼镜分类方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN116797809A CN116797809A CN202210234308.7A CN202210234308A CN116797809A CN 116797809 A CN116797809 A CN 116797809A CN 202210234308 A CN202210234308 A CN 202210234308A CN 116797809 A CN116797809 A CN 116797809A
- Authority
- CN
- China
- Prior art keywords
- glasses
- face image
- information corresponding
- user
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000011521 glass Substances 0.000 title claims abstract description 157
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 20
- 210000004709 eyebrow Anatomy 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 10
- 238000013145 classification model Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 210000000887 face Anatomy 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种眼镜分类方法、装置、设备和存储介质,应用于人工智能领域中,该方法包括:获取用户脸部图像;提取用户脸部图像中的人脸关键点,确定每个人脸关键点对应的位置信息;基于各个人脸关键点对应的各个位置信息,对用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的目标脸部图像;基于预先利用样本数据训练获得的预设分类网络模型,对目标脸部图像进行眼镜分类,确定目标眼镜类别。通过本发明实施例的技术方案,可以实现眼镜类别的分类,并且提高眼镜分类的准确性。
Description
技术领域
本发明实施例涉及人工智能技术,尤其涉及一种眼镜分类方法、装置、设备和存储介质。
背景技术
随着人工智能的快速发展,可以基于人物脸部图像自动生成3D虚拟人物形象。除了五官这类比较重要的主要特征可以描述虚拟形象与真实人物相像程度之外,佩戴的眼镜也可以提升二者的相似性,比如有人佩戴方框眼镜,有人佩戴圆框眼镜等。
目前,通常是基于脸部图像中边缘的不连续性检测是否存在眼镜边框,从而确定出用户是否佩戴有眼镜。
然而,在实现本发明过程中,发明人发现现有技术中至少存在如下问题:
现有技术中往往只能检测出用户是否佩戴有眼镜,无法检测出用户佩戴的具体眼镜类别,从而无法生成与用户佩戴同一眼镜类别的眼镜模型,降低了虚拟人物与真实人物之间的相似程度。
发明内容
本发明实施例提供了一种眼镜分类方法、装置、设备和存储介质,以实现眼镜类别的分类,并且提高眼镜分类的准确性。
第一方面,本发明实施例提供了一种眼镜分类方法,包括:
获取用户脸部图像;
提取所述用户脸部图像中的人脸关键点,确定每个人脸关键点对应的位置信息;
基于各个所述人脸关键点对应的各个位置信息,对所述用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的目标脸部图像;
基于预先利用样本数据训练获得的预设分类网络模型,对所述目标脸部图像进行眼镜分类,确定目标眼镜类别。
第二方面,本发明实施例还提供了一种眼镜分类装置,包括:
用户脸部图像获取模块,用于获取用户脸部图像;
人脸关键点提取模块,用于提取所述用户脸部图像中的人脸关键点,确定每个人脸关键点对应的位置信息;
图像截取模块,用于基于各个所述人脸关键点对应的各个位置信息,对所述用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的目标脸部图像;
眼镜分类模块,用于基于预先利用样本数据训练获得的预设分类网络模型,对所述目标脸部图像进行眼镜分类,确定目标眼镜类别。
第三方面,本发明实施例还提供了一种电子设备,所述电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任意实施例所提供的眼镜分类方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例所提供的眼镜分类方法。
上述发明中的实施例具有如下优点或有益效果:
通过对用户脸部图像中的人脸关键点进行提取,并基于提取出的各个人脸关键点对应的各个位置信息,对用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的仅包括眼镜佩戴区域的目标脸部图像,并基于预先利用样本数据训练获得的预设分类网络模型,可以对目标脸部图像进行眼镜分类,确定具体的目标眼镜类别,从而利用预设分类网络模型实现了眼镜类别的分类,并且通过对用户脸部图像中的眼镜佩戴区域进行截取,可以提高眼镜的特征占比,从而降低了模型输入噪声,提高了眼镜分类的准确性。
附图说明
图1是本发明实施例提供的一种眼镜分类方法的流程图;
图2是本发明实施例提供的一种眼镜分类方法的流程图;
图3是本发明实施例所涉及的一种预设二分类网络模型的示例;
图4是本发明实施例所涉及的一种预设眼镜分类网络模型的示例;
图5是本发明实施例提供的一种眼镜分类装置的结构示意图;
图6是本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
图1为本发明实施例提供的一种眼镜分类方法的流程图,本实施例可适用于对用户脸部图像中的眼镜进行分类的情况,尤其是可以用于在3D虚拟人物形象生成过程中的眼镜分类的应用场景中。该方法可以由眼镜分类装置来执行,该装置可以由软件和/或硬件的方式来实现,集成于电子设备中。如图1所示,该方法具体包括以下步骤:
S110、获取用户脸部图像。
其中,用户脸部图像可以是指针对用户的脸部所拍摄的图像。示例性地,本实施例中获取的用户脸部图像可以是人脸正面图像,以便后续可以基于人脸正面图像提取出完整的眼镜轮廓,进一步提高眼镜分类的准确性。
具体地,可以获取用于生成3D虚拟人物形象所使用的用户脸部图像,以便对该用户脸部图像中用户所佩戴的眼镜进行分类。
S120、提取用户脸部图像中的人脸关键点,确定每个人脸关键点对应的位置信息。
其中,人脸关键点可以是指用户脸部图像中的脸部特征关键点。本实施例中的人脸关键点可以包括用于表征出眼镜佩戴区域的关键点。例如,人脸关键点可以包括:眉毛关键点、鼻子关键点和脸部轮廓关键点。人脸关键点对应的位置信息可以是指在图像坐标系下人脸关键点所在位置的坐标信息。
具体地,可以基于人脸关键点提取方式,比如利用DAN(Deep Alignment Network)深度对齐网络模型等,在用户脸部图像提取出全脸区域内的每个人脸关键点,获得每个人脸关键点对应的位置信息。例如,可以提取出从太阳穴位置到下巴边缘位置之间的全脸区域内的各个人脸关键点对应的各个位置信息。
S130、基于各个人脸关键点对应的各个位置信息,对用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的目标脸部图像。
其中,眼镜佩戴区域可以是指用户佩戴的眼镜所在的图像区域。例如,眼镜佩戴区域可以是指太阳穴位置与鼻尖之间的脸部区域。
具体地,基于提取出的各个人脸关键点对应的各个位置信息,可以定位出用户脸部图像中的眼镜佩戴区域,并基于该眼镜佩戴区域的定位信息,可以利用Opencv截图方式,对用户脸部图像进行截图,获得仅包括眼镜佩戴区域的目标脸部图像,从而可以提高眼镜的特征占比,去除图像的多余噪声影响,进而提高眼镜分类的准确性。
示例性地,S130可以包括:基于各个人脸关键点对应的各个位置信息,确定眼镜佩戴区域对应的起始位置信息、截取宽度信息和截取高度信息;基于起始位置信息、截取宽度信息和截取高度信息,对用户脸部图像进行截图处理,获得截取出的目标脸部图像。
其中,起始位置信息可以是指用于截取眼镜佩戴区域的预设截取起始点的位置信息。预设截取起始点可以是指眼镜佩戴区域的左上角位置点、右上角位置点、左下角位置点或者右下角位置点,其具体可以基于截图方向进行确定。截取宽度信息可以是指眼镜佩戴区域的宽度信息。例如,本实施例可以将人脸宽度信息作为截取宽度信息,以保证截取出的眼镜的完整性,进一步提高眼镜分类准确性。截取高度信息可以是指眼镜佩戴区域的高度信息。例如,眼镜通常不会超过眉毛也不会低于鼻子,从而本实施例可以将眉毛与鼻尖之间的距离作为截取高度信息。
具体地,本实施例可以基于起始位置信息、截取宽度信息和截取高度信息这三个参数,对用户脸部图像进行截图处理,从而提高目标脸部图像的截图效率,进而提高眼镜的分类效率。
S140、基于预先利用样本数据训练获得的预设分类网络模型,对目标脸部图像进行眼镜分类,确定目标眼镜类别。
其中,样本数据可以包括每种眼镜类别对应的样本脸部图像。预设分类网络模型可以是预先设置的,用于眼镜分类的卷积神经网络模型。本实施例可以将未佩戴眼镜作为预设分类网络模型可识别的一种眼镜类别进行眼镜分类。例如,预设分类网络模型识别出的目标眼镜类别可以包括但不限于:未佩戴眼镜、全框方框眼镜、全框圆框眼镜、无框眼镜、半框眼镜或者墨镜。
具体地,本实施例可以预先基于每种眼镜类别对应的样本图像,对预设分类网络模型进行训练,以使训练后的预设分类网络模型可以准确地识别出每种眼镜类别。例如,可以将目标脸部图像输入至训练好后的预设分类网络模型中,并基于预设分类网络模型的输出,获得具体的目标眼镜类别,从而实现眼镜类别的具体分类,以便后续可以生成与用户佩戴同一眼镜类别的眼镜模型,提高了虚拟人物与真实人物之间的相似程度。
本实施例的技术方案,通过对用户脸部图像中的人脸关键点进行提取,并基于提取出的各个人脸关键点对应的各个位置信息,对用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的仅包括眼镜佩戴区域的目标脸部图像,并基于预先利用样本数据训练获得的预设分类网络模型,可以对目标脸部图像进行眼镜分类,确定具体的目标眼镜类别,从而利用预设分类网络模型实现了眼镜类别的分类,并且通过对用户脸部图像中的眼镜佩戴区域进行截取,可以提高眼镜的特征占比,从而降低了模型输入噪声,提高了眼镜分类的准确性。
在上述技术方案的基础上,基于各个人脸关键点对应的各个位置信息,确定眼镜佩戴区域对应的起始位置信息、截取宽度信息和截取高度信息,可以包括:获取每个人脸关键点对应的每个位置信息中的横坐标信息和纵坐标信息;基于各个横坐标信息和各个纵坐标信息,确定预设截取起始点对应的起始位置信息;基于最小的横坐标信息和最大的横坐标信息,确定截取宽度信息;基于眉毛关键点对应的位置信息和鼻尖关键点对应的位置信息,确定截取高度信息。
具体地,以图像的左上角为原点建立的图像坐标系中,每个人脸关键点的横坐标信息和纵坐标信息均为大于零的数值,从而可以直接对各个人脸关键点的横坐标信息进行比较,以及对各个人脸关键点的纵坐标信息进行比较,获得预设截取起始点对应的起始位置信息。例如,对于预设截取起始点为眼镜佩戴区域的左上角位置点而言,基于各个横坐标信息和各个纵坐标信息,确定预设截取起始点对应的起始位置信息,可以包括:基于最小的横坐标信息和最小的纵坐标信息,确定预设截取起始点对应的起始位置信息。具体地,可以将最小的横坐标信息和最小的纵坐标信息组成起始位置信息。又如,对于预设截取起始点为眼镜佩戴区域的右上角位置点而言,可以将最大的横坐标信息和最小的纵坐标信息组成起始位置信息。本实施例可以通过将最大的横坐标信息与最小的横坐标信息进行相减,从而获得人脸宽度信息,即截取宽度信息。本实施例可以通过基于眉毛关键点对应的位置信息和鼻尖关键点对应的位置信息,确定眉毛关键点与鼻尖关键点之间的距离,作为截取高度信息。
示例性地,基于眉毛关键点对应的位置信息和鼻尖关键点对应的位置信息,确定截取高度信息,可以包括:将左眉毛最高位置的关键点对应的纵坐标信息与鼻尖最低位置的关键点对应的纵坐标信息进行相减,获得的相减结果确定为截取高度信息。具体地,本实施例还可以直接将左眉毛最高位置的关键点的纵坐标信息与鼻尖最低位置的关键点的纵坐标信息之间的差值作为截取高度信息,从而提高信息确定效率,进而提高眼镜分类效率。
图2为本发明实施例提供的一种眼镜分类方法的流程图,本实施例在上述实施例的基础上,预设分类网络模型可以包括:预设二分类网络模型和预设眼镜分类模型;并在此基础上,对步骤“基于预先利用样本数据训练获得的预设分类网络模型,对目标脸部图像进行眼镜分类,确定目标眼镜类别”进行了进一步优化,其中与上述各实施例相同或相应的术语的解释在此不再赘述。
参见图2,本实施例提供的眼镜分类方法具体包括以下步骤:
S210、获取用户脸部图像。
S220、提取用户脸部图像中的人脸关键点,确定每个人脸关键点对应的位置信息。
S230、基于各个人脸关键点对应的各个位置信息,对用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的目标脸部图像。
S240、将目标脸部图像输入至预设二分类网络模型中,并根据预设二分类网络模型的输出,确定目标脸部图像中的用户是否佩戴眼镜。
其中,预设二分类网络模型可以是用于检测用户是否佩戴有眼镜的网络模型。例如,预设二分类网络模型可以是但不限于二分类卷积神经网络模型,以解决是否配戴眼镜的二分类问题。图3是给出了一种预设二分类网络模型的示例。如图3所示,预设二分类网络模型可以采用Conv卷积层+BN归一化层+ReLU激活层+MaxPooling最大池化层+Linear线性层的卷积结构进行有无佩戴眼镜的分类。图3中的每个立方体代表的是经过卷积操作后获得的特征图,比如,第一个3*15*5*5的立方体表征的是3通道的图像经过15个卷积核大小为5*5的卷积操作后获得的特征图。
具体地,本实施例可以将佩戴有眼镜的样本脸部图像作为正样本,将未佩戴眼镜的样本脸部图像作为负样本,基于SGD随机梯度下降方式对预设二分类网络模型进行有无佩戴眼镜的训练,其中,学习率为0.001,当二分类损失函数,比如BCEWithLogitsLoss二元交叉熵损失函数的训练误差小于预设误差或者误差变化范围趋于稳定,或者迭代训练次数等于预设次数时,可以确定预设二分类网络模型训练完成,从而利用训练好的预设二分类网络模型可以准确地确定出目标脸部图像中的用户是否佩戴眼镜。例如,预设二分类网络模型可以输出用户佩戴眼镜的概率值,并在该概率值大于0.5时可以确定用户佩戴眼镜,否则确定用户未佩戴眼镜。
S250、若用户佩戴眼镜,则将目标脸部图像输入至预设眼镜分类网络模型中,并根据预设眼镜分类模型的输出,确定用户佩戴的目标眼镜类别。
其中,预设眼镜分类网络模型可以是用于检测用户佩戴的具体眼镜类别的网络模型。例如,预设眼镜分类网络模型可以是但不限于ResNet残差网络模型。图3是给出了一种预设眼镜分类网络模型的示例。如图3所示,预设眼镜分类网络模型可以是包含17个卷积层和1个全连接层的ResNet18残差网络模型。预设眼镜分类模型可识别的目标眼镜类别可以包括:全框方框眼镜、全框圆框眼镜、无框眼镜、半框眼镜或者墨镜。
具体地,本实施例可以对佩戴有每种眼镜类别对应的用户脸部图像进行截图处理,获得每种眼镜类别对应的样本脸部图像,并将每种眼镜类别对应的样本脸部图像输入至预设眼镜分类网络模型中,基于SGD随机梯度下降方式对预设眼镜分类网络模型进行训练,并在CrossEntropyLoss交叉熵损失函数的训练误差小于预设误差或者误差变化范围趋于稳定,或者迭代训练次数等于预设次数时,可以确定预设眼镜分类网络模型训练完成,从而利用训练好的预设眼镜分类网络模型可以准确地确定出用户佩戴的目标眼镜类别。例如,预设眼镜分类网络模型可以输出每个眼镜类别对应的概率值,将最大概率值对应的眼镜类别作为目标眼镜类别。
示例性地,若基于预设二分类网络模型确定用户未佩戴眼镜,则可以直接将未佩戴眼镜的最终结果进行输出,从而只需在检测出用户佩戴眼镜时再进行眼镜分类,进一步提高眼镜分类准确性和分类效率。
本实施例的技术方案,通过先利用预设二分类网络模型检测目标脸部图像中的用户是否佩戴眼镜,并在检测出用户佩戴眼镜后,再利用预设眼镜分类模型进行眼镜类别的检测,从而可以进一步提高眼镜分类的准确性。
以下是本发明实施例提供的眼镜分类装置的实施例,该装置与上述各实施例的眼镜分类方法属于同一个发明构思,在眼镜分类装置的实施例中未详尽描述的细节内容,可以参考上述眼镜分类方法的实施例。
图5为本发明实施例提供的一种眼镜分类装置的结构示意图,本实施例可适用于对用户脸部图像中的眼镜进行分类的情况,尤其是可以用于在3D虚拟人物形象生成过程中的眼镜分类的应用场景中。如图5所示,该装置具体包括:用户脸部图像获取模块510、人脸关键点提取模块520、图像截取模块530和眼镜分类模块540。
其中,用户脸部图像获取模块510,用于获取用户脸部图像;人脸关键点提取模块520,用于提取用户脸部图像中的人脸关键点,确定每个人脸关键点对应的位置信息;图像截取模块530,用于基于各个人脸关键点对应的各个位置信息,对用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的目标脸部图像;眼镜分类模块540,用于基于预先利用样本数据训练获得的预设分类网络模型,对目标脸部图像进行眼镜分类,确定目标眼镜类别。
可选地,图像截取模块530,包括:
截取信息确定单元,用于基于各个人脸关键点对应的各个位置信息,确定眼镜佩戴区域对应的起始位置信息、截取宽度信息和截取高度信息;
图像截取单元,用于基于起始位置信息、截取宽度信息和截取高度信息,对用户脸部图像进行截图处理,获得截取出的目标脸部图像。
可选地,截取信息确定单元,包括:
坐标信息获取子单元,用于获取每个人脸关键点对应的每个位置信息中的横坐标信息和纵坐标信息;
起始位置信息确定子单元,用于基于各个横坐标信息和各个纵坐标信息,确定预设截取起始点对应的起始位置信息;
截取宽度信息确定子单元,用于基于最小的横坐标信息和最大的横坐标信息,确定截取宽度信息;
截取高度信息确定子单元,用于基于眉毛关键点对应的位置信息和鼻尖关键点对应的位置信息,确定截取高度信息。
可选地,起始位置信息确定子单元,具体用于:基于最小的横坐标信息和最小的纵坐标信息,确定预设截取起始点对应的起始位置信息。
可选地,截取高度信息确定子单元,具体用于:将左眉毛最高位置的关键点对应的纵坐标信息与鼻尖最低位置的关键点对应的纵坐标信息进行相减,获得的相减结果确定为截取高度信息。
可选地,预设分类网络模型包括:预设二分类网络模型和预设眼镜分类模型;
眼镜分类模块540,具体用于:将目标脸部图像输入至预设二分类网络模型中,并根据预设二分类网络模型的输出,确定目标脸部图像中的用户是否佩戴眼镜;若用户佩戴眼镜,则将目标脸部图像输入至预设眼镜分类网络模型中,并根据预设眼镜分类模型的输出,确定用户佩戴的目标眼镜类别。
可选地,目标眼镜类别包括:全框方框眼镜、全框圆框眼镜、无框眼镜、半框眼镜或者墨镜。
可选地,预设二分类网络模型为二分类卷积神经网络模型;预设眼镜分类网络模型为ResNet残差网络模型。
本发明实施例所提供的眼镜分类装置可执行本发明任意实施例所提供的眼镜分类方法,具备执行眼镜分类方法相应的功能模块和有益效果。
值得注意的是,上述眼镜分类装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
图6为本发明实施例提供的一种电子设备的结构示意图。图6示出了适于用来实现本发明实施方式的示例性电子设备12的框图。图6显示的电子设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。系统存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如系统存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
电子设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该电子设备12交互的设备通信,和/或与使得该电子设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发实施例所提供的一种眼镜分类方法步骤,该方法包括:
获取用户脸部图像;
提取用户脸部图像中的人脸关键点,确定每个人脸关键点对应的位置信息;
基于各个人脸关键点对应的各个位置信息,对用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的目标脸部图像;
基于预先利用样本数据训练获得的预设分类网络模型,对目标脸部图像进行眼镜分类,确定目标眼镜类别。
当然,本领域技术人员可以理解,处理器还可以实现本发明任意实施例所提供的眼镜分类方法的技术方案。
本实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例所提供的眼镜分类方法步骤,该方法包括:
获取用户脸部图像;
提取用户脸部图像中的人脸关键点,确定每个人脸关键点对应的位置信息;
基于各个人脸关键点对应的各个位置信息,对用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的目标脸部图像;
基于预先利用样本数据训练获得的预设分类网络模型,对目标脸部图像进行眼镜分类,确定目标眼镜类别。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于:电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
本领域普通技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个计算装置上,或者分布在多个计算装置所组成的网络上,可选地,他们可以用计算机装置可执行的程序代码来实现,从而可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件的结合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (11)
1.一种眼镜分类方法,其特征在于,包括:
获取用户脸部图像;
提取所述用户脸部图像中的人脸关键点,确定每个人脸关键点对应的位置信息;
基于各个所述人脸关键点对应的各个位置信息,对所述用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的目标脸部图像;
基于预先利用样本数据训练获得的预设分类网络模型,对所述目标脸部图像进行眼镜分类,确定目标眼镜类别。
2.根据权利要求1所述的方法,其特征在于,所述基于各个所述人脸关键点对应的各个位置信息,对所述用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的目标脸部图像,包括:
基于各个所述人脸关键点对应的各个位置信息,确定眼镜佩戴区域对应的起始位置信息、截取宽度信息和截取高度信息;
基于所述起始位置信息、所述截取宽度信息和所述截取高度信息,对所述用户脸部图像进行截图处理,获得截取出的目标脸部图像。
3.根据权利要求2所述的方法,其特征在于,所述基于各个所述人脸关键点对应的各个位置信息,确定眼镜佩戴区域对应的起始位置信息、截取宽度信息和截取高度信息,包括:
获取每个所述人脸关键点对应的每个位置信息中的横坐标信息和纵坐标信息;
基于各个所述横坐标信息和各个所述纵坐标信息,确定预设截取起始点对应的起始位置信息;
基于最小的所述横坐标信息和最大的所述横坐标信息,确定截取宽度信息;
基于眉毛关键点对应的位置信息和鼻尖关键点对应的位置信息,确定截取高度信息。
4.根据权利要求3所述的方法,其特征在于,所述基于各个所述横坐标信息和各个所述纵坐标信息,确定预设截取起始点对应的起始位置信息,包括:
基于最小的所述横坐标信息和最小的所述纵坐标信息,确定预设截取起始点对应的起始位置信息。
5.根据权利要求3所述的方法,其特征在于,所述基于眉毛关键点对应的位置信息和鼻尖关键点对应的位置信息,确定截取高度信息,包括:
将左眉毛最高位置的关键点对应的纵坐标信息与鼻尖最低位置的关键点对应的纵坐标信息进行相减,获得的相减结果确定为截取高度信息。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述预设分类网络模型包括:预设二分类网络模型和预设眼镜分类模型;
所述基于预先利用样本数据训练获得的预设分类网络模型,对所述目标脸部图像进行眼镜分类,确定目标眼镜类别,包括:
将所述目标脸部图像输入至所述预设二分类网络模型中,并根据所述预设二分类网络模型的输出,确定所述目标脸部图像中的用户是否佩戴眼镜;
若所述用户佩戴眼镜,则将所述目标脸部图像输入至所述预设眼镜分类网络模型中,并根据所述预设眼镜分类模型的输出,确定所述用户佩戴的目标眼镜类别。
7.根据权利要求6所述的方法,其特征在于,所述目标眼镜类别包括:全框方框眼镜、全框圆框眼镜、无框眼镜、半框眼镜或者墨镜。
8.根据权利要求6所述的方法,其特征在于,所述预设二分类网络模型为二分类卷积神经网络模型;所述预设眼镜分类网络模型为ResNet残差网络模型。
9.一种眼镜分类装置,其特征在于,包括:
用户脸部图像获取模块,用于获取用户脸部图像;
人脸关键点提取模块,用于提取所述用户脸部图像中的人脸关键点,确定每个人脸关键点对应的位置信息;
图像截取模块,用于基于各个所述人脸关键点对应的各个位置信息,对所述用户脸部图像中的眼镜佩戴区域进行截取,获得截取出的目标脸部图像;
眼镜分类模块,用于基于预先利用样本数据训练获得的预设分类网络模型,对所述目标脸部图像进行眼镜分类,确定目标眼镜类别。
10.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的眼镜分类方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一所述的眼镜分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210234308.7A CN116797809A (zh) | 2022-03-10 | 2022-03-10 | 一种眼镜分类方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210234308.7A CN116797809A (zh) | 2022-03-10 | 2022-03-10 | 一种眼镜分类方法、装置、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116797809A true CN116797809A (zh) | 2023-09-22 |
Family
ID=88042428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210234308.7A Pending CN116797809A (zh) | 2022-03-10 | 2022-03-10 | 一种眼镜分类方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116797809A (zh) |
-
2022
- 2022-03-10 CN CN202210234308.7A patent/CN116797809A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107609481B (zh) | 为人脸识别生成训练数据的方法、装置和计算机存储介质 | |
EP3712805B1 (en) | Gesture recognition method, device, electronic device, and storage medium | |
CN110197146B (zh) | 基于深度学习的人脸图像分析方法、电子装置及存储介质 | |
CN107563283B (zh) | 生成攻击样本的方法、装置、设备及存储介质 | |
CN112380981B (zh) | 人脸关键点的检测方法、装置、存储介质及电子设备 | |
CN107545241A (zh) | 神经网络模型训练及活体检测方法、装置及存储介质 | |
CN111144348A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
US20220415072A1 (en) | Image processing method, text recognition method and apparatus | |
WO2022105118A1 (zh) | 基于图像的健康状态识别方法、装置、设备及存储介质 | |
CN110633991A (zh) | 风险识别方法、装置和电子设备 | |
CN110084289B (zh) | 图像标注方法、装置、电子设备及存储介质 | |
US20210312163A1 (en) | Face recognition method, device and electronic equipment, and computer non-volatile readable storage medium | |
CN110288079A (zh) | 特征数据获取方法、装置和设备 | |
CN115529837A (zh) | 戴口罩人脸识别方法、装置、计算机存储介质 | |
CN110175500B (zh) | 指静脉比对方法、装置、计算机设备及存储介质 | |
CN114783070A (zh) | 活体检测模型的训练方法、装置、电子设备及存储介质 | |
CN112464827B (zh) | 口罩佩戴识别方法、装置、设备及存储介质 | |
CN113963197A (zh) | 图像识别方法、装置、电子设备和可读存储介质 | |
CN111815748B (zh) | 一种动画处理方法、装置、存储介质及电子设备 | |
CN103268477A (zh) | 一种基于嵌入式平台的三维人脸识别系统 | |
CN111985400A (zh) | 一种人脸活体识别方法、装置、设备及存储介质 | |
CN117095436A (zh) | 企业员工信息智能管理系统及其方法 | |
CN111144374A (zh) | 人脸表情识别方法及装置、存储介质和电子设备 | |
CN116797809A (zh) | 一种眼镜分类方法、装置、设备和存储介质 | |
CN116309643A (zh) | 人脸遮挡分确定方法、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |