CN108229306A - 服饰检测和神经网络训练的方法、装置、存储介质和设备 - Google Patents
服饰检测和神经网络训练的方法、装置、存储介质和设备 Download PDFInfo
- Publication number
- CN108229306A CN108229306A CN201711166328.0A CN201711166328A CN108229306A CN 108229306 A CN108229306 A CN 108229306A CN 201711166328 A CN201711166328 A CN 201711166328A CN 108229306 A CN108229306 A CN 108229306A
- Authority
- CN
- China
- Prior art keywords
- dress ornament
- data
- face
- image
- sample image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供一种服饰检测和神经网络训练的方法、装置、存储介质和设备,涉及人工智能领域。其中,服饰检测的方法包括:获取待检测图像以及服饰位置先验数据;通过服饰检测神经网络,根据服饰位置先验数据获取待检测图像中的第一服饰位置检测数据,其中,服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的,服饰检测神经网络为以服饰位置先验数据作为训练样本之一训练得到的神经网络。通过本发明实施例,建立了人脸位置与服饰位置的关联性,使得在检测服饰位置时,利用服饰位置先验数据可迅速确定服饰在待检测图像中的可能性区域,无需使用大量的备选框进行检测,提高了服饰位置检测的效率。
Description
技术领域
本发明实施例涉及人工智能领域,尤其涉及一种服饰的检测方法、装置、存储介质和电子设备,以及一种神经网络的训练方法、装置、存储介质和电子设备。
背景技术
智能终端和移动互联网的快速发展产生了多个的图像数据。基于图像数据的计算机视觉技术也取得到了飞速的发展。在计算机视觉技术中,图像中物体的检测是一项重要的任务,它是物体识别的基础。目前大数据驱动的深度学习方法是人工智能领域的一大热点,它也普遍应用到计算机视觉技术中的物体检测。随着多个的图像数据的积累以及计算机硬件的发展,基于深度卷积神经网络的物体检测方法已经广泛应用于图像中物体的检测。
现有的基于深度卷积神经网络的物体检测方法主要是基于SSD(Single ShotMultiBox Detector,单拍多框检测器)的物体检测方法,该方法去除了备选框的生成过程,采用全卷积神经网络,直接在图像中回归物体的位置和识别物体的类别。尽管采用了全卷积神经网络,并且去除了备选框的生成过程,但是该方法依然在检测的图像中设置了大量的物体默认框,并回归这些物体默认框与物体真实框之间的偏差,该方法在进行服饰检测时需要大量的备选框进行检测,检测的速度较为缓慢。
发明内容
本发明实施例的目的在于,提供一种服饰检测的技术方案和神经网络训练的技术方案。
根据本发明实施例的第一方面,提供了一种服饰的检测方法。所述方法包括:获取待检测图像以及服饰位置先验数据,所述服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的;通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据,所述服饰检测神经网络为以服饰位置先验数据作为训练样本之一训练得到的神经网络。
可选地,所述获取待检测图像以及服饰位置先验数据之前,所述方法还包括:对所述服饰图像数据库中的服饰图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,获得所述服饰位置相对于人脸位置的先验数据。
可选地,所述对所述服饰图像数据库中的服饰图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,包括:对每个服饰图像中的服饰类型和服饰类型对应的服饰位置标注数据进行统计,获得所述每个服饰图像中与所述人脸位置标注数据关联的服饰类型和所述服饰类型对应的服饰位置标注数据;针对同一服饰类型,根据所述每个服饰图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述同一服饰类型的服饰位置相对于人脸位置的先验数据。
可选地,所述服饰类型包括以下中的至少一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述服饰位置相对于人脸位置的先验数据,包括以下中的至少一项:服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值;其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述根据所述每个服饰图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述同一服饰类型的服饰位置相对于人脸位置的先验数据,包括:通过计算所述每个服饰图像中服饰类型t的服饰标注框的宽度与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;通过计算所述每个服饰图像中服饰类型t的服饰标注框的高度与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;通过计算所述每个服饰图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;通过计算所述每个服饰图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的,包括:根据所述服饰图像数据库中的服饰图像的人脸标注框的宽度和服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的宽度;根据所述服饰图像中人脸标注框的高度和服饰类型t的服饰先验框的高度与人脸标注框的高度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的高度;根据所述服饰图像中人脸标注框的中心点的横坐标、所述服饰图像中人脸标注框的宽度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的中心点的横坐标;根据所述服饰图像中人脸标注框的中心点的纵坐标、所述服饰图像中人脸标注框的高度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的中心点的纵坐标。
可选地,所述神经网络具有特征提取层、连接在所述特征提取层输出端的第一区域池化层,以及连接在所述第一区域池化层输出端的第一全连接层,其中,通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据,包括:通过所述特征提取层对所述待检测图像进行特征提取,获得所述待检测图像的全局特征图;通过所述第一区域池化层,根据所述服饰位置先验数据对所述全局特征图进行池化操作,获得所述待检测图像中服饰位置的特征向量;通过所述第一全连接层对所述待检测图像中服饰位置的特征向量进行映射操作,获得所述待检测图像中的第一服饰位置检测数据。
可选地,所述方法还包括:通过所述神经网络,根据所述第一服饰位置检测数据从所述待检测图像中获取所述待检测图像中的第二服饰位置检测数据和与所述第二服饰位置检测数据对应的第一服饰类别检测数据。
可选地,所述神经网络还具有与所述特征提取层的输出端和所述第一全连接层的输出端均连接的第二区域池化层,以及与所述第二区域池化层的输出端连接的第二全连接层,其中,通过所述神经网络,根据所述第一服饰位置检测数据从所述待检测图像中获取所述待检测图像中的第二服饰位置检测数据和与所述第二服饰位置检测数据对应的第一服饰类别检测数据,包括:通过所述第二区域池化层,根据所述第一服饰位置检测数据对所述全局特征图进行池化操作,获得所述待检测图像中服饰区域的特征向量;通过所述第二全连接层对所述待检测图像中服饰区域的特征向量进行映射操作,获得所述待检测图像中的第二服饰位置检测数据和与所述第二服饰位置检测数据对应的第一服饰类别检测数据。
可选地,所述第一服饰类别检测数据包括以下中的至少一者:衬衫、T恤、短裤、长裤、短裙、长裙、连衣裙、连衣裤。
可选地,所述第一服饰位置检测数据包括服饰检测框的宽度、高度和中心点坐标。
可选地,通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据之前,所述方法还包括:根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据;通过待训练的所述神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据;根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
可选地,所述获取所述样本图像中的服饰位置先验数据之前,所述方法还包括:对多个样本图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,获得所述样本图像中服饰位置相对于人脸位置的先验数据。
可选地,所述对多个样本图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,包括:对每个样本图像中的服饰类型和服饰类型对应的服饰位置标注数据进行统计,获得所述每个样本图像中与所述人脸位置标注数据关联的服饰类型和所述服饰类型对应的服饰位置标注数据;针对同一服饰类型,根据所述每个样本图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述样本图像中所述同一服饰类型的服饰位置相对于人脸位置的先验数据。
可选地,所述服饰类型包括以下中的至少一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述服饰位置相对于人脸位置的先验数据,包括以下中的至少一项:服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值;其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述根据所述每个样本图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述样本图像中所述同一服饰类型的服饰位置相对于人脸位置的先验数据,包括:通过计算所述每个样本图像中服饰类型t的服饰标注框的宽度与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的高度与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据,包括:根据所述样本图像中人脸标注框的宽度和服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的宽度;根据所述样本图像中人脸标注框的高度和服饰类型t的服饰先验框的高度与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的高度;根据所述样本图像中人脸标注框的中心点的横坐标、所述样本图像中人脸标注框的宽度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的横坐标;根据所述样本图像中人脸标注框的中心点的纵坐标、所述样本图像中人脸标注框的高度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的纵坐标。
可选地,所述神经网络具有特征提取层、连接在所述特征提取层输出端的第一区域池化层,以及连接在所述第一区域池化层输出端的第一全连接层,其中,通过待训练的所述神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据,包括:通过所述特征提取层对所述样本图像进行特征提取,获得所述样本图像的全局特征图;通过所述第一区域池化层,根据所述服饰位置先验数据对所述全局特征图进行池化操作,获得所述样本图像中服饰位置的特征向量;通过所述第一全连接层对所述样本图像中服饰位置的特征向量进行映射操作,获得所述样本图像中的第三服饰位置检测数据。
可选地,所述根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络,包括:根据所述样本图像中服饰类型t的服饰检测框的中心点的横坐标、所述样本图像中服饰类型t的服饰标注框的中心点的横坐标以及所述样本图像中人脸标注框的宽度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在水平方向上的第一差异;根据所述样本图像中服饰类型t的服饰检测框的中心点的纵坐标、所述样本图像中服饰类型t的服饰标注框的中心点的纵坐标以及所述样本图像中人脸标注框的高度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在垂直方向上的第二差异;根据所述第一差异和所述第二差异训练所述神经网络,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述方法还包括:通过所述神经网络,根据所述第三服饰位置检测数据从所述样本图像中获取所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据;根据所述第四服饰位置检测数据和所述样本图像中的服饰位置标注数据,以及所述第二服饰类别检测数据和所述样本图像中与所述服饰位置标注数据对应的服饰类别标注数据,训练所述神经网络。
可选地,所述神经网络还具有与所述特征提取层的输出端和所述第一全连接层的输出端均连接的第二区域池化层,以及与所述第二区域池化层的输出端连接的第二全连接层,其中,通过所述神经网络,根据所述第三服饰位置检测数据从所述样本图像中获取所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据,包括:通过所述第二区域池化层,根据所述第三服饰位置检测数据对所述全局特征图进行池化操作,获得所述样本图像中服饰区域的特征向量;通过所述第二全连接层对所述样本图像中服饰区域的特征向量进行映射操作,获得所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据。
根据本发明实施例的第二方面,提供了一种神经网络的训练方法。所述方法包括:根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据;通过待训练的神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据;根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
可选地,所述获取所述样本图像中的服饰位置先验数据之前,所述方法还包括:对多个样本图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,获得所述样本图像中服饰位置相对于人脸位置的先验数据。
可选地,所述对多个样本图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,包括:对每个样本图像中的服饰类型和服饰类型对应的服饰位置标注数据进行统计,获得所述每个样本图像中与所述人脸位置标注数据关联的服饰类型和所述服饰类型对应的服饰位置标注数据;针对同一服饰类型,根据所述每个样本图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述样本图像中所述同一服饰类型的服饰位置相对于人脸位置的先验数据。
可选地,所述服饰类型包括以下中的至少一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述服饰位置相对于人脸位置的先验数据,包括以下中的至少一项:服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值;其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述根据所述每个样本图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述样本图像中所述同一服饰类型的服饰位置相对于人脸位置的先验数据,包括:通过计算所述每个样本图像中服饰类型t的服饰标注框的宽度与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的高度与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据,包括:根据所述样本图像中人脸标注框的宽度和服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的宽度;根据所述样本图像中人脸标注框的高度和服饰类型t的服饰先验框的高度与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的高度;根据所述样本图像中人脸标注框的中心点的横坐标、所述样本图像中人脸标注框的宽度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的横坐标;根据所述样本图像中人脸标注框的中心点的纵坐标、所述样本图像中人脸标注框的高度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的纵坐标。
可选地,所述神经网络具有特征提取层、连接在所述特征提取层输出端的第一区域池化层,以及连接在所述第一区域池化层输出端的第一全连接层,其中,通过待训练的神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据,包括:通过所述特征提取层对所述样本图像进行特征提取,获得所述样本图像的全局特征图;通过所述第一区域池化层,根据所述服饰位置先验数据对所述全局特征图进行池化操作,获得所述样本图像中服饰位置的特征向量;通过所述第一全连接层对所述样本图像中服饰位置的特征向量进行映射操作,获得所述样本图像中的第三服饰位置检测数据。
可选地,所述根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络,包括:根据所述样本图像中服饰类型t的服饰检测框的中心点的横坐标、所述样本图像中服饰类型t的服饰标注框的中心点的横坐标以及所述样本图像中人脸标注框的宽度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在水平方向上的第一差异;根据所述样本图像中服饰类型t的服饰检测框的中心点的纵坐标、所述样本图像中服饰类型t的服饰标注框的中心点的纵坐标以及所述样本图像中人脸标注框的高度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在垂直方向上的第二差异;根据所述第一差异和所述第二差异训练所述神经网络,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述方法还包括:通过所述神经网络,根据所述第三服饰位置检测数据从所述样本图像中获取所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据;根据所述第四服饰位置检测数据和所述样本图像中的服饰位置标注数据,以及所述第二服饰类别检测数据和所述样本图像中与所述服饰位置标注数据对应的服饰类别标注数据,训练所述神经网络。
可选地,所述神经网络还具有与所述特征提取层的输出端和所述第一全连接层的输出端均连接的第二区域池化层,以及与所述第二区域池化层的输出端连接的第二全连接层,其中,通过所述神经网络,根据所述第三服饰位置检测数据从所述样本图像中获取所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据,包括:通过所述第二区域池化层,根据所述第三服饰位置检测数据对所述全局特征图进行池化操作,获得所述样本图像中服饰区域的特征向量;通过所述第二全连接层对所述样本图像中服饰区域的特征向量进行映射操作,获得所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据。
可选地,所述第二服饰类别检测数据包括以下中的至少一者:衬衫、T恤、短裤、长裤、短裙、长裙、连衣裙、连衣裤。
可选地,所述第三服饰位置检测数据包括服饰检测框的宽度、高度和中心点坐标。
根据本发明实施例的第三方面,提供了一种服饰的检测装置。所述装置包括:第一获取模块,用于获取待检测图像以及服饰位置先验数据,所述服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的;第二获取模块,用于通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据,所述服饰检测神经网络为以服饰位置先验数据作为训练样本之一训练得到的神经网络。
可选地,所述装置还包括:第一处理模块,用于在所述第一获取模块获取待检测图像以及服饰位置先验数据之前,对所述服饰图像数据库中的服饰图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,获得所述服饰位置相对于人脸位置的先验数据。
可选地,所述第一处理模块,包括:第一统计子模块,用于对每个服饰图像中的服饰类型和服饰类型对应的服饰位置标注数据进行统计,获得所述每个服饰图像中与所述人脸位置标注数据关联的服饰类型和所述服饰类型对应的服饰位置标注数据;第一获取子模块,用于针对同一服饰类型,根据所述每个服饰图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述同一服饰类型的服饰位置相对于人脸位置的先验数据。
可选地,所述服饰类型包括以下中的至少一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述服饰位置相对于人脸位置的先验数据,包括以下中的至少一项:服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值;其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述第一获取子模块,具体用于:通过计算所述每个服饰图像中服饰类型t的服饰标注框的宽度与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;通过计算所述每个服饰图像中服饰类型t的服饰标注框的高度与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;通过计算所述每个服饰图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;通过计算所述每个服饰图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述第一获取模块,具体用于:根据所述服饰图像数据库中的服饰图像的人脸标注框的宽度和服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的宽度;根据所述服饰图像中人脸标注框的高度和服饰类型t的服饰先验框的高度与人脸标注框的高度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的高度;根据所述服饰图像中人脸标注框的中心点的横坐标、所述服饰图像中人脸标注框的宽度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的中心点的横坐标;根据所述服饰图像中人脸标注框的中心点的纵坐标、所述服饰图像中人脸标注框的高度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的中心点的纵坐标。
可选地,所述神经网络具有特征提取层、连接在所述特征提取层输出端的第一区域池化层,以及连接在所述第一区域池化层输出端的第一全连接层,其中,所述第二获取模块,具体用于:通过所述特征提取层对所述待检测图像进行特征提取,获得所述待检测图像的全局特征图;通过所述第一区域池化层,根据所述服饰位置先验数据对所述全局特征图进行池化操作,获得所述待检测图像中服饰位置的特征向量;通过所述第一全连接层对所述待检测图像中服饰位置的特征向量进行映射操作,获得所述待检测图像中的第一服饰位置检测数据。
可选地,所述装置还包括:第三获取模块,用于通过所述神经网络,根据所述第一服饰位置检测数据从所述待检测图像中获取所述待检测图像中的第二服饰位置检测数据和与所述第二服饰位置检测数据对应的第一服饰类别检测数据。
可选地,所述神经网络还具有与所述特征提取层的输出端和所述第一全连接层的输出端均连接的第二区域池化层,以及与所述第二区域池化层的输出端连接的第二全连接层,其中,所述第三获取模块,具体用于:通过所述第二区域池化层,根据所述第一服饰位置检测数据对所述全局特征图进行池化操作,获得所述待检测图像中服饰区域的特征向量;通过所述第二全连接层对所述待检测图像中服饰区域的特征向量进行映射操作,获得所述待检测图像中的第二服饰位置检测数据和与所述第二服饰位置检测数据对应的第一服饰类别检测数据。
可选地,所述第一服饰类别检测数据包括以下中的至少一者:衬衫、T恤、短裤、长裤、短裙、长裙、连衣裙、连衣裤。
可选地,所述第一服饰位置检测数据包括服饰检测框的宽度、高度和中心点坐标。
可选地,在所述第二获取模块之前,所述装置还包括:第四获取模块,用于根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据;第五获取模块,用于通过待训练的所述神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据;第一训练模块,用于根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
可选地,所述第四获取模块之前,所述装置还包括:第二处理模块,用于对多个样本图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,获得所述样本图像中服饰位置相对于人脸位置的先验数据。
可选地,所述第二处理模块,包括:第二统计子模块,用于对每个样本图像中的服饰类型和服饰类型对应的服饰位置标注数据进行统计,获得所述每个样本图像中与所述人脸位置标注数据关联的服饰类型和所述服饰类型对应的服饰位置标注数据;第二获取子模块,用于针对同一服饰类型,根据所述每个样本图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述样本图像中所述同一服饰类型的服饰位置相对于人脸位置的先验数据。
可选地,所述服饰类型包括以下中的至少一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述服饰位置相对于人脸位置的先验数据,包括以下中的至少一项:服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值;其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述第二获取子模块,具体用于:通过计算所述每个样本图像中服饰类型t的服饰标注框的宽度与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的高度与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述第四获取模块,具体用于:根据所述样本图像中人脸标注框的宽度和服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的宽度;根据所述样本图像中人脸标注框的高度和服饰类型t的服饰先验框的高度与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的高度;根据所述样本图像中人脸标注框的中心点的横坐标、所述样本图像中人脸标注框的宽度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的横坐标;根据所述样本图像中人脸标注框的中心点的纵坐标、所述样本图像中人脸标注框的高度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的纵坐标。
可选地,所述神经网络具有特征提取层、连接在所述特征提取层输出端的第一区域池化层,以及连接在所述第一区域池化层输出端的第一全连接层,其中,所述第五获取模块,具体用于:通过所述特征提取层对所述样本图像进行特征提取,获得所述样本图像的全局特征图;通过所述第一区域池化层,根据所述服饰位置先验数据对所述全局特征图进行池化操作,获得所述样本图像中服饰位置的特征向量;通过所述第一全连接层对所述样本图像中服饰位置的特征向量进行映射操作,获得所述样本图像中的第三服饰位置检测数据。
可选地,所述第一训练模块,具体用于:根据所述样本图像中服饰类型t的服饰检测框的中心点的横坐标、所述样本图像中服饰类型t的服饰标注框的中心点的横坐标以及所述样本图像中人脸标注框的宽度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在水平方向上的第一差异;根据所述样本图像中服饰类型t的服饰检测框的中心点的纵坐标、所述样本图像中服饰类型t的服饰标注框的中心点的纵坐标以及所述样本图像中人脸标注框的高度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在垂直方向上的第二差异;根据所述第一差异和所述第二差异训练所述神经网络,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述装置还包括:第六获取模块,用于通过所述神经网络,根据所述第三服饰位置检测数据从所述样本图像中获取所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据;第二训练模块,用于根据所述第四服饰位置检测数据和所述样本图像中的服饰位置标注数据,以及所述第二服饰类别检测数据和所述样本图像中与所述服饰位置标注数据对应的服饰类别标注数据,训练所述神经网络。
可选地,所述神经网络还具有与所述特征提取层的输出端和所述第一全连接层的输出端均连接的第二区域池化层,以及与所述第二区域池化层的输出端连接的第二全连接层,其中,所述第六获取模块,具体用于:通过所述第二区域池化层,根据所述第三服饰位置检测数据对所述全局特征图进行池化操作,获得所述样本图像中服饰区域的特征向量;通过所述第二全连接层对所述样本图像中服饰区域的特征向量进行映射操作,获得所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据。
根据本发明实施例的第四方面,提供了一种神经网络的训练装置。所述装置包括:第七获取模块,用于根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据;第八获取模块,用于通过待训练的神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据;第三训练模块,用于根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
可选地,在所述第七获取模块之前,所述装置还包括:第三处理模块,用于对多个样本图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,获得所述样本图像中服饰位置相对于人脸位置的先验数据。
可选地,所述第三处理模块,包括:第三统计子模块,用于对每个样本图像中的服饰类型和服饰类型对应的服饰位置标注数据进行统计,获得所述每个样本图像中与所述人脸位置标注数据关联的服饰类型和所述服饰类型对应的服饰位置标注数据;第三获取子模块,用于针对同一服饰类型,根据所述每个样本图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述样本图像中所述同一服饰类型的服饰位置相对于人脸位置的先验数据。
可选地,所述服饰类型包括以下中的至少一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述服饰位置相对于人脸位置的先验数据,包括以下中的至少一项:服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值;其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述第三获取子模块,具体用于:通过计算所述每个样本图像中服饰类型t的服饰标注框的宽度与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的高度与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述第七获取模块,具体用于:根据所述样本图像中人脸标注框的宽度和服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的宽度;根据所述样本图像中人脸标注框的高度和服饰类型t的服饰先验框的高度与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的高度;根据所述样本图像中人脸标注框的中心点的横坐标、所述样本图像中人脸标注框的宽度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的横坐标;根据所述样本图像中人脸标注框的中心点的纵坐标、所述样本图像中人脸标注框的高度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的纵坐标。
可选地,所述神经网络具有特征提取层、连接在所述特征提取层输出端的第一区域池化层,以及连接在所述第一区域池化层输出端的第一全连接层,其中,所述第八获取模块,具体用于:通过所述特征提取层对所述样本图像进行特征提取,获得所述样本图像的全局特征图;通过所述第一区域池化层,根据所述服饰位置先验数据对所述全局特征图进行池化操作,获得所述样本图像中服饰位置的特征向量;通过所述第一全连接层对所述样本图像中服饰位置的特征向量进行映射操作,获得所述样本图像中的第三服饰位置检测数据。
可选地,所述第三训练模块,具体用于:根据所述样本图像中服饰类型t的服饰检测框的中心点的横坐标、所述样本图像中服饰类型t的服饰标注框的中心点的横坐标以及所述样本图像中人脸标注框的宽度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在水平方向上的第一差异;根据所述样本图像中服饰类型t的服饰检测框的中心点的纵坐标、所述样本图像中服饰类型t的服饰标注框的中心点的纵坐标以及所述样本图像中人脸标注框的高度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在垂直方向上的第二差异;根据所述第一差异和所述第二差异训练所述神经网络,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述装置还包括:第九获取模块,用于通过所述神经网络,根据所述第三服饰位置检测数据从所述样本图像中获取所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据;第四训练模块,用于根据所述第四服饰位置检测数据和所述样本图像中的服饰位置标注数据,以及所述第二服饰类别检测数据和所述样本图像中与所述服饰位置标注数据对应的服饰类别标注数据,训练所述神经网络。
可选地,所述神经网络还具有与所述特征提取层的输出端和所述第一全连接层的输出端均连接的第二区域池化层,以及与所述第二区域池化层的输出端连接的第二全连接层,其中,所述第九获取模块,具体用于:通过所述第二区域池化层,根据所述第三服饰位置检测数据对所述全局特征图进行池化操作,获得所述样本图像中服饰区域的特征向量;通过所述第二全连接层对所述样本图像中服饰区域的特征向量进行映射操作,获得所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据。
可选地,所述第二服饰类别检测数据包括以下中的至少一者:衬衫、T恤、短裤、长裤、短裙、长裙、连衣裙、连衣裤。
可选地,所述第三服饰位置检测数据包括服饰检测框的宽度、高度和中心点坐标。
根据本发明实施例的第五方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,其中,所述程序指令被处理器执行时实现本发明实施例第一方面所述的服饰的检测方法的步骤。
根据本发明实施例的第六方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,其中,所述程序指令被处理器执行时实现本发明实施例第二方面所述的神经网络的训练方法的步骤。
根据本发明实施例的第七方面,提供了一种计算机程序产品,其包括有计算机程序指令,其中,所述程序指令被处理器执行时实现本发明实施例第一方面所述的服饰的检测方法的步骤。
根据本发明实施例的第八方面,提供了一种计算机程序产品,其包括有计算机程序指令,其中,所述程序指令被处理器执行时实现本发明实施例第二方面所述的神经网络的训练方法的步骤。
根据本发明实施例的第九方面,提供了一种电子设备,包括:第一处理器、第一存储器、第一通信元件和第一通信总线,所述第一处理器、所述第一存储器和所述第一通信元件通过所述第一通信总线完成相互间的通信;所述第一存储器用于存放至少一可执行指令,所述可执行指令使所述第一处理器执行如本发明实施例第一方面所述的服饰的检测方法的步骤。
根据本发明实施例的第十方面,提供了一种电子设备,包括:第二处理器、第二存储器、第二通信元件和第二通信总线,所述第二处理器、所述第二存储器和所述第二通信元件通过所述第二通信总线完成相互间的通信;所述第二存储器用于存放至少一可执行指令,所述可执行指令使所述第二处理器执行如本发明实施例第二方面所述的神经网络的训练方法的步骤。
由本发明实施例提供的技术方案可知,根据服饰位置相对于人脸位置的先验数据和人脸位置标注数据确定服饰位置先验数据,建立了人脸位置与服饰位置的关联性,使得在检测服饰位置时,利用服饰位置先验数据能够迅速确定服饰在待检测图像中的可能性区域,无需使用大量的备选框进行检测,提高了服饰位置检测的效率。
附图说明
图1是根据本发明实施例一的一种服饰的检测方法的流程图;
图2是根据本发明实施例二的一种服饰的检测方法的流程图;
图3是根据本发明实施例二的获得服饰备选框的示意图;
图4是根据本发明实施例三的一种神经网络的训练方法的流程图;
图5是根据本发明实施例四的一种神经网络的训练方法的流程图;
图6是根据本发明实施例四的一种神经网络的结构示意图;
图7是根据本发明实施例五的一种服饰的检测装置的结构示意图;
图8是根据本发明实施例六的一种服饰的检测装置的结构示意图;
图9是根据本发明实施例七的一种服饰的检测装置的结构示意图;
图10是根据本发明实施例八的一种神经网络的训练装置的结构示意图;
图11是根据本发明实施例九的一种神经网络的训练装置的结构示意图;
图12是根据本发明实施例十的一种神经网络的训练装置的结构示意图;
图13是根据本发明实施例十一的一种电子设备的结构示意图;
图14是根据本发明实施例十二的一种电子设备的结构示意图。
具体实施方式
下面结合附图(若干附图中相同的标号表示相同的元素)和实施例,对本发明实施例的具体实施方式作进一步详细说明。以下实施例用于说明本发明,但不用来限制本发明的范围。
本领域技术人员可以理解,本发明实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
实施例一
图1是根据本发明实施例一的一种服饰的检测方法的流程图。如图1所示,本实施例提供的服饰的检测方法包括以下步骤:
在步骤S101中,获取待检测图像以及服饰位置先验数据。
在本实施例中,从图像包含的内容来讲,所述待检测图像可为包括人脸的图像。从图像的类别来讲,所述待检测图像可为拍摄的静态图像,或者为视频帧序列中的视频图像,也可以是合成的图像等。所述服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的。所述服饰图像数据库中的服饰图像的服饰位置相对于人脸位置的先验数据可为所述服饰图像中服饰位置框相对于人脸位置框的先验数据。
其中,所述人脸位置标注数据可为所述服饰图像中人脸标注框的四个顶点的坐标,也可为人脸标注框的宽度、高度和中心点坐标。所述服饰位置先验数据可为所述服饰图像中服饰先验框的四个顶点的坐标,也可为服饰先验框的宽度、高度和中心点坐标。
在步骤S102中,通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据。
在本发明实施例中,所述神经网络可以是任意适当的可实现特征提取或目标位置检测的神经网络,包括但不限于卷积神经网络、增强学习神经网络、对抗神经网络中的生成网络等等。神经网络中具体结构的设置可以由本领域技术人员根据实际需求适当设定,如卷积层的层数、卷积核的大小、通道数等等,本发明实施例对此不作限制。具体地,所述服饰检测神经网络为以服饰位置先验数据作为训练样本之一训练得到的神经网络。其中,所述第一服饰位置检测数据可为待检测图像中服饰检测框的四个顶点的坐标,也可为待检测图像中服饰检测框的宽度、高度和中心点坐标。
本实施例提供的服饰的检测方法,根据服饰位置相对于人脸位置的先验数据和人脸位置标注数据确定服饰位置先验数据,建立了人脸位置与服饰位置的关联性,使得在检测服饰位置时,利用服饰位置先验数据能够迅速确定服饰在待检测图像中的可能性区域,无需使用大量的备选框进行检测,提高了服饰位置检测的效率。
本实施例的服饰的检测方法可以由任意适当的具有图像或数据处理能力的设备执行,包括但不限于:摄像头、终端、移动终端、PC机、服务器、车载设备、娱乐设备、广告设备、个人数码助理(PDA)、平板电脑、笔记本电脑、掌上游戏机、智能眼镜、智能手表、可穿戴设备、虚拟显示设备或显示增强设备(如Google Glass、Oculus Rift、Hololens、Gear VR)等。
实施例二
图2是根据本发明实施例二的一种服饰的检测方法的流程图。如图2所示,本实施例提供的服饰的检测方法包括以下步骤:
在步骤S201中,获取待检测图像以及服饰位置先验数据。
在具体的实施方式中,在执行步骤S201之前,所述方法还包括:对所述服饰图像数据库中的服饰图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,获得所述服饰位置相对于人脸位置的先验数据。具体地,在对所述服饰图像数据库中的服饰图像中的人脸位置标注数据和服饰位置标注数据进行统计处理时,可对每个服饰图像中的服饰类型和服饰类型对应的服饰位置标注数据进行统计,获得所述每个服饰图像中与所述人脸位置标注数据关联的服饰类型和所述服饰类型对应的服饰位置标注数据;并针对同一服饰类型,根据所述每个服饰图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述同一服饰类型的服饰位置相对于人脸位置的先验数据。由此可知,不同待检测图像之间的同一服饰类型的服饰位置相对于人脸位置的先验数据是相同的。而在现有的物体检测方法中,只是将每张图像中的每件服饰作为一个单独的个体,未能构建不同图像的服饰之间的关联性,从而未针对服饰检测任务进行优化。籍此,能够构建不同待检测图像的同一服饰类型的服饰之间的关联性。
其中,所述服饰类型包括以下中的至少一者:人体上衣、人体下衣、人体全身衣服。具体地,人体全身衣服可为人体上衣和人体下衣连接在一起的衣服,例如,连衣裙、连衣裤等。所述服饰位置相对于人脸位置的先验数据,包括以下中的至少一者:服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值、服饰类型t的服饰先验框的高度与人脸标注框的高度的比值、服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值、服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。其中,所述人脸位置标注数据可为人脸标注框的宽度、高度和中心点坐标,所述服饰位置标注数据可为服饰标注框的宽度、高度和中心点坐标。具体地,所述服饰位置标注数据可为服饰类型t的服饰标注框的宽度、高度和中心点坐标。假设样本图像中的水平方向和垂直方向分别为x方向和y方向,人脸标注框和服饰标注框的宽度和高度分别为框在x方向和y方向上的长度。
更具体地,所述根据所述每个服饰图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述同一服饰类型的服饰位置相对于人脸位置的先验数据,包括:通过计算所述每个服饰图像中服饰类型t的服饰标注框的宽度与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;通过计算所述每个服饰图像中服饰类型t的服饰标注框的高度与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;通过计算所述每个服饰图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;通过计算所述每个服饰图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值。
在本实施例中,所述服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的,包括:根据所述服饰图像中人脸标注框的宽度和服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的宽度;根据所述服饰图像中人脸标注框的高度和服饰类型t的服饰先验框的高度与人脸标注框的高度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的高度;根据所述服饰图像中人脸标注框的中心点的横坐标、所述服饰图像中人脸标注框的宽度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的中心点的横坐标;根据所述服饰图像中人脸标注框的中心点的纵坐标、所述服饰图像中人脸标注框的高度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的中心点的纵坐标。
在步骤S202中,通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据。
在具体的实施方式中,所述神经网络具有特征提取层、连接在所述特征提取层输出端的第一区域池化层,以及连接在所述第一区域池化层输出端的第一全连接层。其中,所述特征提取层可由多个卷积层构成,例如,可由5个卷积层构成。可以理解的是,本发明实施例对构成特征提取层的卷积层的层数不做任何限定,可由本领域技术人员根据实际需要进行设定。
具体地,该步骤S202可包括:通过所述特征提取层对所述待检测图像进行特征提取,获得所述待检测图像的全局特征图;通过所述第一区域池化层,根据所述服饰位置先验数据对所述全局特征图进行池化操作,获得所述待检测图像中服饰位置的特征向量;通过所述第一全连接层对所述待检测图像中服饰位置的特征向量进行映射操作,获得所述待检测图像中的第一服饰位置检测数据。其中,所述服饰位置先验数据可为服饰图像中服饰先验框的宽度、高度和中心点坐标。所述第一服饰位置检测数据可包括待检测图像中服饰检测框的宽度、高度和中心点坐标。更具体地,所述服饰位置先验数据可为服饰图像中服饰类型t的服饰先验框的宽度、高度和中心点坐标。相应地,所述第一服饰位置检测数据可为待检测图像中服饰类型t的服饰检测框的宽度、高度和中心点坐标。
在本实施例中,使用根据服饰图像数据库中的服饰图像的服饰位置相对于人脸位置的先验数据确定的服饰图像中的服饰类型t的服饰先验框可一次性确定待检测图像中的服饰类型t的服饰检测框,从而加快了检测出待检测图像中与人脸相关的服饰的位置的速度。
在步骤S203中,通过所述神经网络,根据所述第一服饰位置检测数据从所述待检测图像中获取所述待检测图像中的第二服饰位置检测数据和与所述第二服饰位置检测数据对应的第一服饰类别检测数据。
进一步地,所述神经网络还具有与所述特征提取层的输出端和所述第一全连接层的输出端均连接的第二区域池化层,以及与所述第二区域池化层的输出端连接的第二全连接层。具体地,该步骤S203包括:通过所述第二区域池化层,根据所述第一服饰位置检测数据对所述全局特征图进行池化操作,获得所述待检测图像中服饰区域的特征向量;通过所述第二全连接层对所述待检测图像中服饰区域的特征向量进行映射操作,获得所述待检测图像中的第二服饰位置检测数据和与所述第二服饰位置检测数据对应的第一服饰类别检测数据。
其中,所述第一服饰位置检测数据可为待检测图像中服饰检测框(服饰备选框)的宽度、高度和中心点坐标。所述第二服饰位置检测数据可为待检测图像中服饰检测框的宽度、高度和中心点坐标。具体地,所述第一服饰位置检测数据可为待检测图像中服饰类型t的服饰备选框的宽度、高度和中心点坐标。相应地,所述第二服饰位置检测数据可为待检测图像中服饰类型t的服饰检测框的宽度、高度和中心点坐标。所述第一服饰类别检测数据可为待检测图像中服饰类型t的服饰检测框内的服饰类别信息,与所述第二服饰位置检测数据对应。具体地,所述第一服饰类别检测数据包括以下中的至少一者:衬衫、T恤、短裤、长裤、短裙、长裙、连衣裙、连衣裤。
图3是根据本发明实施例二的获得服饰备选框的示意图。如图2所示,1表示待检测图像中女性的上衣的先验框,2表示待检测图像中女性的上衣的备选框,由图可知,先验框1和备选框2的宽度和长度均相同,只是两者的中心点坐标发生了变化。
根据本实施例提供的服饰的检测方法,在实施例一的基础上,通过所述神经网络,根据所述第一服饰位置检测数据从所述待检测图像中获取所述待检测图像中的第二服饰位置检测数据和与所述第二服饰位置检测数据对应的第一服饰类别检测数据,与现有技术相比,不仅能够更加准确地检测出图像中与人脸相关的服饰的位置,而且还能够检测出图像中与人脸相关的服饰的类别信息。
本实施例的服饰的检测方法可以由任意适当的具有图像或数据处理能力的设备执行,包括但不限于:摄像头、终端、移动终端、PC机、服务器、车载设备、娱乐设备、广告设备、个人数码助理(PDA)、平板电脑、笔记本电脑、掌上游戏机、智能眼镜、智能手表、可穿戴设备、虚拟显示设备或显示增强设备(如Google Glass、Oculus Rift、Hololens、Gear VR)等。
实施例三
图4是根据本发明实施例一的一种神经网络的训练方法的流程图。如图4所示,本实施例提供的神经网络的训练方法包括以下步骤:
在步骤S301中,根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据。
在本实施例中,所述样本图像可包括纯粹的人脸图像,以及含有人脸和人体服饰的人体图像。其中,含有人脸和人体服饰的人体图像可为含有人脸和人体下衣的人体图像,也可为含有人脸和人体上衣的人体图像。所述样本图像中服饰位置相对于人脸位置的先验数据可为样本图像中服饰位置框相对于人脸位置框的先验数据。具体地,样本图像中服饰位置相对于人脸位置的先验数据不是针对某一个样本图像而言的,而是针对所有的样本图像而言的。也就是说,所有的样本图像中服饰位置相对于人脸位置的先验数据均是相同的。
其中,所述人脸位置标注数据可为样本图像中人脸标注框的四个顶点的坐标,也可为人脸标注框的宽度、高度和中心点坐标。所述服饰位置先验数据可为样本图像中服饰先验框的四个顶点的坐标,也可为服饰先验框的宽度、高度和中心点坐标。
在步骤S302中,通过待训练的神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据。
在本发明实施例中,所述神经网络可以是任意适当的可实现特征提取或目标位置检测的神经网络,包括但不限于卷积神经网络、增强学习神经网络、对抗神经网络中的生成网络等等。神经网络中具体结构的设置可以由本领域技术人员根据实际需求适当设定,如卷积层的层数、卷积核的大小、通道数等等,本发明实施例对此不作限制。其中,所述第三服饰位置检测数据可为样本图像中服饰检测框的四个顶点的坐标,也可为样本图像中服饰检测框的宽度、高度和中心点坐标。
在步骤S303中,根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
其中,所述服饰位置标注数据可为样本图像中服饰标注框的四个顶点的坐标,也可为服饰标注框的宽度、高度和中心点坐标。具体地,在训练所述神经网络时,可根据样本图像中的第三服饰位置检测数据和服饰位置标注数据确定所述样本图像中服饰位置的差异,再根据所述样本图像中服饰位置的差异调整所述神经网络的网络参数。通过计算服饰位置的差异,对当前获得的第三服饰位置检测数据进行评估,以作为后续训练神经网络的依据。
具体地,可将所述服饰位置的差异反向传输给神经网络,从而迭代地训练该神经网络。神经网络的训练是一个迭代的过程,本发明实施例仅对其中的一次训练过程进行了说明,但本领域技术人员应当明了,对神经网络的每次训练都可采用该训练方式,直至完成所述神经网络的训练。
本实施例提供的神经网络的训练方法,根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取样本图像中的服饰位置先验数据;并通过待训练的神经网络,根据服饰位置先验数据从样本图像中获取样本图像中的服饰位置检测数据;再根据服饰位置检测数据和样本图像中的服饰位置标注数据,训练所述神经网络,与现有技术相比,通过利用样本图像中服饰位置相对于人脸位置的先验数据,减小了神经网络的训练难度,并且使得训练得到的神经网络能够快速准确地检测出图像中与人脸相关的服饰的位置。
本实施例的神经网络的训练方法可以由任意适当的具有图像或数据处理能力的设备执行,包括但不限于:摄像头、终端、移动终端、PC机、服务器、车载设备、娱乐设备、广告设备、个人数码助理(PDA)、平板电脑、笔记本电脑、掌上游戏机、智能眼镜、智能手表、可穿戴设备、虚拟显示设备或显示增强设备(如Google Glass、Oculus Rift、Hololens、GearVR)等。
实施例四
图5是根据本发明实施例四的一种神经网络的训练方法的流程图。如图5所示,本实施例提供的神经网络的训练方法包括以下步骤:
在步骤S401中,根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据。
在具体的实施方式中,在执行步骤S401之前,所述方法还包括:对多个的样本图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,获得所述样本图像中服饰位置相对于人脸位置的先验数据。具体地,在对多个的样本图像中的人脸位置标注数据和服饰位置标注数据进行统计处理时,可对每个样本图像中的服饰类型和服饰类型对应的服饰位置标注数据进行统计,获得所述每个样本图像中与所述人脸位置标注数据关联的服饰类型和所述服饰类型对应的服饰位置标注数据;并针对同一服饰类型,根据所述每个样本图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述样本图像中所述同一服饰类型的服饰位置相对于人脸位置的先验数据。由此可知,不同样本图像之间的同一服饰类型的服饰位置相对于人脸位置的先验数据是相同的。籍此,能够构建不同样本图像的同一服饰类型的服饰之间的关联性。
其中,所述服饰类型包括以下中的至少一者:人体上衣、人体下衣、人体全身衣服。具体地,人体全身衣服可为人体上衣和人体下衣连接在一起的衣服,例如,连衣裙、连衣裤等。所述服饰位置相对于人脸位置的先验数据,包括:服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值、服饰类型t的服饰先验框的高度与人脸标注框的高度的比值、服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值、服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。其中,所述人脸位置标注数据可为人脸标注框的宽度、高度和中心点坐标,所述服饰位置标注数据可为服饰标注框的宽度、高度和中心点坐标。具体地,所述服饰位置标注数据可为服饰类型t的服饰标注框的宽度、高度和中心点坐标。假设样本图像中的水平方向和垂直方向分别为x方向和y方向,人脸标注框和服饰标注框的宽度和高度为框在x方向和y方向上的长度。
更具体地,所述根据所述每个样本图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述样本图像中所述同一服饰类型的服饰位置相对于人脸位置的先验数据,包括:通过计算所述每个样本图像中服饰类型t的服饰标注框的宽度与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的高度与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值。
在本实施例中,该步骤S401包括:根据所述样本图像中人脸标注框的宽度和服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的宽度;根据所述样本图像中人脸标注框的高度和服饰类型t的服饰先验框的高度与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的高度;根据所述样本图像中人脸标注框的中心点的横坐标、所述样本图像中人脸标注框的宽度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的横坐标;根据所述样本图像中人脸标注框的中心点的纵坐标、所述样本图像中人脸标注框的高度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的纵坐标。
在步骤S402中,通过待训练的神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据。
在具体的实施方式中,所述神经网络具有特征提取层、连接在所述特征提取层输出端的第一区域池化层,以及连接在所述第一区域池化层输出端的第一全连接层。其中,所述特征提取层可由多个卷积层构成,例如,可由5个卷积层构成。可以理解的是,本发明实施例对构成特征提取层的卷积层的层数不做任何限定,可由本领域技术人员根据实际需要进行设定。
具体地,该步骤S402可包括:通过所述特征提取层对所述样本图像进行特征提取,获得所述样本图像的全局特征图;通过所述第一区域池化层,根据所述服饰位置先验数据对所述全局特征图进行池化操作,获得所述样本图像中服饰位置的特征向量;通过所述第一全连接层对所述样本图像中服饰位置的特征向量进行映射操作,获得所述样本图像中的第三服饰位置检测数据。其中,所述服饰位置先验数据可为样本图像中服饰先验框的宽度、高度和中心点坐标。所述第三服饰位置检测数据可包括样本图像中服饰检测框的宽度、高度和中心点坐标。更具体地,所述服饰位置先验数据可为样本图像中服饰类型t的服饰先验框的宽度、高度和中心点坐标。相应地,所述第三服饰位置检测数据可为样本图像中服饰类型t的服饰检测框的宽度、高度和中心点坐标。
在步骤S403中,根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
在具体的实施方式中,该步骤S403包括:根据所述样本图像中服饰类型t的服饰检测框的中心点的横坐标、所述样本图像中服饰类型t的服饰标注框的中心点的横坐标以及所述样本图像中人脸标注框的宽度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在水平方向上的第一差异;根据所述样本图像中服饰类型t的服饰检测框的中心点的纵坐标、所述样本图像中服饰类型t的服饰标注框的中心点的纵坐标以及所述样本图像中人脸标注框的高度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在垂直方向上的第二差异;根据所述第一差异和所述第二差异训练所述神经网络,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
具体地,可将由服饰位置先验数据检测得到第三服饰位置检测数据的第一损失函数定义如下:
其中,
其中,
其中,
其中,表示样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在x方向上的第一差异,表示样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在y方向上的第二差异,lossprior表示所述第一差异和所述第二差异的和,分别表示样本图像中的服饰类型t的先验框经过所述神经网络后得到的检测框的中心点在x方向和y方向上的坐标,分别表示样本图像中的服饰类型t的标注框的中心点在x方向和y方向上的坐标,wf与hf分别表示样本图像中人脸标注框的宽度和高度。
通过训练所述神经网络最小化上述损失函数中的第一差异和第二差异的和来优化样本图像中服饰类型t的先验框内的深度特征,从而使得检测得到的样本图像中的服饰类型t的检测框与样本图像中的服饰类型t的标注框无限地接近重合。此外,本实施例利用样本图像中服饰类型t的先验框内的深度特征来预测样本图像中服饰类型t的服饰检测框与服饰标注框之间的偏差,相比于直接预测样本图像中服饰类型t的服饰检测框与服饰标注框之间的偏差,能够减小神经网络的训练难度。
在步骤S404中,通过所述神经网络,根据所述第三服饰位置检测数据从所述样本图像中获取所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据。
其中,所述第三服饰位置检测数据可为样本图像中服饰检测框(服饰备选框)的宽度、高度和中心点坐标。所述第四服饰位置检测数据可为样本图像中服饰检测框的宽度、高度和中心点坐标。具体地,所述第三服饰位置检测数据可为样本图像中服饰类型t的服饰备选框的宽度、高度和中心点坐标。相应地,所述第四服饰位置检测数据可为样本图像中服饰类型t的服饰检测框的宽度、高度和中心点坐标。所述第二服饰类别检测数据可为样本图像中服饰类型t的服饰检测框内的服饰类别信息,与所述第四服饰位置检测数据对应。具体地,所述第二服饰类别检测数据包括以下中的至少一者:衬衫、T恤、短裤、长裤、短裙、长裙、连衣裙、连衣裤。
进一步地,所述神经网络还具有与所述特征提取层的输出端和所述第一全连接层的输出端均连接的第二区域池化层,以及与所述第二区域池化层的输出端连接的第二全连接层。具体地,该步骤S404包括:通过所述第二区域池化层,根据所述第三服饰位置检测数据对所述全局特征图进行池化操作,获得所述样本图像中服饰区域的特征向量;通过所述第二全连接层对所述样本图像中服饰区域的特征向量进行映射操作,获得所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据。
在步骤S405中,根据所述第四服饰位置检测数据和所述样本图像中的服饰位置标注数据,以及所述第二服饰类别检测数据和所述样本图像中与所述服饰位置标注数据对应的服饰类别标注数据,训练所述神经网络。
其中,所述服饰类别标注数据可为样本图像中服饰类型t的服饰标注框内的服饰类别信息,与所述服饰位置标注数据对应。具体地,所述服饰类别标注数据包括以下中的至少一者:衬衫、T恤、短裤、长裤、短裙、长裙、连衣裙、连衣裤。
在通过所述神经网络的特征提取层获得的样本图像的全局特征图的基础上,根据步骤S402获得的样本图像中服饰类型t的服饰备选框对所述全局特征图进行池化操作,获得样本图像中服饰类型t的服饰备选框内的深度特征,并对样本图像中服饰类型t的服饰备选框内的深度特征进行映射操作,获得样本图像中服饰类型t的服饰检测框以及服饰类型t的服饰检测框内的服饰类别。然后,将样本图像中服饰类型t的服饰检测框与样本图像中服饰类型t的服饰标注框之间的偏差作为第二损失函数,以及将样本图像中服饰类型t的服饰检测框内的服饰类别与样本图像中服饰类型t的服饰标注框内的服饰类别之间的偏差作为第三损失函数,训练所述神经网络优化样本图像中服饰类型t的服饰备选框内的深度特征,最终能够得到样本图像中服饰类型t的服饰检测框并识别检测框内的服饰类别。籍此,使得训练得到的神经网络不仅能够更加准确地检测出图像中与人脸相关的服饰的位置,而且还能够检测出图像中与人脸相关的服饰的类别信息。
此处,最小化的损失函数(第二损失函数和第三损失函数)与基于Faster RCNN(Faster Region with CNN,快速卷积神经网络)的物体检测方法中定义的损失函数类似,可将此处的损失函数(第二损失函数和第三损失函数)的权重设置为1,上述公式(1)中涉及的第一损失函数的权重设置为0.1,保证训练过程能够收敛,这样整个神经网络可以作为一个整体来进行训练,减少了训练时间。
图6是根据本发明实施例四的一种神经网络的结构示意图。如图6所示,所述神经网络包括特征提取层、第一区域池化层、第一全连接层、第二区域池化层以及第二全连接层。其中,卷积层1、卷积层2、卷积层3、卷积层4和卷积层5构成神经网络的特征提取层,第一区域池化层与特征提取层输出端的连接,第一全连接层与第一区域池化层输出端的连接,第二区域池化层与特征提取层的输出端和第一全连接层的输出端连接,第二全连接层与第二区域池化层的输出端连接。具体地,在所述第一区域池化层的前端可输入样本图像中的服饰先验框,并在所述第一全连接层的输出端输出样本图像中的服饰备选框;在所述第二区域池化层的前端可输入样本图像中的服饰备选框,并在所述第二全连接层的输出端输出样本图像中的服饰检测框以及所述服饰检测框内的服饰类别。由图可知,在根据所述第一损失函数、所述第二损失函数以及所述第三损失函数训练所述神经网络时,特征提取层为神经网络的训练共享部分,可将第一损失函数、第二损失函数以及第三损失函数产生的差异值进行累加,并将累加后的差异值反向传输给特征提取层,通过批量随机梯度下降的方法,更新特征提取层的网络参数,以训练得到预期性能的特征提取层。
根据本实施例提供的神经网络的训练方法,在实施例三的基础上,通过所述神经网络,根据第三服饰位置检测数据从样本图像中获取样本图像中的第四服饰位置检测数据和与第四服饰位置检测数据对应的第二服饰类别检测数据,并根据第四服饰位置检测数据和样本图像中的服饰位置标注数据,以及第二服饰类别检测数据和样本图像中与服饰位置标注数据对应的服饰类别标注数据,训练所述神经网络,与现有技术相比,使得训练得到的神经网络不仅能够更加准确地检测出图像中与人脸相关的服饰的位置,而且还能够检测出图像中与人脸相关的服饰的类别信息。
本实施例的神经网络的训练方法可以由任意适当的具有图像或数据处理能力的设备执行,包括但不限于:摄像头、终端、移动终端、PC机、服务器、车载设备、娱乐设备、广告设备、个人数码助理(PDA)、平板电脑、笔记本电脑、掌上游戏机、智能眼镜、智能手表、可穿戴设备、虚拟显示设备或显示增强设备(如Google Glass、Oculus Rift、Hololens、GearVR)等。
实施例五
基于相同的技术构思,图7是示出根据本发明实施例五的一种服饰的检测装置的结构示意图。可用以执行如实施例一所述的服饰的检测方法的流程。
参照图7,该服饰的检测装置包括第一获取模块501和第二获取模块502。
第一获取模块501,用于获取待检测图像以及服饰位置先验数据,所述服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的;
第二获取模块502,用于通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据,所述服饰检测神经网络为以服饰位置先验数据作为训练样本之一训练得到的神经网络。
通过本实施例提供的服饰的检测装置,根据服饰位置相对于人脸位置的先验数据和人脸位置标注数据确定服饰位置先验数据,建立了人脸位置与服饰位置的关联性,使得在检测服饰位置时,利用服饰位置先验数据能够迅速确定服饰在待检测图像中的可能性区域,无需使用大量的备选框进行检测,提高了服饰位置检测的效率。
实施例六
基于相同的技术构思,图8是根据本发明实施例六的一种服饰的检测装置的结构示意图。可用以执行如实施例二所述的服饰的检测方法的流程。
参照图8,该服饰的检测装置包括第一获取模块602和第二获取模块603。其中,第一获取模块602,用于获取待检测图像以及服饰位置先验数据,所述服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的;第二获取模块603,用于通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据,所述服饰检测神经网络为以服饰位置先验数据作为训练样本之一训练得到的神经网络。
可选地,所述装置还包括:第一处理模块601,用于在所述第一获取模块获取待检测图像以及服饰位置先验数据之前,对所述服饰图像数据库中的服饰图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,获得所述服饰位置相对于人脸位置的先验数据。
可选地,所述第一处理模块601,包括:第一统计子模块6011,用于对每个服饰图像中的服饰类型和服饰类型对应的服饰位置标注数据进行统计,获得所述每个服饰图像中与所述人脸位置标注数据关联的服饰类型和所述服饰类型对应的服饰位置标注数据;第一获取子模块6012,用于针对同一服饰类型,根据所述每个服饰图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述同一服饰类型的服饰位置相对于人脸位置的先验数据。
可选地,所述服饰类型包括以下中的至少一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述服饰位置相对于人脸位置的先验数据,包括以下中的至少一项:服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值;其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述第一获取子模块6012,具体用于:通过计算所述每个服饰图像中服饰类型t的服饰标注框的宽度与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;通过计算所述每个服饰图像中服饰类型t的服饰标注框的高度与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;通过计算所述每个服饰图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;通过计算所述每个服饰图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述第一获取模块602,具体用于:根据所述服饰图像数据库中的服饰图像的人脸标注框的宽度和服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的宽度;根据所述服饰图像中人脸标注框的高度和服饰类型t的服饰先验框的高度与人脸标注框的高度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的高度;根据所述服饰图像中人脸标注框的中心点的横坐标、所述服饰图像中人脸标注框的宽度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的中心点的横坐标;根据所述服饰图像中人脸标注框的中心点的纵坐标、所述服饰图像中人脸标注框的高度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,计算得到所述服饰图像中服饰类型t的服饰先验框的中心点的纵坐标。
可选地,所述神经网络具有特征提取层、连接在所述特征提取层输出端的第一区域池化层,以及连接在所述第一区域池化层输出端的第一全连接层,其中,所述第二获取模块603,具体用于:通过所述特征提取层对所述待检测图像进行特征提取,获得所述待检测图像的全局特征图;通过所述第一区域池化层,根据所述服饰位置先验数据对所述全局特征图进行池化操作,获得所述待检测图像中服饰位置的特征向量;通过所述第一全连接层对所述待检测图像中服饰位置的特征向量进行映射操作,获得所述待检测图像中的第一服饰位置检测数据。
可选地,所述装置还包括:第三获取模块604,用于通过所述神经网络,根据所述第一服饰位置检测数据从所述待检测图像中获取所述待检测图像中的第二服饰位置检测数据和与所述第二服饰位置检测数据对应的第一服饰类别检测数据。
可选地,所述神经网络还具有与所述特征提取层的输出端和所述第一全连接层的输出端均连接的第二区域池化层,以及与所述第二区域池化层的输出端连接的第二全连接层,其中,所述第三获取模块604,具体用于:通过所述第二区域池化层,根据所述第一服饰位置检测数据对所述全局特征图进行池化操作,获得所述待检测图像中服饰区域的特征向量;通过所述第二全连接层对所述待检测图像中服饰区域的特征向量进行映射操作,获得所述待检测图像中的第二服饰位置检测数据和与所述第二服饰位置检测数据对应的第一服饰类别检测数据。
可选地,所述第一服饰类别检测数据包括以下中的至少一者:衬衫、T恤、短裤、长裤、短裙、长裙、连衣裙、连衣裤。
可选地,所述第一服饰位置检测数据包括服饰检测框的宽度、高度和中心点坐标。
需要说明的是,对于本发明实施例提供的服饰的检测装置还涉及的具体细节已在本发明实施例提供的服饰的检测方法中作了详细的说明,在此不在赘述。
实施例七
基于相同的技术构思,图9是根据本发明实施例七的一种服饰的检测装置的结构示意图。可用以执行如实施例二所述的服饰的检测方法的流程。
参照图9,该服饰的检测装置包括第一获取模块705和第二获取模块706。其中,第一获取模块705,用于获取待检测图像以及服饰位置先验数据,所述服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的;第二获取模块706,用于通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据,所述服饰检测神经网络为以服饰位置先验数据作为训练样本之一训练得到的神经网络。
可选地,在所述第二获取模块706之前,所述装置还包括:第四获取模块702,用于根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据;第五获取模块703,用于通过待训练的所述神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据;第一训练模块704,用于根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
可选地,所述第四获取模块702之前,所述装置还包括:第二处理模块701,用于对多个样本图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,获得所述样本图像中服饰位置相对于人脸位置的先验数据。
可选地,所述第二处理模块701,包括:第二统计子模块7011,用于对每个样本图像中的服饰类型和服饰类型对应的服饰位置标注数据进行统计,获得所述每个样本图像中与所述人脸位置标注数据关联的服饰类型和所述服饰类型对应的服饰位置标注数据;第二获取子模块7012,用于针对同一服饰类型,根据所述每个样本图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述样本图像中所述同一服饰类型的服饰位置相对于人脸位置的先验数据。
可选地,所述服饰类型包括以下中的至少一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述服饰位置相对于人脸位置的先验数据,包括以下中的至少一项:服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值;其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述第二获取子模块7012,具体用于:通过计算所述每个样本图像中服饰类型t的服饰标注框的宽度与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的高度与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述第四获取模块702,具体用于:根据所述样本图像中人脸标注框的宽度和服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的宽度;根据所述样本图像中人脸标注框的高度和服饰类型t的服饰先验框的高度与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的高度;根据所述样本图像中人脸标注框的中心点的横坐标、所述样本图像中人脸标注框的宽度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的横坐标;根据所述样本图像中人脸标注框的中心点的纵坐标、所述样本图像中人脸标注框的高度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的纵坐标。
可选地,所述神经网络具有特征提取层、连接在所述特征提取层输出端的第一区域池化层,以及连接在所述第一区域池化层输出端的第一全连接层,其中,所述第五获取模块703,具体用于:通过所述特征提取层对所述样本图像进行特征提取,获得所述样本图像的全局特征图;通过所述第一区域池化层,根据所述服饰位置先验数据对所述全局特征图进行池化操作,获得所述样本图像中服饰位置的特征向量;通过所述第一全连接层对所述样本图像中服饰位置的特征向量进行映射操作,获得所述样本图像中的第三服饰位置检测数据。
可选地,所述第一训练模块704,具体用于:根据所述样本图像中服饰类型t的服饰检测框的中心点的横坐标、所述样本图像中服饰类型t的服饰标注框的中心点的横坐标以及所述样本图像中人脸标注框的宽度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在水平方向上的第一差异;根据所述样本图像中服饰类型t的服饰检测框的中心点的纵坐标、所述样本图像中服饰类型t的服饰标注框的中心点的纵坐标以及所述样本图像中人脸标注框的高度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在垂直方向上的第二差异;根据所述第一差异和所述第二差异训练所述神经网络,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述装置还包括:第六获取模块707,用于通过所述神经网络,根据所述第三服饰位置检测数据从所述样本图像中获取所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据;第二训练模块708,用于根据所述第四服饰位置检测数据和所述样本图像中的服饰位置标注数据,以及所述第二服饰类别检测数据和所述样本图像中与所述服饰位置标注数据对应的服饰类别标注数据,训练所述神经网络。
可选地,所述神经网络还具有与所述特征提取层的输出端和所述第一全连接层的输出端均连接的第二区域池化层,以及与所述第二区域池化层的输出端连接的第二全连接层,其中,所述第六获取模块707,具体用于:通过所述第二区域池化层,根据所述第三服饰位置检测数据对所述全局特征图进行池化操作,获得所述样本图像中服饰区域的特征向量;通过所述第二全连接层对所述样本图像中服饰区域的特征向量进行映射操作,获得所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据。
需要说明的是,对于本发明实施例提供的服饰的检测装置还涉及的具体细节已在本发明实施例提供的服饰的检测方法中作了详细的说明,在此不在赘述。
实施例八
基于相同的技术构思,图10是示出根据本发明实施例八的一种神经网络的训练装置的结构示意图。可用以执行如实施例三所述的神经网络的训练方法的流程。
参照图10,该神经网络的训练装置包括第七获取模块801、第八获取模块802和第三训练模块803。
第七获取模块801,用于根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据;
第八获取模块802,用于通过待训练的神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据;
第三训练模块803,用于根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
通过本实施例提供的神经网络的训练装置,根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取样本图像中的服饰位置先验数据;并通过待训练的神经网络,根据服饰位置先验数据从样本图像中获取样本图像中的服饰位置检测数据;再根据服饰位置检测数据和样本图像中的服饰位置标注数据,训练所述神经网络,与现有技术相比,通过利用样本图像中服饰位置相对于人脸位置的先验数据,减小了神经网络的训练难度,并且使得训练得到的神经网络能够快速准确地检测出图像中与人脸相关的服饰的位置。
实施例九
基于相同的技术构思,图11是根据本发明实施例九的一种神经网络的训练装置的结构示意图。可用以执行如实施例四所述的神经网络的训练方法的流程。
参照图11,该神经网络的训练装置包括第七获取模块902、第八获取模块903和第三训练模块904。其中,第七获取模块902,用于根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据;第八获取模块903,用于通过待训练的神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据;第三训练模块904,用于根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
可选地,在所述第七获取模块902之前,所述装置还包括:第三处理模块901,用于对多个样本图像中的人脸位置标注数据和服饰位置标注数据进行统计处理,获得所述样本图像中服饰位置相对于人脸位置的先验数据。
可选地,所述第三处理模块901,包括:第三统计子模块9011,用于对每个样本图像中的服饰类型和服饰类型对应的服饰位置标注数据进行统计,获得所述每个样本图像中与所述人脸位置标注数据关联的服饰类型和所述服饰类型对应的服饰位置标注数据;第三获取子模块9012,用于针对同一服饰类型,根据所述每个样本图像中与所述同一服饰类型关联的人脸位置标注数据和所述同一服饰类型对应的服饰位置标注数据,获得所述样本图像中所述同一服饰类型的服饰位置相对于人脸位置的先验数据。
可选地,所述服饰类型包括以下中的至少一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述服饰位置相对于人脸位置的先验数据,包括以下中的至少一项:服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值;其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述第三获取子模块9012,具体用于:通过计算所述每个样本图像中服饰类型t的服饰标注框的宽度与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的高度与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的高度与人脸标注框的高度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值;通过计算所述每个样本图像中服饰类型t的服饰标注框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值的平均值,获得服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
可选地,所述第七获取模块902,具体用于:根据所述样本图像中人脸标注框的宽度和服饰类型t的服饰先验框的宽度与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的宽度;根据所述样本图像中人脸标注框的高度和服饰类型t的服饰先验框的高度与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的高度;根据所述样本图像中人脸标注框的中心点的横坐标、所述样本图像中人脸标注框的宽度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在水平方向上的距离与人脸标注框的宽度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的横坐标;根据所述样本图像中人脸标注框的中心点的纵坐标、所述样本图像中人脸标注框的高度以及服饰类型t的服饰先验框的中心点与人脸标注框的中心点在垂直方向上的距离与人脸标注框的高度的比值,计算得到所述样本图像中服饰类型t的服饰先验框的中心点的纵坐标。
可选地,所述神经网络具有特征提取层、连接在所述特征提取层输出端的第一区域池化层,以及连接在所述第一区域池化层输出端的第一全连接层,其中,所述第八获取模块903,具体用于:通过所述特征提取层对所述样本图像进行特征提取,获得所述样本图像的全局特征图;通过所述第一区域池化层,根据所述服饰位置先验数据对所述全局特征图进行池化操作,获得所述样本图像中服饰位置的特征向量;通过所述第一全连接层对所述样本图像中服饰位置的特征向量进行映射操作,获得所述样本图像中的第三服饰位置检测数据。
可选地,所述第三训练模块904,具体用于:根据所述样本图像中服饰类型t的服饰检测框的中心点的横坐标、所述样本图像中服饰类型t的服饰标注框的中心点的横坐标以及所述样本图像中人脸标注框的宽度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在水平方向上的第一差异;根据所述样本图像中服饰类型t的服饰检测框的中心点的纵坐标、所述样本图像中服饰类型t的服饰标注框的中心点的纵坐标以及所述样本图像中人脸标注框的高度,计算得到所述样本图像中服饰类型t的服饰检测框的中心点与服饰标注框的中心点在垂直方向上的第二差异;根据所述第一差异和所述第二差异训练所述神经网络,其中,t表示以下中的任意一者:人体上衣、人体下衣、人体全身衣服。
需要说明的是,对于本发明实施例提供的神经网络的训练装置还涉及的具体细节已在本发明实施例提供的神经网络的训练方法中作了详细的说明,在此不在赘述。
实施例十
基于相同的技术构思,图12是根据本发明实施例十的一种神经网络的训练装置的结构示意图。可用以执行如实施例四所述的神经网络的训练方法的流程。
参照图12,该神经网络的训练装置包括第七获取模块1001、第八获取模块1002和第三训练模块1003。其中,第七获取模块1001,用于根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据;第八获取模块1002,用于通过待训练的神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据;第三训练模块1003,用于根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
可选地,所述装置还包括:第九获取模块1004,用于通过所述神经网络,根据所述第三服饰位置检测数据从所述样本图像中获取所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据;第四训练模块1005,用于根据所述第四服饰位置检测数据和所述样本图像中的服饰位置标注数据,以及所述第二服饰类别检测数据和所述样本图像中与所述服饰位置标注数据对应的服饰类别标注数据,训练所述神经网络。
可选地,所述神经网络还具有与所述特征提取层的输出端和所述第一全连接层的输出端均连接的第二区域池化层,以及与所述第二区域池化层的输出端连接的第二全连接层,其中,所述第九获取模块1004,具体用于:通过所述第二区域池化层,根据所述第三服饰位置检测数据对所述全局特征图进行池化操作,获得所述样本图像中服饰区域的特征向量;通过所述第二全连接层对所述样本图像中服饰区域的特征向量进行映射操作,获得所述样本图像中的第四服饰位置检测数据和与所述第四服饰位置检测数据对应的第二服饰类别检测数据。
可选地,所述第二服饰类别检测数据包括以下中的至少一者:衬衫、T恤、短裤、长裤、短裙、长裙、连衣裙、连衣裤。
可选地,所述第三服饰位置检测数据包括服饰检测框的宽度、高度和中心点坐标。
需要说明的是,对于本发明实施例提供的神经网络的训练装置还涉及的具体细节已在本发明实施例提供的神经网络的训练方法中作了详细的说明,在此不在赘述。
实施例十一
本发明实施例还提供了一种电子设备,例如可以是移动终端、个人计算机(PC)、平板电脑、服务器等。下面参考图13,其示出了适于用来实现本发明实施例的终端设备或服务器的电子设备1100的结构示意图。如图13所示,电子设备1100包括一个或多个第一处理器、第一通信元件等,所述一个或多个第一处理器例如:一个或多个中央处理单元(CPU)1101,和/或一个或多个图像处理器(GPU)1113等,第一处理器可以根据存储在只读存储器(ROM)1102中的可执行指令或者从存储部分1108加载到随机访问存储器(RAM)1103中的可执行指令而执行各种适当的动作和处理。本实施例中,第一只读存储器1102和随机访问存储器1103统称为第一存储器。第一通信元件包括通信组件1112和/或通信接口1109。其中,通信组件1112可包括但不限于网卡,所述网卡可包括但不限于IB(Infiniband)网卡,通信接口1109包括诸如LAN卡、调制解调器等的网络接口卡的通信接口,通信接口1109经由诸如因特网的网络执行通信处理。
第一处理器可与只读存储器1102和/或随机访问存储器1103中通信以执行可执行指令,通过第一通信总线1104与通信组件1112相连、并经通信组件1112与其他目标设备通信,从而完成本发明实施例提供的任一项服饰检测方法对应的操作,例如,获取待检测图像以及服饰位置先验数据,所述服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的;通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据,所述服饰检测神经网络为以服饰位置先验数据作为训练样本之一训练得到的神经网络。
此外,在RAM 1103中,还可存储有装置操作所需的各种程序和数据。CPU1101或GPU1113、ROM1102以及RAM1103通过第一通信总线1104彼此相连。在有RAM1103的情况下,ROM1102为可选模块。RAM1103存储可执行指令,或在运行时向ROM1102中写入可执行指令,可执行指令使第一处理器执行上述通信方法对应的操作。输入/输出(I/O)接口1105也连接至第一通信总线1104。通信组件1112可以集成设置,也可以设置为具有多个子模块(例如多个IB网卡),并在通信总线链接上。
以下部件连接至I/O接口1105:包括键盘、鼠标等的输入部分1106;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1107;包括硬盘等的存储部分1108;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信接口1109。驱动器1110也根据需要连接至I/O接口1105。可拆卸介质1111,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1110上,以便于从其上读出的计算机程序根据需要被安装入存储部分1108。
需要说明的,如图13所示的架构仅为一种可选实现方式,在具体实践过程中,可根据实际需要对上述图13的部件数量和类型进行选择、删减、增加或替换;在不同功能部件设置上,也可采用分离设置或集成设置等实现方式,例如GPU和CPU可分离设置或者可将GPU集成在CPU上,通信元件可分离设置,也可集成设置在CPU或GPU上,等等。这些可替换的实施方式均落入本发明的保护范围。
特别地,根据本发明实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行流程图所示的方法的程序代码,程序代码可包括对应执行本发明实施例提供的方法步骤对应的指令,例如,获取待检测图像以及服饰位置先验数据,所述服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的;通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据,所述服饰检测神经网络为以服饰位置先验数据作为训练样本之一训练得到的神经网络。在这样的实施例中,该计算机程序可以通过通信元件从网络上被下载和安装,和/或从可拆卸介质1111被安装。在该计算机程序被第一处理器执行时,执行本发明实施例的方法中限定的上述功能。
实施例十二
本发明实施例还提供了一种电子设备,例如可以是移动终端、个人计算机(PC)、平板电脑、服务器等。下面参考图14,其示出了适于用来实现本发明实施例的终端设备或服务器的电子设备1200的结构示意图。如图14所示,电子设备1200包括一个或多个第二处理器、第二通信元件等,所述一个或多个第二处理器例如:一个或多个中央处理单元(CPU)1201,和/或一个或多个图像处理器(GPU)1213等,第二处理器可以根据存储在只读存储器(ROM)1202中的可执行指令或者从存储部分1208加载到随机访问存储器(RAM)1203中的可执行指令而执行各种适当的动作和处理。本实施例中,第二只读存储器1202和随机访问存储器1203统称为第二存储器。第二通信元件包括通信组件1212和/或通信接口1209。其中,通信组件1212可包括但不限于网卡,所述网卡可包括但不限于IB(Infiniband)网卡,通信接口1209包括诸如LAN卡、调制解调器等的网络接口卡的通信接口,通信接口1209经由诸如因特网的网络执行通信处理。
第二处理器可与只读存储器1202和/或随机访问存储器1203中通信以执行可执行指令,通过第二通信总线1204与通信组件1212相连、并经通信组件1212与其他目标设备通信,从而完成本发明实施例提供的任一项神经网络的训练方法对应的操作,例如,根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据;通过待训练的神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据;根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
此外,在RAM 1203中,还可存储有装置操作所需的各种程序和数据。CPU1201或GPU1213、ROM1202以及RAM1203通过第二通信总线1204彼此相连。在有RAM1203的情况下,ROM1202为可选模块。RAM1203存储可执行指令,或在运行时向ROM1202中写入可执行指令,可执行指令使第二处理器执行上述通信方法对应的操作。输入/输出(I/O)接口1205也连接至第二通信总线1204。通信组件1212可以集成设置,也可以设置为具有多个子模块(例如多个IB网卡),并在通信总线链接上。
以下部件连接至I/O接口1205:包括键盘、鼠标等的输入部分1206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1207;包括硬盘等的存储部分1208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信接口1209。驱动器1210也根据需要连接至I/O接口1205。可拆卸介质1211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1210上,以便于从其上读出的计算机程序根据需要被安装入存储部分1208。
需要说明的,如图14所示的架构仅为一种可选实现方式,在具体实践过程中,可根据实际需要对上述图14的部件数量和类型进行选择、删减、增加或替换;在不同功能部件设置上,也可采用分离设置或集成设置等实现方式,例如GPU和CPU可分离设置或者可将GPU集成在CPU上,通信元件可分离设置,也可集成设置在CPU或GPU上,等等。这些可替换的实施方式均落入本发明的保护范围。
特别地,根据本发明实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行流程图所示的方法的程序代码,程序代码可包括对应执行本发明实施例提供的方法步骤对应的指令,例如,根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据;通过待训练的神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据;根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。在这样的实施例中,该计算机程序可以通过通信元件从网络上被下载和安装,和/或从可拆卸介质1211被安装。在该计算机程序被第二处理器执行时,执行本发明实施例的方法中限定的上述功能。
需要指出,根据实施的需要,可将本发明实施例中描述的各个部件/步骤拆分为更多部件/步骤,也可将两个或多个部件/步骤或者部件/步骤的部分操作组合成新的部件/步骤,以实现本发明实施例的目的。
上述根据本发明实施例的方法可在硬件、固件中实现,或者被实现为可存储在记录介质(诸如CD ROM、RAM、软盘、硬盘或磁光盘)中的软件或计算机代码,或者被实现通过网络下载的原始存储在远程记录介质或非暂时机器可读介质中并将被存储在本地记录介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件(诸如ASIC或FPGA)的记录介质上的这样的软件处理。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件(例如,RAM、ROM、闪存等),当所述软件或计算机代码被计算机、处理器或硬件访问且执行时,实现在此描述的处理方法。此外,当通用计算机访问用于实现在此示出的处理的代码时,代码的执行将通用计算机转换为用于执行在此示出的处理的专用计算机。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明实施例的范围。
以上实施方式仅用于说明本发明实施例,而并非对本发明实施例的限制,有关技术领域的普通技术人员,在不脱离本发明实施例的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明实施例的范畴,本发明实施例的专利保护范围应由权利要求限定。
Claims (10)
1.一种服饰的检测方法,其特征在于,所述方法包括:
获取待检测图像以及服饰位置先验数据,所述服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的;
通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据,所述服饰检测神经网络为以服饰位置先验数据作为训练样本之一训练得到的神经网络。
2.一种神经网络的训练方法,其特征在于,所述方法包括:
根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据;
通过待训练的神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据;
根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
3.一种服饰的检测装置,其特征在于,所述装置包括:
第一获取模块,用于获取待检测图像以及服饰位置先验数据,所述服饰位置先验数据是根据服饰图像数据库中服饰位置相对于人脸位置的先验数据和人脸位置标注数据获得的;
第二获取模块,用于通过服饰检测神经网络,根据所述服饰位置先验数据获取所述待检测图像中的第一服饰位置检测数据,所述服饰检测神经网络为以服饰位置先验数据作为训练样本之一训练得到的神经网络。
4.一种神经网络的训练装置,其特征在于,所述装置包括:
第七获取模块,用于根据样本图像中服饰位置相对于人脸位置的先验数据和人脸位置标注数据,获取所述样本图像中的服饰位置先验数据;
第八获取模块,用于通过待训练的神经网络,根据所述服饰位置先验数据从所述样本图像中获取所述样本图像中的第三服饰位置检测数据;
第三训练模块,用于根据所述第三服饰位置检测数据和所述样本图像中的服饰位置标注数据,训练所述神经网络。
5.一种计算机可读存储介质,其上存储有计算机程序指令,其中,所述程序指令被处理器执行时实现权利要求1所述的服饰的检测方法的步骤。
6.一种计算机可读存储介质,其上存储有计算机程序指令,其中,所述程序指令被处理器执行时实现权利要求2所述的神经网络的训练方法的步骤。
7.一种计算机程序产品,其包括有计算机程序指令,其中,所述程序指令被处理器执行时实现权利要求1所述的服饰的检测方法的步骤。
8.一种计算机程序产品,其包括有计算机程序指令,其中,所述程序指令被处理器执行时实现权利要求2所述的神经网络的训练方法的步骤。
9.一种电子设备,包括:第一处理器、第一存储器、第一通信元件和第一通信总线,所述第一处理器、所述第一存储器和所述第一通信元件通过所述第一通信总线完成相互间的通信;
所述第一存储器用于存放至少一可执行指令,所述可执行指令使所述第一处理器执行如权利要求1所述的服饰的检测方法的步骤。
10.一种电子设备,包括:第二处理器、第二存储器、第二通信元件和第二通信总线,所述第二处理器、所述第二存储器和所述第二通信元件通过所述第二通信总线完成相互间的通信;
所述第二存储器用于存放至少一可执行指令,所述可执行指令使所述第二处理器执行如权利要求2所述的神经网络的训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711166328.0A CN108229306A (zh) | 2017-11-21 | 2017-11-21 | 服饰检测和神经网络训练的方法、装置、存储介质和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711166328.0A CN108229306A (zh) | 2017-11-21 | 2017-11-21 | 服饰检测和神经网络训练的方法、装置、存储介质和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108229306A true CN108229306A (zh) | 2018-06-29 |
Family
ID=62652786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711166328.0A Pending CN108229306A (zh) | 2017-11-21 | 2017-11-21 | 服饰检测和神经网络训练的方法、装置、存储介质和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108229306A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948690A (zh) * | 2019-03-14 | 2019-06-28 | 西南交通大学 | 一种基于深度学习和结构信息的高铁场景感知方法 |
CN110135408A (zh) * | 2019-03-26 | 2019-08-16 | 北京捷通华声科技股份有限公司 | 文本图像检测方法、网络以及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140123228A (ko) * | 2013-04-12 | 2014-10-22 | (주)에프엑스기어 | 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 장치 및 방법 |
CN105447529A (zh) * | 2015-12-30 | 2016-03-30 | 商汤集团有限公司 | 一种服饰检测及其属性值识别的方法和系统 |
CN106126579A (zh) * | 2016-06-17 | 2016-11-16 | 北京市商汤科技开发有限公司 | 物体识别方法和装置、数据处理装置和终端设备 |
CN106548179A (zh) * | 2016-09-29 | 2017-03-29 | 北京市商汤科技开发有限公司 | 物体和服饰关键点的检测方法、装置和电子设备 |
CN106815574A (zh) * | 2017-01-20 | 2017-06-09 | 博康智能信息技术有限公司北京海淀分公司 | 建立检测模型、检测接打手机行为的方法和装置 |
-
2017
- 2017-11-21 CN CN201711166328.0A patent/CN108229306A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140123228A (ko) * | 2013-04-12 | 2014-10-22 | (주)에프엑스기어 | 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 장치 및 방법 |
CN105447529A (zh) * | 2015-12-30 | 2016-03-30 | 商汤集团有限公司 | 一种服饰检测及其属性值识别的方法和系统 |
CN106126579A (zh) * | 2016-06-17 | 2016-11-16 | 北京市商汤科技开发有限公司 | 物体识别方法和装置、数据处理装置和终端设备 |
CN106548179A (zh) * | 2016-09-29 | 2017-03-29 | 北京市商汤科技开发有限公司 | 物体和服饰关键点的检测方法、装置和电子设备 |
CN106815574A (zh) * | 2017-01-20 | 2017-06-09 | 博康智能信息技术有限公司北京海淀分公司 | 建立检测模型、检测接打手机行为的方法和装置 |
Non-Patent Citations (1)
Title |
---|
SHINTAMI C. HIDAYATI ET AL.: "Learning and Recognition of Clothing Genres From Full-Body Images", 《IEEE TRANSACTIONS ON CYBERNETICS》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948690A (zh) * | 2019-03-14 | 2019-06-28 | 西南交通大学 | 一种基于深度学习和结构信息的高铁场景感知方法 |
CN110135408A (zh) * | 2019-03-26 | 2019-08-16 | 北京捷通华声科技股份有限公司 | 文本图像检测方法、网络以及设备 |
CN110135408B (zh) * | 2019-03-26 | 2021-02-19 | 北京捷通华声科技股份有限公司 | 文本图像检测方法、网络以及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kumar et al. | Training CNNs for 3-D sign language recognition with color texture coded joint angular displacement maps | |
CN107273876B (zh) | 一种基于深度学习的‘宏to微转换模型’的微表情自动识别方法 | |
CN108229355A (zh) | 行为识别方法和装置、电子设备、计算机存储介质、程序 | |
CN109614925A (zh) | 服饰属性识别方法和装置、电子设备、存储介质 | |
Yuan et al. | Iterative transformer network for 3d point cloud | |
US8525828B1 (en) | Visualization of fit, flow, and texture of clothing items by online consumers | |
CN108335322A (zh) | 深度估计方法和装置、电子设备、程序和介质 | |
CN108537135A (zh) | 对象识别及对象识别网络的训练方法和装置、电子设备 | |
CN108681695A (zh) | 视频动作识别方法及装置、电子设备和存储介质 | |
CN108229314A (zh) | 目标人物的搜索方法、装置和电子设备 | |
CN107844753A (zh) | 视频图像中的行人重识别方法、装置、存储介质及处理器 | |
CN108830221A (zh) | 图像的目标对象分割及训练方法和装置、设备、介质、产品 | |
CN108229559B (zh) | 服饰检测方法、装置、电子设备、程序和介质 | |
Kim et al. | Long range attachments-a method to simulate inextensible clothing in computer games | |
CN108875480A (zh) | 一种人脸特征信息的追踪方法、装置及系统 | |
CN111325226B (zh) | 信息呈现方法和装置 | |
CN109598234A (zh) | 关键点检测方法和装置 | |
CN109902548A (zh) | 一种对象属性识别方法、装置、计算设备及系统 | |
CN113435282B (zh) | 基于深度学习的无人机影像麦穗识别方法 | |
CN107368820A (zh) | 一种精细化手势识别方法、装置及设备 | |
CN108776775A (zh) | 一种基于权重融合深度及骨骼特征的老年人室内跌倒检测方法 | |
CN109598249A (zh) | 服饰检测方法和装置、电子设备、存储介质 | |
CN110176023A (zh) | 一种基于金字塔结构的光流估计方法 | |
US20200090039A1 (en) | Learning unified embedding | |
CN108229306A (zh) | 服饰检测和神经网络训练的方法、装置、存储介质和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180629 |