CN108596121A - 一种基于上下文和结构建模的人脸关键点检测方法 - Google Patents
一种基于上下文和结构建模的人脸关键点检测方法 Download PDFInfo
- Publication number
- CN108596121A CN108596121A CN201810398701.3A CN201810398701A CN108596121A CN 108596121 A CN108596121 A CN 108596121A CN 201810398701 A CN201810398701 A CN 201810398701A CN 108596121 A CN108596121 A CN 108596121A
- Authority
- CN
- China
- Prior art keywords
- key point
- context
- face
- network
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于上下文和结构建模的人脸关键点检测方法,用于给定人脸图像的情况下,预测人脸图像中人脸的关键点位置。具体包括如下步骤:获取用于人脸关键点检测的人脸图像数据集,并定义算法目标,同时建立预测网络和上下文网络;对预测关键点和真实关键点进行上下文建模;对预测关键点和真实关键点进行结构建模;训练关键点检测的预测模型;使用所述预测模型检测人脸图像中人脸的关键点位置。本发明适用于自然场景下的人脸关键点检测问题,面对各类复杂情况具有较优的效果和鲁棒性。
Description
技术领域
本发明属于计算机视觉领域,特别地涉及一种基于上下文和结构建模的人脸关键点检测方法。
背景技术
人脸关键点检测是计算机视觉中一个重要的研究问题,其主要目的是对图像和视频中的人脸进行分析和解读,以获取其中的丰富信息。目前,该技术在智能视频监控、智能交通和商用人脸识别系统中已经得到了广泛的应用。
在自然场景下,由于受人脸姿态、光照条件和遮挡等因素影响,人脸关键点检测任务在特征提取、结构信息建模和上下文信息分析层面仍然面临巨大的挑战。在此任务上,前人的研究工作大致可以划分为两个类别:1)基于图像区域分类的方法和2)基于点回归的方法。
发明内容
为解决上述问题,本发明的目的在于提供一种基于上下文和结构建模的人脸关键点检测方法。该方法由基于上下文网络的上下文信息建模和基于树模型的结构信息建模模块组成。前者能够量化预测关键点和真实关键点之间的上下文差异并将其作为模型优化目标的一部分,而后者则是通过分别构建一个人脸层次树来拟合预测关键点和真实关键点的分布模式,并且设计了一种被称作结构损失的代价函数来衡量两个人脸层次树之间的变形代价。
为实现上述目的,本发明的技术方案为:
一种基于上下文和结构建模的人脸关键点检测方法,其包括以下步骤:
S1、获取用于人脸关键点检测的人脸图像数据集,定义算法目标;同时建立关键点检测的预测模型和上下文网络模型;
S2、对预测关键点和真实关键点进行上下文建模;
S3、对预测关键点和真实关键点进行结构建模;
S4、基于S2、S3的建模结果训练预测模型;
S5、使用S4中所述预测模型检测人脸图像中人脸的关键点位置。
作为优选,用于人脸关键点检测的人脸图像数据集,包括人脸图像Ιtrain,人工标注的真实关键点定义算法目标为预测人脸图像的关键点
作为优选,建立关键点检测的预测模型和上下文网络模型的过程如下:建立两个深度卷积神经网络,即预测网络和上下文网络,其中预测网络是目标网络,其输入为人脸图像Ιtrain,输出为预测关键点而上下文网络则用以提取关键点上下文信息,其输入为人脸图像Ιtrain和预测关键点真实关键点
作为优选,对预测关键点和真实关键点进行上下文建模,具体包括以下子步骤:
S21、对人脸图像Ιtrain进行零均值化后,随机进行变换操作,所述变换操作包括放缩、旋转、平移、添加高斯噪声或对比度变换,再从变换后的图像中裁剪出预设大小的图像块作为算法输入,对作相同的变换和裁剪得到
S22、将S21中得到的图像块输入到预测网络中,输出得到预测关键点即:
其中f()为预测网络,θ1为预测网络的参数;
S23、对于中每一个预测关键点从输入图像中获取一个以该关键点为中心,宽为长为的图像区域对于中对应的真实关键点(xi,yi),采用同样的方式获取一个图像区域
S24、将S21中得到的图像块输入到上下文网络中,并分别提取图像区域和pi的上下文和上下文通过一个两步方法获得,即首先将图像区域和pi映射到上下文网络第l层上的目标位置和其中第l层的特征图用φl表示;然后在φl上分别以和位置为中心获取一个3×3的特征表达,分别得到和
S25、量化S24中得到的上下文和之间的差异即
其中和通过以下方法进行计算:
其中表示上下文网络第l层位置上的值,T_S表示上下文网络第l层的总步长;
S26、计算所有N个预测关键点和其对应的真实关键点上下文差异的平均值,用以表示上下文损失ΦCL:
作为优选,对预测关键点和真实关键点进行结构建模,具体包括:
S31、对于真实关键点构建一个人脸层次树T=(V,E),其中V是所有层次上的人脸区域的集合,而E则表示父子区域之间的几何连接的集合;
对于每一个人脸区域vi∈V,其几何位置定义如下:
其中当vm为叶节点时,sm=(xm,ym),表示vm中唯一一个关键点的几何位置,child(vm)为vm的子节点集合,|child(vm)|为vm的子节点集合中的元素个数;
S32、对于每一个节点vi和其父节点vj之间的几何连接ei,j∈E,其计算公式如下:
ei,j=θ0δxi,j+θ1δ2xi,j+θ2δyi,j+θ3δ2yi,j;
(xi,yi)=P(vi);
(xj,yj)=P(vj);
δxi,j=xi-xj;
δyi,j=yi-yj;
其中δxi,j表示节点vi和其父节点vj在x轴上的偏移,δyi,j表示节点vi和其父节点vj在轴上的偏移;θ0,θ1,θ2,θ3为4个超参数;
S33、对于预测关键点利用与真实关键点相同的方法构建一个人脸层次树其中是关于预测关键点的所有层次上的人脸区域的集合,而则表示关于预测关键点的父子区域之间的几何连接的集合;中节点和其父节点之间的几何连接以与S32相同的方法计算。
S34、计算人脸层次树T和之间的结构损失ΦSL:
作为优选,训练预测模型具体包括以下子步骤:
S41、计算预测网络的损失函数L,其计算公式如下:
L=ΦEL+αΦCL+βΦSL
其中ΦEL表示欧式距离损失函数,α和β表示平衡因子;
S42、使用SGD优化方法和反向传播算法在损失函数L下训练预测网络,训练过程中,上下文网络保持不变。
作为优选,所述步骤S5中,检测人脸图像中人脸的关键点位置包括将人脸图像Ι直接输入到S4训练的预测网络,其输出即为预测的人脸关键点。
与未考虑或未同时考虑上下文损失与结构损失的方法相比,本发明方法具有更强的鲁棒性,能够对关键点,特别是弯角部位的复杂关键点进行更加有效、精准的识别。此外,本发明方法对具有严重遮挡的图像的关键点具有较优的识别效率。
附图说明
图1为本发明的流程示意图;
图2为基于LFW+Net数据集的部分人脸关键点识别结果;
图3为基于AFLW-full数据集的部分人脸关键点识别结果;
图4为基于COFW数据集的部分人脸关键点识别结果。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解,在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本发明。
参考图1,在本发明的较佳实施例中,一种基于上下文和结构建模的人脸关键点检测方法,包括以下步骤:
S1、获取用于人脸关键点检测的人脸图像数据集,定义算法目标;同时建立关键点检测的预测模型和上下文网络模型;
其中,用于人脸关键点检测的人脸图像数据集,包括人脸图像Ιtrain,人工标注的真实关键点定义算法目标为预测人脸图像的关键点建立关键点检测的预测模型和上下文网络模型的过程如下:建立两个深度卷积神经网络,即预测网络和上下文网络,其中预测网络是目标网络,其输入为人脸图像Ιtrain,输出为预测关键点而上下文网络则用以提取关键点上下文信息,其输入为人脸图像Ιtrain和预测关键点真实关键点
S2、对预测关键点和真实关键点进行上下文建模:
S21、对人脸图像Ιtrain进行零均值化后,随机进行放缩、旋转、平移、添加高斯噪声、对比度变换等变换操作,再从变换后的图像中裁剪出高224,宽224大小的图像块作为算法输入,对作相同的变换和裁剪得到
S22、将S21中得到的图像块输入到预测网络中,输出得到预测关键点即:
其中f()为预测网络,θ1为预测网络的参数;
S23、对于中每一个预测关键点从输入图像中获取一个以该关键点为中心,宽为长为的图像区域对于中对应的真实关键点(xi,yi),采用同样的方式获取一个宽为长为的图像区域
S24、将S21中得到的图像块输入到上下文网络中,并分别提取图像区域和pi的上下文和上下文通过一个两步方法获得,即首先将图像区域和pi映射到上下文网络第l层上的目标位置和其中第l层的特征图用φl表示;然后在φl上分别以和位置为中心获取一个3×3的特征表达,分别得到和
S25、量化S24中得到的上下文和之间的差异即
其中和通过以下方法进行计算:
其中表示上下文网络第l层位置上的值,T_S表示上下文网络第l层的总步长;
S26、计算所有N个预测关键点和其对应的真实关键点上下文差异的平均值,用以表示上下文损失ΦCL:
S3、对预测关键点和真实关键点进行结构建模:
S31、对于真实关键点构建一个人脸层次树T=(V,E),其中V是所有层次上的人脸区域的集合,而E则表示父子区域之间的几何连接的集合;
对于每一个人脸区域vi∈V,其几何位置定义如下:
其中当vm为叶节点时,sm=(xm,ym),表示vm中唯一一个关键点的几何位置,child(vm)为vm的子节点集合,|child(vm)|为vm的子节点集合中的元素个数;
S32、对于每一个节点vi和其父节点vj之间的几何连接ei,j∈E,其计算公式如下:
ei,j=θ0δxi,j+θ1δ2xi,j+θ2δyi,j+θ3δ2yi,j;
(xi,yi)=P(vi);
(xj,yj)=P(vj);
δxi,j=xi-xj;
δyi,j=yi-yj;
其中δxi,j表示节点vi和其父节点vj在x轴上的偏移,δyi,j表示节点vi和其父节点vj在轴上的偏移;θ0,θ1,θ2,θ3为4个超参数;
S33、对于预测关键点利用相同的方法构建一个人脸层次树
S34、计算人脸层次树T和之间的结构损失ΦSL:
S4、基于S2、S3的建模结果训练预测模型:
S41、计算预测网络的损失函数L,其计算公式如下:
L=ΦEL+αΦCL+βΦSL
其中ΦEL表示欧式距离损失函数,α和β表示平衡因子;
S42、使用SGD优化方法和反向传播算法在损失函数L下训练预测网络,训练过程中,上下文网络保持不变。
S5、使用S4中所述预测模型检测人脸图像中人脸的关键点位置:将人脸图像Ι直接输入到S4训练的预测网络,其输出即为预测的人脸关键点。
下面将上述方法应用于具体实施例中,以便本领域技术人员能够更好地理解本发明的效果。
实施例
本实施例的实现方法如前所述,不再详细阐述具体的步骤,下面仅针对案例数据展示其效果。本发明在三类数据集上实施,分别为:
LFW+Net数据集:该数据集包含13466张人脸图像,5590张图像来源于LFW数据集,剩余7876张图像下载于网络;其中10000张图像用于训练,3466张图像用于测试。
AFLW-full数据集:该数据集包含24386张人脸图像;其中20000张图像用于训练,4386张图像用于测试。
COFW数据集:该数据集包含1007张人脸图像,且大部分为严重遮挡图像;其中845张图像用于训练,162张图像用于测试。
三类数据集中部分较难识别图像的实施结果如图2、图3、图4所示,其中每张图中第一行为不考虑上下文损失与结构损失的AlexNet预测网络的识别结果,第二行为AlexNet预测网络叠加考虑上下文损失的识别结果,第三行为AlexNet预测网络叠加考虑结构损失的识别结果,第四行为AlexNet预测网络叠加考虑上下文损失与结构损失的识别结果,即本发明提出的方法。
通过比较不同人脸关键点检测方法可以发现,与未考虑或未同时考虑上下文损失与结构损失的方法相比,本发明方法具有更强的鲁棒性,能够对关键点,特别是弯角部位的复杂关键点进行更加有效、精准的识别。此外,通过分析对COFW数据集的识别结果可知,本发明方法对具有严重遮挡的图像的关键点具有较优的识别效率。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于上下文和结构建模的人脸关键点检测方法,其特征在于,包括以下步骤:
S1、获取用于人脸关键点检测的人脸图像数据集,定义算法目标;同时建立关键点检测的预测模型和上下文网络模型;
S2、对预测关键点和真实关键点进行上下文建模;
S3、对预测关键点和真实关键点进行结构建模;
S4、基于S2、S3的建模结果训练预测模型;
S5、使用S4中所述预测模型检测人脸图像中人脸的关键点位置。
2.如权利要求1所述的一种基于上下文和结构建模的人脸关键点检测方法,其特征在于,所述步骤S1中,用于人脸关键点检测的人脸图像数据集,包括人脸图像Ιtrain,人工标注的真实关键点定义算法目标为预测人脸图像的关键点
3.如权利要求1所述的一种基于上下文和结构建模的人脸关键点检测方法,其特征在于,所述步骤S1中,建立关键点检测的预测模型和上下文网络模型的过程如下:建立两个深度卷积神经网络,即预测网络和上下文网络,其中预测网络是目标网络,其输入为人脸图像Ιtrain,输出为预测关键点而上下文网络则用以提取关键点上下文信息,其输入为人脸图像Ιtrain和预测关键点真实关键点
4.如权利要求1所述的一种基于上下文和结构建模的人脸关键点检测方法,其特征在于,所述步骤S2中,对预测关键点和真实关键点进行上下文建模,具体包括以下子步骤:
S21、对人脸图像Ιtrain进行零均值化后,随机进行变换操作,所述变换操作包括放缩、旋转、平移、添加高斯噪声或对比度变换,再从变换后的图像中裁剪出预设大小的图像块作为算法输入,对作相同的变换和裁剪得到
S22、将S21中得到的图像块输入到预测网络中,输出得到预测关键点即:
其中f()为预测网络,θ1为预测网络的参数;
S23、对于中每一个预测关键点从输入图像中获取一个以该关键点为中心,宽为长为的图像区域对于中对应的真实关键点(xi,yi),采用同样的方式获取一个图像区域
S24、将S21中得到的图像块输入到上下文网络中,并分别提取图像区域和pi的上下文和上下文通过一个两步方法获得,即首先将图像区域和pi映射到上下文网络第l层上的目标位置和其中第l层的特征图用φl表示;然后在φl上分别以和位置为中心获取一个3×3的特征表达,分别得到和
S25、量化S24中得到的上下文和之间的差异即
其中和通过以下方法进行计算:
其中表示上下文网络第l层位置上的值,T_S表示上下文网络第l层的总步长;
S26、计算所有N个预测关键点和其对应的真实关键点上下文差异的平均值,用以表示上下文损失ΦCL:
5.如权利要求4所述的基于上下文和结构建模的人脸关键点检测方法,其特征在于,步骤S3中,对预测关键点和真实关键点进行结构建模,具体包括:
S31、对于真实关键点构建一个人脸层次树T=(V,E),其中V是所有层次上的人脸区域的集合,而E则表示父子区域之间的几何连接的集合;
对于每一个人脸区域vi∈V,其几何位置定义如下:
其中当vm为叶节点时,sm=(xm,ym),表示vm中唯一一个关键点的几何位置,child(vm)为vm的子节点集合,|child(vm)|为vm的子节点集合中的元素个数;
S32、对于每一个节点vi和其父节点vj之间的几何连接ei,j∈E,其计算公式如下:
ei,j=θ0δxi,j+θ1δ2xi,j+θ2δyi,j+θ3δ2yi,j;
(xi,yi)=P(vi);
(xj,yj)=P(vj);
δxi,j=xi-xj;
δyi,j=yi-yj;
其中δxi,j表示节点vi和其父节点vj在轴上的偏移,δyi,j表示节点vi和其父节点vj在轴上的偏移;θ0,θ1,θ2,θ3为4个超参数;
S33、对于预测关键点利用相同的方法构建一个人脸层次树
S34、计算人脸层次树T和之间的结构损失ΦSL:
6.如权利要求5所述的基于上下文和结构建模的人脸关键点检测方法,其特征在于,步骤S4中,训练预测模型具体包括以下子步骤:
S41、计算预测网络的损失函数,其计算公式如下:
L=ΦEL+αΦCL+βΦSL
其中ΦEL表示欧式距离损失函数,α和β表示平衡因子;
S42、使用SGD优化方法和反向传播算法在损失函数L下训练预测网络,训练过程中,上下文网络保持不变。
7.如权利要求1中所述的基于上下文和结构建模的人脸关键点检测方法,其特征在于,所述步骤S5中,检测人脸图像中人脸的关键点位置包括将人脸图像Ι直接输入到S4训练的预测网络,其输出即为预测的人脸关键点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810398701.3A CN108596121A (zh) | 2018-04-28 | 2018-04-28 | 一种基于上下文和结构建模的人脸关键点检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810398701.3A CN108596121A (zh) | 2018-04-28 | 2018-04-28 | 一种基于上下文和结构建模的人脸关键点检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108596121A true CN108596121A (zh) | 2018-09-28 |
Family
ID=63610684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810398701.3A Pending CN108596121A (zh) | 2018-04-28 | 2018-04-28 | 一种基于上下文和结构建模的人脸关键点检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108596121A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110415308A (zh) * | 2019-06-21 | 2019-11-05 | 浙江大学 | 一种基于循环空间转换网络的人脸漫画生成方法 |
CN111028251A (zh) * | 2019-12-27 | 2020-04-17 | 四川大学 | 一种牙科图片剪裁方法、系统、设备及存储介质 |
CN111652240A (zh) * | 2019-12-18 | 2020-09-11 | 南京航空航天大学 | 一种基于cnn的图像局部特征检测与描述方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103824049A (zh) * | 2014-02-17 | 2014-05-28 | 北京旷视科技有限公司 | 一种基于级联神经网络的人脸关键点检测方法 |
-
2018
- 2018-04-28 CN CN201810398701.3A patent/CN108596121A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103824049A (zh) * | 2014-02-17 | 2014-05-28 | 北京旷视科技有限公司 | 一种基于级联神经网络的人脸关键点检测方法 |
Non-Patent Citations (1)
Title |
---|
JIAJIAN ZENG ET AL: "Deep Context-Sensitive Facial Landmark Detection With TreeStructured Modeling", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110415308A (zh) * | 2019-06-21 | 2019-11-05 | 浙江大学 | 一种基于循环空间转换网络的人脸漫画生成方法 |
CN111652240A (zh) * | 2019-12-18 | 2020-09-11 | 南京航空航天大学 | 一种基于cnn的图像局部特征检测与描述方法 |
CN111652240B (zh) * | 2019-12-18 | 2023-06-27 | 南京航空航天大学 | 一种基于cnn的图像局部特征检测与描述方法 |
CN111028251A (zh) * | 2019-12-27 | 2020-04-17 | 四川大学 | 一种牙科图片剪裁方法、系统、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109492581B (zh) | 一种基于tp-stg框架的人体动作识别方法 | |
CN108665487B (zh) | 基于红外和可见光融合的变电站作业对象和目标定位方法 | |
CN111666843B (zh) | 一种基于全局特征和局部特征拼接的行人重识别方法 | |
CN109255317B (zh) | 一种基于双网络的航拍图像差异检测方法 | |
CN107123131B (zh) | 一种基于深度学习的运动目标检测方法 | |
CN110147743A (zh) | 一种复杂场景下的实时在线行人分析与计数系统及方法 | |
CN109101865A (zh) | 一种基于深度学习的行人重识别方法 | |
CN106529499A (zh) | 基于傅里叶描述子和步态能量图融合特征的步态识别方法 | |
CN107133569A (zh) | 基于泛化多标记学习的监控视频多粒度标注方法 | |
CN105550678A (zh) | 基于全局显著边缘区域的人体动作特征提取方法 | |
CN108171196A (zh) | 一种人脸检测方法及装置 | |
CN109522853A (zh) | 面向监控视频的人脸检测与搜索方法 | |
CN107256386A (zh) | 基于深度学习的人类行为分析方法 | |
CN105243356B (zh) | 一种建立行人检测模型的方法及装置及行人检测方法 | |
CN108537143B (zh) | 一种基于重点区域特征比对的人脸识别方法与系统 | |
CN108648211A (zh) | 一种基于深度学习的小目标检测方法、装置、设备和介质 | |
CN107301376B (zh) | 一种基于深度学习多层刺激的行人检测方法 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN110058699A (zh) | 一种基于智能移动设备传感器的用户行为识别方法 | |
CN102270308A (zh) | 一种基于五官相关aam模型的面部特征定位方法 | |
CN108596121A (zh) | 一种基于上下文和结构建模的人脸关键点检测方法 | |
CN113436229A (zh) | 一种多目标跨摄像机行人轨迹路径的生成方法 | |
CN109740454A (zh) | 一种基于yolo-v3的人体体态识别方法 | |
CN107992854A (zh) | 基于机器视觉的林业生态环境人机交互方法 | |
CN107230219A (zh) | 一种单目机器人上的目标人发现与跟随方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180928 |
|
WD01 | Invention patent application deemed withdrawn after publication |