CN112580721B - 一种基于多分辨率特征融合的目标关键点检测方法 - Google Patents

一种基于多分辨率特征融合的目标关键点检测方法 Download PDF

Info

Publication number
CN112580721B
CN112580721B CN202011509933.5A CN202011509933A CN112580721B CN 112580721 B CN112580721 B CN 112580721B CN 202011509933 A CN202011509933 A CN 202011509933A CN 112580721 B CN112580721 B CN 112580721B
Authority
CN
China
Prior art keywords
xdown
resolution
feature
network
key point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011509933.5A
Other languages
English (en)
Other versions
CN112580721A (zh
Inventor
何宁
张聪聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Union University
Original Assignee
Beijing Union University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Union University filed Critical Beijing Union University
Priority to CN202011509933.5A priority Critical patent/CN112580721B/zh
Publication of CN112580721A publication Critical patent/CN112580721A/zh
Application granted granted Critical
Publication of CN112580721B publication Critical patent/CN112580721B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多分辨率特征融合的目标关键点检测方法,分为三个部分:特征提取、多分辨率特征融合、分辨率调整。特征提取模块使用骨架网络ResNet网络提取图像特征;多分辨率特征融合模块对提取的特征图重复上下采样,将特征图进行融合。分辨率调整模块对融合模块得到的特征图与从低分辨率特征中上采样得到的特征图进行拼接。最后输出姿态热图估计结果。该方法将主干网络提取出的不同分辨率的特征,进行多次融合,构建了一种新的目标关键点检测方法,可对任何大小的图片,进行单目标关键点检测;本发明有效的融合了网络的深层特征和浅层特征,在精度、模型参数量和计算量方面体现出了较大的优越性。

Description

一种基于多分辨率特征融合的目标关键点检测方法
技术领域
本发明属于计算机视觉、数字图像处理技术领域,尤其涉及一种基于多分辨率特征融合的目标关键点检测方法。
背景技术
目标关键点检测也称姿态估计。姿态估计早期应用在人体骨架检测,主要应用场景有:协助体育裁判评分、训练机器人形体动作、虚拟换衣等。同时,人体行为分析现在也是一大研究热点。越来越多的研究人员,不断地通过精准且连续的姿态估计来分析人体行为。其中,将人体姿态用图的方式来表示,并且通过图结构中包含的特征来提取更高语义层次的人体行为信息。也有很多研究者,将目标关键点检测用于动物数据集,进一步分析动物的行为。
现有的目标关键点检测算法大都使用卷积神经网络。常见的模型,大多先使用主干网络对图像进行特征提取,为了减少模型的运算量,在提取特征的过程中不断地降低图像的分辨率,例如ResNet。在主干网络之后,再通过几步上采样将图像恢复到任务所需的分辨率。这类型的模型在很多应用中取得了较高的精度。后来,研究者意识到,在卷积神经网络模型中,网络浅层提取的特征包含较多的细节信息,网络深层提取的特征包含较多的语义信息。Unet在ResNet的基础上,将相同分辨率的主干网络和上采样部分的特征进行融合,取得了更高的精度。但在Unet中主干网络和上采样部分的参数量几乎相同,大大的增加了模型的大小和浮点运算量。如何在不增加网络计算量的情况下,更加有效的融合图像的细节信息和语义信息,使得网络的性能得以提升也是一个众人研究的课题。
针对以上问题,本方法提出了一种多分辨率融合模块,有效的融合了网络的深层特征和浅层特征,可以在几乎不增加网络开销的前提下,提升模型的效率。并在MPII数据集和ATRW dataset中得到了验证。
发明内容
本发明是一种基于多分辨率特征融合的目标关键点检测方法,主要分为三个部分:特征提取模块、多分辨率特征融合模块、分辨率调整模块。特征提取模块使用骨架网络ResNet网络提取图像特征;多分辨率特征融合模块对提取的特征图重复上下采样,将分辨率为192×144、96×72、48×36的特征图进行融合。分辨率调整模块对融合模块得到的特征图与从低分辨率特征中上采样得到的特征图进行拼接。最后输出姿态热图估计结果。
该方法将主干网络提取出的不同分辨率的特征,进行多次融合,构建了一种新的目标关键点检测方法,可对任何大小的图片,进行单目标关键点检测,主要包括以下步骤:
步骤1:输入已裁剪好的单目标图片到目标关键点检测模型中。
步骤2:将单目标图片的分辨率调整为当前网络设定的分辨率。
步骤3:对输入的单目标图片使用ResNet网络提取图像特征,分别得到分辨率为96×128,48×64,24×32,12×16,6×8的特征图,将这五个分辨率大小不同的特征图取名为:2×down,4×down,8×down,16×down,32×down(在下面用到这五个名称时按最新赋值的作为有效)。
步骤4:将ResNet特征提取网络提取的2×down,4×down,8×down,16×down等四个特征图进行多分辨率特征融合。
步骤4-1:主要融合分为三部分,首先分别将4×down和8×down下采样两次和一次,然后与16×down进行拼接,得到新的16×down。
步骤4-2:其次,将4×down下采样一次,将16×down上采样一次,然后与8×down进行拼接,得到新的8×down。
步骤4-3:最后,分别将8×down和16×down上采样一次和两次,然后与4×down进行拼接,得到新的4×down。
步骤5:然后将多分辨率特征融合模块最终输出的特征图的分辨率大小调整为和4×down分辨率大小相同,主要也分为三部分。
步骤5-1:首先,将32×down上采样一次,与16×down进行拼接,得到新的16×down。
步骤5-2:其次,将16×down上采样一次,与8×down进行拼接,得到新的8×down。
步骤5-3:最后,将8×down上采样一次,与4×down进行拼接,得到新的4×down。
步骤6:经过分辨率大小调整后将4×down特征图的通道数调整为目标关键点数,并作为网络的输出。
其中,在训练的过程中使用自适应时刻估计方法(Adaptive Moment Estimation)迭代的方式对网络进行优化。用到的损失函数为均方差损失函数:
其中,m为关键点的个数,yi为标注的ground_truth关键点的坐标,为模型预测的关键点的坐标,n为训练样本个数,i为当前的关键点。
本发明提出了一种多分辨率融合模块,有效的融合了网络的深层特征和浅层特征,该融合模块能够充分利用图像语义信息和空间信息,可以在几乎不增加网络开销的前提下,提升模型的效率。在MPII和ATRW数据集上使用ResNet50和ResNet101网络进行了模型对比,实验结果如表1和表2所示。在MPII数据集上进行测试,本发明的方法在模型参数量和计算量没有明显的提高,PCKh@0.5在ResNet50和ResNet101网络上分别有0.6%和0.3%的提高。在ATRW数据集上,虽然采用融合模块的方法计算成本略高,但AP和AR显著增加,特别是与无融合模块的ResNet-101方法相比,本发明的方法F1评分提高了2.3%。实验结果表明,本发明的方法在精度,模型参数量和计算量方面体现出了较大的优越性。
附图说明
图1基于多分辨率特征融合的卷积神经网络模型图。
图2多分辨率特征融合模块结构图。
图3姿态估计检测效果图。
具体实施方式
下面结合实例对本发明进行验证其相对于其他算法的优越性。
步骤1:输入已裁剪好的单目标图片到目标关键点检测模型中。
步骤2:将单目标图片的分辨率resize为网络设定的分辨率(此处假设为192×256)。
步骤3:使用ResNet网络提取图像特征,分别得到分辨率为96×128,48×64,24×32,12×16,6×8的特征图,将这五个分辨率大小不同的特征图取名为:2×down,4×down,8×down,16×down,32×down(在下面用到这五个名称时按最新赋值的作为有效)。
步骤4:将2×down,4×down,8×down,16×down进行融合;
步骤4-1:分别将4×down和8×down下采样两次和一次,然后与16×down进行拼接,得到新的16×down。
步骤4-2:将4×down下采样一次,将16×down上采样一次,然后与8×down进行拼接,得到新的8×down。
步骤4-3:分别将8×down和16×down上采样一次和两次,然后与4×down进行拼接,得到新的4×down。
步骤5:将最终输出的特征图的分辨率大小调整为和4×down分辨率大小相同。
步骤5-1:将32×down上采样一次,与16×down进行拼接,得到新的16×down。
步骤5-1:将16×down上采样一次,与8×down进行拼接,得到新的8×down。
步骤5-2:将8×down上采样一次,与4×down进行拼接,得到新的4×down。
步骤6:将4×down特征图的通道数调整为目标关键点数,并作为网络的输出,
其中,在训练的过程中使用自适应时刻估计方法(Adaptive Moment Estimation)迭代的方式对网络进行优化。用到的损失函数为均方差损失函数:
其中,m为关键点的个数,yi为标注的ground_truth关键点的坐标,为模型预测的关键点的坐标。
使用MPII和ATRW数据集的训练集对模型进行训练,用其验证集来测试算法的有效性。
为了验证改进算法的准确性和效率,使用ResNet50和ResNet101网络进行了模型对比。实验结果表明,本方法在精度,模型参数量和计算量方面体现出了较大的优越性。实验结果如表1和表2所示。
表1在MPII数据集的结果对比表
其中是一个常数,l是ground_truth中头部对角线的60%PCKh@0.5就是指限定
表2在ATRW数据集的结果对比表
这里的评价指标用到了目标关键点相似度object keypoint similarity(OKS),其中:
其中di是预测的关键点和相应的标注关键点的欧氏距离,vi是这个关键点是否为可见的标志(0为不可见,1为可见),s是目标的尺度,ki是关键点常数。
AP和AR是指OKS=0.50,055,…,0.90,0.95时置信度和召回率的平均值。F1的公公式为:
图1基于多分辨率特征融合的卷积神经网络模型图。
在图1所示的基于多分辨率特征融合的卷积神经网络模型图中,最左边是使用骨架网络ResNet网络提取图像特征,分别得到分辨率为96×128,48×64,24×32,12×16,6×8的特征图。然后,多分辨率特征融合模块对这些多分辨率特征图进行融合,将融合后的特征图与从低分辨率特征图上采样得到的特征图进行拼接。最后,我们输出15个通道的特征图,对应于15个关键点的特征图,输出相对应的热图估计结果。
图2多分辨率特征融合模块结构图。
图2所示的特征融合模块中,我们对特征图重复上下采样。然后将分辨率为192×144、96×72、48×36的特征图拼接起来,融合特征。
图3姿态估计检测效果图。
图3为使用多分辨率特征融合网络在MPII数据集和ATRW数据集进行姿态估计的检测效果图。

Claims (1)

1.一种基于多分辨率特征融合的目标关键点检测方法,其特征在于:分为特征提取、多分辨率特征融合、分辨率调整;特征提取使用骨架网络ResNet网络提取图像特征;多分辨率特征融合对提取的特征图重复上下采样,将分辨率为192×144、96×72、48×36的特征图进行融合;分辨率调整对融合模块得到的特征图与从低分辨率特征中上采样得到的特征图进行拼接;最后输出姿态热图估计结果;该方法将主干网络提取出的不同分辨率的特征,进行多次融合,构建了目标关键点检测方法,对任何大小的图片,进行单目标关键点检测;
包括以下步骤:
步骤1:输入已裁剪好的单目标图片到目标关键点检测模型中;
步骤2:将单目标图片的分辨率调整为当前网络设定的分辨率;
步骤3:对输入的单目标图片使用ResNet网络提取图像特征,分别得到分辨率为96×128,48×64,24×32,12×16,6×8的特征图,将这五个分辨率大小不同的特征图取名为:2×down,4×down,8×down,16×down,32×down;
步骤4:将ResNet特征提取网络提取的2×down,4×down,8×down,16×down四个特征图进行多分辨率特征融合;
步骤5:将多分辨率特征融合模块最终输出的特征图的分辨率大小调整为和4×down分辨率大小相同;
步骤6:经过分辨率大小调整后将4×down特征图的通道数调整为目标关键点数,并作为网络的输出;
在训练的过程中使用自适应时刻估计方法迭代的方式对网络进行优化;用到的损失函数为均方差损失函数:
其中,m为关键点的个数,yi为标注的ground_truth关键点的坐标,为模型预测的关键点的坐标,n为训练样本个数,i为当前的关键点;
步骤4中,步骤4-1:融合分为三部分,首先分别将4×down和8×down下采样两次和一次,然后与16×down进行拼接,得到新的16×down;步骤4-2:将4×down下采样一次,将16×down上采样一次,然后与8×down进行拼接,得到新的8×down;步骤4-3:分别将8×down和16×down上采样一次和两次,然后与4×down进行拼接,得到新的4×down;
步骤5中,步骤5-1:将32×down上采样一次,与16×down进行拼接,得到新的16×down;步骤5-2:将16×down上采样一次,与8×down进行拼接,得到新的8×down;步骤5-3:将8×down上采样一次,与4×down进行拼接,得到新的4×down。
CN202011509933.5A 2020-12-19 2020-12-19 一种基于多分辨率特征融合的目标关键点检测方法 Active CN112580721B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011509933.5A CN112580721B (zh) 2020-12-19 2020-12-19 一种基于多分辨率特征融合的目标关键点检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011509933.5A CN112580721B (zh) 2020-12-19 2020-12-19 一种基于多分辨率特征融合的目标关键点检测方法

Publications (2)

Publication Number Publication Date
CN112580721A CN112580721A (zh) 2021-03-30
CN112580721B true CN112580721B (zh) 2023-10-24

Family

ID=75136289

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011509933.5A Active CN112580721B (zh) 2020-12-19 2020-12-19 一种基于多分辨率特征融合的目标关键点检测方法

Country Status (1)

Country Link
CN (1) CN112580721B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115511968B (zh) * 2022-11-21 2023-02-28 珠海亿智电子科技有限公司 一种二维手部姿态估计方法、装置、设备及存储介质

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108416732A (zh) * 2018-02-02 2018-08-17 重庆邮电大学 一种基于图像配准与多分辨率融合的全景图像拼接方法
CN108460403A (zh) * 2018-01-23 2018-08-28 上海交通大学 一种图像中多尺度特征融合的目标检测方法与系统
CN109635748A (zh) * 2018-12-14 2019-04-16 中国公路工程咨询集团有限公司 高分辨率影像中道路特征的提取方法
JPWO2018016151A1 (ja) * 2016-07-22 2019-05-09 ソニー株式会社 画像処理装置と画像処理方法
CN109816024A (zh) * 2019-01-29 2019-05-28 电子科技大学 一种基于多尺度特征融合与dcnn的实时车标检测方法
CN110175575A (zh) * 2019-05-29 2019-08-27 南京邮电大学 一种基于新型高分辨率网络模型的单人姿态估计方法
CN110263705A (zh) * 2019-06-19 2019-09-20 上海交通大学 面向遥感技术领域两期高分辨率遥感影像变化检测方法
CN110276316A (zh) * 2019-06-26 2019-09-24 电子科技大学 一种基于深度学习的人体关键点检测方法
CN110287846A (zh) * 2019-06-19 2019-09-27 南京云智控产业技术研究院有限公司 一种基于注意力机制的人脸关键点检测方法
CN110796202A (zh) * 2019-10-31 2020-02-14 深圳市商汤科技有限公司 一种网络集成的训练方法及装置、电子设备和存储介质
CN111178304A (zh) * 2019-12-31 2020-05-19 江苏省测绘研究所 基于全卷积神经网络的高分辨率遥感影像像素级解译方法
CN111340059A (zh) * 2018-12-19 2020-06-26 北京嘀嘀无限科技发展有限公司 图像特征提取方法、装置、电子设备及存储介质
CN111461217A (zh) * 2020-03-31 2020-07-28 华南理工大学 一种基于特征融合和上采样的航拍图像小目标检测方法
CN111507248A (zh) * 2020-04-16 2020-08-07 成都东方天呈智能科技有限公司 一种低分辨热力图的人脸额头区域检测与定位方法及其系统
CN111681166A (zh) * 2020-06-02 2020-09-18 重庆理工大学 一种堆叠注意力机制编解码单元的图像超分辨率重建方法
CN111915485A (zh) * 2020-07-10 2020-11-10 浙江理工大学 一种特征点稀疏工件图像的快速拼接方法及系统
CN111986163A (zh) * 2020-07-29 2020-11-24 深思考人工智能科技(上海)有限公司 人脸图像选择方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10255667B2 (en) * 2015-12-23 2019-04-09 Vmware, Inc. Quantitative visual perception quality measurement for virtual desktops

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018016151A1 (ja) * 2016-07-22 2019-05-09 ソニー株式会社 画像処理装置と画像処理方法
CN108460403A (zh) * 2018-01-23 2018-08-28 上海交通大学 一种图像中多尺度特征融合的目标检测方法与系统
CN108416732A (zh) * 2018-02-02 2018-08-17 重庆邮电大学 一种基于图像配准与多分辨率融合的全景图像拼接方法
CN109635748A (zh) * 2018-12-14 2019-04-16 中国公路工程咨询集团有限公司 高分辨率影像中道路特征的提取方法
CN111340059A (zh) * 2018-12-19 2020-06-26 北京嘀嘀无限科技发展有限公司 图像特征提取方法、装置、电子设备及存储介质
CN109816024A (zh) * 2019-01-29 2019-05-28 电子科技大学 一种基于多尺度特征融合与dcnn的实时车标检测方法
CN110175575A (zh) * 2019-05-29 2019-08-27 南京邮电大学 一种基于新型高分辨率网络模型的单人姿态估计方法
CN110287846A (zh) * 2019-06-19 2019-09-27 南京云智控产业技术研究院有限公司 一种基于注意力机制的人脸关键点检测方法
CN110263705A (zh) * 2019-06-19 2019-09-20 上海交通大学 面向遥感技术领域两期高分辨率遥感影像变化检测方法
CN110276316A (zh) * 2019-06-26 2019-09-24 电子科技大学 一种基于深度学习的人体关键点检测方法
CN110796202A (zh) * 2019-10-31 2020-02-14 深圳市商汤科技有限公司 一种网络集成的训练方法及装置、电子设备和存储介质
CN111178304A (zh) * 2019-12-31 2020-05-19 江苏省测绘研究所 基于全卷积神经网络的高分辨率遥感影像像素级解译方法
CN111461217A (zh) * 2020-03-31 2020-07-28 华南理工大学 一种基于特征融合和上采样的航拍图像小目标检测方法
CN111507248A (zh) * 2020-04-16 2020-08-07 成都东方天呈智能科技有限公司 一种低分辨热力图的人脸额头区域检测与定位方法及其系统
CN111681166A (zh) * 2020-06-02 2020-09-18 重庆理工大学 一种堆叠注意力机制编解码单元的图像超分辨率重建方法
CN111915485A (zh) * 2020-07-10 2020-11-10 浙江理工大学 一种特征点稀疏工件图像的快速拼接方法及系统
CN111986163A (zh) * 2020-07-29 2020-11-24 深思考人工智能科技(上海)有限公司 人脸图像选择方法和装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
A new multi-spectral feature level image fusion method for human interpretation;Marom L,;《Infrared Physics & Technology》;第79-88页 *
一种多层特征融合的道路场景实时分割方法;周继苗;李必军;陈世增;;测绘通报(01);第13-18页 *
基于多分辨率小波网络-BP神经网络-D-S证据理论信息融合模型的直流系统故障诊断方法;李冬辉,周巍巍;电网技术(24);第20-24页 *
基于改进YOLOv2网络的遗留物检测算法;张瑞林;张俊为;桂江生;高春波;包晓安;;浙江理工大学学报(自然科学版)(03);第70-77页 *
多幅图像的高分辨率无缝快速拼接方法;马孝贺;;微电子学与计算机(09);第124-126+130页 *

Also Published As

Publication number Publication date
CN112580721A (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
CN110276316B (zh) 一种基于深度学习的人体关键点检测方法
CN111291739B (zh) 面部检测、图像检测神经网络训练方法、装置和设备
WO2020143323A1 (zh) 遥感影像分割方法、装置及存储介质、服务器
CN109308459B (zh) 基于手指注意力模型和关键点拓扑模型的手势估计方法
CN109741331B (zh) 一种图像前景物体分割方法
CN113822314B (zh) 图像数据处理方法、装置、设备以及介质
CN108629288B (zh) 一种手势识别模型训练方法、手势识别方法及系统
CN112784810B (zh) 手势识别方法、装置、计算机设备和存储介质
CN105956560A (zh) 一种基于池化多尺度深度卷积特征的车型识别方法
CN109446922B (zh) 一种实时鲁棒的人脸检测方法
CN112232134B (zh) 一种基于沙漏网络结合注意力机制的人体姿态估计方法
CN109087337B (zh) 基于分层卷积特征的长时间目标跟踪方法及系统
CN110188802B (zh) 基于多层特征图融合的ssd目标检测算法
CN106097383A (zh) 一种针对遮挡问题的目标跟踪方法及设备
CN112784756B (zh) 人体识别跟踪方法
CN112183649A (zh) 一种用于对金字塔特征图进行预测的算法
CN108537109B (zh) 基于OpenPose的单目相机手语识别方法
CN113642393A (zh) 基于注意力机制的多特征融合视线估计方法
JP2023527615A (ja) 目標対象検出モデルのトレーニング方法、目標対象検出方法、機器、電子機器、記憶媒体及びコンピュータプログラム
CN113269089A (zh) 基于深度学习的实时手势识别方法及系统
CN110751027A (zh) 一种基于深度多示例学习的行人重识别方法
CN111860278A (zh) 一种基于深度学习的人体行为识别算法
CN113076891A (zh) 基于改进高分辨率网络的人体姿态预测方法及系统
CN113032613A (zh) 一种基于交互注意力卷积神经网络的三维模型检索方法
CN113066089A (zh) 一种基于注意力引导机制的实时图像语义分割网络

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant