CN111160162A - 一种级联的驾驶员人体姿态估计方法 - Google Patents

一种级联的驾驶员人体姿态估计方法 Download PDF

Info

Publication number
CN111160162A
CN111160162A CN201911309965.8A CN201911309965A CN111160162A CN 111160162 A CN111160162 A CN 111160162A CN 201911309965 A CN201911309965 A CN 201911309965A CN 111160162 A CN111160162 A CN 111160162A
Authority
CN
China
Prior art keywords
network
driver
stage
image
key points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911309965.8A
Other languages
English (en)
Other versions
CN111160162B (zh
Inventor
徐珊珊
刘翼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Biteda Information Technology Co ltd
Original Assignee
Jiangsu Biteda Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Biteda Information Technology Co ltd filed Critical Jiangsu Biteda Information Technology Co ltd
Priority to CN201911309965.8A priority Critical patent/CN111160162B/zh
Publication of CN111160162A publication Critical patent/CN111160162A/zh
Application granted granted Critical
Publication of CN111160162B publication Critical patent/CN111160162B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

一种级联的驾驶员人体姿态估计方法,通过采集车辆驾驶平台的驾驶员图像,并在系统中输入驾驶员图像;利用VGG网络对输入的图像提取特征图F;使用添加了沙漏结构的深度网络FCN1提取图像中驾驶员的关键点位置信息;同时利用深度网络FCN2获得关键点之间的连接情况;将用深度网络FCN1提取到的图像特征中的关键点位置信息、深度网络FCN2提取到的图像特征中的关键点之间的连接情况和特征图F进行融合;通过搭建级联的网络结构充分利用图像空间信息,并增加网络深度来提高网络整体预测准确度,能够将关键点的位置信息和关键点对应的连接信息融合,给出较高准确性和可靠性的驾驶员人体姿态估计结果。

Description

一种级联的驾驶员人体姿态估计方法
技术领域
本发明涉及一种人体姿态估计方法,具体是一种级联的驾驶员人体姿态估计方法,属于计算机视觉和图像处理技术领域。
背景技术
目前人体姿态估计已经在计算机视觉领域取得了很大的进步,其中就被广泛应用在动作识别、人体跟踪、视频分析、智能监控和高级人机交互等任务中;它可以通过读取图像或者视频预测到目标人体的关节点和肢体部位的位置信息,但在复杂场景下的姿态估计由于受遮挡、光线、人员和衣着的变化等问题,导致人体姿态估计不够准确和鲁棒性差,因此,在复杂环境下对高自由度的人体实现高精度的鲁棒姿态估计仍面临巨大的挑战。
人们在乘车或驾驶车辆的过程中,车辆内人员的姿态存在明显的隐蔽性和主观抑制特性,因此对行驶车辆中的人员进行人体姿态估计,一方面可以减轻监管机构在监督行车人员行为规范方面的部分工作,实现高效管理;另一方面,尽可能避免车辆在行车过程中因失误而发生的意外,进行及时的提醒和监督,减少交通事故的发生,避免对社会带来的不良影响。
发明内容
本发明的目的是提供一种级联的驾驶员人体姿态估计方法,可以针对车辆驾驶室内环境复杂、光照变化等情况,提供一种高准确率和鲁棒性的人体姿态估计方法。
为了实现上述目的,本发明提供一种级联的驾驶员人体姿态估计方法,包括以下步骤:
步骤一:从车辆驾驶平台收集相关驾驶员图像,制作数据集DDS的驾驶员图像,作为输入网络的实验数据;
步骤二:利用VGG网络对输入的驾驶员图像提取特征图F;
步骤三:使用添加了沙漏结构的深度网络FCN1提取图像中驾驶员的关键点位置信息;同时利用深度网络FCN2获得关键点之间的连接信息;
步骤四:将深度网络FCN1提取到的图像特征中的关键点位置信息、深度网络FCN2提取到的图像特征中的关键点之间的连接信息与特征图F进行融合;
步骤五:重复步骤三、步骤四,通过增加网络深度提高网络整体检测精度,设定t=6,循环到第六次网络结束
作为本发明的进一步改进,步骤二中使用VGG网络进行迁移学习,利用在ImageNet数据集上训练的VGG-16网络提取驾驶员图像特征图F,其中特征图F是128个46*46大小的特征图,在VGG-16网络之后添加两个卷积层Conv4_3A和Conv4_4A,卷积核大小均为3 乘3,其中Conv4_3A是256维,Conv4_4A为128维,降低特征维度减少冗余特征对网络的影响。
作为本发明的进一步改进,步骤三中一共包含18个人体关键点,它们分别是:鼻子,脖子,右肩,右肘,右手腕,左肩,左肘,左手腕,右臀部,右膝盖,右脚裸,左臀部,左膝盖,左脚裸,左眼睛,右眼睛,左耳朵,右耳朵。
作为本发明的进一步改进,步骤三中通过在全连接网络中添加沙漏结构,融合图像多个尺度的特征信息,再通过heatmap得到图像中每个像素对于各个关节点的概率图,同时保留原始特征图上各关键点的空间信息,获取关键点的方法具体为:
步骤一:在深度网络FCN1第一个阶段输出热力图S1=ρ1(F),其中ρ1为网络的映射函数;
步骤二:之后的阶段将前一阶段的预测结果和特征图F进行融合,作为当前阶段的输出,经过卷积操作预测出骨点热力图:
Figure RE-GDA0002391457500000021
在训练的时候对每个阶段的输出的关键点位置进行了监督起到中继监督作用,损失函数形式分别如下:
Figure RE-GDA0002391457500000022
式中:
Figure RE-GDA0002391457500000023
表示关键的位置信息;
J包含所有的关键点;
W为掩膜函数。
作为本发明的进一步改进,步骤三中使用FCN2对关键点间获取连接信息,获取关键点的方法具体为:
步骤一:在深度网络FCN2第一个阶段输出关键点的部分亲和域图
Figure RE-GDA0002391457500000024
其中
Figure RE-GDA0002391457500000025
为网络的映射函数;
步骤二:之后的阶段将前一阶段的预测结果和特征图F进行融合,经过卷积操作预测关键点间连接信息:
Figure RE-GDA0002391457500000031
在训练的时候对每个阶段的输出的关键点位置进行了监督起到中继监督作用,损失函数形式分别如下:
Figure RE-GDA0002391457500000032
式中:
Figure RE-GDA0002391457500000033
表示亲和区域的实际值;
C表示人体的所有关节数目。
使用中继监督方法计算整个网络每个阶段的损失之和累加,其方法为:
Figure RE-GDA0002391457500000034
与现有技术相比,本发明通过采集车辆驾驶平台的驾驶员图像,并制作数据集DDS的驾驶员图像,在系统中输入驾驶员图像;利用VGG网络对输入的图像提取特征图F;使用添加了沙漏结构的深度网络FCN1提取图像中驾驶员的关键点位置信息;同时利用深度网络FCN2获得关键点之间的连接情况;将用深度网络FCN1提取到的图像特征中的关键点位置信息、深度网络FCN2提取到的图像特征中的关键点之间的连接情况和特征图F进行融合;通过搭建级联的网络结构充分利用图像空间信息,并增加网络深度来提高网络整体预测准确度,能够将关键点的位置信息和关键点对应的连接信息融合,给出较高准确性和可靠性的驾驶员人体姿态估计结果。
附图说明
图1是本发明中添加了沙漏结构的FCN网络结构示意图;
图2是本发明的网络结构图。
具体实施方式
下面结合附图对本发明作进一步说明。
一种级联的驾驶员人体姿态估计方法,包括以下步骤:
步骤一:从车辆驾驶平台收集相关驾驶员图像,制作数据集DDS的驾驶员图像,作为输入网络的实验数据;制作数据集DDS的步骤为:把采集到的驾驶员图像的图片下载下来,然后采用标注工具对采集到的驾驶员图像进行标注,标注出具体的关键点位置及连接关系,标注工具为coco-annotator(coco标注工具);
步骤二:利用VGG网络对输入的驾驶员图像提取特征图F;使用VGG网络进行迁移学习,利用在ImageNet数据集上训练的VGG-16网络提取驾驶员图像特征图F,其中特征图F大小为46×46×128,并在VGG-16网络之后添加两个卷积层,Conv4_3A和 Conv4_4A,卷积核大小均为3×3,其中Conv4_3A是256维,Conv4_4A为128维,降低特征维度减少冗余特征对网络的影响。
步骤三:使用添加了沙漏结构的深度网络FCN1提取图像中驾驶员的关键点位置信息;同时利用深度网络FCN2获得关键点之间的连接信息;
步骤四:将用深度网络FCN1提取到的图像特征中的关键点位置信息、深度网络FCN2 提取到的图像特征中的关键点之间的连接信息与特征图F进行融合;
步骤五:重复步骤三、步骤四,通过增加网络深度提高网络整体检测精度,设定t=6,循环到第六次网络结束。
作为本发明的进一步改进,步骤三中一共包含18个人体关键点,它们分别是:鼻子,脖子,右肩,右肘,右手腕,左肩,左肘,左手腕,右臀部,右膝盖,右脚裸,左臀部,左膝盖,左脚裸,右眼睛,左眼睛,右耳朵,左耳朵,关键点鼻子连接右眼睛、左眼睛,右眼睛连接右耳朵,左眼睛连接左耳朵,鼻子连接脖子,脖子分别连接右肩、左肩、右臀部、左臀部,右肩依次连接右肘、右手腕,左肩依次连接左肘,左手腕,右臀部依次连接右膝盖,右脚裸,左臀部依次连接左膝盖,左脚裸。
作为本发明的进一步改进,步骤三中通过在全连接网络中添加沙漏结构,融合图像多个尺度的特征信息,再通过heatmap得到图像中每个像素对于各个关节点的概率图,同时保留原始特征图上各关键点的空间信息,获取关键点的方法具体为:
步骤一:在深度网络FCN1第一个阶段输出热力图S1=ρ1(F),其中ρ1为网络的映射函数;
步骤二:之后的阶段将前一阶段的预测结果和特征图F进行融合,作为当前阶段的输出,经过卷积操作预测出骨点热力图:
Figure RE-GDA0002391457500000041
为了避免梯度消失现象的发生,在训练的时候对每个阶段的输出的关键点位置进行了监督起到中继监督作用,损失函数形式分别如下:
Figure RE-GDA0002391457500000051
其中
Figure RE-GDA0002391457500000052
表示关键的位置信息,J包含所有的关键点,W为掩膜函数。
作为本发明的进一步改进,步骤三中使用FCN2对关键点间获取连接信息,获取关键点的方法具体为:
步骤一:在深度网络FCN2第一个阶段输出关键点的部分亲和域图
Figure RE-GDA0002391457500000053
其中
Figure RE-GDA0002391457500000054
为网络的映射函数;
步骤二:之后的阶段将前一阶段的预测结果和特征图F进行融合,经过卷积操作预测关键点间连接信息:
Figure RE-GDA0002391457500000055
在训练的时候对每个阶段的输出的关键点位置进行了监督起到中继监督作用,损失函数形式分别如下:
Figure RE-GDA0002391457500000056
式中:
Figure RE-GDA0002391457500000057
表示亲和区域的实际值;
C表示人体的所有关节数目。
使用中继监督方法计算整个网络每个阶段的损失之和累加,其方法为:
Figure RE-GDA0002391457500000058
上述姿态评估方法可以应用到驾驶员行为识别中,用来判断驾驶员行驶过程中食肉出现违规操作的现象。
实施例
如图1所示,从车辆驾驶平台收集相关驾驶员图像,制作驾驶员图像数据集DDS,作为网络的输入计;利用VGG网络对输入的驾驶员图像提取特征图F;其中特征图F是由128 个通道且大小为46×46的特征图组成,并将特征图F作为级联深度网络FCN1的输入,通过加入沙漏结构,使特征图大小由46降维至23,过滤特征图中的噪声和背景信息,突出关键信息。每一阶段结束时,将特征图F、深度网络FCN1提取到的通道数为38的特征图和深度网络FCN2提取到的通道数为19的特征图进行融合,结合低级特征与复杂高级特征得到图像整体空间关系;
如图2所示,采集到的驾驶员图像原始图片的大小为368×368,通过VGG网络提取特征得到大小为46×46×128的特征图F,分别由深度网络FCN1和深度网络FCN2提取人体关键点的位置信息和连接信息,每阶段结束后,将二者与特征图F进行信息融合,得到大小为46×46×185特征图,通过t个阶段的训练,加深网络层数,提高网络的整体精度和鲁棒性。

Claims (6)

1.一种级联的驾驶员人体姿态估计方法,其特征在于,包括以下步骤:
步骤一:从车辆驾驶平台收集相关驾驶员图像,制作数据集DDS的驾驶员图像,作为输入网络的实验数据;
步骤二:利用VGG网络对输入的驾驶员图像提取特征图F;
步骤三:使用添加了沙漏结构的深度网络FCN1提取图像中驾驶员的关键点位置信息;同时利用深度网络FCN2获得关键点之间的连接信息;
步骤四:将深度网络FCN1提取到的图像特征中的关键点位置信息、深度网络FCN2提取到的图像特征中的关键点之间的连接情况与特征图F进行融合,作为网络当前阶段的输出;
步骤五:重复步骤三、步骤四,通过增加网络深度提高网络整体检测精度,设定t=6,循环到第六次网络结束。
2.根据权利要求1所述的一种级联的驾驶员人体姿态估计方法,其特征在于,步骤二中使用VGG网络进行迁移学习,利用在ImageNet数据集上训练的VGG-16网络提取驾驶员图像特征图F,其中特征图F是128个46×46大小的特征图,在VGG-16网络之后添加两个卷积层Conv4_3A和Conv4_4A,卷积核大小均为3×3,其中Conv4_3A是256维,Conv4_4A为128维。
3.根据权利要求2所述的一种级联的驾驶员人体姿态估计方法,其特征在于,步骤三中一共包含18个人体关键点,它们分别是:鼻子,脖子,右肩,右肘,右手腕,左肩,左肘,左手腕,右臀部,右膝盖,右脚裸,左臀部,左膝盖,左脚裸,左眼睛,右眼睛,左耳朵,右耳朵。
4.根据权利要求3所述的一种级联的驾驶员人体姿态估计方法,其特征在于,步骤三中通过在全连接网络中添加沙漏结构,融合图像多个尺度的特征信息,再通过heatmap得到图像中每个像素对于各个关节点的概率图,同时保留原始特征图上各关键点的空间信息,获取关键点的方法具体为:
步骤一:在深度网络FCN1第一个阶段输出热力图S1
S1=ρ1(F)
式中:ρ1为网络的映射函数;
F为特征图;
步骤二:之后的阶段将前一阶段的预测结果和特征图F进行融合,作为当前阶段的输出,经过卷积操作预测出骨点热力图St
Figure FDA0002324246480000021
式中:ρt为t阶段的网络映射函数;
St-1为t-1阶段的输出热力图;
Lt-1为t-1阶段的关键点间连接信息;
在训练的时候对每个阶段的输出的关键点位置进行了监督起到中继监督作用,损失函数形式分别如下:
Figure FDA0002324246480000022
式中:
Figure FDA0002324246480000023
为关键点的位置信息;
Figure FDA0002324246480000024
为t阶段的关键点的位置信息;
j包含所有的关键点;
W为掩膜函数。
5.根据权利要求3所述的一种级联的驾驶员人体姿态估计方法,其特征在于,步骤三中使用FCN2对关键点间获取连接信息,获取关键点的方法具体为:
步骤一:在深度网络FCN2第一个阶段输出关键点的部分亲和域图L1
Figure FDA0002324246480000025
式中:
Figure FDA0002324246480000026
为网络的映射函数;
步骤二:之后的阶段将前一阶段的预测结果和特征图F进行融合,经过卷积操作预测关键点间连接信息:
Figure FDA0002324246480000027
在训练的时候对每个阶段的输出的关键点位置进行了监督起到中继监督作用,损失函数形式分别如下:
Figure FDA0002324246480000028
式中:
Figure FDA0002324246480000031
表示亲和区域的实际值;
C表示人体的所有关节数目。
6.根据权利要求4或5所述的一种级联的驾驶员人体姿态估计方法,其特征在于,使用中继监督方法计算整个网络每个阶段的损失之和累加,其方法为:
Figure FDA0002324246480000032
CN201911309965.8A 2019-12-18 2019-12-18 一种级联的驾驶员人体姿态估计方法 Active CN111160162B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911309965.8A CN111160162B (zh) 2019-12-18 2019-12-18 一种级联的驾驶员人体姿态估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911309965.8A CN111160162B (zh) 2019-12-18 2019-12-18 一种级联的驾驶员人体姿态估计方法

Publications (2)

Publication Number Publication Date
CN111160162A true CN111160162A (zh) 2020-05-15
CN111160162B CN111160162B (zh) 2023-04-18

Family

ID=70557620

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911309965.8A Active CN111160162B (zh) 2019-12-18 2019-12-18 一种级联的驾驶员人体姿态估计方法

Country Status (1)

Country Link
CN (1) CN111160162B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860216A (zh) * 2020-06-30 2020-10-30 西安工程大学 一种结合注意力机制和部分亲和域场的人体姿态估计方法
CN112084878A (zh) * 2020-08-14 2020-12-15 浙江工业大学 一种用于判别作业人员姿态规范程度的方法
CN115457518A (zh) * 2022-08-30 2022-12-09 淮阴工学院 基于姿态感知与几何约束下的驾驶员行为识别方法及系统
CN116612298A (zh) * 2023-07-18 2023-08-18 西华大学 一种基于局部关键点的行人特征掩膜生成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543627A (zh) * 2018-11-27 2019-03-29 西安电子科技大学 一种判断驾驶行为类别的方法、装置、及计算机设备
CN110119676A (zh) * 2019-03-28 2019-08-13 广东工业大学 一种基于神经网络的驾驶员疲劳检测方法
CN110298257A (zh) * 2019-06-04 2019-10-01 东南大学 一种基于人体多部位特征的驾驶员行为识别方法
CN110443144A (zh) * 2019-07-09 2019-11-12 天津中科智能识别产业技术研究院有限公司 一种人体图像关键点姿态估计方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543627A (zh) * 2018-11-27 2019-03-29 西安电子科技大学 一种判断驾驶行为类别的方法、装置、及计算机设备
CN110119676A (zh) * 2019-03-28 2019-08-13 广东工业大学 一种基于神经网络的驾驶员疲劳检测方法
CN110298257A (zh) * 2019-06-04 2019-10-01 东南大学 一种基于人体多部位特征的驾驶员行为识别方法
CN110443144A (zh) * 2019-07-09 2019-11-12 天津中科智能识别产业技术研究院有限公司 一种人体图像关键点姿态估计方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860216A (zh) * 2020-06-30 2020-10-30 西安工程大学 一种结合注意力机制和部分亲和域场的人体姿态估计方法
CN112084878A (zh) * 2020-08-14 2020-12-15 浙江工业大学 一种用于判别作业人员姿态规范程度的方法
CN112084878B (zh) * 2020-08-14 2024-02-20 浙江工业大学 一种用于判别作业人员姿态规范程度的方法
CN115457518A (zh) * 2022-08-30 2022-12-09 淮阴工学院 基于姿态感知与几何约束下的驾驶员行为识别方法及系统
CN115457518B (zh) * 2022-08-30 2024-01-26 淮阴工学院 基于姿态感知与几何约束下的驾驶员行为识别方法及系统
CN116612298A (zh) * 2023-07-18 2023-08-18 西华大学 一种基于局部关键点的行人特征掩膜生成方法
CN116612298B (zh) * 2023-07-18 2023-10-13 西华大学 一种基于局部关键点的行人特征掩膜生成方法

Also Published As

Publication number Publication date
CN111160162B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN111160162B (zh) 一种级联的驾驶员人体姿态估计方法
CN111814661B (zh) 基于残差-循环神经网络的人体行为识别方法
CN109271933B (zh) 基于视频流进行三维人体姿态估计的方法
CN110321761B (zh) 一种行为识别方法、终端设备及计算机可读存储介质
CN110991274B (zh) 一种基于混合高斯模型和神经网络的行人摔倒检测方法
CN111696196B (zh) 一种三维人脸模型重建方法及装置
CN110619316A (zh) 人体关键点检测方法、装置和电子设备
CN111767847A (zh) 一种集成目标检测和关联的行人多目标跟踪方法
CN114663593B (zh) 三维人体姿态估计方法、装置、设备及存储介质
CN112200157A (zh) 一种降低图像背景干扰的人体3d姿态识别方法及其系统
CN111797688A (zh) 一种基于光流和语义分割的视觉slam方法
CN111275026A (zh) 一种三维点云联合语义和实例分割的方法
US9752880B2 (en) Object linking method, object linking apparatus, and storage medium
CN113780197A (zh) 动作姿态信息补全方法、电子设备及计算机可读存储介质
CN115588116A (zh) 基于双通道注意力机制的行人动作识别方法
CN116343334A (zh) 融合关节捕捉的三流自适应图卷积模型的动作识别方法
CN114743273A (zh) 基于多尺度残差图卷积网络的人体骨骼行为识别方法及系统
CN112507859B (zh) 一种用于移动机器人的视觉跟踪方法
CN113076891A (zh) 基于改进高分辨率网络的人体姿态预测方法及系统
CN112308917A (zh) 一种基于视觉的移动机器人定位方法
CN114821513B (zh) 一种基于多层网络的图像处理方法及装置、电子设备
CN109583584B (zh) 可使具有全连接层的cnn接受不定形状输入的方法及系统
CN112446253A (zh) 一种骨架行为识别方法及装置
CN116630850A (zh) 基于多注意力任务融合与边界框编码的孪生目标跟踪方法
CN113255514B (zh) 基于局部场景感知图卷积网络的行为识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant