CN113705445B - 一种基于事件相机的人体姿态识别的方法及设备 - Google Patents

一种基于事件相机的人体姿态识别的方法及设备 Download PDF

Info

Publication number
CN113705445B
CN113705445B CN202110996126.9A CN202110996126A CN113705445B CN 113705445 B CN113705445 B CN 113705445B CN 202110996126 A CN202110996126 A CN 202110996126A CN 113705445 B CN113705445 B CN 113705445B
Authority
CN
China
Prior art keywords
human body
data
event
event camera
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110996126.9A
Other languages
English (en)
Other versions
CN113705445A (zh
Inventor
张世雄
魏文应
龙仕强
陈智敏
李楠楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Bohua Ultra Hd Innovation Center Co ltd
Instritute Of Intelligent Video Audio Technology Longgang Shenzhen
Original Assignee
Guangdong Bohua Ultra Hd Innovation Center Co ltd
Instritute Of Intelligent Video Audio Technology Longgang Shenzhen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Bohua Ultra Hd Innovation Center Co ltd, Instritute Of Intelligent Video Audio Technology Longgang Shenzhen filed Critical Guangdong Bohua Ultra Hd Innovation Center Co ltd
Priority to CN202110996126.9A priority Critical patent/CN113705445B/zh
Publication of CN113705445A publication Critical patent/CN113705445A/zh
Application granted granted Critical
Publication of CN113705445B publication Critical patent/CN113705445B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种基于事件相机的人体姿态识别的方法,包括预处理阶段和部署应用阶段,其中,预处理阶段包括步骤:L1.数据模拟;L2.人体检测深度卷积网络训练;L3.姿态检测深度卷积网络训练;L4.再训练;L5.测试部署,以及部署应用阶段包括步骤:S1.开始;S2.事件相机的转换数据;S3.检测人体;S4.提取关键点;S5.连接关键点;S6.输出结果。本发明主要利用人工智能的方法对事件相机采集到的数据进行识别,解决了目前事件相机训练数据不足、事件相机数据转换处理、模型的训练和部署的这几个问题,形成一套有效的针对事件相机的数据进行人体姿态识别的方法。

Description

一种基于事件相机的人体姿态识别的方法及设备
技术领域
本发明属于人工智能领域,特别涉及一种基于事件相机的人体姿态识别的方法及设备。
背景技术
人体的姿态识别是一项重要的人工智能技术,主要利用计算机视觉技术对人体的关键点进行检测,然后拼接成人体的姿态。对于人体姿态来说,过去的人体姿态提取方案往往基于传统的摄像机。针对人体的姿态识别有着广泛的用途,例如人机交互、行为分析、智能运动训练等,都利用了人体姿态识别作为关键技术,传统的相机提取人体姿态存在许多问题和缺点。事件相机在运动信息获取上有很多传统相机没的优点如:宽动态、低时延、没有运动模糊等。然而,事件相机由于应用较少,没有类似于传统相机采集到的大规模数据集可以进行深度学习网络的训练。
发明内容
本发明方法的目的是提供一种基于事件相机的人体姿态识别的方法及设备,本发明主要利用人工智能的方法对事件相机采集到的数据进行识别,解决了目前事件相机训练数据不足、事件相机数据转换处理、模型的训练和部署的这几个问题,形成一套有效的针对事件相机的数据进行人体姿态识别的方法。
本发明的技术方案如下:
根据本发明的另一方面,提供一种基于事件相机的人体姿态识别的方法,包括预处理阶段和部署应用阶段,其中,预处理阶段包括以下步骤:L1.数据模拟:对传统的相机数据进行模拟,传统的数据经过姿态检测算法进行检测标注后,输入到事件相机模拟转换器中进行数据模拟,然后得到模拟好的事件数据;L2.人体检测深度卷积网络训练:利用步骤L1中的模拟好的事件数据对人体检测深度卷积神经网络进行训练,训练过程主要是将损失函数最小化;L3.姿态检测深度卷积网络训练:利用步骤L1中的模拟好的事件数据对姿态检测深度卷积网络进行训练,训练过程主要是将损失函数最小化;L4.再训练:针对步骤L2和步骤L3的训练模型,再利用收集的真实的数据集进行再训练;L5.测试部署:分别对训练好的模型进行测试,测试通过后进行部署,以及部署应用阶段包括以下步骤:S1.开始:初始化事件相机使得事件相机可以正常采集数据;S2.事件相机的转换数据:将采集的真实的事件相机数据进行数据转换,转换为图像帧、点云、体素这三形式进行处理;S3.检测人体:将转换好的事件相机数据输入到训练好的人体检测深度卷积网络中进行人体识别;S4.提取关键点:将步骤S3中识别出来的人体图像输入到训练好的姿态检测深度卷积网络进行关键点识别,输出识别出来的关键点位置信息;S5.连接关键点:将步骤S4中的关键点按照人体的基本构造进行连接,人体的基本结构即人体生理结构,例如手腕连接手肘,手肘连接肩;S6.输出结果:将连接好的人体关键点输出即可以完整的描述人体的姿态。
优选的,在上述基于事件相机的人体姿态识别的方法中,在步骤L1中,利用现有的人体姿态识别算法对视频中的人体姿态进行检测,将检测的结果作为标注的信息,然后通过模拟转换器将视频模拟转换为事件相机的数据格式,得到标注好的人体姿态事件数据,采用模拟转换器进行转换,得到模拟好的事件数据。
优选的,在上述基于事件相机的人体姿态识别的方法中,在步骤L2中,损失函数主要计算人体检测深度卷积神经网络的预测值和标注的真值之间的差值,此处的预测值和标注的真值均为人体所在的位置信息(x,y)和长宽(w,h)框图,即(x,y,w,h)。
优选的,在上述基于事件相机的人体姿态识别的方法中,在步骤L3中,损失函数主要计算姿态检测深度卷积网络的预测值和标注的真值之间的差值,此处的预测值和标注的真值均为人体姿态中关键节点的位置信息,以及节点所属的类别。
优选的,在上述基于事件相机的人体姿态识别的方法中,在步骤S2中,转换成图像帧的方式是将稀疏的事件数据合并成图像帧的形式,收集一定时间段内的所有事件数据,然后将时间维度的所有信息进行融合,使得原来的三维事件数据变为两维;将事件相机数据转换为点云的处理方式是不对时间维度的信息进行融合,将时间维度信息转换为点云的空间维度信息即Z轴的信息;以及将事件数据转换为体素形式是基于转换成点云的基础上将点云的每个二维点进行体素融合,形成三维的体素表达形式。
优选的,在上述基于事件相机的人体姿态识别的方法中,该步骤S3中,利用人体检测深度卷积网络对人体进行检测,确定人体所在图像中的位置,当确认人体位置后,将人体的图像块送入下一个深度学习网络。
根据本发明的另一方面,提供了一种基于事件相机的人体姿态识别的设备,包括:事件相机,用于采集事件相机数据;模拟转换器,用于将视频模拟转换为事件相机的数据格式;人体姿态检测模块,包括人体检测深度卷积网络和姿态检测深度卷积网络,其中,人体检测深度卷积网络,用于对人体进行检测,确定人体所在图像中的位置,当确认人体位置后,将人体的图像块送入下一个深度学习的网络;姿态检测深度卷积网络,用于进行关键点的检测和提取,所获取的人体的关键点数据就是人体的姿态。
优选的,在上述基于事件相机的人体姿态识别的设备中,人体检测深度卷积网络和姿态检测深度卷积网络使用相同结构的深度卷积神经网络,其主要结构由卷积神经网络组成,用于对每个关键点进行回归。
根据本发明的技术方案,产生的有益效果是:
本发明方法,对于事件相机采集到的人体数据可以有效的提取出人体的关键点信息,即可以组合成人体姿态的关节点信息解决了事件相机对人体姿态进行有效的识别的问题以及训练算法缺乏事件相机数据问题。具体地,事件相机在捕捉运动目标有许多优点,有效地克服了过去基于传统相机的诸多缺点,例如,运动模糊,数据冗余等问题。本发明利用事件去捕捉运动的人体数据,可以实现高速的运动姿态捕捉,针对基于事件相机的姿态识别的训练数据缺乏问题,本发明提出了利用模拟数据的方式,将传统的标注好的姿态识别训练数据转换为事件相机数据,有效地解决训练用的事件数据缺乏的问题。
为了更好地理解和说明本发明的构思、工作原理和发明效果,下面结合附图,通过具体实施例,对本发明进行详细说明如下:
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。
图1是本发明方法的预处理过程;
图2是本发明方法中网络的部署应用流程图;以及
图3是本发明的事件相机下的人体数据。
具体实施方式
下结合附图,通过具体实施例对本发明作进一步详细说明。
本发明的基于事件相机的人体姿态识别的方法是利用人工智能的方法在事件相机上对人体姿态进行识别,以有效的将传统相机采集数据的数据集转换为事件数据集,然后进行数据训练,利用训练好的网络对事件相机采集到的数据进行姿态识别。对于事件相机采集到的人体数据可以有效的提取出人体的关键点信息,即可以组合成人体姿态的关节点信息,主要包括:识别出姿态,主要利用一种神经网络的学习训练的方法。
本发明方法的原理是:利用事件相机快速捕捉运动目标的特性,设计一种基于事件相机的姿态识别方法。其方法主要用到事件相机的数据采集,事件相机的数据转换,训练数据的模拟转换,模型的训练,模型的部署这几个关键步骤,其中训练数据的转换,模型的训练属于预处理阶段,事件相机的数据转换和模型部署属于部署应用阶段。
本发明的实施方法包括两部分,第一部分为预处理阶段,其步骤如图1所示,第二部分是本发明的部署应用阶段的流程,如图2所示。以下结合图1和图2对本发明方法进行说明。
如图1所示,本发明方法的预处理阶段的过程包括以下步骤:
L1.数据模拟:利用图2中的方法对传统的相机数据进行模拟,传统的数据经过姿态检测算法进行检测标注后,输入到事件相机模拟转换器中进行数据模拟,然后得到模拟好的事件数据。
针对事件相机训练数据不足的问题,本发明采用将传统相机数据模拟为事件相机的数据的方式来弥补事件相机训练数据的不足。具体做法是利用现有的成熟的人体姿态识别算法对视频中的人体姿态进行检测,将检测的结果作为标注的信息,然后通过模拟转换器将视频模拟转换为事件相机的数据格式,得到标注好的人体姿态事件数据,模拟转换器采用国际上通用的转换方式ESIM(事件相机模拟器)来进行转换,得到模拟后的事件数据。
L2.人体检测深度卷积网络训练:利用步骤L1中的模拟好的事件数据对人体检测深度卷积神经网络进行训练,训练过程主要是将损失函数最小化,损失函数主要计算深度卷积网络的预测值和标注的真值之间的差值,此处的预测值和标注的真值均为人体所在的位置信息(x,y)和长宽(w,h)框图,即(x,y,w,h)。
L3.姿态检测深度卷积网络训练:利用步骤L1中的模拟好的事件数据对姿态检测深度卷积网络进行训练,训练过程主要是将损失函数最小化,损失函数主要计算姿态检测深度卷积网络的预测值和标注的真值之间的差值,此处的预测值和标注的真值均为人体姿态中关键节点的位置信息,以及节点所属的类别。
L4.再训练:针对步骤L2和步骤L3的训练模型(即,人体检测深度卷积神经网络和姿态检测深度卷积网络)再利用收集的真实的数据集进行再训练。
L5.测试部署:分别对训练好的模型(即,人体检测深度卷积神经网络和姿态检测深度卷积网络)进行测试,测试通过后进行部署。
利用步骤L1中模拟好的数据对分别对深度卷积网络进行第一阶段的训练,分别训练人体识别和人体关键点检测训练,在完成第一阶段训练后,再利用事件相机采集的数据进行第二阶段的训练,第二阶段的训练数据是由真实的事件相机数据进行训练,第一阶段的训练主要是模拟的数据集中学习到目标的特征,第二阶段可以有效在真实的数据集中对模型进行调整,使其适应真实的数据的表现形式。此方法可以解决在有限的真实事件数据集对网络进行有效训练的问题,训练完成后就可以对其进行实施部署了。
本发明实施例的一种基于事件相机的人体姿态识别的方法,通过利用事件相机的方式获取姿态识别最终通过深度卷积网络可以对事件相机捕捉的人体数据进行有效的识别。图2是本发明方法中的部署应用阶段的流程,具体步骤如下:
S1.开始:初始化事件相机使得事件相机可以正常采集数据。
S2.事件相机的转换数据:将采集的真实的事件相机数据进行数据转换,此处可以根据需求转换为图像帧、点云、体素这三形式进行处理。
由于事件相机的输出方式是以不同步的离散点的方式进行输出,不同与传统的相机输出方式,对于每一个事件相机的像素点E(x,y,p,t)有四个表示的信息,其中(x,y)表示事件相机的位置信息,p表示该事件像素的强度信息,t表示该像素触发时间。本发明提出三种事件数据的转换方式,分别是:转换成图像帧,转换成点云,以及转换成体素。其中,转换成图像帧的方式主要是将稀疏的事件数据合并成图像帧的形式,具体的合并方式是收集一定时间段内的所有事件数据,然后,将时间维度的所有信息进行融合,使得原来的三维事件数据变为两维。将事件相机数据转换为点云的处理方式即不对时间维度的信息进行融合,将时间维度信息转换为点云的空间维度信息即Z轴的信息。将事件数据转换为体素形式则是基于转换成点云的基础上将点云的每个二维点进行体素融合,形成三维的体素表达形式。
S3.检测人体:将转换好的事件相机数据输入到训练好的人体检测深度卷积网络中进行人体识别。事件相机的人体数据如图3所示。
该步骤中,利用人体检测深度卷积网络通过深度学习网络对人体进行检测,即确定人体所在图像中的位置,当确认人体位置后,将人体的图像块送入下一个深度学习网络。
S4.提取关键点:将步骤S3中识别出来的人体图像输入到训练好的姿态检测深度卷积网络进行关键点识别,输出识别出来的关键点位置信息。
在该步骤中,关键点检测网络进行关键点的提取,所获取到的人体的关键点数据就是人体的姿态。
S5.连接关键点:将步骤S4中的关键点按照人体的基本构造进行连接,人体的基本结构即人体生理结构,例如手腕连接手肘,手肘连接肩。
S6.输出结果:将连接好的人体关键点输出即可以完整的描述人体的姿态。
本发明的基于事件相机的人体姿态识别的设备,包括事件相机、模拟转换器和人体姿态检测模块,其中:
事件相机,用于采集事件相机数据;
模拟转换器,用于将视频模拟转换为事件相机的数据格式;
人体姿态检测模块,其包括人体检测深度卷积网络和姿态检测深度卷积网络。其中,人体检测深度卷积网络,用于通过深度学习网络对人体进行检测,即确定人体所在图像中的位置,当确认人体位置后,将人体的图像块送入下一个深度学习的网络;姿态检测深度卷积网络,用于进行关键点的检测和提取,所获取到的人体的关键点数据就是人体的姿态。其中,人体检测和关键点检测使用相同结构的深度卷积神经网络,其主要结构由卷积神经网络组成,用于对每个关键点进行回归。
以上说明是依据发明的构思和工作原理的最佳实施例。上述实施例不应理解为对本权利要求保护范围的限制,依照本发明构思的其他实施方式和实现方式的组合均属于本发明的保护范围。

Claims (8)

1.一种基于事件相机的人体姿态识别的方法,其特征在于,包括预处理阶段和部署应用阶段,其中,所述预处理阶段包括以下步骤:
L1. 数据模拟:对传统的相机数据进行模拟,该传统的相机数据经过姿态检测算法进行检测标注后,输入到事件相机模拟转换器中进行数据模拟,然后得到模拟好的事件数据;
L2. 人体检测深度卷积网络训练:利用步骤L1中的所述模拟好的事件数据对所述人体检测深度卷积神经网络进行训练,训练过程是将损失函数最小化;
L3. 姿态检测深度卷积网络训练:利用步骤L1中的所述模拟好的事件数据对所述姿态检测深度卷积网络进行训练,训练过程是将损失函数最小化;
L4. 再训练:针对步骤L2和步骤L3的训练模型,再利用收集的真实的数据集进行再训练;
L5. 测试部署:分别对训练好的模型进行测试,测试通过后进行部署,
以及所述部署应用阶段包括以下步骤:
S1. 开始:初始化事件相机使得事件相机可以正常采集数据;
S2. 事件相机的转换数据:将采集的真实的事件相机数据进行数据转换,转换为图像帧、点云、体素这三形式进行处理;
S3. 检测人体:将转换好的事件相机数据输入到训练好的人体检测深度卷积网络中进行人体识别;
S4. 提取关键点:将步骤S3中识别出来的人体图像输入到训练好的姿态检测深度卷积网络进行关键点识别,输出识别出来的关键点位置信息;
S5. 连接关键点:将步骤S4中的关键点按照人体的基本构造进行连接,人体的基本结构即人体生理结构,包括手腕连接手肘,手肘连接肩;
S6. 输出结果:将连接好的人体关键点输出即可以完整的描述人体的姿态。
2.根据权利要求1所述的基于事件相机的人体姿态识别的方法,其特征在于,在步骤L1中,利用现有的人体姿态识别算法对视频中的人体姿态进行检测,将检测的结果作为标注的信息,然后通过模拟转换器将视频模拟转换为事件相机的数据格式,得到标注好的人体姿态事件数据,采用模拟转换器进行转换,得到所述模拟好的事件数据。
3.根据权利要求1所述的基于事件相机的人体姿态识别的方法,其特征在于,在步骤L2中,所述损失函数计算所述人体检测深度卷积神经网络的预测值和标注的真值之间的差值,此处的预测值和标注的真值均为人体所在的位置信息(x,y)和长宽(w,h)框图,即(x,y,w,h)。
4.根据权利要求1所述的基于事件相机的人体姿态识别的方法,其特征在于,在步骤L3中,所述损失函数计算所述姿态检测深度卷积网络的预测值和标注的真值之间的差值,此处的预测值和标注的真值均为人体姿态中关键节点的位置信息,以及节点所属的类别。
5.根据权利要求1所述的基于事件相机的人体姿态识别的方法,其特征在于,在步骤S2中,转换成图像帧的方式是将稀疏的事件数据合并成图像帧的形式,收集一定时间段内的所有事件数据,然后将时间维度的所有信息进行融合,使得原来的三维事件数据变为两维;将事件相机数据转换为点云的处理方式是不对时间维度的信息进行融合,将时间维度信息转换为点云的空间维度信息即Z轴的信息;以及将事件数据转换为体素形式是基于转换成点云的基础上将点云的每个二维点进行体素融合,形成三维的体素表达形式。
6.根据权利要求1所述的基于事件相机的人体姿态识别的方法,其特征在于,该步骤S3中,利用所述人体检测深度卷积网络对人体进行检测,确定人体所在图像中的位置,当确认人体位置后,将人体的图像块送入下一个深度学习网络。
7.一种基于事件相机的人体姿态识别的设备,其特征在于,包括:
事件相机,用于采集事件相机数据;
模拟转换器,用于将视频模拟转换为事件相机的数据格式;
人体姿态检测模块,包括人体检测深度卷积网络和姿态检测深度卷积网络,其中,所述人体检测深度卷积网络,用于对人体进行检测,确定人体所在图像中的位置,当确认人体位置后,将人体的图像块送入下一个深度学习的网络;所述姿态检测深度卷积网络,用于进行关键点的检测和提取,所获取的人体的关键点数据就是人体的姿态;
该设备用于实现根据权利要求1-6任意一项所述的基于事件相机的人体姿态识别的方法。
8.根据权利要求7所述的基于事件相机的人体姿态识别的设备,其特征在于,其中,所述人体检测深度卷积网络和所述姿态检测深度卷积网络使用相同结构的深度卷积神经网络,其结构由卷积神经网络组成,用于对每个关键点进行回归。
CN202110996126.9A 2021-08-27 2021-08-27 一种基于事件相机的人体姿态识别的方法及设备 Active CN113705445B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110996126.9A CN113705445B (zh) 2021-08-27 2021-08-27 一种基于事件相机的人体姿态识别的方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110996126.9A CN113705445B (zh) 2021-08-27 2021-08-27 一种基于事件相机的人体姿态识别的方法及设备

Publications (2)

Publication Number Publication Date
CN113705445A CN113705445A (zh) 2021-11-26
CN113705445B true CN113705445B (zh) 2023-08-04

Family

ID=78656023

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110996126.9A Active CN113705445B (zh) 2021-08-27 2021-08-27 一种基于事件相机的人体姿态识别的方法及设备

Country Status (1)

Country Link
CN (1) CN113705445B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114529983B (zh) * 2022-01-14 2024-06-28 清华大学 事件及视频融合的动作识别方法及装置
CN115204221B (zh) * 2022-06-28 2023-06-30 深圳市华屹医疗科技有限公司 生理参数的检测方法、设备及存储介质
CN116708655B (zh) * 2022-10-20 2024-05-03 荣耀终端有限公司 一种基于事件相机的屏幕控制方法及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019232894A1 (zh) * 2018-06-05 2019-12-12 中国石油大学(华东) 一种基于复杂场景下的人体关键点检测系统及方法
CN111339903A (zh) * 2020-02-21 2020-06-26 河北工业大学 一种多人人体姿态估计方法
CN111695402A (zh) * 2019-03-12 2020-09-22 沃尔沃汽车公司 用于标注3d点云数据中人体姿态的工具和方法
CN111724414A (zh) * 2020-06-23 2020-09-29 宁夏大学 一种基于3d姿态估计的篮球运动分析方法
CN111881773A (zh) * 2020-07-06 2020-11-03 武汉大学 一种基于位置偏移的事件相机人体姿态估计方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239728B (zh) * 2017-01-04 2021-02-02 赛灵思电子科技(北京)有限公司 基于深度学习姿态估计的无人机交互装置与方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019232894A1 (zh) * 2018-06-05 2019-12-12 中国石油大学(华东) 一种基于复杂场景下的人体关键点检测系统及方法
CN111695402A (zh) * 2019-03-12 2020-09-22 沃尔沃汽车公司 用于标注3d点云数据中人体姿态的工具和方法
CN111339903A (zh) * 2020-02-21 2020-06-26 河北工业大学 一种多人人体姿态估计方法
CN111724414A (zh) * 2020-06-23 2020-09-29 宁夏大学 一种基于3d姿态估计的篮球运动分析方法
CN111881773A (zh) * 2020-07-06 2020-11-03 武汉大学 一种基于位置偏移的事件相机人体姿态估计方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于卷积神经网络的人体姿态识别研究;代西果;万方中国学位论文数据库;全文 *

Also Published As

Publication number Publication date
CN113705445A (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
CN113705445B (zh) 一种基于事件相机的人体姿态识别的方法及设备
CN109919031B (zh) 一种基于深度神经网络的人体行为识别方法
CN109977773B (zh) 基于多目标检测3d cnn的人体行为识别方法及系统
Deng et al. MVF-Net: A multi-view fusion network for event-based object classification
CN111814661A (zh) 基于残差-循环神经网络的人体行为识别方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN107392131A (zh) 一种基于人体骨骼节点距离的动作识别方法
CN112329525A (zh) 一种基于时空图卷积神经网络的手势识别方法和装置
CN109858407A (zh) 一种基于多种信息流特征和异步融合的视频行为识别方法
CN110796018A (zh) 一种基于深度图像和彩色图像的手部运动识别方法
CN111353447A (zh) 一种基于图卷积网络的人体骨架行为识别方法
CN111860117A (zh) 一种基于深度学习的人体行为识别方法
Dewan et al. Spatio-temporal Laban features for dance style recognition
CN111898566A (zh) 姿态估计方法、装置、电子设备和存储介质
Özbay et al. 3D Human Activity Classification with 3D Zernike Moment Based Convolutional, LSTM-Deep Neural Networks.
CN113516232B (zh) 一种基于自注意力机制的穿墙雷达人体姿态重构方法
CN106980823A (zh) 一种基于帧间自相似的动作识别方法
Du The computer vision simulation of athlete’s wrong actions recognition model based on artificial intelligence
CN118097709A (zh) 一种猪只姿态估计方法及装置
CN110348395B (zh) 一种基于时空关系的骨架行为识别方法
CN110096940A (zh) 一种基于lstm网络的步态识别系统及方法
CN115830635A (zh) 一种基于关键点检测和目标识别的pvc手套识别方法
CN117173777A (zh) 一种基于肢体方向线索解码网络的学习者正面姿态估计方法
CN112967317B (zh) 一种动态环境下基于卷积神经网络架构的视觉里程计方法
CN115188080A (zh) 基于骨架识别和门控循环网络的交警手势识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant