CN110471526A - 一种人体姿态估计与手势识别结合的无人机控制方法 - Google Patents
一种人体姿态估计与手势识别结合的无人机控制方法 Download PDFInfo
- Publication number
- CN110471526A CN110471526A CN201910575847.5A CN201910575847A CN110471526A CN 110471526 A CN110471526 A CN 110471526A CN 201910575847 A CN201910575847 A CN 201910575847A CN 110471526 A CN110471526 A CN 110471526A
- Authority
- CN
- China
- Prior art keywords
- gesture
- key point
- unmanned plane
- ground control
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 210000000707 wrist Anatomy 0.000 claims abstract description 23
- 238000001514 detection method Methods 0.000 claims abstract description 13
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims description 7
- 210000004247 hand Anatomy 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000001699 lower leg Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种人体姿态估计与手势识别结合的无人机控制方法,包括以下步骤:通过无人机拍摄地面指挥者指挥的视频;截取视频的关键帧图像;对图像中的地面指挥者使用OpenPose网络进行估计,得出其骨骼关键点的带有时序的二维坐标组;以地面指挥者左右手手腕关键点为中心,各截取一个区域,在两个区域内采用SSD目标检测算法来识别左右手的手势;同步地,将获得的特征数据输入到训练好的SVM动作分类器,得出动作识别结果;若识别出左右手的手势,则基于左右手的手势控制无人机;否则,则基于得出的人体动作的识别结果控制无人机。本发明解决了如何既能近距离控制无人机,又能远距离控制无人机的难题,同时也提高手势识别的正确率。
Description
技术领域
本发明涉及无人机的交互与控制的技术领域,尤其涉及到一种人体姿态估计与手势识别结合的无人机控制方法。
背景技术
目前,关于无人机的交互与控制主要有专业遥控器和手机控制,这两种方式都不能解放双手。为了能够更加智能化、便捷地控制无人机,出现了通过手势识别控制无人机,因为受摄像头分辨率与远距离手势识别正确率的影响,很多能手势控制的无人机都用红外线感应装置来辅助手势的识别。但如果使用其他感应器来辅助识别,这又提高了产品的制作成本。后来,也有人用深度学习人体姿态估计来控制无人机,但一旦近距离控制的话,就会有控制范围的局限。
目前已有的解决方法包括:
(1)穿戴装有惯性测量单元IMU头盔的控制无人机方法,对比传统无人机的遥控和摇杆控制方法,虽然简化了无人机的控制,但需要依赖特殊辅助设备,成本加大。
(2)基于Kinect的动作识别的无人机控制方法,,操纵者通过Kinect传感器来识别动作来控制飞机。虽然基于Kinect识别的方法有较高的识别准确率,但因RGB-D传感器对距离的现实,该方法只能对操控者进行近距离的跟踪。
(3)基于计算机视觉及深度学习的无人机手势控制方法,用不同颜色编码光流特征,叠加在一张图片上,将视频转换为同时包含时间特征以及空间特征的彩色纹理图。最后,利用卷积神经网络对彩色纹理图进行学习及分类,根据分类结果生成控制无人机的指令。该方法虽然不依赖辅助设备,但是泛化能力比较差,而且处理起来比较复杂,如果具体到手掌的远距离手势的识别的话,该方法还是行不通。
(4)基于深度学习姿态估计的无人机控制,该方法用人体骨骼关键点的识别来识别动作进而控制无人机,该方法解决了远距离的动作识别控制,但是近距离没有利用到手掌手势来控制无人机。
发明内容
本发明的目的在于克服现有技术的不足,提供一种人体姿态估计与手势识别结合的无人机控制方法。解决如何既能近距离控制无人机,又能远距离控制无人机的难题,同时也提高手势识别的正确率。而且,该方法不止局限于手势控制无人机,还能结合身体的动作来控制无人机,可扩展性很高。
为实现上述目的,本发明所提供的技术方案为:
一种人体姿态估计与手势识别结合的无人机控制方法,包括以下步骤:
S1:通过无人机拍摄地面指挥者指挥的即时视频;
S2:截取步骤S1拍摄到的视频的关键帧图像;
S3:对步骤S2截取到的图像中的地面指挥者使用充分训练好的自下而上的轻量级OpenPose网络进行估计,得出地面指挥者的骨骼关键点的带有时序的二维坐标组,将该带有时序的二维坐标组作为特征数据;
S4:以地面指挥者左手和右手手腕关键点为中心,各截取一个区域,在该两个区域内采用SSD目标检测算法来识别左右手的手势;同步地,将步骤S3获得的特征数据输入到训练好的SVM动作分类器,得出动作识别结果;
S5:若步骤S4识别出左右手的手势,则基于左右手的手势控制无人机;若步骤S4识别不出左右手的手势,则进入步骤S6;
S6:基于步骤S4得出的人体动作的识别结果控制无人机。
进一步地,步骤S4所述的SVM动作分类器通过以下步骤得出:
(1:自建关于地面指挥者指挥动作视频的训练数据集;
(2:对从训练数据集截取的关键帧图像使用已充分训练好的轻量级OpenPose网络进行估计,得出地面指挥者的骨骼关键点的带有时序的二维坐标组,将该带有时序的二维坐标组作为特征数据;
(3:将生成的特征数据使用SVM分类器进行训练,生成SVM动作分类器。
进一步地,所述步骤S4中,通过以下过程设定以地面指挥者左手手腕关键点为中心的截取区域:
1)假设左手手腕坐标为(x1,y1),左手手肘坐标为(x2,y2);
2)将左手手腕及手肘的坐标投影到X轴和Y轴上,得到投影到X轴后的长度为|x1-x2|,投影到Y轴后的长度|y1-y2|;
3)比较长度,若|x1-x2|≥|y1-y2|,则L1=2|x1-x2|;若|x1-x2|≤|y1-y2|则L1=2|y1-y2|;
4)以左手手腕坐标(x1,y1)为中心坐标,建立边长为L1的正方形区域作为用来手势识别的区域范围。
进一步地,所述自下而上的轻量级OpenPose网络的特征提取主干网络用Mobilenet V1来替换,然后经过一个初始阶段网络和两个精细化阶段网络来不断优化关键点热图和关键点聚类结果,提高网络人体关键点识别的精确度;每一个精细化阶段都以特征提取主干网络的输出和上一个阶段输出的关键点热图和关键点聚类结果作为输入,不断地迭代预测更好的结果。
与现有技术相比,本方案原理和优点如下:
1.获取视频的关键帧图片,估计出关键帧图片中地面指挥者的骨骼关键点的带有时序的二维坐标组(特征数据),接着以地面指挥者左手和右手手腕关键点为中心,各截取一个区域,在该两个区域内采用SSD目标检测算法来识别左右手的手势;同步地,将获得的特征数据输入到训练好的SVM动作分类器,得出动作识别结果。若识别出左右手的手势,则基于左右手的手势控制无人机;若识别不出左右手的手势,则基于得出的人体动作的识别结果控制无人机。该方法解决了既能近距离控制无人机,也能远距离控制无人机的一个难题。
2.人体骨骼关键点检测主要有两个方向,一种是自上而下,一种是自下而上,其中自上而下的人体骨骼关键点定位算法主要包含两个部分,人体检测和单人人体关键点检测,即首先通过目标检测算法将每一个人检测出来,然后在检测框的基础上针对单个人做人体骨骼关键点检测。自下而上的方法也包含两个部分,关键点检测和关键点聚类,即首先需要将图片中所有的关键点都检测出来,然后通过相关策略将所有的关键点聚类成不同的个体。
本方案通过自下而上的轻量级OpenPose网络来估计关键帧图片中地面指挥者的骨骼关键点的带有时序的二维坐标组(特征数据),该网络的特征提取主干网络用Mobilenet V1来替换,然后经过一个初始阶段网络和两个精细化阶段网络来不断优化关键点热图和关键点聚类结果,在保证人体关键点识别正确度的同时也能保证实时性。
3.左右手手势识别过程中,各截取一个特定的区域,在该两个特定的区域内采用SSD目标检测算法来识别左右手的手势,大大提高了手势识别的正确率。而且,该特定的区域通过手腕和手肘的坐标点来设定其大小,避免出现区域过大或过小的情况,在恰好适配的区域中识别手势,大大提高了手势识别的效率。
4.本方案不止局限于手势控制无人机,还能结合身体的动作来控制无人机,可扩展性很强。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的服务作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本实施例中一种人体姿态估计与手势识别结合的无人机控制方法的流程框图;
图2为轻量级OpenPose网络的结构示意图;
图3为生成SVM动作分类器的流程图;
图4为用于手势识别截取的区域范围及人体关键点的示意图。
具体实施方式
下面结合具体实施例对本发明作进一步说明:
如图1所示,本实施例所述的一种人体姿态估计与手势识别结合的无人机控制方法,包括以下步骤:
S1:通过无人机拍摄地面指挥者指挥的即时视频;
S2:截取步骤S1拍摄到的视频的关键帧图像;
S3:对步骤S2截取到的图像中的地面指挥者使用充分训练好的自下而上的轻量级OpenPose网络进行估计,得出地面指挥者的13个骨骼关键点的带有时序的二维坐标组,将该带有时序的二维坐标组作为特征数据;
其中,13个关键点分别对应图4中的13个实点,分别为:1头、2左肩、3右肩、4左手肘、5右手肘、6左手腕、7右手腕、8左臀、9右臀、10左膝盖、11右膝盖、12左脚腕、13右脚腕;
如图2所示,本步骤S3中,所述自下而上的轻量级OpenPose网络的特征提取主干网络用Mobilenet V1来替换,然后经过一个初始阶段网络和两个精细化阶段网络来不断优化关键点热图和关键点聚类结果,提高网络人体关键点识别的精确度;每一个精细化阶段都以特征提取主干网络的输出和上一个阶段输出的关键点热图和关键点聚类结果作为输入,不断地迭代预测更好的结果。
S4:以地面指挥者左手和右手手腕关键点为中心,各截取一个区域,在该两个区域内采用SSD目标检测算法来识别左右手的手势;
上述中,如图4所示,其中通过以下过程设定以地面指挥者左手手腕关键点为中心的截取区域:
1)假设左手手腕坐标为(x1,y1),左手手肘坐标为(x2,y2);
2)将左手手腕及手肘的坐标投影到X轴和Y轴上,得到投影到X轴后的长度为|x1-x2|,投影到Y轴后的长度|y1-y2|;
3)比较长度,若|x1-x2|≥|y1-y2|,则L1=2|x1-x2|;若|x1-x2|≤|y1-y2|则L1=2|y1-y2|;
4)以左手手腕坐标(x1,y1)为中心坐标,建立边长为L1的正方形区域作为用来手势识别的区域范围S1。
设定以地面指挥者右手手腕关键点为中心的截取区域的原理与设定左手区域的原理一致。
另外,本步骤中,同步地,将步骤S3获得的特征数据输入到训练好的SVM动作分类器,得出动作识别结果;
如图3所示,SVM动作分类器通过以下步骤得出:
(1:自建关于地面指挥者指挥动作视频的训练数据集;
(2:对从训练数据集截取的关键帧图像使用已充分训练好的轻量级OpenPose网络进行估计,得出地面指挥者的骨骼关键点的带有时序的二维坐标组,将该带有时序的二维坐标组作为特征数据;
(3:将生成的特征数据使用SVM分类器进行训练,生成SVM动作分类器。
S5:若步骤S4识别出左右手的手势,则基于左右手的手势控制无人机;若步骤S4识别不出左右手的手势,则进入步骤S6;
S6:基于步骤S4得出的人体动作的识别结果控制无人机。
本实施例中,获取视频的关键帧图片,估计出关键帧图片中地面指挥者的骨骼关键点的带有时序的二维坐标组(特征数据),接着以地面指挥者左手和右手手腕关键点为中心,各截取一个区域,在该两个区域内采用SSD目标检测算法来识别左右手的手势;同步地,将获得的特征数据输入到训练好的SVM动作分类器,得出动作识别结果。若识别出左右手的手势,则基于左右手的手势控制无人机;若识别不出左右手的手势,则基于得出的人体动作的识别结果控制无人机。该方法解决了既能近距离控制无人机,也能远距离控制无人机的一个难题。
另外,通过自下而上的轻量级OpenPose网络来估计关键帧图片中地面指挥者的骨骼关键点的带有时序的二维坐标组(特征数据),该网络的特征提取主干网络用MobilenetV1来替换,然后经过一个初始阶段网络和两个精细化阶段网络来不断优化关键点热图和关键点聚类结果,在保证人体关键点识别正确度的同时也能保证实时性。
还有的是,左右手手势识别过程中,各截取一个特定的区域,在该两个特定的区域内采用SSD目标检测算法来识别左右手的手势,大大提高了手势识别的正确率。而且,该特定的区域通过手腕和手肘的坐标点来设定其大小,避免出现区域过大或过小的情况,在恰好适配的区域中识别手势,大大提高了手势识别的效率。
最后,本实施例不止局限于手势控制无人机,还能结合身体的动作来控制无人机,可扩展性很强。
以上所述之实施例子只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (4)
1.一种人体姿态估计与手势识别结合的无人机控制方法,其特征在于,包括以下步骤:
S1:通过无人机拍摄地面指挥者指挥的即时视频;
S2:截取步骤S1拍摄到的视频的关键帧图像;
S3:对步骤S2截取到的图像中的地面指挥者使用充分训练好的自下而上的轻量级OpenPose网络进行估计,得出地面指挥者的骨骼关键点的带有时序的二维坐标组,将该带有时序的二维坐标组作为特征数据;
S4:以地面指挥者左手和右手手腕关键点为中心,各截取一个区域,在该两个区域内采用SSD目标检测算法来识别左右手的手势;同步地,将步骤S3获得的特征数据输入到训练好的SVM动作分类器,得出动作识别结果;
S5:若步骤S4识别出左右手的手势,则基于左右手的手势控制无人机;若步骤S4识别不出左右手的手势,则进入步骤S6;
S6:基于步骤S4得出的人体动作的识别结果控制无人机。
2.根据权利要求1所述的一种人体姿态估计与手势识别结合的无人机控制方法,其特征在于,步骤S4所述的SVM动作分类器通过以下步骤得出:
(1:自建关于地面指挥者指挥动作视频的训练数据集;
(2:对从训练数据集截取的关键帧图像使用已充分训练好的轻量级OpenPose网络进行估计,得出地面指挥者的骨骼关键点的带有时序的二维坐标组,将该带有时序的二维坐标组作为特征数据;
(3:将生成的特征数据使用SVM分类器进行训练,生成SVM动作分类器。
3.根据权利要求1所述的一种人体姿态估计与手势识别结合的无人机控制方法,其特征在于,所述步骤S4中,通过以下过程设定以地面指挥者左手手腕关键点为中心的截取区域:
1)假设左手手腕坐标为(x1,y1),左手手肘坐标为(x2,y2);
2)将左手手腕及手肘的坐标投影到X轴和Y轴上,得到投影到X轴后的长度为|x1-x2|,投影到Y轴后的长度|y1-y2|;
3)比较长度,若|x1-x2|≥|y1-y2|,则L1=2|x1-x2|;若|x1-x2|≤|y1-y2|则L1=2|y1-y2|;
4)以左手手腕坐标(x1,y1)为中心坐标,建立边长为L1的正方形区域作为用来手势识别的区域范围。
4.根据权利要求1所述的一种人体姿态估计与手势识别结合的无人机控制方法,其特征在于,所述自下而上的轻量级OpenPose网络的特征提取主干网络用Mobilenet V1来替换,然后经过一个初始阶段网络和两个精细化阶段网络来不断优化关键点热图和关键点聚类结果,提高网络人体关键点识别的精确度;每一个精细化阶段都以特征提取主干网络的输出和上一个阶段输出的关键点热图和关键点聚类结果作为输入,不断地迭代预测更好的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910575847.5A CN110471526A (zh) | 2019-06-28 | 2019-06-28 | 一种人体姿态估计与手势识别结合的无人机控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910575847.5A CN110471526A (zh) | 2019-06-28 | 2019-06-28 | 一种人体姿态估计与手势识别结合的无人机控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110471526A true CN110471526A (zh) | 2019-11-19 |
Family
ID=68507472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910575847.5A Pending CN110471526A (zh) | 2019-06-28 | 2019-06-28 | 一种人体姿态估计与手势识别结合的无人机控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110471526A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110955243A (zh) * | 2019-11-28 | 2020-04-03 | 新石器慧通(北京)科技有限公司 | 行进控制方法、装置、设备、可读存储介质和移动装置 |
CN111178308A (zh) * | 2019-12-31 | 2020-05-19 | 北京奇艺世纪科技有限公司 | 一种手势轨迹的识别方法和装置 |
CN111382723A (zh) * | 2020-03-30 | 2020-07-07 | 北京云住养科技有限公司 | 求救识别的方法、装置及系统 |
CN111601088A (zh) * | 2020-05-27 | 2020-08-28 | 大连成者科技有限公司 | 一种基于单目摄像头坐姿识别技术的坐姿监控系统 |
CN111652076A (zh) * | 2020-05-11 | 2020-09-11 | 重庆大学 | 一种面向ad量表理解能力测试的姿态自动识别系统 |
CN111860096A (zh) * | 2020-04-10 | 2020-10-30 | 天津大学 | 基于Openpose和Alexnet无人机姿势控制方法 |
CN112732083A (zh) * | 2021-01-05 | 2021-04-30 | 西安交通大学 | 一种基于手势识别的无人机智能控制方法 |
CN113128339A (zh) * | 2021-03-15 | 2021-07-16 | 同济大学 | 一种基于行为识别的智能车辆运行控制系统和方法 |
CN113158833A (zh) * | 2021-03-31 | 2021-07-23 | 电子科技大学 | 一种基于人体姿态的无人车控制指挥方法 |
CN113221729A (zh) * | 2021-05-10 | 2021-08-06 | 北京航空航天大学 | 一种基于手势人机交互的无人机集群控制方法及系统 |
CN113283314A (zh) * | 2021-05-11 | 2021-08-20 | 桂林电子科技大学 | 一种基于YOLOv3和手势识别的无人机的夜间搜救方法 |
CN113536857A (zh) * | 2020-04-20 | 2021-10-22 | 深圳绿米联创科技有限公司 | 目标动作识别方法、装置、服务器及存储介质 |
CN113657346A (zh) * | 2021-08-31 | 2021-11-16 | 深圳市比一比网络科技有限公司 | 一种基于目标检测和关键点检测结合的司机动作识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105807926A (zh) * | 2016-03-08 | 2016-07-27 | 中山大学 | 一种基于三维连续动态手势识别的无人机人机交互方法 |
CN106155090A (zh) * | 2016-08-29 | 2016-11-23 | 电子科技大学 | 基于体感的可穿戴无人机控制设备 |
CN107239728A (zh) * | 2017-01-04 | 2017-10-10 | 北京深鉴智能科技有限公司 | 基于深度学习姿态估计的无人机交互装置与方法 |
-
2019
- 2019-06-28 CN CN201910575847.5A patent/CN110471526A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105807926A (zh) * | 2016-03-08 | 2016-07-27 | 中山大学 | 一种基于三维连续动态手势识别的无人机人机交互方法 |
CN106155090A (zh) * | 2016-08-29 | 2016-11-23 | 电子科技大学 | 基于体感的可穿戴无人机控制设备 |
CN107239728A (zh) * | 2017-01-04 | 2017-10-10 | 北京深鉴智能科技有限公司 | 基于深度学习姿态估计的无人机交互装置与方法 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110955243A (zh) * | 2019-11-28 | 2020-04-03 | 新石器慧通(北京)科技有限公司 | 行进控制方法、装置、设备、可读存储介质和移动装置 |
CN110955243B (zh) * | 2019-11-28 | 2023-10-20 | 新石器慧通(北京)科技有限公司 | 行进控制方法、装置、设备、可读存储介质和移动装置 |
CN111178308A (zh) * | 2019-12-31 | 2020-05-19 | 北京奇艺世纪科技有限公司 | 一种手势轨迹的识别方法和装置 |
CN111382723A (zh) * | 2020-03-30 | 2020-07-07 | 北京云住养科技有限公司 | 求救识别的方法、装置及系统 |
CN111860096A (zh) * | 2020-04-10 | 2020-10-30 | 天津大学 | 基于Openpose和Alexnet无人机姿势控制方法 |
CN113536857A (zh) * | 2020-04-20 | 2021-10-22 | 深圳绿米联创科技有限公司 | 目标动作识别方法、装置、服务器及存储介质 |
CN111652076A (zh) * | 2020-05-11 | 2020-09-11 | 重庆大学 | 一种面向ad量表理解能力测试的姿态自动识别系统 |
CN111652076B (zh) * | 2020-05-11 | 2024-05-31 | 重庆知熠行科技发展有限公司 | 一种面向ad量表理解能力测试的姿态自动识别系统 |
CN111601088A (zh) * | 2020-05-27 | 2020-08-28 | 大连成者科技有限公司 | 一种基于单目摄像头坐姿识别技术的坐姿监控系统 |
CN112732083A (zh) * | 2021-01-05 | 2021-04-30 | 西安交通大学 | 一种基于手势识别的无人机智能控制方法 |
CN113128339A (zh) * | 2021-03-15 | 2021-07-16 | 同济大学 | 一种基于行为识别的智能车辆运行控制系统和方法 |
CN113158833A (zh) * | 2021-03-31 | 2021-07-23 | 电子科技大学 | 一种基于人体姿态的无人车控制指挥方法 |
CN113221729A (zh) * | 2021-05-10 | 2021-08-06 | 北京航空航天大学 | 一种基于手势人机交互的无人机集群控制方法及系统 |
CN113283314A (zh) * | 2021-05-11 | 2021-08-20 | 桂林电子科技大学 | 一种基于YOLOv3和手势识别的无人机的夜间搜救方法 |
CN113657346A (zh) * | 2021-08-31 | 2021-11-16 | 深圳市比一比网络科技有限公司 | 一种基于目标检测和关键点检测结合的司机动作识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110471526A (zh) | 一种人体姿态估计与手势识别结合的无人机控制方法 | |
CN105739702B (zh) | 用于自然人机交互的多姿态指尖跟踪方法 | |
CN106055091B (zh) | 一种基于深度信息和校正方式的手部姿态估计方法 | |
CN110570455B (zh) | 一种面向房间vr的全身三维姿态跟踪方法 | |
US20180186452A1 (en) | Unmanned Aerial Vehicle Interactive Apparatus and Method Based on Deep Learning Posture Estimation | |
CN106598226B (zh) | 一种基于双目视觉和深度学习的无人机人机交互方法 | |
Suarez et al. | Hand gesture recognition with depth images: A review | |
CN105787471B (zh) | 一种应用于助老助残移动服务机器人控制的手势识别方法 | |
CN107545302B (zh) | 一种人眼左右眼图像联合的视线方向计算方法 | |
Kim et al. | Simultaneous gesture segmentation and recognition based on forward spotting accumulative HMMs | |
CN102567703B (zh) | 一种基于分类特征的手部动作识别信息处理方法 | |
CN103529944B (zh) | 一种基于Kinect的人体动作识别方法 | |
CN109359514B (zh) | 一种面向deskVR的手势跟踪识别联合策略方法 | |
Agrawal et al. | A survey on manual and non-manual sign language recognition for isolated and continuous sign | |
CN105159452B (zh) | 一种基于人脸姿态估计的控制方法与系统 | |
JP2012518856A (ja) | 内部距離形状関連法を用いた手姿勢の取り込み及び認識 | |
CN110135249A (zh) | 基于时间注意力机制和lstm的人体行为识别方法 | |
CN104821010A (zh) | 基于双目视觉的人手三维信息实时提取方法及系统 | |
CN108898063A (zh) | 一种基于全卷积神经网络的人体姿态识别装置及方法 | |
CN109800676A (zh) | 基于深度信息的手势识别方法及系统 | |
CN110555408A (zh) | 一种基于自适应映射关系的单摄像头实时三维人体姿态检测方法 | |
CN111444488A (zh) | 一种基于动态手势的身份认证方法 | |
CN109839827B (zh) | 一种基于全空间位置信息的手势识别智能家居控制系统 | |
CN110764620A (zh) | 一种增强半虚拟现实飞机座舱系统 | |
Xu et al. | Robust hand gesture recognition based on RGB-D Data for natural human–computer interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191119 |
|
RJ01 | Rejection of invention patent application after publication |