CN109086754A - 一种基于深度学习的人体姿态识别方法 - Google Patents
一种基于深度学习的人体姿态识别方法 Download PDFInfo
- Publication number
- CN109086754A CN109086754A CN201811177283.1A CN201811177283A CN109086754A CN 109086754 A CN109086754 A CN 109086754A CN 201811177283 A CN201811177283 A CN 201811177283A CN 109086754 A CN109086754 A CN 109086754A
- Authority
- CN
- China
- Prior art keywords
- posture
- skeleton
- deep learning
- cnn
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000013135 deep learning Methods 0.000 title claims abstract description 17
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 30
- 230000009471 action Effects 0.000 claims abstract description 22
- 238000012360 testing method Methods 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000001514 detection method Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 230000036544 posture Effects 0.000 claims 5
- 239000000284 extract Substances 0.000 claims 2
- 210000000988 bone and bone Anatomy 0.000 abstract description 13
- 238000012544 monitoring process Methods 0.000 abstract 1
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于深度学习的人体姿势识别方法,主要解决当前姿势识别技术计算量大,准确度不高的问题。该方法首先用Kinect V2.0深度传感器采集多个人体样本的动作姿态特征;保存其人体动作姿势的RGB数据和骨骼数据;把骨骼数据经过图像预处理后得到骨骼图像作为训练集与测试集;将训练集输入一种基于卷积神经网络(CNN)的专用于人体姿态识别领域的Posture‑CNN中,经过训练、测试调整网络结构和网络参数后得到分类结果;并将不同人体样本的动作姿态特征作为测试集输入分类网络,输出概率最大的动作即为识别结果。本发明使用卷积神经网络提高了识别准确率,降低了识别时间、运行成本低、方法简便可以应用在智能家居、安全监控、运动分析等场所。
Description
技术领域
本发明涉及深度学习与生物特征识别领域,具体是一种基于深度学习的人体动作姿势识别方法。
背景技术
随着社会的发展和科技水平的进步,近年来国家和社会给予了人工智能技术领域更多的关注与投入。计算机视觉作为人工智能领域的重要组成部分也同样吸引的广大人员的目光。人们希望计算机能够像人类那样有一双眼睛来实现对实际场景的理解,从而帮助人类完成一系列的工作,获得更好的人机交互实例。
计算机视觉领域当前最热门的方向为生物特征识别,通过视频或图像对人员身份进行识别,包括人脸识别、指纹识别、掌纹识别、静脉识别、动作姿态识别、手势识别等。其中动作姿态识别技术涉及计算机视觉、模式识别等。动作识别可应用在医疗、安防、学生教育、虚拟现实、增强现实等多方面。
人体动作识别的目的是及时准确的将采集到的人体动作特征与完备的人体动作姿态库中的动作进行识别分类,匹配出相似度最高的动作姿态并输出。在得知当前动作后,可以对该行为进行分析,达到人机交互的目的。
当前动作识别技术主要分为两种,一种基于RGB图像,另外一种基于深度图像。基于RGB图像的识别算法,利用人体躯干的外形特征,如人体躯干各部分的HOG特征的相对位置关系。基于深度图像的识别算法,利用图像的灰度值来表示目标的空间位置及人体轮廓,且不受光照、颜色、阴影和衣着的影响。现阶段使用最普遍的深度传感器之一是微软公司的Kinect深度传感器。基于Kinect的人体动作姿态识别研究,目前已有了一些成熟的算法,比如Shotton算法,其核心使用的是随机森林分类器。但两种方法均存在自己的不足之处,RGB图像内部包含的信息过多,不利于动作姿态特征的提取。而在深度图像中,很容易出现肢体相互遮挡的现象,影响识别准确度。
发明内容
本发明提出一种基于人体骨骼信息的动作姿态识别方法,利用深度学习技术,使识别准确度、识别速度达到最优值。
本发明可以通过以下技术步骤进行实现:
1)Kinect V2.0深度传感器作为图像采集装置,将其固定在距离水平地面有一定高度的水平位置上,确定Kinect V2.0可以拍摄到绝大部分人体躯干目标;
2)被试人员进入Kinect V2.0采集视野中(距离约为800mm-4000mm),对不同的人体动作姿态进行采集,被采集者做出行走、挥手、左臂上扬、右臂上扬、下蹲、侧踢腿,共6种动作。
3)使用计算机的SDK Browser v2.0(Kinect for Windows)将骨骼数据保存为骨骼图像。
4)被保存的骨骼图像经预处理之后调整为300*300大小的二值化图像,即人体骨骼动作图像。
5)将人体骨骼动作图像集按照动作姿态分类,每类动作姿态再随机分为训练集与测试集两部分。
6)分别把6个不同类别的人体骨骼动作图像训练集输入Posture-CNN姿态卷积神经网络。Posture-CNN是本发明为姿态识别独立组建的一种基于卷积神经网络(CNN)的特别的网络结构。用训练集对Posture-CNN进行分类训练,得到最佳网络分类器,并输入测试集数据进行准确度测试
本发明与现有技术相比具有以下优点:
一、使用Kinect V2.0深度传感器作为采集装置,对光线、颜色、阴影、周边环境的要求小,能够实时采集人体动作的RGB图像与骨骼数据;
二、动作自由度高,被采集者只被告知大概动作方式,对动作自行理解和展示,且位置角度自由,在一定空间范围内可自由发挥;
三、采用骨骼姿态相近比对,以躯干及四肢为主体,头部、脚部、手部等细微特征不作为主要特征来源,避免了被采集者距离Kinect V2.0深度传感器过近,无法采集手部、脚部特征而导致的数据无效的情况;
四、通过Posture-CNN来完成人体动作姿态的训练和分类识别,准确度高、运行成本低、方法简便,可以应用于中等和低处理性能的设备中。与传统的CNN相比,Posture-CNN舍弃了当前普遍使用的Dropout技术来扩大特征信息量;舍弃了LRN技术来降低网络复杂度。同时对网络结构进行了优化,仅保留了一个全连接层,减少了网络参数,使得训练和识别过程所需时间都大幅度缩短。
附图说明
为更好的解释说明本发明的技术流程,下面使用一些附图对技术进行简单的介绍。
图1为本发明中基于深度学习的人体动作姿势识别方法流程示意图;
图2为20个骨骼关节点的示意图;
图3a为Kinect深度传感器所采集的部分RGB图像;
图3b为Kinect深度传感器所采集的骨骼数据图像(与RGB图像相应);
图4为Posture-CNN网络模型图。
具体实施方式
下面结合附图对本发明描述。
流程图如图1所示的基于深度学习的人体动作姿势识别方法,主要包括以下步骤。
步骤1:在PC机上安装Kinect for Window SDK,将Kinect V2.0深度传感器固定在距离水平地面有一定高度的水平位置上,Kinect V2.0的采集有效区域为Kinect V2.0前方水平70°范围内,距离其0.5m-4.5m的梯形区域。在PC机的显示器上确定Kinect可以拍摄到绝大部分人体目标。
步骤2:被采集人员进入Kinect V2.0视野范围内,进行动作姿态展示。PC端对每人每动作采集8-12次。被采集对象要尽量包含多种体型,在本发明中,被采集对象共15人,身高范围为158cm~184cm,定义动作6类,包括行走、双臂挥手、左臂上扬、右臂上扬、下蹲、侧踢腿。另外,本发明使用范围不仅限于上述的6类动作,可根据实际需求增加动作,来扩大识别范围。
步骤3:将Kinect V2.0深度传感器所采集到的彩色图像数据和骨骼数据保存骨骼图像,并在计算机屏幕上进行显示。图2为Kinect V2.0可以采集到的20个骨骼关节点示意图。图3a为采集的彩色图像示意图,图3b为采集的骨骼图像数据图,两图均可明显的分辨出各个动作。
步骤4:将采集到的骨骼数据保存为JPG格式图片,使用数字图像处理技术去除图3b中的无效信息,其中包括:使用形态学运算去除图像中的噪点,使用圆形检测去除手部定位信息,按照下式:
Gray=(0.299*R+0.587*G+0.114*B)/255
对骨骼图像进行二值化处理。其中R为骨骼数据中各像素点红色通道值,G为骨骼数据中各像素点绿色通道值,B为骨骼数据中各像素点蓝色通道值,Gray为该像素点对应的灰度值。将处理后的图像保存为300*300大小的黑白二值图像。
步骤5:将处理后的图像数据,删除部分残次图像,统一各类数量,按动作分类放入不同文件夹中。随机取数据集中的70%作为训练集,剩余的30%作为测试集。将图片更名为含有标签值的文件名,生成lmdb格式文件。
步骤6:将lmdb文件输入Posture-CNN进行分批、乱序处理。Posture-CNN共有9层,这10层依次为卷积层conv1、池化层pooling1、卷积层conv2、池化层pooling2、卷积层conv3、conv4、池化层pooling3、卷积层conv5、全连接层fc1、softmax层。
Step1,在Posture-CNN的第一层卷积层中,使用11*11*48的滤波器对处理后的骨骼图像进行卷积操作,得到48张300*300像素的特征图。
Step2,在Posture-CNN的第二层池化层中,使用3*3的窗口对第一层卷积层得到的特征图进行下采样操作,得到48张150*150像素的特征图。
Step3,在Posture-CNN的第三层卷积层中,使用5*5*128的滤波器对第二层池化层得到的特征图进行卷积操作,得到128张150*150像素的特征图。
Step4,在Posture-CNN的第四层池化层中,使用3*3的窗口对第三层卷积层得到的特征图进行下采样操作,得到128张75*75像素的特征图。
Step5,在Posture-CNN的第五层池化层中,连续使用3*3*192和3*3*144两种滤波器对第四层得到的特征图进行卷积操作,得到144张75*75像素的特征图。
Step6,在Posture-CNN的第六层池化层中,使用3**3的窗口对第五层卷积层得到的特征图进行下采样操作,得到144张37*37像素的特征图。
Step7,在Posture-CNN的第七层卷积层中,使用3*3*128的滤波器对第六层池化层得到的特征图进行卷积操作,得到128张37*37像素的特征图。
Step8,在Posture-CNN的第八层全连接层中,使用3*3*128*2048的滤波器对第七层得到的特征图进行卷积操作得到2048个特征值。
Step9,Softmax分类器作为最后分类处理组件,本层节点为6个,对应本实例中6个不同的动作姿态分类结果。
该网络与AlexNet相比,舍弃了一个全连接层有效降低了整个网络的参数量,相较于AlexNet用于多图像分类,本方法中姿态特征分类无需大量细节特征,因此再去掉一个卷积层并修改卷积核大小。修改网络结构的同时,该网络舍弃了当前普遍使用的Dropout技术来扩大特征信息量;舍弃了LRN技术来降低网络复杂度。
Posture-CNN网络模型图如图4所示。
具体学习过程为:输入神经网络的图片被转换为矩阵形式,通过一层一层的卷积核与运算,卷积核逐渐对某类特征逐渐形成敏感性,即迭代更新卷积核矩阵参数,不同卷积核对不同图片信息特征敏感,即可分类图片。
在式中,层为特征图像(pooling层),l层为卷积层,卷积结果为f为非线性变换函数sigmoid函数,参数kij为两层之间的的卷积核,bj为卷积层每个结果特征对应的一个偏置项,Mj为选择pooling层特征输入的个数,即选择了多少个pooling层的图像特征作为输入,一般情况下pooling层的全部特征都作为下一层的输入。
损失函数定义为:
其中1层为输出层,tj为输出层第j个神经元的期望输出,对损失函数求一阶偏导,则网络权值更新公式为:
其中η为学习率。
步骤7:训练、测试,根据输出准确率和损失函数值来判断当前参数是否合适,网络是否对当前特征敏感,如准确率收敛水平达不到标准或收敛速度过慢,更改网络结构、网络参数。直至达到标准,保存网络参数。读取训练好的网络结构和参数,使用测试集中的图片,让网络对其进行分类测试。经实践证明该方法明显优于AlexNet网络、Le-Net5网络、VGG-16网络以及SVM分类效果。
本发明中采用的Kinect骨骼图像相比RGB图像与深度图像受到的周边环境因素影响更少,人体动作姿态捕捉更加准确。总而言之,本发明提出一种基于深度学习的人体动作姿势识别方法,主要解决了当前技术中计算量大,准确度不高,成本高的问题。同时可以根据实际需求增加识别动作具有简单,易操作的特点。
最后说明的是,以上步骤仅用以说明本发明的技术方案而非限制,但本领域技术人员应当理解,可以在形式上和细节上对其做出相应的改变,但进行的改变,并不应使相应技术方案的本质脱离本发明的技术方案的精神和范围。
Claims (7)
1.一种基于深度学习的人体动作姿态识别方法,包括:
步骤A1,人体躯干检测与人体躯干图像采集部分;
步骤A2,对采集到的人体躯干图像进行骨骼特征提取部分;
步骤A3,数据集的建立部分;
步骤A4,深度学习网络Posture-CNN搭建部分;
步骤A5,采用深度学习网络技术利用人体骨骼特征实现人体姿态识别部分。
2.如权利要求1所述的一种基于深度学习的人体动作姿态识别方法,其中所述人体躯干检测与人体躯干图像采集部分:利用Kinect图像采集设备中的彩色传感器和红外传感器检测并获取人体躯干图像。
3.如权利要求1所述一种基于深度学习的人体动作姿态识别方法,其中所述对采集到的人体躯干图像进行骨骼特征提取部分:利用Kinect作为采集设备,从人体躯干图像中对20个人体关键关节点进行定位,并得到人体骨骼图。
4.如权利要求3所述的方法,对人体骨骼图进行骨骼特征提取,仅保留人体骨骼信息,得到人体骨骼特征图。并对人体骨骼特征图进行去燥与归一化处理,并将其缩放至300*300像素的分辨率。
5.如权利要求1所述一种基于深度学习的人体动作姿态识别方法,其中所述的数据集的建立部分,定义6种不同的动作姿态,将人体骨骼特征图按照行走、双臂挥手、左臂上扬、右臂上扬、下蹲、侧踢腿6种动作姿态进行分类,将每类动作姿态的骨骼特征图随机分为训练集部分与测试集部分。
6.如权利要求1所述一种基于深度学习的人体动作姿态识别方法,其中所述的深度学习网络Posture-CNN搭建部分:Posture-CNN是在卷积神经网络的基础上,设计出来的一种专用于人体姿态识别的10层卷积神经网络,包括4个卷积层、3个池化层、1个全连接层、1个Softmax分类层。
7.如权利要求1所述一种基于深度学习的人体动作姿态识别方法,其中所述的采用深度学习网络技术利用人体骨骼特征实现人体姿态识别部分:将每类动作姿态的骨骼特征图像的训练集数据输入Posture-CNN网络,得到网络分类器,并输入每类动作姿态的骨骼特征图像的测试集数据输入进行准确度测试。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811177283.1A CN109086754A (zh) | 2018-10-11 | 2018-10-11 | 一种基于深度学习的人体姿态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811177283.1A CN109086754A (zh) | 2018-10-11 | 2018-10-11 | 一种基于深度学习的人体姿态识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109086754A true CN109086754A (zh) | 2018-12-25 |
Family
ID=64843323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811177283.1A Pending CN109086754A (zh) | 2018-10-11 | 2018-10-11 | 一种基于深度学习的人体姿态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109086754A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109890573A (zh) * | 2019-01-04 | 2019-06-14 | 珊口(上海)智能科技有限公司 | 移动机器人的控制方法、装置、移动机器人及存储介质 |
CN109886329A (zh) * | 2019-02-18 | 2019-06-14 | 中国铁建重工集团有限公司 | 围岩破碎等级检测方法、检测系统和掘进设备 |
CN110059620A (zh) * | 2019-04-17 | 2019-07-26 | 安徽艾睿思智能科技有限公司 | 基于时空注意力的骨骼行为识别方法 |
CN110110646A (zh) * | 2019-04-30 | 2019-08-09 | 浙江理工大学 | 一种基于深度学习的手势图像关键帧提取方法 |
CN110197123A (zh) * | 2019-04-26 | 2019-09-03 | 昆明理工大学 | 一种基于Mask R-CNN的人体姿态识别方法 |
CN110363140A (zh) * | 2019-07-15 | 2019-10-22 | 成都理工大学 | 一种基于红外图像的人体动作实时识别方法 |
CN110580446A (zh) * | 2019-07-16 | 2019-12-17 | 上海交通大学 | 行为语义细分化理解方法、系统、计算机装置以及介质 |
CN110991292A (zh) * | 2019-11-26 | 2020-04-10 | 爱菲力斯(深圳)科技有限公司 | 动作识别比对方法、系统、计算机存储介质和电子装置 |
CN111079616A (zh) * | 2019-12-10 | 2020-04-28 | 西安电子科技大学 | 基于神经网络的单人运动姿态矫正方法 |
CN112100075A (zh) * | 2020-09-24 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 一种用户界面回放方法、装置、设备及存储介质 |
CN112270254A (zh) * | 2020-10-27 | 2021-01-26 | 上海幻维数码创意科技有限公司 | 一种基于摄像头视觉的元素匹配信息处理方法及装置 |
CN112307831A (zh) * | 2019-07-31 | 2021-02-02 | 广州弘度信息科技有限公司 | 一种基于人体关键点检测与跟踪的剧烈运动检测方法 |
CN113808256A (zh) * | 2021-09-15 | 2021-12-17 | 天津大学 | 一种结合身份识别的高精度全息人体重建方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104866860A (zh) * | 2015-03-20 | 2015-08-26 | 武汉工程大学 | 一种室内人体行为识别方法 |
CN106897670A (zh) * | 2017-01-19 | 2017-06-27 | 南京邮电大学 | 一种基于计算机视觉的快递暴力分拣识别方法 |
CN107909005A (zh) * | 2017-10-26 | 2018-04-13 | 西安电子科技大学 | 基于深度学习的监控场景下人物姿态识别方法 |
CN108304795A (zh) * | 2018-01-29 | 2018-07-20 | 清华大学 | 基于深度强化学习的人体骨架行为识别方法及装置 |
-
2018
- 2018-10-11 CN CN201811177283.1A patent/CN109086754A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104866860A (zh) * | 2015-03-20 | 2015-08-26 | 武汉工程大学 | 一种室内人体行为识别方法 |
CN106897670A (zh) * | 2017-01-19 | 2017-06-27 | 南京邮电大学 | 一种基于计算机视觉的快递暴力分拣识别方法 |
CN107909005A (zh) * | 2017-10-26 | 2018-04-13 | 西安电子科技大学 | 基于深度学习的监控场景下人物姿态识别方法 |
CN108304795A (zh) * | 2018-01-29 | 2018-07-20 | 清华大学 | 基于深度强化学习的人体骨架行为识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
彭玲: "《基于3D骨架的室内人体行为识别研究》", 《中国优秀博士学位论文全文数据库信息科技辑》, pages 12 - 60 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109890573B (zh) * | 2019-01-04 | 2022-05-03 | 上海阿科伯特机器人有限公司 | 移动机器人的控制方法、装置、移动机器人及存储介质 |
CN109890573A (zh) * | 2019-01-04 | 2019-06-14 | 珊口(上海)智能科技有限公司 | 移动机器人的控制方法、装置、移动机器人及存储介质 |
CN109886329A (zh) * | 2019-02-18 | 2019-06-14 | 中国铁建重工集团有限公司 | 围岩破碎等级检测方法、检测系统和掘进设备 |
CN110059620A (zh) * | 2019-04-17 | 2019-07-26 | 安徽艾睿思智能科技有限公司 | 基于时空注意力的骨骼行为识别方法 |
CN110197123A (zh) * | 2019-04-26 | 2019-09-03 | 昆明理工大学 | 一种基于Mask R-CNN的人体姿态识别方法 |
CN110110646A (zh) * | 2019-04-30 | 2019-08-09 | 浙江理工大学 | 一种基于深度学习的手势图像关键帧提取方法 |
CN110363140A (zh) * | 2019-07-15 | 2019-10-22 | 成都理工大学 | 一种基于红外图像的人体动作实时识别方法 |
CN110363140B (zh) * | 2019-07-15 | 2022-11-11 | 成都理工大学 | 一种基于红外图像的人体动作实时识别方法 |
CN110580446A (zh) * | 2019-07-16 | 2019-12-17 | 上海交通大学 | 行为语义细分化理解方法、系统、计算机装置以及介质 |
CN112307831B (zh) * | 2019-07-31 | 2023-04-14 | 广州弘度信息科技有限公司 | 一种基于人体关键点检测与跟踪的剧烈运动检测方法 |
CN112307831A (zh) * | 2019-07-31 | 2021-02-02 | 广州弘度信息科技有限公司 | 一种基于人体关键点检测与跟踪的剧烈运动检测方法 |
CN110991292A (zh) * | 2019-11-26 | 2020-04-10 | 爱菲力斯(深圳)科技有限公司 | 动作识别比对方法、系统、计算机存储介质和电子装置 |
CN111079616A (zh) * | 2019-12-10 | 2020-04-28 | 西安电子科技大学 | 基于神经网络的单人运动姿态矫正方法 |
CN111079616B (zh) * | 2019-12-10 | 2022-03-04 | 西安电子科技大学 | 基于神经网络的单人运动姿态矫正方法 |
CN112100075A (zh) * | 2020-09-24 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 一种用户界面回放方法、装置、设备及存储介质 |
CN112100075B (zh) * | 2020-09-24 | 2024-03-15 | 腾讯科技(深圳)有限公司 | 一种用户界面回放方法、装置、设备及存储介质 |
CN112270254A (zh) * | 2020-10-27 | 2021-01-26 | 上海幻维数码创意科技有限公司 | 一种基于摄像头视觉的元素匹配信息处理方法及装置 |
CN113808256A (zh) * | 2021-09-15 | 2021-12-17 | 天津大学 | 一种结合身份识别的高精度全息人体重建方法 |
CN113808256B (zh) * | 2021-09-15 | 2023-06-09 | 天津大学 | 一种结合身份识别的高精度全息人体重建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109086754A (zh) | 一种基于深度学习的人体姿态识别方法 | |
Elforaici et al. | Posture recognition using an RGB-D camera: exploring 3D body modeling and deep learning approaches | |
CN110288018A (zh) | 一种融合深度学习模型的WiFi身份识别方法 | |
CN108596102B (zh) | 基于rgb-d的室内场景物体分割分类器构造方法 | |
Barros et al. | Real-time gesture recognition using a humanoid robot with a deep neural architecture | |
CN107346434A (zh) | 一种基于多特征及支持向量机的植物病虫害检测方法 | |
CN109886153B (zh) | 一种基于深度卷积神经网络的实时人脸检测方法 | |
CN111274916A (zh) | 人脸识别方法和人脸识别装置 | |
CN104851099A (zh) | 一种基于表示学习的图像融合方法 | |
CN104794449B (zh) | 基于人体hog特征的步态能量图获取及身份识别方法 | |
CN108596256B (zh) | 一种基于rgb-d物体识别分类器构造方法 | |
CN104834905A (zh) | 一种人脸图像识别仿真系统及方法 | |
CN109325408A (zh) | 一种手势判断方法及存储介质 | |
CN111914643A (zh) | 一种基于骨骼关键点检测的人体动作识别方法 | |
CN107463954A (zh) | 一种模糊异谱图像的模板匹配识别方法 | |
CN109902662A (zh) | 一种行人重识别方法、系统、装置和存储介质 | |
CN111353447A (zh) | 一种基于图卷积网络的人体骨架行为识别方法 | |
CN105930793B (zh) | 一种基于sae特征可视化学习的人体检测方法 | |
CN107766810B (zh) | 一种云、影检测方法 | |
Niu et al. | Automatic localization of optic disc based on deep learning in fundus images | |
Salunke et al. | Power point control using hand gesture recognition based on hog feature extraction and K-NN classification | |
CN115222896A (zh) | 三维重建方法、装置、电子设备及计算机可读存储介质 | |
Pang et al. | Dance video motion recognition based on computer vision and image processing | |
Ye | Intelligent Image Processing Technology for Badminton Robot under Machine Vision of Internet of Things | |
CN111709323B (zh) | 一种基于李群和长短时记忆网络的手势识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20181225 |