CN113158981A - 一种基于级联卷积神经网络的骑行姿态分析方法 - Google Patents
一种基于级联卷积神经网络的骑行姿态分析方法 Download PDFInfo
- Publication number
- CN113158981A CN113158981A CN202110535006.9A CN202110535006A CN113158981A CN 113158981 A CN113158981 A CN 113158981A CN 202110535006 A CN202110535006 A CN 202110535006A CN 113158981 A CN113158981 A CN 113158981A
- Authority
- CN
- China
- Prior art keywords
- key point
- human skeleton
- skeleton key
- human
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 17
- 238000004458 analytical method Methods 0.000 title claims abstract description 15
- 238000001914 filtration Methods 0.000 claims abstract description 14
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 7
- 210000000629 knee joint Anatomy 0.000 claims abstract description 7
- 210000000544 articulatio talocruralis Anatomy 0.000 claims abstract description 5
- 238000005452 bending Methods 0.000 claims abstract description 3
- 238000000034 method Methods 0.000 claims description 17
- 238000013527 convolutional neural network Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 11
- 238000009499 grossing Methods 0.000 claims description 9
- 230000002159 abnormal effect Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 description 19
- 230000036544 posture Effects 0.000 description 13
- 210000001624 hip Anatomy 0.000 description 11
- 210000002683 foot Anatomy 0.000 description 4
- 210000003141 lower extremity Anatomy 0.000 description 4
- 210000001364 upper extremity Anatomy 0.000 description 4
- 210000003423 ankle Anatomy 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于级联卷积神经网络的骑行姿态分析方法,包括:1建立级联卷积神经网络关键点定位模型,以提取人体骨骼关键点;2对人体骨骼关键点序列的离群点进行校正;3对校正过的人体骨骼关键点序列进行滤波处理;4根据滤波后的人体骨骼关键点序列,计算骑行时踝关节角度、膝关节弯曲角度所组成的骑行姿态。本发明能快速对人体骑行姿态进行检测分析,帮助使用者量化骑行数据,分析骑行质量,以调整最佳骑行姿态。
Description
技术领域
本发明涉及计算机视觉领域,更具体地涉及一种基于级联卷积神经网络的骑行姿态分析方法。
背景技术
传统的骑行姿态分析方法往往需要双目摄像头、结构光技术、ToF摄像头作为辅助设备,并需要借助人工标记来对目标关键点进行手动标注。这种方法不仅要求有专业图像设备,还要求操作人员能准确定位目标关键点,因此造成了设备成本高昂、人为主观误差和测试效率低下等问题。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出一种基于级联卷积神经网络的骑行姿态分析方法,以期能快速对人体骑行姿态进行无接触地检测分析,帮助使用者量化骑行数据,分析骑行质量,以调整最佳骑行姿态,从而在降低设备成本的同时提高分析效率和测试效果准确性。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于级联卷积神经网络的骑行姿态识别方法的特点在于,包括以下步骤:
步骤1,建立级联卷积神经网络关键点定位模型,并用于对目标骑行视频的每一帧进行人体骨骼关键点提取,从而得到人体骨骼关键点序列P={P0,P1,…,PN};PN表示第N个人体骨骼关键点;
步骤2,对所述人体骨骼关键点序列P的离群点进行校正,得到校正过的人体骨骼关键点序列P’={P0’,P1’,…,PN’},PN’表示校正过的第N个人体骨骼关键点;
步骤3,对校正过的人体骨骼关键点序列P’进行滤波处理,得到滤波后的人体骨骼关键点序列P”={P0”,P1”,…,PN”},PN”表示滤波后的第N个人体骨骼关键点;
步骤4,根据滤波后的人体骨骼关键点序列P”,计算骑行时踝关节角度、膝关节弯曲角度所组成的骑行姿态。
本发明所述的基于级联卷积神经网络的骑行姿态识别方法的特点也在于,步骤1包括:
步骤1.1,建立级联卷积神经网络模型并初始化模型参数,所述级联卷积神经网络模型包括主干网络以及K个级联分支网络,所述主干网络是由n个块依次连接而成,每个块是一个卷积层、一个激活层和一个池化层构成,且在第n+1个卷积层后连接有第一损失函数L1;每个级联分支网络是由m个卷积层和m个池化层交错连接而成,且在第m个池化层后连接有一个全连接层;在每个级联分支网络后连接有第二损失函数L2;
步骤1.2,获取已知的人体骨骼关键点数据集并分批次输入到初始化后的级联卷积神经网络模型中,并经过主干网络的第一次粗粒度定位,得到所有关键点粗定位结果(Xs1,Ys1);
步骤1.3、根据所述第一损失函数L1,使用sigmoid方法对分批次输入的人体骨骼关键点数据集与所有关键点粗定位结果(Xs1,Ys1)进行损失计算,直到所述第一损失函数L1收敛为止;
步骤1.4、对分批次输入的人体骨骼关键点数据集进行裁剪,得到裁剪后的人体骨骼关键点数据集,并作为所述级联分支网络的输入;
步骤1.5、所述裁剪后的人体骨骼关键点数据集分别经过K个级联分支网络的细粒度定位处理,得到K个关键点细粒度定位结果;
步骤1.6,K个级联分支网络分别根据自身的第二损失函数L2,使用sigmoid方法对裁剪后的人体骨骼关键点数据集与自身关键点粗定位结果进行损失计算,直到K个第二损失函数L2均收敛为止,从而得到级联卷积神经网络关键点定位模型。
步骤2包括:
步骤2.1,对所述人体骨骼关键点序列P进行基于Z分数的异常值检测:
计算所述所述人体骨骼关键点序列P中每个人体骨骼关键点的Z分数,当Z分数大于所设定的阈值,则表明相应关键点定位异常,并将相应关键点修正为[(Xi-1+Xi+1)/2,(Yi-1+Yi+1)/2];从而得到修正后的人体骨骼关键点序列;
步骤2.2、对修正后的人体骨骼关键点序列进行滤波平滑处理:
遍历修正后的人体骨骼关键点序列中每个人体骨骼关键点,对当前人体骨骼关键点所在的前后共F帧关键帧进行观测采样,并使用均值滤波算法对所采样的关键帧进行修正平滑处理,从而得到校正过的人体骨骼关键点。
与现有技术相比,本发明的有益效果在于:
1、本发明提出了一种骑行姿态分析方法,提升了检测效率,降低了设备成本,减少使用难度为骑行测试人员提供快速、精确、便捷的骑行姿态分析服务。
2、本发明提出了两阶段的级联神经网络骨骼关键点定位技术,主干网络对全部关键点进行定位识别,分支网络对不同部位关键点进行二次细粒度检测,检测速度更快,检测精度更高。
3、本发明提出的关键点平滑方法,对关键点序列中的异常值进行检测并对其进行平滑滤波操作,提高了数据的合理性和稳定性。
附图说明
图1为本发明实施例的骑行姿态分析方法流程图;
图2为本发明实施例的级联卷积神经网络关键点定位模型结构图。
具体实施方式
本实施例中,一种基于级联卷积神经网络的骑行姿态识别方法,分析流程如图1所示,用户提交骑行骑行视频作为本方法输入,依次通过关键点定位、异常值检测、关键点滤波平湖,骑行指标计算后返回给用户。该过程包括人体骨骼关键点定位模型的建立,该模型通过级联卷积神经网络对图像中人体骨骼关键点进行定位识别,输出人体骨骼关键点序列;还包括人体骨骼关键点的校正,该校正方法对得到的人体骨骼关键点序列进行校正平滑,将人体骨骼关键点序列中离群点和异常值进行重新识别和平滑;还包括骑行姿态的分析,该分析方法使用处理后的人体骨骼关键点序列,计算膝关节屈伸角度等27个骑行指标。具体的说是,包括以下步骤:
步骤1,建立级联卷积神经网络关键点定位模型,并用于对目标骑行视频的每一帧进行人体骨骼关键点提取,从而得到人体骨骼关键点序列P={P0,P1,…,PN};PN表示第N个人体骨骼关键点;
步骤1.1,建立级联卷积神经网络模型并初始化模型参数,基于级联卷积神经网络的人体骨骼关键点定位模型结构如图2所示。使用开源COCO数据集训练该级联卷积神经网络人体骨骼关键点定位模型。该模型结构分为两层结构,分别为人体骨骼关键点粗粒度定位层和关键点细粒度二次定位层。级联卷积神经网络模型包括主干网络以及K个级联分支网络,主干网络是由n个块依次连接而成,每个块是一个卷积层、一个激活层和一个池化层构成,且在第n+1个卷积层后连接有第一损失函数L1,具体包括5个卷积单元,每个卷积单元包括卷积层、激活层和池化层,负责对人体全部19个关键点坐标进行定位识别;每个级联分支网络是由m个卷积层和m个池化层交错连接而成,且在第m个池化层后连接有一个全连接层;在每个级联分支网络后连接有第二损失函数L2,具体包括5个级联分支网络,每个分支网络包括1个卷积层、1个激活层、1个池化层和2个全连接层。分别负责对头部、左上肢、右上肢、左下肢、右下肢5个部位进行细粒度定位识别。主干网络和分支网络分别使用6个欧几里得损失函数计算损失,当某一批次总损失收敛至预设阈值,说明人体骨骼关键点定位模型训练完成。得到级联卷积神经网络人体骨骼关键点定位模型。
步骤1.2,获取已知的人体骨骼关键点数据集并分批次输入到初始化后的级联卷积神经网络模型中,并经过主干网络的第一次粗粒度定位,得到所有关键点粗定位结果(Xs1,Ys1);使用COCO开源数据集训练级联卷积神经网络人体骨骼关键点定位模型。取64为一批次,将每批次图像归一至尺寸128的正方形三通道图像作为网络输入,同时输入关键点坐标信息归一至[0,1]区间。图像输入经过级联卷积神经网络粗粒度定位模块,输出19个关键点粗定位位置,与输入关键点坐标共同计算欧几里得损失函数,并根据计算结果对粗粒度定位模块参数进行反馈更新。
步骤1.3、根据第一损失函数L1,使用sigmoid方法对分批次输入的人体骨骼关键点数据集与所有关键点粗定位结果(Xs1,Ys1)进行损失计算,直到第一损失函数L1收敛为止;
步骤1.4、对分批次输入的人体骨骼关键点数据集进行裁剪,得到裁剪后的人体骨骼关键点数据集,并作为级联分支网络的输入;其中,剪裁是以子区域输出坐标中左上角关键点坐标和右下角关键点坐标为基准,向四周扩展margin个像素并进行裁剪;分为头部、左上肢、右上肢、左下肢、右下肢5个部分对原图像进行裁剪,裁剪尺寸为子区域内关键点坐标最小值-原图像宽度/50和最大值-原图像宽度/50的,如果裁剪尺寸超出原图像范围,则对空白区域进行补0操作。将子区域图像归一至尺寸32的三通道图像,并将原关键点坐标根据子区域图像归一至[0,1]区间。子区域图像经过关键点细粒度二次定位模块,分别输出19个关键点细粒度定位位置,与子区域关键点坐标共同计算欧几里得损失函数,并根据计算结果对细粒度定位模块参数进行反馈更新。
步骤1.5、裁剪后的人体骨骼关键点数据集分别经过K个级联分支网络的细粒度定位处理,得到K个关键点细粒度定位结果;
步骤1.6,K个级联分支网络分别根据自身的第二损失函数L2,使用sigmoid方法对裁剪后的人体骨骼关键点数据集与自身关键点粗定位结果进行损失计算,直到K个第二损失函数L2均收敛为止,从而得到级联卷积神经网络关键点定位模型。
当某一批次输入使损失函数收敛到预设阈值,说明关键点定位网络训练完成,将子区域关键点输出信息还原为关键点真实坐标,即可得到关键点定位模型。
步骤2,对人体骨骼关键点序列P的离群点进行校正,得到校正过的人体骨骼关键点序列P’={P0’,P1’,…,PN’},PN’表示校正过的第N个人体骨骼关键点;
步骤2.1,对人体骨骼关键点序列P进行基于Z分数的异常值检测:
计算人体骨骼关键点序列P中每个人体骨骼关键点的Z分数,Z=(x-μ)/σ,其中μ是该组数据的均值,σ是该组数据的标准差,Z是标准分数,若Z分数序列中Zi>所设定的阈值=2.2,则表明相应关键点定位异常,并将相应关键点修正为[(Xi-1+Xi+1)/2,(Yi-1+Yi+1)/2];从而得到修正后的人体骨骼关键点序列;
步骤2.2、对修正后的人体骨骼关键点序列进行滤波平滑处理,遍历修正后的人体骨骼关键点序列中每个人体骨骼关键点,从关键点序列第0帧开始,直至最后一帧,对当前人体骨骼关键点所在的目标帧的前后共F=5个观测帧进行观测采样,并使用均值滤波
步骤3,对校正过的人体骨骼关键点序列P’进行滤波处理,得到滤波后的人体骨骼关键点序列P”={P0”,P1”,…,PN”},PN”表示滤波后的第N个人体骨骼关键点;
步骤4,根据滤波后的人体骨骼关键点序列P”,对待测视频中的目标人体计算膝关节屈伸角度、踝关节角度、髋角度、肩屈角度等27个骑行指标,如表1所示:
表1示出本发明实施例的骑行指标计算方法。
骑行指标 | 计算方式 | 骑行指标 | 计算方式 |
膝关节屈伸角度 | 髋-膝-脚 角度 | 左-肩横向位移 | 左-肩 水平位移 |
踝关节角度 | 膝-脚-脚尖 角度 | 右-肩横向位移 | 右-肩 水平位移 |
髋角度 | 髋-水平 角度 | 左-踝旋转 | 左-踝-竖直 角度 |
肩屈角度 | 肘-肩-髋 角度 | 右-踝旋转 | 右-踝-竖直 角度 |
肘关节角度 | 肩-肘-手 角度 | 左-膝关节横向位移 | 左-膝 水平位移 |
躯干角度 | 躯干-水平 角度 | 右-膝关节横向位移 | 右-膝 水平位移 |
大转子垂直位移 | 髋 垂直位移 | 左-髋关节水平位移 | 左-髋 水平位移 |
大转子水平位移 | 髋 水平位移 | 右-髋关节水平位移 | 右-髋 水平位移 |
膝关节前伸度 | 膝 水平位移 | 左-膝脚水平间距 | 左-膝-脚 距离 |
髋肩肘角度 | 髋-肩-肘 角度 | 右-膝脚水平间距 | 右-膝-脚 距离 |
前臂角度 | 前臂-水平 角度 | 左-髋脚水平间距 | 左-髋-脚 距离 |
大腿水平角 | 大腿-水平 角度 | 右-髋脚水平间距 | 右-髋-脚 距离 |
足部水平夹角 | 足部-水平 角度 | 左-髋偏摆 | 左-髋 水平位移 |
右-髋偏摆 | 右-髋 水平位移 |
最后根据表1所示骑行指标计算方法计算不同位置骑行指标,返回给用户。
Claims (3)
1.一种基于级联卷积神经网络的骑行姿态识别方法,其特征在于,包括以下步骤:
步骤1,建立级联卷积神经网络关键点定位模型,并用于对目标骑行视频的每一帧进行人体骨骼关键点提取,从而得到人体骨骼关键点序列P={P0,P1,…,PN};PN表示第N个人体骨骼关键点;
步骤2,对所述人体骨骼关键点序列P的离群点进行校正,得到校正过的人体骨骼关键点序列P’={P0’,P1’,…,PN’},PN’表示校正过的第N个人体骨骼关键点;
步骤3,对校正过的人体骨骼关键点序列P’进行滤波处理,得到滤波后的人体骨骼关键点序列P”={P0”,P1”,…,PN”},PN”表示滤波后的第N个人体骨骼关键点;
步骤4,根据滤波后的人体骨骼关键点序列P”,计算骑行时踝关节角度、膝关节弯曲角度所组成的骑行姿态。
2.根据权利要求1所述的基于级联卷积神经网络的骑行姿态识别方法,其特征在于,步骤1包括:
步骤1.1,建立级联卷积神经网络模型并初始化模型参数,所述级联卷积神经网络模型包括主干网络以及K个级联分支网络,所述主干网络是由n个块依次连接而成,每个块是一个卷积层、一个激活层和一个池化层构成,且在第n+1个卷积层后连接有第一损失函数L1;每个级联分支网络是由m个卷积层和m个池化层交错连接而成,且在第m个池化层后连接有一个全连接层;在每个级联分支网络后连接有第二损失函数L2;
步骤1.2,获取已知的人体骨骼关键点数据集并分批次输入到初始化后的级联卷积神经网络模型中,并经过主干网络的第一次粗粒度定位,得到所有关键点粗定位结果(Xs1,Ys1);
步骤1.3、根据所述第一损失函数L1,使用sigmoid方法对分批次输入的人体骨骼关键点数据集与所有关键点粗定位结果(Xs1,Ys1)进行损失计算,直到所述第一损失函数L1收敛为止;
步骤1.4、对分批次输入的人体骨骼关键点数据集进行裁剪,得到裁剪后的人体骨骼关键点数据集,并作为所述级联分支网络的输入;
步骤1.5、所述裁剪后的人体骨骼关键点数据集分别经过K个级联分支网络的细粒度定位处理,得到K个关键点细粒度定位结果;
步骤1.6,K个级联分支网络分别根据自身的第二损失函数L2,使用sigmoid方法对裁剪后的人体骨骼关键点数据集与自身关键点粗定位结果进行损失计算,直到K个第二损失函数L2均收敛为止,从而得到级联卷积神经网络关键点定位模型。
3.根据权利要求1所述的基于级联卷积神经网络的骑行姿态分析方法,其特征在于,步骤2包括:
步骤2.1,对所述人体骨骼关键点序列P进行基于Z分数的异常值检测:
计算所述所述人体骨骼关键点序列P中每个人体骨骼关键点的Z分数,当Z分数大于所设定的阈值,则表明相应关键点定位异常,并将相应关键点修正为[(Xi-1+Xi+1)/2,(Yi-1+Yi+1)/2];从而得到修正后的人体骨骼关键点序列;
步骤2.2、对修正后的人体骨骼关键点序列进行滤波平滑处理:
遍历修正后的人体骨骼关键点序列中每个人体骨骼关键点,对当前人体骨骼关键点所在的前后共F帧关键帧进行观测采样,并使用均值滤波算法对所采样的关键帧进行修正平滑处理,从而得到校正过的人体骨骼关键点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110535006.9A CN113158981A (zh) | 2021-05-17 | 2021-05-17 | 一种基于级联卷积神经网络的骑行姿态分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110535006.9A CN113158981A (zh) | 2021-05-17 | 2021-05-17 | 一种基于级联卷积神经网络的骑行姿态分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113158981A true CN113158981A (zh) | 2021-07-23 |
Family
ID=76876161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110535006.9A Withdrawn CN113158981A (zh) | 2021-05-17 | 2021-05-17 | 一种基于级联卷积神经网络的骑行姿态分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113158981A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114764819A (zh) * | 2022-01-17 | 2022-07-19 | 北京甲板智慧科技有限公司 | 基于滤波算法的人体姿态估计方法及装置 |
CN114973403A (zh) * | 2022-05-06 | 2022-08-30 | 广州紫为云科技有限公司 | 一种基于时空双重维度特征深度网络的高效行为预测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105981041A (zh) * | 2014-05-29 | 2016-09-28 | 北京旷视科技有限公司 | 使用粗到细级联神经网络的面部关键点定位 |
CN109684920A (zh) * | 2018-11-19 | 2019-04-26 | 腾讯科技(深圳)有限公司 | 物体关键点的定位方法、图像处理方法、装置及存储介质 |
CN109977751A (zh) * | 2019-01-16 | 2019-07-05 | 上海理工大学 | 一种基于卷积神经网络的人脸关键点检测方法 |
CN110728220A (zh) * | 2019-09-30 | 2020-01-24 | 上海大学 | 基于人体动作骨骼信息的体操辅助训练方法 |
CN112069933A (zh) * | 2020-08-21 | 2020-12-11 | 董秀园 | 基于体态识别和人体生物力学的骨骼肌肉受力估计方法 |
CN112464847A (zh) * | 2020-12-07 | 2021-03-09 | 北京邮电大学 | 视频中人体动作切分方法及装置 |
-
2021
- 2021-05-17 CN CN202110535006.9A patent/CN113158981A/zh not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105981041A (zh) * | 2014-05-29 | 2016-09-28 | 北京旷视科技有限公司 | 使用粗到细级联神经网络的面部关键点定位 |
CN109684920A (zh) * | 2018-11-19 | 2019-04-26 | 腾讯科技(深圳)有限公司 | 物体关键点的定位方法、图像处理方法、装置及存储介质 |
CN109977751A (zh) * | 2019-01-16 | 2019-07-05 | 上海理工大学 | 一种基于卷积神经网络的人脸关键点检测方法 |
CN110728220A (zh) * | 2019-09-30 | 2020-01-24 | 上海大学 | 基于人体动作骨骼信息的体操辅助训练方法 |
CN112069933A (zh) * | 2020-08-21 | 2020-12-11 | 董秀园 | 基于体态识别和人体生物力学的骨骼肌肉受力估计方法 |
CN112464847A (zh) * | 2020-12-07 | 2021-03-09 | 北京邮电大学 | 视频中人体动作切分方法及装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114764819A (zh) * | 2022-01-17 | 2022-07-19 | 北京甲板智慧科技有限公司 | 基于滤波算法的人体姿态估计方法及装置 |
CN114973403A (zh) * | 2022-05-06 | 2022-08-30 | 广州紫为云科技有限公司 | 一种基于时空双重维度特征深度网络的高效行为预测方法 |
CN114973403B (zh) * | 2022-05-06 | 2023-11-03 | 广州紫为云科技有限公司 | 一种基于时空双重维度特征深度网络的行为预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108056786B (zh) | 一种基于深度学习的骨龄检测方法和装置 | |
WO2017128865A1 (zh) | 一种基于多镜头的智能机械手及定位装配方法 | |
CN104574421B (zh) | 一种大幅面小重合区域高精度多光谱图像配准方法及装置 | |
CN113158981A (zh) | 一种基于级联卷积神经网络的骑行姿态分析方法 | |
CN108537203B (zh) | 一种基于卷积神经网络的手掌关键点定位方法 | |
CN104167016B (zh) | 一种基于rgb彩色与深度图像的三维运动重建方法 | |
CN110956633B (zh) | 一种基于虚拟立体定位像的快速ct扫描方法及系统 | |
CN110728220A (zh) | 基于人体动作骨骼信息的体操辅助训练方法 | |
CN110705558A (zh) | 图像实例分割方法和装置 | |
CN102831614A (zh) | 基于交互式字典迁移的序列医学图像快速分割方法 | |
CN104574426A (zh) | 基于赤足或穿袜足迹图像的人身特征分析的方法及装置 | |
CN115797730B (zh) | 模型训练方法及装置、头影测量关键点定位方法及装置 | |
CN111126143A (zh) | 一种基于深度学习的运动评判指导方法及系统 | |
CN114119987A (zh) | 基于卷积神经网络的特征提取和描述子生成方法及系统 | |
CN111583342A (zh) | 一种基于双目视觉的目标快速定位方法及装置 | |
CN114187339A (zh) | 神经导航辅助方法、装置、电子设备及存储介质 | |
CN110378333B (zh) | 一种sd-oct图像黄斑中央凹中心定位方法 | |
CN110895818B (zh) | 一种基于深度学习的膝关节轮廓特征提取方法和装置 | |
CN115641646B (zh) | 一种cpr自动检测质控方法及系统 | |
CN116650316A (zh) | 基于先验信息与深度学习的背部穴位定位方法 | |
CN109242867A (zh) | 一种基于模板的手骨自动分割方法 | |
Shi et al. | ROI detection of hand bone based on YOLO V3 | |
US6721660B2 (en) | Road extraction from images using template matching | |
KR100951315B1 (ko) | Aam을 이용한 얼굴검출 방법 및 장치 | |
CN107451610A (zh) | 一种提高特征匹配精度的图像检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210723 |
|
WW01 | Invention patent application withdrawn after publication |