CN113158981A - 一种基于级联卷积神经网络的骑行姿态分析方法 - Google Patents

一种基于级联卷积神经网络的骑行姿态分析方法 Download PDF

Info

Publication number
CN113158981A
CN113158981A CN202110535006.9A CN202110535006A CN113158981A CN 113158981 A CN113158981 A CN 113158981A CN 202110535006 A CN202110535006 A CN 202110535006A CN 113158981 A CN113158981 A CN 113158981A
Authority
CN
China
Prior art keywords
key point
human skeleton
skeleton key
human
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110535006.9A
Other languages
English (en)
Inventor
孙嘉堃
邓博存
李嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Zhongka Cloud Computing Co ltd
Original Assignee
Guangdong Zhongka Cloud Computing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Zhongka Cloud Computing Co ltd filed Critical Guangdong Zhongka Cloud Computing Co ltd
Priority to CN202110535006.9A priority Critical patent/CN113158981A/zh
Publication of CN113158981A publication Critical patent/CN113158981A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于级联卷积神经网络的骑行姿态分析方法,包括:1建立级联卷积神经网络关键点定位模型,以提取人体骨骼关键点;2对人体骨骼关键点序列的离群点进行校正;3对校正过的人体骨骼关键点序列进行滤波处理;4根据滤波后的人体骨骼关键点序列,计算骑行时踝关节角度、膝关节弯曲角度所组成的骑行姿态。本发明能快速对人体骑行姿态进行检测分析,帮助使用者量化骑行数据,分析骑行质量,以调整最佳骑行姿态。

Description

一种基于级联卷积神经网络的骑行姿态分析方法
技术领域
本发明涉及计算机视觉领域,更具体地涉及一种基于级联卷积神经网络的骑行姿态分析方法。
背景技术
传统的骑行姿态分析方法往往需要双目摄像头、结构光技术、ToF摄像头作为辅助设备,并需要借助人工标记来对目标关键点进行手动标注。这种方法不仅要求有专业图像设备,还要求操作人员能准确定位目标关键点,因此造成了设备成本高昂、人为主观误差和测试效率低下等问题。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出一种基于级联卷积神经网络的骑行姿态分析方法,以期能快速对人体骑行姿态进行无接触地检测分析,帮助使用者量化骑行数据,分析骑行质量,以调整最佳骑行姿态,从而在降低设备成本的同时提高分析效率和测试效果准确性。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于级联卷积神经网络的骑行姿态识别方法的特点在于,包括以下步骤:
步骤1,建立级联卷积神经网络关键点定位模型,并用于对目标骑行视频的每一帧进行人体骨骼关键点提取,从而得到人体骨骼关键点序列P={P0,P1,…,PN};PN表示第N个人体骨骼关键点;
步骤2,对所述人体骨骼关键点序列P的离群点进行校正,得到校正过的人体骨骼关键点序列P’={P0’,P1’,…,PN’},PN’表示校正过的第N个人体骨骼关键点;
步骤3,对校正过的人体骨骼关键点序列P’进行滤波处理,得到滤波后的人体骨骼关键点序列P”={P0”,P1”,…,PN”},PN”表示滤波后的第N个人体骨骼关键点;
步骤4,根据滤波后的人体骨骼关键点序列P”,计算骑行时踝关节角度、膝关节弯曲角度所组成的骑行姿态。
本发明所述的基于级联卷积神经网络的骑行姿态识别方法的特点也在于,步骤1包括:
步骤1.1,建立级联卷积神经网络模型并初始化模型参数,所述级联卷积神经网络模型包括主干网络以及K个级联分支网络,所述主干网络是由n个块依次连接而成,每个块是一个卷积层、一个激活层和一个池化层构成,且在第n+1个卷积层后连接有第一损失函数L1;每个级联分支网络是由m个卷积层和m个池化层交错连接而成,且在第m个池化层后连接有一个全连接层;在每个级联分支网络后连接有第二损失函数L2;
步骤1.2,获取已知的人体骨骼关键点数据集并分批次输入到初始化后的级联卷积神经网络模型中,并经过主干网络的第一次粗粒度定位,得到所有关键点粗定位结果(Xs1,Ys1);
步骤1.3、根据所述第一损失函数L1,使用sigmoid方法对分批次输入的人体骨骼关键点数据集与所有关键点粗定位结果(Xs1,Ys1)进行损失计算,直到所述第一损失函数L1收敛为止;
步骤1.4、对分批次输入的人体骨骼关键点数据集进行裁剪,得到裁剪后的人体骨骼关键点数据集,并作为所述级联分支网络的输入;
步骤1.5、所述裁剪后的人体骨骼关键点数据集分别经过K个级联分支网络的细粒度定位处理,得到K个关键点细粒度定位结果;
步骤1.6,K个级联分支网络分别根据自身的第二损失函数L2,使用sigmoid方法对裁剪后的人体骨骼关键点数据集与自身关键点粗定位结果进行损失计算,直到K个第二损失函数L2均收敛为止,从而得到级联卷积神经网络关键点定位模型。
步骤2包括:
步骤2.1,对所述人体骨骼关键点序列P进行基于Z分数的异常值检测:
计算所述所述人体骨骼关键点序列P中每个人体骨骼关键点的Z分数,当Z分数大于所设定的阈值,则表明相应关键点定位异常,并将相应关键点修正为[(Xi-1+Xi+1)/2,(Yi-1+Yi+1)/2];从而得到修正后的人体骨骼关键点序列;
步骤2.2、对修正后的人体骨骼关键点序列进行滤波平滑处理:
遍历修正后的人体骨骼关键点序列中每个人体骨骼关键点,对当前人体骨骼关键点所在的前后共F帧关键帧进行观测采样,并使用均值滤波算法对所采样的关键帧进行修正平滑处理,从而得到校正过的人体骨骼关键点。
与现有技术相比,本发明的有益效果在于:
1、本发明提出了一种骑行姿态分析方法,提升了检测效率,降低了设备成本,减少使用难度为骑行测试人员提供快速、精确、便捷的骑行姿态分析服务。
2、本发明提出了两阶段的级联神经网络骨骼关键点定位技术,主干网络对全部关键点进行定位识别,分支网络对不同部位关键点进行二次细粒度检测,检测速度更快,检测精度更高。
3、本发明提出的关键点平滑方法,对关键点序列中的异常值进行检测并对其进行平滑滤波操作,提高了数据的合理性和稳定性。
附图说明
图1为本发明实施例的骑行姿态分析方法流程图;
图2为本发明实施例的级联卷积神经网络关键点定位模型结构图。
具体实施方式
本实施例中,一种基于级联卷积神经网络的骑行姿态识别方法,分析流程如图1所示,用户提交骑行骑行视频作为本方法输入,依次通过关键点定位、异常值检测、关键点滤波平湖,骑行指标计算后返回给用户。该过程包括人体骨骼关键点定位模型的建立,该模型通过级联卷积神经网络对图像中人体骨骼关键点进行定位识别,输出人体骨骼关键点序列;还包括人体骨骼关键点的校正,该校正方法对得到的人体骨骼关键点序列进行校正平滑,将人体骨骼关键点序列中离群点和异常值进行重新识别和平滑;还包括骑行姿态的分析,该分析方法使用处理后的人体骨骼关键点序列,计算膝关节屈伸角度等27个骑行指标。具体的说是,包括以下步骤:
步骤1,建立级联卷积神经网络关键点定位模型,并用于对目标骑行视频的每一帧进行人体骨骼关键点提取,从而得到人体骨骼关键点序列P={P0,P1,…,PN};PN表示第N个人体骨骼关键点;
步骤1.1,建立级联卷积神经网络模型并初始化模型参数,基于级联卷积神经网络的人体骨骼关键点定位模型结构如图2所示。使用开源COCO数据集训练该级联卷积神经网络人体骨骼关键点定位模型。该模型结构分为两层结构,分别为人体骨骼关键点粗粒度定位层和关键点细粒度二次定位层。级联卷积神经网络模型包括主干网络以及K个级联分支网络,主干网络是由n个块依次连接而成,每个块是一个卷积层、一个激活层和一个池化层构成,且在第n+1个卷积层后连接有第一损失函数L1,具体包括5个卷积单元,每个卷积单元包括卷积层、激活层和池化层,负责对人体全部19个关键点坐标进行定位识别;每个级联分支网络是由m个卷积层和m个池化层交错连接而成,且在第m个池化层后连接有一个全连接层;在每个级联分支网络后连接有第二损失函数L2,具体包括5个级联分支网络,每个分支网络包括1个卷积层、1个激活层、1个池化层和2个全连接层。分别负责对头部、左上肢、右上肢、左下肢、右下肢5个部位进行细粒度定位识别。主干网络和分支网络分别使用6个欧几里得损失函数计算损失,当某一批次总损失收敛至预设阈值,说明人体骨骼关键点定位模型训练完成。得到级联卷积神经网络人体骨骼关键点定位模型。
步骤1.2,获取已知的人体骨骼关键点数据集并分批次输入到初始化后的级联卷积神经网络模型中,并经过主干网络的第一次粗粒度定位,得到所有关键点粗定位结果(Xs1,Ys1);使用COCO开源数据集训练级联卷积神经网络人体骨骼关键点定位模型。取64为一批次,将每批次图像归一至尺寸128的正方形三通道图像作为网络输入,同时输入关键点坐标信息归一至[0,1]区间。图像输入经过级联卷积神经网络粗粒度定位模块,输出19个关键点粗定位位置,与输入关键点坐标共同计算欧几里得损失函数,并根据计算结果对粗粒度定位模块参数进行反馈更新。
步骤1.3、根据第一损失函数L1,使用sigmoid方法对分批次输入的人体骨骼关键点数据集与所有关键点粗定位结果(Xs1,Ys1)进行损失计算,直到第一损失函数L1收敛为止;
步骤1.4、对分批次输入的人体骨骼关键点数据集进行裁剪,得到裁剪后的人体骨骼关键点数据集,并作为级联分支网络的输入;其中,剪裁是以子区域输出坐标中左上角关键点坐标和右下角关键点坐标为基准,向四周扩展margin个像素并进行裁剪;分为头部、左上肢、右上肢、左下肢、右下肢5个部分对原图像进行裁剪,裁剪尺寸为子区域内关键点坐标最小值-原图像宽度/50和最大值-原图像宽度/50的,如果裁剪尺寸超出原图像范围,则对空白区域进行补0操作。将子区域图像归一至尺寸32的三通道图像,并将原关键点坐标根据子区域图像归一至[0,1]区间。子区域图像经过关键点细粒度二次定位模块,分别输出19个关键点细粒度定位位置,与子区域关键点坐标共同计算欧几里得损失函数,并根据计算结果对细粒度定位模块参数进行反馈更新。
步骤1.5、裁剪后的人体骨骼关键点数据集分别经过K个级联分支网络的细粒度定位处理,得到K个关键点细粒度定位结果;
步骤1.6,K个级联分支网络分别根据自身的第二损失函数L2,使用sigmoid方法对裁剪后的人体骨骼关键点数据集与自身关键点粗定位结果进行损失计算,直到K个第二损失函数L2均收敛为止,从而得到级联卷积神经网络关键点定位模型。
当某一批次输入使损失函数收敛到预设阈值,说明关键点定位网络训练完成,将子区域关键点输出信息还原为关键点真实坐标,即可得到关键点定位模型。
步骤2,对人体骨骼关键点序列P的离群点进行校正,得到校正过的人体骨骼关键点序列P’={P0’,P1’,…,PN’},PN’表示校正过的第N个人体骨骼关键点;
步骤2.1,对人体骨骼关键点序列P进行基于Z分数的异常值检测:
计算人体骨骼关键点序列P中每个人体骨骼关键点的Z分数,Z=(x-μ)/σ,其中μ是该组数据的均值,σ是该组数据的标准差,Z是标准分数,若Z分数序列中Zi>所设定的阈值=2.2,则表明相应关键点定位异常,并将相应关键点修正为[(Xi-1+Xi+1)/2,(Yi-1+Yi+1)/2];从而得到修正后的人体骨骼关键点序列;
步骤2.2、对修正后的人体骨骼关键点序列进行滤波平滑处理,遍历修正后的人体骨骼关键点序列中每个人体骨骼关键点,从关键点序列第0帧开始,直至最后一帧,对当前人体骨骼关键点所在的目标帧的前后共F=5个观测帧进行观测采样,并使用均值滤波
Figure BDA0003069477500000051
得到新的关键点序列,从而得到校正过的人体骨骼关键点;其中,yi为新的关键点坐标,xi为观测帧的关键点坐标;
步骤3,对校正过的人体骨骼关键点序列P’进行滤波处理,得到滤波后的人体骨骼关键点序列P”={P0”,P1”,…,PN”},PN”表示滤波后的第N个人体骨骼关键点;
步骤4,根据滤波后的人体骨骼关键点序列P”,对待测视频中的目标人体计算膝关节屈伸角度、踝关节角度、髋角度、肩屈角度等27个骑行指标,如表1所示:
表1示出本发明实施例的骑行指标计算方法。
骑行指标 计算方式 骑行指标 计算方式
膝关节屈伸角度 髋-膝-脚 角度 左-肩横向位移 左-肩 水平位移
踝关节角度 膝-脚-脚尖 角度 右-肩横向位移 右-肩 水平位移
髋角度 髋-水平 角度 左-踝旋转 左-踝-竖直 角度
肩屈角度 肘-肩-髋 角度 右-踝旋转 右-踝-竖直 角度
肘关节角度 肩-肘-手 角度 左-膝关节横向位移 左-膝 水平位移
躯干角度 躯干-水平 角度 右-膝关节横向位移 右-膝 水平位移
大转子垂直位移 髋 垂直位移 左-髋关节水平位移 左-髋 水平位移
大转子水平位移 髋 水平位移 右-髋关节水平位移 右-髋 水平位移
膝关节前伸度 膝 水平位移 左-膝脚水平间距 左-膝-脚 距离
髋肩肘角度 髋-肩-肘 角度 右-膝脚水平间距 右-膝-脚 距离
前臂角度 前臂-水平 角度 左-髋脚水平间距 左-髋-脚 距离
大腿水平角 大腿-水平 角度 右-髋脚水平间距 右-髋-脚 距离
足部水平夹角 足部-水平 角度 左-髋偏摆 左-髋 水平位移
右-髋偏摆 右-髋 水平位移
最后根据表1所示骑行指标计算方法计算不同位置骑行指标,返回给用户。

Claims (3)

1.一种基于级联卷积神经网络的骑行姿态识别方法,其特征在于,包括以下步骤:
步骤1,建立级联卷积神经网络关键点定位模型,并用于对目标骑行视频的每一帧进行人体骨骼关键点提取,从而得到人体骨骼关键点序列P={P0,P1,…,PN};PN表示第N个人体骨骼关键点;
步骤2,对所述人体骨骼关键点序列P的离群点进行校正,得到校正过的人体骨骼关键点序列P’={P0’,P1’,…,PN’},PN’表示校正过的第N个人体骨骼关键点;
步骤3,对校正过的人体骨骼关键点序列P’进行滤波处理,得到滤波后的人体骨骼关键点序列P”={P0”,P1”,…,PN”},PN”表示滤波后的第N个人体骨骼关键点;
步骤4,根据滤波后的人体骨骼关键点序列P”,计算骑行时踝关节角度、膝关节弯曲角度所组成的骑行姿态。
2.根据权利要求1所述的基于级联卷积神经网络的骑行姿态识别方法,其特征在于,步骤1包括:
步骤1.1,建立级联卷积神经网络模型并初始化模型参数,所述级联卷积神经网络模型包括主干网络以及K个级联分支网络,所述主干网络是由n个块依次连接而成,每个块是一个卷积层、一个激活层和一个池化层构成,且在第n+1个卷积层后连接有第一损失函数L1;每个级联分支网络是由m个卷积层和m个池化层交错连接而成,且在第m个池化层后连接有一个全连接层;在每个级联分支网络后连接有第二损失函数L2;
步骤1.2,获取已知的人体骨骼关键点数据集并分批次输入到初始化后的级联卷积神经网络模型中,并经过主干网络的第一次粗粒度定位,得到所有关键点粗定位结果(Xs1,Ys1);
步骤1.3、根据所述第一损失函数L1,使用sigmoid方法对分批次输入的人体骨骼关键点数据集与所有关键点粗定位结果(Xs1,Ys1)进行损失计算,直到所述第一损失函数L1收敛为止;
步骤1.4、对分批次输入的人体骨骼关键点数据集进行裁剪,得到裁剪后的人体骨骼关键点数据集,并作为所述级联分支网络的输入;
步骤1.5、所述裁剪后的人体骨骼关键点数据集分别经过K个级联分支网络的细粒度定位处理,得到K个关键点细粒度定位结果;
步骤1.6,K个级联分支网络分别根据自身的第二损失函数L2,使用sigmoid方法对裁剪后的人体骨骼关键点数据集与自身关键点粗定位结果进行损失计算,直到K个第二损失函数L2均收敛为止,从而得到级联卷积神经网络关键点定位模型。
3.根据权利要求1所述的基于级联卷积神经网络的骑行姿态分析方法,其特征在于,步骤2包括:
步骤2.1,对所述人体骨骼关键点序列P进行基于Z分数的异常值检测:
计算所述所述人体骨骼关键点序列P中每个人体骨骼关键点的Z分数,当Z分数大于所设定的阈值,则表明相应关键点定位异常,并将相应关键点修正为[(Xi-1+Xi+1)/2,(Yi-1+Yi+1)/2];从而得到修正后的人体骨骼关键点序列;
步骤2.2、对修正后的人体骨骼关键点序列进行滤波平滑处理:
遍历修正后的人体骨骼关键点序列中每个人体骨骼关键点,对当前人体骨骼关键点所在的前后共F帧关键帧进行观测采样,并使用均值滤波算法对所采样的关键帧进行修正平滑处理,从而得到校正过的人体骨骼关键点。
CN202110535006.9A 2021-05-17 2021-05-17 一种基于级联卷积神经网络的骑行姿态分析方法 Withdrawn CN113158981A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110535006.9A CN113158981A (zh) 2021-05-17 2021-05-17 一种基于级联卷积神经网络的骑行姿态分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110535006.9A CN113158981A (zh) 2021-05-17 2021-05-17 一种基于级联卷积神经网络的骑行姿态分析方法

Publications (1)

Publication Number Publication Date
CN113158981A true CN113158981A (zh) 2021-07-23

Family

ID=76876161

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110535006.9A Withdrawn CN113158981A (zh) 2021-05-17 2021-05-17 一种基于级联卷积神经网络的骑行姿态分析方法

Country Status (1)

Country Link
CN (1) CN113158981A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114764819A (zh) * 2022-01-17 2022-07-19 北京甲板智慧科技有限公司 基于滤波算法的人体姿态估计方法及装置
CN114973403A (zh) * 2022-05-06 2022-08-30 广州紫为云科技有限公司 一种基于时空双重维度特征深度网络的高效行为预测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105981041A (zh) * 2014-05-29 2016-09-28 北京旷视科技有限公司 使用粗到细级联神经网络的面部关键点定位
CN109684920A (zh) * 2018-11-19 2019-04-26 腾讯科技(深圳)有限公司 物体关键点的定位方法、图像处理方法、装置及存储介质
CN109977751A (zh) * 2019-01-16 2019-07-05 上海理工大学 一种基于卷积神经网络的人脸关键点检测方法
CN110728220A (zh) * 2019-09-30 2020-01-24 上海大学 基于人体动作骨骼信息的体操辅助训练方法
CN112069933A (zh) * 2020-08-21 2020-12-11 董秀园 基于体态识别和人体生物力学的骨骼肌肉受力估计方法
CN112464847A (zh) * 2020-12-07 2021-03-09 北京邮电大学 视频中人体动作切分方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105981041A (zh) * 2014-05-29 2016-09-28 北京旷视科技有限公司 使用粗到细级联神经网络的面部关键点定位
CN109684920A (zh) * 2018-11-19 2019-04-26 腾讯科技(深圳)有限公司 物体关键点的定位方法、图像处理方法、装置及存储介质
CN109977751A (zh) * 2019-01-16 2019-07-05 上海理工大学 一种基于卷积神经网络的人脸关键点检测方法
CN110728220A (zh) * 2019-09-30 2020-01-24 上海大学 基于人体动作骨骼信息的体操辅助训练方法
CN112069933A (zh) * 2020-08-21 2020-12-11 董秀园 基于体态识别和人体生物力学的骨骼肌肉受力估计方法
CN112464847A (zh) * 2020-12-07 2021-03-09 北京邮电大学 视频中人体动作切分方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114764819A (zh) * 2022-01-17 2022-07-19 北京甲板智慧科技有限公司 基于滤波算法的人体姿态估计方法及装置
CN114973403A (zh) * 2022-05-06 2022-08-30 广州紫为云科技有限公司 一种基于时空双重维度特征深度网络的高效行为预测方法
CN114973403B (zh) * 2022-05-06 2023-11-03 广州紫为云科技有限公司 一种基于时空双重维度特征深度网络的行为预测方法

Similar Documents

Publication Publication Date Title
CN108056786B (zh) 一种基于深度学习的骨龄检测方法和装置
WO2017128865A1 (zh) 一种基于多镜头的智能机械手及定位装配方法
CN104574421B (zh) 一种大幅面小重合区域高精度多光谱图像配准方法及装置
CN113158981A (zh) 一种基于级联卷积神经网络的骑行姿态分析方法
CN108537203B (zh) 一种基于卷积神经网络的手掌关键点定位方法
CN104167016B (zh) 一种基于rgb彩色与深度图像的三维运动重建方法
CN110956633B (zh) 一种基于虚拟立体定位像的快速ct扫描方法及系统
CN110728220A (zh) 基于人体动作骨骼信息的体操辅助训练方法
CN110705558A (zh) 图像实例分割方法和装置
CN102831614A (zh) 基于交互式字典迁移的序列医学图像快速分割方法
CN104574426A (zh) 基于赤足或穿袜足迹图像的人身特征分析的方法及装置
CN115797730B (zh) 模型训练方法及装置、头影测量关键点定位方法及装置
CN111126143A (zh) 一种基于深度学习的运动评判指导方法及系统
CN114119987A (zh) 基于卷积神经网络的特征提取和描述子生成方法及系统
CN111583342A (zh) 一种基于双目视觉的目标快速定位方法及装置
CN114187339A (zh) 神经导航辅助方法、装置、电子设备及存储介质
CN110378333B (zh) 一种sd-oct图像黄斑中央凹中心定位方法
CN110895818B (zh) 一种基于深度学习的膝关节轮廓特征提取方法和装置
CN115641646B (zh) 一种cpr自动检测质控方法及系统
CN116650316A (zh) 基于先验信息与深度学习的背部穴位定位方法
CN109242867A (zh) 一种基于模板的手骨自动分割方法
Shi et al. ROI detection of hand bone based on YOLO V3
US6721660B2 (en) Road extraction from images using template matching
KR100951315B1 (ko) Aam을 이용한 얼굴검출 방법 및 장치
CN107451610A (zh) 一种提高特征匹配精度的图像检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20210723

WW01 Invention patent application withdrawn after publication