CN113011344A - 一种基于机器视觉的引体向上数量计算方法 - Google Patents

一种基于机器视觉的引体向上数量计算方法 Download PDF

Info

Publication number
CN113011344A
CN113011344A CN202110304605.XA CN202110304605A CN113011344A CN 113011344 A CN113011344 A CN 113011344A CN 202110304605 A CN202110304605 A CN 202110304605A CN 113011344 A CN113011344 A CN 113011344A
Authority
CN
China
Prior art keywords
convolution
image
angle
multiplied
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110304605.XA
Other languages
English (en)
Other versions
CN113011344B (zh
Inventor
唐义平
汪斌
祖慈
张雪松
李帷韬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Yishi Technology Co ltd
Original Assignee
Anhui Yishi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Yishi Technology Co ltd filed Critical Anhui Yishi Technology Co ltd
Priority to CN202110304605.XA priority Critical patent/CN113011344B/zh
Publication of CN113011344A publication Critical patent/CN113011344A/zh
Application granted granted Critical
Publication of CN113011344B publication Critical patent/CN113011344B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于机器视觉的引体向上数量计算方法,是以三个指标判断一次标准的引体向上动作,分别考察被测试者的抓握姿势、头部高度和手臂弯曲程度,其中,使用YOLO目标检测模型检测抓握姿势和头部高度,识别手臂姿态,首先判断手掌握杆是否正确,再以两手识别框中点的连线作为引体向上识别基准线,此时要求大小臂夹角接近180°,同时识别被测试者头部位置从而判断头部是否过线,最后判断胳膊肘关节角度是否合格,各项指标满足要求则判断为一次标准的引体向上动作。本发明设备结构简单、识别准确率高并且较人工计数效率更高。

Description

一种基于机器视觉的引体向上数量计算方法
技术领域
本发明涉及机器学习视觉识别领域,具体说的是一种基于机器视觉的引体向上数量计算方法。
背景技术
机器视觉作为人工智能领域的一个分支,即机器模拟人类的视觉认知处理能力,将摄取的图像信息传送至图像处理系统,在无需人为干预的情况下挖掘处理图像视频中低层次的数字化数据,并转译为高层次信息输出,以达到近似人类对视觉信号的理解能力。该技术起源于上世纪60年代,但由于图像采集和计算机计算能力的局限性,直到2010年才迎来爆发式的增长,目前在智能化视频监控、基于内容的视频检索、医疗领域、人机交互、体育领域等行业中有着广泛的应用前景和价值,国内外众多知名高校以及研究机构进行了大量研究,同时科技公司也积极投入人力物力挖掘其市场应用场景和社会价值。
福州大学胡振禹提出了一种基于超声波的引体向上计数方法(专利号:201610284383,2016,“超声波引体向上测试仪及其控制方法”),利用超声波检测人体头顶位移间距,但是不能判断被测试者头部是否过单杠,也不能判断手臂是否伸直,不能按照规范的引体向上标准进行计数。
五邑大学赵素芳提出了一种结合深度图像的引体向上计数方法(五邑大学硕士学位论文,2014,“结合深度图像的引体向上自动测试系统研发”),根据深度信息和图像分割确定横杠和人脸下颚的位置,通过肩关节与单杠最大高度差判断手臂伸直,该方法采用专有设备Kinect采集深度图像,设备昂贵、数据集大,对计算机性能要求高,很难达到实时性要求。
发明内容
本发明是为了避免上述现有技术的不足之处,提供了一种基于机器视觉的引体向上数量计算方法,以期能解决引体向上项目计数误判率高、人力成本高等问题,实现体质测试中引体向上计数工作的自动化,从而提高识别准确率和计数效率。
本发明为解决技术问题采用如下技术方案:
本发明一种基于机器视觉的引体向上数量计算方法的特点是应用于在单杆的上方设置有摄像头的采集环境中,并按如下步骤进行:
步骤一:人脸人手采集:
利用摄像头采集人脸正面图像和正手握姿图像作为当前测试者的训练集,对所述训练集中的人脸和人手进行标注后,输入YOLO目标检测模型进行迭代训练,得到修正后的人手图像和人脸图像;
步骤二:对所述修正后的人手图像检测手是否握杆,若胳膊呈近180°,即角度|X1-X0|>G,则判定为手已正确握杆;否则返回步骤一执行,其中,X1表示手臂上肢角度;X0表示手臂下肢角度;G表示角度阈值;
步骤三:对修正后的人脸图像检测头部是否过线,如果y1-y0>x,则判断为已过线,并执行步骤八;如果y2>y1,则判断为未过线,并返回步骤一执行;如果y0>y1>y2,则执行步骤四-步骤七;其中,y3为检测到的头部区域顶端,y1为头部区域底端,y0为单杠顶端,y2为单杠底端,y0与y2之间为检测区域;
步骤四:构建基于MobileNet的轻量级异构深度特征网络;
所述轻量级异构深度特征网络的第一层的输入层为3×3的卷积层,卷积核的个数是M个;输入层后分别连接两个分支,第一个分支为ResNet网络的分支,并由四个部分和softmax损失函数组成,第一部分是由4个3×3的卷积层组成,卷积核的个数是M/2个,第二部分是由4个3×3的卷积层组成,卷积核的个数是2M个,第三部分是由4个3×3的卷积层组成,卷积核的个数是8M个,第四部分是由4个3×3的卷积层组成,卷积核的个数是32M个;且第四部分的第4个卷积层与softmax损失函数相连;
第二个分支是基于MobileNet网络改进的基础网络,并由5个的3×3深度卷积层和5个1×1点卷积层交替连接后再连接5个卷积块,最后连接一个卷积核是32M的3×3深度卷积层组成;其中,深度卷积层的卷积核分别是M、2M、4M、4M、8M,点卷积层的卷积核分别是3M、8M、16M、32M、64M;5个卷积块是由卷积核是16M的3×3深度卷积层和5个卷积核是256M的1×1点卷积层交替连接而成;
步骤五:初始化基于MobileNet的轻量级异构深度特征网络的参数,包括宽度超参数α、分辨率超参数β、卷积核的个数M;
步骤六:按照步骤1的处理方式,得到当前测试者的所有修正后的人脸图像,并输入到第一个分支的第四部分的第4个卷积层中,并利用所述softmax损失函数对所述轻量级异构深度特征网络进行训练,得到当前测试者的人脸图像特征:
Figure BDA0002987592010000021
式(1)中,
Figure BDA0002987592010000022
表示第l+1层卷积层中第t个输出通道的人脸图像特征;
Figure BDA0002987592010000023
表示第l层卷积层中第i个输入通道所输入的图像,c为输入通道的数量;
Figure BDA0002987592010000024
表示第l层卷积层中第i个预定义随机噪声掩模;σrelu(·)为非线性激活函数Relu;
Figure BDA0002987592010000031
表示第l层卷积层中第i个输入通道和第t个输出通道的权重参数;
所述softmax损失函数为:
Figure BDA0002987592010000032
式(2)中,θj为第j个人脸图像特征的角度,k表示任一整数,且k∈[0,m-1],m表示角度边界大小的控制参数,且m≥1;当m=1时,即为softmaxloss函数;
步骤七:将ResNet网络输出的人脸特征与基于MobileNet网络改进的基础网络输出的人脸特征合并,得到最终的人脸特征,并利用DCA算法对最终的人脸特征进行特征融合后判断是否过线;若过线,则执行步骤八,否则执行步骤一;
步骤八:对所述修正后的人手图像检测胳膊角度是否符合要求,如果胳膊最大角度大于θ,则表示符合要求,并将引体向上的个数加一;如果胳膊最大角度小于等于θ,则表示不符合要求,并不计数。
与现有技术相比,本发明的有益效果体现在:
1、本发明采用非接触式测量,对于不同身高和性别的被测试者,进行计数测试不需要改变程序中的参数,从而在不同环境下应用的鲁棒性较强。
2、本发明根据角度阈值G能对不同测量标椎进行调节,适用性更强。
3、本发明方法使用的轻量级异构深度特征网络由两条分支组成,计数准确性更高。
附图说明
图1为本发明头部与单杆位置示意图。
具体实施方式
本实施例中,一种基于机器视觉的引体向上数量计量方法是应用于在单杆的上方设置有摄像头的采集环境中,并按如下步骤进行:
步骤一:人脸人手采集:
利用摄像头采集人脸正面图像和正手握姿图像作为当前测试者的训练集,其中图1为头部与单杆位置示意图,对训练集中的人脸和人手进行标注后,输入YOLO目标检测模型进行迭代训练,得到修正后的人手图像和人脸图像;
步骤二:对修正后的人手图像检测手是否握杆,若胳膊呈近180°,即角度|X1-X0|>G,则判定为手已正确握杆;否则返回步骤一执行,其中,X1表示手臂上肢角度;X0表示手臂下肢角度;G为10°;
步骤三:对修正后的人脸图像检测头部是否过线,如果y1-y0>1cm,则判断为已过线,并执行步骤八;如果y2>y1,则判断为未过线,并返回步骤一执行;如果y0>y1>y2,则执行步骤四-步骤七;其中,y3为检测到的头部区域顶端,y1为头部区域底端,y0为单杠顶端,y2为单杠底端,y0与y2之间为检测区域;
步骤四:构建基于MobileNet的轻量级异构深度特征网络;
轻量级异构深度特征网络的第一层的输入层为3×3的卷积层,卷积核的个数是M个;输入层后分别连接两个分支,第一个分支为ResNet网络的分支,并由四个部分和softmax损失函数组成,第一部分是由4个3×3的卷积层组成,卷积核的个数是M/2个,第二部分是由4个3×3的卷积层组成,卷积核的个数是2M个,第三部分是由4个3×3的卷积层组成,卷积核的个数是8M个,第四部分是由4个3×3的卷积层组成,卷积核的个数是32M个;且第四部分的第4个卷积层与softmax损失函数相连;
第二个分支是基于MobileNet网络改进的基础网络,并由5个的3×3深度卷积层和5个1×1点卷积层交替连接后再连接5个卷积块,最后连接一个卷积核是32M的3×3深度卷积层组成;其中,深度卷积层的卷积核分别是M、2M、4M、4M、8M,点卷积层的卷积核分别是3M、8M、16M、32M、64M;5个卷积块是由卷积核是16M的3×3深度卷积层和5个卷积核是256M的1×1点卷积层交替连接而成;
步骤五:初始化基于MobileNet的轻量级异构深度特征网络的参数,包括:宽度超参数α为0.168、分辨率超参数β为2.376、卷积核的个数M为3;
步骤六:按照步骤1的处理方式,得到当前测试者的所有修正后的人脸图像,并输入到第一个分支的第四部分的第4个卷积层中,并利用softmax损失函数对轻量级异构深度特征网络进行训练,得到当前测试者的人脸图像特征:
Figure BDA0002987592010000041
式(1)中,
Figure BDA0002987592010000042
表示第l+1层卷积层中第t个输出通道的人脸图像特征;
Figure BDA0002987592010000043
表示第l层卷积层中第i个输入通道所输入的图像,c为输入通道的数量;
Figure BDA0002987592010000044
表示第l层卷积层中第i个预定义随机噪声掩模;σrelu(·)为非线性激活函数Relu;
Figure BDA0002987592010000045
表示第l层卷积层中第i个输入通道和第t个输出通道的权重参数;
softmax损失函数为:
Figure BDA0002987592010000051
式(2)中,θj为第j个人脸图像特征的角度,k表示任一整数,且k∈[0,m-1],m表示角度边界大小的控制参数,且m≥1;当m=1时,即为softmaxloss函数;
步骤七:将ResNet网络输出的人脸特征与基于MobileNet网络改进的基础网络输出的人脸特征合并,得到最终的人脸特征,并利用DCA算法对最终的人脸特征进行特征融合后判断是否过线;若过线,则执行步骤八,否则执行步骤一;
步骤八:对修正后的人手图像检测胳膊角度是否符合要求,如果胳膊最大角度大于θ,则表示符合要求,并将引体向上的个数加一;如果胳膊最大角度小于等于θ,则表示不符合要求,并不计数。

Claims (1)

1.一种基于机器视觉的引体向上数量计算方法,其特征是应用于在单杆的上方设置有摄像头的采集环境中,并按如下步骤进行:
步骤一:人脸人手采集:
利用摄像头采集人脸正面图像和正手握姿图像作为当前测试者的训练集,对所述训练集中的人脸和人手进行标注后,输入YOLO目标检测模型进行迭代训练,得到修正后的人手图像和人脸图像;
步骤二:对所述修正后的人手图像检测手是否握杆,若胳膊呈近180°,即角度|X1-X0|>G,则判定为手已正确握杆;否则返回步骤一执行,其中,X1表示手臂上肢角度;X0表示手臂下肢角度;G表示角度阈值;
步骤三:对修正后的人脸图像检测头部是否过线,如果y1-y0>x,则判断为已过线,并执行步骤八;如果y2>y1,则判断为未过线,并返回步骤一执行;如果y0>y1>y2,则执行步骤四-步骤七;其中,y3为检测到的头部区域顶端,y1为头部区域底端,y0为单杠顶端,y2为单杠底端,y0与y2之间为检测区域;
步骤四:构建基于MobileNet的轻量级异构深度特征网络;
所述轻量级异构深度特征网络的第一层的输入层为3×3的卷积层,卷积核的个数是M个;输入层后分别连接两个分支,第一个分支为ResNet网络的分支,并由四个部分和softmax损失函数组成,第一部分是由4个3×3的卷积层组成,卷积核的个数是M/2个,第二部分是由4个3×3的卷积层组成,卷积核的个数是2M个,第三部分是由4个3×3的卷积层组成,卷积核的个数是8M个,第四部分是由4个3×3的卷积层组成,卷积核的个数是32M个;且第四部分的第4个卷积层与softmax损失函数相连;
第二个分支是基于MobileNet网络改进的基础网络,并由5个的3×3深度卷积层和5个1×1点卷积层交替连接后再连接5个卷积块,最后连接一个卷积核是32M的3×3深度卷积层组成;其中,深度卷积层的卷积核分别是M、2M、4M、4M、8M,点卷积层的卷积核分别是3M、8M、16M、32M、64M;5个卷积块是由卷积核是16M的3×3深度卷积层和5个卷积核是256M的1×1点卷积层交替连接而成;
步骤五:初始化基于MobileNet的轻量级异构深度特征网络的参数,包括宽度超参数α、分辨率超参数β、卷积核的个数M;
步骤六:按照步骤1的处理方式,得到当前测试者的所有修正后的人脸图像,并输入到第一个分支的第四部分的第4个卷积层中,并利用所述softmax损失函数对所述轻量级异构深度特征网络进行训练,得到当前测试者的人脸图像特征:
Figure FDA0002987591000000021
式(1)中,
Figure FDA0002987591000000022
表示第l+1层卷积层中第t个输出通道的人脸图像特征;
Figure FDA0002987591000000023
表示第l层卷积层中第i个输入通道所输入的图像,c为输入通道的数量;
Figure FDA0002987591000000024
表示第l层卷积层中第i个预定义随机噪声掩模;σrelu(·)为非线性激活函数Relu;
Figure FDA0002987591000000025
表示第l层卷积层中第i个输入通道和第t个输出通道的权重参数;
所述softmax损失函数为:
Figure FDA0002987591000000026
式(2)中,θj为第j个人脸图像特征的角度,k表示任一整数,且k∈[0,m-1],m表示角度边界大小的控制参数,且m≥1;当m=1时,即为softmaxloss函数;
步骤七:将ResNet网络输出的人脸特征与基于MobileNet网络改进的基础网络输出的人脸特征合并,得到最终的人脸特征,并利用DCA算法对最终的人脸特征进行特征融合后判断是否过线;若过线,则执行步骤八,否则执行步骤一;
步骤八:对所述修正后的人手图像检测胳膊角度是否符合要求,如果胳膊最大角度大于θ,则表示符合要求,并将引体向上的个数加一;如果胳膊最大角度小于等于θ,则表示不符合要求,并不计数。
CN202110304605.XA 2021-03-23 2021-03-23 一种基于机器视觉的引体向上数量计算方法 Active CN113011344B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110304605.XA CN113011344B (zh) 2021-03-23 2021-03-23 一种基于机器视觉的引体向上数量计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110304605.XA CN113011344B (zh) 2021-03-23 2021-03-23 一种基于机器视觉的引体向上数量计算方法

Publications (2)

Publication Number Publication Date
CN113011344A true CN113011344A (zh) 2021-06-22
CN113011344B CN113011344B (zh) 2022-07-12

Family

ID=76404697

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110304605.XA Active CN113011344B (zh) 2021-03-23 2021-03-23 一种基于机器视觉的引体向上数量计算方法

Country Status (1)

Country Link
CN (1) CN113011344B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255624A (zh) * 2021-07-14 2021-08-13 北京壹体科技有限公司 一种智能识别引体向上动作姿态完成状况的系统和方法
CN115138059A (zh) * 2022-09-06 2022-10-04 南京市觉醒智能装备有限公司 一种引体向上的规范计数方法、系统及其存储介质
CN116392798A (zh) * 2023-03-09 2023-07-07 恒鸿达(福建)体育科技有限公司 一种双杠臂屈伸的自动测试方法、装置、设备和介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778565A (zh) * 2016-12-02 2017-05-31 广东小天才科技有限公司 引体向上的计数方法及装置
CN107103298A (zh) * 2017-04-21 2017-08-29 桂林电子科技大学 基于图像处理的引体向上计数系统及计数方法
CN107122798A (zh) * 2017-04-17 2017-09-01 深圳市淘米科技有限公司 基于深度卷积网络的引体向上计数检测方法及装置
CN110163038A (zh) * 2018-03-15 2019-08-23 南京硅基智能科技有限公司 一种基于深度卷积神经网络的人体运动计数方法
WO2019223254A1 (zh) * 2018-05-21 2019-11-28 北京亮亮视野科技有限公司 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法
KR20190135062A (ko) * 2018-05-02 2019-12-06 동국대학교 산학협력단 딥 러닝 기반의 홍채 영역 검출 장치 및 방법
CN110755833A (zh) * 2019-10-16 2020-02-07 上海淡竹体育科技有限公司 引体向上测试方法及装置
CN111368791A (zh) * 2020-03-18 2020-07-03 南通大学 基于Quick-OpenPose模型的引体向上测试计数方法及系统
CN111597975A (zh) * 2020-05-14 2020-08-28 北京万觉科技有限公司 人员动作检测方法方法、装置及电子设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778565A (zh) * 2016-12-02 2017-05-31 广东小天才科技有限公司 引体向上的计数方法及装置
CN107122798A (zh) * 2017-04-17 2017-09-01 深圳市淘米科技有限公司 基于深度卷积网络的引体向上计数检测方法及装置
CN107103298A (zh) * 2017-04-21 2017-08-29 桂林电子科技大学 基于图像处理的引体向上计数系统及计数方法
CN110163038A (zh) * 2018-03-15 2019-08-23 南京硅基智能科技有限公司 一种基于深度卷积神经网络的人体运动计数方法
KR20190135062A (ko) * 2018-05-02 2019-12-06 동국대학교 산학협력단 딥 러닝 기반의 홍채 영역 검출 장치 및 방법
WO2019223254A1 (zh) * 2018-05-21 2019-11-28 北京亮亮视野科技有限公司 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法
CN110755833A (zh) * 2019-10-16 2020-02-07 上海淡竹体育科技有限公司 引体向上测试方法及装置
CN111368791A (zh) * 2020-03-18 2020-07-03 南通大学 基于Quick-OpenPose模型的引体向上测试计数方法及系统
CN111597975A (zh) * 2020-05-14 2020-08-28 北京万觉科技有限公司 人员动作检测方法方法、装置及电子设备

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
TSUNG-HSIN WEI 等: "Integrating motion estimation and convolutional neural network for video super-resolution", 《2017 IEEE 8TH INTERNATIONAL CONFERENCE ON AWARENESS SCIENCE AND TECHNOLOGY (ICAST)》, 15 January 2018 (2018-01-15), pages 428 - 431 *
李岳: "基于深度学习的人体姿态识别方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, vol. 2020, no. 8, 15 August 2020 (2020-08-15), pages 138 - 397 *
霍宇: "基于神经网络的人体动作识别系统", 《中国优秀硕士学位论文全文数据库 信息科技辑》, vol. 2019, no. 9, 15 September 2019 (2019-09-15), pages 138 - 927 *
黄知超 等: "一种基于机器视觉的引体向上计数方法", 《电视技术》 *
黄知超 等: "一种基于机器视觉的引体向上计数方法", 《电视技术》, vol. 42, no. 1, 31 December 2018 (2018-12-31), pages 77 - 83 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255624A (zh) * 2021-07-14 2021-08-13 北京壹体科技有限公司 一种智能识别引体向上动作姿态完成状况的系统和方法
CN113255624B (zh) * 2021-07-14 2021-09-21 北京壹体科技有限公司 一种智能识别引体向上动作姿态完成状况的系统和方法
CN115138059A (zh) * 2022-09-06 2022-10-04 南京市觉醒智能装备有限公司 一种引体向上的规范计数方法、系统及其存储介质
CN115138059B (zh) * 2022-09-06 2022-12-02 南京市觉醒智能装备有限公司 一种引体向上的规范计数方法、系统及其存储介质
CN116392798A (zh) * 2023-03-09 2023-07-07 恒鸿达(福建)体育科技有限公司 一种双杠臂屈伸的自动测试方法、装置、设备和介质

Also Published As

Publication number Publication date
CN113011344B (zh) 2022-07-12

Similar Documents

Publication Publication Date Title
CN113011344B (zh) 一种基于机器视觉的引体向上数量计算方法
CN114661169B (zh) 基于视觉的触觉测量方法、装置、设备及存储介质
CN111695562B (zh) 一种基于卷积神经网络的机器人自主抓取方法
CN107705322A (zh) 运动目标识别跟踪方法和系统
Cheng et al. A vision-based robot grasping system
CN110378325A (zh) 一种机器人抓取过程中的目标位姿识别方法
CN111598172B (zh) 基于异构深度网络融合的动态目标抓取姿态快速检测方法
CN110163112B (zh) 一种考生姿态分割与平滑方法
Cui et al. Self-supervised contact geometry learning by GelStereo visuotactile sensing
Cui et al. Hard sample mining and learning for skeleton-based human action recognition and identification
CN115922697A (zh) 基于变电站数字孪生技术的智能化机器人自动巡检方法
CN115050095A (zh) 一种基于高斯过程回归和渐进滤波的人体姿态预测方法
Deng et al. A human–robot collaboration method using a pose estimation network for robot learning of assembly manipulation trajectories from demonstration videos
CN113516232B (zh) 一种基于自注意力机制的穿墙雷达人体姿态重构方法
CN110705355A (zh) 一种基于关键点约束的人脸姿态估计方法
CN114170686A (zh) 一种基于人体关键点的屈肘行为检测方法
CN109544632A (zh) 一种基于层次主题模型的语义slam对象关联方法
CN107292340A (zh) 基于卷积神经网络的侧线鳞识别方法
CN114140524B (zh) 一种多尺度特征融合的闭环检测系统及方法
CN116129467A (zh) 一种变电运维人员姿态与行为以及工器具姿态的识别方法
CN112949587B (zh) 基于关键点的手部握姿矫正方法、系统及计算机可读介质
Zhang et al. Monitoring and analysis of athletes’ local body movement status based on BP neural network
CN115661446A (zh) 基于深度学习的指针式仪表示数自动读取系统及方法
Xu et al. A simple robotic fingertip sensor using imaging and shallow neural networks
Liu et al. Real-time marker localization learning for GelStereo tactile sensing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant