CN110210360A - 一种基于视频图像目标识别的跳绳计数方法 - Google Patents
一种基于视频图像目标识别的跳绳计数方法 Download PDFInfo
- Publication number
- CN110210360A CN110210360A CN201910439892.8A CN201910439892A CN110210360A CN 110210360 A CN110210360 A CN 110210360A CN 201910439892 A CN201910439892 A CN 201910439892A CN 110210360 A CN110210360 A CN 110210360A
- Authority
- CN
- China
- Prior art keywords
- image
- rope skipping
- rope
- face
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 239000000284 extract Substances 0.000 claims abstract description 7
- 238000001914 filtration Methods 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
Classifications
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Abstract
本发明公开了一种基于视频图像目标识别的跳绳计数方法,属于智能健身运动技术领域,包括:1)获取跳绳动作的原始视频数据,从原始视频数据中提取出图像数据;2)对图像数据进行单帧处理,得到一组顺序排列的单帧图像;3)确定每帧图像中跳绳的人的人脸区域;4)取出人脸区域的中心点高度坐标;5)获取中心点高度坐标随时间变化的曲线,采用过零计数法得到跳绳的人的跳绳次数;6)输出并显示计数结果。获得相对稳定的视频图像后,对视频信息进行处理,再对获得的图像数据进行分析后对跳绳次数进行判断,最后确定跳绳次数。该方法通过识别人脸所在的位置来达到判断跳绳的次数,不仅准确,而且视频可以回塑,具有很好的应用价值。
Description
技术领域
本发明涉及智能健身运动设备技术领域,具体地说,涉及一种基于视频图像目标识别的跳绳计数方法。
背景技术
跳绳在很多场合已经作为娱乐或比赛的一项重要运动项目。同时也是中小学生体育考试的必考科目。但跳绳的过程中需要计数,当人数多的时候对每人计数会很耽误裁判的宝贵时间,而且有时当跳绳速度快或者裁判注意力不集中的时候,很容易出现计数错误。已有的能自动计数的跳绳,往往存在计数不够准确,不能反向计数,使用时间不能长久等问题。
如公布号为CN107648790A的中国专利文献公开了一种跳绳运动系统,该系统包括专用的跳绳和跳绳毯,能有效对运动者进行跳绳计数,简单便捷。公布号为CN107596617A的中国专利文献公开了一种多功能智能跳绳装置,包括手柄和弹力绳,该发明通过对跳绳装置的结构进行改进以及在手柄上设计多个应用模块,使跳绳装置具有了绳长可调、能自动计时和计数、能进行人机交互、能记录用户的运动参数并进行无线传输等多重效果。
现在也可采用基于视觉等的智能方法来进行跳绳计数,但面临着如何识别跳绳等的问题,由于绳子比较细,而且跳绳的速度又比较快,通过识别绳子的环摆次数来达到对跳绳次数的计数也存在不少问题。
发明内容
本发明的目的为提供一种基于视频图像目标识别的跳绳计数方法,通过对人在跳绳过程中人脸位置中心高度位置的高低变化来计算跳绳的次数,从而实现对跳绳进行自动精确计数。
为了实现上述目的,本发明提供的基于视频图像目标识别的跳绳计数方法包括以下步骤:
1)获取跳绳动作的原始视频数据,从原始视频数据中提取出图像数据;
2)对图像数据进行单帧处理,得到一组顺序排列的单帧图像;
3)确定每帧图像中跳绳的人的人脸区域;
4)取出人脸区域的中心点高度坐标;
5)获取中心点高度坐标随时间变化的曲线,采用过零计数法得到跳绳的人的跳绳次数;
6)输出并显示计数结果。
上述技术方案中,可利用高清摄录设备从一定的角度、合适的距离,对包括跳绳人在内的整个跳绳过程进行录制,录制过程中要求跳绳的人进行原地跳绳(在跳绳时不做大范围的前后左右的水平移动)。获得相对稳定的视频图像后,对视频信息进行处理,再对获得的图像数据进行分析后对跳绳次数进行判断,最后确定跳绳次数。该方法通过识别人脸所在的位置来达到判断跳绳的次数,不仅准确,而且视频可以回塑,具有很好的应用价值。
作为优选,步骤3)中,确定每帧图像中跳绳的人的人脸区域的步骤包括:
步骤3-1)对每帧图像进行肤色识别,并过滤掉干扰数据,得到二值化图像;
针对脸部形状和中心位置的检测,只需要在图像中定位脸部位置并得到脸部的最小外接矩形,即大致框出脸部区域即可。采用高斯肤色概率模型,肤色的检测一般采用YCbCr颜色空间,RBG转化为YCbCr的公式为:
Y=0.257×R+0.564×G+0.098×B+16
Cb=-0.148×R-0.291×G+0.439×B+128
Cr=0.439×R-0.368×G-0.071×B+128
肤色在色度空间,即(Cb,Cr)空间,满足高斯分布,根据二维高斯型函数,每个像素的肤色概率密度计算公式如下:
p(CbCr)=exp[-0.5(x-m)TC-1(x-m)]
其中x=(CbCr)T,m=E(x),即均值;C=E{(x-m)(x-m)T},即协方差矩阵;
根据上述公式计算得到图像中每个像素与肤色的相似度,将每个像素与肤色的相似度与每个像素的灰度对应起来,将彩色图像转换为灰度图像,即肤色似然图,在此基础上将灰度图转换为二值化图像。
步骤3-2)排除非脸部肤色区域;
二值图中还包含了非脸部的裸露肤色区域如胳膊、手、腿、脚等,需要区分开来,从脸部本身的几何特征出发,采用三种限制条件——限制像素个数(即限制所占面积大小)、限制长宽比、限制矩形度(即与矩形的相似程度)将脸部从其他非脸部的肤色区域中提取出来,判断标准为:像素个数大于200个,长宽比范围为0.8~2.4,矩形度至少大于0.55。具体说明如下:
由于跳绳者衣服的遮挡,不同的肤色区域之间是非联通的,因此可以对每个肤色区域进行遍历,分别得到每个肤色区域的像素点个数、最大长度和最大宽度、矩形度等信息,通过上述的三个限制条件判断是否属于脸部区域。对于非脸部的肤色区域,将该区域的所有像素赋值为0,即变为黑色,作为背景。
步骤3-3)在原RGB图中框出脸部区域;
得到脸部区域后,根据该区域的长度和宽度的最大值坐标和最小值坐标信息确定脸部的最小外接矩形的大小和位置,再在原始的RGB图像的相同位置描绘出该最小外接矩形,即可框出脸部区域。
作为优选,步骤4)中,取出人脸区域的中心点高度坐标的步骤说明如下:
根据步骤3-3)中得到的人脸区域四个顶点的坐标取几何中心的坐标,作为中心点的坐标。原地跳绳过程中,跳绳的人水平移动的区域一般不会很大,因此该坐标高度的变化可以近似为跳绳过程中人重心的高低变化,找出坐标高度随时间变化的规律就可以得到跳绳的次数了。
作为优选,步骤5)中,获取中心点高度坐标随时间变化的曲线,采用过零计数法得到跳绳的人的跳绳次数的步骤为:
步骤5-1)绘制中心点高度坐标随时间变化的曲线,并进行移动平均滤波处理;
从步骤4)知道人脸区域的中心点高度坐标后,可以得到中心点高度坐标随时间变化的曲线,该曲线存在一些抖动和毛刺等,需要进行移动平均滤波处理。
移动平均滤波是以统计规律为基础的一种对信号滤波降噪的方法,其原理是:将连续的要被处理的数据看作一个数量为N的窗口,每处理一个新数据时,窗口中的N个数据整体向前平移1位,即窗口中的第一个数据被去掉,新数据成为窗口中的最后一个数据,然后对窗口中的N个数取平均值,将得到的平均值作为被处理数据的值,其计算公式如下:
其中,n代表帧数;x(n)代表第n帧图像的实际中心点高度;N为移动平均滤波的窗口长度;y(n)表示经移动平均滤波后的第n帧图像的中心点高度。移动平均滤波能较好地滤除运动轨迹曲线中的抖动和毛刺,使曲线变得连续而平滑。窗口长度N值的选取要与具体的计数方法结合,并不是越大或者越小就是最好,取N=5。
步骤5-2)采用过零计数法得到跳绳的人的跳绳次数,其步骤为:
找出曲线y坐标的最大值ymax和最小值ymin,对最大值ymax和最小值ymin求平均值得到ymid;
以直线y=ymid作为新的坐标轴的x轴,重新绘制滤波后的轨迹曲线;
找出滤波后的轨迹曲线与新坐标轴x轴的交点个数,将交点个数除以2即为跳绳次数。
与现有技术相比,本发明的有益效果为:
本发明基于图像信息的跳绳计数方法不需要采用人工即可实现自动精确计数,不仅可以即时计数,也可以进行录像回放,尤其随着移动摄录设备的广泛采用,该方法将具有更强的实用性。
附图说明
图1为本发明实施例中基于视频图像目标识别的跳绳计数方法的流程图;
图2为本发明实施例的参考图像(a)及滤波后的二值图(b);
图3为本发明实施例的参考图像进行排除非脸部的肤色区域后的二值图像(a)及在原RGB图像中框出脸部区域的图像(b);
图4为本发明实施例的N=5时移动平均滤波后中心点高度坐标随时间变化的曲线图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,以下结合实施例及其附图对本发明作进一步说明。
实施例
参见图1至图4,本实施例的基于图像信息的跳绳计数方法包括以下步骤:
步骤S1,通过录像设备获取跳绳动作的原始视频数据,并将原始视频数据输入,开始计时。
步骤S2,从原始视频数据中提取出图像数据,对图像数据进行单帧处理,得到一组顺序排列的单帧图像,并提取出计数时间。
步骤S3,确定每帧图像中跳绳的人的人脸区域。首先对每帧图像进行肤色识别,并过滤掉干扰数据,得到二值化图像,如图2所示;
针对脸部形状和中心位置的检测,只需要在图像中定位脸部位置并得到脸部的最小外接矩形,即大致框出脸部区域即可。采用高斯肤色概率模型,肤色的检测一般采用YCbCr颜色空间,RBG转化为YCbCr的公式为:
Y=0.257×R+0.564×G+0.098×B+16
Cb=-0.148×R-0.291×G+0.439×B+128
Cr=0.439×R-0.368×G-0.071×B+128
肤色在色度空间,即(Cb,Cr)空间,满足高斯分布,根据二维高斯型函数,每个像素的肤色概率密度计算公式如下:
p(CbCr)=exp[-0.5(x-m)TC-1(x-m)]
其中x=(CbCr)T,m=E(x),即均值;C=E{(x-m)(x-m)T};即协方差矩阵;
根据上述公式计算得到图像中每个像素与肤色的相似度,将每个像素与肤色的相似度与每个像素的灰度对应起来,将彩色图像转换为灰度图像,即肤色似然图,在此基础上将灰度图转换为二值化图像。
接着排除非脸部肤色区域;
二值图中还包含了非脸部的裸露肤色区域如胳膊、手、腿、脚等,需要区分开来,从脸部本身的几何特征出发,采用三种限制条件——限制像素个数(即限制所占面积大小)、限制长宽比、限制矩形度(即与矩形的相似程度)将脸部从其他非脸部的肤色区域中提取出来,具体说明如下:
由于跳绳者衣服的遮挡,不同的肤色区域之间是非联通的,因此可以对每个肤色区域进行遍历,分别得到每个肤色区域的像素点个数、最大长度和最大宽度、矩形度等信息,通过上述的三个限制条件判断是否属于脸部区域,判断标准为:像素个数大于200个,长宽比范围为0.8~2.4,矩形度至少大于0.55。对于非脸部的肤色区域,将该区域的所有像素赋值为0,即变为黑色,作为背景。
最后在原RGB图中框出脸部区域备用,如图3所示;得到脸部区域后,根据该区域的长度和宽度的最大值坐标和最小值坐标信息确定脸部的最小外接矩形的大小和位置,再在原始的RGB图像的相同位置描绘出该最小外接矩形,即可框出脸部区域。
步骤S4,取出人脸区域的中心点高度坐标。根据步骤3中得到的人脸区域四个顶点的坐标取几何中心的坐标,作为中心点的坐标。原地跳绳过程中,跳绳的人水平移动的区域一般不会很大,因此该坐标高度的变化可以近似为跳绳过程中人重心的高低变化,找出坐标高度随时间变化的规律就可以得到跳绳的次数了。
步骤S5,获取中心点高度坐标随时间变化的曲线,并进行移动平均滤波处理,得到如图4所示曲线;
从步骤4)知道人脸区域的中心点高度坐标后,可以得到中心点高度坐标随时间变化的曲线,该曲线存在一些抖动和毛刺等,需要进行移动平均滤波处理。
移动平均滤波是以统计规律为基础的一种对信号滤波降噪的方法,其原理是:将连续的要被处理的数据看作一个数量为N的窗口,每处理一个新数据时,窗口中的N个数据整体向前平移1位,即窗口中的第一个数据被去掉,新数据成为窗口中的最后一个数据,然后对窗口中的N个数取平均值,将得到的平均值作为被处理数据的值,其计算公式如下:
其中,n代表帧数;x(n)代表第n帧图像的实际中心点高度;N为移动平均滤波的窗口长度;y(n)表示经移动平均滤波后的第n帧图像的中心点高度。移动平均滤波能较好地滤除运动轨迹曲线中的抖动和毛刺,使曲线变得连续而平滑。窗口长度N值的选取要与具体的计数方法结合,并不是越大或者越小就是最好,本实施例取N=5。
步骤S6,采用过零计数法得到跳绳的人的跳绳次数。
找出曲线y坐标的最大值ymax和最小值ymin,对最大值ymax和最小值ymin求平均值得到ymid;
以直线y=ymid作为新的坐标轴的x轴,重新绘制滤波后的轨迹曲线;
找出滤波后的轨迹曲线与新坐标轴x轴的交点个数,将交点个数除以2即为跳绳次数。需要说明的是当在连跳等特殊情况下跳绳次数并不等于跳绳次数。
步骤S11,如果是有效的跳绳次数,则计数加1,不是有效跳绳则不计数。
步骤S12,判断是否超过计数时间,若是,则结束计数,否则将下一个参考图像重复步骤S2至步骤S12。
步骤S13,将计数结果输出并显示。
Claims (7)
1.一种基于视频图像目标识别的跳绳计数方法,其特征在于,包括以下步骤:
1)获取跳绳动作的原始视频数据,从原始视频数据中提取出图像数据;
2)对图像数据进行单帧处理,得到一组顺序排列的单帧图像;
3)确定每帧图像中跳绳的人的人脸区域;
4)取出人脸区域的中心点高度坐标;
5)获取中心点高度坐标随时间变化的曲线,采用过零计数法得到跳绳的人的跳绳次数;
6)输出并显示计数结果。
2.根据权利要求1所述的跳绳计数方法,其特征在于,步骤3)中,确定每帧图像中跳绳的人的人脸区域的步骤包括:
3-1)对每帧图像进行肤色识别,并过滤掉干扰数据,得到二值化图像;
3-2)排除非脸部肤色区域;
3-3)在原RGB图中框出脸部区域。
3.根据权利要求2所述的跳绳计数方法,其特征在于,步骤3-1)中,得到二值化图像包括:
在图像中定位脸部位置并得到脸部的最小外接矩形;
采用YCbCr颜色空间,将RBG图像转化为YCbCr图像;
根据二维高斯型函数,计算每个像素的肤色概率密度:
p(CbCr)=exp[-0.5(x-m)TC-1(x-m)]
其中x=(CbCr)T,m=E(x),即均值;C=E{(x-m)(x-m)T},即协方差矩阵;
根据上述公式计算得到图像中每个像素与肤色的相似度,将每个像素与肤色的相似度与每个像素的灰度对应,将彩色图像转换为灰度图像,即肤色似然图,在此基础上将灰度图转换为二值化图像。
4.根据权利要求3所述的跳绳计数方法,其特征在于,步骤3-2)中,排除非脸部肤色区域的方法为:
从脸部的几何特征出发,采用限制像素个数、限制长宽比和限制矩形度三种限制条件,将脸部从其他非脸部的肤色区域中提取出来;
对每个肤色区域进行遍历,分别得到每个肤色区域的像素点个数、最大长宽比、矩形度信息,通过三个限制条件判断是否属于脸部区域;
对于非脸部的肤色区域,将该区域的所有像素赋值为0,即变为黑色,作为背景。
5.根据权利要求4所述的跳绳计数方法,其特征在于,通过三个限制条件判断是否属于脸部区域的判断标准为:像素个数大于200个,长宽比范围为0.8~2.4,矩形度至少大于0.55。
6.根据权利要求3所述的跳绳计数方法,其特征在于,步骤3-3)中,得到脸部区域后,根据该区域的长度和宽度的最大值坐标和最小值坐标信息确定脸部的最小外接矩形的大小和位置,再在原始的RGB图像的相同位置描绘出该最小外接矩形,即框出脸部区域。
7.根据权利要求1所述的跳绳计数方法,其特征在于,步骤5)中,获取中心点高度坐标随时间变化的曲线,采用过零计数法得到跳绳的人的跳绳次数的步骤为:
5-1)绘制中心点高度坐标随时间变化的曲线,并进行移动平均滤波处理,将连续的被处理的数据看作一个数量为N的窗口,每处理一个新数据时,窗口中的N个数据整体向前平移1位,即窗口中的第一个数据被去掉,新数据成为窗口中的最后一个数据,然后对窗口中的N个数取平均值,将得到的平均值作为被处理数据的值,其计算公式如下:
其中,n代表帧数;x(n)代表第n帧图像的实际中心点高度;N为移动平均滤波的窗口长度;y(n)表示经移动平均滤波后的第n帧图像的中心点高度。
5-2)找出曲线y坐标的最大值ymax和最小值ymin,对最大值ymax和最小值ymin求平均值得到ymid;
5-3)以直线y=ymid作为新的坐标轴的x轴,重新绘制滤波后的轨迹曲线;
5-4)找出滤波后的轨迹曲线与新坐标轴x轴的交点个数,将交点个数除以2即为跳绳次数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910439892.8A CN110210360B (zh) | 2019-05-24 | 2019-05-24 | 一种基于视频图像目标识别的跳绳计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910439892.8A CN110210360B (zh) | 2019-05-24 | 2019-05-24 | 一种基于视频图像目标识别的跳绳计数方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110210360A true CN110210360A (zh) | 2019-09-06 |
CN110210360B CN110210360B (zh) | 2021-01-08 |
Family
ID=67788438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910439892.8A Active CN110210360B (zh) | 2019-05-24 | 2019-05-24 | 一种基于视频图像目标识别的跳绳计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110210360B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112044047A (zh) * | 2020-08-28 | 2020-12-08 | 浙江大学 | 基于多目标跟踪的跳绳计数方法 |
CN112044046A (zh) * | 2020-08-28 | 2020-12-08 | 浙江大学 | 基于深度学习的跳绳计数方法 |
CN112396001A (zh) * | 2020-11-20 | 2021-02-23 | 安徽一视科技有限公司 | 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法 |
CN112528876A (zh) * | 2020-12-15 | 2021-03-19 | 中国计量大学 | 一种基于人脸检测的蹲起计数方法 |
CN112528877A (zh) * | 2020-12-15 | 2021-03-19 | 中国计量大学 | 一种基于人脸识别的蹲起计数方法 |
CN112634400A (zh) * | 2020-12-21 | 2021-04-09 | 浙江大华技术股份有限公司 | 一种跳绳计数方法、终端及其计算机可读存储介质 |
CN113902084A (zh) * | 2020-07-06 | 2022-01-07 | 阿里体育有限公司 | 运动计数方法、装置、电子设备及计算机存储介质 |
CN114640753A (zh) * | 2022-04-01 | 2022-06-17 | 北京市疾病预防控制中心 | 基于实验视频处理的线虫咽泵运动频率自动识别方法 |
CN115282585A (zh) * | 2022-08-04 | 2022-11-04 | 光彻科技(杭州)有限公司 | 一种新型跳绳计数方法、装置、电子设备及可读存储介质 |
CN115546291A (zh) * | 2022-11-28 | 2022-12-30 | 成都怡康科技有限公司 | 一种跳绳计数方法、装置、计算机设备及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7976438B1 (en) * | 2010-05-26 | 2011-07-12 | Chi-Kun Hsu | Jump rope grip assembly having adjustable weight and number counting function |
CN103386181A (zh) * | 2013-07-25 | 2013-11-13 | Tcl通讯(宁波)有限公司 | 一种移动终端及该终端的跳绳计数方法 |
US20140024498A1 (en) * | 2011-03-31 | 2014-01-23 | Peilin LIN | Control device for electronic skipping rope and control system thereof |
KR101361117B1 (ko) * | 2011-11-29 | 2014-02-24 | 주식회사 라이프사이언스테크놀로지 | 생체정보 획득을 통한 운동관리 줄넘기 및 이를 이용한 운동관리방법 |
CN104436518A (zh) * | 2014-08-13 | 2015-03-25 | 周霞 | 一种可模拟跳绳的装置 |
CN106512285A (zh) * | 2016-12-22 | 2017-03-22 | 盐城工学院 | 一种跳绳和跳绳计数方法 |
CN107103298A (zh) * | 2017-04-21 | 2017-08-29 | 桂林电子科技大学 | 基于图像处理的引体向上计数系统及计数方法 |
CN206730467U (zh) * | 2017-04-28 | 2017-12-12 | 汪梦祺 | 一种远距离无接触跳绳计数器 |
CN108355340A (zh) * | 2018-02-06 | 2018-08-03 | 浙江大学 | 一种基于视频信息的拍球计数方法 |
CN108653974A (zh) * | 2018-05-11 | 2018-10-16 | 珠海云麦科技有限公司 | 一种带数据分析的智能跳绳 |
CN109758716A (zh) * | 2019-03-26 | 2019-05-17 | 林叶蓁 | 一种基于声音信息的跳绳计数方法 |
-
2019
- 2019-05-24 CN CN201910439892.8A patent/CN110210360B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7976438B1 (en) * | 2010-05-26 | 2011-07-12 | Chi-Kun Hsu | Jump rope grip assembly having adjustable weight and number counting function |
US20140024498A1 (en) * | 2011-03-31 | 2014-01-23 | Peilin LIN | Control device for electronic skipping rope and control system thereof |
KR101361117B1 (ko) * | 2011-11-29 | 2014-02-24 | 주식회사 라이프사이언스테크놀로지 | 생체정보 획득을 통한 운동관리 줄넘기 및 이를 이용한 운동관리방법 |
CN103386181A (zh) * | 2013-07-25 | 2013-11-13 | Tcl通讯(宁波)有限公司 | 一种移动终端及该终端的跳绳计数方法 |
CN104436518A (zh) * | 2014-08-13 | 2015-03-25 | 周霞 | 一种可模拟跳绳的装置 |
CN106512285A (zh) * | 2016-12-22 | 2017-03-22 | 盐城工学院 | 一种跳绳和跳绳计数方法 |
CN107103298A (zh) * | 2017-04-21 | 2017-08-29 | 桂林电子科技大学 | 基于图像处理的引体向上计数系统及计数方法 |
CN206730467U (zh) * | 2017-04-28 | 2017-12-12 | 汪梦祺 | 一种远距离无接触跳绳计数器 |
CN108355340A (zh) * | 2018-02-06 | 2018-08-03 | 浙江大学 | 一种基于视频信息的拍球计数方法 |
CN108653974A (zh) * | 2018-05-11 | 2018-10-16 | 珠海云麦科技有限公司 | 一种带数据分析的智能跳绳 |
CN109758716A (zh) * | 2019-03-26 | 2019-05-17 | 林叶蓁 | 一种基于声音信息的跳绳计数方法 |
Non-Patent Citations (3)
Title |
---|
HELEN MELANDER等: "Knowing how to play the game of jump rope: Participation and stancetaking in a material environment", 《JOURNAL: JOURNAL OF PRAGMATICS》 * |
罗云: "智能跳绳测评系统的设计与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
黄知超等: "一种基于机器视觉的引体向上计数方法", 《电视技术》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113902084A (zh) * | 2020-07-06 | 2022-01-07 | 阿里体育有限公司 | 运动计数方法、装置、电子设备及计算机存储介质 |
CN112044046B (zh) * | 2020-08-28 | 2021-06-25 | 浙江大学 | 基于深度学习的跳绳计数方法 |
CN112044046A (zh) * | 2020-08-28 | 2020-12-08 | 浙江大学 | 基于深度学习的跳绳计数方法 |
CN112044047A (zh) * | 2020-08-28 | 2020-12-08 | 浙江大学 | 基于多目标跟踪的跳绳计数方法 |
CN112396001A (zh) * | 2020-11-20 | 2021-02-23 | 安徽一视科技有限公司 | 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法 |
CN112528876A (zh) * | 2020-12-15 | 2021-03-19 | 中国计量大学 | 一种基于人脸检测的蹲起计数方法 |
CN112528877A (zh) * | 2020-12-15 | 2021-03-19 | 中国计量大学 | 一种基于人脸识别的蹲起计数方法 |
CN112528877B (zh) * | 2020-12-15 | 2023-09-01 | 中国计量大学 | 一种基于人脸识别的蹲起计数方法 |
CN112528876B (zh) * | 2020-12-15 | 2023-10-13 | 中国计量大学 | 一种基于人脸检测的蹲起计数方法 |
CN112634400A (zh) * | 2020-12-21 | 2021-04-09 | 浙江大华技术股份有限公司 | 一种跳绳计数方法、终端及其计算机可读存储介质 |
CN114640753A (zh) * | 2022-04-01 | 2022-06-17 | 北京市疾病预防控制中心 | 基于实验视频处理的线虫咽泵运动频率自动识别方法 |
CN114640753B (zh) * | 2022-04-01 | 2023-10-27 | 北京市疾病预防控制中心 | 基于实验视频处理的线虫咽泵运动频率自动识别方法 |
CN115282585A (zh) * | 2022-08-04 | 2022-11-04 | 光彻科技(杭州)有限公司 | 一种新型跳绳计数方法、装置、电子设备及可读存储介质 |
CN115546291A (zh) * | 2022-11-28 | 2022-12-30 | 成都怡康科技有限公司 | 一种跳绳计数方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110210360B (zh) | 2021-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110210360A (zh) | 一种基于视频图像目标识别的跳绳计数方法 | |
CN110152273A (zh) | 一种基于智能目标识别的跳绳计数方法 | |
CN106682601B (zh) | 一种基于多维信息特征融合的驾驶员违规通话检测方法 | |
CN106951870B (zh) | 主动视觉注意的监控视频显著事件智能检测预警方法 | |
CN104331151B (zh) | 基于光流法的手势运动方向识别方法 | |
CN103942539B (zh) | 一种人头部椭圆精确高效提取及遮蔽人脸检测方法 | |
CN102324025B (zh) | 基于高斯肤色模型和特征分析的人脸检测与跟踪方法 | |
CN108549884A (zh) | 一种活体检测方法及装置 | |
CN107220624A (zh) | 一种基于Adaboost算法的人脸检测方法 | |
EP1970859B1 (en) | Detecting method and detecting system for positions of face parts | |
CN105493141B (zh) | 非结构化道路边界检测 | |
CN109939432A (zh) | 一种智能跳绳计数方法 | |
CN107103606A (zh) | 一种图像识别方法及装置 | |
CN103098078A (zh) | 笑容检测系统及方法 | |
CN110175530A (zh) | 一种基于人脸的图像评分方法及系统 | |
CN109876416A (zh) | 一种基于图像信息的跳绳计数方法 | |
CN103218615B (zh) | 人脸判定方法 | |
CN108197534A (zh) | 一种人头部姿态检测方法、电子设备及存储介质 | |
CN110321753A (zh) | 一种基于人脸几何特征的人脸图像质量评价方法 | |
CN107154058A (zh) | 一种引导使用者还原魔方的方法 | |
CN109711309A (zh) | 一种自动识别人像图片是否闭眼的方法 | |
US11484752B2 (en) | Jump counting method for jump rope | |
CN107153806B (zh) | 一种人脸检测方法及装置 | |
CN111709305A (zh) | 一种基于局部图像块的人脸年龄识别方法 | |
CN107103301A (zh) | 视频目标时空最大稳定性判别性颜色区域匹配方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |