CN108090421A - 一种运动员竞技能力分析方法 - Google Patents

一种运动员竞技能力分析方法 Download PDF

Info

Publication number
CN108090421A
CN108090421A CN201711244272.6A CN201711244272A CN108090421A CN 108090421 A CN108090421 A CN 108090421A CN 201711244272 A CN201711244272 A CN 201711244272A CN 108090421 A CN108090421 A CN 108090421A
Authority
CN
China
Prior art keywords
mrow
msub
msubsup
msup
mtd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711244272.6A
Other languages
English (en)
Other versions
CN108090421B (zh
Inventor
李超
吴琦
肖潇
龚纯斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vision (shenzhen) Algorithm Technology Co Ltd
Original Assignee
Vision (shenzhen) Algorithm Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vision (shenzhen) Algorithm Technology Co Ltd filed Critical Vision (shenzhen) Algorithm Technology Co Ltd
Priority to CN201711244272.6A priority Critical patent/CN108090421B/zh
Publication of CN108090421A publication Critical patent/CN108090421A/zh
Application granted granted Critical
Publication of CN108090421B publication Critical patent/CN108090421B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Nitrogen And Oxygen Or Sulfur-Condensed Heterocyclic Ring Systems (AREA)

Abstract

本发明公开一种运动员竞技能力分析方法,包括如下步骤:步骤1,架设视野覆盖整个球场的摄像头,获取整个球场的全局图像;步骤2,运动员穿着有明显序号标识的服装,利用目标跟踪模块得到每个运动员和球在图像中的实时位置坐标;步骤3,根据位置坐标,得到运动员和球的速度以及加速度数据;步骤4,根据步骤3得到的数据,分析运动员的竞技指标。此种方法利用非接触式的摄像头检测方法分析运动员竞技能力,取代传统的佩戴传感器方案,并使用新的目标检测以及跟踪方法分析运动员能力,自动计算各运动员的客观竞技能力,鲁棒性较好,检测准确率较高。

Description

一种运动员竞技能力分析方法
技术领域
本发明属于图像视频处理技术领域,特别涉及一种基于视频的运动员竞技能力分析方法。
背景技术
目前各种体育竞技项目发展迅猛,比如足球、篮球、排球等团体竞技项目越来越普遍,为了提升团体竞技水平,需要每个运动员都有很好的竞技能力。关于如何从比赛中分析运动员竞技能力的方法目前还不够成熟。其中,基于教练肉眼分析运动员竞技能力的方法过于主观,教练很难同时兼顾所有运动员的状态,通过录制视频进行观看分析则十分耗时费力;另外,目前还有基于各种运动传感器的方法则装配麻烦,而且佩戴式的硬件还会给运动员带来不适,较大型的比赛也可能不允许运动员佩戴过多“异物”进入赛场,而且,运动传感器在竞技过程中很可能会有损耗,导致数据不精准,甚至无法获取数据。
如专利申请号201510159195.9“一种运动员竞技状态分析方法及系统”,采用了佩戴式的定位装置、加速度传感器,以及需要在球体中放置电子标签,还需要射频读取设备读取电子标签。设备多样繁杂,还有可能在运动中损坏,导致失灵。
基于此,非接触式的数据采集方法应运而生,例如基于视频的运动员竞技能力分析方法,只需要在场外架设摄像头,即可获得运动员的运动数据,并据此分析运动员的竞技状态和能力。
如专利号201610037305.9“一种对球赛视频中运动员进行跟踪的算法”,采用Hog+SVM等方法检测目标,其滑动窗口方法效率很低,传统的Hog特征也比较难适应复杂应用场景;采用CamShift等方法做跟踪,极易受到复杂背景的干扰,导致跟丢现象。
发明内容
本发明的目的,在于提供一种运动员竞技能力分析方法,其利用非接触式的摄像头检测方法分析运动员竞技能力,取代传统的佩戴传感器方案,并使用新的目标检测以及跟踪方法分析运动员能力,自动计算各运动员的客观竞技能力,鲁棒性较好,检测准确率较高。
为了达成上述目的,本发明的解决方案是:
一种运动员竞技能力分析方法,包括如下步骤:
步骤1,架设视野覆盖整个球场的摄像头,获取整个球场的全局图像;
步骤2,运动员穿着有明显序号标识的服装,利用目标跟踪模块得到每个运动员和球在图像中的实时位置坐标;
步骤3,根据位置坐标,得到运动员和球的速度以及加速度数据;
步骤4,根据步骤3得到的数据,分析运动员的竞技指标。
上述步骤2中,目标跟踪模块包含目标检测模型和多目标跟踪模型,目标检测模型定位运动员的位置,以此初始化多目标跟踪模型;多目标跟踪模型依据每个运动员的初始位置,连续跟踪视频中每帧图像运动员的位置变化。
上述目标检测模型的实现方法如下:将任意尺寸图片输入SPP网络,生成固定长度的多尺度CNN特征图,利用CNN特征图,同时训练分类网络和候选区域生成网络,实现端到端直接训练整个模型,代价函数如下:
其中,pi是预测某一区域有目标的概率,是此区域是否真实有目标的标签,有目标时值为1,反之为0;vi是区域坐标向量,是区域真实坐标标签;Lc为是否有目标的代价函数,Lr为候选区域生成代价函数;Nc是一个同步运算批量的大小,Nr是区域锚点坐标个数;λ是平衡参数;
展开式(1)中的两个代价函数,还有:
其中,x表示检测框中心x轴坐标,y表示检测框中心y轴坐标,w表示检测框宽度,h表示检测框高度。
上述多目标跟踪模型中,前后两帧的目标窗口之间的关系用投影来表示,假设前一帧投影到后一帧的相对运动信息表示为p*(d1,d2),则两者之间总的特征为:
其中,n(d1,d2)是总关键点个数,σ为正则参数,用来约束关键点个数的影响;
定义集合At为模型的每帧跟踪结果,集合为干净目标,表示不再变化的历史目标;假设集合:为每个干净目标的假设,模型表示如下:
能量函数:
式(6)中,Ψ代表干净目标与假设之间的匹配度,展开如下:
展开式(7)第一项,得到:
其中,si为检测置信度;
展开式(8),有:
其中,N代表相邻帧之间的时间距离;能够得到在ti时刻的关联性;αA(di,dj)=ωΔt·ρ(di,dj)代表两个检测之间的相关性;ωΔt为已学习模型参数;代表双向本地流函数,用来计算相距Δt的两帧之间的关联运动规律,其中ρ'为单方向流函数,n(di,dj)是正则化项;η是衰减因子;代表中的最后一帧;o2=2*IoU(di,dj)2,IoU代表两个检测框的重叠部分;p代表检测框的最小二乘预测结果;
继续展开式(7)第二项,有:
代表假设的前后一致性;
再展开式(7)第三项:
其中,γ、ε、θ均为标量参数;ξ代表两个检测框之间的平方距离;K代表两个检测框之间关联颜色直方图的交叉核;
式(6)中,Φ代表惩罚项,展开如下:
其中,α=0.5、β=100,Π代表指示函数。
上述步骤4中,针对不同的体育项目调整不同指标的权重值,假设目前只依据四项指标:传球成功率Sth,控球距离Cd,控球时长Ct,累计运动距离Ds,分别对应权重值W1-W4,那么总分为:
其中,传球成功率Sth,控球距离Cd,控球时长Ct,累计运动距离Ds均做归一化处理,数值范围在0到1之间。
采用上述方案后,本发明采用卷积特征和候选区域生成网络相结合的目标检测方法,使用卷积神经网络学习目标特征,并通过候选区域生成网络取代传统Hog+SVM采用的滑动窗口,检测效率有很大提升,其鲁棒性较好,检测准确率较高。此方法还可以根据类似的运动员图像数据进行优化训练,进一步提高检测的准确率;目标跟踪算法采用跟踪与检测相结合的多目标跟踪算法,通过数据关联解决多目标之间的匹配问题,利用关键点光流特征匹配每帧目标之间的相似度,结合运动估计减少遮挡造成的影响。
本发明通过摄像头获取视频数据,根据目标跟踪模块得到运动员状态信息,运动员无需佩戴任何电子设备,不会有设备损耗,只需要在场外架设摄像头即可以获取所需数据。基于视频的分析方法十分灵活,分析方法可以随着图像算法的进步而升级,无需硬件改动升级。
附图说明
图1是本发明的整体流程示意图。
具体实施方式
以下将结合附图,对本发明的技术方案进行详细说明。
如图1所示,本发明提供一种运动员竞技能力分析方法,其主要思路是:首先需要在场外架设足以覆盖全部球场的摄像头,可以是单个或多个摄像头,通过目标跟踪模块可以得到每个运动员的实时位置坐标,以及球的位置坐标,由此对时间进行求导,可以得到运动员和球的速度以及加速度数据。根据以上数据,可以分析运动员的多种竞技指标,包括运动总距离、运动速度、变速爆发能力等,结合球的数据可以得到控球能力、传接球准确率、击(射)球速度等信息。
本发明具体包括以下步骤:
步骤1,架设视野覆盖整个球场的单个或多个摄像头,通过数据采集模块融合摄像头信息,得到整个球场的全局图像。
步骤2,运动员需穿着正常的比赛服装,有明显序号标识;利用目标跟踪模块,可以得到每个运动员和球在整体图像中的坐标。
其中,目标跟踪模块包含目标检测模型、多目标跟踪模型这两个模型,目标检测模型先定位球员的位置,以此初始化多目标跟踪模型,多目标跟踪模型依据每个运动员的初始位置,连续跟踪视频中每帧图像运动员的位置变化。
目标检测模型的实现细节如下:通过使用SPP网络,可以输入任意尺寸图片,生成固定长度的多尺度CNN特征图,利用CNN特征图,同时训练分类网络和候选区域生成网络,可以端到端直接训练整个模型,代价函数如下:
其中,pi是预测某一区域有目标的概率,是此区域是否真实有目标的标签,有目标时值为1,反之为0;vi是区域坐标向量,是区域真实坐标标签;Lc为是否有目标的代价函数,Lr为候选区域生成代价函数;Nc是一个同步运算批量的大小,Nr是区域锚点坐标个数;λ是平衡参数,用来平衡分类和定位之间的关系,当Nc和Nr相差过大时,令即可平衡式(14)中两个代价函数的数值大小,使其对总代价函数的影响能力相近。
展开式(14)中的两个代价函数,还有:
其中,x表示检测框中心x轴坐标,y表示检测框中心y轴坐标,w表示检测框宽度,h表示检测框高度。
多目标跟踪模型中,前后两帧的目标窗口之间的关系用投影来表示,假设前一帧投影到后一帧的相对运动信息表示为p*(d1,d2),则两者之间总的特征为:
其中,n(d1,d2)是总关键点个数,σ为正则参数,用来约束关键点个数的影响。
我们定义集合At为本模型的每帧跟踪结果,集合为干净目标,表示不再变化的历史目标。假设集合:为每个干净目标的假设。模型训练的目的是让假设集合不断逼近真实集合,模型可以表示如下:
能量函数:
式(19)中,Ψ代表干净目标与假设之间的匹配度,展开如下:
展开式(20)第一项,得到:
其中,si为检测置信度。
展开式(21),有:
其中,N代表相邻帧之间的时间距离;可以得到在ti时刻的关联性;αA(di,dj)=ωΔt·ρ(di,dj)代表两个检测之间的相关性;ωΔt为已学习模型参数;代表双向本地流函数,用来计算相距Δt的两帧之间的关联运动规律,其中ρ'为单方向流函数,n(di,dj)是正则化项;η是衰减因子,设置为0.98,用来减少长期预测的影响;代表中的最后一帧;o2=2*IoU(di,dj)2,IoU代表两个检测框的重叠部分;p代表检测框的最小二乘预测结果。
继续展开式(20)第二项,有:
代表假设的前后一致性。
再展开式(20)第三项:
其中,γ、ε、θ均为标量参数,可以分别置为20、0.4、0.8;ξ代表两个检测框之间的平方距离;K代表两个检测框之间关联颜色直方图的交叉核。
式(19)中,Φ代表惩罚项,展开如下:
其中,α=0.5、β=100,Π代表指示函数。
步骤3,通过数据分析模块,可以计算得到运动员的速度、加速度等信息。由基础物理知识可得:瞬时速度平均速度平均加速度当t1和t2时间相差不大时,计算得到的平均速度和平均加速度可以当成瞬时值。
步骤4,根据以上基本坐标、速度信息,可以得出更多高级的竞技指标。例如:已知球和运动员的位置信息,若两者之间的距离满足设定阈值,即可判定运动员正在控球,由此可以得到运动员的控球时长、控球距离。当控球人变化时,可以知道上一个控球人是否成功传球给自己的队员,以此统计传球成功率。同时还可以统计运动员的截断球次数;对于门前进攻射球(投篮),可以统计运动员的射球(投篮)次数,计算球速等;对于足球守门员,还可以统计扑救球的次数;每个运动员都能自动统计在赛场中的得分。
从以上竞技指标,可以分析运动员的综合竞技能力,教练可以针对不同的体育项目自行调整不同指标的权重值,假设目前只依据四项指标:传球成功率Sth,控球距离Cd,控球时长Ct,累计运动距离Ds,他们对应都有一个权重值Wn,n=1,2,3,4,那么总分为:
比如教练比较看重球员传球成功率时,可以将W1设置为较大值,其余W2-W4设置为较小值,按需调整。其中各项指标参数均已做归一化,数值范围在0到1之间。
以此作为基准,本发明可以自动得到运动员综合竞技能力的排名列表,以及每个运动员的各参数指标的统计数据及其统计图。根据单项也可以得出统计排名,如球员得分排名、球员投球准确率排名、球员射门次数排名等等。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

Claims (5)

1.一种运动员竞技能力分析方法,其特征在于包括如下步骤:
步骤1,架设视野覆盖整个球场的摄像头,获取整个球场的全局图像;
步骤2,运动员穿着有明显序号标识的服装,利用目标跟踪模块得到每个运动员和球在图像中的实时位置坐标;
步骤3,根据位置坐标,得到运动员和球的速度以及加速度数据;
步骤4,根据步骤3得到的数据,分析运动员的竞技指标。
2.如权利要求1所述的一种运动员竞技能力分析方法,其特征在于:所述步骤2中,目标跟踪模块包含目标检测模型和多目标跟踪模型,目标检测模型定位运动员的位置,以此初始化多目标跟踪模型;多目标跟踪模型依据每个运动员的初始位置,连续跟踪视频中每帧图像运动员的位置变化。
3.如权利要求2所述的一种运动员竞技能力分析方法,其特征在于:所述目标检测模型的实现方法如下:将任意尺寸图片输入SPP网络,生成固定长度的多尺度CNN特征图,利用CNN特征图,同时训练分类网络和候选区域生成网络,实现端到端直接训练整个模型,代价函数如下:
<mrow> <mi>L</mi> <mrow> <mo>(</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <msub> <mi>N</mi> <mi>c</mi> </msub> </mfrac> <munder> <mo>&amp;Sigma;</mo> <mi>i</mi> </munder> <msub> <mi>L</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>,</mo> <msubsup> <mi>p</mi> <mi>i</mi> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> <mo>+</mo> <mi>&amp;lambda;</mi> <mfrac> <mn>1</mn> <msub> <mi>N</mi> <mi>r</mi> </msub> </mfrac> <munder> <mo>&amp;Sigma;</mo> <mi>i</mi> </munder> <msubsup> <mi>p</mi> <mi>i</mi> <mo>*</mo> </msubsup> <msub> <mi>L</mi> <mi>r</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>,</mo> <msubsup> <mi>v</mi> <mi>i</mi> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中,pi是预测某一区域有目标的概率,是此区域是否真实有目标的标签,有目标时值为1,反之为0;vi是区域坐标向量,是区域真实坐标标签;Lc为是否有目标的代价函数,Lr为候选区域生成代价函数;Nc是一个同步运算批量的大小,Nr是区域锚点坐标个数;λ是平衡参数;
展开式(1)中的两个代价函数,还有:
<mrow> <msub> <mi>L</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>,</mo> <msubsup> <mi>p</mi> <mi>i</mi> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <msubsup> <mi>p</mi> <mi>i</mi> <mo>*</mo> </msubsup> <mi>l</mi> <mi>o</mi> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msubsup> <mi>p</mi> <mi>i</mi> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> <mi>l</mi> <mi>o</mi> <mi>g</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>L</mi> <mi>r</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>,</mo> <msubsup> <mi>v</mi> <mi>i</mi> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <mo>{</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>w</mi> <mo>,</mo> <mi>h</mi> <mo>}</mo> </mrow> </munder> <msub> <mi>smooth</mi> <msub> <mi>L</mi> <mn>1</mn> </msub> </msub> <mrow> <mo>(</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>-</mo> <msubsup> <mi>v</mi> <mi>i</mi> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>smooth</mi> <msub> <mi>L</mi> <mn>1</mn> </msub> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>0.5</mn> <msup> <mi>x</mi> <mn>2</mn> </msup> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mo>|</mo> <mi>x</mi> <mo>|</mo> <mo>&lt;</mo> <mn>1</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>|</mo> <mi>x</mi> <mo>|</mo> <mo>-</mo> <mn>0.5</mn> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
其中,x表示检测框中心x轴坐标,y表示检测框中心y轴坐标,w表示检测框宽度,h表示检测框高度。
4.如权利要求2所述的一种运动员竞技能力分析方法,其特征在于:所述多目标跟踪模型中,前后两帧的目标窗口之间的关系用投影来表示,假设前一帧投影到后一帧的相对运动信息表示为p*(d1,d2),则两者之间总的特征为:
<mrow> <mi>p</mi> <mrow> <mo>(</mo> <msub> <mi>d</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>d</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msup> <mi>p</mi> <mo>*</mo> </msup> <mrow> <mo>(</mo> <msub> <mi>d</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>d</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msup> <mi>p</mi> <mo>*</mo> </msup> <mrow> <mo>(</mo> <msub> <mi>d</mi> <mn>2</mn> </msub> <mo>,</mo> <msub> <mi>d</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>d</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>d</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mi>&amp;sigma;</mi> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中,n(d1,d2)是总关键点个数,σ为正则参数,用来约束关键点个数的影响;
定义集合At为模型的每帧跟踪结果,集合为干净目标,表示不再变化的历史目标;假设集合:为每个干净目标的假设,模型表示如下:
能量函数:
式(6)中,Ψ代表干净目标与假设之间的匹配度,展开如下:
<mrow> <mi>&amp;Psi;</mi> <mrow> <mo>(</mo> <msubsup> <mi>A</mi> <mi>m</mi> <mrow> <mo>*</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>H</mi> <mrow> <mi>m</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> </mrow> <mi>t</mi> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <msubsup> <mi>H</mi> <mrow> <mi>m</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> </mrow> <mi>t</mi> </msubsup> </mrow> </munder> <msub> <mi>&amp;psi;</mi> <mi>u</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>A</mi> <mi>m</mi> <mrow> <mo>*</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mo>,</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> <mo>&amp;Element;</mo> <msubsup> <mi>H</mi> <mrow> <mi>m</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> </mrow> <mi>t</mi> </msubsup> </mrow> </munder> <msub> <mi>&amp;psi;</mi> <mi>p</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>d</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>&amp;psi;</mi> <mi>h</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>A</mi> <mi>m</mi> <mrow> <mo>*</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>H</mi> <mrow> <mi>m</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> </mrow> <mi>t</mi> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
展开式(7)第一项,得到:
<mrow> <msub> <mi>&amp;psi;</mi> <mi>u</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>A</mi> <mi>m</mi> <mrow> <mo>*</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mo>,</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;mu;</mi> <mi>A</mi> </msub> <mo>(</mo> <mrow> <msubsup> <mi>A</mi> <mi>m</mi> <mrow> <mo>*</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mo>,</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> <mo>,</mo> <msub> <mi>&amp;mu;</mi> <mi>T</mi> </msub> <mo>(</mo> <mrow> <msubsup> <mi>A</mi> <mi>m</mi> <mrow> <mo>*</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mo>,</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
其中,si为检测置信度;
展开式(8),有:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>&amp;mu;</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <msup> <msubsup> <mi>A</mi> <mi>m</mi> <mo>*</mo> </msubsup> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>,</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>&amp;Delta;</mi> <mi>t</mi> <mo>&amp;Element;</mo> <mi>N</mi> </mrow> </munder> <msub> <mi>a</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <mi>d</mi> <mo>(</mo> <mrow> <msup> <msubsup> <mi>A</mi> <mi>m</mi> <mo>*</mo> </msubsup> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>,</mo> <msub> <mi>t</mi> <mi>i</mi> </msub> <mo>-</mo> <mi>&amp;Delta;</mi> <mi>t</mi> </mrow> <mo>)</mo> <mo>,</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>&amp;mu;</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <msup> <msubsup> <mi>A</mi> <mi>m</mi> <mo>*</mo> </msubsup> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>,</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mi>&amp;infin;</mi> </mtd> <mtd> <mrow> <msup> <mi>ifo</mi> <mn>2</mn> </msup> <mrow> <mo>(</mo> <mi>p</mi> <mo>(</mo> <mrow> <msup> <msubsup> <mi>A</mi> <mi>m</mi> <mo>*</mo> </msubsup> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>,</mo> <msub> <mi>t</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> <mo>,</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>&lt;</mo> <mn>0.5</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <msup> <mi>&amp;eta;</mi> <mrow> <msub> <mi>t</mi> <mi>i</mi> </msub> <mo>-</mo> <mi>f</mi> <mrow> <mo>(</mo> <msup> <msubsup> <mi>A</mi> <mi>m</mi> <mo>*</mo> </msubsup> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>)</mo> </mrow> </mrow> </msup> <msup> <mi>o</mi> <mn>2</mn> </msup> <mrow> <mo>(</mo> <mi>p</mi> <mo>(</mo> <mrow> <msup> <msubsup> <mi>A</mi> <mi>m</mi> <mo>*</mo> </msubsup> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>,</mo> <msub> <mi>t</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> <mo>,</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
其中,N代表相邻帧之间的时间距离;能够得到在ti时刻的关联性;αA(di,dj)=ωΔt·ρ(di,dj)代表两个检测之间的相关性;ωΔt为已学习模型参数;代表双向本地流函数,用来计算相距Δt的两帧之间的关联运动规律,其中ρ'为单方向流函数,n(di,dj)是正则化项;η是衰减因子;代表中的最后一帧;o2=2*IoU(di,dj)2,IoU代表两个检测框的重叠部分;p代表检测框的最小二乘预测结果;
继续展开式(7)第二项,有:
<mrow> <msub> <mi>&amp;psi;</mi> <mi>p</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>d</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mo>-</mo> <msub> <mi>a</mi> <mi>A</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>d</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mo>|</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>d</mi> <mi>j</mi> </msub> <mo>|</mo> <mo>&amp;Element;</mo> <mi>N</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
代表假设的前后一致性;
再展开式(7)第三项:
<mrow> <msub> <mi>&amp;psi;</mi> <mi>h</mi> </msub> <mrow> <mo>(</mo> <msup> <msubsup> <mi>A</mi> <mi>m</mi> <mo>*</mo> </msubsup> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>,</mo> <msubsup> <mi>H</mi> <mrow> <mi>m</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> </mrow> <mi>t</mi> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mi>&amp;gamma;</mi> <mo>&amp;CenterDot;</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <msubsup> <mi>H</mi> <mrow> <mi>m</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> </mrow> <mi>t</mi> </msubsup> </mrow> </munder> <mi>&amp;xi;</mi> <mrow> <mo>(</mo> <mrow> <mi>p</mi> <mrow> <mo>(</mo> <mrow> <msup> <msubsup> <mi>A</mi> <mi>m</mi> <mo>*</mo> </msubsup> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>&amp;cup;</mo> <msubsup> <mi>H</mi> <mrow> <mi>m</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> </mrow> <mi>t</mi> </msubsup> <mo>,</mo> <msub> <mi>t</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>,</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>+</mo> <mi>&amp;epsiv;</mi> <mo>&amp;CenterDot;</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> <mo>&amp;Element;</mo> <msup> <msubsup> <mi>A</mi> <mi>m</mi> <mo>*</mo> </msubsup> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>&amp;cup;</mo> <msubsup> <mi>H</mi> <mrow> <mi>m</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> </mrow> <mi>t</mi> </msubsup> </mrow> </munder> <mi>&amp;theta;</mi> <mo>-</mo> <mi>K</mi> <mrow> <mo>(</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>d</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
其中,γ、ε、θ均为标量参数;ξ代表两个检测框之间的平方距离;K代表两个检测框之间关联颜色直方图的交叉核;
式(6)中,Φ代表惩罚项,展开如下:
<mrow> <mtable> <mtr> <mtd> <mrow> <mi>&amp;Phi;</mi> <mrow> <mo>(</mo> <msubsup> <mi>H</mi> <mrow> <mi>m</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> </mrow> <mi>t</mi> </msubsup> <mo>,</mo> <msubsup> <mi>H</mi> <mrow> <mi>l</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>l</mi> </msub> </mrow> <mi>t</mi> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>f</mi> <mo>=</mo> <mi>t</mi> <mo>-</mo> <mi>&amp;tau;</mi> </mrow> <mi>t</mi> </munderover> <mi>&amp;alpha;</mi> <mo>&amp;CenterDot;</mo> <msup> <mi>o</mi> <mn>2</mn> </msup> <mrow> <mo>(</mo> <mi>d</mi> <mo>(</mo> <mrow> <msubsup> <mi>H</mi> <mrow> <mi>m</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> </mrow> <mi>t</mi> </msubsup> <mo>,</mo> <mi>t</mi> </mrow> <mo>)</mo> <mo>,</mo> <mi>d</mi> <mo>(</mo> <mrow> <msubsup> <mi>H</mi> <mrow> <mi>l</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>l</mi> </msub> </mrow> <mi>t</mi> </msubsup> <mo>,</mo> <mi>t</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>+</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>&amp;beta;</mi> <mo>&amp;CenterDot;</mo> <mo>&amp;Pi;</mo> <mrow> <mo>(</mo> <mi>d</mi> <mo>(</mo> <mrow> <msubsup> <mi>H</mi> <mrow> <mi>m</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> </mrow> <mi>t</mi> </msubsup> <mo>,</mo> <mi>t</mi> </mrow> <mo>)</mo> <mo>,</mo> <mi>d</mi> <mo>(</mo> <mrow> <msubsup> <mi>H</mi> <mrow> <mi>l</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>l</mi> </msub> </mrow> <mi>t</mi> </msubsup> <mo>,</mo> <mi>t</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>12</mn> <mo>)</mo> </mrow> </mrow>
其中,α=0.5、β=100,Π代表指示函数。
5.如权利要求1所述的一种运动员竞技能力分析方法,其特征在于:所述步骤4中,针对不同的体育项目调整不同指标的权重值,假设目前只依据四项指标:传球成功率Sth,控球距离Cd,控球时长Ct,累计运动距离Ds,分别对应权重值W1-W4,那么总分为:
<mrow> <mi>S</mi> <mi>c</mi> <mi>o</mi> <mi>r</mi> <mi>e</mi> <mo>=</mo> <mfrac> <mrow> <msub> <mi>S</mi> <mrow> <mi>t</mi> <mi>h</mi> </mrow> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>W</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>C</mi> <mi>d</mi> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>W</mi> <mn>2</mn> </msub> <mo>+</mo> <msub> <mi>C</mi> <mi>t</mi> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>W</mi> <mn>3</mn> </msub> <mo>+</mo> <msub> <mi>D</mi> <mi>s</mi> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>W</mi> <mn>4</mn> </msub> </mrow> <mrow> <msub> <mi>W</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>W</mi> <mn>2</mn> </msub> <mo>+</mo> <msub> <mi>W</mi> <mn>3</mn> </msub> <mo>+</mo> <msub> <mi>W</mi> <mn>4</mn> </msub> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>13</mn> <mo>)</mo> </mrow> </mrow>
其中,传球成功率Sth,控球距离Cd,控球时长Ct,累计运动距离Ds均做归一化处理,数值范围在0到1之间。
CN201711244272.6A 2017-11-30 2017-11-30 一种运动员竞技能力分析方法 Active CN108090421B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711244272.6A CN108090421B (zh) 2017-11-30 2017-11-30 一种运动员竞技能力分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711244272.6A CN108090421B (zh) 2017-11-30 2017-11-30 一种运动员竞技能力分析方法

Publications (2)

Publication Number Publication Date
CN108090421A true CN108090421A (zh) 2018-05-29
CN108090421B CN108090421B (zh) 2021-10-08

Family

ID=62173510

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711244272.6A Active CN108090421B (zh) 2017-11-30 2017-11-30 一种运动员竞技能力分析方法

Country Status (1)

Country Link
CN (1) CN108090421B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108905095A (zh) * 2018-08-06 2018-11-30 百度在线网络技术(北京)有限公司 运动员比赛状态评估方法和设备
CN109126100A (zh) * 2018-08-29 2019-01-04 北京字节跳动网络技术有限公司 控球率计算方法、装置、设备及存储介质
CN109448025A (zh) * 2018-11-09 2019-03-08 国家体育总局体育科学研究所 视频中短道速滑运动员的自动跟踪与轨迹建模方法
CN110276309A (zh) * 2019-06-25 2019-09-24 新华智云科技有限公司 视频处理方法、装置、计算机设备及存储介质
CN110929595A (zh) * 2019-11-07 2020-03-27 河海大学 一种基于人工智能的有球无球训练或娱乐系统及方法
CN112070795A (zh) * 2020-09-14 2020-12-11 北京首钢建设投资有限公司 运动员跟踪方法及系统
CN112957712A (zh) * 2021-02-05 2021-06-15 北京深蓝长盛科技有限公司 排球运动中主攻队员扣球数据的统计方法和装置及设备
CN113191557A (zh) * 2021-05-08 2021-07-30 李仕嘉 一种铁饼飞行距离预测方法及智能铁饼
CN113544697A (zh) * 2019-03-01 2021-10-22 斯塔特斯公司 用数据和身体姿态分析运动表现以对表现进行个性化预测
CN113888581A (zh) * 2021-10-13 2022-01-04 根尖体育科技(北京)有限公司 基于多模态的移动目标实时跟踪定位系统和方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103745483A (zh) * 2013-12-20 2014-04-23 成都体育学院 一种基于球场比赛视频图像的移动目标位置自动检测方法
US20140169663A1 (en) * 2012-12-19 2014-06-19 Futurewei Technologies, Inc. System and Method for Video Detection and Tracking
CN103959093A (zh) * 2011-09-20 2014-07-30 埃朗根-纽伦堡弗里德里希-亚力山大大学 用于检测体育对象的与使用者有关的状态的系统和方法
CN104707325A (zh) * 2007-11-30 2015-06-17 耐克创新有限合伙公司 运动训练方法
CN104881882A (zh) * 2015-04-17 2015-09-02 广西科技大学 一种运动目标跟踪与检测方法
CN105046220A (zh) * 2015-07-10 2015-11-11 华为技术有限公司 一种多目标跟踪方法、装置及设备
CN105631399A (zh) * 2014-11-26 2016-06-01 泽普实验室公司 用于体育视频识别的快速对象跟踪框架
CN106022239A (zh) * 2016-05-13 2016-10-12 电子科技大学 一种基于循环神经网络的多目标跟踪方法
CN106462940A (zh) * 2014-10-09 2017-02-22 微软技术许可有限责任公司 图像中通用对象检测
CN106991359A (zh) * 2016-01-20 2017-07-28 上海慧体网络科技有限公司 一种在全景模式下对球赛视频中篮球进行跟踪的算法
CN106991356A (zh) * 2016-01-20 2017-07-28 上海慧体网络科技有限公司 一种对球赛视频中运动员进行跟踪的算法
CN106991685A (zh) * 2016-01-20 2017-07-28 上海慧体网络科技有限公司 一种在全景模式下对球赛视频中足球进行跟踪的算法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104707325A (zh) * 2007-11-30 2015-06-17 耐克创新有限合伙公司 运动训练方法
CN103959093A (zh) * 2011-09-20 2014-07-30 埃朗根-纽伦堡弗里德里希-亚力山大大学 用于检测体育对象的与使用者有关的状态的系统和方法
US20140169663A1 (en) * 2012-12-19 2014-06-19 Futurewei Technologies, Inc. System and Method for Video Detection and Tracking
CN103745483A (zh) * 2013-12-20 2014-04-23 成都体育学院 一种基于球场比赛视频图像的移动目标位置自动检测方法
CN106462940A (zh) * 2014-10-09 2017-02-22 微软技术许可有限责任公司 图像中通用对象检测
CN105631399A (zh) * 2014-11-26 2016-06-01 泽普实验室公司 用于体育视频识别的快速对象跟踪框架
CN104881882A (zh) * 2015-04-17 2015-09-02 广西科技大学 一种运动目标跟踪与检测方法
CN105046220A (zh) * 2015-07-10 2015-11-11 华为技术有限公司 一种多目标跟踪方法、装置及设备
CN106991359A (zh) * 2016-01-20 2017-07-28 上海慧体网络科技有限公司 一种在全景模式下对球赛视频中篮球进行跟踪的算法
CN106991356A (zh) * 2016-01-20 2017-07-28 上海慧体网络科技有限公司 一种对球赛视频中运动员进行跟踪的算法
CN106991685A (zh) * 2016-01-20 2017-07-28 上海慧体网络科技有限公司 一种在全景模式下对球赛视频中足球进行跟踪的算法
CN106022239A (zh) * 2016-05-13 2016-10-12 电子科技大学 一种基于循环神经网络的多目标跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KAIMING HE等: "Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition", 《 IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
ROSS GIRSHICK: "Fast R-CNN", 《ICCV》 *
SHAOQING REN等: "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
王智文等: "基于尺度自适应局部时空特征的足球比赛视频中的多运动员行为表示", 《计算机应用》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108905095A (zh) * 2018-08-06 2018-11-30 百度在线网络技术(北京)有限公司 运动员比赛状态评估方法和设备
CN109126100A (zh) * 2018-08-29 2019-01-04 北京字节跳动网络技术有限公司 控球率计算方法、装置、设备及存储介质
CN109448025A (zh) * 2018-11-09 2019-03-08 国家体育总局体育科学研究所 视频中短道速滑运动员的自动跟踪与轨迹建模方法
CN109448025B (zh) * 2018-11-09 2020-06-30 国家体育总局体育科学研究所 视频中短道速滑运动员的自动跟踪与轨迹建模方法
CN113544697A (zh) * 2019-03-01 2021-10-22 斯塔特斯公司 用数据和身体姿态分析运动表现以对表现进行个性化预测
CN110276309A (zh) * 2019-06-25 2019-09-24 新华智云科技有限公司 视频处理方法、装置、计算机设备及存储介质
CN110276309B (zh) * 2019-06-25 2021-05-28 新华智云科技有限公司 视频处理方法、装置、计算机设备及存储介质
CN110929595A (zh) * 2019-11-07 2020-03-27 河海大学 一种基于人工智能的有球无球训练或娱乐系统及方法
CN112070795A (zh) * 2020-09-14 2020-12-11 北京首钢建设投资有限公司 运动员跟踪方法及系统
CN112957712A (zh) * 2021-02-05 2021-06-15 北京深蓝长盛科技有限公司 排球运动中主攻队员扣球数据的统计方法和装置及设备
CN112957712B (zh) * 2021-02-05 2021-11-30 北京深蓝长盛科技有限公司 排球运动中主攻队员扣球数据的统计方法和装置及设备
CN113191557A (zh) * 2021-05-08 2021-07-30 李仕嘉 一种铁饼飞行距离预测方法及智能铁饼
CN113191557B (zh) * 2021-05-08 2024-02-02 李仕嘉 一种铁饼飞行距离预测方法及智能铁饼
CN113888581A (zh) * 2021-10-13 2022-01-04 根尖体育科技(北京)有限公司 基于多模态的移动目标实时跟踪定位系统和方法

Also Published As

Publication number Publication date
CN108090421B (zh) 2021-10-08

Similar Documents

Publication Publication Date Title
CN108090421A (zh) 一种运动员竞技能力分析方法
US11842572B2 (en) Device, system, and method of computer vision, object tracking, image analysis, and trajectory estimation
Rana et al. Wearable sensors for real-time kinematics analysis in sports: A review
US11193840B1 (en) Wearable user input device and sensor system for sports training
CN109862949B (zh) 用于评估篮球投射表现的系统
Li et al. Application of artificial intelligence in basketball sport
US10369445B2 (en) Video analytics for human performance
JP2016208516A (ja) 人物の活動の映像内のフレームをイベントに関連付けるための方法およびデバイス
CN111444890A (zh) 一种基于机器学习的体育数据分析系统和方法
Groh et al. IMU-based trick classification in skateboarding
WO2018122956A1 (ja) スポーツ動作解析支援システム、方法およびプログラム
Weeratunga et al. Application of computer vision and vector space model for tactical movement classification in badminton
Hu et al. Basketball activity classification based on upper body kinematics and dynamic time warping
Iyer et al. Automated third umpire decision making in cricket using machine learning techniques
CN113975775B (zh) 可穿戴式惯性体感乒乓运动训练系统及其工作方法
Shahar et al. Wearable inertial sensor for human activity recognition in field hockey: Influence of sensor combination and sensor location
Liu et al. A survey on location and motion tracking technologies, methodologies and applications in precision sports
CN107330918A (zh) 一种基于在线多示例学习的足球视频球员跟踪方法
Wang et al. Analyzing the feature extraction of football player’s offense action using machine vision, big data, and internet of things
Ju et al. Trajectory-based Badminton Shots Detection
Neher et al. Hyperstacknet: A hyper stacked hourglass deep convolutional neural network architecture for joint player and stick pose estimation in hockey
Chatterjee et al. An AI Approach to Pose-based Sports Activity Classification
Kuruppu et al. Comparison of different template matching algorithms in high speed sports motion tracking
Shin et al. A study on motion analysis of an artistic gymnastics by using dynamic image processing-for a development of automatic scoring system of horizontal bar
Sattar et al. Body sensor networks for monitoring performances in sports: A brief overview and some new thoughts.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant