CN111950407B - 基于沉浸式的羽毛球轨迹分析方法和系统 - Google Patents

基于沉浸式的羽毛球轨迹分析方法和系统 Download PDF

Info

Publication number
CN111950407B
CN111950407B CN202010750724.3A CN202010750724A CN111950407B CN 111950407 B CN111950407 B CN 111950407B CN 202010750724 A CN202010750724 A CN 202010750724A CN 111950407 B CN111950407 B CN 111950407B
Authority
CN
China
Prior art keywords
track
user
trajectory
shuttlecock
tracks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010750724.3A
Other languages
English (en)
Other versions
CN111950407A (zh
Inventor
巫英才
叶帅男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202010750724.3A priority Critical patent/CN111950407B/zh
Publication of CN111950407A publication Critical patent/CN111950407A/zh
Application granted granted Critical
Publication of CN111950407B publication Critical patent/CN111950407B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及一种基于沉浸式的羽毛球轨迹分析方法和系统,属于可视化与可视分析技术领域。包括以下步骤:1)用户带上虚拟现实装备,包括头戴显示器和手柄,选择需要分析的击球技术;2)将所有属于选中击球技术的轨迹进行聚类处理,形成多个类簇;3)用户对选取的击球技术的多个类簇进行轨迹概览,并选取某个类簇,剔除掉该类簇中的离群点轨迹或不希望分析的轨迹,得到待分析类簇;4)探索同一待分析类簇中各轨迹的关键点处的属性与统计特征之间的关系,或者对比两类簇中轨迹之间的属性。

Description

基于沉浸式的羽毛球轨迹分析方法和系统
技术领域
本发明涉及可视化与可视分析技术领域,具体地说,涉及一种基于沉浸式的羽毛球轨迹分析方法和系统。
背景技术
轨迹分析在体育数据分析领域中是一项重点关注的研究内容,在足球、网球和乒乓球中都有着大量的运用。在羽毛球领域中,专家通常需要以真实的三维视角分析羽毛球轨迹,因为轨迹的三维形态对于球质量的高低与战术运用的成功与否都有着不可忽视的影响。现有的轨迹分析主要采用降维和多协同视图的方式,将轨迹的各个属性值在二维的屏幕上以传统图表的方式予以展示。
然而这些表示低维数据关系的图表与固定视角的二维视频回放相互分离,让专家既无法清晰地了解图表中各个属性值所对应场上的真实情况,又缺少对各式图表数据所表达的轨迹三维形态和球员移动的直观感受。
沉浸式技术(特别是虚拟现实)的最新进展为三维轨迹分析提供了新的思路。现有研究表说明,虚拟现实在相比于传统的二维显示器与交互而言,能够提供诸多好处。例如让用户获得更佳的三维空间感知能力、更丰富的交互技术、更广泛的视野进而增加视觉信息的带宽等等。在羽毛球分析中,虚拟现实提供了两个独特的优势:1)将所分析的轨迹以真实的三维形态展现出来,使得分析的对象十分的直观而易于理解;2)将真实的羽毛球场地展现出来,从而让用户以运动员的视角参与和感受这些轨迹。
然而将沉虚拟现实技术运用于羽毛球分析中存在着两大挑战。首先,将三维轨迹与二维的统计信息图表无缝地在球员视角下组合起来存在着较大的困难。专家在轨迹的分析过程中既需要从球员视角下观察轨迹的三维形态与场上状况,又需要借助二维图表了解重要的统计信息。然而目前的研究中缺乏在第一视角下提供直观可视化分析的视觉设计。其次,现有的虚拟现实交互技术中缺少一种第一人称视角下的简便羽毛球轨迹选择方法。在分析的过程中,专家需要频繁地与轨迹进行筛选交互。然而在虚拟现实中,对大量三维轨迹的选择一般使用多步骤的交互方式,例如使用手势或射线,对轨迹的不同部分分别进行筛选,最终得出期望的轨迹。但多步骤的选择在虚拟现实中会增加用户使用疲劳的风险。同时这些方法大多并无考虑到第一人称的情况。在此情况下,对轨迹不同角度的观察(从而从不同部分筛选)需要通过用户的实际物理移动完成,因此相比于自由旋转缩放轨迹空间的情况,第一人称下的选择需要更多的用户负担。
发明内容
本发明的目的是提供一种基于沉浸式的羽毛球轨迹分析方法和系统,能够让用户高效率地分析三维空间形态与其他抽象属性之间的关系。
为了实现上述目的,第一方面,本发明提供的基于沉浸式的羽毛球轨迹分析方法包括以下步骤:
1)用户带上虚拟现实装备,包括头戴显示器和手柄,选择需要分析的击球技术;
2)将所有属于选中击球技术的轨迹进行聚类处理,形成多个类簇;
3)用户对选取的击球技术的多个类簇进行轨迹概览,并选取某个类簇,剔除掉该类簇中的离群点轨迹或不希望分析的轨迹,得到待分析类簇;
4)探索同一待分析类簇中各轨迹的关键点处的属性与统计特征之间的关系,或者对比同两类簇中轨迹之间的属性。
步骤2)采用的聚类算法为DBSCAN,聚类处理包括以下步骤:
2-1)对于球轨迹的起始点(击球点)与终止点(对手击球点)的平面位置对所有轨迹进行一次聚类;
2-2)在步骤2-1)得到的聚类结果的每类中,对球轨迹的最高点的高度作为属性进行第二次聚类;
2-3)在步骤2-2)得到的聚类结果的每类中,对剩余属性(包括双方球员击球点高低、最高点平面位置以及双方球员轨迹的起始点和终止点的平面位置)进行第三次聚类。
步骤3)中进行轨迹概览时,同时计算每个类簇的使用率、胜负率和类中每拍的相邻拍技术使用率,并以图表的形式展示在用户视野两侧。
步骤3)中通过以下方式剔除掉类簇中的异常轨迹:
用户选择一个类簇,系统将对应类簇的所有轨迹展现出来;
用户移动至击球点区域,将手柄以球拍击球的方式朝着一个击球点挥动,完成一次轨迹选择;
系统首先根据以上动作采集击球速度和位置,并通过神经网络修正击球速度大小;随后依据位置以及修正的速度模拟球的轨迹,最后将类簇中所有轨迹与模拟轨迹作对比,剔除差距大于阈值的轨迹。
第二方面,本发明提供的基于沉浸式的羽毛球轨迹分析系统,用于完成上述基于沉浸式的羽毛球轨迹分析方法,包括:
轨迹展示模块,运用虚拟现实为用户提供直观的轨迹形态与总体特征;
属性分析模块,将二维图表放置于距离用户位置相对固定的屏幕空间中,当用户移动地在三维空间中探索时,这些图表始终位于用户的视野范围之内;
交互选择模块,使用户以真实击球的动作挥动手柄的方法完成羽毛球轨迹的选择。
将表示统计信息的二维图表置于固定于用户位置的平面上,保证当需要使用图表时,其位始终固定于近处周边视野中。同时,图表的内容会随着视野中心轨迹数据的改变而相应更新,保持这两类数据的一致性。
可选地,在一个实施例中,所述的轨迹展示模块中,一次击球产生的轨迹包括运动员的轨迹和羽毛球的轨迹,其中,运动员的轨迹由相邻击球时的位置连接而成,表示从起始点开始启动至终止点完成一次击球,使用带箭头的直线表示;羽毛球的轨迹是在空中的三维弧形轨迹,同时将各个轨迹的起始点、终止点、轨迹离地面的最高点显示标注出来。
可选地,在一个实施例中,所述的属性分析模块分为总体概览下的属性展示与单类下的属性展示两部分。其中,总体概览下的属性展示采用环形饼图分别表示不同轨迹类的使用率与胜负率。一个环段对应一类轨迹,且同类别的轨迹与环段颜色一致。用位于环形饼图一侧内部的较小半环饼图表示颜色对应的类中前一拍或后一拍的技术使用率分布,其中每一个环段对应一种技术。在单类下的属性展示中,此类的使用率与胜负率以及前后拍技术分布以类似的环形饼图展示,而类中关键点的高度或距离与使用率、获胜率之间的关系则用网格视图或扇形网格视图展示。
可选地,在一个实施例中,所有的环形饼图中环段按照自上而下其数值由高到低,即长度由长至短排列。
二维图表的设计需要考虑三个因素—可读性,无遮挡以及充分利用沉浸式的宽视野优势。该系统能够让用户高效率地分析三维空间形态与其他抽象属性之间的关系(例如轨迹的各个运动学特征与使用率/胜负率之间的关联),而无需从不同的视图之间来回切换,而且保持了轨迹原有的形态特征。
可选地,在一个实施例中,所述的交互选择模块中,目标用户是羽毛球专家,通过控制挥拍的动作完成在击球瞬间的速度大小与方向,从而击出指定方向、高度和落点的轨迹。
基于挥拍动作的选择对于羽毛球专家而言能够满足以下三个因素:a)直观性,即用户可自然、无需做推理思考即可理解交互动作,b)可操控,即用户可容易、不费力地完成交互动作,以及c)表达性,即这种动作能够完成用户所表达的意思(如选择轨迹)。该选择方式不仅操作的步骤少,而且通过专家的挥拍控制能够轻易地表达所希望选择的轨迹子集,进而提升了选择的效率。
可选地,在一个实施例中,当用户完成挥拍之后,利用神经网络模型完成用户击球速度大小的映射,该神经网络模型通过以下方法得到:
首先从比赛中采集超过500例运动员的轨迹,以多名掌握羽毛球技术的羽毛球爱好者以及参与使用的羽毛球专家作为参与者,在系统中依次对着真实轨迹完成挥拍获取挥拍时的速度,并以此速度和轨迹的真实速度作为训练数据,其中每例轨迹都从重复挥动三次;
然后基于这些数据训练一个三层神经网络,将参与者的击球速度的大小作为输入,以拟合对应真实击球速度大小;
完成网络的训练之后,得到神经网络模型。
与现有技术相比,本发明的有益之处在于:
本发明利用第一人称视野下的周边视力设计了三维轨迹与二维统计信息的融合展现方法。相比于传统二维屏幕,虚拟现实的视野可达到110度以上,这大大提升了可视化的带宽。在交互方面,本发明利用虚拟现实手柄开发了基于挥拍隐喻的选择方法。在虚拟现实中,用户可将手柄视为球拍,并以自然的挥拍方式模拟击球的动作,随后依据此动作快速地选择出相似的轨迹。相比于手势或基于射线的筛选交互方法,专家对于羽毛球击球动作更为熟悉和掌握,因此既能够减少选择的步骤、便于专家理解和掌握,也可与以运动员视角为基础的分析过程融为一体,增强分析时的沉浸式感受。此外,本发明可扩展至其它拍类运动领域,例如网球、乒乓球等。
附图说明
图1为本发明实施例的基于沉浸式的羽毛球轨迹分析方法的流程图;
图2为本发明实施例中基于沉浸式的羽毛球轨迹分析系统的组成示意图;
图3为本发明实施例中羽毛球的一条击球轨迹示意图,其中包括一个空中的球轨迹(Tshuttle)以及两个地面的球员轨迹(T1 player,T2 player),每条轨迹都包含起始点(Pstart)与终止点(Pend),而球轨迹还包含最高点(Phighest);
图4为本发明实施例中某一类轨迹中,聚合轨迹与类内真实轨迹之间的关系示意图;
图5为本发明实施例中三维轨迹与二维图表在用户视野范围内的布局示意图;
图6为本发明实施例中二维图表与三维轨迹在沉浸式三维空间中的布局示意图;
图7为本发明实施例中环形饼图示意图;
图8为本发明实施例中网格视图示意图;
图9(a)是扇形网格视图示意图,(b)是系统中扇形网格效果;
图10为本发明实施例中挥拍动作交互示意图;
图11为本发明实施例中各视图在系统中的效果,(a)是环形饼图效果,系统处于总览步骤;(b)是选取轨迹子集后对轨迹最高点的高度进行分析的效果,系统处于“探索同一类别下各轨迹的特征”阶段;(c)为对比阶段,展现对比两类轨迹时的网格视图效果。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,以下结合实施例及其附图对本发明作进一步说明。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另外定义,本发明使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明中使用的“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
实施例
参见图1,本实施例中基于沉浸式的羽毛球轨迹分析方法包括以下步骤:
S100,用户首先带上虚拟现实装备,包括头戴显示器以及手柄,从菜单中选择需要分析的击球技术,例如挑球或杀球,作为探索的对象。
羽毛球轨迹数据包含每次击球时双方球员的位置、击球的位置与初速度矢量、击球所属的技术、击球后的结果(继续、获胜和失败)以及两次击球之间球的飞行轨迹的三维空间位置。本实施例分析的对象是羽毛球击球的轨迹。每条轨迹如图3所示,包含一条球轨迹与两条球员轨迹。
该实施例中,用户通过系统菜单选择所需分析的一项技术,随后系统将对应技术的所有轨迹信息读取出来并显示。例如,用户选择挑球技术,随后系统将所有挑球的轨迹及其属性筛选出来。
S200,当用户完成技术的选取后,进入虚拟的羽毛球空间中,进行轨迹的概览。
此时用户进入轨迹总览阶段,系统具体完成以下步骤:
S201,对选取的轨迹进行聚类。
系统对所有属于选中技术的击球轨迹进行聚类处理,将这些轨迹归为多个类簇,使得类内的轨迹在空间形态上尽可能相似。系统采用的聚类算法为DBSCAN,所处理的特征为轨迹中的关键点位置(x-y-z值),其中关键点如图3所示。由于羽毛球专家对于球路有粗略的分类,为了使得聚类的结果与专家的认知相符合,本实施例采取以下具体步骤:
首先对于球轨迹的击球点与落点的平面位置(x-y值)对所有轨迹进行一次聚类;
其次,在上一步聚类结果的每类中,对球轨迹的最高点的高度(y值)作为属性进行第二次聚类;
最后再在上一步结果的每类中,对剩余关键点的剩余属性进行第三次聚类。
S202,对每个类计算一条聚合的轨迹,以此轨迹代表类中所有轨迹并显示。
为了避免众多轨迹产生的视觉混乱,系统在总览阶段仅以一条聚合轨迹表示一类轨迹数据。其采用的方法是分别对两个球员轨迹与球轨迹的轨迹点计算平均得到。聚合轨迹与剩余的轨迹关系如图4所示,其展现方式与单条击球轨迹的展现方式一致。
S203,展现每类的总体统计信息。
在完成聚类之后,系统同时计算每类的统计信息,并以圆环饼图的方式展现于视野两侧。此实施例中,系统计算每类的使用率、获胜率、以及类中每拍的相邻拍技术使用率。
例如,当用户完成挑球后,系统在经过以上三步后展现的结果如图11a所示。系统将所有挑球轨迹聚成5类,并以5条聚合轨迹展现平均形态。每类的使用率、胜负率等信息则由两侧的环形饼图展现。用户能够通过该图表总览各个类的特征。
S300,当用户完成各类的浏览并希望进入某一类进行细致分析时,系统进入轨迹选择阶段。此阶段包含两个步骤:
S301,用户挥拍选择。
为了选择轨迹,用户首先从圆环饼图中选择某一类别,系统将对应类的所有轨迹展现出来。随后用户移动至击球点区域,将手柄以球拍击球的方式朝着一个击球点挥动,从而完成一次轨迹选择。例如,用户希望选择此类中朝着某一方向、高度较高的一簇挑球轨迹,于是其移动至击球区域附近,朝着其中一个击球点完成一次朝着该方向的挑高球动作。
S302,系统矫正匹配。
当用户完成选择后,系统根据该动作的击球速度以及位置模拟球的轨迹,随后将所有轨迹与模拟轨迹作对比,取出差距小于阈值的轨迹作为选择结果。在该实施例中,系统需要首先修正动作的速度。这是由于受到穿戴设备的影响,用户不可能挥出运动员的动作速度,自然也无法选中那些较快的轨迹。其次,轨迹对比的方法是比较轨迹三个关键点(如图3所示)之间的欧几里得距离,其中模拟轨迹的对手击球点为经过与判断轨迹的飞行时间相同时长的模拟轨迹点。
本实施例中用户可使用挥拍动作选择希望的某类轨迹。同时,为了去除聚类算法中的离群点轨迹或其他不希望分析的轨迹,用户同样可选则此类中的希望的轨迹子集。
系统的选择判定步骤如下:a)将用户击球的速度大小值映射至接近真实的速度大小,从而避免手柄、头戴式显示器等虚拟现实设备对击球速度的影响;b)根据映射后的速度以及击球位置模拟出击球轨迹;c)将现有轨迹与模拟轨迹进行对比,将阈值范围内的轨迹选择出,并视为用户的选择结果。
轨迹选择的交互需要考虑三个因素:a)直观性,即用户可自然、无需做推理思考即可理解交互动作,b)可操控,即用户可容易、不费力地完成交互动作,以及c)表达性,即这种动作能够完成用户所表达的意思(如选择轨迹)。基于挥拍动作的选择对于羽毛球专家而言能够满足以上三个因素,不仅操作的步骤少,而且通过专家的挥拍控制能够轻易地表达所希望选择的轨迹子集,进而提升了选择的效率。
S400,当用户完成轨迹的选择后,系统进入同一类别下的分析阶段。
此时用户可以探索不同轨迹的各个关键点处的属性与统计特征之间的关系,发现有意义的模式。在此过程中,用户可检查轨迹关键点的两个类别的属性:高度特征与距离特征。
高度特征:为了让用户能够清晰地了解轨迹关键点的高度属性与使用/胜负率的情况,本实施例中提供网格视图为用户展现关键点的高度特征。首先系统提供凝视交互选取关键点,用户将视线对着需要观察的关键点,关键点以及该类的轨迹会从聚合轨迹周边显现出来。随后用户即可调出高度特征查看功能,系统会自动根据出现在中心视野内的点以及他们的位置在网格左右相应的位置上展示使用率与胜负率。如图11b所示,当用户选择类型C0轨迹并将视野对着轨迹最高点后,类内的真实轨迹及其最高点展开,左右的网格内则在对应的高度上展现对应高度的点的使用/胜负率。高度的特征则可从网格中获取。此例中可看出此类的最高点的高度大多位于中间,但胜率较低;而更低或更高的点较少,但胜率较高。
距离特征:为了让用户能够清晰地了解轨迹击球点的距离属性与使用/胜负率的情况,本实施例中提供位于地面的扇形网格视图为用户展现关键点的距离特征。当用户通过凝视交互展开对应的关键点后,即可调出距离特征查看功能,系统会自动根据用户所在的位置以及用户的目光朝向于地面绘制扇形网格视图。例如图9(b),当用户选择对手击球点这一关键点后,关键点即会投影至地面。其中落于扇形左右网格之间区域的点则被视为用户正在关注的点,而网格则会在与点和用户的距离对齐的位置上展现使用/胜负率。此例中可看出此类的对手击球点较远,但胜率差别不大。
S500,最后,用户可以选择两类轨迹进行对比分析。
在本实施例中,用户可以选择两类轨迹进行关键点高度/距离属性的对比。选择的方法是从总览的环形饼图中再次选择一个环段,随后用户可选择使用挥拍完成筛选,从而完成另一类轨迹的选择。例如图11c所示,用户选择了两类轨迹,并对比了两类的最高点高度与使用/胜负率的关系。
本实施例中,上述基于沉浸式的羽毛球轨迹分析方法可通过以下系统实现,参见图2,该系统包括轨迹展示模块、属性分析模块以及交互选择模块。其中:
1)轨迹展示模块充分运用人在虚拟现实中对于三维物体的感知与展现优势,可以满足用户在虚拟现实中以运动员视角观察三维轨迹的需求,为用户提供直观的轨迹形态与总体特征。
在本实施例中,系统在虚拟现实中建立一个与真实大小一致的羽毛球场模型。羽毛球轨迹与运动员的轨迹数据已预先获得作为已知数据呈现于球场中。一次击球产生的轨迹如图3所示,其中运动员的轨迹(T1 player与T2 player分别表示球员1与2的轨迹)由相邻击球时的位置连接而成(Pstart:起始点,Pend:终止点),表示从起始点开始启动至终止点完成一次击球,使用带箭头的直线表示。羽毛球的轨迹(Tshuttle)则是在空中的三维弧形轨迹。特别的,系统将各个轨迹的关键点(Pstart:起始点,Pend:终止点,Phighest:轨迹离地面的最高点)显示标注出来,以方便专家对这些关键区域进行分析。
对于大量的轨迹,系统会自动完成轨迹的分类,将相似轨迹的聚合,以避免视觉混乱以及凸显各个类别的总体特征。在该实例中,系统使用DBSCAN聚类算法,依据轨迹关键点的空间位置进行聚类。DBSCAN聚类算法具有简单、快速且对于聚类的对象没有特殊要求等优点。经过步骤S201后,DBSCAN可将所有轨迹归类为专家所认可的轨迹形态类型。
在完成分类后,系统计算每类轨迹的聚合轨迹,结果如图4所示。通过步骤S202,聚合的轨迹可展现每类轨迹的平均形态和空间特征(例如最高点、击球点区域等)。同时,系统为不同的轨迹类中的轨迹分配了不同的颜色加以区分。例如在完成此模块后,所有挑球的轨迹被分为了5类,如图11中的5条不同颜色的轨迹(各自包含一条球轨迹和两条球员轨迹)所示。这些聚合轨迹为用户展现了每类轨迹的平均形态。
2)属性分析模块可以解决三维轨迹与二维图表相结合的困难,让专家能够探索轨迹与统计数据之间的关系。为此,此系统将传统的二维图表放置于距离用户位置相对固定的屏幕空间中,如图6所示。因此,当用户移动地在三维空间中探索时,这些图表始终位于用户的视野范围之内。这些图表的设计遵循焦点+语境范式。如图5所示,当用户观察轨迹时,三维轨迹自然出现于用户的视野焦点处,而二维图表则固定地置于近处的边缘视野中,构成观察轨迹时的语境。因此,系统保持图表与视野中心轨迹的一致性,即图表会动态地根据出现在视野中心的轨迹而更新。
属性分析模块可分为总体概览下的属性展示与单类下的属性展示两部分。
总体概览下的属性展示方法:本实施例中,系统采用图7所示的环形饼图分别表示不同轨迹类的使用率与胜负率。其中一个环段对应一类轨迹,且同类别的轨迹与环段颜色一致。位于环形饼图左侧内部的较小半环饼图则表示颜色对应的类中前一拍或后一拍的技术使用率分布,其中每一个环段对应一种技术。所有的环段按照自上而下其数值由高到低(环段的长度由长至短)排列。用户可选择一个环段以展开左侧较小的半圆环饼图以查看该类相邻拍的技术使用率分布。
单类下的属性展示方法:对于此类的使用率与胜负率以及前后拍技术分布,系统采用与总览中类似的环形饼图展示。对于高度属性,系统采用图8的网格视图展现关键点高度与使用率、获胜率之间的关系。其中,网格的左半侧为使用率,而有半侧为胜负率。例如,专家在分析时对轨迹最高点的高度属性十分感兴趣,因此选择了观察此关键点高度的功能,如图11(b)所示。此时固定于近处视野中的网格视图则分别展现出该类中此点的高度与使用率、胜负率之间的分布关系。网格中每一行的数据与出现在此行区域中的点相对应。同时,网格的颜色与此类的颜色保持一致。另一方面,对于距离属性,系统则使用扇形图表展现,如图9(a)所示。此图表置于水平地面上,用于向用户展现落于中间扇形区域的点与扇形圆心点(用户所在位置)之间的距离以及使用率(左)和胜负率(右)之间的关系。例如,当用户位于某类中球员的平均起点,观察视野内的该球员击球点时,此扇形以圆心点位于用户位置(平均起点)、方向以视野方向的方式,置于对应位置的地面上,如图9(b)所示。此时,通过观察扇形右侧的分布可大致得出球员跑动距离与胜负率之间的关系。
3)交互选择模块可以支持用户高效地选择所关注的轨迹。本实施例采用基于挥拍的交互选择方法,让用户以真实击球的动作挥动手柄的方法完成羽毛球轨迹的选择。在本实例中,目标用户是羽毛球专家。他们对于羽毛球的挥拍动作十分熟练,能够通过控制挥拍的动作完成在击球一瞬间的速度大小与方向,从而击出指定方向、高度、落点的轨迹。例如,图10中展现了用户通过不同的动作挥动手柄,从而得到不同的轨迹。
当用户完成挥拍之后,系统需要修正击球速度,已完成后续的模拟出挥拍的球轨迹以及轨迹选择,这是为了减轻设备对于击球速度的影响。为此,本实施例利用神经网络完成用户击球速度的映射。
本实施例中,首先从比赛中采集超过500例运动员的轨迹。随后雇用多名掌握羽毛球技术的羽毛球爱好者以及参与使用的羽毛球专家作为参与者,在系统中依次对着真实轨迹完成挥拍获取挥拍时的速度,并以此速度和轨迹的真实速度作为训练数据,其中每例轨迹都从重复挥动三次。最后基于这些数据训练一个三层神经网络,将参与者的击球速度的大小作为输入,以拟合对应真实击球速度大小。当完成网络的训练之后,即可利用该网络完成每次选择轨迹时速度大小的矫正。
本实施例中,为了让用户在分析三维轨迹的同时了解其对应的使用率、胜负率等关键统计信息,将表示统计信息的二维图表置于固定于用户位置的平面上,保证当需要使用图表时,其位置始终固定于近处周边视野中。同时,图表的内容会随着视野中心轨迹数据的改变而相应更新,保持这两类数据的一致性。进一步,本实施例使用环形饼图展现总览过程中每类的使用率与胜负率的特征,使用网格视图表示轨迹关键点高度属性与两类特征之间的关系,同时使用位于地面的扇形网格视图表示关键点距离属性与两类特征之间的关系。
由于二维图表的设计需要考虑三个因素—可读性,无遮挡以及充分利用沉浸式的宽视野优势。为了让用户无论走至何处、朝着何处看,都能够清晰地获取相应的统计信息,系统将图表固定在视野中;对于剩下两个因素,系统则利用人们能够并行地获取中心视野(<10°)与近处周边视野(15°—30°)内信息的特点。通过观察,用户在关注轨迹时,轨迹都呈现于中心视野区域。因此,系统将图表布局于近处周围视野,从而使得两类信息相互无遮挡的同时保证了用户同时获取两类信息的便捷性。
通过本实施例能够让用户高效率地分析三维空间形态与其他抽象属性之间的关系(例如轨迹的各个运动学特征与使用率/胜负率之间的关联),而无需从不同的视图之间来回切换,而且保持了轨迹原有的形态特征。环形饼图与网格视图结构简单,够很好的利用周边视野的空间。同时网格视图能够让用户容易地发现异常模式。例如图8所示,通过格点分布的形状,能够轻易地看出使用率低但胜率高,或使用率高但胜率低的区域,这对于挖掘轨迹形态与击球效果之间的关系十分有帮助。

Claims (9)

1.一种基于沉浸式的羽毛球轨迹分析方法,其特征在于,包括以下步骤:
1)用户带上虚拟现实装备,包括头戴显示器和手柄,选择需要分析的击球技术;
2)将所有属于选中击球技术的轨迹进行聚类处理,形成多个类簇,所述聚类处理包括以下步骤:
2-1)对于球轨迹的起始点与终止点的平面位置对所有轨迹进行一次聚类;
2-2)在步骤2-1)得到的聚类结果的每类中,对球轨迹的最高点的高度作为属性进行第二次聚类;
2-3)在步骤2-2)得到的聚类结果的每类中,对剩余属性,包括双方球员击球点高低、最高点平面位置以及双方球员轨迹的起始点和终止点的平面位置,进行第三次聚类;
3)用户对选取的击球技术的多个类簇进行轨迹概览,并选取某个类簇,剔除掉该类簇中的离群点轨迹或不希望分析的轨迹,得到待分析类簇;
4)探索同一待分析类簇中各轨迹的关键点处的属性与统计特征之间的关系,或者对比两类簇中轨迹之间的属性。
2.根据权利要求1所述的基于沉浸式的羽毛球轨迹分析方法,其特征在于,步骤3)中进行轨迹概览时,同时计算每个类簇的使用率、胜负率和类中每拍的相邻拍技术使用率,并以图表的形式展示在用户视野两侧。
3.根据权利要求1所述的基于沉浸式的羽毛球轨迹分析方法,其特征在于,步骤3)中通过以下方式剔除掉类簇中的异常轨迹:
用户选择一个类簇,系统将对应类簇的所有轨迹展现出来;
用户移动至击球点区域,将手柄以球拍击球的方式朝着一个击球点挥动,完成一次轨迹选择;
系统首先根据以上动作采集击球速度和位置,并通过神经网络修正击球速度大小;随后依据位置以及修正的速度模拟球的轨迹,最后将类簇中所有轨迹与模拟轨迹作对比,剔除差距大于阈值的轨迹。
4.一种基于沉浸式的羽毛球轨迹分析系统,用于完成权利要求1~3中任一权利要求所述的基于沉浸式的羽毛球轨迹分析方法,其特征在于,包括:
轨迹展示模块,运用虚拟现实为用户提供直观的轨迹形态与总体特征;
属性分析模块,将二维图表放置于距离用户位置相对固定的屏幕空间中,当用户移动地在三维空间中探索时,这些图表始终位于用户的视野范围之内;
交互选择模块,使用户以真实击球的动作挥动手柄的方法完成羽毛球轨迹的选择。
5.根据权利要求4所述的基于沉浸式的羽毛球轨迹分析系统,其特征在于,所述的轨迹展示模块中,一次击球产生的轨迹包括运动员的轨迹和羽毛球的轨迹,其中,运动员的轨迹由相邻击球时的位置连接而成,表示从起始点开始启动至终止点完成一次击球,使用带箭头的直线表示;羽毛球的轨迹是在空中的三维弧形轨迹,同时将各个轨迹的起始点、终止点、轨迹离地面的最高点显示标注出来。
6.根据权利要求4所述的基于沉浸式的羽毛球轨迹分析系统,其特征在于,所述的属性分析模块分为总体概览下的属性展示与单类下的属性展示两部分;其中,总体概览下的属性展示采用环形饼图分别表示不同轨迹类的使用率与胜负率;一个环段对应一类轨迹,且同类别的轨迹与环段颜色一致;用位于环形饼图一侧内部的较小半环饼图表示颜色对应的类中前一拍或后一拍的技术使用率分布,其中每一个环段对应一种技术;在单类下的属性展示中,此类的使用率与胜负率以及前后拍技术分布以类似的环形饼图展示,而类中关键点的高度或距离与使用率、获胜率之间的关系则用网格视图或扇形网格视图展示。
7.根据权利要求6所述的基于沉浸式的羽毛球轨迹分析系统,其特征在于,所有的环形饼图中环段按照自上而下其数值由高到低,即长度由长至短排列。
8.根据权利要求4所述的基于沉浸式的羽毛球轨迹分析系统,其特征在于,所述的交互选择模块中,目标用户是羽毛球专家,通过控制挥拍的动作完成在击球瞬间的速度大小与方向,从而击出指定方向、高度和落点的轨迹。
9.根据权利要求8所述的基于沉浸式的羽毛球轨迹分析系统,其特征在于,当用户完成挥拍之后,利用神经网络模型完成用户击球速度大小的映射,该神经网络模型通过以下方法得到:
首先从比赛中采集超过500例运动员的轨迹,以多名掌握羽毛球技术的羽毛球爱好者以及参与使用的羽毛球专家作为参与者,在系统中依次对着真实轨迹完成挥拍获取挥拍时的速度,并以此速度和轨迹的真实速度作为训练数据,其中每例轨迹都从重复挥动三次;
然后基于这些数据训练一个三层神经网络,将参与者的击球速度的大小作为输入,以拟合对应真实击球速度大小;
完成网络的训练之后,得到神经网络模型。
CN202010750724.3A 2020-07-30 2020-07-30 基于沉浸式的羽毛球轨迹分析方法和系统 Active CN111950407B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010750724.3A CN111950407B (zh) 2020-07-30 2020-07-30 基于沉浸式的羽毛球轨迹分析方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010750724.3A CN111950407B (zh) 2020-07-30 2020-07-30 基于沉浸式的羽毛球轨迹分析方法和系统

Publications (2)

Publication Number Publication Date
CN111950407A CN111950407A (zh) 2020-11-17
CN111950407B true CN111950407B (zh) 2023-12-05

Family

ID=73338586

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010750724.3A Active CN111950407B (zh) 2020-07-30 2020-07-30 基于沉浸式的羽毛球轨迹分析方法和系统

Country Status (1)

Country Link
CN (1) CN111950407B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113610010B (zh) * 2021-08-10 2023-08-08 浙江大学 一种基于沉浸式的羽毛球战术可视分析系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103593430A (zh) * 2013-11-11 2014-02-19 胡宝清 一种基于移动对象时空信息轨迹分段聚类的方法
CN105095481A (zh) * 2015-08-13 2015-11-25 浙江工业大学 大规模出租车od数据可视分析方法
CN110634299A (zh) * 2019-10-25 2019-12-31 福州大学 基于多源轨迹数据的城市交通状态精细划分与识别方法
CN110727959A (zh) * 2019-10-15 2020-01-24 南京航空航天大学 一种基于聚类的差分隐私轨迹数据保护方法
CN110727826A (zh) * 2019-09-30 2020-01-24 浙江大学 一种乒乓球战术挖掘可视化分析方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10300362B2 (en) * 2015-04-23 2019-05-28 Win Reality, Llc Virtual reality sports training systems and methods

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103593430A (zh) * 2013-11-11 2014-02-19 胡宝清 一种基于移动对象时空信息轨迹分段聚类的方法
CN105095481A (zh) * 2015-08-13 2015-11-25 浙江工业大学 大规模出租车od数据可视分析方法
CN110727826A (zh) * 2019-09-30 2020-01-24 浙江大学 一种乒乓球战术挖掘可视化分析方法
CN110727959A (zh) * 2019-10-15 2020-01-24 南京航空航天大学 一种基于聚类的差分隐私轨迹数据保护方法
CN110634299A (zh) * 2019-10-25 2019-12-31 福州大学 基于多源轨迹数据的城市交通状态精细划分与识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Badminton robot batting mechanism design and badminton trajectory simulation;Wei Sun 等;IOP Conference Series: Materials Science and Engineering;全文 *

Also Published As

Publication number Publication date
CN111950407A (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
Ye et al. Shuttlespace: Exploring and analyzing movement trajectory in immersive visualization
Vignais et al. Which technology to investigate visual perception in sport: Video vs. virtual reality
CN109350944B (zh) 一种探究乒乓球比赛拍序列技战术的可视分析系统
CN107441690B (zh) 一种乒乓球比赛战术分析方法
US20110300933A1 (en) Method for interacting with a video and game simulation system
JP3927821B2 (ja) プログラム、情報記憶媒体及びゲーム装置
CN108211361B (zh) 游戏中虚拟资源获取概率的确定方法和装置、存储介质、电子装置
CN105930784A (zh) 一种手势识别方法
US20060199626A1 (en) In-game shot aiming indicator
CN109101911A (zh) 一种对足球比赛阵型变化及人员流动的可视分析方法
CN111950407B (zh) 基于沉浸式的羽毛球轨迹分析方法和系统
Shen et al. Posture-based and action-based graphs for boxing skill visualization
CN110322380B (zh) 一种乒乓球比赛战术模拟的可视分析系统
JP6511567B1 (ja) ゲームプログラム、ゲーム方法、および情報処理装置
WO2020003157A1 (en) Dynamically determining a region
CN113610010B (zh) 一种基于沉浸式的羽毛球战术可视分析系统
CN111881205B (zh) 多变量拍类体育运动数据的可视分析方法和系统
CN110968733B (zh) 一种基于图标的多尺度乒乓球战术分析可视化系统
CN106390444A (zh) 球类游戏系统及其控制方法
Shum et al. Skillvis: a visualization tool for boxing skill assessment
CN113625876B (zh) 一种基于沉浸式的羽毛球战术的分析方法
Hosp et al. Eye movement feature classification for soccer expertise identification in virtual reality
CN110457769A (zh) 一种用于乒乓球比赛战术的模拟装置
Huang The Application of Artificial Intelligence Technology in the On-site Decision System of Sports Competitions
CN117011336A (zh) 一种基于沉浸式的体育动作表现可视分析方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant