CN113312840A - 一种基于强化学习的羽毛球对弈方法及系统 - Google Patents

一种基于强化学习的羽毛球对弈方法及系统 Download PDF

Info

Publication number
CN113312840A
CN113312840A CN202110571829.7A CN202110571829A CN113312840A CN 113312840 A CN113312840 A CN 113312840A CN 202110571829 A CN202110571829 A CN 202110571829A CN 113312840 A CN113312840 A CN 113312840A
Authority
CN
China
Prior art keywords
target player
ball
hitting
model
reinforcement learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110571829.7A
Other languages
English (en)
Other versions
CN113312840B (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Shenling Technology Co ltd
Original Assignee
Guangzhou Shenling Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Shenling Technology Co ltd filed Critical Guangzhou Shenling Technology Co ltd
Priority to CN202110571829.7A priority Critical patent/CN113312840B/zh
Publication of CN113312840A publication Critical patent/CN113312840A/zh
Application granted granted Critical
Publication of CN113312840B publication Critical patent/CN113312840B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/0017Training appliances or apparatus for special sports for badminton
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种基于强化学习的羽毛球对弈方法及系统,通过采集羽毛球运动中的运动图像或者视频,并将其数据化,包括击球时目标选手的位置,击球时目标选手的位置,击球时球的高度,击球前一刻球的速度,和击球后球的速度,并给出了强化学习状态,动作,和奖赏的3要素定义,提出了描述羽毛球目标选手的数学建模方法,并使用目标选手数学模型与强化学习所学策略模型输入模拟器中进行可视化显示,最后可以从对弈策略模型中搜索一系列大概率能够战胜目标选手的对弈获胜策略。

Description

一种基于强化学习的羽毛球对弈方法及系统
技术领域
本发明涉及技术领域,尤其涉及一种基于强化学习的羽毛球对弈方法及系统。
背景技术
现有的关于羽毛球对弈策略的技术,主要通过人观看视频分析总结,有些可以采集数据分析对手跑动,击球,失误等数据分析。现有的方法无法给出一个数据化的对弈的策略。
强化学习是一种根据环境和结果的变化可以自动学习到最优的策略的方案,但是经典的强化学习并不能直接应用到羽毛球对弈策略的学习,其主要难点是如何去定义强化学习中的3要素:状态,动作和奖赏。基于强化学习的围棋对弈算法,例如AlphaGo,由于围棋和羽毛球运动本身的不同,其对强化学习3要素,状态,动作,和奖赏的定义是完全不一样的。因此,无法直接套用,目前市场上还没有一种针对羽毛球对弈能自动搜索出应对策略的系统。
发明内容
为了解决现有技术的缺陷,本发明的目的在于提供一种基于强化学习的羽毛球对弈方法及系统。
为达此目的,本发明采用以下技术方案:一种基于强化学习的羽毛球对弈方法,其特征在于,包括以下步骤:一种基于强化学习的羽毛球对弈方法,包括以下步骤:
获取目标选手的运动图像和/或视频;
将所述运动图像和/或视频进行数据化处理,得到所述目标选手的运动数据;
对所述运动数据进行强化学习,获得针对所述目标选手的对弈策略模型;
对所述运动数据进行数学建模,获得针对所述目标选手的击球模型和跑动模型;
将所述强化学习所得的对弈策略模型、所述目标选手的击球模型和跑动模型,输入到模拟器,模拟机器和运动员的比赛并可视化;
从所述对弈策略模型中搜索出与所述目标选手对弈的获胜策略。
进一步的,将所述运动图像和/或视频进行数据化处理,得到所述目标选手的运动数据,具体包括以下步骤:
通过物体检测算法识别出目标选手和球;
通过3D定位技术恢复目标选手和球的每一帧的3D坐标;
通过目标选手和球的每一帧的位置变化计算所述目标选手和球的速度大小及方向;
通过视频语义分析得到球赛中胜负和击球事件。
进一步的,所述强化学习,具体定义为:
状态定义:定义(G1,G2,G3,…,Gn)为n次击球的状态序列;Gi为第i次击球的状态,所述击球的状态包括所述目标选手A或者对手B,击球时所述目标选手A的位置PA,击球时所述对手B的位置PB,击球时球的高度H,击球前一刻球的速度Vb,和历史击球情况Ki,所述Gi=[A/B,PA,PB,H,Vb,Ki],所述Gi用于决定本次的击球动作。击球时所述目标选手A的位置PA,击球时所述对手B的位置PB,击球时球的高度H,击球前一刻球的速度Vb,可通过3D定位技术恢复的选手和球的每一帧的3D坐标计算得到;历史击球情况可以用LSTM神经网络描述,其LSTM神经网络的每一帧输入为[A/B,PA,PB,H,Vb],输出即为Ki
动作定义:动作即为击球时选择的击球策略和击球后的跑动策略,所述目标选手A的击球策略可以由击球后球的速度Va描述,所述目标选手A击球后的跑动策略可以用对手B下次击球前所述目标选手A的位置描述。
奖赏定义:奖赏根据击球后是否得分来定义,奖赏定义为所述目标选手A失分为1,所述目标选手A得分为-1,胜负未分为0;
将以上定义的3个要素用到强化学习的方法中进行学习,获取与所述目标选手A对弈的获胜策略。
进一步的,所述目标选手的击球模型的数学建模具体为:
输入是击球时目标选手A的位置PA,击球时对手B的位置PB,击球时球的高度H,击球前一刻球的速度Vb,即为[PA,PB,H,Vb],输出是目标选手A的击球后的球度Va所影响的最终获胜的概率P(W/Va)和获胜前需进一步的击球次数的概率P(N/Va),N描述击球次数N,击球的策略可以由P(W/Va)和P(N/Va)决定。
进一步的,所述目标选手的跑动模型的数学建模具体为:
输入是击球时所述目标选手A的位置PA,击球时对手的位置PB,击球时球的高度H,击球前一刻球的速度Vb,击球后球的速度Va,即为[PA,PB,H,Vb,Va],输出是对手下次击球前所述目标选手的位置PAn的概率P(PAn)。
进一步的,进行所述目标选手的击球模型的数学建模和所述目标选手的跑动模型的数学建模之后,选择深度神经网络通过学习已有的所述目标选手的对弈数据,拟合所述目标选手击球后球的速度的概率P(Va)和所述目标选手击球后至对手下次击球前所述目标选手的位置PAn的概率P(PAn)。
进一步的,所述搜索与所述目标选手对弈的获胜策略的步骤,具体使用最优搜索法或者次优搜索法。
一种基于强化学习的羽毛球对弈系统,用于实现所述的基于强化学习的羽毛球对弈方法,包括:
获取装置,用于获取目标选手的运动图像和/或视频;
数据处理装置,用于将所述运动图像和/或视频进行数据化处理,得到所述目标选手的运动数据;
获取对弈策略模型,用于对所述运动数据进行强化学习,获得针对所述目标选手的对弈策略模型;
获取击球模型和跑步模型,用于对所述运动数据进行强化学习,获得针对所述目标选手的击球模型和跑动模型;
模拟器,用于将所述强化学习所得的对弈策略模型、所述目标选手的击球模型和跑动模型,输入到模拟器,模拟机器和运动员的比赛并可视化;
搜索装置,用于从所述对弈策略模型、所述击球模型和所述跑动模型中搜索出与所述目标选手对弈的获胜策略。
本发明的有益效果:本发明实施例提供一种基于强化学习的羽毛球对弈方法及系统,通过采集羽毛球运动中的运动图像或者视频,并将其数据化,包括击球时目标选手的位置,击球时目标选手的位置,击球时球的高度,击球前一刻球的速度,和击球后球的速度,并给出了强化学习状态,动作,和奖赏的3要素定义,提出了描述羽毛球目标选手的数学建模方法,并使用目标选手数学模型与强化学习所学策略模型输入模拟器中进行可视化显示,最后可以从对弈策略模型中搜索一系列大概率能够战胜目标选手的对弈获胜策略。。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的一种基于强化学习的羽毛球对弈方法的步骤流程图;
图2为本发明实施例提供的一种基于强化学习的羽毛球对弈方法中的将所述运动图像和/或视频进行数据化处理的步骤流程图。
具体实施方式
本发明实施例提供了一种基于强化学习的羽毛球对弈方法,通过该方法,给出一个数据化的羽毛球对弈获胜策略。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参考图1,图1为本发明实施例提供的一种基于强化学习的羽毛球对弈方法的步骤流程图;
实施例一:
如图1所示,一种基于强化学习的羽毛球对弈方法,包括以下步骤:
步骤101:获取目标选手的运动图像和/或视频;
具体的,通过多个高速摄像头获取运动图像和/视频数据。
步骤102:将所述运动图像和/或视频进行数据化处理,得到所述目标选手的运动数据;
具体的,将每一个所述运动视频进行数据化。
步骤103:对所述运动数据进行强化学习,获得针对所述目标选手的对弈策略模型;
具体的,通过以上定义的强化学习模型,学习针对目标选手的策略模型;
步骤104:对所述运动数据进行强化学习,获得针对所述目标选手的击球模型和跑动模型;
具体的,强化学习(Reinforcement Learning,RL),又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一,用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。
步骤105:将所述强化学习所得的对弈策略模型、所述目标选手的击球模型和跑动模型,输入到模拟器,模拟机器和运动员的比赛并可视化;
步骤106:从所述对弈策略模型中搜索出与所述目标选手对弈的获胜策略。
进一步的,将所述运动图像和/或视频进行数据化处理,得到所述目标选手的运动数据,具体包括以下步骤:
步骤201:通过物体检测算法识别出目标选手和球;
步骤202:通过3D定位技术恢复目标选手和球的每一帧的3D坐标;
步骤203:通过目标选手和球的每一帧的位置变化计算所述目标选手和球的速度大小及方向;
步骤204:通过视频语义分析得到球赛中胜负和击球事件。
进一步的,所述强化学习,具体定义为:
状态定义:定义(G1,G2,G3,…,Gn)为n次击球的状态序列;Gi为第i次击球的状态,所述击球的状态包括所述目标选手A或者对手B,击球时所述目标选手A的位置PA,击球时所述对手B的位置PB,击球时球的高度H,击球前一刻球的速度Vb,和历史击球情况Ki,所述Gi=[A/B,PA,PB,H,Vb,Ki],所述Gi用于决定本次的击球动作。击球时所述目标选手A的位置PA,击球时所述对手B的位置PB,击球时球的高度H,击球前一刻球的速度Vb,可通过3D定位技术恢复的选手和球的每一帧的3D坐标计算得到;历史击球情况可以用LSTM神经网络描述,其LSTM神经网络的每一帧输入为[A/B,PA,PB,H,Vb],输出即为Ki
动作定义:动作即为击球时选择的击球策略和击球后的跑动策略,所述目标选手A的击球策略可以由击球后球的速度Va描述,所述目标选手A击球后的跑动策略可以用对手B下次击球前所述目标选手A的位置描述。
奖赏定义:奖赏根据击球后是否得分来定义,奖赏定义为所述目标选手A失分为1,所述目标选手A得分为-1,胜负未分为0;
将以上定义的3个要素用到强化学习的方法中进行学习,获取与所述目标选手A对弈的获胜策略。
进一步的,所述目标选手击球的数学建模具体为:
所述目标选手的击球模型的数学建模具体为:
输入是击球时目标选手A的位置PA,击球时对手B的位置PB,击球时球的高度H,击球前一刻球的速度Vb,即为[PA,PB,H,Vb],输出是目标选手A击球后的球速Va,所影响的最终获胜的概率P(W/Va)和获胜前需进一步的击球次数的概率P(N/Va),N描述击球次数N,击球的策略可以由P(W/Va)和P(N/Va)决定。
进一步的,所述目标选手的跑动模型的数学建模具体为:
输入是击球时所述目标选手A的位置PA,击球时对手的位置PB,击球时球的高度H,击球前一刻球的速度Vb,击球后球的速度Va,即为[PA,PB,H,Vb,Va],输出是对手下次击球前所述目标选手的位置PAn的概率P(PAn)。
进一步的,进行所述目标选手的击球模型的数学建模和所述目标选手的跑动模型的数学建模之后,选择深度神经网络通过学习已有的所述目标选手的对弈数据,拟合所述目标选手击球后球的速度的概率P(Va)和所述目标选手击球后至对手下次击球前所述目标选手的位置PAn的概率P(PAn)。
具体的,由于目标选手A击球的数学建模和目标选手A击球后跑动的数学建模是连续函数,因此可以选择深度神经网络通过学习已有的目标选手A对弈数据,拟合目标选手A击球后获胜的概率P(W/Va),获胜前需进一步的击球次数的概率P(N/Va),以及A击球后至对手下次击球前A的位置PAn的概率P(PAn)。
进一步的,所述搜索与所述目标选手对弈的获胜策略的步骤,具体使用最优搜索法或者次优搜索法。
具体的,有了目标选手A的数学模型和选手B的强化学习模型,我们可以可视化并验证强化学习学习所得策略是否可以战胜目标选手A,同时可以搜索出一系列大概率能够战胜目标选手A的较优的打法。搜索的方法可以使用最优搜索法或者次优搜索法。
实施例二:
一种基于强化学习的羽毛球对弈系统,用于实现所述的基于强化学习的羽毛球对弈方法,包括:
获取装置,用于获取目标选手的运动图像和/或视频;
数据处理装置,用于将所述运动图像和/或视频进行数据化处理,得到所述目标选手的运动数据;
获取对弈策略模型,用于对所述运动数据进行强化学习,获得针对所述目标选手的对弈策略模型;
获取击球模型和跑步模型,用于对所述运动数据进行强化学习,获得针对所述目标选手的击球模型和跑动模型;
模拟器,用于将所述强化学习所得的对弈策略模型、所述目标选手的击球模型和跑动模型,输入到模拟器,模拟机器和运动员的比赛并可视化;
搜索装置,用于从所述对弈策略模型中搜索出与所述目标选手对弈的获胜策略。
综上所述,本发明实施例提供一种基于强化学习的羽毛球对弈方法及系统,通过采集羽毛球运动中的运动图像或者视频,并将其数据化,包括击球时目标选手的位置,击球时目标选手的位置,击球时球的高度,击球前一刻球的速度,和击球后球的速度,并给出了强化学习状态,动作,和奖赏的3要素定义,提出了描述羽毛球目标选手的数学建模方法,并使用目标选手数学模型与强化学习所学策略模型输入模拟器中进行可视化显示,最后可以从对弈策略模型中搜索一系列大概率能够战胜目标选手的对弈获胜策略。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (8)

1.一种基于强化学习的羽毛球对弈方法,其特征在于,包括以下步骤:
获取目标选手的运动图像和/或视频;
将所述运动图像和/或视频进行数据化处理,得到所述目标选手的运动数据;
对所述运动数据进行强化学习,获得针对所述目标选手的对弈策略模型;
对所述运动数据进行数学建模,获得针对所述目标选手的击球模型和跑动模型;
将所述强化学习所得的对弈策略模型、所述目标选手的击球模型和跑动模型,输入到模拟器,模拟机器和运动员的比赛并可视化;
从所述对弈策略模型中搜索出与所述目标选手对弈的获胜策略。
2.根据权利要求1所述的一种基于强化学习的羽毛球对弈方法,其特征在于,将所述运动图像和/或视频进行数据化处理,得到所述目标选手的运动数据,具体包括以下步骤:
通过物体检测算法识别出目标选手和球;
通过3D定位技术恢复目标选手和球的每一帧的3D坐标;
通过目标选手和球的每一帧的位置变化计算所述目标选手和球的速度大小及方向;
通过视频语义分析得到球赛中胜负和击球事件。
3.根据权利要求1所述的一种基于强化学习的羽毛球对弈方法,其特征在于,所述强化学习,具体定义为:
状态定义:定义(G1,G2,G3,…,Gn)为n次击球的状态序列;Gi为第i次击球的状态,所述击球的状态包括所述目标选手A或者对手B,击球时所述目标选手A的位置PA,击球时所述对手B的位置PB,击球时球的高度H,击球前一刻球的速度Vb,和历史击球情况Ki,所述Gi=[A/B,PA,PB,H,Vb,Ki],所述Gi用于决定本次的击球动作,击球时所述目标选手A的位置PA,击球时所述对手B的位置PB,击球时球的高度H,击球前一刻球的速度Vb,可通过3D定位技术恢复的选手和球的每一帧的3D坐标计算得到;历史击球情况可以用LSTM神经网络描述,其LSTM神经网络的每一帧输入为[A/B,PA,PB,H,Vb],输出即为Ki
动作定义:动作即为击球时选择的击球策略和击球后的跑动策略,所述目标选手A的击球策略可以由击球后球的速度Va描述,所述目标选手A击球后的跑动策略可以用对手B下次击球前所述目标选手A的位置描述;
奖赏定义:奖赏根据击球后是否得分来定义,奖赏定义为所述目标选手A失分为1,所述目标选手A得分为-1,胜负未分为0;
将以上定义的3个要素用到强化学习的方法中进行学习,获取与所述目标选手A对弈的获胜策略。
4.根据权利要求1所述的一种基于强化学习的羽毛球对弈方法,其特征在于,所述目标选手的击球模型的数学建模具体为:
输入是击球时目标选手A的位置PA,击球时对手B的位置PB,击球时球的高度H,击球前一刻球的速度Vb,即为[PA,PB,H,Vb],输出是目标选手A的击球后的球速Va所影响的最终获胜的概率P(W/Va)和获胜前需进一步的击球次数的概率P(N/Va),N描述击球次数N。击球的策略可以由P(W/Va)和P(N/Va)决定。
5.根据权利要求4所述的一种基于强化学习的羽毛球对弈方法,其特征在于,所述目标选手的跑动模型的数学建模具体为:
输入是击球时所述目标选手A的位置PA,击球时对手的位置PB,击球时球的高度H,击球前一刻球的速度Vb,击球后球的速度Va,即为[PA,PB,H,Vb,Va],输出是对手下次击球前所述目标选手的位置PAn的概率P(PAn)。
6.根据权利要求5所述的一种基于强化学习的羽毛球对弈方法,其特征在于,进行所述目标选手的击球模型的数学建模和所述目标选手的跑动模型的数学建模之后,选择深度神经网络通过学习已有的所述目标选手的对弈数据,拟合所述目标选手击球后球的速度的概率P(Va)和所述目标选手击球后至对手下次击球前所述目标选手的位置PAn的概率P(PAn)。
7.根据权利要求1所述的一种基于强化学习的羽毛球对弈方法,其特征在于,所述搜索与所述目标选手对弈的获胜策略的步骤,具体使用最优搜索法或者次优搜索法。
8.一种基于强化学习的羽毛球对弈系统,其特征在于,用于实现权利要求1至7任一项所述的基于强化学习的羽毛球对弈方法,包括:
获取装置,用于获取目标选手的运动图像和/或视频;
数据处理装置,用于将所述运动图像和/或视频进行数据化处理,得到所述目标选手的运动数据;
获取对弈策略模型,用于对所述运动数据进行强化学习,获得针对所述目标选手的对弈策略模型;
获取击球模型和跑步模型,用于对所述运动数据进行强化学习,获得针对所述目标选手的击球模型和跑动模型;
模拟器,用于将所述强化学习所得的对弈策略模型、所述目标选手的击球模型和跑动模型,输入到模拟器,模拟机器和运动员的比赛并可视化;
搜索装置,用于从所述对弈策略模型、所述击球模型和所述跑动模型中搜索出与所述目标选手对弈的获胜策略。
CN202110571829.7A 2021-05-25 2021-05-25 一种基于强化学习的羽毛球对弈方法及系统 Active CN113312840B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110571829.7A CN113312840B (zh) 2021-05-25 2021-05-25 一种基于强化学习的羽毛球对弈方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110571829.7A CN113312840B (zh) 2021-05-25 2021-05-25 一种基于强化学习的羽毛球对弈方法及系统

Publications (2)

Publication Number Publication Date
CN113312840A true CN113312840A (zh) 2021-08-27
CN113312840B CN113312840B (zh) 2023-02-17

Family

ID=77374638

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110571829.7A Active CN113312840B (zh) 2021-05-25 2021-05-25 一种基于强化学习的羽毛球对弈方法及系统

Country Status (1)

Country Link
CN (1) CN113312840B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837063A (zh) * 2021-10-15 2021-12-24 中国石油大学(华东) 一种基于强化学习的冰壶运动现场分析和辅助决策方法
CN114167749A (zh) * 2021-11-17 2022-03-11 深兰盛视科技(苏州)有限公司 足球机器人的控制方法及相关装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141881A (ja) * 2011-01-05 2012-07-26 Kddi Corp 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム
CN109794937A (zh) * 2019-01-29 2019-05-24 南京邮电大学 一种基于强化学习的足球机器人协作方法
CN110496377A (zh) * 2019-08-19 2019-11-26 华南理工大学 一种基于强化学习的虚拟乒乓球手击球训练方法
CN111177659A (zh) * 2020-01-19 2020-05-19 黄俊杰 一种羽毛球运动胜负预测方法及赛事转播系统
CN111291617A (zh) * 2020-01-13 2020-06-16 西北农林科技大学 基于机器学习的羽毛球赛事视频精彩片段提取方法
CN111724414A (zh) * 2020-06-23 2020-09-29 宁夏大学 一种基于3d姿态估计的篮球运动分析方法
CN111905350A (zh) * 2020-07-10 2020-11-10 浙江大学 基于运动数据的自动化乒乓球击球表现评估方法和系统
CN112330778A (zh) * 2020-09-17 2021-02-05 江苏捷恒软件科技有限公司 基于深度强化学习的ar增强现实大屏互动的动画仿真方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141881A (ja) * 2011-01-05 2012-07-26 Kddi Corp 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム
CN109794937A (zh) * 2019-01-29 2019-05-24 南京邮电大学 一种基于强化学习的足球机器人协作方法
CN110496377A (zh) * 2019-08-19 2019-11-26 华南理工大学 一种基于强化学习的虚拟乒乓球手击球训练方法
CN111291617A (zh) * 2020-01-13 2020-06-16 西北农林科技大学 基于机器学习的羽毛球赛事视频精彩片段提取方法
CN111177659A (zh) * 2020-01-19 2020-05-19 黄俊杰 一种羽毛球运动胜负预测方法及赛事转播系统
CN111724414A (zh) * 2020-06-23 2020-09-29 宁夏大学 一种基于3d姿态估计的篮球运动分析方法
CN111905350A (zh) * 2020-07-10 2020-11-10 浙江大学 基于运动数据的自动化乒乓球击球表现评估方法和系统
CN112330778A (zh) * 2020-09-17 2021-02-05 江苏捷恒软件科技有限公司 基于深度强化学习的ar增强现实大屏互动的动画仿真方法

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
M. LIU ET AL.: "Model-free and model-based time-optimal control of a badminton robot", 《2013 9TH ASIAN CONTROL CONFERENCE (ASCC)》 *
冯林等: "Robocup半场防守中的一种强化学习算法", 《计算机技术与发展》 *
宗立波等: "体育视频分析中姿态估计进展的综述", 《小型微型计算机系统》 *
毛建博: "基于虚拟自我对局的多人非完备信息机器博弈策略研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *
沈萍: "RoboCup3D仿真中足球机器人的全向行走与团队协作", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *
郑志强等: "RoboCup中型组足球机器人系统关键技术", 《控制工程》 *
雷玉超: "基于机器学习的羽毛球技术特征统计与步伐训练的研究与实现", 《中国优秀博硕士学位论文全文数据库(硕士)社会科学Ⅱ辑》 *
黎子聪等: "虚拟乒乓球手的强化学习训练方法", 《计算机辅助设计与图形学学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837063A (zh) * 2021-10-15 2021-12-24 中国石油大学(华东) 一种基于强化学习的冰壶运动现场分析和辅助决策方法
CN113837063B (zh) * 2021-10-15 2024-05-10 中国石油大学(华东) 一种基于强化学习的冰壶运动现场分析和辅助决策方法
CN114167749A (zh) * 2021-11-17 2022-03-11 深兰盛视科技(苏州)有限公司 足球机器人的控制方法及相关装置

Also Published As

Publication number Publication date
CN113312840B (zh) 2023-02-17

Similar Documents

Publication Publication Date Title
JP5960240B2 (ja) 仮想ゴルフシミュレーション装置に用いられるセンシング装置及びセンシング方法
US8113991B2 (en) Method and system for interactive fitness training program
CN111444890A (zh) 一种基于机器学习的体育数据分析系统和方法
CN113312840B (zh) 一种基于强化学习的羽毛球对弈方法及系统
Suda et al. Prediction of volleyball trajectory using skeletal motions of setter player
TW201641143A (zh) 不受時間和空間限制模擬棒球比賽裝置
CN111905350B (zh) 基于运动数据的自动化乒乓球击球表现评估方法和系统
US11126539B2 (en) Data processing system and method
KR20200085803A (ko) 골프 공 추적 시스템
Breed et al. Can video-based perceptual-cognitive tests differentiate between skill level, player position, and experience in elite Australian football?
Pu et al. Orientation and decision-making for soccer based on sports analytics and AI: A systematic review
Liu et al. Application of Hawk-Eye Technology to Sports Events
JP2021000217A (ja) プレイ分析装置、プレイ分析方法、及び、コンピュータプログラム
NZ551762A (en) Player position validation interface
KR20210013463A (ko) 타격결과를 예측하는 가상 골프 장치 및 가상 골프 장치의 동작방법
CN115346161B (zh) 足球比赛态势评估和预测方法、装置和电子设备
Shih Analyzing and comparing shot planning strategies and their effects on the performance of an augment reality based billiard training system
CN112933574B (zh) 一种多联机的室内滑雪比赛控制方法、系统和可读存储介质
Uchikata et al. Automated judgement of Gateball with AI-IoT
Ramachandra et al. Detection of Bowler Errors using Deep Learning
US20220343649A1 (en) Machine learning for basketball rule violations and other actions
Pituxcoosuvarn et al. Rugby Goal Kick Prediction Using OpenPose Coordinates and LSTM
TW202419135A (zh) 分析使用者揮擊動作以判斷擊球軌跡之系統及方法
Sawahata et al. Automatic scoring in fencing by using skeleton points extracted from images
CN118356624A (zh) 足球点球分析方法、装置、设备、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant