CN110152301A - 一种电子竞技游戏数据获取方法 - Google Patents
一种电子竞技游戏数据获取方法 Download PDFInfo
- Publication number
- CN110152301A CN110152301A CN201910526046.XA CN201910526046A CN110152301A CN 110152301 A CN110152301 A CN 110152301A CN 201910526046 A CN201910526046 A CN 201910526046A CN 110152301 A CN110152301 A CN 110152301A
- Authority
- CN
- China
- Prior art keywords
- picture
- game
- video
- convolutional layer
- format
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/55—Details of game data or player data management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种电子竞技关键数据获取方法,属于数据分析领域。该方法实用改进的卷积神经网络结构对视频进行识别,从而得到数据。所述方法包含以下步骤:S1.获取玩家的游戏录像视频文件,格式为.webm;S2.将获得的.webm视频文件格式化为.mp4文件;S3.将.mp4录像视频按每2秒每帧进行读取且保存至数据库,并测定数量;S4.利用卷积神经网络算法预测游戏中角色的坐标位置;S5.将获取的坐标相关数据存入数据库;S6.通过javaWeb程序显示二维坐标的热力图。
Description
技术领域
本发明涉及一种电子竞技游戏数据获取方法,尤其是一种基于机器学习的视频数据获取方法,属于数据分析领域。
背景技术
目前一般所知的。随着电子竞技(E-Sports,ES)不断发展,电子竞技数据分析显得越来越重要。而多人在线战术竞技游戏(Multiplayer Online Battle Arena,MOBA)类电子竞技比赛作为当今ES比赛最为热门的分类,如何对其进行数据分析来给比赛队伍提供好的战术策略建议也受到了越来越多研究人员的关注。但是想要利用计算机进行快速的电子竞技数据分析存在如下问题:部分游戏未开放数据源,关键数据无法获取,数据分析也就成了无源之水。
据申请人了解,现有的技术仅着眼于选手的眼动轨迹,未能对选手所使用的角色进行轨迹分析,更无法得到竞技比赛选手的角色行为模式。但是角色的行为模式分析必定是基于二维坐标点的。目前由于部分游戏数据并不开源,因此需要提出一种电子竞技关键数据获取方法。
发明内容
本发明解决的技术问题是:提出一种电子竞技关键数据获取方法。
为了解决上述技术问题,本发明提出的技术方案是将数据获取问题转化为视
频识别问题,使用卷积神经网络获取关键数据。具体内容如下:
一种电子竞技游戏数据获取方法,包括以下步骤:S1.获取玩家的游戏录像视频文件,格式为.webm;S2.将获得的.webm视频文件格式化为.mp4文件;S3.将.mp4录像视频按每2秒每帧进行读取且保存至数据库,并测定数量;S4.利用卷积神经网络算法预测游戏中角色的坐标位置;S5.将获取的坐标相关数据存入数据库;S6.通过javaWeb程序显示二维坐标的热力图。
进一步地,所述步骤S4.中游戏中角色位置预测方法包括如下,A1.图片预处理:将S3中获取的.mp4录像视频转换为如JPG的图片格式;A2.将上述步骤A1中得到的N个图片初始化成为集合X,经Inception-v3网络得到多人在线竞技游戏战场位置坐标识别的模型;A3.将上述步骤中得到的位置坐标识别模型进行训练:
将预处理后的图片输入原始的Inception-v3网络,将获得的图片在Inception-v3中的输出,然后先所获得的输出图片在第一个1*1卷积层上卷积,如果存在第二个1*1卷积层则在第二个1*1卷积层上再进行卷积,最后进行softmax归一化处理,获取到的数据就是CNN对这张图片属于图片类别;本发明的损失函数为交叉熵损失,然后通过梯度下降和反向传播更新最后增加的1*1卷积层的参数,直到卷积结束。
进一步地,步骤A3中所述交叉熵损失公式如下
M2表示地图共被划分为M2个类,k表示分类标签。
附图说明
图1是一种电子竞技数据获取方法的流程图;
图2是录制视频、切换视角示意图;
图3是图2中切换视角的放大图;
图4是图2中时间控制的放大图;
图5是本发明提出的改进卷积神经网络结构示意图;
图6是展示了MOBA游戏英雄联盟的二维地图;
图7是M取值对识别正确率的影响示意图;
图8是二维坐标的热力图;
图9是训练模型结构示意图;
图10是角色的头像帧率低的小地图;
图11是角色的头像重合的小地图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
在对本发明实施例进行详细地解释说明之前,首先对本发明实施例涉及到的概念进行如下解释:
迁移学习:在机器学习、深度学习和数据挖掘的大多数任务中,我们都会假设训练和测试时采用的数据服从相同的分布、来源于相同的特征空间。但在现实应用中,这个假设很难成立,往往遇到一些问题:
首先带标记的训练样本数量有限。其次数据分布会发生变化。这时,知识迁移便发挥了作用,即把B领域中的知识迁移到A领域中来,提高A领域分类效果,不需要花大量时间去标注A领域数据。迁移学习,作为一种新的学习范式,被提出用于解决这个问题。这是本发明应用实现的一个十分重要的基础。
如图1所示,本发明一种电子竞技关键数据获取方法,使用本发明改进后的卷积神经网络(Convolutional Neural Network,CNN)模型分析得到二维坐标,且提供图形化界面供用户直观观察二维坐标轨迹。所述方法包括以下步骤:
S1.使用游戏官方提供的电子竞技游戏助手平台WEGAME获取玩家的游戏录像视频文件(格式为.webm)。点击某位玩家的战斗录像进入游戏录像界面,如图2所示,录制时需要调整视角(想要得到哪位角色的位置就调整到某个角色的视角),关闭多余界面元素,仅保留时间控制和小地图,用时间控制移动到比赛开始时刻,点击录制按钮,等待录制结束并保存。建议录制时间大于10min~40min,时间太短,角色的移动轨迹价值太小。所述游戏录像可从游戏官方提供的WEGAME平台的观战功能获取,也可从玩家登录后的客户端内通过比赛回放录制获取,对想要分析的游戏录像进行视频录制并保存,保存后的格式为“.webm”。。
S2.本发明将获得的.webm视频文件格式化为.mp4文件。使用本发明提供的格式转换代码将.webm格式化,格式化时长在1min~8min之间(受视频文件时长影响)。
S3.本发明将.mp4录像视频按每2秒每帧进行读取且保存至数据库,并测定数量。读取.mp4文件,每秒截取图像帧并保存。所述图像帧用于显示角色此刻在地图上的局部位置。读取保存的图像帧,对所述图像帧进行特征提取,得到位置特征。获取电子竞技图像识别输出模型,所述电子竞技图像识别输出模型用于确定图像帧在整张电子竞技地图中所处的位置。
S4.利用卷积神经网络算法预测游戏中角色的坐标位置
此问题至今没有能够很好地解决的原因是因为若直接识别视频中的小地图来获取关数据是非常困难的。如图10所示,不难看出小地图的缺陷:1.帧率较低(角色的头像帧率低,无法判断是哪个英雄),图像识别难以提高准确率。2.角色头像会重叠,如图11所示(红框部分),无法识别此时的数据。3.角色的头像过大(约1/10个地图大小),假设识别正确率高,识别出来的坐标数据范围约为10~20,此坐标精度太低,难以利用。因此上述直观的解决方法还不能很好地解决此问题。
本文将大地图分多个区域,将视频的每帧截图与这些区域进行匹配,可能性最大的即为此截图在整个大地图中的位置,这样问题便将游戏中如何识别多人在线竞技时游戏战场位置的现有问题转化为卷积神经网络的分类问题,具体的来说,如图5所示,本发明所涉及的基于改进卷积神经网络的多人在线竞技游戏战场位置预测方法包括如下步骤:
A1.图片预处理:将S3中获取的.mp4录像视频转换为如JPG的图片格式;可将图片缩小为90*160像素。
A2.将上述步骤A1中得到的N个图片初始化成为集合X,经v3网络得到输出;即得到多人在线竞技游戏战场位置坐标识别的模型;
本发明提出的一种电子竞技关键数据获取方法,数学化的说明如下:对于每一次训练要随机获取总数为(批大小)的经过预处理的图片。定义训练样本集合为:X≡{x1,x2,L,xn},其中xi=(xi1,xi2,xi3,xi4),其中i∈[1,N],xi1,xi2,xi3分别为图片的3通道矩阵,xi4为图片的分类信息。定义分类标签k,且k∈{1,2,3,L K},K=M2。对于根据v3模型计算xi.xi4=k的概率zi是对数单位或未归一化的对数概率。每个训练样本在标签上的实际分布为q(k|xi),因此归一化后样本损失定义为交叉熵:最小化交叉熵等价于最大化标签对数似然期望,其中标签是根据它的实际分布q(k)选择的。交叉熵损失对于zk是可微的,因此可以用来进行深度模型的梯度训练。其梯度的形式为:其中
考虑标签u(k)的分布和平滑参数ε∈[0,1],与训练样本xi相互独立。对于一个真实标签为y的训练样本,用q′(k)=(1-ε)δk,y+εu(k)代替标签分布q(k|x)=δk,y,其中δk,y为狄拉克δ函数,其由最初的实际条件分布q(k|xi)和固定分布u(k)混合得到,它们的权重分别为1-ε和ε。这可以看作获得标签k的分布如下:首先,将其设置为真实标签k=y;其次,用分布u(k)中的采样和概率ε替代k。标签上的先验分布作为u(k),使用了均匀分布u(k)=1/K,以便使得称之为标签平滑正则化,以便防止过拟合和提高模型泛化性能的最好的拟合模型(从最小化泛化误差的意义上)是一个适当正则化的模型,因此我们得到了本发明中的u(k)。
A3.将上述步骤中得到的位置坐标识别模型进行训练:
将预处理后的图片输入原始的Inception-v3网络,将获得的图片在Inception-v3中的输出,然后先所获得的输出图片在第一个1*1卷积层上卷积,如果存在第二个1*1卷积层则在第二个1*1卷积层上再进行卷积,最后进行softmax归一化处理,获取到的数据就是CNN对这张图片属于图片类别(地图中的某个区域)的判断。本发明的损失函数为交叉熵损失,然后通过梯度下降和反向传播更新最后增加的1*1卷积层的参数,直到卷积结束。
对于上述训练模型方法作如下解释说明:本发明基于传统的卷积神经网络作出了2种改进,提高了解决问题的正确率,如图5所示。第一,在原网络基础上增加了一个1*1卷积层,Inception虽然能够提取到有效特征,但是训练其提取特征能力的样本与本文问题样本风格上有极大不同,所以需在Inception原始网络的末尾增加全连接层或者1*1卷积层,其参数初始化为0。并且通过本问题的样本来对其进行训练更新参数,如此便提高了Inception专门处理本问题的分类问题,使其更加适应本问题样本环境。
第二,在原网络基础上增加两个1*1卷积层则是防止第一种网络可能会发生的过拟合情况。并且增加的第一层单元数为256,第二层为961如此便构成了一个bottleneck单元。如此增加了网络深度、防止过拟合的同时,还减少了参数,因为以往增加全连接层时前一层的单元数总比后一层多,而本发明意在增加网络深度防止过拟合。以上两种方法各有理论上的优点和不足,第一种收敛快,单次训练快,但可能发生过拟合。第二种增加了深度,防止了过拟合,但在本文小样本的环境下可能发生欠拟合,且网络收敛速度慢。每一种改进的最后都会增加一层softmax层对其进行归一化,选择输出值最大的也就是概率最高的为CNN判定的分类。训练时采用批梯度下降,每批大小为400,反向传播只更新最后增加的1*1卷积层的参数。
本发明提出的一种电子竞技关键数据获取方法的训练模型部分(训练模型如图9所示),如下表所示:
本发明的训练模型分析如下:本模型首先定义了如下几个变量:增加的第一个卷积层,增加的第二个卷积层,执行批梯度下降时的批梯度大小,学习率还有学习总步数。第二步对第一个卷积层和第二个卷积层进行初始化,其参数全部为0,这两个卷积层的参数将会在训练学习中更新。然后对于含有训练集的961个文件夹,对每个文件夹进行扫描,存入一个二维数组中,数组的第一维命名为文件夹名,而文件夹名就是坐标,第二维存储的就是图片,然后会先对图片进行预处理。
预处理第一步:将图片缩小为90*160像素。第二步,输入原始的Inception-v3网络,获得输出数据,因为根据迁移学习,训练过程中原始的Inception-v3网络的参数(采用ILSVRC大赛ImageNet大规模视觉识别挑战赛上的参数)是不会变化的,参数变化的只有自行添加的1*1卷积层,所以先获得图片在Inception-v3中的输出,而且考虑到复用问题这些输出向量可以以文件形式保存下来,每次进行训练时直接读取,节约了时间。
最后为训练,对于每一次训练要随机获取总数为批大小的经过预处理的图片,并且初始化了一个批大小*类别大小的零矩阵,零矩阵中只有每个样本对应的类的值标注为1。然后先对预处理图片在第一个1*1卷积层上卷积,如果存在第二个1*1卷积层则在第二个1*1卷积层上进行卷积,最后进行softmax归一化处理,获取到的数据就是CNN对这张图片属于图片类别(地图中的某个区域)的判断。本实验的损失函数为交叉熵损失,然后通过梯度下降和反向传播更新最后增加的1*1卷积层的参数,如此便通过传统CNN与迁移学习结合,训练了一个可以获取MOBA类游戏中战场位置的CNN网络。
如图6所示,展示了MOBA游戏英雄联盟的二维地图。本文将地图以M*M划分类,其中地图共被划分为M2个类。
关于关键值M的取值问题,本发明也进行了研究。根据卷积神经网络原理,CNN对输入图像的处理其实是在进行边缘检测(特征提取的基础),从而对输入图像进行分类,如果区域或者画面过小导致特征不足会大大影响CNN在此问题上的表现,而如果画面过大,输入参数过多,重叠部分也过多,将会影响正确率,并且降低训练速度。综上考虑,本文对划分关键值M进行了讨论实验。
图7展示了M取值对识别正确率的影响。在不断本文不断的实验后,得到的结果为:M=31最优。
当M=31,将大地图划分31(横)*31(纵)=961个区域。如此划分相邻两个区域的重叠程度约为30%,处于中等水平且961个坐标的精度基本能满足数据分析的需要。其中每一块区域以图中相交点为中心,以图中四个单元格为大小,如图中红色区域所示,中心也是这块区域的坐标。如此便能得到MOBA角色在战场上的准确坐标位置。
S5.将获取的坐标相关数据存入数据库。
S6.通过javaWeb程序显示二维坐标的热力图,如图8所示,其中红色区域表示二维点较为密集的区域。
Claims (3)
1.一种电子竞技游戏数据获取方法,其特征在于,所述方法包括以下步骤:
S1.获取玩家的游戏录像视频文件,格式为.webm;
S2.将获得的.webm视频文件格式化为.mp4文件;
S3.将.mp4录像视频按每2秒每帧进行读取且保存至数据库,并测定数量;
S4.利用卷积神经网络算法预测游戏中角色的坐标位置;
S5.将获取的坐标相关数据存入数据库;
S6.通过javaWeb程序显示二维坐标的热力图。
2.根据权利要求1所述的一种电子竞技游戏数据获取方法,其特征在于,所述步骤S4.中游戏中角色位置预测方法包括如下步骤:
A1.图片预处理:将S3中获取的.mp4录像视频转换为如JPG的图片格式;
A2.将上述步骤A1中得到的N个图片初始化成为集合X,经Inception-v3网络得到多人在线竞技游戏战场位置坐标识别的模型;
A3.将上述步骤中得到的位置坐标识别模型进行训练:
将预处理后的图片输入原始的Inception-v3网络,将获得的图片在Inception-v3中的输出,然后先所获得的输出图片在第一个1*1卷积层上卷积,如果存在第二个1*1卷积层则在第二个1*1卷积层上再进行卷积,最后进行softmax归一化处理,获取到的数据就是CNN对这张图片属于图片类别;本发明的损失函数为交叉熵损失,然后通过梯度下降和反向传播更新最后增加的1*1卷积层的参数,直到卷积结束。
3.根据权利要求2所述的一种电子竞技游戏数据获取方法,其特征在于,步骤A3中所述交叉熵损失公式如下
M2表示地图共被划分为M2个类,k表示分类标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910526046.XA CN110152301B (zh) | 2019-06-18 | 2019-06-18 | 一种电子竞技游戏数据获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910526046.XA CN110152301B (zh) | 2019-06-18 | 2019-06-18 | 一种电子竞技游戏数据获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110152301A true CN110152301A (zh) | 2019-08-23 |
CN110152301B CN110152301B (zh) | 2022-12-16 |
Family
ID=67625907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910526046.XA Active CN110152301B (zh) | 2019-06-18 | 2019-06-18 | 一种电子竞技游戏数据获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110152301B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111185015A (zh) * | 2019-12-17 | 2020-05-22 | 同济大学 | 用于优化十人在线竞技游戏匹配机制的方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108416384A (zh) * | 2018-03-05 | 2018-08-17 | 苏州大学 | 一种图像标签标注方法、系统、设备及可读存储介质 |
CN108769821A (zh) * | 2018-05-25 | 2018-11-06 | 广州虎牙信息科技有限公司 | 游戏场景描述方法、装置、设备及存储介质 |
CN108764133A (zh) * | 2018-05-25 | 2018-11-06 | 北京旷视科技有限公司 | 图像识别方法、装置及系统 |
CN109529350A (zh) * | 2018-12-27 | 2019-03-29 | 北京云舶在线科技有限公司 | 一种应用于游戏中的动作数据处理方法及其装置 |
CN109697392A (zh) * | 2017-10-23 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 绘制目标对象热力图的方法及装置 |
CN109816745A (zh) * | 2018-12-24 | 2019-05-28 | 深圳云天励飞技术有限公司 | 人体热力图展示方法及相关产品 |
CN109829443A (zh) * | 2019-02-23 | 2019-05-31 | 重庆邮电大学 | 基于图像增强与3d卷积神经网络的视频行为识别方法 |
-
2019
- 2019-06-18 CN CN201910526046.XA patent/CN110152301B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697392A (zh) * | 2017-10-23 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 绘制目标对象热力图的方法及装置 |
CN108416384A (zh) * | 2018-03-05 | 2018-08-17 | 苏州大学 | 一种图像标签标注方法、系统、设备及可读存储介质 |
CN108769821A (zh) * | 2018-05-25 | 2018-11-06 | 广州虎牙信息科技有限公司 | 游戏场景描述方法、装置、设备及存储介质 |
CN108764133A (zh) * | 2018-05-25 | 2018-11-06 | 北京旷视科技有限公司 | 图像识别方法、装置及系统 |
CN109816745A (zh) * | 2018-12-24 | 2019-05-28 | 深圳云天励飞技术有限公司 | 人体热力图展示方法及相关产品 |
CN109529350A (zh) * | 2018-12-27 | 2019-03-29 | 北京云舶在线科技有限公司 | 一种应用于游戏中的动作数据处理方法及其装置 |
CN109829443A (zh) * | 2019-02-23 | 2019-05-31 | 重庆邮电大学 | 基于图像增强与3d卷积神经网络的视频行为识别方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111185015A (zh) * | 2019-12-17 | 2020-05-22 | 同济大学 | 用于优化十人在线竞技游戏匹配机制的方法 |
CN111185015B (zh) * | 2019-12-17 | 2022-07-08 | 同济大学 | 用于优化十人在线竞技游戏匹配机制的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110152301B (zh) | 2022-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Peng et al. | Syn2real: A new benchmark forsynthetic-to-real visual domain adaptation | |
CN110472554B (zh) | 基于姿态分割和关键点特征的乒乓球动作识别方法及系统 | |
Gladh et al. | Deep motion features for visual tracking | |
Chen et al. | Convolutional regression for visual tracking | |
CN107122375A (zh) | 基于图像特征的图像主体的识别方法 | |
CN107437100A (zh) | 一种基于跨模态关联学习的图像位置预测方法 | |
CN103324677B (zh) | 一种可分级的快速图像gps位置估计方法 | |
CN106778852A (zh) | 一种修正误判的图像内容识别方法 | |
CN113536922A (zh) | 一种加权融合多种图像任务的视频行为识别方法 | |
Danelljan et al. | Deep motion and appearance cues for visual tracking | |
Xu et al. | Mental retrieval of remote sensing images via adversarial sketch-image feature learning | |
CN111666919A (zh) | 一种对象识别方法、装置、计算机设备和存储介质 | |
CN107909034A (zh) | 一种人脸检测方法、装置和计算机可读存储介质 | |
CN110188780A (zh) | 用于定位多目标特征点的深度学习模型的构建方法及装置 | |
US11679299B2 (en) | Personalizing prediction of performance using data and body-pose for analysis of sporting performance | |
Yu et al. | Exemplar-based recursive instance segmentation with application to plant image analysis | |
CN109785359A (zh) | 一种基于深度特征金字塔与跟踪损失的视频目标检测方法 | |
CN110152301A (zh) | 一种电子竞技游戏数据获取方法 | |
Upchurch et al. | Interactive consensus agreement games for labeling images | |
CN118247679A (zh) | 一种基于旋转信息挖掘的半监督遥感图像目标检测方法 | |
Cai et al. | Decoupled textual embeddings for customized image generation | |
Ma et al. | Robust visual object tracking based on feature channel weighting and game theory | |
CN114092799A (zh) | 基于池化视觉Transformer林业害虫识别检测方法 | |
CN108647789A (zh) | 一种基于状态分布感知采样的智能体深度价值函数学习方法 | |
Bonnin et al. | A cluster-based strategy for active learning of RGB-D object detectors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Zhu Wanning Inventor after: Yu Cheng Inventor before: Yu Cheng Inventor before: Zhu Wanning |
|
GR01 | Patent grant | ||
GR01 | Patent grant |