CN113837012A - 一种基于比赛视频的场地数据恢复方法 - Google Patents

一种基于比赛视频的场地数据恢复方法 Download PDF

Info

Publication number
CN113837012A
CN113837012A CN202111011407.0A CN202111011407A CN113837012A CN 113837012 A CN113837012 A CN 113837012A CN 202111011407 A CN202111011407 A CN 202111011407A CN 113837012 A CN113837012 A CN 113837012A
Authority
CN
China
Prior art keywords
camera
image
field
feature
site
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111011407.0A
Other languages
English (en)
Inventor
吴锐
钱宇凡
唐降龙
严力
朱明�
刘家锋
刘松波
黄庆成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN202111011407.0A priority Critical patent/CN113837012A/zh
Publication of CN113837012A publication Critical patent/CN113837012A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于比赛视频的场地数据恢复方法。步骤1:根据需要进行标定的体育项目,对场地的实际尺寸建立场地标准模板;步骤2:利用孪生神经网络训练方法,由步骤1建立的场地标准模板和随机相机参数,生成有标签的训练集图像;步骤3:使用训练后的神经网络提取场地轮廓特征,并建立camera‑feature数据库;步骤4:输入待标定的图像后,利用场景数据恢复算法得到目标图像,即可完成场景数据恢复。本发明用以解决使用视觉的方法受干扰因素多的问题。

Description

一种基于比赛视频的场地数据恢复方法
技术领域
本发明属于计算机视觉技术领域;具体涉及一种基于比赛视频的场地数据恢复方法。
背景技术
通过视频拍摄采集运动员的训练过程是教练员进行训练质量控制的重要手段。另外,通过分析电视转播比赛视频是研究对手的主要方式。然而,缺乏尺度信息的视频图像提供的运动数据有限,也难以形成大规模量化分析。若能恢复视频拍摄的场地数据,即可以此为基础获得运动轨迹数据,进行视频的数字化和分析,这对运动过程分析大有裨益,尤其对于大量第三方的电视转播视频,意义重大。另一方面,具有尺度信息的场地数据也是实现运动场景三维重建的基础。通常获得场地数据的方式是通过摄像机标定,如数字化冰场即是依靠多台已知参数相机的拍摄,对冰场进行三维重建。而如果希望通过比赛视频分析对手的技术要领,该问题转换成单个未知参数的相机的标定问题,即要从视频中还原出冰场的平面坐标,由于冰面特征较少,同时属于自标定范畴,场内没有特定的标志物(例如标定板),这个问题很有挑战性。
发明内容
本发明提供了一种基于比赛视频的场地数据恢复方法,用以解决使用视觉的方法受干扰因素多的问题。
本发明通过以下技术方案实现:
一种基于比赛视频的场地数据恢复方法,所述场地数据恢复方法包括以下步骤:
步骤1:根据需要进行标定的体育项目,对场地的实际尺寸建立场地标准模板;
步骤2:利用孪生神经网络训练方法,由步骤1建立的场地标准模板和随机相机参数,生成有标签的训练集图像;
步骤3:使用训练后的神经网络提取场地边缘轮廓特征图像,并建立camera-feature数据库;
步骤4:向步骤3建立的camera-feature数据库输入待标定的图像后,利用场景数据恢复算法得到目标图像,即可完成场景数据恢复。
进一步的,所示步骤2的孪生神经网络的训练用于提取边缘图的特征,所述孪生神经网络由两个相同的卷积神经网络CNN构成。
进一步的,所述步骤2具体为,
基于场地标准模板和随机相机参数训练孪生神经网络,
所述孪生神经网络损失函数:
L(w,x1,x2,y)=yDw(x1,x2)+(1-y)max(0,m-Dw(x1,x2))
其中
Figure BDA0003238579490000021
CNN输入:边缘图像320×180;CNN输出:16维特征。
进一步的,所述步骤3场地边缘轮廓特征图像具体为,
场地边缘图像的提取主要通过两个GAN网络实现;
第一个GAN用于区分场地的前景和背景,保留图像的前景区域;
第二个GAN用于从前景区域提取需要的场地轮廓用于下一步操作。
进一步的,所述步骤3中camera-feature数据库的建立具体包括以下步骤:
步骤3.1:输入场地标准模板图像;
步骤3.2:输入camera-feature数据库规模N;
步骤3.3:camera-feature数据库为空;
步骤3.4:判断i是否小于N,若小于N则进入步骤3.10,若不小于N则进入步骤3.5,其中i是循环的计数;
步骤3.5:一定范围内随机生成相机参数camera;
步骤3.6:基于步骤3.5的相机参数camera计算单应性矩阵M;
步骤3.7:将步骤3.6的单应性矩阵M和场地标准模板图像卷积得到相机视角下的场地边缘图;
步骤3.8:利用Siamese-Network提取场地边缘图的特征featur
步骤3.9:将步骤3.5的相机参数camera和步骤3.8的特征featur添加入camera-feature数据库,并判断i是否小于N返回步骤3.4
步骤3.10:camera-feature持久化为数据库。
进一步的,所述步骤3.5的一定范围是指焦距fl范围[250,450];
俯仰角范围[-75°,-50°];
偏航角范围[-35°,35°];
世界坐标、翻滚角为固定值,世界坐标(300,450,150),翻滚角0°。
进一步的,所述步骤4场景数据恢复算法具体包括以下步骤:
步骤4.1:输入源图像,利用已训练完的GAN网络区分前景和背景提取出对应场地的场地边缘图edge-image;
步骤4.2:利用训练完的孪生神经网络提取步骤1的场地边缘图edge-image的特征featur;
步骤4.3:对步骤2的特征feature和训练集做knn近邻匹配;其中,训练集的sample为特征,label为相机参数;
步骤4.4:基于步骤3的近邻匹配获得场地边缘图对应的相机参数θ;
步骤4.5:利用步骤4的相机参数θ求得场地平面到边缘图的投影矩阵M;
步骤4.6:对步骤1的源图像施加投影矩阵的逆矩阵,得到源图像在场地平面的投影,即完成对视频场地数据的还原。
进一步的,所述步骤4.3训练集做knn的创建具体为,首先输入场地模板图像和需要数据库的规模N,然后每次产生一组特征和相机参数分别作为训练集的sample和label;
采用针孔相机模型,从世界坐标系到图像坐标系,参数包括相机在世界坐标系中的三维位置cc、相机坐标系的俯仰角、相机坐标系的翻滚角、相机坐标系的偏航角、相机的焦距fl以及从相机坐标系到图像坐标系的平移量u、v;
将需要标定的参数记为9维向量u,v,fl,cc[0],cc[1],cc[2],roll,pitch,yaw;
在随机产生相机参数时,针对不同比赛项目9维向量的取值会发生变化,将9维向量利用孪生神经网络提取上一步生成的场地模板图的特征,并与相机参数建立一一对应关系,存入数据库,即可完成KNN训练集的创建。
本发明的有益效果是:
本发明不需要视频帧中有例如标定板这样的先决条件,而是基于一段无固定来源的PTZ相机拍摄的比赛视频,从视频中直接还原出场景数据信息。
本发明各类运动的场地有特定的场地特征,通常以点和线的形式体现,充分利用这些场地特征信息,可以让数据恢复效果有显著提升。
本发明可以规避现有视觉的方法中的干扰因素,例如场地背景(观众席)、运动员、运动模糊等。
附图说明
附图1是本发明的足球场视频上的输入示意图。
附图2是本发明的足球场视频上的输出示意图。
附图3是本发明的GAN网络的输入示意图。
附图4是本发明的前景背景蒙版结果示意图。
附图5是本发明的特征点提取示意图。
附图6是本发明的方法流程图。
附图7是本发明的相机参数-特征数据库创建流程图。
附图8是本发明的场景数据恢复算法流程图。
附图9是本发明的短道速滑场地模板示意图。
附图10是本发明的相机坐标系下模板图像Ⅰ。
附图11是本发明的相机坐标系下模板图像Ⅱ。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
运动比赛场地数据恢复的目标是建立视频图像和现实世界运动场坐标的映射关系,难点在于视频场地特征和现实运动场地特征的匹配。从单个PTZ相机拍摄的视频中标定相机参数还原比赛场地数据,实现比赛视频的场地数据恢复。
一种基于比赛视频的场地数据恢复方法,所述场地数据恢复方法包括以下步骤:
步骤1:根据需要进行标定的体育项目,对场地的实际尺寸建立场地标准模板;
步骤2:利用孪生神经网络训练方法,由步骤1建立的场地标准模板和随机相机参数,生成有标签的训练集图像;
步骤3:使用训练后的神经网络提取场地边缘轮廓特征图像,并建立camera-feature数据库;
步骤4:向步骤3建立的camera-feature数据库输入待标定的图像后,利用场景数据恢复算法得到目标图像,即可完成场景数据恢复。
整体实施方案如图6所示。首先需要根据需要进行标定的体育项目,根据其对应场地的实际尺寸建立标准模板,如图9所示为短道速滑场地模板;接着利用上述孪生神经网络训练方法,由场地模板和随机相机参数,生成有标签的训练集图像,部分图像如图10、图11所示,训练出能够提取场地轮廓特征的神经网络;然后利用图7所示数据库建立方法,建立camera-feature数据库;输入待标定的图像后,由图8所示方法,得到目标图像,即可完成场景数据恢复。
进一步的,所示步骤2的孪生神经网络的训练用于提取边缘图的特征,所述孪生神经网络由两个相同的卷积神经网络CNN构成。
进一步的,所述步骤2具体为,
基于场地标准模板和随机相机参数训练孪生神经网络,
所述孪生神经网络损失函数:
L(w,x1,x2,y)=yDw(x1,x2)+(1-y)max(0,m-Dw(x1,x2))
其中
Figure BDA0003238579490000051
CNN输入:边缘图像320×180;CNN输出:16维特征。
进一步的,所述步骤3场地边缘轮廓特征图像具体为,
场地边缘图像的提取主要通过两个GAN网络实现;
第一个GAN用于区分场地的前景和背景,保留图像的前景区域;
第二个GAN用于从前景区域提取需要的场地轮廓用于下一步操作。
GAN网络的输入输出如图3图4图5所示,由视频帧自动区分出前景(冰面)和背景(观众席),蒙版后再提取出场地的特征点信息,例如冰场的弯道标记。
进一步的,所述步骤3中camera-feature数据库的建立具体包括以下步骤:
步骤3.1:输入场地标准模板图像;
步骤3.2:输入camera-feature数据库规模N;
步骤3.3:camera-feature数据库为空;
步骤3.4:判断i是否小于N,若小于N则进入步骤3.10,若不小于N则进入步骤3.5,其中i是循环的计数;
步骤3.5:一定范围内随机生成相机参数camera;
步骤3.6:基于步骤3.5的相机参数camera计算单应性矩阵M;
步骤3.7:将步骤3.6的单应性矩阵M和场地标准模板图像卷积得到相机视角下的场地边缘图;
步骤3.8:利用Siamese-Network提取场地边缘图的特征featur
步骤3.9:将步骤3.5的相机参数camera和步骤3.8的特征featur添加入camera-feature数据库,并判断i是否小于N返回步骤3.4
步骤3.10:camera-feature持久化为数据库。camera-feature结果保存为数据库文件存到硬盘里,而不只是在运行时计算运行之后随内存释放被清除。
进一步的,所述步骤4场景数据恢复算法具体包括以下步骤:
步骤4.1:输入源图像,利用已训练完的GAN网络区分前景和背景提取出对应场地的场地边缘图edge-image;
步骤4.2:利用训练完的孪生神经网络提取步骤1的场地边缘图edge-image的特征featur;
步骤4.3:对步骤2的特征feature和训练集做knn近邻匹配;其中,训练集的sample为特征,label为相机参数;
步骤4.4:基于步骤3的近邻匹配获得场地边缘图对应的相机参数θ;
步骤4.5:利用步骤4的相机参数θ求得场地平面到边缘图的投影矩阵M;
步骤4.6:对步骤1的源图像施加投影矩阵的逆矩阵,得到源图像在场地平面的投影,即完成对视频场地数据的还原。
进一步的,所述步骤4.3训练集做knn的创建具体为,KNN训练的效果取决于训练集和现实的契合程度,因此需要生成尽可能和现实比赛场景相近的训练样本集。
Feature-camera数据库的建立流程如图7所示,首先输入场地模板图像和需要数据库的规模N,然后每次产生一组特征和相机参数分别作为训练集的sample和label;
采用针孔相机模型,从世界坐标系到图像坐标系,参数包括相机在世界坐标系中的三维位置cc、相机坐标系的俯仰角、相机坐标系的翻滚角、相机坐标系的偏航角、相机的焦距fl以及从相机坐标系到图像坐标系的平移量u、v;
将需要标定的参数记为9维向量u,v,fl,cc[0],cc[1],cc[2],roll,pitch,yaw;
在随机产生相机参数时,针对不同比赛项目9维向量的取值会发生变化,将9维向量利用孪生神经网络提取上一步生成的场地模板图的特征,并与相机参数建立一一对应关系,存入数据库,即可完成KNN训练集的创建。
针对不同比赛项目有不同的策略,以短道速滑场地为例,将标准短道速滑场地按比例放缩至长600像素,宽300像素,根据相机坐标系和图像坐标系的对应关系,u=300,v=150;相机通常悬挂在场地中心的一侧较高处,因此cc(x-y-z)=(300,450,150);焦距随着运动员位置的变化而变化,范围在(250,450)之间;而在实际比赛中,很少出现相机的翻滚,而仅有俯仰和偏航的变化,因此设置roll=0,pitch=(50,75),yaw=(-35,35)(单位:度)。随机在以上范围内取值,即可产生与实际比赛场景类似角度的场地模板图。
图1、图2为本系统在足球场视频上的输入输出示例。可以准确还原出视频中场地以及运动员在真实世界坐标系下的位置信息。

Claims (8)

1.一种基于比赛视频的场地数据恢复方法,其特征在于,所述场地数据恢复方法包括以下步骤:
步骤1:根据需要进行标定的体育项目,对场地的实际尺寸建立场地标准模板;
步骤2:利用孪生神经网络训练方法,由步骤1建立的场地标准模板和随机相机参数,生成有标签的训练集图像;
步骤3:使用训练后的神经网络提取场地边缘轮廓特征图像,并建立camera-feature数据库;
步骤4:向步骤3建立的camera-feature数据库输入待标定的图像后,利用场景数据恢复算法得到目标图像,即可完成场景数据恢复。
2.根据权利要求1所述一种基于比赛视频的场地数据恢复方法,其特征在于,所示步骤2的孪生神经网络的训练用于提取边缘图的特征,所述孪生神经网络由两个相同的卷积神经网络CNN构成。
3.根据权利要求1所述一种基于比赛视频的场地数据恢复方法,其特征在于,所述步骤2具体为,
基于场地标准模板和随机相机参数训练孪生神经网络,
所述孪生神经网络损失函数:
L(w,x1,x2,y)=yDw(x1,x2)+(1-y)max(0,m-Dw(x1,x2))
其中
Figure FDA0003238579480000011
CNN输入:边缘图像320×180;CNN输出:16维特征。
4.根据权利要求1所述一种基于比赛视频的场地数据恢复方法,其特征在于,所述步骤3场地边缘轮廓特征图像具体为,
场地边缘图像的提取主要通过两个GAN网络实现;
第一个GAN用于区分场地的前景和背景,保留图像的前景区域;
第二个GAN用于从前景区域提取需要的场地轮廓用于下一步操作。
5.根据权利要求1所述一种基于比赛视频的场地数据恢复方法,其特征在于,所述步骤3中camera-feature数据库的建立具体包括以下步骤:
步骤3.1:输入场地标准模板图像;
步骤3.2:输入camera-feature数据库规模N;
步骤3.3:camera-feature数据库为空;
步骤3.4:判断i是否小于N,若小于N则进入步骤3.10,若不小于N则进入步骤3.5,其中i是循环的计数;
步骤3.5:一定范围内随机生成相机参数camera;
步骤3.6:基于步骤3.5的相机参数camera计算单应性矩阵M;
步骤3.7:将步骤3.6的单应性矩阵M和场地标准模板图像卷积得到相机视角下的场地边缘图;
步骤3.8:利用Siamese-Network提取场地边缘图的特征featur
步骤3.9:将步骤3.5的相机参数camera和步骤3.8的特征featur添加入camera-feature数据库,并判断i是否小于N返回步骤3.4
步骤3.10:camera-feature持久化为数据库。
6.根据权利要求1所述一种基于比赛视频的场地数据恢复方法,其特征在于,所述步骤3.5的一定范围是指焦距fl范围[250,450];
俯仰角范围[-75°,-50°];
偏航角范围[-35°,35°];
世界坐标、翻滚角为固定值,世界坐标(300,450,150),翻滚角0°。
7.根据权利要求1所述一种基于比赛视频的场地数据恢复方法,其特征在于,所述步骤4场景数据恢复算法具体包括以下步骤:
步骤4.1:输入源图像,利用已训练完的GAN网络区分前景和背景提取出对应场地的场地边缘图edge-image;
步骤4.2:利用训练完的孪生神经网络提取步骤1的场地边缘图edge-image的特征featur;
步骤4.3:对步骤2的特征feature和训练集做knn近邻匹配;其中,训练集的sample为特征,label为相机参数;
步骤4.4:基于步骤3的近邻匹配获得场地边缘图对应的相机参数θ;
步骤4.5:利用步骤4的相机参数θ求得场地平面到边缘图的投影矩阵M;
步骤4.6:对步骤1的源图像施加投影矩阵的逆矩阵,得到源图像在场地平面的投影,即完成对视频场地数据的还原。
8.根据权利要求7所述一种基于比赛视频的场地数据恢复方法,其特征在于,所述步骤4.3训练集做knn的创建具体为,首先输入场地模板图像和需要数据库的规模N,然后每次产生一组特征和相机参数分别作为训练集的sample和label;
采用针孔相机模型,从世界坐标系到图像坐标系,参数包括相机在世界坐标系中的三维位置cc、相机坐标系的俯仰角、相机坐标系的翻滚角、相机坐标系的偏航角、相机的焦距fl以及从相机坐标系到图像坐标系的平移量u、v;
将需要标定的参数记为9维向量u,v,fl,cc[0],cc[1],cc[2],roll,pitch,yaw;
在随机产生相机参数时,针对不同比赛项目9维向量的取值会发生变化,将9维向量利用孪生神经网络提取上一步生成的场地模板图的特征,并与相机参数建立一一对应关系,存入数据库,即可完成KNN训练集的创建。
CN202111011407.0A 2021-08-31 2021-08-31 一种基于比赛视频的场地数据恢复方法 Pending CN113837012A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111011407.0A CN113837012A (zh) 2021-08-31 2021-08-31 一种基于比赛视频的场地数据恢复方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111011407.0A CN113837012A (zh) 2021-08-31 2021-08-31 一种基于比赛视频的场地数据恢复方法

Publications (1)

Publication Number Publication Date
CN113837012A true CN113837012A (zh) 2021-12-24

Family

ID=78961793

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111011407.0A Pending CN113837012A (zh) 2021-08-31 2021-08-31 一种基于比赛视频的场地数据恢复方法

Country Status (1)

Country Link
CN (1) CN113837012A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979470A (zh) * 2022-05-12 2022-08-30 咪咕文化科技有限公司 摄像机旋转角度分析方法、装置、设备与存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111028280A (zh) * 2019-12-09 2020-04-17 西安交通大学 井字结构光相机系统及进行目标有尺度三维重建的方法
CN113177977A (zh) * 2021-04-09 2021-07-27 上海工程技术大学 一种非接触式三维人体尺寸的测量方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111028280A (zh) * 2019-12-09 2020-04-17 西安交通大学 井字结构光相机系统及进行目标有尺度三维重建的方法
CN113177977A (zh) * 2021-04-09 2021-07-27 上海工程技术大学 一种非接触式三维人体尺寸的测量方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Camera Invariant Feature Learning for Generalized Face Anti-Spoofing", 《IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY》, 27 January 2021 (2021-01-27), pages 2477 - 2492 *
陈战 等: "多摄像机定标恢复足球比赛场景", 《计算机工程与设计》, 30 September 2007 (2007-09-30), pages 4539 - 4541 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979470A (zh) * 2022-05-12 2022-08-30 咪咕文化科技有限公司 摄像机旋转角度分析方法、装置、设备与存储介质

Similar Documents

Publication Publication Date Title
CN110472554B (zh) 基于姿态分割和关键点特征的乒乓球动作识别方法及系统
US11582426B2 (en) Method and apparatus for sensing moving ball
GB2575843A (en) Method and system for generating an image
CN111444890A (zh) 一种基于机器学习的体育数据分析系统和方法
CN110544301A (zh) 一种三维人体动作重建系统、方法和动作训练系统
CN109087328A (zh) 基于计算机视觉的羽毛球落点位置预测方法
CN109102530B (zh) 运动轨迹绘制方法、装置、设备和存储介质
US9154710B2 (en) Automatic camera identification from a multi-camera video stream
CN109684919B (zh) 一种基于机器视觉的羽毛球发球违例判别方法
Sternig et al. Multi-camera multi-object tracking by robust hough-based homography projections
Hsu et al. Coachai: A project for microscopic badminton match data collection and tactical analysis
CN110433471A (zh) 一种羽毛球运动轨迹监测分析系统及方法
Liu et al. A novel approach for tracking high speed skaters in sports using a panning camera
CN113837012A (zh) 一种基于比赛视频的场地数据恢复方法
CN115624735A (zh) 一种用于球类运动的辅助训练系统和工作方法
Sokolova et al. Human identification by gait from event-based camera
JP2016220129A (ja) カメラキャリブレーション方法および装置
CN109407826B (zh) 球类运动模拟方法、装置、存储介质及电子设备
CN110377033B (zh) 一种基于rgbd信息的小型足球机器人识别与追踪抓取方法
KR20010025404A (ko) 카메라 동작 분석을 이용한 가상 광고 삽입 장치 및 방법
CN111738093A (zh) 一种基于梯度特征的冰壶球自动测速方法
WO2023061356A1 (zh) 广告投放方法、装置、设备、存储介质和计算机程序产品
CN106408588A (zh) 一种基于图像处理技术的投篮命中率影响因素的分析方法
JP7083332B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7045964B2 (ja) 画像処理装置、方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination