CN111833439B - 基于人工智能的弹药投掷分析及移动仿真训练方法 - Google Patents

基于人工智能的弹药投掷分析及移动仿真训练方法 Download PDF

Info

Publication number
CN111833439B
CN111833439B CN202010670146.2A CN202010670146A CN111833439B CN 111833439 B CN111833439 B CN 111833439B CN 202010670146 A CN202010670146 A CN 202010670146A CN 111833439 B CN111833439 B CN 111833439B
Authority
CN
China
Prior art keywords
ammunition
image
throwing
key points
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010670146.2A
Other languages
English (en)
Other versions
CN111833439A (zh
Inventor
王鹏
杨盼
王鹍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou Shenglong Information Technology Co ltd
Original Assignee
Zhengzhou Shenglong Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou Shenglong Information Technology Co ltd filed Critical Zhengzhou Shenglong Information Technology Co ltd
Priority to CN202010670146.2A priority Critical patent/CN111833439B/zh
Publication of CN111833439A publication Critical patent/CN111833439A/zh
Application granted granted Critical
Publication of CN111833439B publication Critical patent/CN111833439B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于人工智能的弹药投掷分析及移动仿真训练方法。该方法包括:使用三维动作捕捉系统捕捉标准弹药投掷动作序列;通过多个虚拟相机对人物模型进行拍摄,每个虚拟相机获得一个模板图像;进行人物朝向检测,根据朝向检测结果将搜索虚拟相机的范围限定至人物朝向区域;计算虚拟相机对应模板图像与用户手机拍摄动作序列初始帧的相似性,得到与拍摄角度最邻近的相机视角;计算真实场景与虚拟场景人物关键点距离的总和,选取距离最小的标准弹药投掷动作序列提供给用户。利用本发明实现了弹药投掷分析与辅助训练,可以达到更好的辅助训练效果。

Description

基于人工智能的弹药投掷分析及移动仿真训练方法
技术领域
本发明涉及人工智能、仿真训练技术领域,具体涉及一种基于人工智能的弹药投掷分析及移动仿真训练方法。
背景技术
检验弹药投掷动作要领掌握情况并提供指导动作,可帮助士兵训练投掷标准动作,对训练中具有非常重要的意义。在投掷运动领域,一些方法通过分析计算出手时投掷的力,通过运动仿真模拟在此力作用下,铅球达到最远距离的投掷角度与实际情况中运动员投掷铅球时出手的角度进行对比,通过对比对运动员的投掷动作进行纠正,从而实现辅助训练。这种方法仅分析出手时的角度对投掷动作进行纠正,辅助训练效果较差。
发明内容
本发明的目的在于针对上述现有技术存在的缺陷,提出一种基于人工智能的弹药投掷分析及移动仿真训练方法。
一种基于人工智能的弹药投掷分析及移动仿真训练方法,该方法包括:
步骤1,使用三维动作捕捉系统捕捉标准弹药投掷动作序列;
步骤2,在模拟器中设置虚拟弹药投掷场景,将标准弹药投掷动作序列起始帧人物模型导入到虚拟场景,通过空间上以人物模型为中心呈半球状分布的多个虚拟相机对人物模型进行拍摄,每个虚拟相机获得一个模板图像;
步骤3,取真实场景拍摄的弹药投掷动作序列起始帧进行人物朝向检测,根据朝向检测结果将搜索虚拟相机的范围限定至人物朝向区域;
步骤4,判断真实场景拍摄的弹药投掷图像是否包含深度信息,若包含深度信息则按最邻近深度信息进行贪婪搜索,否则按虚拟相机到人物模型根结点的距离进行层次划分,然后逐层进行贪婪搜索;贪婪搜索按图像相似性进行匹配,计算虚拟相机对应模板图像与真实场景拍摄的投掷动作序列初始帧的相似性,当相似性度量大于第一阈值时,选择该虚拟相机作为与拍摄角度最邻近的相机视角;
步骤5,分别提取真实场景拍摄的弹药投掷动作序列、利用最邻近相机视角在虚拟场景中拍摄的各种标准弹药投掷动作序列的人体骨骼关键点,计算真实场景与虚拟场景下对应帧关键点距离的总和,选取距离最小的标准弹药投掷动作序列提供给用户。
该方法还包括在步骤5之前执行以下操作:
提取真实场景拍摄的弹药投掷动作序列的人体骨骼关键点、弹药关键点;
计算人体骨骼关键点与弹药关键点之间的距离,当距离大于第二阈值时,判定弹药离手;
取弹药投掷起始帧到弹药离手帧之间的动作序列作为步骤5的真实场景拍摄的弹药投掷动作序列。
采用卷积神经网络执行步骤3中的所述人物朝向检测。
采用图像关键点提取单元提取图像中人体骨骼关键点、弹药中心关键点,图像关键点提取单元包括:
关键点提取编码器,用于对图像进行特征提取,输出特征图;
关键点提取解码器,用于对特征图进行上采样和特征提取,输出人体骨骼关键点热力图、弹药关键点热力图;
坐标回归模块,用于对人体骨骼关键点热力图、弹药关键点热力图进行坐标回归,得到人体骨骼关键点、弹药中心关键点。
该方法还包括训练所述图像关键点提取单元:
构建训练集,对训练集图像中的人体骨骼关键点以及弹药中心点进行标注;
对图像内所有关键点进行高斯核卷积,生成关键点热力图,作为标签数据;
将训练集图像以及标签数据输入图像关键点提取单元,基于热力图损失函数进行训练。
人物根节点为人物模型左髋右髋连线的中心点。
在真实场景下,使用手持终端拍摄弹药投掷动作序列。
关键点编码器输入的图像数据为经过归一化处理的图像数据。
热力图损失函数为:
其中,Pcij代表类别C的关键点在位置(i,j)处的得分,得分越高就越可能是该类别关键点,ycij表示类别C真值热力图相应点的取值,N代表真值热力图中的关键点数量,α、β为超参数。
本发明与现有技术相比,具有以下有益效果:
1.本发明在虚拟场景中,利用人物朝向、人物模型匹配度筛选出最邻近虚拟相机角度,对真实场景的拍摄角度、拍摄位置没有限制,而且仅使用手持终端即可实现投掷动作分析,使用场景更加灵活、方便。
2.本发明利用计算机视觉技术、深度神经网络技术对图像关键点进行检测,分析投掷动作序列,相比于传统的基于传感器的姿势获取方式,不需要定期检测传感器功能是否正常,而且分析准确度更高。
3.本发明对弹药投掷起始帧与弹药离手帧之间的动作序列进行分析,比较用户投掷动作与标准投掷动作,提供可参考的标准动作序列,而非仅仅是出手角度,辅助训练效果更好。
4.本发明将用户投掷动作序列与各种标准动作投掷序列进行比较,提供与用户投掷动作更接近的标准投掷动作,能够在短时间内达到更好的训练效果。
附图说明
图1为本发明的框架结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图以及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种基于人工智能的弹药投掷分析及移动仿真训练方法。图1为本发明的框架结构图。下面通过具体实施例来进行说明。
实施例1:
本发明主要对士兵弹药投掷动作进行分析,帮助士兵训练弹药投掷动作。
步骤1,使用三维动作捕捉系统捕捉标准弹药投掷动作序列。
首先使用三维动作捕捉系统捕捉标准的弹药投掷动作序列,三维动作捕捉系统是一种用于准确测量运动物体在三维空间运动状况的高技术设备,实施者可自由选择,如Kinect、MotionAnalysis、Polhemus。
需要注意的是,标准的弹药投掷动作序列因人而异,只要动作规范就可以判定为标准的,因此标准的弹药投掷动作序列有多种。
步骤2,在模拟器中设置虚拟弹药投掷场景,将标准弹药投掷动作序列起始帧人物模型导入到虚拟场景,通过空间上以人物模型为中心呈半球状分布的多个虚拟相机对人物模型进行拍摄,每个虚拟相机获得一个模板图像。
在模拟场景中进行设置,场景的模拟可通过OpenGL或Unity3D实现,将标准弹药投掷动作序列起始帧人物模型导入到虚拟场景中。由于有多个标准动作序列,选择一个即可。通过布置若干的虚拟相机对该模型进行拍摄,虚拟相机相对于人物模型从立体上呈半球状分布,对于每个虚拟相机都会得到一个模板图像,该模板图像用于使用模板匹配方法搜索最邻近视图。
步骤3,取真实场景拍摄的弹药投掷动作序列起始帧进行人物朝向检测,根据朝向检测结果将搜索虚拟相机的范围限定至人物朝向区域。
本实施例仅需手机即可实现弹药投掷分析,而且不限拍摄角度,使用方便。与此同时,为了确定用户拍摄角度,首先需要限制虚拟相机的搜索范围,过滤掉人物模型顶方的虚拟相机(往往拍摄不会从俯视拍摄),并通过虚拟相机按人员朝向进行按方向分层,人员朝向可通过简单的CNN来分类实现,可套用相关MobileNet等轻量级网络实时分类,分类的朝向如左右,左上、左下等。
当用户手机拍摄弹药投掷时取初始帧,进行朝向检测,假设检测结果人物朝向为向右,则搜索只搜索虚拟相机中人物朝向向右的区域,以此初步减少虚拟相机的数量。
步骤4,判断真实场景拍摄的弹药投掷图像是否包含深度信息,若包含深度信息则按最邻近深度信息进行贪婪搜索,否则按虚拟相机到人物模型根结点的距离进行层次划分,然后逐层进行贪婪搜索;贪婪搜索过程按图像相似度量进行匹配,计算虚拟相机对应模板图像与用户手机拍摄动作序列初始帧的相似性,当相似性度量大于第一阈值时,选择该虚拟相机作为与拍摄角度最邻近的相机视角。
经过初步筛选后,需要对搜索范围内的虚拟相机进行细致搜索,找到最邻近的相机视角。搜索方法采用分层次贪婪搜索。判断用户手机是否可得到图像深度信息,若不能,则按距离分层次按以下规则进行:按虚拟相机到人物模型左髋右髋连线的中心点的距离进行层次划分,如0-1M为一层,1M-2M为一层,以此类推,然后逐层进行贪婪搜索。M为长度单位米。若手机可以获得图像深度信息,则直接按最邻近深度信息进行搜索。假设图像深度信息中人体左髋右髋连线的中心点的深度值为3.4M,则搜索距离最邻近层次的虚拟相机,即[3M,4M],后再搜索其他层次。
搜索过程按图像相似度量进行匹配,即计算虚拟相机模板图像与搜索图像(用户手机拍摄动作序列的初始帧)的相似性,当相似性度量大于第一阈值时,选择该虚拟相机作为与用户手持相机最邻近的相机视角。相似性度量的方法采用基于模板匹配的方法。
至此即可得到最邻近的虚拟相机视角。
步骤5,分别提取真实场景拍摄的弹药投掷动作序列、利用最邻近相机视角在虚拟场景中拍摄的各种标准弹药投掷动作序列的人体骨骼关键点,计算真实场景与虚拟场景下对应帧关键点距离的总和,选取距离最小的标准弹药投掷动作序列提供给用户。
利用最邻近相机视角在虚拟场景中拍摄的各种标准的弹药投掷动作序列执行图像关键点的提取,该动作序列即称为动作投影结果,拍摄以每N秒拍摄一次,形成动作序列,N为人为取值,建议取0.5,可有效减小数据量。
为了进行有效匹配,可以判定弹药何时离手。对于用户手机拍摄的弹药投掷动作序列N0,执行图像关键点提取,最终得到人体骨骼点关键点数据和弹药关键点数据。当人体投掷弹药的手部骨骼关键点坐标与弹药关键点坐标的L1距离大于第二阈值时,判定弹药离手,该阈值同样为人为经验值,建议实施者数据分析得到。然后取N0中弹药投掷初始帧到弹药离手帧的动作序列,称为N1。然后针对N1与各种标准的弹药投掷动作序列,进行匹配,时间轴要对应,对于每帧内的人体骨骼关键点坐标求L1距离,最终将结果进行累加。选取匹配中与N1动作序列L1距离最小的标准弹药投掷序列,提供给用户作为参考,方便训练者进行动作纠正。
采用图像关键点提取单元提取图像中人体骨骼关键点、弹药中心关键点,图像关键点提取单元包括:关键点提取编码器,用于对图像进行特征提取,输出特征图;关键点提取解码器,用于对特征图进行上采样和特征提取,输出人体骨骼关键点热力图、弹药关键点热力图;坐标回归模块,用于对人体骨骼关键点热力图、弹药关键点热力图进行坐标回归,得到人体骨骼关键点、弹药中心关键点。
图像关键点提取单元采用的是神经网络,需要进行训练。首先利用模拟器采集训练数据,然后对数据进行标注。模拟器实施者可自行选择,如OpenGL、Unity3D等,都可以对弹药投掷场景进行模拟。然后对数据进行标注,对图像内的人体姿态进行标注,包括左右关节点中心,肩、肘、髋、手、膝、脚,总共12个骨骼关键点,然后对弹药中心点进行标注,包括人体骨骼关键点总共13个关键点。标注好后,对图像内的所有关键点进行高斯核卷积,以生成关键点热力图。然后将模拟器中采集的数据与标签数据送入到网络中(关键点提取编码器Encoder、关键点提取解码器Decoder)进行训练。
由于弹药投掷训练是针对性训练(针对单个人训练,并非集体),因此这里不考虑去区分人的实例、关键点分组问题。
训练的细节如下:摄像头采集的图像要经过归一化处理,将图片矩阵的值域变为[0,1]之间的浮点数,以便模型更好地收敛。标签同样经过归一化处理。通过采集的图像和热力图标签数据,端到端地训练关键点提取Encoder和关键点提取Decoder。Encoder对图像进行特征提取,输入为经过归一化处理的图像数据,输出为Feature map;Decoder是对Feature map进行上采样与特征提取并最终生成关键点热力图(heatmap),其输入为Encoder产生的Feature map,输出为人体骨骼关键点热力图与弹药关键点热力图。Loss函数采用Heatmaps Loss,其公式为:
其中,Pcij代表类别C的关键点在位置(i,j)处的得分,得分越高就越可能是该类别关键点。ycij表示类别C真实的Heatmaps。N代表ground truth中的关键点数量。α、β为超参数,需要人为设定。
需要注意的是,由于热力图本身的特点,网络输出的热力图其像素值符合高斯分布,其值域在[0,1]之间。
编码器-解码器的设计有许多种,建议关键点提取Encoder和关键点提取Decoder套用沙漏网络、CPN、HRNet等预训练模型来进行关键点特征的提取,同时这样也更利于网络的收敛。得到热力图后,可以通过坐标回归模块进行后处理得到关键点坐标。
以上实施例仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于人工智能的弹药投掷分析及移动仿真训练方法,其特征在于,该方法包括:
步骤1,使用三维动作捕捉系统捕捉标准弹药投掷动作序列;
步骤2,在模拟器中设置虚拟弹药投掷场景,将标准弹药投掷动作序列起始帧人物模型导入到虚拟场景,通过空间上以人物模型为中心呈半球状分布的多个虚拟相机对人物模型进行拍摄,每个虚拟相机获得一个模板图像;
步骤3,取真实场景拍摄的弹药投掷动作序列起始帧进行人物朝向检测,根据朝向检测结果将搜索虚拟相机的范围限定至人物朝向区域;
步骤4,判断真实场景拍摄的弹药投掷图像是否包含深度信息,若包含深度信息则按最邻近深度信息进行贪婪搜索,否则按虚拟相机到人物模型根结点的距离进行层次划分,然后逐层进行贪婪搜索;贪婪搜索按图像相似性进行匹配,计算虚拟相机对应模板图像与真实场景拍摄的投掷动作序列初始帧的相似性,当相似性度量大于第一阈值时,选择该虚拟相机作为与拍摄角度最邻近的相机视角;
步骤5,分别提取真实场景拍摄的弹药投掷动作序列、利用最邻近相机视角在虚拟场景中拍摄的各种标准弹药投掷动作序列的人体骨骼关键点,计算真实场景与虚拟场景下对应帧关键点坐标距离的总和,选取距离最小的标准弹药投掷动作序列提供给用户。
2.如权利要求1所述的方法,其特征在于,该方法还包括在步骤5之前执行以下操作:
提取真实场景拍摄的弹药投掷动作序列的人体骨骼关键点、弹药关键点;
计算投掷弹药的手部关键点与弹药关键点之间的距离,当距离大于第二阈值时,判定弹药离手;
取弹药投掷起始帧到弹药离手帧之间的动作序列作为步骤5的真实场景拍摄的弹药投掷动作序列。
3.如权利要求1所述的方法,其特征在于,采用卷积神经网络执行步骤3中的所述人物朝向检测。
4.如权利要求1所述的方法,其特征在于,采用图像关键点提取单元提取图像中人体骨骼关键点、弹药中心关键点,图像关键点提取单元包括:
关键点提取编码器,用于对图像进行特征提取,输出特征图;
关键点提取解码器,用于对特征图进行上采样和特征提取,输出人体骨骼关键点热力图、弹药关键点热力图;
坐标回归模块,用于对人体骨骼关键点热力图、弹药关键点热力图进行坐标回归,得到人体骨骼关键点、弹药中心关键点。
5.如权利要求4所述的方法,其特征在于,该方法还包括训练所述图像关键点提取单元:
构建训练集,对训练集图像中的人体骨骼关键点以及弹药中心点进行标注;
对图像内所有关键点进行高斯核卷积,生成关键点热力图,作为标签数据;
将训练集图像以及标签数据输入图像关键点提取单元,基于热力图损失函数进行训练。
6.如权利要求1所述的方法,其特征在于,人物根节点为人物模型左髋右髋连线的中心点。
7.如权利要求1所述的方法,其特征在于,在真实场景下,使用手持终端拍摄真实场景的弹药投掷动作序列。
8.如权利要求4所述的方法,其特征在于,关键点编码器输入的图像数据为经过归一化处理的图像数据。
9.如权利要求5所述的方法,其特征在于,热力图损失函数为:
其中,Pcij代表类别C的关键点在位置(i,j)处的得分,ycij表示类别C真值热力图相应点的取值,N代表真值热力图中的关键点数量,α、β为超参数。
CN202010670146.2A 2020-07-13 2020-07-13 基于人工智能的弹药投掷分析及移动仿真训练方法 Active CN111833439B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010670146.2A CN111833439B (zh) 2020-07-13 2020-07-13 基于人工智能的弹药投掷分析及移动仿真训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010670146.2A CN111833439B (zh) 2020-07-13 2020-07-13 基于人工智能的弹药投掷分析及移动仿真训练方法

Publications (2)

Publication Number Publication Date
CN111833439A CN111833439A (zh) 2020-10-27
CN111833439B true CN111833439B (zh) 2024-06-21

Family

ID=72922745

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010670146.2A Active CN111833439B (zh) 2020-07-13 2020-07-13 基于人工智能的弹药投掷分析及移动仿真训练方法

Country Status (1)

Country Link
CN (1) CN111833439B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113642394B (zh) * 2021-07-07 2024-06-11 北京搜狗科技发展有限公司 一种虚拟对象的动作处理方法、装置和介质
CN113776390A (zh) * 2021-10-17 2021-12-10 神州凯业(佛山)科技有限公司 一种连续记录射击时间和命中情况的靶标报靶器
CN117392892A (zh) * 2023-10-24 2024-01-12 中国人民解放军国防科技大学 基于xr的仿真手雷训练方法、系统、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102194105A (zh) * 2010-03-19 2011-09-21 微软公司 用于人体跟踪的代表训练数据
CN110033505A (zh) * 2019-04-16 2019-07-19 西安电子科技大学 一种基于深度学习的人体动作捕捉与虚拟动画生成方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7675520B2 (en) * 2005-12-09 2010-03-09 Digital Steamworks, Llc System, method and computer program for creating two dimensional (2D) or three dimensional (3D) computer animation from video
WO2017131071A1 (ja) * 2016-01-28 2017-08-03 日本電信電話株式会社 仮想環境構築装置、映像提示装置、モデル学習装置、最適奥行き決定装置、それらの方法、およびプログラム
CN117022255A (zh) * 2018-03-20 2023-11-10 御眼视觉技术有限公司 用于主车辆的自动驾驶系统、机器可读存储介质和装置
CN111222459B (zh) * 2020-01-06 2023-05-12 上海交通大学 一种视角无关的视频三维人体姿态识别方法
CN111318009A (zh) * 2020-01-19 2020-06-23 张衡 基于可穿戴惯性感知的体感健康娱乐系统及其工作方法
CN111265835A (zh) * 2020-03-03 2020-06-12 淮安信息职业技术学院 一种投掷运动训练设备及其控制方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102194105A (zh) * 2010-03-19 2011-09-21 微软公司 用于人体跟踪的代表训练数据
CN110033505A (zh) * 2019-04-16 2019-07-19 西安电子科技大学 一种基于深度学习的人体动作捕捉与虚拟动画生成方法

Also Published As

Publication number Publication date
CN111833439A (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
Chang et al. Feature interaction augmented sparse learning for fast kinect motion detection
CN111833439B (zh) 基于人工智能的弹药投掷分析及移动仿真训练方法
CN105512627B (zh) 一种关键点的定位方法及终端
CN111783576B (zh) 基于改进型YOLOv3网络和特征融合的行人重识别方法
Yao et al. Robust CNN-based gait verification and identification using skeleton gait energy image
CN112184705A (zh) 一种基于计算机视觉技术的人体穴位识别、定位及应用系统
CN112016497A (zh) 基于人工智能的单视角太极拳动作分析及考核系统
CN114998934B (zh) 基于多模态智能感知和融合的换衣行人重识别和检索方法
CN110633004B (zh) 基于人体姿态估计的交互方法、装置和系统
CN104392223A (zh) 二维视频图像中的人体姿态识别方法
CN103530649A (zh) 一种适用于移动终端的视觉搜索方法
Bu Human motion gesture recognition algorithm in video based on convolutional neural features of training images
CN111914643A (zh) 一种基于骨骼关键点检测的人体动作识别方法
CN110084192A (zh) 基于目标检测的快速动态手势识别系统及方法
CN115035546B (zh) 三维人体姿态检测方法、装置及电子设备
CN112541421A (zh) 一种开放空间的行人换装重识别方法
Yan et al. Human-object interaction recognition using multitask neural network
CN115393964A (zh) 基于BlazePose的健身动作识别方法及装置
CN109993116B (zh) 一种基于人体骨骼相互学习的行人再识别方法
Muhamada et al. Review on recent computer vision methods for human action recognition
CN114743026A (zh) 目标对象的方位检测方法、装置、设备及计算机可读介质
CN117133057A (zh) 基于人体姿态识别的体育运动计数和违规动作判别方法
CN106682638A (zh) 一种定位机器人智能互动的系统
CN116386137A (zh) 一种轻量级识别太极拳动作的移动端设计方法
KR102309453B1 (ko) 무식별 영상 기반의 소셜 네트워크 서비스 시스템 및 그 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant