CN110174951A - 基于vr实训设备的人物动作识别方法 - Google Patents

基于vr实训设备的人物动作识别方法 Download PDF

Info

Publication number
CN110174951A
CN110174951A CN201910461127.6A CN201910461127A CN110174951A CN 110174951 A CN110174951 A CN 110174951A CN 201910461127 A CN201910461127 A CN 201910461127A CN 110174951 A CN110174951 A CN 110174951A
Authority
CN
China
Prior art keywords
quadrant
spacer body
engine
impinger
spacer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910461127.6A
Other languages
English (en)
Other versions
CN110174951B (zh
Inventor
秦子函
王浩奇
秦世豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou Improvau Science & Technology Co Ltd
Original Assignee
Zhengzhou Improvau Science & Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou Improvau Science & Technology Co Ltd filed Critical Zhengzhou Improvau Science & Technology Co Ltd
Priority to CN201910461127.6A priority Critical patent/CN110174951B/zh
Publication of CN110174951A publication Critical patent/CN110174951A/zh
Application granted granted Critical
Publication of CN110174951B publication Critical patent/CN110174951B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供了一种基于VR实训设备的人物动作识别方法,包括以下步骤:S01、在VR引擎中,建立多个虚拟的象限分隔体;S02、将所建立的象限分隔体进行关联,形成一个状态信息和位置信息同步更改的分隔体组;S03、控制分隔体组的中心与VR引擎中头盔的中心始终一致;S04、为每个象限分隔体进行命名;S05、在VR引擎中对需要进行位置或动作判断的设备添加碰撞器;S06、通过判断碰撞器与象限分隔体的碰撞及碰撞顺序,实现对动作的判断与追踪。该基于VR实训设备的人物动作识别方法具有通用性强、算法简单、判断准确、易调整修改的优点。

Description

基于VR实训设备的人物动作识别方法
技术领域
本发明涉及了一种基于VR实训设备的人物动作识别方法。
背景技术
虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,将现实中人的动作映射到三维动态视景中。
在现有的VR设备中,有两个定位器,定位器会在现实世界中创造出一片可运动范围,这个范围就是VR设备在现实世界建立的坐标系。在VR程序引擎中,还自带有坐标系统。这两个坐标系统是相互独立的,如果想要在现实世界中的玩家位置定位到引擎世界中相应的位置,这个过程需要进行坐标换算。对于运动状态,现实世界中,玩家只进行一定的动作,而不会进行真实的远距离位移,而引擎中人物会模拟发生位置的移动。在这个过程中,由于引擎中的画面、场景等在不停切换,引擎中的坐标系是一个不停变换的坐标系,目前的VR设备采用判断设备手柄坐标点的方式,需要对设备手柄的坐标点进行大量的记录和判断来确定使用者所做的动作,这种方式运算量巨大且算法复杂,影响系统整体的流畅性。
为了解决以上存在的问题,人们一直在寻求一种理想的技术解决方案。
发明内容
本发明的目的是针对现有技术的不足,从而提供一种通用性强、算法简单、判断准确、易调整修改的基于VR实训设备的人物动作识别方法。
为了实现上述目的,本发明所采用的技术方案是:一种基于VR实训设备的人物动作识别方法,包括以下步骤:S01、在VR引擎中,建立多个虚拟的象限分隔体;S02、将所建立的象限分隔体进行关联,形成一个状态信息和位置信息同步更改的分隔体组;S03、控制分隔体组的中心与VR引擎中头盔的中心始终一致;S04、为每个象限分隔体进行命名;S05、在VR引擎中对需要进行位置或动作判断的设备添加碰撞器;S06、通过判断碰撞器与象限分隔体的碰撞及碰撞顺序,实现对动作的判断与追踪。
基于上述,所述象限分隔体为具有几何形状的刚体,相邻两个象限分隔体之间的间距等于所述碰撞器的最大处尺寸。
基于上述,在步骤S06中,接收到动作指令并使碰撞器与象限分隔体发生碰撞后,按碰撞顺序记录发生碰撞的象限分隔体的名称,并将所记录的象限分隔体的名称顺序与命令库内动作指令对应的象限分隔体触发顺序进行对比,以判断人物动作是否正确。
本发明相对现有技术具有突出的实质性特点和显著的进步,具体的说,本发明通过建立象限分隔体,并通过碰撞器与象限分隔体的碰撞进行位置判断,无需在引擎中进行坐标位置的记录和判断,大大降低了运算量,极大的简化了判断的方法,而且定制化很强,其具有通用性强、算法简单、判断准确、易调整修改的优点。
附图说明
图1是本发明的流程示意图。
具体实施方式
下面通过具体实施方式,对本发明的技术方案做进一步的详细描述。
如图1所示,一种基于VR实训设备的人物动作识别方法,包括以下步骤:S01、在VR引擎中,建立多个虚拟的象限分隔体;S02、将所建立的象限分隔体进行关联,形成一个状态信息和位置信息同步更改的分隔体组;S03、控制分隔体组的中心与VR引擎中头盔的中心始终一致;S04、为每个象限分隔体进行命名;S05、在VR引擎中对需要进行位置或动作判断的设备添加碰撞器;S06、通过判断碰撞器与象限分隔体的碰撞及碰撞顺序,实现对动作的判断与追踪。
实际中,VR设备包括头盔、手柄和至少两个定位器,定位器用于在现实世界建立坐标系,在现实坐标系中定位头盔和手柄的坐标位置。在VR引擎中,根据头盔和手柄的现实坐标位置建立头盔和手柄的虚拟体,也即通过坐标的换算,在VR引擎中建立虚拟头盔和虚拟手柄的坐标位置。在VR引擎的虚拟坐标系中,建立多个虚拟的象限分隔体,对虚拟坐标系进行象限分隔,并将所建立的象限分隔体进行位置和状态的信息关联,形成分隔体组;本实施例中所述状态信息指象限分隔体的角度。将分隔体组的中心坐标与头盔虚拟体的中心坐标始终保持一致,也即象限分隔体对头盔所在的空间进行了分隔,由于添加了碰撞器的手柄虚拟体始终处于头盔所在的空间,手柄虚拟体在移动过程中,与象限分隔体发生碰撞,通过判断碰撞器与象限分隔体的碰撞及碰撞顺序,实现对动作的判断与追踪。该方式避免了对头盔虚拟体、手柄虚拟体每时刻的位置的记录及运算,简化了运算量。
具体的,接收到动作指令并使碰撞器与象限分隔体发生碰撞后,按碰撞顺序记录发生碰撞的象限分隔体的名称,并将所记录的象限分隔体的名称顺序与命令库内动作指令对应的象限分隔体触发顺序进行对比,以判断人物动作是否正确。若相一致,说明人物动作正确,否则说明不正确。
优选地,所述象限分隔体为具有几何形状的刚体,相邻两个象限分隔体之间的间距等于所述碰撞器的最大处尺寸,有效避免碰撞器同时碰撞两个象限分隔体造成错误。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制;尽管参照较佳实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者对部分技术特征进行等同替换;而不脱离本发明技术方案的精神,其均应涵盖在本发明请求保护的技术方案范围当中。

Claims (3)

1.一种基于VR实训设备的人物动作识别方法,其特征在于,包括以下步骤:
S01、在VR引擎中,建立多个虚拟的象限分隔体;
S02、将所建立的象限分隔体进行关联,形成一个状态信息和位置信息同步更改的分隔体组;
S03、控制分隔体组的中心与VR引擎中头盔的中心始终一致;
S04、为每个象限分隔体进行命名;
S05、在VR引擎中对需要进行位置或动作判断的设备添加碰撞器;
S06、通过判断碰撞器与象限分隔体的碰撞及碰撞顺序,实现对动作的判断与追踪。
2.根据权利要求1所述的基于VR实训设备的人物动作识别方法,其特征在于:所述象限分隔体为具有几何形状的刚体,相邻两个象限分隔体之间的间距等于所述碰撞器的最大处尺寸。
3.根据权利要求1所述的基于VR实训设备的人物动作识别方法,其特征在于:在步骤S06中,接收到动作指令并使碰撞器与象限分隔体发生碰撞后,按碰撞顺序记录发生碰撞的象限分隔体的名称,并将所记录的象限分隔体的名称顺序与命令库内动作指令对应的象限分隔体触发顺序进行对比,以判断人物动作是否正确。
CN201910461127.6A 2019-05-30 2019-05-30 基于vr实训设备的人物动作识别方法 Active CN110174951B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910461127.6A CN110174951B (zh) 2019-05-30 2019-05-30 基于vr实训设备的人物动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910461127.6A CN110174951B (zh) 2019-05-30 2019-05-30 基于vr实训设备的人物动作识别方法

Publications (2)

Publication Number Publication Date
CN110174951A true CN110174951A (zh) 2019-08-27
CN110174951B CN110174951B (zh) 2022-06-21

Family

ID=67696507

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910461127.6A Active CN110174951B (zh) 2019-05-30 2019-05-30 基于vr实训设备的人物动作识别方法

Country Status (1)

Country Link
CN (1) CN110174951B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512377A (zh) * 2015-11-30 2016-04-20 腾讯科技(深圳)有限公司 实时虚拟场景中圆柱碰撞体与凸体碰撞探测的方法和系统
CN106218900A (zh) * 2016-08-05 2016-12-14 中国人民解放军空军空降兵学院 一种基于真实地形模拟的跳伞着陆训练系统及方法
CN107392888A (zh) * 2017-06-16 2017-11-24 福建天晴数码有限公司 一种基于Unity引擎的距离测试方法及系统
CN108139804A (zh) * 2015-10-15 2018-06-08 索尼公司 信息处理装置与信息处理方法
US20180165864A1 (en) * 2016-12-13 2018-06-14 DeepMotion, Inc. Virtual reality system using multiple force arrays for a solver
CN109643527A (zh) * 2016-04-01 2019-04-16 易客斯特解决方案公司 用于零售环境仿真的虚拟现实平台

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108139804A (zh) * 2015-10-15 2018-06-08 索尼公司 信息处理装置与信息处理方法
CN105512377A (zh) * 2015-11-30 2016-04-20 腾讯科技(深圳)有限公司 实时虚拟场景中圆柱碰撞体与凸体碰撞探测的方法和系统
CN109643527A (zh) * 2016-04-01 2019-04-16 易客斯特解决方案公司 用于零售环境仿真的虚拟现实平台
CN106218900A (zh) * 2016-08-05 2016-12-14 中国人民解放军空军空降兵学院 一种基于真实地形模拟的跳伞着陆训练系统及方法
US20180165864A1 (en) * 2016-12-13 2018-06-14 DeepMotion, Inc. Virtual reality system using multiple force arrays for a solver
CN107392888A (zh) * 2017-06-16 2017-11-24 福建天晴数码有限公司 一种基于Unity引擎的距离测试方法及系统

Also Published As

Publication number Publication date
CN110174951B (zh) 2022-06-21

Similar Documents

Publication Publication Date Title
US10966045B2 (en) Sound localization for user in motion
Kitsikidis et al. Dance analysis using multiple kinect sensors
CN109064811A (zh) 一种基于vr虚拟课堂的教学系统
CN104662578B (zh) 机器人系统与一个或更多个移动计算装置的整合
US20030227453A1 (en) Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data
CN109543285B (zh) 一种融合数据驱动与强化学习的人群疏散仿真方法和系统
CN105617658A (zh) 基于真实室内环境的多人移动射击游戏系统
CN104656877A (zh) 基于手势和语音识别控制的人机交互方法及其设备和应用
CN103354761A (zh) 虚拟高尔夫仿真装置及方法
KR101915780B1 (ko) 로봇을 이용하여 사용자에게 피드백을 제공하는 vr-로봇 연동 시스템 및 방법
KR20180009485A (ko) 가상 골프 시뮬레이션 장치 및 이를 이용한 정보 서비스 방법
CN107961524A (zh) 基于ar的健身游戏与训练系统
CN104486586A (zh) 一种基于视频地图的灾难救生模拟训练方法及系统
CN105677021A (zh) 一种基于ar系统与vr系统融合的新手法并将之运用于遗迹的重现中
CN108536314A (zh) 用户身份识别方法及装置
CN110174951A (zh) 基于vr实训设备的人物动作识别方法
WO2005029306A3 (de) Verfahren und vorrichtung zur steuerung eines graphiksystems der virtuellen realität mittels interaktionen
Li Application of virtual environment in the teaching of basketball tactics
KR20180060534A (ko) 체감형 컨텐츠 제공 장치와 연계된 비콘 기반의 사용자 방향 인식 장치 및 그 방법
Jeanne et al. EBAGG: Error-based assistance for gesture guidance in virtual environments
US20230005225A1 (en) Cloud-based Production of High-Quality Virtual And Augmented Reality Video Of User Activities
Zhou Role of human body posture recognition method based on wireless network Kinect in line dance aerobics and gymnastics training
CN115268626A (zh) 工业仿真系统
CN109917907B (zh) 一种基于卡片的动态故事板交互方法
CN108459716A (zh) 一种在vr中实现多人协作完成任务的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant