CN110174951B - 基于vr实训设备的人物动作识别方法 - Google Patents
基于vr实训设备的人物动作识别方法 Download PDFInfo
- Publication number
- CN110174951B CN110174951B CN201910461127.6A CN201910461127A CN110174951B CN 110174951 B CN110174951 B CN 110174951B CN 201910461127 A CN201910461127 A CN 201910461127A CN 110174951 B CN110174951 B CN 110174951B
- Authority
- CN
- China
- Prior art keywords
- quadrant
- collision
- action
- engine
- method based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Abstract
本发明提供了一种基于VR实训设备的人物动作识别方法,包括以下步骤:S01、在VR引擎中,建立多个虚拟的象限分隔体;S02、将所建立的象限分隔体进行关联,形成一个状态信息和位置信息同步更改的分隔体组;S03、控制分隔体组的中心与VR引擎中头盔的中心始终一致;S04、为每个象限分隔体进行命名;S05、在VR引擎中对需要进行位置或动作判断的设备添加碰撞器;S06、通过判断碰撞器与象限分隔体的碰撞及碰撞顺序,实现对动作的判断与追踪。该基于VR实训设备的人物动作识别方法具有通用性强、算法简单、判断准确、易调整修改的优点。
Description
技术领域
本发明涉及了一种基于VR实训设备的人物动作识别方法。
背景技术
虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,将现实中人的动作映射到三维动态视景中。
在现有的VR设备中,有两个定位器,定位器会在现实世界中创造出一片可运动范围,这个范围就是VR设备在现实世界建立的坐标系。在VR程序引擎中,还自带有坐标系统。这两个坐标系统是相互独立的,如果想要在现实世界中的玩家位置定位到引擎世界中相应的位置,这个过程需要进行坐标换算。对于运动状态,现实世界中,玩家只进行一定的动作,而不会进行真实的远距离位移,而引擎中人物会模拟发生位置的移动。在这个过程中,由于引擎中的画面、场景等在不停切换,引擎中的坐标系是一个不停变换的坐标系,目前的VR设备采用判断设备手柄坐标点的方式,需要对设备手柄的坐标点进行大量的记录和判断来确定使用者所做的动作,这种方式运算量巨大且算法复杂,影响系统整体的流畅性。
为了解决以上存在的问题,人们一直在寻求一种理想的技术解决方案。
发明内容
本发明的目的是针对现有技术的不足,从而提供一种通用性强、算法简单、判断准确、易调整修改的基于VR实训设备的人物动作识别方法。
为了实现上述目的,本发明所采用的技术方案是:一种基于VR实训设备的人物动作识别方法,包括以下步骤:S01、在VR引擎中,建立多个虚拟的象限分隔体;S02、将所建立的象限分隔体进行关联,形成一个状态信息和位置信息同步更改的分隔体组;S03、控制分隔体组的中心与VR引擎中头盔的中心始终一致;S04、为每个象限分隔体进行命名;S05、在VR引擎中对需要进行位置或动作判断的设备添加碰撞器;S06、通过判断碰撞器与象限分隔体的碰撞及碰撞顺序,实现对动作的判断与追踪。
基于上述,所述象限分隔体为具有几何形状的刚体,相邻两个象限分隔体之间的间距等于所述碰撞器的最大处尺寸。
基于上述,在步骤S06中,接收到动作指令并使碰撞器与象限分隔体发生碰撞后,按碰撞顺序记录发生碰撞的象限分隔体的名称,并将所记录的象限分隔体的名称顺序与命令库内动作指令对应的象限分隔体触发顺序进行对比,以判断人物动作是否正确。
本发明相对现有技术具有突出的实质性特点和显著的进步,具体的说,本发明通过建立象限分隔体,并通过碰撞器与象限分隔体的碰撞进行位置判断,无需在引擎中进行坐标位置的记录和判断,大大降低了运算量,极大的简化了判断的方法,而且定制化很强,其具有通用性强、算法简单、判断准确、易调整修改的优点。
附图说明
图1是本发明的流程示意图。
具体实施方式
下面通过具体实施方式,对本发明的技术方案做进一步的详细描述。
如图1所示,一种基于VR实训设备的人物动作识别方法,包括以下步骤:S01、在VR引擎中,建立多个虚拟的象限分隔体;S02、将所建立的象限分隔体进行关联,形成一个状态信息和位置信息同步更改的分隔体组;S03、控制分隔体组的中心与VR引擎中头盔的中心始终一致;S04、为每个象限分隔体进行命名;S05、在VR引擎中对需要进行位置或动作判断的设备添加碰撞器;S06、通过判断碰撞器与象限分隔体的碰撞及碰撞顺序,实现对动作的判断与追踪。
实际中,VR设备包括头盔、手柄和至少两个定位器,定位器用于在现实世界建立坐标系,在现实坐标系中定位头盔和手柄的坐标位置。在VR引擎中,根据头盔和手柄的现实坐标位置建立头盔和手柄的虚拟体,也即通过坐标的换算,在VR引擎中建立虚拟头盔和虚拟手柄的坐标位置。在VR引擎的虚拟坐标系中,建立多个虚拟的象限分隔体,对虚拟坐标系进行象限分隔,并将所建立的象限分隔体进行位置和状态的信息关联,形成分隔体组;本实施例中所述状态信息指象限分隔体的角度。将分隔体组的中心坐标与头盔虚拟体的中心坐标始终保持一致,也即象限分隔体对头盔所在的空间进行了分隔,由于添加了碰撞器的手柄虚拟体始终处于头盔所在的空间,手柄虚拟体在移动过程中,与象限分隔体发生碰撞,通过判断碰撞器与象限分隔体的碰撞及碰撞顺序,实现对动作的判断与追踪。该方式避免了对头盔虚拟体、手柄虚拟体每时刻的位置的记录及运算,简化了运算量。
具体的,接收到动作指令并使碰撞器与象限分隔体发生碰撞后,按碰撞顺序记录发生碰撞的象限分隔体的名称,并将所记录的象限分隔体的名称顺序与命令库内动作指令对应的象限分隔体触发顺序进行对比,以判断人物动作是否正确。若相一致,说明人物动作正确,否则说明不正确。
优选地,所述象限分隔体为具有几何形状的刚体,相邻两个象限分隔体之间的间距等于所述碰撞器的最大处尺寸,有效避免碰撞器同时碰撞两个象限分隔体造成错误。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制;尽管参照较佳实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者对部分技术特征进行等同替换;而不脱离本发明技术方案的精神,其均应涵盖在本发明请求保护的技术方案范围当中。
Claims (1)
1.一种基于VR实训设备的人物动作识别方法,其特征在于,包括以下步骤:
S01、在VR引擎中,建立多个虚拟的象限分隔体;
S02、将所建立的象限分隔体进行关联,形成一个状态信息和位置信息同步更改的分隔体组,状态信息指象限分隔体的角度;
S03、控制分隔体组的中心与VR引擎中头盔的中心始终一致;
S04、为每个象限分隔体进行命名;
S05、在VR引擎中对需要进行位置或动作判断的设备添加碰撞器;
S06、通过判断碰撞器与象限分隔体的碰撞及碰撞顺序,实现对动作的判断与追踪,在步骤S06中,接收到动作指令并使碰撞器与象限分隔体发生碰撞后,按碰撞顺序记录发生碰撞的象限分隔体的名称,并将所记录的象限分隔体的名称顺序与命令库内动作指令对应的象限分隔体触发顺序进行对比,以判断人物动作是否正确。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910461127.6A CN110174951B (zh) | 2019-05-30 | 2019-05-30 | 基于vr实训设备的人物动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910461127.6A CN110174951B (zh) | 2019-05-30 | 2019-05-30 | 基于vr实训设备的人物动作识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110174951A CN110174951A (zh) | 2019-08-27 |
CN110174951B true CN110174951B (zh) | 2022-06-21 |
Family
ID=67696507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910461127.6A Active CN110174951B (zh) | 2019-05-30 | 2019-05-30 | 基于vr实训设备的人物动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110174951B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105512377A (zh) * | 2015-11-30 | 2016-04-20 | 腾讯科技(深圳)有限公司 | 实时虚拟场景中圆柱碰撞体与凸体碰撞探测的方法和系统 |
CN106218900A (zh) * | 2016-08-05 | 2016-12-14 | 中国人民解放军空军空降兵学院 | 一种基于真实地形模拟的跳伞着陆训练系统及方法 |
CN107392888A (zh) * | 2017-06-16 | 2017-11-24 | 福建天晴数码有限公司 | 一种基于Unity引擎的距离测试方法及系统 |
CN108139804A (zh) * | 2015-10-15 | 2018-06-08 | 索尼公司 | 信息处理装置与信息处理方法 |
CN109643527A (zh) * | 2016-04-01 | 2019-04-16 | 易客斯特解决方案公司 | 用于零售环境仿真的虚拟现实平台 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018112112A1 (en) * | 2016-12-13 | 2018-06-21 | DeepMotion, Inc. | Improved virtual reality system using multiple force arrays for a solver |
-
2019
- 2019-05-30 CN CN201910461127.6A patent/CN110174951B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108139804A (zh) * | 2015-10-15 | 2018-06-08 | 索尼公司 | 信息处理装置与信息处理方法 |
CN105512377A (zh) * | 2015-11-30 | 2016-04-20 | 腾讯科技(深圳)有限公司 | 实时虚拟场景中圆柱碰撞体与凸体碰撞探测的方法和系统 |
CN109643527A (zh) * | 2016-04-01 | 2019-04-16 | 易客斯特解决方案公司 | 用于零售环境仿真的虚拟现实平台 |
CN106218900A (zh) * | 2016-08-05 | 2016-12-14 | 中国人民解放军空军空降兵学院 | 一种基于真实地形模拟的跳伞着陆训练系统及方法 |
CN107392888A (zh) * | 2017-06-16 | 2017-11-24 | 福建天晴数码有限公司 | 一种基于Unity引擎的距离测试方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110174951A (zh) | 2019-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10966045B2 (en) | Sound localization for user in motion | |
CN107168532B (zh) | 一种基于增强现实的虚拟同步显示方法及系统 | |
CN108337915A (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
CN107003681A (zh) | 存储介质、无人飞行器及震荡检测、追踪控制方法和系统 | |
CN108898676A (zh) | 一种虚实物体之间碰撞及遮挡检测方法及系统 | |
CN104714648B (zh) | 一种音乐播放场景的切换方法和装置 | |
CN109543285B (zh) | 一种融合数据驱动与强化学习的人群疏散仿真方法和系统 | |
CN104486584A (zh) | 一种基于增强现实的城市视频地图方法 | |
CN104732203A (zh) | 一种基于视频信息的情绪识别与跟踪方法 | |
CN102902355A (zh) | 移动设备的空间交互方法 | |
KR101514731B1 (ko) | 인간 모델의 3차원 공간 데이터를 이용한 포즈 인식 시스템 및 그 방법 | |
CN109376383B (zh) | 一种基于碰撞检测的爆炸视图生成方法 | |
CN105425806A (zh) | 移动机器人的人体探测与跟踪方法及装置 | |
CN106371603A (zh) | 基于位置服务和增强现实技术的角色定位捕捉方法 | |
CN108536314A (zh) | 用户身份识别方法及装置 | |
CN110174951B (zh) | 基于vr实训设备的人物动作识别方法 | |
KR20160077548A (ko) | 실감 효과 메타데이터 생성 장치 및 방법 | |
CN110929422A (zh) | 一种机器人集群仿真方法及装置 | |
EP3670108A1 (en) | Robot teaching programming method, apparatus and system, and computer-readable medium | |
KR101799351B1 (ko) | 임의 시점 렌더링을 위한 자동 항공 촬영 방법, 이를 수행하기 위한 기록 매체 및 장치 | |
CN110058684A (zh) | 一种基于vr技术的地理信息交互方法、系统及存储介质 | |
CN110968198A (zh) | 一种在现实空间中模拟虚拟现实世界立体空间移动定位的方法 | |
CN104794316A (zh) | 一种3d模型拆分与组合的方法 | |
CN111729312A (zh) | 位置同步方法、装置及设备 | |
CN108459716B (zh) | 一种在vr中实现多人协作完成任务的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |