CN111228791A - 真人ar射击游戏装备、基于ar技术的射击对战系统及方法 - Google Patents

真人ar射击游戏装备、基于ar技术的射击对战系统及方法 Download PDF

Info

Publication number
CN111228791A
CN111228791A CN201911397988.9A CN201911397988A CN111228791A CN 111228791 A CN111228791 A CN 111228791A CN 201911397988 A CN201911397988 A CN 201911397988A CN 111228791 A CN111228791 A CN 111228791A
Authority
CN
China
Prior art keywords
shooting
display
display device
real
player
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911397988.9A
Other languages
English (en)
Inventor
卫荣杰
房晓俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tapuyihai Shanghai Intelligent Technology Co ltd
Original Assignee
Tapuyihai Shanghai Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tapuyihai Shanghai Intelligent Technology Co ltd filed Critical Tapuyihai Shanghai Intelligent Technology Co ltd
Priority to CN201911397988.9A priority Critical patent/CN111228791A/zh
Publication of CN111228791A publication Critical patent/CN111228791A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1056Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving pressure sensitive buttons
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开一种真人AR射击游戏装备、基于AR技术的射击对战系统及方法,至少包括一个AR显示设备,AR显示设备至少包括图形显示模块、IMU传感器和手势识别器;通过一个AR显示设备的视场观察到其他AR显示设备的周边有显示其他AR显示设备对应的生命值;当虚拟攻击物在抛物线/弹道曲线的运行过程中,触碰到AR显示设备以下的设定的3D范围,AR显示设备周边显示的生命值则相应地减少。有益效果:有沉浸感,更容易投入,有安全感,不担心蒙眼效应,满足多人游戏,实现成本低,环境要求不高,增强体验效果。

Description

真人AR射击游戏装备、基于AR技术的射击对战系统及方法
技术领域
本发明涉及射击类游戏技术领域,尤其涉及一种真人AR射击游戏装备、基于AR技术的射击对战系统及方法。
背景技术
AR(augmented reality,增强现实技术):是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术将虚拟场景和现实场景相结合,即将虚拟信息应用于真实世界中,即真实场景和虚拟信息实时地叠加到了同一个画面或空间同时存在,从而使虚拟信息能够被人类感官所感知,因此达到超越现实的感官体验。即在真实环境中增添或者移除由计算机实时生成的可以交互的虚拟物体或信息,是将真实世界信息和虚拟世界信息“无缝”集成。
在AR游戏中,《反恐精英》(《Counter-Strike》,简称CS)是由Valve开发的射击游戏系列。CS游戏最初是Valve旗下游戏《半条命》(Half-Life)的其中一个游戏模组,是由MinhLe与Jess Cliffe开发。而后游戏模组被Valve收购,两名制作人在则在Valve公司继续工作。目前系列已有五部《半条命:反恐精英》、《反恐精英》、《反恐精英:零点行动》、《反恐精英:起源》和《反恐精英:全球攻势》。玩家被分为“恐怖分子”和“反恐精英”两队,在地图上进行多回合战斗,完成对应的任务或杀死全部敌人。
在现有技术中,具有PC(personal computer,个人计算机)版CS、VR(virtualreality,虚拟现实技术)版CS,其中PC版CS,是由玩家在PC机前,通过键盘和鼠标进行游戏,VR版CS,是由玩家在佩戴VR头盔后,通过沉浸式VR现实和手持仿真枪械进行游戏。
在实际应用过程中,存在以下几个问题:(1)PC版CS没有沉浸感,手部操控的是键盘和鼠标,不是仿真枪械,体验不佳;(2)VR版CS虽然有沉浸感,但因为看不到外界现实情况,玩家在佩戴完装备后,不敢走动,从而游戏的体验效果不佳。并且,VR版CS玩家也看不到自己的身体动作、手部动作和位置、手持仿真枪械的情况,这些都无法感知。其他真实玩家的情况也反馈不及时。大家好像都在慢动作地玩,毕竟看不到真实世界的情形,生怕自己“撞”了(真/假)墙,或者“摔”下“悬崖”。现实环境与虚拟环境不对等,而且对软环境要求非常高(无伤害的环境),防止玩家过于投入,动作过大又看不到实际环境而导致伤害事故,这样也导致玩家没法完全投入游戏之中。
为改进现有技术中存在的问题,业界采取以下措施,VR版CS在软件中设置相关模拟手和虚拟枪械,让玩家从VR显示装置中看到这些,尽量匹配真实环境中的用户体验,但游戏的体验效果仍然不佳。因此,亟待需要解决一款能够解决以上问题的真人AR射击游戏装备、基于AR技术的射击对战系统及方法。
发明内容
针对现有技术中存在的上述问题,现提供一种真人AR射击游戏装备、基于AR技术的射击对战系统及方法。
具体技术方案如下:
本发明包括一种真人AR射击游戏装备,至少包括一个AR显示设备,其中,所述AR显示设备至少包括图形显示模块、IMU传感器和手势识别器;
通过一个所述AR显示设备的视场观察到其他所述AR显示设备的周边有显示其他所述AR显示设备对应的生命值,或者观察到虚拟攻击对象及其生命值;
所述生命值的显示位置跟随所述AR显示设备的所述IMU传感器的空间方位值改变而改变;
所述手势识别器,用于识别玩家的攻击手势或获取手指按压,触发所述图形显示模块显示发出虚拟攻击物;
当所述虚拟攻击对象或敌方通过所述AR显示设备发出的所述虚拟攻击物,在抛物线/弹道曲线的运行过程中,触碰到所述AR显示设备以下的设定的3D范围,所述AR显示设备周边显示的所述生命值则相应地减少。所述虚拟攻击对象可以是程序设定的虚拟模型,比如虚拟海盗、虚拟匪徒、虚拟恐龙、虚拟怪兽等等。
优选的,所述AR显示设备包括一图像采集单元;
所述图像采集单元,用于获取仿真武器的图像信息和位置信息。
优选的,所述图像采集单元包括一3D扫描仪或TOF摄像头或RGB摄像头;
所述3D扫描仪或TOF摄像头或RGB摄像头,用于采集所述仿真武器的图像信息,并根据所述图像信息来识别所述仿真武器的实时相对位置状态;
所述仿真武器包括手枪、长枪、刀、剑或弓箭。
优选的,所述IMU传感器包括角速度传感器和陀螺仪;
所述AR显示设备还包括高度传感器;
所述角速度传感器,用于采集所述AR显示设备的旋转角度,并根据所述旋转角度计算得到所述AR显示设备的实时位置朝向信息;
所述陀螺仪,用于采集所述AR显示设备的移动距离,并根据所述移动距离计算得到所述AR显示设备的实时位置移动信息;
所述高度传感器,用于采集所述AR显示设备的高度参数,并根据所述高度参数计算得到所述AR显示设备的实时位置高低信息。
优选的,所述手势识别器包括一动作识别单元或压力感应单元;
所述动作识别单元,用于识别所述玩家在使用所述仿真武器的攻击手势,并根据所述攻击手势发出所述虚拟攻击物;
所述攻击手势包括拉弓放箭手势、扣动扳机手势、冲拳或推掌手势:
所述压力感应单元,用于获取扣动扳机的所述手指按压。
优选的,所述图形显示模块包括攻击动作同步单元;
所述攻击动作同步单元,用于根据所述攻击手势的触发状态,或者根据所述仿真武器的攻击传感器的触发,显示出虚拟攻击物在所述AR显示设备中运行的抛物线/弹道曲线的角度和强度。
优选的,所述AR射击游戏装备包括一生命值设置单元;
所述生命值设置单元,用于预先设定所述3D范围中的不同部位的生命值的损失权重。
优选的,所述AR射击游戏装备还包括:击中部位判断单元、生命值计算单元及游戏结束判断单元;
所述击中部位判断单元,用于根据所述虚拟攻击物运行的3D数据与设定的所述3D范围中的不同3D区域,以判定佩戴所述AR显示设备的所述玩家被击中的不同部位;
所述生命值计算单元,用于根据被击中的所述不同部位,以计算所述生命值的减少;
所述游戏结束判断单元,用于判断所述生命值与结束值的大小关系,当所述生命值小于或者等于所述结束值时,则结束该所述AR显示设备(某佩戴玩家)的游戏权。
优选的,所述AR显示设备还包括耳麦与话筒。
优选的,所述图形显示模块还包括地图显示单元;
所述地图显示单元,用于被调用显示在所述AR显示设备的视场中。
本发明还包括一种基于AR技术的射击对战系统,其中,包括服务器和至少两个AR显示设备;
每个所述AR显示设备至少包括图形显示模块、IMU传感器和手势识别器;
通过一方的所述AR显示设备的视场观察到另一方的所述AR显示设备的周边有显示另一方的所述AR显示设备对应的生命值;
所述生命值的显示位置跟随所述AR显示设备的所述IMU传感器的空间方位值改变而改变;
所述手势识别器,用于识别玩家的攻击手势或者获取扣动扳机的手指按压,触发所述图形显示模块显示发出虚拟攻击物;
当一方的所述虚拟攻击物在抛物线/弹道曲线的运行过程中,触碰到另一方的所述AR显示设备以下的设定的3D范围,另一方的所述AR显示设备周边显示的所述生命值则相应地减少;
所述服务器,用于跟踪双方的所述AR显示设备的空间位置、虚拟攻击物,计算双方的所述虚拟攻击物的攻击效果,并记录生命值的变化。
优选的,所述服务器包括一场地定义单元;
所述场地定义单元,用于定义出双方的游戏对战活动场地。
优选的,所述服务器还包括一游戏判断单元;
所述游戏判断单元,用于根据所述玩家的相对位置信息,判断所述玩家是否进入一方的所述游戏对战的活动场地。
优选的,所述服务器包括一跟踪单元与一显示单元;
所述跟踪单元,用于实时获取任一所述AR显示设备的生命值;
所述显示单元,用于实时显示任一所述AR显示设备的生命值。
优选的,所述服务器还包括一定位单元;
所述定位单元,用于对所述AR显示设备进行实时定位,以实时显示所述生命值的位置。
优选的,所述服务器还包括虚拟攻击武器单元;
所述虚拟攻击武器单元,用于根据仿真武器类型确定对应虚拟攻击物的杀伤力权重。
优选的,所述服务器与至少两个所述AR显示设备进行无线通信连接。
优选的,所述AR显示设备设有语音子系统,同一方的所述AR显示设备之间,可以通过所述语音子系统进行多方通话交流。
优选的,所述服务器包括一存储单元;
所述存储单元,用于存储游戏参与者或游戏创建者的体型参数、计算公式库、玩家角色账户信息;
所述存储单元,还用于存储多种游戏场景信息;
所述存储单元,还用于存储所述虚拟攻击武器的武器装备信息。
本发明还包括一种基于AR技术的射击对战方法,其中,包括以下步骤:
步骤S2、佩戴AR显示设备的一方玩家做出攻击手势,触发显示地发出虚拟攻击物;
步骤S3、当一方的所述虚拟攻击物在抛物线/弹道曲线的运行过程中,触碰到另一方所述玩家的所述AR显示设备以下的设定的3D范围,则另一方所述玩家的生命值相应地减少。
优选的,于所述步骤S2之前,还包括如下步骤:
步骤S1、定义出双方的游戏对战活动场地。
优选的,所述步骤S1包括以下步骤:
步骤S10、根据玩家的所述AR显示设备的位置信息与所述游戏对战活动场地的位置信息,确定所述玩家加入哪一方;
步骤S11、对战游戏开始时加入同一方的所述AR显示设备的周边显示同一生命值。
优选的,所述步骤S2包括以下步骤:
步骤S200、根据所述玩家的真实手触发建立虚拟手模型,并将所述虚拟手模型投射至相对的所述AR显示设备中;
步骤S201、采集所述真实手的图像信息,并根据所述图像信息来识别所述真实手的实时状态;
步骤S202、识别所述真实手的位置信息、状态信息以及指向信息,并根据所述位置信息、所述状态信息以及所述指向信息判断所述真实手的手势动作;
步骤S203、分析所述手势动作,并判断攻击手势的开始或结束。
优选的,所述步骤S2还包括以下步骤:
步骤S210、根据仿真武器触发建立虚拟攻击武器;
步骤S211、采集所述仿真武器的图像信息,并根据所述图像信息来识别所述仿真武器的实时状态;
步骤S212、识别所述仿真武器的指向信息与角度信息,并根据所述指向信息与角度信息判断所述虚拟攻击武器的执行动作;
步骤S213、分析所述执行动作,并判断所述执行动作的开始。
优选的,所述步骤S3包括以下步骤:
步骤S30、预先对设定的所述3D范围中的不同部位的生命值的损失权重和/或不同虚拟攻击物的杀伤力权重;
步骤S31、根据所述虚拟攻击物与设定的所述3D范围的触碰区域,以判定所述玩家被击中的部位;
步骤S32、根据所述玩家被击中的部位,以计算所述玩家的生命值相应地减少;
步骤S33、判断所述玩家的生命值与结束值的大小关系,当所述生命值小于或者等于所述结束值时,则结束所述AR显示设备的游戏权。
优选的,于步骤S32中,还包括:
实时获取任一所述AR显示设备的生命值;
实时显示任一所述AR显示设备的生命值。
优选的,于所述步骤S33之后还包括以下步骤:
步骤S34、判断任一方的所有所述玩家的游戏权结束,则完整游戏结束。
本发明及实施例公开的一种真人AR射击游戏装备,有益效果在于如下任一:
(1)针对PC版射击类游戏,真人AR射击游戏装备有沉浸感,更容易投入;
(2)针对VR版射击类游戏,真人AR射击游戏装备有安全感,不担心蒙眼效应;
(3)摆脱原有的运营商模式,而是改进AR射击类游戏类装备,玩家们在(可以是非运营商提供的游戏地)同一地点,通过AR显示设备即可进行游戏,时间、地点、体验等综合性指标甚优,是以后类游戏的发展方向;
本发明及实施例公开的一种基于AR技术的射击对战系统,有益效果在于如下任一:
(4)针对真人版射击类游戏,射击对战系统可以在任何建筑场景下,不用去郊野等特殊环境,实现成本低,并且也不用穿迷彩服,或者被彩弹击中,留有尴尬;
(5)针对真人版射击类游戏,射击对战系统是上述各种版本射击类游戏的进阶,沉浸性好,实现成本低,环境要求不高,有利于玩家随时随地进行游戏;
(6)射击对战系统可用于防恐演练,在不同真实环境中进行演习,比搭建仿真实环境成本低很多,并且在不同的真实环境需要不同的仿建环境,对资金占比要求高;
本发明及实施例公开的一种基于AR技术的射击对战方法,有益效果在于如下任一:
(7)应用于射击对战系统中,适合于多个玩家体验,不局限于时间、地点等条件,具有强的沉浸感以及安全感,使得玩家更容易投入,进一步增强体验效果。
附图说明
参考所附附图,以更加充分的描述本发明的实施例。然而,所附附图仅用于说明和阐述,并不构成对本发明范围的限制。
图1为本发明的实施例一的真人AR射击游戏装备的结构示意图;
图2为本发明的实施例一的玩家的“3D数字轮廓”的模型图;
图3为本发明的实施例二的真人AR射击游戏装备的AR显示设备的原理框图;
图4为本发明的实施例二的真人AR射击游戏装备的IMU传感器的原理框图;
图5为本发明的实施例三的真人AR射击游戏装备的手势识别器的原理框图;
图6为本发明的实施例三的真人AR射击游戏装备的手势识别器(动作识别单元)能感应到的指尖感应对象的虚拟手模型示意图;
图7为本发明的实施例三的真人AR射击游戏装备的手势识别器(动作识别单元)能感应到的比手指长的细长、笔直对象的虚拟手模型示意图;
图8为本发明的实施例三的真人AR射击游戏装备的玩家裸手射箭的示意图;
图9为本发明的实施例三的真人AR射击游戏装备的手势识别器(动作识别单元)的默认坐标体系图;
图10为本发明的实施例三的真人AR射击游戏装备的玩家裸手仿真枪械射击的示意图;
图11为本发明的实施例四的真人AR射击游戏装备的图形显示模块的原理框图;
图12为本发明的实施例五的真人AR射击游戏装备的生命值计算的原理框图;
图13为本发明的实施例六的基于AR技术的射击对战系统的原理框图;
图14为本发明的实施例七的基于AR技术的射击对战系统的服务器的原理框图;
图15为本发明的实施例八的基于AR技术的射击对战系统的服务器的原理框图;
图16为本发明的实施例九的基于AR技术的射击对战系统的服务器的原理框图;
图17为本发明的实施例十的基于AR技术的射击对战方法的步骤流程图;
图18为本发明的实施例十一的基于AR技术的射击对战方法的步骤S1的步骤流程图;
图19为本发明的实施例十二的基于AR技术的射击对战方法的步骤S2的步骤流程图;
图20为本发明的实施例十三的基于AR技术的射击对战方法的步骤S2的步骤流程图;
图21为本发明的实施例十四的基于AR技术的射击对战方法的步骤S3的步骤流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
实施例一:
在一种较优的实施例中,提供一种真人AR射击游戏装备,如图1所示,至少包括一个AR显示设备10,其中,AR显示设备10至少包括图形显示模块100、IMU(Inertialmeasurement unit,惯性测量装置)传感器101和手势识别器102;
通过一个AR显示设备10的视场观察到其他AR显示设备10的周边有显示其他AR显示设备10对应的生命值;
生命值的显示位置跟随AR显示设备10的IMU传感器101的空间方位值改变而改变;
手势识别器102,用于识别玩家的攻击手势或获取手指按压,触发图形显示模块(包括光学透镜)100显示发出虚拟攻击物;
当虚拟攻击物在抛物线/弹道曲线的运行过程中,触碰到AR显示设备10以下的设定的3D范围,AR显示设备10周边显示的生命值则相应地减少。
在该实施例中,玩家可以佩戴该真人AR射击游戏装备,可以体验射击类游戏也可以体验打怪兽等单机游戏。虚拟攻击对象可以是程序设定的虚拟模型,比如虚拟海盗、虚拟匪徒、虚拟恐龙、虚拟怪兽等等。所述虚拟攻击对象可以发出虚拟攻击物攻击佩戴AR显示设备的玩家,被击中则玩家的生命值减少,玩家也可以发出虚拟攻击物攻击虚拟攻击对象,虚拟攻击对象被击中则其的生命值也减少。
该真人AR射击游戏装备主要包括至少一个AR显示设备10,在玩家进行射击类对战游戏之前,需要调整AR显示设备10中的各个传感器(例如包括高度传感器、IMU传感器、陀螺仪或水平仪等)的初始状态,同时包括建立(不同)玩家的人体三维坐标系。
进一步较佳地,在玩家进行射击类对战游戏之前,还需要通过使用AR显示设备10获取玩家的个人身体参数,例如包括身高、三围、头高、上臂长、下臂长、肩宽等,以及在站、坐、蹲和趴好后戴上AR显示设备10,获取玩家的个人姿态参数,例如除了身高,还包括坐高、蹲高和趴高(数据略大于头高)等参数,并根据玩家的以上参数生成个人的不同姿态下的身体(外轮廓)模型,也称“3D数字轮廓”,如图2所示。
进一步,在玩家佩戴AR显示设备10后加入游戏时,即调出该玩家的相关身体(外轮廓)模型,且在不同姿态下改变不同的对应模型。并且AR显示设备10通过摄像头在具有六个自由度(6DOF)的场景(X、Y、Z和旋转X、Y、Z)中,这样“3D数字轮廓”是跟着玩家移动而移动的,只是根据显示指令控制显示与否,头顶的生命值也是跟着玩家移动而移动的,且一般默认设置为显示状态。
进一步地,该真人AR射击游戏装备的控制系统会判断敌方攻击玩家的攻击手势,触发图形显示模块100显示发出虚拟攻击物,例如该虚拟攻击物包括数字子弹或数字弓箭,当虚拟攻击物在抛物线/弹道曲线的运行过程中,该真人AR射击游戏装备的控制系统判断该虚拟攻击物与“3D数字轮廓”是否有交集,触碰到AR显示设备10以下的设定的3D范围,其中,该3D数字范围为不显示的3D数字轮廓,即为AR显示设备10以下的设定的部位,进一步,判断是否玩家被击中,当玩家被击中时,AR显示设备10周边显示的生命值则相应地减少,当玩家的生命值减少为零时,则结束玩家的游戏权。
进一步地,针对PC版射击类游戏,真人AR射击游戏装备有沉浸感,更容易投入,以及针对VR版射击类游戏,真人AR射击游戏装备有安全感,不担心蒙眼效应,并且通过改进该真人AR射击游戏装备,摆脱原有的运营商模式,玩家们在同一地点(一般在建筑物内或半室内),通过AR显示设备即可进行游戏,时间、地点、体验等综合性指标甚优,是以后类游戏的发展方向。
实施例二:
在一种较优的实施例中,如图3所示,AR显示设备10包括一图像采集单元103;
图像采集单元103,用于获取仿真武器的图像信息和位置信息。
在该实施例中,采用图像采集单元103可以获取仿真武器的图像信息和位置信息,例如,仿真武器包括手枪、长枪、刀、剑或弓箭。
其中,图像采集单元103可以选择3D扫描仪或TOF摄像头或RGB摄像头,3D扫描仪或TOF摄像头或RGB摄像头,用于采集仿真武器的图像信息,并根据图像信息来识别仿真武器的实时相对位置状态。
进一步地,图像采集单元103也可以选择激光雷达、毫米波雷达等传感器,也可以选择(双)鱼眼摄像头,通过(双)鱼眼摄像头能够获取超广视野,在(双)鱼眼摄像头之后安装的是一百万像素的单色传感器,有效提高了在低照度下捕捉影像的能力,工作时两个(双)鱼眼摄像头协同工作,以30FPS速度扫描周边环境,通过三角测量原理计算AR显示设备10与当前景物的距离,其原理与手机双摄像头拍摄虚化背景照片相同,但不同点在于两个双鱼眼摄像头的间距很大,精度更高,距离信息经处理后变换为空间位置信息,获取映射至软件系统应用里面的某个节点。进一步地,通过使用3D扫描仪或TOF摄像头或RGB摄像头采集仿真武器的图像信息,并根据图像信息来识别仿真武器的实时相对位置状态。
上述技术方案中,作为较优的实施方式,如图4所示,IMU传感器101包括角速度传感器1010和陀螺仪1011;AR显示设备10还包括高度传感器104;
角速度传感器1010,用于采集AR显示设备10的旋转角度,并根据旋转角度计算得到AR显示设备10的实时位置朝向信息;
陀螺仪1011,用于采集AR显示设备10的移动距离,并根据移动距离计算得到AR显示设备10的实时位置移动信息;
高度传感器104,用于采集AR显示设备10的高度参数,并根据高度参数计算得到AR显示设备10的实时位置高低信息。
在该实施例中,角速度传感器1010的自由度总共有六个(6DOF),包括在X,Y,Z轴位移和围绕X,Y,Z轴旋转,在任意一个自由度中,物体可以沿两个“方向”自由运动,例如,电梯限制在一个自由度中,但电梯能够在这个自由度中上下运动,同样,摩天轮限制在1个(旋转)自由度中,但这是旋转自由度,所以摩天轮能够朝相反的方向旋转,例如,主题公园,碰碰车总共有3个自由度(X、Y和旋转Z),它只能在3轴中的2条轴里平移,然后它只能以一种方式旋转,即两个平移、1个旋转总计为3自由度。
进一步地,无论多复杂,程序设定中的物体的任何可能性运动都可以通过6自由度的组合进行表达,例如在用球拍击或打网球的时候,球拍的复杂运动可以表示为平移和旋转的组合。在该实施例中,角速度传感器1010可以采集AR显示设备10的旋转角度,并根据旋转角度计算得到AR显示设备10的实时位置朝向信息。
其中,采用陀螺仪1011识别AR显示设备10在环境内的移动距离,并根据移动距离计算得到AR显示设备10的实时位置移动信息。即通过陀螺仪可以实现空间追踪或定位。或采用IMU传感器识别AR显示设备10在环境内的移动距离,并根据移动距离计算得到AR显示设备10的实时位置移动信息,即通过加速度计、陀螺仪和磁力计等传感器组合来进行识别测量,简单明了。
其中,采用高度传感器104可以采集AR显示设备10的高度参数,并根据高度参数计算得到AR显示设备10的实时位置高低信息。例如,采用高度传感器104可以采集玩家的身体参数,例如包括身高、坐高、蹲高以及趴高的高度参数,以便于在玩家的不同姿态下进行同步切换。
进一步地,IMU传感器101通过特定的算法,就可以得到AR显示设备10的旋转和相对位移,即能够感应AR显示设备10的前、后、左、右、上、下、前、后的移动,进一步结合3D扫描仪或TOF摄像头或RGB摄像头与IMU传感器,可以使得玩家在游戏环境内自由移动。
在上述技术方案中,获取AR显示设备10的实时朝向信息与实时位置信息是由陀螺仪和6DOF来确定的。例如,通过使用AR显示设备10来确定书本的位置,可以采用陀螺仪和6DOF,以上确定有两种方式:
第一种方式为,当用户座位调整好后可以通过手柄或者AR显示设备10上的按钮来调整各自的书本的位置和角度,通过对各种调整来达到视觉上的虚拟轮廓和真实轮廓的重合显示。
第二种方式为:采用寻边拟合技术,采用Open CV技术,将书本的特征点通过SIFT进行提取,然后将特征点输入到特征匹配库中,通过AR显示设备10的摄像头拍摄出视野的所见的照片,然后将原始图像转为单通道灰度图像,进行二值化处理,通过黑白像素值差得到边缘点,在边缘点找到合适的区域,通过处理的2D图片和3DOF相结合,计算出AR显示设备10和书本的相对距离和坐标,将AR显示设备10的虚拟书本的坐标移动到和现实书本重合。
其中,对于Open CV技术进行说明,Open CV的全称是Open SourceComputerVision Library,是一个跨平台的计算机视觉库。Open CV是由英特尔公司发起并参与开发,以BSD许可证授权发行,可以在商业和研究领域中免费使用。Open CV可用于开发实时的图像处理、计算机视觉以及模式识别程序。该程序库也可以使用英特尔公司的IPP进行加速处理。Open CV技术的具体实现过程可参考现有技术实现,在此不再赘述。
其中,对于SIFT技术进行说明,SIFT的全称是Scale InvariantFeatureTransform,是尺度不变特征变换,是由David G.Lowe在1999年(《Object Recognitionfrom Local Scale-InvariantFeatures》)提出的高效区域检测算法,在2004年(《Distinctive Image Features from Scale-Invariant Keypoints》)得以完善。其中SIFT特征提取对旋转、尺度缩放、亮度变化等保持不变性,是非常稳定的局部特征,现在应用很广泛。SIFT技术的具体实现过程可参考现有技术实现,在此不再赘述。
可拓展地,将获得实时朝向信息与实时位置信息的物体放在虚拟环境中座标的原点,AR显示设备10的程序在启动的时候,AR显示设备10的座标系和虚拟环境的座标系就是重合的,将挂载单色传感器的数据的物体绑定在代表AR显示设备10的物体上,并偏移一段距离,即可识别为人手或者手持工具。进一步地,采用角速度传感器1010与陀螺仪1011可以获取识别人手或者手持工具。
进一步地,AR显示设备10还包括耳麦与话筒,玩家在进行游戏时,可以通过使用耳麦和话筒,便于与别的玩家进行交流。
实施例三:
在一种较优的实施例中,如图5所示,手势识别器102包括一动作识别单元1020;
动作识别单元1020,用于识别玩家在使用仿真武器的攻击手势,并根据攻击手势发出虚拟攻击物;
攻击手势包括拉弓放箭手势、扣动扳机手势、冲拳或推掌手势。
手势识别器102还包括或压力感应单元,压力感应单元设置在仿真枪械的扳机处,用于获取扣动扳机的所述手指按压,然后压力感应单元将传感信号通过通信芯片传递给AR射击游戏装备10的图形显示模块100。
在该实施例中,该手势识别器102(动作识别单元1020)采用Leap motion中的一款微米级3D手动交互设备,该3D手动交互设备可以追踪到小至0.01毫米的动作,拥有150度的视角,可以跟踪1个人的10个手指的动作,最大频率是每秒290帧。并且,该Leap motion营造的空间中可以捕捉手势,可以显示手和手臂骨架,可以显示人的一只手,例如有29块骨头、29个关节、123根韧带、48条神经和30条动脉。
进一步地,该Leap Motion控制器可以将空间叠加入AR三维展示空间,将手势与AR三维展示空间中的物体进行互动/反馈,并且Leap Motion控制器都能精确追踪,换言之,它可以追踪一个8立方英尺的可交互式3D空间。该Leap Motion控制器可追踪全部人的10只手指,精度高达1/100毫米。它远比现有的运动控制技术更为精确。并且,在150°超宽幅的空间视场,可以在真实世界一样随意在3D的空间移动双手,在Leap Motion应用中,可以伸手抓住物体,移动它们,甚至可以更改物体的视角,该Leap Motion控制器以超过每秒200帧的速度追踪手部移动,即屏幕上的动作可以与每次移动完美同步。
进一步地,基于AR显示设备10,结合LeapMotion(两个红外线摄像头)感应器,来实现手势抓取虚拟物体的功能,例如可以完成裸手子弹攻击或裸手射箭,具体实现过程如下:
首先,利用Unity3D引擎,搭建一个3D的虚拟场景空间,在该虚拟场景空间创建某3D虚拟物体,接入高通制作的六自由度的SDK(软件开发工具包,Software DevelopmentKit),一般都是一些软件工程师为特定的软件包、软件框架、硬件平台、操作系统等建立应用软件时的开发工具的集合。
进一步地,通过AR显示设备10上的陀螺仪1011定位数据,计算设备在虚拟场景中的位置,同时映射到Unity3D创建的虚拟场景空间中,从而实现能够在3D空间中旋转以及行走的6DOF效果。
进一步地,接入Leap Motion提供的识别手势(空间参数)的SDK,在虚拟场景空间中加入手模型(包括手部和手臂)。这里需要Leap Motion的驱动以及硬件设备支持。leapSDK能够把驱动检测到的手势信息参数传递到Unity3D,并将这些信息映射到手模型上,即可实现将真实的手模拟成虚拟手,并呈现到虚拟的3D场景空间中,如图6所示,模拟真实的手而成的虚拟手模型示意图,即该手势识别器102能够感应到指尖感应对象,同理,也可感应到的比手指长的细长、笔直的对象,如图7所示,例如,仿真手枪或长枪等(必要时,可以通过图像采集单元的摄像头获取仿真枪械的外轮廓)。
进一步地,在Unity3D引擎中将手势的信息进行分析计算,得到一些特定的手势形状,例如单手拉弓,手上两个手指的“拉弓”的动作,一般具体指拇指和食指的配合,如图8所示,以裸手射箭进行附图说明。
进一步地,分析得到“拉弓”动作的开始和结束,开始和结束时依照两个指尖的相互距离。当两个手指部的相互距离小于内切圆的某个半径阈值即为进入“拉弓”的开始状态,该两个手指部的相互距离大于某个半径阈值,即为离开“拉弓”的结束状态(例如放箭或者释放子弹)。
进一步地,在“拉弓”动作的初始状态和结束状态之间,可以有拉伸状态,即保持两个手指部的相互距离小于内切圆的某个半径阈值,手部从“拉弓”的开始状态的所在位置,向后牵引,这个动作会影响弓箭或者子弹射出后的力度或者强度。并且初始状态的位置和结束状态的位置,即初始点和结束点,这两个点决定了弓箭或者子弹射出的方向。
进一步地,除了Leap Motion通过其感应器和坐标体系,如图9所示,能识别(徒手)手势控制以外,还可以使用uSens Fingo、Kinect、Xtion Pro、Real Sense等体感传感器。
例如,借助Kinect和Leap Motion两传感器的结合,可以设计出双手拉弓,一个手握拳在身体前方,其虎口的位置设定为第1点,另一个手两个手指进入“拉弓”的开始状态和“拉弓”的结束状态,结束状态的位置设定为第2点,这两个点决定了弓箭或者子弹射出的方向和角度。值得一提的是:双手拉弓的力度设定,要大于,单手拉弓的力度设定。当弓箭或子弹射出后,根据角度和力度,设定其弹道曲线的走向和速度,即显示的方向和速度。
进一步地,通过Unity3D引擎发布成对应硬件使用平台(包括安卓、iOS、PSP、xbox和PC等)的应用程序。另外,也可以通过手柄控制、智慧手套、手表式IMU传感器等控制器获取手部动作参数的空间值和反馈值,也是可以做到“拉弓”操作的。
可拓展地,如图10所示,配备仿真的木质或塑料质的手枪或长枪,让玩家更有真实感,仿真手枪或长枪中至少设置水平仪和陀螺仪,用于计算枪管的指向和角度,仿真手枪或长枪的扳机处设有压力传感器或者行程传感器,该仿真手枪或长枪与AR显示设备10有线或者无线连接,也可以和服务器无线连接,间接或者直接把手枪或长枪的数据传递给系统程序。并且采用Leap Motion传感器用于识别扣动扳机的手指的动作,并设定一定的移动阈值,超过一定的移动阈值,设定为“射击”的动作。
进一步地,采用该手势识别器102也可以识别玩家在使用仿真武器的攻击手势,例如攻击手势扣动扳机手势,并根据攻击手势发出虚拟攻击物,并且能够达到精准的同步。
实施例四:
在一种较优的实施例中,如图11所示,图形显示模块100包括攻击动作同步单元1000;
攻击动作同步单元1000,用于根据攻击手势的触发状态,或者根据仿真武器的攻击传感器的触发,显示出虚拟攻击物在AR显示设备中运行的抛物线/弹道曲线的角度和强度。
在该实施例中,图形显示模块100采用Direct3D或者Open GL的图像渲染技术,例如,在AR显示设备中生成并叠加显示(寻边拟合后),并叠加显示色块的虚像。图形显示模块100的攻击动作同步单元1000,根据攻击手势的触发状态,或者根据仿真武器的攻击传感器的触发,显示出虚拟攻击物在AR显示设备中运行的抛物线/弹道曲线的角度和强度。
进一步地,图形显示模块100还包括地图显示单元1001,地图显示单元1001,用于被调用显示在AR显示设备的视场中(类似屏中屏功能)。玩家根据实际对战情况进行移动,地图显示单元1001实时采集周围环境并调用显示在AR显示设备的视场中。
实施例五:
在一种较优的实施例中,如图12所示,AR射击游戏装备包括一生命值设置单元11;
生命值设置单元11,用于预先设定3D范围中的不同部位的生命值的损失权重。
在该实施例中,在玩家进行射击类对战游戏之前,首先初始化AR显示设备10,并获取玩家的身体参数,例如包括身高、坐高、蹲高和趴高等参数,会在AR显示设备10中生成不同高度下的身体轮廓参数和身体轮廓姿态,即为设定的3D范围,AR射击游戏装备设置生命值设置单元11,目的在于,对于设定的3D范围中的不同部位,例如,头部、上身部及下肢部分别设定对应的生命值的损失权重。例如,设定的3D范围中,头部区域被击中的失血权中最大;其次是躯干部;再其次是下肢部;精细化地上肢的失血权中设为最低。
上述技术方案中,作为较优的实施方式,如图12所示,AR射击游戏装备还包括:击中部位判断单元12、生命值计算单元13及游戏结束判断单元14;
击中部位判断单元12,用于根据虚拟攻击物运行的3D数据与设定的3D范围中的不同3D区域,以判定佩戴AR显示设备的玩家被击中的不同部位;
生命值计算单元13,用于根据被击中的不同部位,以计算生命值的减少;
游戏结束判断单元14,用于判断生命值与结束值的大小关系,当生命值小于或者等于结束值时,则结束该AR显示设备的游戏权。
在该实施例中,在玩家佩戴AR显示设备10后加入游戏时,即调出该玩家的相关身体(外轮廓)模型(也可是默认的一般标准身体模型),且在不同姿态下改变不同的对应模型。并且AR显示设备10通过摄像头在具有六个自由度(6DOF)的场景(X、Y、Z和旋转X、Y、Z)中,这样“3D数字轮廓”是跟着玩家移动而移动的,只是根据显示指令控制显示与否。头顶的生命值也是跟着玩家移动而移动的,且一般默认设置为显示状态。
进一步地,该真人AR射击游戏装备的控制系统会判断敌方攻击玩家的攻击手势,触发图形显示模块100显示发出虚拟攻击物,例如该虚拟攻击物包括数字子弹或数字弓箭,当虚拟攻击物在抛物线/弹道曲线的运行过程中,该真人AR射击游戏装备的控制系统判断该虚拟攻击物与“3D数字轮廓”是否有交集,触碰到AR显示设备10以下的设定的3D范围,其中,该3D数字范围为不显示的3D数字轮廓,即为AR显示设备10以下的设定的部位,进一步判断是否玩家被击中,并判断被击中的是哪个部位,对于击中设定的3D范围中的不同部位,例如,头部区域被击中的失血权重最大,其次是躯干部,再其次是下肢部,精细化地上肢的失血权中设为最低,AR显示设备10周边显示的生命值则相应地减少,当玩家的生命值减少为零时,则结束玩家的游戏权。
进一步地,通过改进该真人AR射击游戏装备,摆脱原有的运营商模式,而是改进AR射击类游戏类装备,玩家们在同一地点(比如某建筑物内),通过AR显示设备即可进行游戏,时间、地点、体验等综合性指标甚优,是以后类游戏的发展方向;并且针对PC版射击类游戏,真人AR射击游戏装备有沉浸感,更容易投入,以及针对VR版射击类游戏,真人AR射击游戏装备有安全感,不担心蒙眼效应。
在实施例一至实施例五的基础上,至少两个玩家可以佩戴该真人AR射击游戏装备,可以体验射击类对战游戏。具体方案如下:
实施例六:
在一种较优的实施例中,如图13所示,还提供一种基于AR技术的射击对战系统,其中,包括服务器20和至少两个AR显示设备10;
每个AR显示设备10至少包括图形显示模块100、IMU传感器101和手势识别器102;
通过一方的AR显示设备10的视场观察到另一方的AR显示设备10的周边有显示另一方的AR显示设备10对应的生命值;
生命值的显示位置跟随AR显示设备10的IMU传感器101的空间方位值改变而改变;
手势识别器102,用于识别玩家的攻击手势或者获取扣动扳机的手指按压,触发图形显示模块100显示发出虚拟攻击物;
当一方的虚拟攻击物在抛物线/弹道曲线的运行过程中,触碰到另一方的AR显示设备10以下的设定的3D范围,另一方的AR显示设备10周边显示的生命值则相应地减少;
服务器20,用于跟踪双方的AR显示设备10的空间位置、虚拟攻击物,计算双方的虚拟攻击物的攻击效果,并记录生命值的变化。
在该实施例中,该基于AR技术的射击对战系统可以采用至少两个AR显示设备10,并与至少两个AR显示设备10进行无线通信连接的服务器20。其中,该服务器20中包括一存储单元200,用以存储游戏参与者或游戏创建者的体型参数、计算公式库、玩家角色账户信息,存储多种游戏场景信息,以及存储虚拟攻击武器的武器装备信息。在至少两个玩家进行射击类游戏对战时可以随时调用,灵活性比较高。
进一步地,该射击对战系统基于AR技术,既可以适应于两个玩家对战游戏,也可以适应于多个玩家对战游戏。
例如,(少数)两个玩家对战游戏时,采用Unity的UNET网络技术,需要参与的至少两位玩家使用的AR显示设备10必须处在同一WIFI网络内,无论是哪一台AR显示设备10先开启这个程序,那么先开启这个程序的AR显示设备10就是作为主服务器,当另一台AR显示设备10后启动这个程序后会自动连接先前的服务器。
进一步地,当两台AR显示设备10连接成功时,就会进入到选择红蓝方的位置,即选择完成后双方进入对战界面。
其中,对于Unity的UNET网络技术进行说明,它是Unity游戏引擎针对联网做的网络交互模块,两台平级联网设备,其中一台即做本方的处理机,又承担双方的后台服务器,即存在主从机关系。当然,也可以是用第三方的后台服务器为主机,甲乙双方的前台处理机为从机。
可拓展地,当多个玩家对战游戏时,需要设置后台服务器,后台服务器中承载整个游戏场景(例如,仿真环境的电子地图)、玩家角色、各种武器装备和防御器等,将多个玩家AR显示设备10及服务器设置在同一网络中(例如,局域网或者广域网),多个玩家在进入游戏后自主选择红蓝双方组队,然后,就可以进行红蓝双方的进攻,设定游戏结束判断是根据哪个队的最后一个队员“死亡”,即生命值为零时,则该方失败,整个游戏结束。
进一步地,AR显示设备10设有语音子系统105,在上述两个玩家或多个玩家进行游戏对战时,同一方的AR显示设备10之间,可以通过语音子系统105进行多方通话交流。
进一步地,针对真人版射击类游戏,该射击对战系统可以在任何建筑场景下,不用去郊野等特殊环境,实现成本低,并且也不用穿迷彩服,或者被彩弹击中,留有尴尬,并且针对真人版射击类游戏,射击对战系统是上述各种版本射击类游戏的进阶,沉浸性好,实现成本低,环境要求不高,有利于玩家随时随地进行游戏;可拓展地,射击对战系统可用于防恐演练,在不同真实环境中进行演习,比搭建仿真实环境成本低很多,并且在不同的真实环境需要不同的仿建环境,对资金占比要求高。
实施例七:
在一种较优的实施例中,如图14所示,服务器20包括一场地定义单元201;
场地定义单元201,用于定义出双方的游戏对战活动场地。
上述技术方案中,作为较优的实施方式,服务器20还包括一游戏判断单元202;
游戏判断单元202,用于根据玩家的相对位置信息,判断玩家是否进入一方的游戏对战的活动场地。
在该实施例中,无论是两个玩家或多个玩家对战游戏时,参与的玩家使用的AR显示设备10必须处在同一WIFI网络内,可以在任何建筑场景下,也不用去郊野等特殊运营环境,场地定义单元201预先定义出双方的游戏对战活动场地,例如,游戏对战活动场地包括红方活动场地与蓝方活动场地。
进一步地,服务器20还包括一游戏判断单元202,根据玩家的相对位置信息,判断玩家是否进入一方的游戏对战的活动场地。例如,当玩家进入对应的红方活动(初始)场地时,判断玩家进入红方的游戏战队,当玩家进入对应的蓝方活动(初始)场地时,判断玩家进入蓝方的游戏战队,并且在加入该各个队伍后,AR显示设备10会有文字提示“你已加入红/蓝队”。
进一步地,针对真人版射击类游戏,该射击对战系统可以在任何建筑场景下,不用去郊野等特殊环境,实现成本低,并且也不用穿迷彩服,或者被彩弹击中,留有尴尬。
实施例八:
在一种较优的实施例中,如图15所示,服务器20包括一跟踪单元203与一显示单元204;
跟踪单元203,用于实时获取任一AR显示设备的生命值;
显示单元204,用于实时显示任一AR显示设备的生命值。
在该实施例中,服务器20与至少两个AR显示设备10处于同一网络环境下,服务器20可以采用跟踪单元203实时跟踪每个玩家的生命值,并且采用显示单元204显示每个玩家的生命值,具有很强的时效性、真实性。
并且,服务器20还包括一定位单元205,用于对AR显示设备进行实时定位,以实时显示生命值的位置。在该实施例中,采用是定位技术,可以使得生命值的显示位置跟随AR显示设备10的所述IMU传感器102的空间方位值改变而改变,能够达到精准的同步效果和时效性,增强用户体验。
实施例九:
在一种较优的实施例中,如图16所示,服务器20还包括虚拟攻击武器单元206;
虚拟攻击武器单元206,用于根据仿真武器类型确定对应虚拟攻击物的杀伤力权重。
在该实施例中,仿真武器可以是仿真手枪、仿真长枪、仿真刀、仿真剑或仿真弓箭,并且采用虚拟攻击武器单元206预先对上述仿真武器类型确定对应的虚拟攻击物的杀伤力权重,例如,仿真手枪、仿真长枪的杀伤力权重大于仿真刀,仿真刀的杀伤力权重大于仿真剑或仿真弓箭等等。该仿真武器的杀伤力权重可以根据玩家们的喜好自己定义,并不局限于上述情况,在此不再赘述。
进一步地,结合仿真武器的杀伤力权重与设定3D范围中的不同部位的生命值的损失权重,共同决定双方玩家或多方玩家之间的生命值的计算,进而计算出对应的生命值,并判断生命值与结束值的大小关系,当生命值小于或者等于结束值时,则结束AR显示设备10的游戏权。
进一步地,该射击对战系统可用于防恐演练,在不同真实环境中进行演习,比搭建仿真实环境成本低很多,并且在不同的真实环境需要不同的仿建环境,对资金占比要求高。
在实施例一至实施例五的真人AR射击游戏装备基础上,以及实施例六至实施例九的基于AR技术的射击对战系统的基础上,至少两个玩家可以佩戴该真人AR射击游戏装备,采用以下射击类对战游戏方法体验射击类对战游戏。具体方案如下:
实施例十:
在一种较优的实施例中,如图17所示,本发明还包括一种基于AR技术的射击对战方法,其中,包括以下步骤:
步骤S1、定义出双方的游戏对战活动场地;
步骤S2、佩戴AR显示设备的一方玩家做出攻击手势,触发显示地发出虚拟攻击物;
步骤S3、当一方的虚拟攻击物在抛物线/弹道曲线的运行过程中,触碰到另一方玩家的AR显示设备以下的设定的3D范围,则另一方玩家的生命值相应地减少。
在该实施例中,无论是两个玩家或多个玩家对战游戏时,参与的玩家使用的AR显示设备必须处在同一WIFI网络内,可以在任何建筑场景下,也不用去郊野等特殊环境,预先定义出双方的游戏对战活动场地,例如,游戏对战活动场地包括红方活动场地与蓝方活动场地。
进一步地,根据玩家的相对位置信息,判断玩家是否进入一方的游戏对战的活动场地。例如,当玩家进入对应的红方活动场地时,判断玩家进入红方的游戏战队,当玩家进入对应的蓝方活动场地时,判断玩家进入蓝方的游戏战队,并且在加入该各个队伍后,AR显示设备会有文字提示“你已加入红/蓝队”。
进一步,在玩家佩戴AR显示设备后加入游戏时,即调出该玩家的相关身体(外轮廓)模型,且在不同姿态下改变不同的对应模型。并且AR显示设备通过摄像头在具有六个自由度(6DOF)的场景(X、Y、Z和旋转X、Y、Z)中,这样“3D数字轮廓”是跟着玩家移动而移动的,只是根据显示指令控制显示与否。头顶的生命值也是跟着玩家移动而移动的,且一般默认设置为显示状态。
进一步地,会判断敌方攻击玩家的攻击手势,触发显示发出虚拟攻击物,例如该虚拟攻击物包括数字子弹或数字弓箭,当虚拟攻击物在抛物线/弹道曲线的运行过程中,该真人AR射击游戏装备的控制系统判断该虚拟攻击物与“3D数字轮廓”是否有交集,触碰到AR显示设备10以下的设定的3D范围,其中,该3D数字范围为不显示的3D数字轮廓,即为AR显示设备10以下的设定的部位,进一步判断是否玩家被击中,当玩家被击中时,AR显示设备10周边显示的生命值则相应地减少,当玩家的生命值减少为零时,则结束该玩家的游戏权。
进一步地,将该射击对战方法应用于射击对战系统中,适合于多个玩家体验,不局限于时间、地点等条件,具有强的沉浸感以及安全感,使得玩家更容易投入,进一步增强体验效果。
实施例十一:
在一种较优的实施例中,如图18所示,步骤S1包括以下步骤:
步骤S10、根据玩家的AR显示设备的位置信息与游戏对战活动场地的位置信息,确定玩家加入哪一方;
步骤S11、对战游戏开始时加入同一方的AR显示设备的周边显示同一生命值。
在该实施例中,无论是两个玩家或多个玩家对战游戏时,参与的玩家使用的AR显示设备必须处在同一WIFI网络内,可以在任何建筑场景下,也不用去郊野等特殊环境,预先定义出双方的游戏对战活动场地,例如,游戏对战活动场地包括红方活动场地与蓝方活动(初始)场地。
进一步地,根据玩家的相对位置信息,判断玩家是否进入一方的游戏对战的活动场地。例如,当玩家进入对应的红方活动场地时,判断玩家进入红方的游戏战队,当玩家进入对应的蓝方活动场地时,判断玩家进入蓝方的游戏战队,并且在加入该各个队伍后,AR显示设备会有文字提示“你已加入红/蓝队”。
进一步地,针对真人版射击类游戏,该射击对战系统可以在任何建筑场景下,不用去郊野等特殊环境,实现成本低,并且也不用穿迷彩服,或者被彩弹击中,留有尴尬。并且适合于多个玩家体验,不局限于时间、地点等条件,具有强的沉浸感以及安全感,使得玩家更容易投入,进一步增强体验效果。
实施例十二:
在一种较优的实施例中,如图19所示,步骤S2包括以下步骤:
步骤S200、根据玩家的真实手触发建立虚拟手模型,并将虚拟手模型投射至相对的AR显示设备中;
步骤S201、采集真实手的图像信息,并根据图像信息来识别真实手的实时状态;
步骤S202、识别真实手的位置信息、状态信息以及指向信息,并根据位置信息、状态信息以及指向信息判断真实手的手势动作;
步骤S203、分析手势动作,并判断攻击手势的开始或结束。
在该实施例中,基于AR显示设备,结合LeapMotion(两个红外线摄像头)感应器,来实现手势抓取虚拟物体的功能,例如可以完成裸手子弹攻击或裸手射箭,具体实现过程如下:
首先,利用Unity3D引擎,搭建一个3D的虚拟场景空间,在该虚拟场景空间创建某3D虚拟物体,接入高通制作的六自由度的SDK软件开发工具包(SoftwareDevelopmentKit),一般都是一些软件工程师为特定的软件包、软件框架、硬件平台、操作系统等建立应用软件时的开发工具的集合。
进一步地,通过AR显示设备10上的陀螺仪定位数据,计算设备在虚拟场景中的位置,同时映射到Unity3D创建的虚拟场景空间中,从而实现能够在3D空间中旋转以及行走的6DOF效果。
进一步地,接入Leap Motion提供的识别手势(空间参数)的SDK,在虚拟场景空间中加入手模型(包括手部和手臂)。这里需要Leap Motion的驱动以及硬件设备支持。leapSDK能够把驱动检测到的手势信息参数传递到Unity3D,并将这些信息映射到手模型上,即可实现将真实的手模拟成虚拟手,并呈现到虚拟的3D场景空间中,如图6所示,模拟真实的手而成的虚拟手模型示意图,即该手势识别器能够感应到指尖感应对象,同理,也可感应到的比手指长的细长、笔直的对象,如图7所示,例如,仿真手枪或长枪等。
进一步地,在Unity3D引擎中将手势的信息进行分析计算,得到一些特定的手势形状,例如单手拉弓,手上两个手指的“拉弓”的动作,一般具体指拇指和食指的配合,如图8所示,以裸手射箭进行附图说明。
进一步地,分析得到“拉弓”动作的开始和结束,开始和结束时依照两个指尖的相互距离。当两个手指部的相互距离小于内切圆的某个半径阈值即为进入“拉弓”的开始状态,该两个手指部的相互距离大于某个半径阈值,即为离开“拉弓”的结束状态(例如放箭或者释放子弹)。
进一步地,在“拉弓”动作的初始状态和结束状态之间,可以有拉伸状态,即保持两个手指部的相互距离小于内切圆的某个半径阈值,手部从“拉弓”的开始状态的所在位置,向后牵引,这个动作会影响弓箭或者子弹射出后的力度或者强度。并且初始状态的位置和结束状态的位置,即初始点和结束点,这两个点决定了弓箭或者子弹射出的方向。
进一步地,除了Leap Motion通过其感应器和坐标体系,如图9所示,能识别(徒手)手势控制以外,还可以uSens Fingo、Kinect、Xtion Pro、Real Sense等体感传感器。
例如,借助Kinect和Leap Motion两传感器的结合,可以设计出双手拉弓,一个手握拳在身体前方,其虎口的位置设定为第1点,另一个手两个手指进入“拉弓”的开始状态和“拉弓”的结束状态,结束状态的位置设定为第2点,这两个点决定了弓箭或者子弹射出的方向和角度。值得一提的是,双手拉弓的力度设定,大于,单手拉弓的力度设定。当弓箭或子弹射出后,根据角度和力度,设定其弹道曲线的走向和速度,即显示的方向和速度。
进一步地,通过Unity3D引擎发布成对应硬件使用平台(包括安卓、iOS、PSP、xbox和PC等)的应用程序。另外,也可以通过手柄控制、智慧手套、手表式IMU传感器等控制器获取手部动作参数的空间值和反馈值,也是可以做到“拉弓”操作的。
进一步地,玩家佩戴真人AR射击游戏装备并采用该射击类游戏对战方法,可以在同一地点即可进行游戏,时间、地点、体验等综合性指标甚优,是以后类游戏的发展方向;并且针对PC版射击类游戏,佩戴真人AR射击游戏装备并采用该射击类游戏对战方法有沉浸感,更容易投入,以及针对VR版射击类游戏,佩戴真人AR射击游戏装备并采用该射击类游戏对战方法有安全感,不担心蒙眼效应。
实施例十三:
在一种较优的实施例中,如图20所示,步骤S2还包括以下步骤:
步骤S210、根据仿真武器触发建立虚拟攻击武器;
步骤S211、采集仿真武器的图像信息,并根据图像信息来识别仿真武器的实时状态;
步骤S212、识别仿真武器的指向信息与角度信息,并根据指向信息与角度信息判断虚拟攻击武器的执行动作;
步骤S213、分析执行动作,并判断执行动作的开始。
在该实施例中,如图10所示,配备仿真的木质或塑料质的手枪或长枪,让玩家更有真实感,仿真手枪或长枪中至少设置水平仪和陀螺仪,用于计算枪管的指向和角度,仿真手枪或长枪的扳机处设有压力传感器或者行程传感器,该仿真手枪或长枪与AR显示设备10有线或者无线连接,也可以和服务器无线连接,间接或者直接把手枪或长枪的数据传递给系统程序。并且采用Leap Motion传感器用于识别扣动扳机的手指的动作,并设定一定的移动阈值,超过一定的移动阈值,设定为“射击”的动作。
进一步地,采用该射击游戏对战方法可以识别玩家在使用仿真武器的攻击手势,例如攻击手势扣动扳机手势,并根据攻击手势发出虚拟攻击物,并且能够达到精准的同步。
实施例十四:
在一种较优的实施例中,如图21所示,步骤S3包括以下步骤:
步骤S30、预先对设定的3D范围中的不同部位的生命值的损失权重和/或不同虚拟攻击物的杀伤力权重;
步骤S31、根据虚拟攻击物与设定的3D范围的触碰区域,以判定玩家被击中的部位;
步骤S32、根据玩家被击中的部位,以计算玩家的生命值相应地减少;
步骤S33、判断玩家的生命值与结束值的大小关系,当生命值小于或者等于结束值时,则结束该AR显示设备的游戏权。
在该实施例中,在玩家进行射击类对战游戏之前,首先初始化AR射击游戏装备,并获取玩家的身体参数,例如包括身高、坐高、蹲高和趴高等参数,会在AR显示设备中生成不同高度下的身体轮廓参数和身体轮廓姿态,即为设定的3D范围,对于设定的3D范围中的不同部位,例如,头部、上身部及下肢部分别设定对应的生命值的损失权重。例如,设定的3D范围中,头部区域被击中的失血权中最大;其次是躯干部;再其次是下肢部;精细化地上肢的失血权中设为最低。
进一步地,在玩家佩戴AR显示设备后加入游戏时,即调出该玩家的相关身体(外轮廓)模型,且在不同姿态下改变不同的对应模型。并且AR显示设备通过摄像头在具有六个自由度(6DOF)的场景(X、Y、Z和旋转X、Y、Z)中,这样“3D数字轮廓”是跟着玩家移动而移动的,只是根据显示指令控制显示与否。头顶的生命值也是跟着玩家移动而移动的,且一般默认设置为显示状态。
进一步地,判断敌方攻击玩家的攻击手势,触发显示发出虚拟攻击物,例如该虚拟攻击物包括数字子弹或数字弓箭,当虚拟攻击物在抛物线/弹道曲线的运行过程中,判断该虚拟攻击物与“3D数字轮廓”是否有交集,触碰到AR显示设备以下的设定的3D范围,其中,该3D数字范围为不显示的3D数字轮廓,即为AR显示设备以下的设定的部位,进一步判断是否玩家被击中,并判断被击中的是哪个部位,对于击中设定的3D范围中的不同部位,例如,头部区域被击中的失血权中最大,其次是躯干部,再其次是下肢部,精细化地上肢的失血权中设为最低,AR显示设备周边显示的生命值则相应地减少。
进一步地,于步骤S32中,还包括:实时获取AR显示设备的生命值;并实时显示AR显示设备的生命值。在该实施例中,服务器20与至少两个AR显示设备10处于同一网络环境下,服务器20可以采用跟踪单元203实时跟踪每个玩家的生命值,并且采用显示单元204显示每个玩家的生命值,具有很强的时效性、真实性。
进一步地,于步骤S33之后还包括以下步骤:步骤S34、判断任一方的所有玩家的游戏权结束,则完整游戏结束。
进一步地,采用该射击对战方法,满足不同玩家要求,并且玩家们在同一地点,通过AR显示设备即可进行游戏,时间、地点、体验等综合性指标甚优,是以后类游戏的发展方向;并且针对PC版射击类游戏,真人AR射击游戏装备有沉浸感,更容易投入,以及针对VR版射击类游戏,真人AR射击游戏装备有安全感,不担心蒙眼效应。
在实施例一至实施例十四的基础上,本实施例以多个玩家进行对战游戏,即佩戴真人AR射击游戏装备,采用以上射击类对战游戏方法体验射击类对战游戏。具体方案如下:
实施例十五:
首先,将多个AR显示设备连接同一个wifi局域网,然后运行程序的将自动创建服务器,为保证游戏运行,建议采用运行服务器(例如,软件将带一个exe版本)。当然采用AR显示设备运行服务器,也是可以的,只需要运行APK。例如,第一个玩家进入的AR显示设备就是服务器,服务器的设备不具有客户端功能,即无法加入游戏,只能通过观看模式观看游戏,当其他玩家运行程序时,将自动连入服务器。
进一步地,在多个玩家对战游戏之前,预先定义出双方的游戏对战活动场地,例如,游戏对战活动场地包括红方活动场地与蓝方活动场地。当每个玩家加入对战游戏后,会有文字提示,例如“某某某加入了游戏”。所有玩家需要在同一个地方(需要同一个点,高度,角度均要大致一致)进行复位(按下设备上的返回键,即可复位),这样才能让玩家与真实的人物位置一致。(受6DOF影响,位置会有误差,也可以多次通过查看其它玩家头上血条和现实人位置的误差进行复位来细微调节)。
进一步地,根据玩家的相对位置信息,判断玩家是否进入一方的游戏对战的活动场地。例如,当玩家进入对应的红方活动场地时,判断玩家进入红方的游戏战队,当玩家进入对应的蓝方活动场地时,判断玩家进入蓝方的游戏战队,并且在加入该各个队伍后,AR显示设备会有文字提示“你已加入红/蓝队”。
进一步地,玩家低头可以看到腰部有UI提示自己的名称,生命值,怒气值,盾牌耐久值信息。并且也可看到队友头上顶着血条以及怒气值条。敌方玩家也可以看到血条以及怒气值。
进一步地,玩家通过将手捏住,然后往后拉,会出现一个界面提示(界面中心是力度提示条,边缘会有三个球形的图标,可以通过另一只手去点击触发,例如每个图标相当于一个技能。当技能图标为灰色的时候表示无法释放),并且还设有一条线提示方向。此时松开即可发出一发子弹,子弹顺着线的方向会一直前进。
进一步地,玩家可以点击界面的小球释放技能需要消耗怒气值,其中怒气值在掉血或者盾牌被击中掉耐久值会相应的增加,怒气值不够技能会显示灰色。例如,显示有子弹三个技能图标:第一个技能图标为加血(例如,消耗5的cp增加2的hp),第二个技能图标为强化子弹攻击力加1(例如,默认为1,强化后为2);第三个技能图标为散弹,会发射弧形的多发子弹。每发子弹伤害都加1。
进一步地,当玩家双手张开,手心朝向一个方向,并将拇指与食指中心的白球合并在一起,即可开启盾牌,开启后盾牌会随着双手的位置移动,当手离开视野,会使AR显示设备丢失对手的检测而自动关闭盾牌,所以开盾的时候请保持手在视野以内,其中盾牌耐久值归0需要20秒后自动恢复,在此期间不能开盾。
进一步地,当子弹打中玩家身体或者头部都会减少生命值,打中头部会提示暴击,伤害翻倍,如果玩家的位置同步不对,可以查看生命值的位置,其身体的碰撞检测位置在生命值的下方。在对战过程中,玩家每打掉敌方一滴血加一分,击杀加3分,并且在场景中会由时间以及分数显示。
进一步地,玩家生命值归0时,判定该玩家死亡。在玩家死亡后,会有文字提示复活倒计时,当倒计时结束后自动复活,当死亡次数越多,复活计时则越长。
进一步,通过以多个玩家进行对战游戏为实施例,产生的有益效果在于:
(1)针对PC版射击类游戏,该对战游戏方式更有沉浸感,更容易投入;
(2)针对VR版射击类游戏,该对战游戏方式更有安全感,不担心蒙眼效应;
(3)针对真人版射击类游戏,该对战游戏方式可以在任何建筑场景下,不用去郊野等特殊环境,实现成本低,并且也不用穿迷彩服,或者被彩弹击中,留有尴尬;
(4)针对真人版射击类游戏,该对战游戏方式是上述各种版本射击类游戏的进阶,沉浸性好,实现成本低,环境要求不高,有利于玩家随时随地进行游戏;
(5)该对战游戏方式可用于防恐演练,在不同真实环境中进行演习,比搭建仿真实环境成本低很多,并且在不同的真实环境需要不同的仿建环境,那样的真实环境演习对资金成本要求高;
(6)该对战游戏方式,适合于多个玩家体验,不局限于时间、地点等条件,具有强的沉浸感以及安全感,使得玩家更容易投入,进一步增强体验效果。
(7)玩家们在同一地点,通过AR显示设备即可进行游戏,时间、地点、体验等综合性指标甚优,是以后类游戏的发展方向。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。

Claims (27)

1.一种真人AR射击游戏装备,至少包括一个AR显示设备,其特征在于,所述AR显示设备至少包括图形显示模块、IMU传感器和手势识别器;
通过一个所述AR显示设备的视场观察到其他所述AR显示设备的周边有显示其他所述AR显示设备对应的生命值,或者观察到虚拟攻击对象及其生命值;
所述生命值的显示位置跟随所述AR显示设备的所述IMU传感器的空间方位值改变而改变;
所述手势识别器,用于识别玩家的攻击手势或获取手指按压,触发所述图形显示模块显示发出虚拟攻击物;
当所述虚拟攻击对象或敌方通过所述AR显示设备发出的所述虚拟攻击物,在抛物线/弹道曲线的运行过程中,触碰到所述AR显示设备以下的设定的3D范围,所述AR显示设备周边显示的所述生命值则相应地减少。
2.根据权利要求1所述的真人AR射击游戏装备,其特征在于,所述AR显示设备包括一图像采集单元;
所述图像采集单元,用于获取仿真武器的图像信息和位置信息。
3.根据权利要求2所述的真人AR射击游戏装备,其特征在于,所述图像采集单元包括一3D扫描仪或TOF摄像头或RGB摄像头;
所述3D扫描仪或TOF摄像头或RGB摄像头,用于采集所述仿真武器的图像信息,并根据所述图像信息来识别所述仿真武器的实时相对位置状态;
所述仿真武器包括手枪、长枪、刀、剑或弓箭。
4.根据权利要求1所述的真人AR射击游戏装备,其特征在于,所述IMU传感器包括角速度传感器和陀螺仪;
所述AR显示设备还包括高度传感器;
所述角速度传感器,用于采集所述AR显示设备的旋转角度,并根据所述旋转角度计算得到所述AR显示设备的实时位置朝向信息;
所述陀螺仪,用于采集所述AR显示设备的移动距离,并根据所述移动距离计算得到所述AR显示设备的实时位置移动信息;
所述高度传感器,用于采集所述AR显示设备的高度参数,并根据所述高度参数计算得到所述AR显示设备的实时位置高低信息。
5.根据权利要求2所述的真人AR射击游戏装备,其特征在于,所述手势识别器包括一动作识别单元或压力感应单元;
所述动作识别单元,用于识别所述玩家在使用所述仿真武器的攻击手势,并根据所述攻击手势发出所述虚拟攻击物;
所述攻击手势包括拉弓放箭手势、扣动扳机手势、冲拳或推掌手势;
所述压力感应单元,用于获取扣动扳机的所述手指按压。
6.根据权利要求5所述的真人AR射击游戏装备,其特征在于,所述图形显示模块包括攻击动作同步单元;
所述攻击动作同步单元,用于根据所述攻击手势的触发状态,或者根据所述仿真武器的攻击传感器的触发,显示出虚拟攻击物在所述AR显示设备中运行的抛物线/弹道曲线的角度和强度。
7.根据权利要求1所述的真人AR射击游戏装备,其特征在于,所述AR射击游戏装备包括一生命值设置单元;
所述生命值设置单元,用于预先设定所述3D范围中的不同部位的生命值的损失权重。
8.根据权利要求7所述的真人AR射击游戏装备,其特征在于,所述AR射击游戏装备还包括:击中部位判断单元、生命值计算单元及游戏结束判断单元;
所述击中部位判断单元,用于根据所述虚拟攻击物运行的3D数据与设定的所述3D范围中的不同3D区域,以判定佩戴所述AR显示设备的所述玩家被击中的不同部位;
所述生命值计算单元,用于根据被击中的所述不同部位,以计算所述生命值的减少;
所述游戏结束判断单元,用于判断所述生命值与结束值的大小关系,当所述生命值小于或者等于所述结束值时,则结束所述AR显示设备的游戏权。
9.根据权利要求8所述的真人AR射击游戏装备,其特征在于,所述AR显示设备还包括耳麦与话筒。
10.根据权利要求1所述的真人AR射击游戏装备,其特征在于,所述图形显示模块还包括地图显示单元;
所述地图显示单元,用于被调用显示在所述AR显示设备的视场中。
11.一种基于AR技术的射击对战系统,其特征在于,包括服务器和至少两个AR显示设备;
每个所述AR显示设备至少包括图形显示模块、IMU传感器和手势识别器;
通过一方的所述AR显示设备的视场观察到另一方的所述AR显示设备的周边有显示另一方的所述AR显示设备对应的生命值;
所述生命值的显示位置跟随所述AR显示设备的所述IMU传感器的空间方位值改变而改变;
所述手势识别器,用于识别玩家的攻击手势或者获取扣动扳机的手指按压,触发所述图形显示模块显示发出虚拟攻击物;
当一方的所述虚拟攻击物在抛物线/弹道曲线的运行过程中,触碰到另一方的所述AR显示设备以下的设定的3D范围,另一方的所述AR显示设备周边显示的所述生命值则相应地减少;
所述服务器,用于跟踪双方的所述AR显示设备的空间位置、虚拟攻击物,计算双方的所述虚拟攻击物的攻击效果,并记录生命值的变化。
12.根据权利要求11所述的基于AR技术的射击对战系统,其特征在于,所述服务器包括一场地定义单元;
所述场地定义单元,用于定义出双方的游戏对战活动场地。
13.根据权利要求12所述的基于AR技术的射击对战系统,其特征在于,所述服务器还包括一游戏判断单元;
所述游戏判断单元,用于根据所述玩家的相对位置信息,判断所述玩家是否进入一方的所述游戏对战的活动场地。
14.根据权利要求13所述的基于AR技术的射击对战系统,其特征在于,所述服务器包括一跟踪单元与一显示单元;
所述跟踪单元,用于实时获取任一所述AR显示设备的生命值;
所述显示单元,用于实时显示任一所述AR显示设备的生命值。
15.根据权利要求11或13所述的基于AR技术的射击对战系统,其特征在于,所述服务器还包括一定位单元;
所述定位单元,用于对所述AR显示设备进行实时定位,以实时显示所述生命值的位置。
16.根据权利要求15所述的基于AR技术的射击对战系统,其特征在于,所述服务器还包括虚拟攻击武器单元;
所述虚拟攻击武器单元,用于根据仿真武器类型确定对应虚拟攻击物的杀伤力权重。
17.根据权利要求11所述的基于AR技术的射击对战系统,其特征在于,所述服务器与至少两个所述AR显示设备进行无线通信连接。
18.根据权利要求17所述的基于AR技术的射击对战系统,其特征在于,所述AR显示设备设有语音子系统,同一方的所述AR显示设备之间,可以通过所述语音子系统进行多方通话交流。
19.根据权利要求11所述的基于AR技术的射击对战系统,其特征在于,所述服务器包括一存储单元;
所述存储单元,用于存储游戏参与者或游戏创建者的体型参数、计算公式库、玩家角色账户信息;
所述存储单元,还用于存储多种游戏场景信息;
所述存储单元,还用于存储所述虚拟攻击武器的武器装备信息。
20.一种基于AR技术的射击对战方法,其特征在于,包括以下步骤:
步骤S2、佩戴AR显示设备的一方玩家做出攻击手势,触发显示地发出虚拟攻击物;
步骤S3、当一方的所述虚拟攻击物在抛物线/弹道曲线的运行过程中,触碰到另一方所述玩家的所述AR显示设备以下的设定的3D范围,则另一方所述玩家的生命值相应地减少。
21.根据权利要求20所述的基于AR技术的射击对战方法,其特征在于,于所述步骤S2之前,还包括如下步骤:
步骤S1、定义出双方的游戏对战活动场地。
22.根据权利要求21所述的基于AR技术的射击对战方法,其特征在于,所述步骤S1包括以下步骤:
步骤S10、根据玩家的所述AR显示设备的位置信息与所述游戏对战活动场地的位置信息,确定所述玩家加入哪一方;
步骤S11、对战游戏开始时加入同一方的所述AR显示设备的周边显示同一生命值。
23.根据权利要求20所述的基于AR技术的射击对战方法,其特征在于,所述步骤S2包括以下步骤:
步骤S200、根据所述玩家的真实手触发建立虚拟手模型,并将所述虚拟手模型投射至相对的所述AR显示设备中;
步骤S201、采集所述真实手的图像信息,并根据所述图像信息来识别所述真实手的实时状态;
步骤S202、识别所述真实手的位置信息、状态信息以及指向信息,并根据所述位置信息、所述状态信息以及所述指向信息判断所述真实手的手势动作;
步骤S203、分析所述手势动作,并判断攻击手势的开始或结束。
24.根据权利要求23所述的基于AR技术的射击对战方法,其特征在于,所述步骤S2还包括以下步骤:
步骤S210、根据仿真武器触发建立虚拟攻击武器;
步骤S211、采集所述仿真武器的图像信息,并根据所述图像信息来识别所述仿真武器的实时状态;
步骤S212、识别所述仿真武器的指向信息与角度信息,并根据所述指向信息与角度信息判断所述虚拟攻击武器的执行动作;
步骤S213、分析所述执行动作,并判断所述执行动作的开始。
25.根据权利要求20所述的基于AR技术的射击对战方法,其特征在于,所述步骤S3包括以下步骤:
步骤S30、预先对设定的所述3D范围中的不同部位的生命值的损失权重和/或不同虚拟攻击物的杀伤力权重;
步骤S31、根据所述虚拟攻击物与设定的所述3D范围的触碰区域,以判定所述玩家被击中的部位;
步骤S32、根据所述玩家被击中的部位,以计算所述玩家的生命值相应地减少;
步骤S33、判断所述玩家的生命值与结束值的大小关系,当所述生命值小于或者等于所述结束值时,则结束所述AR显示设备的游戏权。
26.根据权利要求25所述的基于AR技术的射击对战方法,其特征在于,于步骤S32中,还包括:
实时获取任一所述AR显示设备的生命值;
实时显示任一所述AR显示设备的生命值。
27.根据权利要求25所述的基于AR技术的射击对战方法,其特征在于,于所述步骤S33之后还包括以下步骤:
步骤S34、判断任一方的所有所述玩家的游戏权结束,则完整游戏结束。
CN201911397988.9A 2019-12-30 2019-12-30 真人ar射击游戏装备、基于ar技术的射击对战系统及方法 Pending CN111228791A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911397988.9A CN111228791A (zh) 2019-12-30 2019-12-30 真人ar射击游戏装备、基于ar技术的射击对战系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911397988.9A CN111228791A (zh) 2019-12-30 2019-12-30 真人ar射击游戏装备、基于ar技术的射击对战系统及方法

Publications (1)

Publication Number Publication Date
CN111228791A true CN111228791A (zh) 2020-06-05

Family

ID=70863034

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911397988.9A Pending CN111228791A (zh) 2019-12-30 2019-12-30 真人ar射击游戏装备、基于ar技术的射击对战系统及方法

Country Status (1)

Country Link
CN (1) CN111228791A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112295206A (zh) * 2020-10-29 2021-02-02 成都方德尔科技有限公司 一种虚拟化呈现系统
CN114330606A (zh) * 2020-10-09 2022-04-12 华为终端有限公司 真人游戏交互系统与方法
US11483264B2 (en) 2020-12-25 2022-10-25 Beijing Bytedance Network Technology Co., Ltd. Information interaction method, apparatus, device, storage medium and program product

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150260474A1 (en) * 2014-03-14 2015-09-17 Lineweight Llc Augmented Reality Simulator
CN205412196U (zh) * 2013-02-07 2016-08-03 马卡里 一种真人rpg技能发动系统
WO2017043147A1 (ja) * 2015-09-11 2017-03-16 ラスパンダス株式会社 射撃シミュレートシステム
CN106984043A (zh) * 2017-03-24 2017-07-28 武汉秀宝软件有限公司 一种多人对战游戏的数据同步方法和系统
JP2017176635A (ja) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント プログラム及びar体験提供装置
CN108043032A (zh) * 2017-12-29 2018-05-18 武汉艺术先生数码科技有限公司 基于ar的射击游戏系统
KR20190016930A (ko) * 2017-08-09 2019-02-19 모테가 이노베이티브 인크 증강현실형 hmd를 이용한 전자 다트 서비스 제공방법 및 이를 위한 컴퓨터 프로그램, 그 기록매체
CN109663343A (zh) * 2018-12-18 2019-04-23 武汉西山艺创文化有限公司 一种增强现实ar游戏装置及实现方法
JP2019101468A (ja) * 2017-11-28 2019-06-24 株式会社コロプラ 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法
KR20190084404A (ko) * 2018-01-08 2019-07-17 경남정보대학교 산학협력단 가상현실용 hmd를 이용한 상품 구매 시스템 및 방법
CN209514548U (zh) * 2018-12-04 2019-10-18 塔普翊海(上海)智能科技有限公司 Ar搜索装置、基于ar搜索装置的物品搜索系统
CN110602517A (zh) * 2019-09-17 2019-12-20 腾讯科技(深圳)有限公司 基于虚拟环境的直播方法、装置和系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN205412196U (zh) * 2013-02-07 2016-08-03 马卡里 一种真人rpg技能发动系统
US20150260474A1 (en) * 2014-03-14 2015-09-17 Lineweight Llc Augmented Reality Simulator
WO2017043147A1 (ja) * 2015-09-11 2017-03-16 ラスパンダス株式会社 射撃シミュレートシステム
JP2017176635A (ja) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント プログラム及びar体験提供装置
CN106984043A (zh) * 2017-03-24 2017-07-28 武汉秀宝软件有限公司 一种多人对战游戏的数据同步方法和系统
KR20190016930A (ko) * 2017-08-09 2019-02-19 모테가 이노베이티브 인크 증강현실형 hmd를 이용한 전자 다트 서비스 제공방법 및 이를 위한 컴퓨터 프로그램, 그 기록매체
JP2019101468A (ja) * 2017-11-28 2019-06-24 株式会社コロプラ 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法
CN108043032A (zh) * 2017-12-29 2018-05-18 武汉艺术先生数码科技有限公司 基于ar的射击游戏系统
KR20190084404A (ko) * 2018-01-08 2019-07-17 경남정보대학교 산학협력단 가상현실용 hmd를 이용한 상품 구매 시스템 및 방법
CN209514548U (zh) * 2018-12-04 2019-10-18 塔普翊海(上海)智能科技有限公司 Ar搜索装置、基于ar搜索装置的物品搜索系统
CN109663343A (zh) * 2018-12-18 2019-04-23 武汉西山艺创文化有限公司 一种增强现实ar游戏装置及实现方法
CN110602517A (zh) * 2019-09-17 2019-12-20 腾讯科技(深圳)有限公司 基于虚拟环境的直播方法、装置和系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114330606A (zh) * 2020-10-09 2022-04-12 华为终端有限公司 真人游戏交互系统与方法
CN112295206A (zh) * 2020-10-29 2021-02-02 成都方德尔科技有限公司 一种虚拟化呈现系统
US11483264B2 (en) 2020-12-25 2022-10-25 Beijing Bytedance Network Technology Co., Ltd. Information interaction method, apparatus, device, storage medium and program product
US11838251B2 (en) 2020-12-25 2023-12-05 Beijing Bytedance Network Technology Co., Ltd. Information interaction method, apparatus, device, storage medium and program product

Similar Documents

Publication Publication Date Title
JP6362631B2 (ja) 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ
US9779633B2 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
US6951515B2 (en) Game apparatus for mixed reality space, image processing method thereof, and program storage medium
CN207895727U (zh) 作训系统
JP3413127B2 (ja) 複合現実感装置及び複合現実感提示方法
CN109568944B (zh) 游戏处理方法、游戏处理装置、游戏处理系统及记录介质
CN111228791A (zh) 真人ar射击游戏装备、基于ar技术的射击对战系统及方法
US8998718B2 (en) Image generation system, image generation method, and information storage medium
CN108694871A (zh) 一种基于大空间虚拟现实的多兵军事训练考核系统
US20080096657A1 (en) Method for aiming and shooting using motion sensing controller
JP2008073184A (ja) プログラム、情報記憶媒体及びゲーム装置
JP2011215920A (ja) プログラム、情報記憶媒体及び画像生成システム
CN111179679B (zh) 射击训练方法、装置、终端设备及存储介质
CN107803025B (zh) 一种3d高精度实时瞄准及触发模拟方法
JP2008272123A (ja) プログラム、情報記憶媒体及びゲーム装置
CN113077674B (zh) 基于虚拟训练场景的训练方法、装置及存储介质
KR20150114058A (ko) 증강현실이 적용된 온/오프라인 3d 프린팅 로봇 전투 게임 시스템 및 이를 이용한 로봇 전투 게임 방법
KR20170070520A (ko) 에어소프트 건을 이용하여 사용자 모션에 의해 구동되는 fps 게임 시스템 및 방법
KR101586651B1 (ko) 증강현실을 이용한 멀티플레이 로봇게임 시스템
JP7064265B2 (ja) 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法
JP6826626B2 (ja) 視聴プログラム、視聴方法、および視聴端末
JP6813617B2 (ja) ゲームプログラム、ゲーム方法、および情報端末装置
KR101360888B1 (ko) 오프라인 연동형 가상현실을 제공하는 휴대용 통신 단말기 및 이를 이용한 원격 게임방법
KR20100023015A (ko) 실 방향 동적 사격 훈련 시스템
JP2020141813A (ja) 配信プログラム、配信方法、コンピュータ、および視聴端末

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination