CN110199325A - 仿真系统、处理方法以及信息存储介质 - Google Patents
仿真系统、处理方法以及信息存储介质 Download PDFInfo
- Publication number
- CN110199325A CN110199325A CN201780082546.8A CN201780082546A CN110199325A CN 110199325 A CN110199325 A CN 110199325A CN 201780082546 A CN201780082546 A CN 201780082546A CN 110199325 A CN110199325 A CN 110199325A
- Authority
- CN
- China
- Prior art keywords
- user
- processing
- moving body
- virtual space
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
- A63F13/577—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/28—Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
- A63F13/285—Generating tactile feedback signals via the game input device, e.g. force feedback
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/54—Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/847—Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6063—Methods for processing data by generating or executing the game program for sound processing
- A63F2300/6081—Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8076—Shooting
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Cardiology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Acoustics & Sound (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种仿真系统,包括:信息获取部,获取用户的位置信息,该用户以覆盖视野的方式佩戴头戴式显示装置;虚拟空间设定部,基于获取的位置信息,进行虚拟空间的设定处理,该虚拟空间配置设定与用户对应的移动体;移动体处理部,基于获取的位置信息,进行使移动体在虚拟空间中移动的处理;显示处理部,生成头戴式显示装置的显示图像。虚拟空间设定部进行虚拟空间的设定处理,以使得第一移动体组(MAG)与第二移动体组(MBG)被配置设定在虚拟空间的共同的虚拟场地(FLV),该第一移动体组对应于位于实际空间的第一场地(FL1)的第一用户组(UAG),该第二移动体组对应于位于实际空间的第二场地(FL2)的第二用户组(UBG)。
Description
技术领域
本发明涉及仿真系统、处理方法以及信息存储介质等。
背景技术
以往,已知一种仿真系统,通过用户将HMD(头戴式显示装置)佩戴于头部,用户观看显示于HMD的画面的图像,而能够体感所谓的虚拟现实(VR)的世界。作为这样的仿真系统的现有技术,例如专利文献1等公开的技术。
现有技术文献
专利文献
专利文献1:日本特开平11-309269号公报。
发明内容
发明要解决的技术问题
在使用HMD的仿真系统中,在虚拟空间中将从虚拟照相机看到的图像显示于HMD。通过将这样的图像显示于HMD,遍及用户的视野的整个周围地将广阔的VR空间扩大,因此能够显著提高用户的虚拟现实感。
但是,若用户将HMD佩戴于头部,则看不到周围,产生非常难看到的情况。若产生这样的情况,则存在如下担忧:用户彼此碰撞,或者用户的装备等碰到其他用户等的问题。
根据本发明的若干方式,在使用了头戴式显示装置的系统中,能够提供在抑制用户彼此的碰撞等的发生的同时,能够实现虚拟现实感高的虚拟体验的仿真系统、处理方法以及信息存储介质等。
解决技术问题的手段
本发明的一个方式涉及仿真系统,包括:信息获取部,获取用户的位置信息,所述用户以覆盖视野的方式佩戴头戴式显示装置;虚拟空间设定部,基于获取的所述位置信息,进行虚拟空间的设定处理,所述虚拟空间配置设定与所述用户对应的移动体;移动体处理部,基于获取的所述位置信息,进行使所述移动体在所述虚拟空间中移动的处理;以及显示处理部,生成所述用户佩戴的所述头戴式显示装置的显示图像,所述虚拟空间设定部进行所述虚拟空间的设定处理,以使得第一移动体组与第二移动体组被配置设定在所述虚拟空间的共同的虚拟场地,所述第一移动体组对应于位于实际空间的第一场地的第一用户组,所述第二移动体组对应于位于与所述实际空间的所述第一场地不同的第二场地的第二用户组。另外,本发明涉及使计算机作为上述各部发挥功能的程序、或者存储有该程序的计算机可读的信息存储介质。
根据本发明的一个方式,获取用户的位置信息,并基于获取的位置信息,进行虚拟空间中的移动体的配置设定处理、移动处理,生成用户佩戴的头戴式显示装置的显示图像。然后,在本发明的一个方式中,对应于位于实际空间的第一场地的第一用户组的第一移动体组与对应于位于实际空间的第二场地的第二用户组的第二移动体组配置设定在虚拟空间的共同的虚拟场地。若准备这样的第一、第二场地,则能够防止实际空间中的用户的碰撞等,并且与关于第一、第二用户组对应的第一、第二移动体组,配置设定在虚拟空间的共同的虚拟场地,而能够执行该移动处理等。因此,在使用了头戴式显示装置的系统中,能够在抑制用户彼此的碰撞等的发生的同时,提供能够实现虚拟现实感高的虚拟体验的仿真系统。
另外,在本发明的一个方式中,也可以包括游戏处理部,所述游戏处理部进行属于第一组的所述第一用户组与属于第二组的所述第二用户组之间的对战的游戏处理(也可以使计算机作为游戏处理部发挥功能)。
通过这样做,能够在抑制用户彼此的碰撞等的发生的同时,实现有趣的组对战游戏。
另外,在本发明的一个方式中,也可以包括声音处理部,所述声音处理部进行输出至所述用户的声音的生成处理,(使计算机作为声音处理部发挥功能)),所述声音处理部基于所述虚拟空间的所述虚拟场地中的所述移动体的位置信息,进行输出至所述用户的声音的生成处理。
通过这样做,能够在抑制用户彼此的碰撞等的发生的同时,形成虚拟现实感更高的声场。
另外,在本发明的一个方式中,也可以包括通知处理部,所述通知处理部进行对于所述实际空间中的用户彼此碰撞的预测处理,基于所述预测处理的结果,进行对于用户彼此碰撞的警告通知处理(也可以使计算机作为通知处理部发挥功能)。
通过这样做,能够对用户适当地通知存在发生用户彼此碰撞的担忧。
另外,在本发明的一个方式中,也可以包括通知处理部,所述通知处理部进行对于所述实际空间中的所述用户的装备的移动或者所述用户的移动的检测处理,基于所述检测处理的检测结果,进行对于所述装备的移动或者所述用户的移动的警告通知处理(也可以使计算机作为通知处理部发挥功能)。
通过这样做,能够适当地通知存在用户的装备、用户的部位与其他用户碰撞的担忧。
另外,在本发明的一个方式中,也可以所述通知处理部以基于所述用户与其他用户的所述位置信息判断为所述用户与所述其他用户处于接近关系为条件,进行所述通知处理。
通过这样做,能够防止用户彼此未处于接近关系,而徒劳地进行装备的移动、用户的移动的检测处理,进行无用的警告那样的情况。
另外,在本发明的一个方式中,也可以所述移动体处理部进行使所述移动体在所述虚拟空间中以与所述实际空间中的所述用户的移动量不同的移动量移动的处理。
通过这样做,用户能够犹豫较大的移动量的移动,有效地避免用户彼此的碰撞等。
另外,在本发明的一个方式中,也可以所述移动体处理部在判断为所述实际空间中的所述用户与其他用户成为接近关系的情况下,进行加快与所述其他用户对应的其他移动体的移动速度、加快移动加速度、或者加长移动距离的移动处理。
通过这样做,由于其他移动先于实际空间中的其他用户的移动而移动,因此能够抑制在实际空间中用户与其他用户碰撞的情况等。
另外,在本发明的一个方式中,也可以所述显示处理部在对应于所述用户的所述移动体与对应于其他用户的其他移动体成为给定的位置关系的情况下,进行与所述给定的位置关系相应的表演处理图像的生成处理。
通过这样做,若与用户及其他用户对应的移动体及其他移动体成为给定的位置关系,则进行与该位置关系相应的表演处理,生成表演处理图像,从而能够防止用户感到不自然的情况的发生。
另外,在本发明的一个方式中,也可以所述显示处理部在所述实际空间中的所述用户与所述其他用户未成为接近关系的状态下,当所述虚拟空间中的所述移动体与所述其他移动体成为接近关系时,进行所述表演处理图像的生成处理。
通过这样做,在实际空间中,用户彼此例如实际上未擦肩而过,而在虚拟空间中移动体彼此看起来穿过,从而能够防止用户感到不自然的情况的发生。
另外,在本发明的一个方式中,也可以所述显示处理部进行所述移动体及所述其他移动体中的至少一方进行特殊运动的所述表演处理图像、或者转移到所述给定的位置关系用的特殊模式的所述表演处理图像的生成处理。
通过这样做,也可以通过其他移动体进行特殊运动的处理、转移到给定的位置关系用的特殊模式的处理实现使移动体在移动体与其他移动体成为给定的位置关系的情况下进行的表演处理。
另外,在本发明的一个方式中,也可以包括:所述第一用户组能够移动的所述第一场地;和所述第二用户组能够移动的所述第二场地。
通过设置这样的第一、第二场地,能够在抑制用户彼此的碰撞等的发生的同时,提供能够实现虚拟现实感高的虚拟体验的仿真系统。
另外,本发明的其他方式涉及处理方法,进行以下处理:信息获取处理,获取用户的位置信息,所述用户以覆盖视野的方式佩戴头戴式显示装置;虚拟空间设定处理,基于获取的所述位置信息,设定虚拟空间,所述虚拟空间配置设定与所述用户对应的移动体;移动体处理,基于获取的所述位置信息,使所述移动体在所述虚拟空间中移动;以及显示处理,生成所述用户佩戴的所述头戴式显示装置的显示图像,在所述虚拟空间设定处理中,进行所述虚拟空间的设定处理,以使得第一移动体组与第二移动体组被配置设定在所述虚拟空间的共同的虚拟场地,所述第一移动体组对应于位于实际空间的第一场地,所述第二移动体组对应于位于与所述实际空间的所述第一场地不同的第二场地的第二用户组。
附图说明
图1是表示本实施方式的仿真系统的结构例的框图。
图2的(A)、图2的(B)是用于本实施方式的HMD的一个例子。
图3的(A)、图3的(B)是用于本实施方式的HMD的另一例子。
图4是在仿真系统中使用的场地的说明图。
图5的(A)、图5的(B)是关于实际空间的用户与对应于该用户的移动体的说明图。
图6的(A)、图6的(B)是关于用户彼此的碰撞的问题的说明图。
图7的(A)、图7的(B)是与各用户组对应地准备各场地的方法的说明图。
图8是本实施方式的方法的说明图。
图9是从场地的位置向虚拟场地的坐标变换方法的说明图。
图10是通过本实施方式生成的游戏图像的例子。
图11的(A)、图11的(B)是本实施方式的声音处理方法的说明图。
图12是关于用户彼此的碰撞的问题的说明图。
图13的(A)~图13(D)是碰撞的警告通知方法的说明图。
图14是碰撞的警告通知方法的说明图。
图15的(A)、图15的(B)是用户的装备碰到其他用户的问题的说明图。
图16是基于装备、用户的移动的检测结果的警告通知处理的流程图。
图17是使实际空间的用户的移动量与虚拟空间的移动体的移动量不同的方法的说明图。
图18是加快与其他用户对应的其他移动体的移动速度等的方法的说明图。
图19是添加了效果或者显示各种标记的方法的说明图。
图20是加快与其他用户对应的其他移动体的移动速度等的处理的流程图。
图21的(A)~图21的(C)是在移动体与其他移动体成为接近关系的情况下进行的表演处理的说明图。
图22的(A)~图22的(C)是特殊运动处理的一个例子的说明图。
图23是特殊模式的一个例子的说明图。
图24是在移动体与其他移动体成为接近关系的情况下进行的表演处理的流程图。
具体实施方式
以下,对本实施方式进行说明。此外,以下说明的本实施方式并非不当限定权利要求书所记载的本发明的内容。另外,在本实施方式中说明的所有结构未必是本发明的必须构成要件。
1.仿真系统
图1是表示本实施方式的仿真系统(模拟器、游戏系统)的结构例的框图。本实施方式的仿真系统例如是对虚拟现实(VR)进行仿真的系统,能够适用于提供游戏内容的游戏系统、体育比赛模拟器、驾驶模拟器等的实时仿真系统、提供SNS的服务的系统、提供影像等的内容的内容提供系统、或者实现远程作业的操作系统等各种系统。此外,本实施方式的仿真系统并不限于图1的结构,能够实施省略其构成要素(各部分)的一部分,或者追加其他构成要素等各种变形。
操作部160用于用户(游戏者)输入各种操作信息(输入信息)。操作部160例如能够通过操作按钮、方向指示键、操纵杆、方向盘、踏板或者握杆等各种操作设备而实现。例如,操作部160例如能够通过作为用户的装备的枪型控制器等控制器而实现。
存储部170存储各种信息。存储部170作为处理部100、通信部196等的工作区域发挥功能。游戏程序、游戏程序的执行所需的游戏数据由该存储部170保持。存储部170的功能能够通过半导体存储器(DRAM、VRAM)、HDD(硬盘驱动器)、SSD、光盘装置等而实现。存储部170包括对象信息存储部172、描绘缓冲区178。
信息存储介质180(能够由计算机读取的介质)储存程序、数据等,其功能能够通过光盘(DVD、BD、CD)、HDD、或者半导体存储器(ROM)等而实现。处理部100基于储存在信息存储介质180中的程序(数据)进行本实施方式的各种处理。即,在信息存储介质180中存储用于使计算机(具备输入装置、处理部、存储部、输出部的装置)作为本实施方式的各部分发挥功能的程序(用于使计算机执行各部分的处理的程序)。
HMD200(头戴式显示装置)为佩戴于用户的头部并在用户的眼前显示图像的装置。HMD200希望为非透射型,但也可以是透射型。另外,HMD200也可以是所谓的眼镜式HMD。
HMD200包括传感器部210、显示部220、处理部240。此外,也能够实施对HMD200设置发光元件的变形。传感器部210例如用于实现头部追踪等追踪处理。例如通过使用了传感器部210的追踪处理,确定出HMD200的位置、方向。通过确定HMD200的位置、方向而能够确定出用户的视点位置、视线方向。
作为追踪方式能够采用各种方式。在作为追踪方式的一个例子的第一追踪方式中,如用后述的图2的(A)、图2的(B)详细地说明那样,作为传感器部210设置多个受光元件(光电二极管等)。而且,通过由上述多个受光元件接收来自设置于外部的发光元件(LED等)的光(激光等),而确定出现实世界的三维空间中的HMD200(用户的头部)的位置、方向。在第二追踪方式中,如在后述的图3的(A)、图3的(B)中详细说明那样,将多个发光元件(LED)设置于HMD200。而且,通过由设置于外部的拍摄部拍摄来自上述多个发光元件的光,而确定出HMD200的位置、方向。在第三追踪方式中,作为传感器部210设置运动传感器,并使用该运动传感器来确定出HMD200的位置、方向。运动传感器例如能够通过加速度传感器、陀螺仪传感器等而实现。例如通过使用利用了三轴加速度传感器与三轴陀螺仪传感器的六轴运动传感器,能够确定出现实世界的三维空间中的HMD200的位置、方向。此外,也可以通过第一追踪方式与第二追踪方式的组合、或者第一追踪方式与第三追踪方式的组合等,确定出HMD200的位置、方向。另外,也可以采用不是通过确定出HMD200的位置、方向来确定用户的视点位置、视线方向,而是直接确定出用户的视点位置、视线方向的追踪处理。
HMD200的显示部220例如能够通过有机EL显示器(OEL)、液晶显示器(LCD)等而实现。例如,在HMD200的显示部220设置有设定在用户的左眼之前的第一显示器或者第一显示区域、和设定在右眼之前的第二显示器或者第二显示区域,并能够立体视觉显示。在进行立体视觉显示的情况下,例如生成视差不同的左眼用图像与右眼用图像,在第一显示器显示左眼用图像,在第二显示器显示右眼用图像。或者在一个显示器的第一显示区域显示左眼用图像,在第二显示区域显示右眼用图像。另外,在HMD200设置有左眼用、右眼用的两个目镜(鱼眼镜头),由此,表现遍及用户的视野的整个周围地扩展的VR空间。而且,用于修正在目镜等的光学系统中产生的歪斜的修正处理针对左眼用图像、右眼用图像进行。该修正处理由显示处理部120进行。
HMD200的处理部240进行在HMD200中所需的各种处理。例如处理部240进行传感器部210的控制处理、显示部220的显示控制处理等、另外,处理部240也可以进行3D声音(立体声音)处理,以实现声音的方向、距离、扩展的三维再现。
声音输出部192输出通过本实施方式生成的声音,例如通过扬声器或者耳机等实现。
I/F(接口)部194进行与便携式信息存储介质195的接口处理,其功能能够通过I/F处理用的ASIC等而实现。便携式信息存储介质195用于用户保存各种信息,是在没有电源供给的情况下也保持这些信息的存储的存储装置。便携式信息存储介质195能够通过IC卡(存储卡)、USB存储器、或者磁卡等而实现。
通信部196经由有线、无线的网络而与外部(其他装置)之间进行通信,其功能能够通过通信用ASIC或者通信用处理器等的硬件、通信用固件而实现。
此外,用于使计算机作为本实施方式的各部分发挥功能的程序(数据)也可以从服务器(主机装置)所具有的信息存储介质经由网络及通信部196分发至信息存储介质180(或者存储部170)。利用这样的服务器(主机装置)的信息存储介质的使用也能够包含在本发明的范围内。
处理部100(处理器)基于来自操作部160的操作信息、HMD200中的追踪信息(HMD的位置及方向中的至少一方的信息。视点位置及视线方向中的至少一方的信息)、程序等,进行游戏处理(仿真处理)、虚拟空间设定处理、移动体处理、虚拟照相机控制处理、显示处理、或者声音处理等。
处理部100的各部分进行的本实施方式的各处理(各功能)能够通过处理器(包含硬件的处理器)而实现。例如本实施方式的各处理能够通过基于程序等的信息动作的处理器、和存储程序等的信息的存储器而实现。处理器例如各部分的功能通过独立的硬件实现,或者各部分的功能通过一体的硬件实现。例如,处理器包含硬件,该硬件能够包含处理数字信号的电路以及处理模拟信号的电路中的至少一方。例如,处理器也能够由安装于电路基板的一个或者多个电路装置(例如IC等)、一个或者多个电路元件(例如电阻、电容器等)构成。处理器例如也可以是CPU(Central Processing Unit:中央处理单元)。不过,处理器并不限于CPU,能够使用GPU(Graphics Processing Unit:图形处理单元)、或者DSP(DigitalSignal Processor:数字信号处理器)等各种处理器。另外,处理器也可以是基于ASIC的硬件电路。另外,处理器也可以包含处理模拟信号的放大电路、滤波电路等。存储器(存储部170)可以是SRAM、DRAM等半导体存储器,也可以是寄存器。或者可以是硬盘装置(HDD)等磁存储装置,也可以是光盘装置等光学式存储装置。例如,存储器存储能够由计算机读取的命令,该命令由处理器执行,由此实现了处理部100的各部分的处理(功能)。这里的命令可以是构成程序的命令集,也可以是对处理器的硬件电路指示动作的命令。
处理部100包含输入处理部102、运算处理部110、输出处理部140。运算处理部110包含信息获取部111、虚拟空间设定部112、移动体处理部113、虚拟照相机控制部114、游戏处理部115、通知处理部116、显示处理部120、声音处理部130。如上述那样,由上述各部分执行的本实施方式的各处理能够通过处理器(或者处理器及存储器)而实现。此外,能够进行省略上述构成要素(各部分)的一部分,或者追加其他构成要素等的各种变形实施。
输入处理部102作为输入处理进行接受操作信息、追踪信息的处理、从存储部170读取信息的处理、经由通信部196接收信息的处理。例如输入处理部102作为输入处理进行使用操作部160来获取用户输入的操作信息、由HMD200的传感器部210等检测出的追踪信息的处理、从存储部170读出通过读出命令指定的信息的处理、从外部装置(服务器等)经由网络接收信息的处理。这里接收处理是对通信部196指示信息的接收,或者获取通信部196接收到的信息并写入到存储部170的处理等。
运算处理部110进行各种运算处理。例如进行信息获取处理、虚拟空间设定处理、移动体处理、虚拟照相机控制处理、游戏处理(仿真处理)、通知处理、显示处理、或者声音处理等运算处理。
信息获取部111(信息获取处理的程序模块)进行各种信息的获取处理。例如信息获取部111获取佩戴HMD200的用户的位置信息等。信息获取部111也可以获取用户的方向信息等。
虚拟空间设定部112(虚拟空间设定处理的程序模块)进行供配置多个对象的虚拟空间(对象空间)的设定处理。例如,进行将表示移动体(人、机器人、车、电车、飞机、船、怪兽或者动物等)、地图(地形)、建筑物、观众席、路线(道路)、树木、壁、水面等的显示物的各种对象(由多边形、自由曲面或者细分曲面等的原始面构成的对象)配置设定在虚拟空间的处理。即,决定世界坐标系中的对象的位置、旋转角度(朝向、与方向同义),在该位置(X、Y、Z)以该旋转角度(绕X、Y、Z轴的旋转角度)配置对象。具体地,在存储部170的对象信息存储部172与对象编号建立对应关系地存储虚拟空间中的对象(部分对象)的位置、旋转角度、移动速度、移动方向等的信息亦即对象信息。虚拟空间设定部112例如按照各帧进行更新该对象信息的处理等。
移动体处理部113(移动体处理的程序模块)进行关于在虚拟空间内移动的移动体的各种处理。例如进行在虚拟空间(对象空间、游戏空间)中使移动体移动的处理、使移动体动作的处理。例如移动体处理部113基于用户通过操作部160输入的操作信息、获取的追踪信息、程序(移动/动作算法)、各种数据(运动数据)等,进行使移动体(模型对象)在虚拟空间内移动,或者使移动体动作(运动、动画)的控制处理。具体地,进行按照每一帧(例如1/60秒)依次求出移动体的移动信息(位置、旋转角度、速度、或者加速度)动作信息(部分对象的位置、或者旋转角度)的仿真处理。此外,帧是进行移动体的移动/动作处理(仿真处理)、图像生成处理的时间的单位。移动体例如是与实际空间的用户(游戏者)对应的虚拟空间的虚拟用户(虚拟游戏者、化身)、或者该虚拟用户搭乘(操作)的搭乘移动体(操作移动体)等。
游戏处理部115(游戏处理的程序模块)进行用于用户玩游戏的各种游戏处理。换言之,游戏处理部115(仿真处理部)执行用于用户体验虚拟现实(虚拟现实)的各种仿真处理。游戏处理例如为在满足了游戏开始条件的情况下开始游戏的处理、使开始的游戏进行的处理、在满足了游戏结束条件的情况下结束游戏的处理、或者对游戏成绩进行运算的处理等。
通知处理部116(通知处理的程序模块)进行各种通知处理。例如进行针对用户的警告的通知处理等。通知处理例如可以是基于图像、声音的通知处理,也可以是使用了震动设备、声音、气枪等体感装置的通知处理。
显示处理部120(显示处理的程序模块)进行游戏图像(仿真图像)的显示处理。例如基于通过处理部100进行的各种处理(游戏处理、仿真处理)的结果进行描绘处理,由此生成图像,并显示于HMD200的显示部220。具体地,进行坐标变换(世界坐标变换、照相机坐标变换)、剪辑处理、透视变换、或者光源处理等的几何处理,并基于该处理结果创建描绘数据(原始面的顶点的位置坐标、纹理坐标、颜色数据、法向量或者α值等)。而且,基于该描绘数据(原始面数据)将透视变换后(几何处理后)的对象(一个或者多个原始面)描绘于描绘缓冲区178(能够以帧缓冲区、工作缓冲区等的像素单位存储图像信息的缓冲区)。由此,在对象空间(虚拟空间)中生成从虚拟照相机(给定的视点。左眼用、右眼用的第一、第二视点)可见的图像。此外,通过显示处理部120进行的描绘处理能够通过顶点着色器处理、像素着色器处理等而实现。
声音处理部130(声音处理的程序模块)基于通过处理部100进行的各种处理的结果进行声音处理。具体地,生成乐曲(音乐、BGM)、音效、或者声音等的游戏音,并将游戏音输出至声音输出部192。此外,也可以通过HMD200的处理部240实现声音处理部130的声音处理的一部分(例如3D声音处理)。
输出处理部140进行各种信息的输出处理。例如,输出处理部140作为输出处理进行将信息写入到存储部170的处理、经由通信部196发送信息的处理。例如,输出处理部140进行将通过写入命令指定的信息写入到存储部170的处理、经由网络对外部的装置(服务器等)发送信息的处理。发送处理是对通信部196指示信息的发送,或者将发送的信息指示给通信部196的处理等。
而且,如图1所示,本实施方式的仿真系统包含信息获取部111、虚拟空间设定部112、移动体处理部113、显示处理部120。
信息获取部111例如获取以覆盖视野的方式佩戴HMD200的用户的位置信息。例如信息获取部111基于HMD200的追踪信息等获取实际空间中的用户的位置信息。例如获取HMD200的位置信息作为佩戴该HMD200的用户的位置信息。具体地,当用户位于实际空间(现实世界)的场地(游戏场地、仿真场地、游戏区域)的情况下,获取该场地中的位置信息(以给定的位置为原点的坐标系中的位置坐标等)。
虚拟空间设定部112基于获取的位置信息进行虚拟空间的设定处理,配置设定与用户对应的移动体。例如设定移动体的位置、方向来进行在虚拟空间配置的处理。具体地,在与实际空间的用户的位置对应的虚拟空间的位置配置与用户对应的移动体。作为对象的移动体的位置、方向等的信息例如存储在对象信息存储部172中。移动体例如是在实际空间中追随用户的移动而在虚拟空间(对象空间)中移动的对象(显示物)。移动体例如是与用户对应的虚拟用户(化身)、用户搭乘的搭乘移动体等。
移动体处理部113基于获取的位置信息进行在虚拟空间中使移动体移动的处理。例如与用户的位置信息相应地,以追随实际空间中的用户的移动地移动的方式在虚拟空间使移动体移动。例如基于移动体的移动速度、移动加速度,进行按照每帧更新移动体的位置等的处理,使移动体在虚拟空间(虚拟场地)中移动。
显示处理部120生成用户佩戴的HMD200的显示图像。例如生成在虚拟空间中从虚拟照相机看见的图像作为HMD200的显示图像。例如虚拟照相机控制部114进行与佩戴HMD200的用户的视点对应的虚拟照相机的控制处理。例如虚拟照相机控制部114进行作为用户的第一人称视点设定的虚拟照相机的控制。例如通过与在虚拟空间中移动的移动体(虚拟游戏者等)的视点对应的位置设定虚拟照相机以设定虚拟照相机的视点位置、视线方向,由此控制虚拟照相机的位置(位置坐标)、姿势(绕旋转轴的旋转角度)。而且,显示处理部120生成在虚拟空间中从虚拟照相机(用户视点)可见的图像作为HMD200的显示图像(显示影像)。例如在作为虚拟空间的对象空间中生成从给定的视点可见的图像。生成的图像例如是立体视觉用的图像。
而且,在本实施方式中,虚拟空间设定部112进行虚拟空间的设定处理,使得第一移动体组和第二移动体组配置设定在虚拟空间的共同的虚拟场地(相同虚拟场地),所述第一移动体组与位于实际空间的第一场地的第一用户组对应,所述第二移动体组与位于实际空间的第二场地的第二用户组对应。第二场地例如是与第一场地不同的场地。
即,在本实施方式的仿真系统中,准备第一用户组能够移动的第一场地、和第二用户组能够移动的第二场地。此外,也可以准备第三用户组能够移动的第三场地等三个以上的场地。这些场地例如设置于运营仿真系统的设施等。此外,场地也可以设置于除设施以外的场所(例如院子、家中等)。另外,第一、第二用户组例如是由至少一个人的用户构成的组(团队)等。
然后,在虚拟空间中,出现与第一场地的第一用户组对应的第一移动体组和与第二场地的第二用户组对应的第二移动体组。上述第一、第二移动体组的各移动体为与第一、第二用户组的各用户对应的移动体,是与各用户对应的虚拟用户、搭乘移动体(机器人等)等。上述移动体例如穿着与实际空间的用户不同的衣装、装备。
然后,虚拟空间设定部112进行虚拟空间的设定处理,使得第一移动体组和第二移动体组配置设定于虚拟空间的共同的虚拟场地,所述第一移动体组与第一用户组对应,所述第二移动体组与第二用户组对应。例如,将与第一用户组的各用户对应的第一移动体组的各移动体配置配置于与第一场地中的各用户的位置对应的虚拟场地的位置。另外,将与第二用户组的各用户对应的第二移动体组的各移动体配置于与第二场地中的各用户的位置对应的虚拟场地的位置。
例如将相对于第一场地的基准点(例如原点)的第一用户组的各用户的相对的位置坐标设为PCD1(X1、Y1)。该情况下,将第一移动组的各移动体配置在基于虚拟场地的基准点(例如原点)、和该相对的位置坐标PCD1(X1、Y1)确定出的位置。另外,将相对于第二场地的基准点(例如原点)的第二用户组的各用户的相对的位置坐标设为PCD2(X2、Y2)。该情况下,将第二移动群的各移动体配置于基于虚拟场地的基准点、和该相对的位置坐标PCD2(X2、Y2)确定的位置。例如,相对于第一场地的基准点的第一用户组的第一用户的相对的位置坐标与相对于第二场地的基准点的第二用户组的第二用户的相对的位置坐标为相同。该情况下,与第一用户对应的第一移动体和与第二用户对应的第二移动体在共同的虚拟场地中例如配置在相同的位置。
另外,仿真系统包括游戏处理部115。游戏处理部115进行用户彼此对战的游戏处理等。具体地,进行属于第一组(第一团队)的第一用户组与属于第二组(第二团队)的第二用户组之间的对战的游戏处理。例如,将与第一用户组的第一用户对应的移动体设为第一移动体,将与第二用户组的第二用户对应的移动体设为第二移动体。该情况下,游戏处理部115进行第一、第二移动体中的一方的移动体对另一方的移动体进行攻击,或者一方的移动体进行针对来自另一方的移动体的攻击的防御等的对战的游戏处理。对战的游戏处理能够通过判定例如一方的移动体的攻击是否击中另一方的移动体,或者另一方的移动体是否防御了一方的移动体的攻击等而实现。另外,游戏处理部115也进行对该对战游戏的游戏成绩进行运算的处理等作为游戏处理。
另外,仿真系统包括声音处理部130,进行输出至用户的声音的生成处理。而且,声音处理部130基于虚拟空间的虚拟场地中的移动体的位置信息,进行输出至用户的声音的生成处理。即,不是使用实际空间的场地中的用户的位置信息,而是使用虚拟场地中的移动体的位置信息,来进行输出至各用户的声音的生成处理。例如,声音处理部130为了进行输出至用户的声音的生成处理,进行声场的形成处理。进而,使用虚拟空间的虚拟场地中的移动体的位置信息来进行该声场的形成处理。例如,第一用户组位于第一场地,第二用户组位于第二场地,因此第一用户组的第一用户与第二用户组的第二用户在实际空间中的距离很远。该情况下,在本实施方式中,也在共同的虚拟场地中,产生对应于第一用户的第一移动体与对应于第二用户的第二移动体接近的状况。而且,在本实施方式中,输出了第一用户的声音、第一移动体的攻击音、移动音等的第一音源设定在虚拟空间中的第一移动体的位置。另外,输出了第二用户的声音、第二移动体的攻击音、移动音等的第二音源设定在虚拟空间中的第二移动体的位置。因此,即使在实际空间中在第一、第二用户远离的情况下,在虚拟空间中也能从附近听到来自对象侧的音源的声音。
另外,仿真系统包括通知处理部116,该通知处理部116进行用于各种警告的通知处理。例如,通知处理部116进行关于实际空间中的用户彼此的碰撞的预测处理,并基于预测处理的结果,进行关于用户彼此的碰撞的警告通知处理。例如,进行关于用户是否成为碰撞的位置关系(接近关系)的预测处理,在成为了这样的位置关系的情况下,进行警告存在碰撞的担忧的通知处理。预测处理能够通过基于与各用户对应的各移动体的位置、速度或者加速度等,判断是否存在用户彼此成为碰撞的位置关系的担忧等而实现。
另外,通知处理部116进行关于实际空间中的用户的装备的移动或者用户的移动的检测处理,并基于检测处理的检测结果,进行关于装备的移动或者用户的移动的警告通知处理。装备例如用户拿在手中,或者佩戴于用户的脚、躯体或者头部等的部位,是用户穿的衣物等。进而,检测这样的用户的装备的移动、用户自身的移动,进行关于装备的移动或者用户的移动的警告通知处理。例如,基于装备或者用户的位置、速度或者加速度等,检测装备或者用户是否未剧烈移动等。进而,例如,在装备或用户的移动速度或者移动量为给定的阈值以上的情况下,进行关于该移动的警告通知处理。
另外,通知处理部116在基于用户与其他用户的位置信息判断为用户与其他用户处于接近关系的条件下,进行通知处理。例如,当其他用户进入了针对用户设定的检测范围(距离范围)内的情况下,判断为用户与其他用户处于接近关系。然后,在像这样判断为用户与其他用户处于接近关系的条件下进行警告通知处理。例如,若用户与其他用户在未处于接近关系的状态(其他用户在检测范围之外的状态)下,即使装备或者用户的移动速度或移动量为阈值以上,也不进行上述移动的警告通知处理。
此外,警告通知处理能够通过显示于HMD200的图像、从耳机、设置在场地的扬声器等输出的声音、设置于用户的武器、服饰或者装饰品等装备等的振动设备的振动、或者设置于实际空间的场地的各种体感机构(基于光、振动、气枪或声音等的体感装置)等而实现。
另外,移动体处理部113进行使移动体在虚拟空间中以与实际空间中的用户的移动量不同的移动量移动的处理。例如,使移动体在虚拟空间中以比实际空间中的用户的移动量大的移动量移动。或者,也可以使实际空间中的用户的比例与虚拟空间中的移动体的比例不同。通过这样做,能够抑制用户彼此(例如同伴用户彼此)的碰撞。此外,移动量表示用户、移动体移动的程度,例如能够由单位时间(帧)下的用户、移动体的移动距离等表示。
另外,移动体处理部113在判断为实际空间中的用户与其他用户成为接近关系的情况下,进行加快与其他用户对应的其他移动体的移动速度、加快移动加速度、或者加长移动距离的移动处理。例如,当其他用户进入了对用户设定的检测范围(距离范围)内的情况下,加快与该其他用户对应的其他移动体的移动速度,或者加快移动加速度,或者加长移动距离。即,与其他用户位于检测范围外的情况相比,加快移动体的移动速度,或者加快移动加速度,或者加长移动距离。通过这样做,能够抑制用户彼此(例如同伴用户彼此)的碰撞等。
另外,显示处理部120在对应于用户的移动体与对应于其他用户的其他移动体成为给定的位置关系(例如接近关系)的情况下,进行与该给定的位置关系相应的表演处理图像的生成处理(显示处理)。例如,游戏处理部115在移动体与其他移动体成为给定的位置关系的情况下,进行与该给定的位置关系相应的游戏的表演处理。然后,显示处理部120进行与游戏处理部115的表演处理相应的表演处理图像的生成处理。例如,将在未成为这样的给定的位置关系的情况下未被显示的表演处理图像,在移动体与其他移动体成为该给定的位置关系的情况下进行显示。给定的位置关系例如是移动体与其他移动体的接近关系。或者,给定的位置关系也可以是移动体与其他移动体相面对那样的关系(正对的关系)等,例如也可以是移动体的视线方向与其他移动体的视线方向的关系。
具体地,显示处理部120在实际空间中的用户与其他用户未成为接近关系的状态下,当虚拟空间中的移动体与其他移动体成为了接近关系时,进行表演处理图像的生成处理。例如,游戏处理部115在用户与其他用户未成为接近关系的状态下,当移动体与其他移动体成为了接近关系时,进行与该接近关系对应的游戏的表演处理。进而,显示处理部120与该游戏处理部115中的表演处理相应地,进行表演处理图像的生成处理。
例如,显示处理部120进行移动体以及其他移动体中的至少一方进行特殊运动的表演处理图像、或者转移到给定的位置关系用的特殊模式的表演处理图像的生成处理。例如,与这样的位置关系(接近关系)建立对应关系的特殊运动的数据存储在存储部170中,当移动体与其他移动体成为该位置关系时,进行该特殊运动的数据的再生处理。进而,生成移动体与其他移动体中的至少一方进行该特殊运动的表演处理图像。另外,预先准备与这样的位置关系(接近关系)建立对应关系的特殊模式,当移动体与其他移动体成为该位置关系时,从通常模式(通常游戏模式)转移到该特殊模式。
另外,虚拟照相机控制部114基于用户的视点信息的追踪信息,以追随用户的视点变化的方式控制虚拟照相机。
例如,输入处理部102(输入接受部)获取佩戴HMD200的用户的视点信息的追踪信息。例如获取作为用户的视点位置、视线方向中的至少一个的视点信息的追踪信息(视点追踪信息)。该追踪信息例如能够通过进行HMD200的追踪处理而获取。此外,也可以通过追踪处理直接获取用户的视点位置、视线方向。作为一个例子,追踪信息能够包括从用户的初始视点位置的视点位置的变化信息(视点位置的坐标的变化值)、以及从用户的初始视线方向的视线方向的变化信息(视线方向绕旋转轴的旋转角度的变化值)中的至少一方。基于这样的追踪信息包含的视点信息的变化信息,能够确定出用户的视点位置、视线方向(用户的头部的位置、姿势的信息)。
然后,虚拟照相机控制部114基于获取的追踪信息(用户的视点位置以及视线方向中的至少一方的信息)使虚拟照相机的视点位置、视线方向变化。例如,虚拟照相机控制部114以虚拟空间中的虚拟照相机的视点位置、视线方向(位置、姿势)根据实际空间中的用户的视点位置、视线方向的变化而变化的方式设定虚拟照相机。通过这样做,能够基于用户的视点信息的追踪信息,以追随用户的视点变化的方式控制虚拟照相机,
另外,在本实施方式中,作为用户操作的游戏的游戏处理,进行虚拟现实的仿真处理。虚拟现实的仿真处理为用于在虚拟空间模拟实际空间中的现象的仿真处理,是用于使用户虚拟体验该现象的处理。例如进行用于使与实际空间的用户对应的虚拟用户、该搭乘移动体等的移动体在虚拟空间移动,或者使用户体感伴随着移动的环境、周围的变化的处理。
此外,图1的本实施方式的仿真系统的处理能够通过设置于设施的PC等处理装置、用户佩戴的处理装置、或者这些处理装置的分散处理等而实现。或者,也可以通过服务器系统与终端装置实现本实施方式的仿真系统的处理。例如也可以通过服务器系统与终端装置的分散处理等来实现。
2.追踪处理
接下来,对于追踪处理的例子进行说明。在图2的(A)中,表示本实施方式的仿真系统所使用的HMD200的一个例子。如图2的(A)所示,在HMD200设置有多个受光元件201、202、203(光电二极管)。受光元件201、202设置在HMD200的前面侧,受光元件203设置在HMD200的右侧面。另外,在HMD的左侧面、上表面等也设置有未图示的受光元件。
另外,用户US持有模仿现实世界的枪的枪型控制器290,在该枪型控制器290也设置有受光元件204、205(光电二极管)。通过使用这些受光元件204、205,能够确定出枪型控制器290的位置、方向。另外,在枪型控制器290设置有枪的扳机的开关,通过操作该开关,虚拟空间的移动体开枪。此外,在枪型控制器290设置有至少一个受光元件即可。
另外,在HMD200设置有头带260等,用户US以更好的佩戴感稳定地将HMD200佩戴于头部。另外,在HMD200设置有未图示的耳机端子,通过对该耳机端子连接耳机270(声音输出部192),从而用户US能够听到例如实施了三维声音(三维音响)的处理的游戏音。此外,也可以由HMD200的传感器部210等检测用户US的头部的点头动作、摇头动作,而能够输入用户US的操作信息。
另外,用户US将处理装置250例如背在后背。例如,用户US穿着夹克,在该夹克的背面侧安装有处理装置250。处理装置250例如由笔记本式PC等信息处理装置而实现。而且,该处理装置250与HMD200通过电缆252而连接。例如,处理装置250进行显示于HMD200的图像(游戏图像等)的生成处理,将生成的图像的数据经由电缆252输送至HMD200,并显示于HMD200。该处理装置250除这样的图像的生成处理以外,也能够进行本实施方式的各处理(信息获取处理、虚拟空间设定处理、移动体处理、虚拟照相机控制处理、游戏处理、通知处理、显示处理或者声音处理等)。此外,也可以由设置于设施的PC等处理装置(未图示)实现本实施方式的各处理、或者通过该处理装置与用户US佩戴的处理装置250的分散处理而实现本实施方式的各处理。
如图2的(B)所示,在仿真系统(可动框体40)的周边设置有基站280、284。在基站280设置有发光元件281、282,在基站284设置有发光元件285、286。发光元件281、282、285、286例如由射出激光(红外线激光等)的LED而实现。基站280、284使用上述发光元件281、282、285、286,例如呈放射状射出激光。然后,设置于图2的(A)的HMD200的受光元件201~203等接收来自基站280、284的激光,而实现HMD200的追踪,并能够检测用户US的头的位置、朝向的方向(视点位置、视线方向)。另外,设置于枪型控制器290的受光元件204、205接收来自基站280、284的激光,而能够检测枪型控制器290的位置及方向中的至少一方。
在图3的(A)中,示出HMD200的其他例子。在图3的(A)中,对HMD200设置有多个发光元件231~236。上述发光元件231~236例如通过LED等而实现。发光元件231~234设置在HMD200的前面侧,发光元件235、未图示的发光元件236设置在背面侧。上述发光元件231~236例如射出(发出)可见光的频带的光。具体地,发光元件231~236射出相互不同的颜色的光。另外,在用户US所持的枪型控制器290也设置有发光元件237、238(LED)。此外,在枪型控制器290设置有至少一个发光元件即可。
进而,将图3的(B)所示的拍摄部150设置在用户US周围的至少一个地方(例如前方侧、或者前方侧及后方侧等),通过该拍摄部150,拍摄HMD200的发光元件231~236的光。即,在拍摄部150的拍摄图像中映出上述发光元件231~236的点光。然后,通过进行该拍摄图像的图像处理,而实现用户US的头部(HMD)的追踪。即,检测用户US的头部的三维位置、朝向的方向(视点位置、视线方向)。
例如,如图3的(B)所示,在拍摄部150设置有第一、第二照相机151、152,通过使用上述第一、第二照相机151、152的第一、第二拍摄图像,能够检测用户US的头部在进深方向上的位置等。另外,基于设置于HMD200的运动传感器的运动检测信息,也能够检测用户US的头部的旋转角度(视线)。因此,通过使用这样的HMD200,即使在用户US朝向周围的360度全方向中的某个方向的情况下,也能够将与其对应的虚拟空间(虚拟三维空间)中的图像(从与用户的视点对应的虚拟照相机看到的图像)显示于HMD200的显示部220。
另外,通过拍摄部150拍摄枪型控制器290的发光元件237、238的光。即,在拍摄部150的拍摄图像中映出发光元件237、238的点光,通过进行该拍摄图像的图像处理,而与HMD200的情况同样地,能够检测枪型控制器290的位置及方向中的至少一方。
此外,作为发光元件231~238,也可以不使用可见光而使用红外线的LED。另外,例如也可以通过使用深度照相机等的其他方法,来检测用户的头部的位置、移动等。
另外,检测用户的视点位置、视线方向(用户的位置、方向)的追踪处理的方法并不限于在图2的(A)~图3的(B)中说明的方法。例如,也可以使用设置于HMD200的运动传感器等,来通过HMD200的单体实现追踪处理。即,不设置图2的(B)的基站280、284、图3的(B)的拍摄部150等外部装置,而实现追踪处理。或者,也可以通过公知的眼睛追踪、脸部追踪或者头部追踪等各种视点追踪方法,检测用户的视点位置、视线方向等视点信息等。
另外,也可以使用设置于枪型控制器290的运动传感器来实现枪型控制器290的位置、方向的检测。
3.本实施方式的方法
接下来,详细地对本实施方式的方法进行说明。此外,以下,主要以适用于用户分成组(团队)来进行对战的对战游戏的情况为例对本实施方式的方法进行说明。不过,本实施方式并不限于此,也能够适用于各种游戏(RPG、动作游戏、竞争游戏、运动游戏、恐怖体验游戏、电车、飞机等车辆的仿真游戏、益智游戏、交流游戏、或者音乐游戏等),也能够适用于游戏以外。另外,以下,以移动体为作为用户的化身的虚拟用户(人物)的情况为例进行说明,但移动体也可以是用户搭乘的搭乘移动体(例如机器人、战车、战斗机或者车等)等。
3.1向共同虚拟场地的配置
图4是在本实施方式的仿真系统中使用的场地的说明图。在该仿真系统中,在现实世界的设施等准备场地FL(游戏场地、游戏区域、游戏空间),用户US1~US4在该场地FL移动。在场地FL中,设置有由壁等实现的隔板WL。
用户US1~US4佩戴HMD1~HMD4并且拿着枪型控制器GN1~GN4(广义上为控制器)。另外,用户US1~US4例如在后背背着图2的(A)中说明的那样的处理装置250(未图示)。上述用户US1~US4例如为了团队对战游戏而组队(广义上为组)中。在HMD1~HMD4映出虚拟空间中的影像,用户US1~US4一边看该影像一边操作对战游戏等游戏。例如,在HMD1~HMD4是非透射型的HMD的情况下,用户US1~US4的视野被HMD1~HMD4覆盖,因此不易看见现实世界的样子。因此,例如产生位于用户US1的背后的用户US2碰到用户US1等的问题。
在游戏开始前,用户选择成为自身的分身的移动体(化身)。例如,图5的(A)示出实际空间(现实世界)的用户US1、US2,用户US1、US2佩戴HMD1、HMD2并且拿着枪型控制器GN1、GN2。相对于此,在虚拟空间中,出现成为用户US1、US2的分身的移动体MV1、MV2。这些移动体MV1、MV2佩戴游戏的人物的装备、服饰。另外,移动体MV1、MV2拿着与实际空间的枪型控制器GN1、GN2对应的枪GV1、GV2(枪的显示物)。若实际空间的用户US1、US2使枪型控制器GN1、GN2向上下左右移动,则虚拟空间(虚拟世界)的移动体MV1、MV2使枪GV1、GV2向上下左右移动。
图6的(A)、图6的(B)是说明用户彼此的碰撞的问题的图。在图6的(A)中,用户UA1~UA4、UB1~UB4位于实际空间的场地FL上。由用户UA1~UA4构成用户组UAG(第一用户组),由用户UB1~UB4构成用户组UBG(第二用户组)。在本实施方式中,由用户组UAG与用户组UBG进行团队对战。例如,用户组UAG为第一团队,用户组UBG为第二团队,由第一团队与第二团队进行团队对战。最终的游戏成绩由作为团队的成绩、构成团队的用户的个人成绩等决定。
在图6的(A)中,用户组UAG与UBG位于相同的场地FL并移动。因此,如图6的(B)所示,若用户组UAG、UBG接近,则导致发生用户彼此的碰撞。即,在图6的(B)中,用户组UAG与作为其敌人的用户组UBG混在一起对战,各用户的视野由HMD覆盖。因此,例如,产生用户组UAG的用户UA1与用户组UBG的用户UB1碰撞等的问题。
因此,在本实施方式中,如图7的(A)所示,例如分别设置用户组UAG的用户UA1~UA4游艺的场地FL1、和用户组UBG的用户UB1~UB4游艺的场地FL2。例如,在设施等设置场地FL1、FL2,用户UA1~UA4在场地FL1移动并且玩游戏,用户UB1~UB4在场地FL2移动并且玩游戏。该情况下,希望在场地FL1与场地FL2之间设置隔板等,以使得一个场地的用户不进入另一场地。
此外,也可以是场地FL1与FL2的一部分重叠那样的场地。另外,场地FL1、FL2并不限于平面的场地,也可以是有起伏那样的场地、设置各种设置物那样的场地。另外,在图7的(A)中,准备两个场地FL1、FL2,但场地的数量也可以是三个以上。另外,各场地中的用户的人数(定员)也并不限于4人,也可以是3人以下、5人以上。另外,例如也可以将场地FL1、FL2分别例如分割成四个,由此合计准备八个场地,对八个场地的各场地例如配置1个人的用户。通过这样做,也能够避免同伴彼此的碰撞等。
如图7的(A)所示,若分别设置场地FL1、FL2,则例如即使用户组UAG、UBG向敌侧的一方(前方)移动,也如图7的(B)所示,不会发生用户组UAG、UBG的用户彼此互相碰撞那样的状况。即,在图6的(B)中,发生了两者混在一起那样的状况,发生了彼此用户之间相互碰撞那样的状况,但在图7的(B)中,不发生这样的状况。
即,如图7的(B)所示,用户组UAG位于场地FL1,用户组UBG位于场地FL2,上述场地FL1、FL2为不同的场地。因此,能够防止用户组UAG、UBG的用户彼此混在一起并相互碰撞那样的状况。另外,根据本实施方式,不仅是敌人与同伴之间的碰撞,也能够抑制同伴彼此的碰撞。
然后,在本实施方式中,进行向图7的(A)、图7的(B)那样的场地FL1、FL2的用户组UAG、UBG的配置,并且关于虚拟空间的移动体组MAG、MBG,如图8所示那样配置。即,将与实际空间的场地FL1的用户组UAG对应的移动体组MAG、和与场地FL2的用户组UBG对应的移动体组MBG配置在虚拟空间的共同的虚拟场地FLV。
例如,将与用户组UAG的用户UA1~UA4对应的移动体组MAG的移动体MA1~MA4配置在与场地FL1中的UA1~UA4的位置PA1~PA4对应的虚拟场地FLV的位置PAV1~PAV4。例如,用户UA1在实际空间的场地FL1位于位置PA1,但与用户UA1对应的移动体MA1在虚拟空间的虚拟场地FLV中,配置在与位置PA1对应的位置PAV1。用户UA2在实际空间的场地FL1位于位置PA2,但与用户UA2对应的移动体MA2在虚拟场地FLV中,配置在与位置PA2对应的位置PAV2。用户UA3、UA4、移动体MA3、MA4也是同样的。
另外,将与用户组UBG的用户UB1~UB4对应的移动体组MBG的移动体MB1~MB4配置在与场地FL2中的UB1~UB4的位置PB1~PB4对应的虚拟场地FLV的位置PBV1~PBV4。例如,用户UB1在实际空间的场地FL2中位于位置PB1,但与用户UB1对应的移动体MB1在虚拟空间的虚拟场地FLV中,配置在与位置PB1对应的位置PBV1。用户UB2在实际空间的场地FL2中位于位置PB2,但与用户UB2对应的移动体MB2在虚拟空间的虚拟场地FLV中,配置在与位置PB2对应的位置PBV2。用户UB3、UB4、移动体MB3、MB4也是同样的。
像这样,在本实施方式中,作为佩戴覆盖视野的HMD的多个用户的化身的移动体在虚拟空间的虚拟场地上自由移动并在玩的游戏中,在实际空间设定多个与虚拟场地对应的场地。然后,对该多个场地的各场地分配多个用户,并执行游戏处理。进而,在用户的HMD所放映出的虚拟空间中,对各个用户的实际空间的场地上的相对位置信息进行整合,以使得仿佛所有的用户在一个场地游戏。然后,通过在虚拟空间的虚拟场地上虚拟地配置成为用户的化身的移动体,而实现虚拟现实感更高的虚拟体验的游戏。
图9是表示从图8中的场地FL1的位置PA1~PA4向虚拟场地FLV的位置PAV1~PAV4的坐标变换处理、从场地FL2的位置PB1~PB4向虚拟场地FLV的虚拟位置PBV1~PBV4的坐标变换处理的一个例子的图。
例如,在图9中,将场地FL1、FL2的原点(广义上为基准点)分别设为CO1、CO2,将虚拟场地FLV的原点(基准点)设为COV。如图9所示,场地FL1的位置PA1位于距原点CO1在X坐标中为XA1、在Y坐标中为YA1的位置。场地FL2的位置PB1位于距原点CO2在X坐标中XB1、在Y坐标中YB1的位置。
该情况下,在虚拟场地FLV中,与场地FL1的位置PA1对应的位置PAV1设定在距原点COV在X坐标中XA1、在Y坐标中YA1的位置。即,在从原点COV位移了相对坐标XA1、YA1的位置,设定位置PAV1。与位置PA2~PA4对应的位置PAV2~PAV4也能够通过同样的方法设定。
另外,在虚拟场地FLV中,与场地FL2的位置PB1对应的位置PBV1设定在距原点COV在X坐标中XB1、在Y坐标中YB1的位置。即,在从原点COV位移了相对坐标XB1、YB1的位置,设定位置PBV1。与位置PB2~PB4对应的位置PBV2~PBV4也能够通过同样的方法进行设定。
这样做,能够保持在实际空间中假定的用户UA1与用户UB1的相对的位置关系,并且将与用户UA1、UB1对应的移动体MA1、MB1配置于虚拟空间的虚拟场地FLV。例如,在假定实际空间中的用户UA1、UB1接近那样的状况下,在虚拟空间中,与用户UA1、UB1对应的移动体MA1、MB1也接近。该情况下,假定用户UA1、UB1的接近的状况是指假定作为游戏的设定接近的状况。即,如图7的(A)、图7的(B)所示,用户UA1位于场地FL1,用户UB1位于场地FL2。因此,这些用户UA1、UB1不会实际接近,防止了用户UA1、UB1碰撞的情况。
此外,从实际空间的场地的位置向虚拟场地的位置的坐标变换方法并不限于在图9中说明的方法,能够实施各种变形。例如,在图9中,对实际空间(现实世界)与虚拟空间(虚拟世界)的比例相同进行说明,但实际空间的比例与虚拟空间的比例也可以不同。例如,也可以是虚拟空间中的1m比实际空间中的1m长,或者虚拟空间中的1m比实际空间中的1m短那样的比例的设定。该情况下,在图9中,虚拟场地FLV的位置PAV1、PBV1的X坐标、Y坐标比实际空间的场地FL1、FL2的位置PA1、PB1的X坐标、Y坐标大,或者比比实际空间的场地FL1、FL2的位置PA1、PB1的X坐标、Y坐标小。例如,对实际空间的场地FL1、FL2的位置PA1、PB1的X坐标、Y坐标乘以比例系数KS(KS<1或者KS>1)而成为虚拟场地FLV的位置PAV1、PBV1的X坐标、Y坐标。
另外,在图9中,场地FL1、FL2的位置坐标的基准点(原点CO1、CO2)设定为相同位置(左下角的位置),但本实施方式并不限于此,也可以在场地FL1、FL2中使基准点的位置相互不同。例如,也可以将场地FL1的基准点(原点)设定在左下角、右下角、左上角、右上角中的第一角的位置,将场地FL2的基准点(原点)设定在左下角、右下角、左上角、右上角中的与第一角不同的第二角的位置。
另外,在图9中,场地FL1、FL2的方向(朝向)、形状相同,但也可以使场地FL1、FL2的方向、形状相互不同。例如,在图9中,场地FL1、FL2均为第一方向(例如水平方向)为长边的场地,但例如也可以场地FL1的第一方向为长边,场地FL2的与第一方向不同的第二方向为长边等使其方向相互不同。另外,也可以将场地FL1设为第一形状的场地,将场地FL2设为与第一形状不同的第二形状的场地等,使其形状相互不同。
图10是由本实施方式生成的游戏图像的例子。该游戏图像显示于各用户佩戴的HMD。例如,图10是显示于用户UA1的HMD的游戏图像的例子,显示有与用户UA1对应的移动体MA1的手、所持的枪GA1(枪的显示物)。另外,显示有与同伴团队的用户UA2、UA3对应的移动体MA2、MA3、与敌方团队的用户UB1、UB2、UB3对应的移动体MB1、MB2、MB3。同伴团队的移动体MA1、MA2、MA3通过所持的枪GA1、GA2、GA3对敌侧进行攻击,敌方团队的移动体MB1、MB2、MB3通过所持的枪GB1、GB2、GB3进行攻击。像这样,在本实施方式中,敌方团队的图像在敌人的实际的存在位置配置作为敌人的化身的移动体MB1、MB2、MB3,而进行显示处理。另外,如后述那样,输出至用户的声音也按照虚拟场地FLV中的配置设定,进行音源计算。
像这样,在本实施方式中,进行属于同伴团队(广义上为第一组、第一团队)的用户组UAG(移动体组MAG)与属于敌方团队(广义上为第二组、第二团队)的用户组UBG(移动体组MBG)之间的对战的游戏处理。进而,基于该对战的游戏处理的游戏图像显示于各用户的HMD。这样做,能够实现能够虚拟体验团队彼此的战斗的团队对战游戏。即,根据使用HMD的系统,能够遍及用户的视野的整个周围地扩大广阔的VR空间,能够体验该广阔的VR空间中的战斗,因此能够带给用户好像在实际战斗那样的虚拟现实感。
而且,在这样的团队对战游戏中,如在图6的(B)中说明的那样,若变成敌人与同伴接近并混在一起的状态,则发生实际空间的用户彼此碰撞的情况,这样的情况在仿真系统的运营上并不优选。
该方面,根据本实施方式的方法,如图7的(A)、图7的(B)所示,用户组UAG、UBG由于分别配置在不同的场地FL1、FL2,因此能够防止敌人与同伴接近并碰撞那样的情况的发生。而且,在虚拟空间中,如图8所示,与用户组UAG、UBG对应的移动体组MAG、MBG配置在相同的虚拟场地FLV。由此,如图10所示,能够使用户虚拟体验现实世界那样的真实的战斗。因此,能够实现在抑制用户彼此的碰撞的发生的同时,实现虚拟现实感更高的虚拟体验的仿真系统。
另外,在本实施方式中,基于虚拟空间的虚拟场地中的移动体的位置信息,进行输出至用户的声音的生成处理。例如,基于虚拟场地中的移动体的位置信息进行声场的形成处理,基于形成的声场,生成输出至用户的声音。即,从用户的实际的位置发出的声音也以从虚拟地配置在将相对位置信息整合后的虚拟场地上的位置产生的方式计算并被输出。
例如,在图11的(A)中,在虚拟场地FLV上的位置PAV1、PAV4、PBV1,如图8所示,配置移动体MA1、MA4、MB1。这里,对于移动体MA1而言,移动体MA4为同伴,移动体MB1为敌人。
进而,从移动体MA4的位置PAV4发出的声音作为来自设定在位置PAV4的音源SA4(虚拟音源)的声音,向移动体MA1的位置PAV1传递。进而,传递的声音对移动体MA1的用户UA1输出。例如,若移动体MA4的用户UA4对作为同伴的用户UA1呼喊,则该声音作为来自音源SA4的声音被传递至移动体MA1的位置PAV1。由此,对于用户UA1,由于从位置PAV4会听到用户UA4的声音,因此实现虚拟现实感更高的声场形成。
另外,从移动体MB1的位置PBV1发出的声音作为来自设定在位置PBV1的音源SB1(虚拟音源)的声音,传递至移动体MA1的位置PAV1。而且,传递的声音对移动体MA1的用户UA1输出。例如,用户UB1的移动体MB1对作为敌人的用户UA1的移动体MA1打枪,则该枪声作为来自音源SB1的声音,向移动体MA1的位置PAV1传递。由此,用户UA1能够从位置PBV1听到用户UB1的移动体MB1打枪的枪声,因此实现了虚拟现实感更高的声场形成。
像这样,在本实施方式中,基于虚拟场地FLV中的移动体的位置信息,形成虚拟空间中的声场,并生成输出至用户的声音。即,如图7的(A)、图7的(B)所示,用户组UAG与UBG位于实际不同的场地FL1、FL2,而关于声音的生成处理,使用虚拟场地FLV中的移动体的位置信息来形成声场,生成各用户可听见的声音。因此,能够在抑制用户彼此的碰撞的发生的同时,实现虚拟现实感更高的虚拟体验的仿真系统。
此外,如图11的(B)所示,虚拟空间中的声场的形成例如能够使用虚拟配置在虚拟场地的各位置的虚拟扬声器SP1~SP6而实现。例如,通过使用这些虚拟扬声器SP1~SP6来形成声场,对图11的(A)那样的位置PAV4、PBV1设定虚拟的音源SA4、SB1,从这些音源SA4、SB1虚拟地输出对应的声音即可。这样做,能够实现位置PAV1的用户UA1仿佛从音源SA4、SB1的位置PAV4、PBV1听到声音、枪声等那样的虚拟的声场形成。
3.2警告通知处理
根据图7的(A)~图8的本实施方式的方法,能够防止用户组UAG与UBG那样的敌人与同伴之间的碰撞,但也存在发生同伴彼此碰撞的情况。例如,在图12中,用户US1与US2为彼此属于同一团队的同伴,由于位于相同的场地,因此在实际空间中,有可能用户US1与US2碰撞。例如,如图12所示,在用户US1、US2成为背靠背的位置关系的情况下,在用户US1的HMD1不显示与用户US2对应的移动体MV2(图5的(B))。另外,在用户US2的HMD2不显示与用户US1对应的移动体MV1(图5的(B))。因此,在用户US1、US2例如向后走的情况下等,存在用户US1、US2碰撞的担忧。
因此,在本实施方式中,进行实际空间中的用户彼此的碰撞的警告通知处理。例如,进行关于实际空间中的用户彼此的碰撞的预测处理,基于预测处理的结果,进行关于用户彼此的碰撞的警告通知处理。即,在实际空间中,在用户彼此碰撞那样的情况下,为了通知该情况,基于HMD的显示图像(警告显示)、来自声音输出部的声音、设置于用户的装备、HMD的振动设备的振动、或者气枪等,进行碰撞的警告通知处理。这样做,能够对用户适当通知存在用户彼此的碰撞发生的担忧。此外,也可以对实际空间中的移动速度、移动加速度较快的用户进行碰撞的警告通知处理。
例如,在图13的(A)中,对用户US1设定有碰撞的检测范围ARD。例如,在图13的(A)中,以用户US1的位置为基准,设定作为距离范围的检测范围ARD。然后,在图13的(A)中,用户US2未进入检测范围ARD,但在图13的(B)中,用户US2进入检测范围ARD之中。该情况下,用户US1与US2处于接近关系,预测为在实际空间中存在用户彼此碰撞的担忧。即,使用检测范围ARD,进行关于实际空间中的用户彼此的碰撞的预测处理。进而,基于使用了该检测范围ARD的预测处理的结果,进行警告碰撞的通知处理。即,在用户US2进入检测范围ARD之中,预测碰撞的情况下,进行警告该碰撞的通知处理。例如,如图13的(C)所示,使用来自设定在用户US2的位置的虚拟扬声器VSP(虚拟音源)的声音,对用户US1通知存在用户US2与用户US1碰撞的担忧。该情况下,例如也可以用户US2的移动速度越快,越增大来自虚拟扬声器VSP的警告音,或者扩大接近关系的判断用的检测范围ARD。
另外,如图13的(D)所示,也可以在用户穿着的夹克20等的服饰设置振动设备22,通过该振动设备22的振动进行碰撞的警告通知处理。即,如图13的(B)所示,在判断为用户US1与US2处于接近关系,预测用户US1、US2的碰撞的情况下,使振动设备22振动,并通知存在碰撞的担忧。或者,也可以在HMD设置振动设备,通过该振动设备的振动进行警告通知处理。
或者,也可以在场地FL设置气枪那样的通知设备,通过在图14的D1~D9所示的方向(道路)发生气枪,进行警告通知处理。或者,也可以通过从设置于场地FL的多个扬声器在图14的D1~D9所示的方向(道路)输出声音,进行警告通知处理。或者,也可以在场地FL的地面例如呈矩阵状设置多个振动设备,使该振动设备振动,由此进行警告通知处理。或者也可以对HMD显示警告的显示图像。像这样,作为警告通知方法,能够进行各种变形实施。
另外,在本实施方式中,进行关于实际空间中的用户的装备的移动或者用户的移动的检测处理,基于检测处理的检测结果,进行关于装备的移动或者用户的移动的警告通知处理。具体地,以基于用户与其他用户的位置信息判定为用户与其他用户处于接近关系为条件,进行警告通知处理。例如在枪型控制器(枪)等的装备的移动速度较快的情况下,为了通知该情况,通过振动设备的振动、声音或者气枪等,对该用户进行警告通知。然后,例如警告仅进行了给定的次数的情况下,也可以将该用户的游戏操设为游戏结束。
例如,在图15的(A)中,用户US1与US2成为背靠背的位置关系,但在该状态下,如图15的(B)所示,若用户US1朝用户US2转身,则产生用户US1所持的枪型控制器GN1(广义上为装备)碰到用户US2的情况。或者,例如,在用户US1剧烈移动枪型控制器GN1时,若用户US2接近用户US1,则产生剧烈移动的枪型控制器GN1碰到用户US2的情况。或者,在用户US1未装备枪型控制器GN1那样的装备的情况下,在用户US1剧烈移动手、脚等的部位时,若用户US2接近用户US1,则产生剧烈移动的手、脚等部位碰到用户US2的情况。例如,发生用户US1的手的出击、脚的踢打碰到用户US2的情况。
为了防止这样的情况的发生,进行关于实际空间中的用户的装备的移动或者用户的移动的检测处理。即,进行装备、用户的移动速度是否为给定的阈值以上,或者装备、用户的移动的量是否为给定的阈值以上的检测处理。进而,在装备、用户的移动速度变成给定的阈值以上,或者装备、用户的移动量变成给定的阈值以上的情况下,对该用户进行警告通知处理。通过这样做,能够防止图15的(A)、图15的(B)所示那样的装备等碰撞的情况的发生。或者,能够防止基于用户的手的出击、脚的踢打碰到其他用户的情况的发生。此外,作为警告通知方法,能够采用与图13(A)~图14的碰撞的警告通知方法相同的方法。即,能够采用使用声音、振动、气枪或者警告图像等的各种警告通知方法。
图16是表示基于装备、用户的移动的检测结果的警告通知处理的一个例子的流程图。首先,获取用户的位置信息(步骤S1)。例如进行在图2的(A)~图3的(B)中说明的那样的HMD的追踪处理,并基于该追踪处理的结果,获取用户的位置信息。
接下来,判定用户与其他用户是否成为接近关系(步骤S2)。例如,如在图13的(A)、图13的(B)中说明的那样,通过判断其他用户US2是否进入由用户US1设定的检测范围ARD内,能够判断用户US1与其他用户US2是否为接近关系。
然后,在判断为用户与其他用户成为接近关系的情况下,进行用户的枪型控制器等的装备的移动或者用户的移动的检测处理(步骤S3)。例如,枪型控制器等的装备的移动的检测处理能够使用设置于装备的运动传感器(例如陀螺仪传感器或者加速度传感器等)来实现。用户的移动的检测处理也可以在用户的手。脚等的部位装备该运动传感器,使用这些运动传感器来实现,也可以通过用外部的拍摄设备拍摄用户的移动等来检测。
像这样,在本实施方式中,以基于用户的位置信息判断为用户彼此处于接近关系为条件,进行通知处理。通过这样做,能够防止用户彼此未处于接近关系,而徒劳地进行装备的移动、用户的移动的检测处理,或者进行无用的警告那样的情况的发生。
接下来,判断装备或者用户的移动速度或者移动量是否为阈值以上(步骤S4)。然后,在移动速度或者移动量变成阈值以上的情况下,进行警告通知处理(步骤S5)。例如,使用声音、振动、图像或者气枪等,来进行关于装备或者用户的移动的警告通知处理。通过这样做,能够有效地防止用户的装备、用户的手或脚等的部位碰到其他用户那样的情况的发生。
3.3移动体的移动量、移动速度等的设定
在本实施方式中,也可以使移动体在虚拟空间中以与实际空间中的用户的移动量不同的移动量移动。例如,在用户在实际空间中移动1m的距离的情况下,在虚拟空间中,使与用户对应的移动体移动比1m长的距离(例如1.5m~3m),使用户的移动紧凑来降低碰撞的可能性。相反地,也可以当用户在实际空间移动了5m的情况下,在虚拟空间,使与用户对应的移动体移动比5m短的距离(例如2m~4m)。另外,也可以通过移动体(化身)的比例变更,来实现同样的效果。例如,也可以对移动体的尺寸进行比例下降或者比例上升,改变移动时的意识,由此进行碰撞避免。
例如,在图17中,实际空间的用户US2在场地FL上仅以移动量AM移动。例如,在单位时间(帧)仅以移动量AM移动。进而,通过这样的在实际空间中的用户US2的移动,在虚拟空间中,作为用户US2的化身的移动体MV2(化身)仅以移动量AMV移动。例如,在单位时间(帧)仅以移动量AMV移动。例如在图17中,与实际空间中的用户US2的移动量AM相比,虚拟空间中的移动体MV2的移动量AMV更大。通过这样做,用户对较大的移动量的移动犹豫,避免了用户彼此的碰撞。
例如,在图17中,在实际空间的用户US2的前方存在其他用户。该情况下,在实际空间的用户US2向前方移动移动量AM的情况下,反映到用户US2的HMD2的本身的化身的移动体MV2的移动量为AMV,为比实际空间中的移动量AM大的移动量。看到这样的较大的移动量AMV的移动体MV2的移动的用户US2犹豫实际空间中的自身的移动,步幅等变短。由此,抑制了与前方的其他用户的碰撞的发生。另外,前方的其他用户也看到反映到自身的HMD的移动体MV2移动较大的移动量AMV。即,该其他用户看到移动体MV2以比实际空间中的用户US2的移动量AM大的移动量AMV移动来的样子。由此,该其他用户为了避免移动体MV2与自身的移动体碰撞,例如采取向后方侧移动等的行动,从而能够抑制用户US2与该其他用户的碰撞的发生。由此,例如能够有效地防止同伴彼此等碰撞。
此外,也可以通过变更虚拟空间的移动体(人物)的比例,得到与图17同样的效果。例如,若使移动体的比例比实际空间的用户小,则用户感到扩大虚拟空间的大小。相反地,若增大移动体的比例,则用户感到虚拟空间狭窄。进而,像这样,通过改变用户感到的虚拟空间的比例感,能够实现图17那样的使用户的移动量与移动体的移动量不同的方法。或者,也可以改变虚拟空间的比例本身。例如,使实际空间的场地中的比例与虚拟空间的虚拟场地中的比例不同。即,是实际空间中的1m的比例与虚拟空间中的1m的比例不同。例如,若使移动体移动的虚拟场地的比例比用户移动的场地的比例大,则能够用户感到的虚拟空间的比例感看起来较大。进而,当用户在实际空间移动的情况下,例如使移动体以比实际空间中的移动量大的移动量移动。通过这样做,能够感到虚拟空间的比例感扩大,并且也能够实现用户间的碰撞的发生的抑制。
另外,在本实施方式中,在判断为实际空间中的用户与其他用户成为接近关系的情况下,也可以进行加快与其他用户对应的其他移动体的移动速度、加快移动加速度、或者加长移动距离的移动处理。例如在实际空间中,当检测到满足了在5m以内接近了用户等的配置条件的其他用户(敌人、同伴)的情况下,对关于该其他用户的化身亦即移动体的虚拟空间中的移动速度、移动加速度或者移动距离乘以系数KM(KM>1),来进行使接近程度看起来较大的处理。由此,进行在早期使与其他用户对应的移动体显示于用户的HMD内的视野,提高注意度的处理。此外,之后,为了符合条理,也可以花时间使系数KM慢慢返回到KM=1,来进行补偿。该方法在实际空间的用户与虚拟空间的移动体碰撞时(后述的虚拟的碰撞时)也有效。
例如,在图18中,ARFV表示HMD的视野范围,GV1为与用户对应的移动体所持的枪。HMD的视野范围ARFV通过在HMD设置目镜,而实际上成为遍及用户的视野的整个周围那样的宽广的视野范围,但在图18中,为了说明的简化,作为较小的范围示意性地示出。
在图18中,若其他用户US2向用户一方移动,则如B1所示,与用户US2对应的虚拟空间的移动体MV2以比实际空间的用户US2快的移动速度(或者快的移动加速度或长的移动距离。下同)移动,进入到用户的视野范围ARFV。即,移动体MV2先于实际空间中的用户US2的移动而移动,用户US2迟于移动体MV2并追随。因此,能够抑制在实际空间中用户与其他用户US2碰撞的情况。此外,在此时,也可以一并进行在图13的(A)~图14中说明的那样的警告通知处理。
同样地,若其他用户US3向用户的一方移动,则如B2所示,与用户US3对应的虚拟空间的移动体MV3以比实际空间的用户US3快的移动速度等移动,进入用户的视野范围ARFV。即,移动体MV3先于实际空间中的用户US3的移动而移动,用户US3迟于移动体MV3并追随。因此,能够抑制在实际空间中用户与其他用户US3碰撞的情况。此外,在此时,也可以一并进行在图13的(A)~图14中说明那样的警告通知处理。
另外,在图18中,在加快移动体MV2、MV3的移动速度等的情况下,之后,减慢移动体MV2、MV3的移动速度,希望进行符合条理的处理,以使得用户US2、US3的位置与移动体MV2、MV3的位置成为对应的位置。
另外,若在游戏的世界设定中没有问题,则也可以显示对接近的移动速度等较快的移动体进行强调显示的效果、其预测移动方向、表示视野外的接近物的存在与方向的警报,来抑制碰撞的发生。
例如,在图19中,对以较快的移动速度等移动的移动体MV3实施强调显示的效果EF。另外,也显示表示移动体MV3的预测移动方向的标记MK2。通过显示这样的效果EF、标记MK2,用户能够视觉识别移动体MV3的移动速度的快速、移动的方向,从而能够进一步抑制用户彼此的碰撞的发生。另外,在图19中,显示有表示移动体MV2的存在方向的标记MK1。由此,用户能够视觉识别在标记MK1所示的方向存在移动体MV2,能够抑制与对应于移动体MV2的其他用户US2的碰撞的发生。
图20是表示加快与其他用户对应的其他移动体的移动速度等的处理的例子的流程图。
首先,与图16的步骤S1、S2同样地,获取用户的位置信息,判断用户与其他用户是否成为接近关系(步骤S11、S12)。例如,如在图13的(A)、图13的(B)中说明的那样,通过判断其他用户US2是否进入到由用户US1设定的检测范围ARD内,而判断是否成为接近关系。进而,在判断为用户与其他用户成为接近关系的情况下,进行加快与其他用户对应的其他移动体(虚拟用户、化身)的移动速度、加快移动加速度、或者加长移动距离的处理(步骤S13)。即,如图18的B1、B2所示,与实际空间的用户US2、US3相比,进行加快与上述用户US2、US3对应的移动体MV2、MV3的移动速度、加快移动加速度、或者加长移动距离的处理。通过这样做,能够抑制用户与上述其他用户US2、US3碰撞的情况的发生。
3.4表演处理
在本实施方式中,在与用户对应的移动体和与其他用户对应的其他移动体成为给定的位置关系的情况下,执行与给定的位置关系相应的表演处理、表演处理图像的生成处理。具体地,在用户与其他用户未成为接近关系的状态下,当移动体与其他移动体变成接近关系时,执行与该接近关系相应的表演处理、进行表演处理图像的生成处理。例如,进行移动体及其他移动体中的至少一方进行特殊运动的表演处理、该表演处理图像的生成处理、或者转移到给定的位置关系用的特殊模式的表演处理、该表演处理图像的生成处理。
例如,在图21的(A)中,用户US1位于实际空间的场地FL1,用户US2位于实际空间的场地FL2。然后,与用户US1对应的移动体MV1和与用户US2对应的移动体MV2配置在共同的虚拟场地FLV。然后,在图21的(A)中,用户US1、US2以分开给定的距离的方式对置。
在图21的(B)中,用户US1例如在实际空间的场地FL1上向用户US1的前方方向侧亦即右方向移动。用户US2例如在实际空间的场地FL2上向用户US2的前方方向侧亦即左方向移动。由此,在虚拟场地FLV中,与用户US1、US2对应的移动体MV1、MV2成为接近关系,并成为碰撞状态(濒临碰撞的状态)。
之后,在图21的(C)中,用户US1在场地FL1上进一步向右侧移动,用户US2在场地FL2上进一步向左侧移动。由此,在虚拟场地FLV中,移动体MV1、MV2相互背对背,成为擦肩而过的状态。
在本实施方式中,在实际空间中,用户US1、US2位于不同的场地FL1、FL2,但与US1、US2对应的移动体MV1、MV2位于虚拟空间的共同的虚拟场地FLV。因此,如图21的(B)所示,在实际空间中,用户US1、US2未成为碰撞状态,而在虚拟空间中,产生对应的移动体MV1、MV2成为碰撞状态这样的情况。若产生这样的情况,则对于用户US1、US2而言,移动体MV1、MV2彼此看起来好像没有实体那样穿过,产生带来不自然感的情况。
为了防止这样的情况,在本实施方式中,如图21的(B)所示,在与用户US1对应的移动体MV1和与其他用户US2对应的其他移动体MV2变成接近关系等给定的位置关系的情况下,采用如下方法:执行与该位置关系相应的表演处理,将该表演处理图像显示于用户US1、US2的HMD。具体地,如图21的(B)所示,在实际空间的场地FL1、FL2中,用户US1与其他用户US2未变成接近关系,而在虚拟空间的虚拟场地FLV中,在移动体MV1与其他移动体MV2变成接近关系的情况下,执行与该接近关系相应的表演处理,并将表演处理图像显示于HMD。若这样做,则在实际空间中,用户彼此未擦肩而过,而在虚拟空间中,移动体彼此看起来穿过,能够防止损坏用户的虚拟现实感。
此外,在图21的(B)中进行表演处理的期间,希望进行将针对移动体MV1、MV2的其他移动体的攻击设为无效的设定。例如将狙击判定设为例外处理,在此期间,将移动体MV1、MV2设为无伤(无敌状态)。
另外,作为在图21的(B)的状态下进行的表演处理的方法,考虑有各种方法。例如作为表演处理,移动体MV1、MV2中的至少一方也可以执行进行特殊运动的表演处理。例如用户US1、US2进入给定的距离范围内而变成接近关系的情况下,使对应的移动体MV1、MV2进行一次推挤那样的特殊运动。
图22的(A)~图22的(C)是这样的特殊运动处理的说明图。在该特殊运动处理中,从图22的(A)的状态,如图22的(B)所示,进行移动体MV1、MV2背靠背并推挤的动作,之后,如图22的(C)所示,离开而去。该图22的(A)~图22的(C)的一系列的运动作为在图21的(B)的状态下再生的特殊运动的数据存储在图1的存储部170中。进而,作为图21的(B)的表演处理,进行对该特殊运动进行再生的处理(碰撞时的特殊运动处理)。
若进行这样的特殊运动处理,则在图21的(B)那样的状况时,例如生成移动体彼此一边推挤一边擦肩而过那样的图像,因此能够抑制给用户带来不自然感而使虚拟现实感降低的情况的发生。
此外,特殊运动处理并不限于图22的(A)~图22的(C)所示那样的运动处理,能够实施各种变形。例如,能够将一方的移动体以避开另一方的移动体的方式移动,或者一方的移动体以越过另一方的移动体的方式移动等各种运动处理用作特殊运动处理。另外,在进行特殊运动处理的期间(帧),希望进行将来自其他移动体的攻击设定为无效(无敌设定)。
另外,在本实施方式中,作为在图21的(B)的状态下进行的表演处理,也可以进行转移到接近关系用(广义上为给定的位置关系用)的特殊模式的表演处理。即,进行从通常模式转移到对接近关系用准备的特殊的游戏模式的处理。
图23是表示特殊模式的一个例子的图。该特殊模式是用赤手对战的格斗模式。即,如图21的(B)所示,若移动体彼此变成接近关系,则从通过枪的狙击对战的通常模式(通常游戏模式)转移到用赤手(HL、HR)对战的格斗模式亦即特殊模式。进而,在移动体彼此相互接近的状态下,继续该特殊模式,若移动体彼此远离,则解除该特殊模式。
此外,在特殊模式的状态下,希望进行将来自其他移动体的攻击设为无效的设定(无敌设定)。该情况下,例如在变成特殊模式的时间超过限制时间的情况下,也可以将双方用户的游戏操作设为游戏结束。
另外,在图23的特殊模式中,为了检测用户的手或脚等部位的移动,例如只要在手或脚等的部位佩戴移动检测用设备(传感器)即可。然后,基于使用移动检测用设备的移动的检测结果,移动与用户对应的移动体的手或脚等部位即可。通过这样做,能够实现由移动体彼此对战的格斗游戏等。作为移动检测用设备,考虑例如图2的(A)所示那样的受光元件、图3的(A)所示那样的发光元件等。在受光元件的情况下,使用图2的(B)所示那样的基站280、284,能够对特殊模式下的用户的手或脚等部位实现移动的检测。在发光元件的情况下,使用图3的(B)所示那样的拍摄部150,能够对特殊模式下的用户的手或脚等部位实现移动的检测。或者,作为移动检测用设备,也可以对用户的手或脚等部位佩戴运动传感器,来检测部位的移动。或者,也可以使用运动检测用的照相机,来检测用户的移动。
另外,在从通常模式转移到图23那样的特殊模式的情况下,将移动体所持的枪暂时设为非显示。然后,在从特殊模式返回到通常模式的情况下,再次使移动体持枪即可。
图24是表示移动体与其他移动体变成接近关系的情况下进行的表演处理的一个例子的流程图。
首先,判定移动体与敌方移动体是否变成接近关系(步骤S21)。例如,判断在虚拟场地中移动体彼此是否变成图21的(B)所示那样的接近关系。进而,在变成接近关系的情况下,将针对移动体及敌方移动体的来自其他移动体等的攻击设定为无效状态(步骤S22)。即,设定为所谓的无敌状态。进而,转移到移动体与敌方移动体用赤手对战的格斗模式(广义上为特殊模式)(步骤S23)。即,从通常模式转移到图23所示那样的格斗模式。
接着,判断移动体与敌方移动体的距离是否远离(步骤S24)。进而,在判断为移动体与敌方移动体远离的情况下,返回到通常模式(步骤S25)。另一方面,在判断为移动体与敌方移动体未远离的情况下,判断是否经过了限制时间(步骤S26),在经过了限制时间的情况下,将双方用户的游戏操作设为游戏结束(步骤S27)。
此外,像上述那样详细地对本实施方式进行了说明,但对于本领域技术人员来说可以很容易地理解,可以进行在实质上不脱离本发明的新事项及效果的很多变形。因此,这样的变形例全部包含在本发明的范围内。例如,在说明书或者附图中,能够至少一次将与更广义或者同义的不同的用语(组、装备、基准点等)一起记载的用语(团队、控制器、原点等)在说明书或者附图的任何位置均置换为该不同的用语。另外,位置信息的获取处理、虚拟空间的设定处理、移动体的移动处理、显示处理、游戏处理、通知处理、移动体的配置设定处理、表演处理等也并不限于本实施方式中说明的那样,与它们均等的方法/处理/结构也包含在本发明的范围内。另外,本发明能够适用于各种游戏。另外,本发明能够适用于业务用游戏装置、家庭用游戏装置、或者许多用户参加的大型游艺系统等各种仿真系统。
符号说明
US、US1~US4、UA1~UA4、UB1~UB4…用户;GN、GN1~GN4…枪型控制器;GA1~GA3、GB1~GB3、GV1、GV2…枪;HMD、HMD1~HMD4…头戴式显示装置;FL、FL1、FL2…场地;FLV…虚拟场地;MV1、MV2、MA1~MA4、MB1~MB4…移动体(化身);UAG、UBG…用户组;100…处理部;102…输入处理部;110…运算处理部;111…信息获取部;112…虚拟空间设定部;113…移动体处理部;114…虚拟照相机控制部;115…游戏处理部;116…通知处理部;120…显示处理部;130…声音处理部;140…输出处理部;150…拍摄部;151、152…照相机;160…操作部;170…存储部;172…对象信息存储部;178…描绘缓冲区;180…信息存储介质;192…声音输出部;194…I/F部;195…便携式信息存储介质;196…通信部;200…HMD(头戴式显示装置);201~205…受光元件;210…传感器部;220…显示部;231~238…发光元件;240…处理部;250…处理装置;260…头带;270…耳机;280、284…基站;281、282、285、286…发光元件;290…枪型控制器。
Claims (14)
1.一种仿真系统,其特征在于,包括:
信息获取部,获取用户的位置信息,所述用户以覆盖视野的方式佩戴头戴式显示装置;
虚拟空间设定部,基于获取的所述位置信息,进行虚拟空间的设定处理,所述虚拟空间配置设定与所述用户对应的移动体;
移动体处理部,基于获取的所述位置信息,进行使所述移动体在所述虚拟空间中移动的处理;以及
显示处理部,生成所述用户佩戴的所述头戴式显示装置的显示图像,
所述虚拟空间设定部进行所述虚拟空间的设定处理,以使得第一移动体组与第二移动体组被配置设定在所述虚拟空间的共同的虚拟场地,所述第一移动体组对应于位于实际空间的第一场地的第一用户组,所述第二移动体组对应于位于与所述实际空间的所述第一场地不同的第二场地的第二用户组。
2.根据权利要求1所述的仿真系统,其特征在于,
所述仿真系统包括游戏处理部,所述游戏处理部进行属于第一组的所述第一用户组与属于第二组的所述第二用户组之间的对战的游戏处理。
3.根据权利要求1或2所述的仿真系统,其特征在于,
所述仿真系统包括声音处理部,所述声音处理部进行输出至所述用户的声音的生成处理,
所述声音处理部基于所述虚拟空间的所述虚拟场地中的所述移动体的位置信息,进行输出至所述用户的声音的生成处理。
4.根据权利要求1至3中的任一项所述的仿真系统,其特征在于,
所述仿真系统包括通知处理部,所述通知处理部进行对于所述实际空间中的用户彼此碰撞的预测处理,基于所述预测处理的结果,进行对于用户彼此碰撞的警告的通知处理。
5.根据权利要求1至3中的任一项所述的仿真系统,其特征在于,
所述仿真系统包括通知处理部,所述通知处理部进行对于所述实际空间中的所述用户的装备的移动或者所述用户的移动的检测处理,基于所述检测处理的检测结果,进行对于所述装备的移动或者所述用户的移动的警告的通知处理。
6.根据权利要求5所述的仿真系统,其特征在于,
所述通知处理部以基于所述用户与其他用户的所述位置信息判断为所述用户与所述其他用户处于接近关系为条件,进行所述通知处理。
7.根据权利要求1至6中的任一项所述的仿真系统,其特征在于,
所述移动体处理部进行使所述移动体在所述虚拟空间中以与在所述实际空间中的所述用户的移动量不同的移动量移动的处理。
8.根据权利要求1至7中的任一项所述的仿真系统,其特征在于,
所述移动体处理部在判断为在所述实际空间中的所述用户与其他用户成为接近关系的情况下,进行加快与所述其他用户对应的其他移动体的移动速度、加快移动加速度、或者加长移动距离的移动处理。
9.根据权利要求1至8中的任一项所述的仿真系统,其特征在于,
所述显示处理部在对应于所述用户的所述移动体与对应于其他用户的其他移动体成为给定的位置关系的情况下,进行与所述给定的位置关系相应的表演处理图像的生成处理。
10.根据权利要求9所述的仿真系统,其特征在于,
所述显示处理部在所述实际空间中的所述用户与所述其他用户未成为接近关系的状态下,当所述虚拟空间中的所述移动体与所述其他移动体成为接近关系时,进行所述表演处理图像的生成处理。
11.根据权利要求9或10所述的仿真系统,其特征在于,
所述显示处理部进行所述移动体及所述其他移动体中的至少一方进行特殊运动的所述表演处理图像、或者转移到所述给定的位置关系用的特殊模式的所述表演处理图像的生成处理。
12.根据权利要求1至11中的任一项所述的仿真系统,其特征在于,所述仿真系统包括:
所述第一用户组能够移动的所述第一场地;和
所述第二用户组能够移动的所述第二场地。
13.一种处理方法,其特征在于,进行以下处理:
信息获取处理,获取用户的位置信息,所述用户以覆盖视野的方式佩戴头戴式显示装置;
虚拟空间设定处理,基于获取的所述位置信息,设定虚拟空间,所述虚拟空间配置设定与所述用户对应的移动体;
移动体处理,基于获取的所述位置信息,使所述移动体在所述虚拟空间中移动;以及
显示处理,生成所述用户佩戴的所述头戴式显示装置的显示图像,
在所述虚拟空间设定处理中,进行所述虚拟空间的设定处理,以使得第一移动体组与第二移动体组被配置设定在所述虚拟空间的共同的虚拟场地,所述第一移动体对应于位于实际空间的第一场地的第一用户组,所述第二移动体组对应于位于与所述实际空间的所述第一场地不同的第二场地的第二用户组。
14.一种计算机可读的信息存储介质,其特征在于,存储使计算机作为以下处理部发挥功能的程序,
信息获取部,获取用户的位置信息,所述用户以覆盖视野的方式佩戴头戴式显示装置;
虚拟空间设定部,基于获取的所述位置信息,进行虚拟空间的设定处理,所述虚拟空间配置设定与所述用户对应的移动体;
移动体处理部,基于获取的所述位置信息,进行使所述移动体在所述虚拟空间中移动的处理;以及
显示处理部,生成所述用户佩戴的所述头戴式显示装置的显示图像,
所述虚拟空间设定部进行所述虚拟空间的设定处理,以使得第一移动体组与第二移动体组被配置设定在所述虚拟空间的共同的虚拟场地,所述第一移动体组对应于位于实际空间的第一场地的第一用户组,所述第二移动体组对应于位于与所述实际空间的所述第一场地不同的第二场地的第二用户组。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016225408A JP6754678B2 (ja) | 2016-11-18 | 2016-11-18 | シミュレーションシステム及びプログラム |
JP2016-225408 | 2016-11-18 | ||
PCT/JP2017/040957 WO2018092774A1 (ja) | 2016-11-18 | 2017-11-14 | シミュレーションシステム、処理方法及び情報記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110199325A true CN110199325A (zh) | 2019-09-03 |
CN110199325B CN110199325B (zh) | 2023-06-13 |
Family
ID=62146494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780082546.8A Active CN110199325B (zh) | 2016-11-18 | 2017-11-14 | 仿真系统、处理方法以及信息存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11014000B2 (zh) |
JP (1) | JP6754678B2 (zh) |
CN (1) | CN110199325B (zh) |
WO (1) | WO2018092774A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111467796A (zh) * | 2020-04-02 | 2020-07-31 | 北京代码乾坤科技有限公司 | 分布式物理结算方法和装置 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11361497B2 (en) * | 2017-05-24 | 2022-06-14 | Sony Corporation | Information processing device and information processing method |
US10102659B1 (en) | 2017-09-18 | 2018-10-16 | Nicholas T. Hariton | Systems and methods for utilizing a device as a marker for augmented reality content |
US10105601B1 (en) | 2017-10-27 | 2018-10-23 | Nicholas T. Hariton | Systems and methods for rendering a virtual content object in an augmented reality environment |
US10983589B2 (en) * | 2018-01-22 | 2021-04-20 | MassVR, LLC | Systems and methods for collision avoidance in virtual environments |
US10636188B2 (en) | 2018-02-09 | 2020-04-28 | Nicholas T. Hariton | Systems and methods for utilizing a living entity as a marker for augmented reality content |
US10198871B1 (en) | 2018-04-27 | 2019-02-05 | Nicholas T. Hariton | Systems and methods for generating and facilitating access to a personalized augmented rendering of a user |
KR102054712B1 (ko) * | 2018-06-28 | 2020-01-22 | 주식회사 삼우이머션 | 가상현실 환경에서의 플레이어의 충돌 사고 방지 장치 |
JP6745301B2 (ja) * | 2018-07-25 | 2020-08-26 | 株式会社バーチャルキャスト | コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム |
JP6703578B2 (ja) * | 2018-09-19 | 2020-06-03 | 株式会社コロプラ | プログラム、方法及び情報処理装置 |
KR102054713B1 (ko) * | 2018-10-30 | 2019-12-11 | 주식회사 삼우이머션 | 가상환경하에서 플레이어의 충돌위험 알림 방법 |
KR102286987B1 (ko) * | 2019-01-18 | 2021-08-05 | 경희대학교 산학협력단 | 가상현실 콘텐츠를 체험하는 사용자의 체험 공간 활용도 향상 방법 및 장치 |
KR102212507B1 (ko) * | 2019-01-22 | 2021-02-04 | (주)스코넥엔터테인먼트 | 가상 현실 제어 시스템 |
CN209596544U (zh) * | 2019-02-17 | 2019-11-08 | 上海狮峪智能科技有限公司 | Vr自助游戏机头显装置 |
JP6813618B2 (ja) * | 2019-03-29 | 2021-01-13 | 株式会社コロプラ | 視聴プログラム、視聴方法、視聴端末、配信プログラム、配信方法、および情報端末装置 |
JP7341976B2 (ja) * | 2019-03-29 | 2023-09-11 | 株式会社コロプラ | 配信プログラム、および配信方法 |
JP7351638B2 (ja) | 2019-04-23 | 2023-09-27 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像表示システム、および情報提示方法 |
US10586396B1 (en) | 2019-04-30 | 2020-03-10 | Nicholas T. Hariton | Systems, methods, and storage media for conveying virtual content in an augmented reality environment |
KR102200196B1 (ko) * | 2019-09-11 | 2021-01-08 | 백종엽 | 위치 정보를 이용한 증강현실 기반의 캐릭터 제공 시스템 |
US20220155850A1 (en) * | 2020-11-13 | 2022-05-19 | Inveris Training Solutions, Inc. | Method and system for an immersive and responsive enhanced reality |
KR102586470B1 (ko) | 2020-11-23 | 2023-10-11 | 주식회사 삼우이머션 | 가상현실 환경에서의 플레이어의 충돌 사고 방지 장치 |
JP7405734B2 (ja) * | 2020-12-21 | 2023-12-26 | トヨタ自動車株式会社 | 表示システム及びサーバ |
JP2024507749A (ja) | 2021-02-08 | 2024-02-21 | サイトフル コンピューターズ リミテッド | エクステンデッドリアリティにおけるコンテンツ共有 |
EP4288950A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | User interactions in extended reality |
US11622100B2 (en) * | 2021-02-17 | 2023-04-04 | flexxCOACH VR | 360-degree virtual-reality system for dynamic events |
JPWO2022244157A1 (zh) * | 2021-05-19 | 2022-11-24 | ||
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US12079442B2 (en) | 2022-09-30 | 2024-09-03 | Sightful Computers Ltd | Presenting extended reality content in different physical environments |
US20240194040A1 (en) * | 2022-12-09 | 2024-06-13 | Meta Platforms Technologies, Llc | Directional Warnings in Co-located Play in Virtual Reality Environments |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060262120A1 (en) * | 2005-05-19 | 2006-11-23 | Outland Research, Llc | Ambulatory based human-computer interface |
US20060287026A1 (en) * | 2003-09-02 | 2006-12-21 | Mullen Jeffrey D | Systems and methods for location based games and employment of the same on location enabled devices |
US20110213664A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US20110270135A1 (en) * | 2009-11-30 | 2011-11-03 | Christopher John Dooley | Augmented reality for testing and training of human performance |
US20140266379A1 (en) * | 2013-03-15 | 2014-09-18 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device |
CN105094311A (zh) * | 2014-05-05 | 2015-11-25 | 意美森公司 | 用于基于视口的增强现实触觉效果的系统和方法 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2301216A (en) * | 1995-05-25 | 1996-11-27 | Philips Electronics Uk Ltd | Display headset |
JPH11309269A (ja) | 1998-04-27 | 1999-11-09 | Sony Corp | ゲーム装置、シミュレーション装置及びゲーム画像表示方法 |
US6561809B1 (en) * | 2000-07-17 | 2003-05-13 | Battlepaint, Inc. | Virtual battlefield simulator system and method |
JP2002073246A (ja) * | 2000-08-25 | 2002-03-12 | Minolta Co Ltd | 映像表示システム |
JP3653463B2 (ja) * | 2000-11-09 | 2005-05-25 | 日本電信電話株式会社 | 複数のユーザによる仮想空間共有システム |
US8469824B1 (en) * | 2004-09-27 | 2013-06-25 | Hasbro, Inc. | Device and method for an electronic tag game |
US8624924B2 (en) * | 2008-01-18 | 2014-01-07 | Lockheed Martin Corporation | Portable immersive environment using motion capture and head mounted display |
US9223786B1 (en) * | 2011-03-15 | 2015-12-29 | Motion Reality, Inc. | Communication in a sensory immersive motion capture simulation environment |
US8825187B1 (en) * | 2011-03-15 | 2014-09-02 | Motion Reality, Inc. | Surround sound in a sensory immersive motion capture simulation environment |
US8920172B1 (en) * | 2011-03-15 | 2014-12-30 | Motion Reality, Inc. | Method and system for tracking hardware in a motion capture environment |
US9311742B1 (en) * | 2011-07-18 | 2016-04-12 | Motion Reality, Inc. | Navigating an avatar through a virtual world in a motion capture simulation environment |
US9159152B1 (en) * | 2011-07-18 | 2015-10-13 | Motion Reality, Inc. | Mapping between a capture volume and a virtual world in a motion capture simulation environment |
US9255813B2 (en) * | 2011-10-14 | 2016-02-09 | Microsoft Technology Licensing, Llc | User controlled real object disappearance in a mixed reality display |
WO2014047465A2 (en) * | 2012-09-21 | 2014-03-27 | The Schepens Eye Research Institute, Inc. | Collision prediction |
US9132342B2 (en) * | 2012-10-31 | 2015-09-15 | Sulon Technologies Inc. | Dynamic environment and location based augmented reality (AR) systems |
US9443352B1 (en) * | 2012-12-21 | 2016-09-13 | Motion Reality, Inc. | Navigating through a virtual environment having a real-world elevation characteristics using motion capture |
US9395543B2 (en) * | 2013-01-12 | 2016-07-19 | Microsoft Technology Licensing, Llc | Wearable behavior-based vision system |
US20150097719A1 (en) * | 2013-10-03 | 2015-04-09 | Sulon Technologies Inc. | System and method for active reference positioning in an augmented reality environment |
JP5971316B2 (ja) * | 2013-12-25 | 2016-08-17 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム |
US9677840B2 (en) * | 2014-03-14 | 2017-06-13 | Lineweight Llc | Augmented reality simulator |
EP2943860B1 (en) * | 2014-03-21 | 2022-03-02 | Samsung Electronics Co., Ltd. | Method and apparatus for preventing a collision between subjects |
US9754167B1 (en) * | 2014-04-17 | 2017-09-05 | Leap Motion, Inc. | Safety for wearable virtual reality devices via object detection and tracking |
JP2016062486A (ja) * | 2014-09-19 | 2016-04-25 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成装置および画像生成方法 |
US10320437B2 (en) * | 2014-10-24 | 2019-06-11 | Usens, Inc. | System and method for immersive and interactive multimedia generation |
US9851786B2 (en) * | 2014-12-10 | 2017-12-26 | Sixense Entertainment, Inc. | System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment |
US9898864B2 (en) * | 2015-05-28 | 2018-02-20 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
JP6709633B2 (ja) * | 2016-02-17 | 2020-06-17 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びゲームシステム |
JP6742760B2 (ja) * | 2016-02-29 | 2020-08-19 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10421012B2 (en) * | 2016-03-25 | 2019-09-24 | Zero Latency PTY LTD | System and method for tracking using multiple slave servers and a master server |
US9916496B2 (en) * | 2016-03-25 | 2018-03-13 | Zero Latency PTY LTD | Systems and methods for operating a virtual reality environment using colored marker lights attached to game objects |
US10717001B2 (en) * | 2016-03-25 | 2020-07-21 | Zero Latency PTY LTD | System and method for saving tracked data in the game server for replay, review and training |
US10486061B2 (en) * | 2016-03-25 | 2019-11-26 | Zero Latency Pty Ltd. | Interference damping for continuous game play |
US10445925B2 (en) * | 2016-09-30 | 2019-10-15 | Sony Interactive Entertainment Inc. | Using a portable device and a head-mounted display to view a shared virtual reality space |
US20180276891A1 (en) * | 2017-03-24 | 2018-09-27 | Pcms Holdings, Inc. | System and method for providing an in-context notification of a real-world event within a virtual reality experience |
US20190089817A1 (en) * | 2017-09-18 | 2019-03-21 | Dell Products L.P. | System and Method of Utilizing Multiple Wireless Protocols |
-
2016
- 2016-11-18 JP JP2016225408A patent/JP6754678B2/ja active Active
-
2017
- 2017-11-14 WO PCT/JP2017/040957 patent/WO2018092774A1/ja active Application Filing
- 2017-11-14 CN CN201780082546.8A patent/CN110199325B/zh active Active
-
2019
- 2019-05-17 US US16/415,182 patent/US11014000B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060287026A1 (en) * | 2003-09-02 | 2006-12-21 | Mullen Jeffrey D | Systems and methods for location based games and employment of the same on location enabled devices |
US20060262120A1 (en) * | 2005-05-19 | 2006-11-23 | Outland Research, Llc | Ambulatory based human-computer interface |
US20110270135A1 (en) * | 2009-11-30 | 2011-11-03 | Christopher John Dooley | Augmented reality for testing and training of human performance |
US20110213664A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US20140266379A1 (en) * | 2013-03-15 | 2014-09-18 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device |
CN105094311A (zh) * | 2014-05-05 | 2015-11-25 | 意美森公司 | 用于基于视口的增强现实触觉效果的系统和方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111467796A (zh) * | 2020-04-02 | 2020-07-31 | 北京代码乾坤科技有限公司 | 分布式物理结算方法和装置 |
CN111467796B (zh) * | 2020-04-02 | 2023-05-02 | 北京代码乾坤科技有限公司 | 分布式物理结算方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190329136A1 (en) | 2019-10-31 |
WO2018092774A1 (ja) | 2018-05-24 |
US11014000B2 (en) | 2021-05-25 |
JP6754678B2 (ja) | 2020-09-16 |
CN110199325B (zh) | 2023-06-13 |
JP2018081644A (ja) | 2018-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110199325A (zh) | 仿真系统、处理方法以及信息存储介质 | |
CN110352086B (zh) | 增强乘坐系统和方法 | |
WO2018124280A1 (ja) | シミュレーションシステム、画像処理方法及び情報記憶媒体 | |
US20190217202A1 (en) | Simulation system, process method, and information storage medium | |
US20200368625A1 (en) | Simulation system, processing method, and information storage medium | |
JP2019175323A (ja) | シミュレーションシステム及びプログラム | |
CN110769906B (zh) | 模拟系统、图像处理方法以及信息存储介质 | |
JPWO2019064872A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7071823B2 (ja) | シミュレーションシステム及びプログラム | |
JP6774260B2 (ja) | シミュレーションシステム | |
JP2019139424A (ja) | シミュレーションシステム及びプログラム | |
CN108686371A (zh) | 仿真系统 | |
JP2018173739A (ja) | プログラム及び画像生成システム | |
JP2018171320A (ja) | シミュレーションシステム及びプログラム | |
JP7484210B2 (ja) | ゲームシステム | |
JP6918189B2 (ja) | シミュレーションシステム及びプログラム | |
JP7104539B2 (ja) | シミュレーションシステム及びプログラム | |
JP2018171309A (ja) | シミュレーションシステム及びプログラム | |
JP4223139B2 (ja) | 画像生成装置及び情報記憶媒体 | |
JP4212015B2 (ja) | 画像生成装置及び情報記憶媒体 | |
JP2019176934A (ja) | シミュレーションシステム | |
JP3442336B2 (ja) | ゲームシステム及び情報記憶媒体 | |
JP4974393B2 (ja) | ゲームシステム、プログラム及び情報記憶媒体 | |
JP2019033894A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |