CN110769906B - 模拟系统、图像处理方法以及信息存储介质 - Google Patents

模拟系统、图像处理方法以及信息存储介质 Download PDF

Info

Publication number
CN110769906B
CN110769906B CN201880038784.3A CN201880038784A CN110769906B CN 110769906 B CN110769906 B CN 110769906B CN 201880038784 A CN201880038784 A CN 201880038784A CN 110769906 B CN110769906 B CN 110769906B
Authority
CN
China
Prior art keywords
user
prop
information
game
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880038784.3A
Other languages
English (en)
Other versions
CN110769906A (zh
Inventor
筱田徹也
木元昌洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Publication of CN110769906A publication Critical patent/CN110769906A/zh
Application granted granted Critical
Publication of CN110769906B publication Critical patent/CN110769906B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

模拟系统包括:信息获取部,获取包括用户的位置信息、方向信息以及姿势信息中的至少一方的用户信息;虚拟空间设定部,进行虚拟空间的设定处理;移动体处理部,进行使与用户对应的用户角色在虚拟空间中移动的处理;游戏处理部,进行虚拟空间中的游戏的处理;以及显示处理部,生成虚拟空间中的图像作为向用户显示的显示图像。而且,游戏处理部根据用户信息判断用户是否进行了道具获得动作,在判断为进行了道具获得动作的情况下,进行使用户角色获得道具的处理。

Description

模拟系统、图像处理方法以及信息存储介质
技术领域
本发明涉及模拟系统、图像处理方法以及信息存储介质等。
背景技术
目前,已知有在虚拟空间中生成能够从虚拟相机看到的图像的模拟系统。作为例如将能够从虚拟相机看到的图像显示于HMD(头部佩戴式显示装置)而实现虚拟现实(VR)的模拟系统的现有技术,存在专利文献1所公开的技术。另外,作为实现用户操纵虚拟空间的赛车来享受乐趣的竞速游戏的系统的现有技术,存在专利文献2所公开的技术。
在先技术文献
专利文献
专利文献1:日本专利特开平11-309269号公报
专利文献2:日本专利特开2013-59574号公报
发明内容
发明所要解决的技术问题
然而,在专利文献2的系统中,用户只能操作游戏框体的方向盘来享受操纵虚拟空间的赛车的游戏,在玩游戏期间用户的双手一直握住方向盘。另外,并未导入获得配置在线路上的道具、或者使用所获得的道具等的游戏要素。例如,在赛车游戏等的游戏中,在想要导入获得道具等的游戏要素的情况下,如果与用户的意思或活动无关地获得道具,则会损害用户的虚拟现实感,导致对游戏的投入感降低。
根据本发明的几个方式,能够提供在显示虚拟空间的图像的系统中,可以不损害游戏的投入感而以自然的形式获得道具的模拟系统、图像处理方法以及信息存储介质等。
用于解决问题的技术方案
本发明的一个方式涉及的模拟系统包括:信息获取部,获取包括用户的位置信息、方向信息以及姿势信息中的至少一方的用户信息;虚拟空间设定部,进行虚拟空间的设定处理;移动体处理部,进行使与所述用户对应的用户角色在所述虚拟空间中移动的处理;游戏处理部,进行所述虚拟空间中的游戏的处理;以及显示处理部,生成所述虚拟空间中的图像作为向所述用户显示的显示图像,所述游戏处理部根据所述用户信息判断所述用户是否进行了道具获得动作,在判断为进行了所述道具获得动作的情况下,进行使所述用户角色获得所述道具的处理。另外,本发明涉及使计算机作为上述各部发挥作用的程序、或者存储该程序的计算机可读取的信息存储介质。
根据本发明的一个方式,获取包含用户的位置信息、方向信息以及姿势信息中的至少一方的用户信息。然后,在与用户对应的用户角色在虚拟空间中移动的游戏中,根据获得的用户信息判断是否进行了道具获得动作,并在判断为进行了道具获得动作时,进行使用户角色获得道具的处理。这样,在显示虚拟空间的图像的系统中,能够提供不损害游戏的投入感而能够以自然的形式获得道具的模拟系统等。
另外,在本发明的一个方式中,也可以是所述游戏处理部根据所述用户信息判断基本姿势状态的所述用户是否进行了所述道具获得动作,在判断为进行了所述道具获得动作的情况下,进行使所述用户角色获得所述道具的处理,在判断为在所述用户角色获得并拥有所述道具之后所述用户恢复为所述基本姿势状态的情况下,解除所述用户角色的道具拥有状态。
这样,用户能够通过在获得并拥有道具之后,通过恢复为基本姿势状态这一简单的动作而解除所获得的道具的拥有状态。
另外,在本发明的一个方式中,也可以是所述移动体处理部进行使所述用户角色所搭乘的移动体在所述虚拟空间中移动的处理,所述虚拟空间设定部在所述用户的通常操纵状态时所述用户角色无法接触的场所设定道具区域,所述游戏处理部根据所述用户信息判断所述用户是否朝向所述道具区域的所述道具的方向进行了所述道具获得动作,在判断为进行了所述道具获得动作的情况下,进行使所述用户角色获得所述道具的处理。
这样,用户角色搭乘移动体在虚拟空间中移动,并在以通常操纵状态操纵该移动体时用户角色无法接触的场所设定道具区域。而且,用户通过朝向该道具区域的道具的方向进行道具获得动作,从而能够获得该道具。
另外,在本发明的一个方式中,也可以是所述游戏处理部进行使所述用户的所述通常操纵状态下的所述用户信息存储至存储部的处理。
这样,通过从存储部读出用户的通常操纵状态下的用户信息,能够执行使用了通常操纵状态下的用户信息的各种处理。
另外,在本发明的一个方式中,也可以是所述虚拟空间设定部针对所述移动体所移动的线路设定所述道具区域。
这样,在移动体在线路上移动这样的游戏中,能够实现能够针对线路配置道具,并获得所配置的道具的游戏。
另外,在本发明的一个方式中,也可以是所述游戏处理部在判断为所述用户进行了移动规定部位的动作并与所述规定部位对应的所述用户角色的部位靠近了所述道具的情况下,判断为进行了所述道具获得动作。
这样,用户能够通过移动规定部位,使用户角色的对应部位靠近道具从而获得道具。
另外,在本发明的一个方式中,也可以是所述游戏处理部在根据所述用户信息判断为在所述用户角色获得并拥有所述道具的状态下所述用户使用所述规定部位进行了道具使用动作的情况下,执行道具使用处理。
这样,用户通过在使用户角色拥有获得的道具的状态下使用规定部位进行道具使用动作,能够执行使用道具的各种处理。
另外,在本发明的一个方式中,也可以是所述信息获取部获取包含所述规定部位的位置信息及方向信息中的至少一方的部位信息作为所述用户信息,所述虚拟空间设定部根据所述部位信息将与所述规定部位对应的所述用户角色的所述部位配置设定于所述虚拟空间,所述显示处理部进行显示被配置设定于所述虚拟空间的所述部位的处理。
这样,当用户移动规定部位时,用户角色的部位也与其联动地移动,并显示该部位的图像。
另外,在本发明的一个方式中,也可以是所述移动体处理部在所述用户角色获得所述道具时进行使所述道具朝向所述移动体的移动方向移动的处理。
这样,在获得道具时,能够减慢道具相对于用户角色的相对速度等,从而能够防止道具的获得变得困难的事态。
另外,在本发明的一个方式中,也可以是所述移动体处理部进行使被所述用户角色获得而变为拥有状态的所述道具追随所述移动体的移动而移动的处理。
这样,使被获得而变为拥有状态的道具追随移动体的移动而移动,用户能够进行使用了该道具的各种动作。
另外,在本发明的一个方式中,也可以是所述游戏处理部在根据所述用户信息判断为在所述用户角色获得并拥有所述道具的状态下所述用户进行了道具使用动作的情况下,执行道具使用处理。
这样,通过在使用户角色拥有所获得的道具的状态下用户进行道具使用动作,从而能够执行使用了道具的各种处理。
另外,在本发明的一个方式中,也可以是所述游戏处理部根据所述道具使用动作的动作方向、所述道具使用动作的强度、所述道具的种类、所述道具使用动作时的所述用户的视线信息、以及进行所述道具使用动作的所述用户的规定部位的状态中的至少一方,执行所述道具使用处理。
这样,根据道具使用动作的动作方向或强度、道具的种类、用户的视线信息、或者用户的规定部位的状态,判断有无执行道具使用处理、或者设定道具使用处理的执行内容等,从而能够执行道具使用处理。
另外,在本发明的一个方式中,也可以是所述游戏处理部在所述用户角色获得并拥有所述道具的状态下给定的条件成立的情况下,解除所述用户角色的道具拥有状态。
这样,在获得并拥有道具之后,若给定的条件成立,则道具的拥有状态被解除,从而无法进行道具的使用等。
另外,在本发明的一个方式中,也可以是所述游戏处理部在获得了所述道具的情况下,执行通过图像、声音或振动来通知获得了所述道具这一情况的通知处理。
这样,能够通过视觉、听觉或者触觉使用户认识到获得了道具。
另外,在本发明的一个方式中,也可以是所述虚拟空间设定部根据所述用户的身体信息设定所述道具的配置场所。
这样,能够在与用户的身体信息相应的适当场所配置道具。
另外,在本发明的一个方式中,也可以是作为所述显示图像,所述显示处理部生成所述用户以覆盖视野的方式佩戴的头部佩戴式显示装置的显示图像。
这样,能够实现在使移动体在通过头部佩戴式显示装置实现的VR空间中移动的同时,能够在该移动体移动期间获得道具的游戏。
另外,本发明的另一方式涉及的图像处理方法执行如下处理:信息获取处理,获取包括用户的位置信息、方向信息以及姿势信息中的至少一方的用户信息;虚拟空间设定处理,进行虚拟空间的设定处理;移动体处理,进行使与所述用户对应的用户角色在所述虚拟空间中移动的处理;游戏处理,进行所述虚拟空间中的游戏的处理;以及显示处理,生成所述虚拟空间中的图像作为向所述用户显示的显示图像,在所述游戏处理中,根据所述用户信息判断所述用户是否进行了道具获得动作,在判断为进行了所述道具获得动作的情况下,进行使所述用户角色获得所述道具的处理。
附图说明
图1是表示本实施方式的模拟系统的构成例的框图。
图2的(A)、(B)是HMD的跟踪处理的一例的说明图。
图3的(A)、(B)是HMD的跟踪处理的另一例的说明图。
图4是表示本实施方式的可动框体的构成例的立体图。
图5的(A)、(B)是通过本实施方式生成的游戏图像的例子。
图6的(A)、(B)是通过本实施方式生成的游戏图像的例子。
图7的(A)、(B)是通过本实施方式生成的游戏图像的例子。
图8的(A)、(B)是通过本实施方式生成的游戏图像的例子。
图9的(A)、(B)是通过本实施方式生成的游戏图像的例子。
图10的(A)、(B)是玩游戏期间的用户的动作的说明图。
图11是玩游戏期间的用户的动作的说明图。
图12的(A)、(B)是玩游戏期间的用户的动作的说明图。
图13是关于道具区域的设定的说明图。
图14的(A)~(D)是关于道具的获得、拥有、使用的说明图。
图15的(A)、(B)是关于道具的获得、拥有、使用以及拥有的解除的说明图。
图16是存储通常操纵状态下的部位信息的方法的说明图。
图17的(A)~(C)是在获得道具时使道具移动的方法的说明图。
图18的(A)~(D)是基于身体信息的道具的配置场所的设定方法的说明图。
图19是本实施方式的变形例的模拟系统中使用的场地的说明图。
图20是本实施方式的变形例中生成的游戏图像的例子。
图21的(A)、(B)是本实施方式的变形例中的道具的获得、拥有的说明图。
图22的(A)、(B)是本实施方式的变形例中的道具的使用的说明图。
图23的(A)、(B)是本实施方式的变形例中的道具的获得、拥有、拥有的解除的说明图。
图24是说明本实施方式的详细的处理例的流程图。
图25是说明本实施方式的详细的处理例的流程图。
具体实施方式
以下,对本实施方式进行说明。需要说明的是,以下说明的本实施方式并不对权利要求书中记载的本发明的内容进行不当限定。另外,本实施方式中说明的全部构成并不一定是本发明的必需构成要件。
1.模拟系统
图1是表示本实施方式的模拟系统(模拟器、游戏系统、图像生成系统)的构成例的框图。本实施方式的模拟系统例如是模拟虚拟现实(VR)的系统,能够适用于提供游戏内容的游戏系统、驾驶模拟器或体育比赛模拟器等的实时模拟系统、提供SNS的服务的系统、提供影像等的内容的内容提供系统、或者实现远程作业的操作系统等的各种系统。此外,本实施方式的模拟系统并不限定于图1的构成,可以实施省略其构成要素(各部分)的一部分、或追加其他构成要素等的各种变形。
可动框体30(广义上为框体)是改变用户的游戏位置的框体。该可动框体30例如被称为街机框体等,且为模拟系统的装置的外壳,并不需要为箱状。可动框体30既可以是汽车游戏、机器人游戏或者飞机游戏等中的驾驶舱框体(体感框体),也可以是其他形态的框体。可动框体30是模拟系统的主体部分,设置有用于实现模拟系统的各种设备、结构物。可动框体30上至少设定有游戏位置。关于可动框体30的构成例,利用后述的图4详细进行说明。
操作部160供用户(玩家)输入各种操作信息(输入信息)。操作部160能够通过例如方向盘、加速踏板、制动踏板、控制杆、操作按钮、方向指示键或声音输入装置等各种操作设备而实现。例如,在后述图4的可动框体30中,通过方向盘50、加速踏板52、制动踏板54(未图示)实现操作部160。
存储部170存储各种信息。存储部170作为处理部100、通信部196等的工作区域发挥作用。游戏程序、执行游戏程序所需的游戏数据被保存在该存储部170中。存储部170的功能能够通过半导体存储器(DRAM、VRAM)、HDD(硬盘驱动器)、SSD、光盘装置等实现。存储部170包括对象信息存储部172、初始设定信息存储部174以及描绘缓冲器178。
信息存储介质180(计算机可读取的介质)存储程序或数据等,其功能可通过光盘(DVD、BD、CD)、HDD或半导体存储器(ROM)等实现。处理部100根据存储于信息存储介质180中的程序(数据)进行本实施方式的各种处理。即,在信息存储介质180中,存储有使计算机(具备输入装置、处理部、存储部、输出部的装置)作为本实施方式的各部发挥作用的程序(用于使计算机执行各部的处理的程序)。
HMD200(头部佩戴式显示装置)是佩戴于用户的头部,在用户的眼前显示图像的装置。HMD200优选为非透射型,但也可以为透射型。另外,HMD200也可以是所谓的眼镜式的HMD。
HMD200包括传感器部210、显示部220以及处理部240。此外,也可以实施在HMD200中设置发光元件的变形。传感器部210用于实现例如头部跟踪等的跟踪处理。例如,通过使用传感器部210的跟踪处理来确定HMD200的位置、方向。通过确定HMD200的位置、方向,能够确定用户的视点位置、视线方向。
作为跟踪方式,可以采用各种方式。在作为跟踪方式的一例的第一跟踪方式中,如利用后述图2的(A)、(B)中详细说明那样,作为传感器部210而设置多个受光元件(光电二极管等)。并且,通过由该多个受光元件接收来自设置于外部的发光元件(LED等)的光(激光等),从而确定现实世界的三维空间中的HMD200(用户的头部)的位置、方向。在第二跟踪方式中,如利用后述图3的(A)、(B)中详细说明那样,在HMD200中设置多个发光元件(LED)。然后,通过由设置于外部的拍摄部拍摄来自该多个发光元件的光,从而确定HMD200的位置、方向。在第三跟踪方式中,作为传感器部210而设置运动传感器,并使用该运动传感器来确定HMD200的位置、方向。运动传感器可以通过例如加速度传感器、陀螺仪传感器等实现。通过使用例如使用三轴的加速度传感器和三轴的陀螺传感器的六轴的运动传感器,可以确定现实世界的三维空间中的HMD200的位置、方向。此外,也可以通过第一跟踪方式和第二跟踪方式的组合、或者第一跟踪方式和第三跟踪方式的组合等确定HMD200的位置、方向。另外,也可以不通过确定HMD200的位置、方向来确定用户的视点位置、视线方向,而采用直接确定用户的视点位置、视线方向的跟踪处理。
HMD200的显示部220可以通过例如有机EL显示器(OEL)或液晶显示器(LCD)等实现。例如,在HMD200的显示部220中,设置有设定于用户的左眼前的第一显示器或第一显示区域、和设定于右眼前的第二显示器或第二显示区域,从而能够实现立体显示。在进行立体显示的情况下,生成例如视差不同的左眼用图像和右眼用图像,并在第一显示器上显示左眼用图像,在第二显示器上显示右眼用图像。或者,在一个显示器的第一显示区域中显示左眼用图像,在第二显示区域中显示右眼用图像。另外,HMD200中设置有左眼用、右眼用的两个目镜(鱼眼透镜),由此体现出在用户的视野的整个周围扩展的VR空间。并且,针对左眼用图像、右眼用图像进行用于校正目镜等光学系统中产生的畸变的校正处理。该校正处理由显示处理部120进行。
HMD200的处理部240进行HMD200中所需的各种处理。例如,处理部240进行传感器部210的控制处理、显示部220的显示控制处理等。另外,处理部240也可以进行立体声(stereophonic sound)处理,从而实现三维的声音的方向、距离、扩散的再现。
声音输出部192输出通过本实施方式生成的声音,能够通过例如扬声器或耳机等实现。
I/F(接口)部194进行与便携式信息存储介质195的接口处理,其功能可以通过I/F处理用的ASIC等实现。便携式信息存储介质195是供用户保存各种信息的介质,且在未供给电源的情况下也保持这些信息的存储的存储装置。便携式信息存储介质195可以通过IC卡(存储卡)、USB存储器、或者磁卡等实现。
通信部196经由有线或无线的网络与外部(其他装置)之间进行通信,其功能可以通过通信用ASIC或通信用处理器等的硬件、或者通信用固件实现。
此外,用于使计算机作为本实施方式的各部发挥作用的程序(数据),也可以经由网络及通信部196从服务器(主机装置)具有的信息存储介质向信息存储介质180(或者存储部170)传送。上述基于服务器(主机装置)的信息存储介质的使用也可以包含在本发明的范围内。
处理部100(处理器)根据来自操作部160的操作信息、HMD200中的跟踪信息(HMD的位置及方向的至少一方信息。视点位置及视线方向的至少一方信息)、或者程序等,进行游戏处理(模拟处理)、虚拟空间设定处理、移动体处理、虚拟相机控制处理、显示处理、或者声音处理等。
处理部100的各部所进行的本实施方式的各处理(各功能),可以通过处理器(包含硬件的处理器)实现。例如,本实施方式的各处理可以通过根据程序等的信息进行动作的处理器、和存储程序等的信息的存储器而实现。处理器例如既可以通过单独的硬件实现各部的功能,或者也可以通过一体的硬件实现各部的功能。例如,处理器可以包括硬件,并且该硬件包括处理数字信号的电路和处理模拟信号的电路中的至少一方。例如,处理器也可以由安装于电路基板上的一个或多个电路装置(例如IC等)、或者一个或多个电路元件(例如电阻、电容器等)构成。处理器例如也可以是CPU(Central Processing Unit、中央处理器)。但是,处理器并不限定于CPU,可以使用GPU(Graphics Processing Unit、图形处理器)或DSP(Digital Signal Processor、数字信号处理器)等的各种处理器。另外,处理器也可以是基于ASIC的硬件电路。另外,处理器也可以包括处理模拟信号的放大电路或滤波电路等。存储器(存储部170)既可以是SRAM、DRAM等的半导体存储器,也可以是寄存器。或者,既可以是硬盘装置(HDD)等的磁存储装置,也可以是光盘装置等的光学式存储装置。例如,存储器存储计算机可读取的指令,并通过处理器执行该指令,从而实现处理部100的各部的处理(功能)。这里的指令既可以是构成程序的指令集,也可以是对处理器的硬件电路指示动作的指令。
处理部100包括输入处理部102、运算处理部110以及输出处理部140。运算处理部110包括信息获取部111、虚拟空间设定部112、移动体处理部113、虚拟相机控制部114、游戏处理部115、控制部117、显示处理部120以及声音处理部130。如上所述,由这些各部执行的本实施方式的各处理可以通过处理器(或者处理器及存储器)而实现。此外,可以实施省略这些构成要素(各部分)的一部分、或者追加其他构成要素等的各种变形。
输入处理部102作为输入处理受理操作信息、跟踪信息的处理、从存储部170读出信息的处理、经由通信部196接收信息的处理。例如,输入处理部102作为输入处理而进行如下处理,即:获取由用户使用操作部160输入的操作信息或者由HMD200的传感器部210等检测出的跟踪信息的处理、从存储部170读出由读出指令指定的信息的处理、或者从外部装置(服务器等)经由网络接收信息的处理。在此,接收处理是指示通信部196接收信息、或者获取通信部196接收到的信息并写入存储部170的处理等。
运算处理部110进行各种运算处理。例如,进行信息获取处理、虚拟空间设定处理、移动体处理、虚拟相机控制处理、游戏处理(模拟处理)、显示处理、或者声音处理等的运算处理。
信息获取部111(信息获取处理的程序模块)进行各种信息的获取处理。例如,信息获取部111获取佩戴HMD200的用户的位置信息等。信息获取部111可以获取用户的方向信息、姿势信息、运动信息等。
虚拟空间设定部112(虚拟空间设定处理的程序模块)进行配置有对象的虚拟空间(对象空间)的设定处理。例如,进行将表示移动体(车辆、人、机器人、电车、飞机、船、怪物或动物等)、地图(地形)、建筑物、观众席、线路(道路)、道具、树木、墙壁、水面等的显示物的各种对象(由多边形、自由曲面或细分曲面等的基本曲面构成的对象)配置设定于虚拟空间中的处理。即,确定世界坐标系中的对象的位置和旋转角度(与朝向、方向同义),并在该位置(X、Y、Z)处根据该旋转角度(绕X、Y、Z轴的旋转角度)配置对象。具体而言,在存储部170的对象信息存储部172中,与对象编号相对应地存储虚拟空间中的对象(部件对象)的位置、旋转角度、移动速度、移动方向等的信息即对象信息。虚拟空间设定部112例如针对各帧进行更新该对象信息的处理等。
移动体处理部113(移动体处理的程序模块)进行关于虚拟空间内移动的移动体的各种处理。例如,进行在虚拟空间(对象空间、游戏空间)中使移动体移动的处理、或者使移动体进行动作的处理。例如,移动体处理部113根据用户通过操作部160输入的操作信息、所获得的跟踪信息、程序(移动/动作算法)、或者各种数据(运动数据)等,进行使移动体(模型对象)在虚拟空间内移动、或者使移动体进行动作(运动、动画)的控制处理。具体而言,进行依次求出每一帧(例如1/60秒)内的移动体的移动信息(位置、旋转角度、速度、或者加速度)或动作信息(部件对象的位置或者旋转角度)的模拟处理。此外,帧是进行移动体的移动/动作处理(模拟处理)、图像生成处理的时间单位。移动体例如是与真实空间的用户(玩家)对应的用户移动体。例如,移动体是与真实空间的用户对应的虚拟空间的用户角色(虚拟形象、玩家角色)、或者该用户角色搭乘(操作)的移动体(搭乘移动体、操作移动体)等。
虚拟相机控制部114(虚拟相机控制处理的程序模块)进行虚拟相机的控制。例如,根据通过操作部160输入的用户的操作信息、跟踪信息等进行控制虚拟相机的处理。
例如,虚拟相机控制部114进行以用户的第一人称视点或第三人称视点设定的虚拟相机的控制。例如,通过在与虚拟空间中移动的用户移动体的视点(第一人称视点)对应的位置处设定虚拟相机,并设定虚拟相机的视点位置和视线方向,从而控制虚拟相机的位置(位置坐标)、姿势(绕旋转轴的旋转角度)。或者,通过在追随移动体(用户角色、搭乘移动体)的视点(第三人称视点)的位置处设定虚拟相机,并设定虚拟相机的视点位置和视线方向,从而控制虚拟相机的位置、姿势。
例如,虚拟相机控制部114根据通过视点跟踪获得的用户的视点信息的跟踪信息,控制虚拟相机以追随用户的视点变化。例如,在本实施方式中,获得作为用户的视点位置、视线方向中的至少一方的视点信息的跟踪信息(视点跟踪信息)。该跟踪信息可以通过进行例如HMD200的跟踪处理而获得。然后,虚拟相机控制部114根据所获得的跟踪信息(用户的视点位置及视线方向中的至少一方信息)改变虚拟相机的视点位置、视线方向。例如,虚拟相机控制部114以虚拟空间中的虚拟相机的视点位置、视线方向(位置、姿势)根据真实空间中的用户的视点位置、视线方向的变化而变化的方式设定虚拟相机。由此,能够根据用户的视点信息的跟踪信息控制虚拟相机,以追随用户的视点变化。
游戏处理部115(游戏处理的程序模块)进行供用户玩游戏的各种游戏处理。换言之,游戏处理部115(模拟处理部)执行供用户体验虚拟现实(virtual reality)的各种模拟处理。游戏处理例如是在满足游戏开始条件时开始游戏的处理、使已开始的游戏行进的处理、在满足游戏结束条件时结束游戏的处理、或者运算游戏成绩的处理等。
控制部117(控制处理的程序模块)进行可动框体30的控制处理等。例如,进行通过可动框体30改变用户的游戏位置的控制等。
显示处理部120(显示处理的程序模块)进行游戏图像(模拟图像)的显示处理。例如,根据处理部100中进行的各种处理(游戏处理、模拟处理)的结果进行描绘处理,由此生成图像,并显示于显示部220中。具体而言,进行坐标转换(世界坐标转换、相机坐标转换)、限幅处理、透视转换、或者光源处理等的几何处理,并根据该处理结果制成描绘数据(基本曲面的顶点的位置坐标、纹理坐标、颜色数据、法线向量或者α值等)。然后,根据该描绘数据(基本曲面数据),将透视转换后(几何处理后)的对象(一个或多个基本曲面)描绘至描绘缓冲器178(帧缓冲器、工作缓冲器等能够以像素为单位存储图像信息的缓冲器)中。由此,生成在虚拟空间中能够从虚拟相机(给定的视点。左眼用、右眼用的第一、第二视点)看到的图像。此外,显示处理部120中进行的描绘处理可以通过顶点着色处理、像素着色处理等实现。
声音处理部130(声音处理的程序模块)根据处理部100进行的各种处理的结果进行声音处理。具体而言,生成乐曲(音乐、BGM)、效果音或声音等的游戏声音,并将游戏声音输出至声音输出部192。此外,也可以通过HMD200的处理部240实现声音处理部130的声音处理的一部分(例如立体声处理)。
输出处理部140进行各种信息的输出处理。例如,输出处理部140作为输出处理而进行将信息写入存储部170的处理、经由通信部196发送信息的处理。例如,输出处理部140进行将写入指令指定的信息写入存储部170的处理、经由网络向外部的装置(服务器等)发送信息的处理。发送处理是指示通信部196发送信息、或者对通信部196指示所要发送的信息的处理等。
而且,如图1所示,本实施方式的模拟系统包括信息获取部111、虚拟空间设定部112、移动体处理部113、游戏处理部115以及显示处理部120。
信息获取部111获取包括用户的位置信息、方向信息以及姿势信息中的至少一方的用户信息。例如,信息获取部111根据来自HMD200的跟踪信息、或者来自安装于用户的规定部位(手、脚或头部等)的跟踪装置(例如后述的跟踪装置250、260)的跟踪信息等,获取包括真实空间中的用户的位置信息、方向信息以及姿势信息中的至少一方的用户信息(用户跟踪信息)。位置信息可以是真实空间中的用户的视点的位置信息,方向信息可以是真实空间中的用户的视线的方向信息。在用户在真实空间(现实世界)的场地(游戏场地、模拟场地、游戏区域)或可动框体30中进行游戏的情况下,位置信息、方向信息也可以是该场地或可动框体30中的位置信息、方向信息(以给定的位置为原点的坐标系中的位置坐标、绕各坐标轴的旋转角度)。姿势信息是用于确定用户的各姿势(站姿、蹲姿或坐姿等)、或者用于确定用户的各部位(躯干、头、手或者脚等)的位置、方向的信息。姿势信息既可以是根据来自安装于用户的规定部位的跟踪装置的跟踪信息而确定的信息,也可以是通过Kinect(Kinect为注册商标)等的运动跟踪而确定的信息。例如,用户信息可以包括包含用户的规定部位的位置信息和方向信息中的至少一方的部位信息。另外,信息获取部111也可以获取HMD200的位置信息、方向信息作为佩戴该HMD200的用户的位置信息、方向信息,或者,获取安装于用户的规定部位的跟踪装置的位置信息、方向信息作为该用户的规定部位的位置信息、方向信息。
虚拟空间设定部112进行虚拟空间的设定处理。例如,进行将移动体、道具、线路对象、背景对象或者地图对象等的对象配置设定于虚拟空间中的处理。例如,虚拟空间设定部112进行将根据来自操作部160的操作信息而移动的移动体配置设定于虚拟空间中的处理。另外,进行在设定于移动体移动的线路上的道具区域中,配置设定作为获得对象的道具的处理。移动体或道具等的对象的位置、方向等的信息被存储在例如对象信息存储部172中。
移动体处理部113进行在通过虚拟空间设定部112设定的虚拟空间(游戏空间)中使移动体移动的处理。例如,进行使与用户对应的用户角色在虚拟空间中移动的处理。例如,根据通过信息获取部111获得的用户信息、或者来自操作部160的操作信息,使用户角色在虚拟空间中移动。该情况下,既可以是用户角色本身移动,也可以是通过用户角色所搭乘的移动体在虚拟空间中移动,而使用户角色追随该移动体在虚拟空间中移动。
游戏处理部115进行虚拟空间中的游戏的处理。例如,进行用于使用户玩虚拟空间中的游戏的各种处理。
显示处理部120进行作为向用户显示的显示图像而生成虚拟空间中的图像的处理。例如,作为向用户显示的显示图像而生成在虚拟空间中能够从虚拟相机看到的图像。具体而言,显示处理部120作为用户以覆盖视野的方式佩戴的HMD200的显示图像而生成虚拟空间中的图像。例如,虚拟相机控制部114进行与佩戴HMD200的用户的视点对应的虚拟相机的控制处理。例如,虚拟相机控制部114进行以用户的第一人称视点设定的虚拟相机的控制。例如,通过在与虚拟空间中的用户角色的视点对应的位置处设定虚拟相机,并设定虚拟相机的视点位置和视线方向,从而控制虚拟相机的位置(位置坐标)、姿势(绕旋转轴的旋转角度)。然后,显示处理部120作为HMD200等的显示图像(显示影像)而生成在虚拟空间中能够从虚拟相机(用户视点)看到的图像。例如,生成在作为虚拟空间的对象空间中能够从给定的视点看到的图像。所生成的图像例如为立体观察用的图像。由此,在视野的整个周围扩展的虚拟空间(VR空间)的图像被显示于HMD200中。
然后,在本实施方式中,游戏处理部115根据用户信息判断用户是否进行了道具获得动作。例如,根据用户的手等规定部位的位置信息及方向信息中的至少一方即部位信息来判断用户是否进行了道具的获得动作。然后,在判断为进行了道具获得动作的情况下,游戏处理部115进行使用户角色获得道具的处理。例如,进行将道具登记为用户角色的拥有道具的处理。例如,游戏处理部115进行将道具与用户角色的信息相关联地存储于存储部170(对象信息存储部172)中的处理。例如,将道具作为用户角色的一部分进行登记而使其拥有道具。在获得道具的规定部位是手的情况下,以追随运动数据中的手的骨头(bone)的方式使道具的对象与手的对象连接。
另外,游戏处理部115进行解除用户角色的道具拥有状态的处理。例如,游戏处理部115根据用户信息(用户信息)判断基本姿势状态(狭义上为通常操纵状态)的用户是否进行了道具获得动作,并在判断为进行了道具获得动作的情况下,进行使用户角色获得道具的处理。然后,在判断为在用户角色获得并拥有道具之后,用户恢复为基本姿势状态的情况下,解除用户角色的道具拥有状态。即,当在拥有道具的状态下,用户恢复为基本姿势状态时,道具的获得、拥有的登记被解除,道具被消除,或者变为非显示。在此,基本姿势状态是在玩战斗游戏等游戏时决定为用户的基本姿势(基准姿势、通常姿势)的姿势,例如将至少一只手放下等而采取通常姿势的状态。
此外,道具的拥有状态的解除只要至少成为道具与用户角色的部位未连结的状态即可,例如也可以使拥有状态被解除的道具暂时无法使用而能够储存。并且,在满足所储存的道具的使用许可条件的情况下,能够执行该道具的使用处理。例如,将所储存的道具加以保管,在满足可使用条件时,使该道具与用户角色的部位连结,当用户进行了道具使用动作时,能够执行道具使用处理。
另外,在本实施方式中,移动体处理部113进行使用户角色所搭乘的移动体在虚拟空间中移动的处理。这样,通过使用户角色所搭乘的移动体在虚拟空间中移动,用户角色也随之在虚拟空间中移动。
而且,在本实施方式中,虚拟空间设定部112在用户的通常操纵状态时用户角色无法接触(到达)的场所(道具配置场所)设定道具区域(设定道具)。通常操纵状态(广义上为基本姿势状态、通常姿势状态)是用户不进行例如道具获得等动作而操纵用户角色所搭乘的移动体的状态。作为一例,如双手操作方向盘、操纵杆等操作部件的状态。而且,道具在这样的通常操纵状态下配置于用户角色无法接触的场所(无法到达的场所)。例如,道具配置于用户角色双手操作方向盘等操作部件的状态下无法接触这样的场所。
然后,游戏处理部115例如根据用户信息(手等规定部位的部位信息)判断用户是否朝向道具区域的道具的方向(道具配置场所的方向)进行了道具的获得动作。然后,在判断为进行了道具获得动作的情况下,进行使用户角色获得道具的处理。例如,进行将道具登记为用户角色的拥有道具的处理。
另外,游戏处理部115进行将用户的通常操纵状态(基本姿势状态)下的用户信息存储至存储部170的处理。例如,在游戏开始前的初始设定等时,用户采取通常操纵状态的姿势(基本姿势),该通常操纵状态下的规定部位的部位信息例如作为初始设定信息被存储在存储部170的初始设定信息存储部174中。若这样预先存储通常操纵状态下的部位信息,则与用户的体格(身体信息)、可动框体30中的用户的位置、姿势等对应的通常操纵状态下的规定部位的部位信息被存储于存储部170中。并且,通过使用作为该初始设定信息的部位信息,能够判断游戏期间用户是否为通常操纵状态,而不依赖于用户的体格、可动框体30中的用户的位置、姿势等。
另外,虚拟空间设定部112相对于移动体所移动的线路设定道具区域。例如,在竞速游戏的线路上、或者沿着线路的场所设定道具区域。这样,在移动体沿着线路移动这样的竞速游戏等的游戏中,能够在搭乘于移动体的角色可获得道具的场所设定道具区域。
另外,游戏处理部115在用户进行了移动规定部位的动作的情况下,判断为进行了道具获得动作。例如,在判断为用户进行了移动规定部位的动作,与规定部位对应的用户角色的部位(部位对象)接近(到达)道具的情况下,判断为进行了道具获得动作(获得了道具)。例如,在判定为用户的规定部位朝向道具的设置场所的方向靠近,且规定部位命中道具的情况下,判断为进行了道具的获得动作。具体而言,进行对用户角色的部位(与规定部位对应的部位)设定的命中量(或者规定部位本身)和对道具设定的命中量(或者道具本身)的命中判定处理(交叉判定处理、碰撞处理),在判定为命中的情况下,判定为进行了道具的获得动作。或者,在用户角色的部位与道具之间的距离在给定的距离以下的情况下,判定为进行了道具的获得动作。在此,规定部位是道具的获得动作中使用的部位,例如用户的手、脚或头部等部位。用户角色的部位是与用户的规定部位对应的部位,如用户角色的手、脚或头部等部位(部件对象)。
另外,游戏处理部115在判断为用户进行了道具使用动作的情况下,进行道具使用处理。例如,在根据用户信息(部位信息)判断为在用户角色获得并拥有道具的状态下,用户使用规定部位进行了道具使用动作的情况下,进行道具使用处理。道具使用处理例如是使用户角色所保持的道具移动、或者使其发挥道具的效果的处理。具体是通过投掷或晃动而使用户角色所保持的道具移动的处理;显示基于道具的效果图像的处理;或者,发挥使道具命中敌方移动体等的目标(对象目标)而造成伤害、使道具改变目标的移动状态、或者改变目标的各种游戏参数等的道具的效果的处理。
另外,信息获取部111获取包含规定部位的位置信息以及方向信息中的至少一方的部位信息作为用户信息。例如,当用户移动规定部位时,通过安装于规定部位的跟踪装置等跟踪规定部位的位置或方向等,并获取通过该跟踪得到的跟踪信息作为部位信息。然后,虚拟空间设定部112根据部位信息将与规定部位对应的用户角色的部位(例如表示手、脚或头部等部位的部件对象)配置设定于虚拟空间中。例如,将用户角色的部位配置设定在与真实空间中的用户的规定部位的位置或方向对应的位置或方向上。即,以与用户的规定部位联动的方式移动用户角色的部位。然后,显示处理部120进行显示配置设定于虚拟空间中的部位的处理。例如,当用户在真实空间中移动规定部位时,用户角色的对应部位与该移动对应地进行移动,该部位移动的样子显示于HMD200等的显示部中。
另外,移动体处理部113进行在用户角色获得道具时使道具朝向移动体的移动方向移动的处理。例如,在判断为用户角色的部位接近道具的情况下,使道具朝向与用户角色所搭乘的移动体的移动方向(用户角色的移动方向)对应的方向移动。该情况下的道具的移动速度例如是移动体的移动速度以下的速度。另外,也可以根据用户的游戏水平、障碍(handicap)设定等改变道具的移动速度的设定。通过如此以与移动体的移动联动的方式使道具移动,能够容易地获得道具。
另外,移动体处理部113进行使所获得的道具移动的处理。例如,进行使通过用户角色获得而变为拥有状态的道具追随移动体(用户角色)的移动而移动的处理。例如,通过将道具登记为用户角色的一部分,使道具从属于用户角色。而且,当用户角色搭乘的移动体移动时,道具也与该移动对应地移动。
另外,游戏处理部115在根据用户信息判断为在用户角色获得并拥有道具的状态下,用户进行了道具使用动作的情况下,执行道具使用处理。例如,当根据包含用户的位置信息、方向信息以及姿势信息的用户信息判断为用户进行了使用道具这样的动作时,执行道具使用处理,执行通过投掷或晃动等方式而使道具移动的处理、发挥道具的效果的处理等。
该情况下,游戏处理部115根据道具使用动作的动作方向、道具使用动作的强度、道具的种类、道具使用动作时的用户的视线信息、以及进行道具使用动作的用户的规定部位的状态中的至少一方来执行道具使用处理。例如,根据这些动作方向、强度、种类、视线信息或规定部位的状态,判断有无执行道具使用处理、或者设定执行内容。例如,在用户进行通过投掷或晃动等方式使道具移动的动作的情况下,道具使用动作的动作方向为该动作的方向。另外,例如在用户进行通过投掷或晃动等方式使道具移动的动作的情况下,道具使用动作的强度是通过该动作的速度、加速度等表示的动作的强度。另外,道具的种类表示通过用户角色获得的道具的类别。例如,道具的形状、图像、或者道具使用处理时发挥的效果等根据道具的种类而不同。道具使用动作时的用户的视线信息是进行投掷道具等动作时用户的视线所朝向的方向等。例如,若一边使视线朝向上方向等规定的方向,一边进行投掷道具的动作,则使道具向该视线的方向移动。另外,进行道具使用动作时的用户的规定部位的状态是道具使用动作时的规定部位的方向(姿势、绕规定坐标轴的旋转角度)、位置等状态。例如,根据规定部位的方向等的状态,决定是否进行道具使用动作,或者决定基于道具使用动作的道具的移动方向等。
另外,游戏处理部115在用户角色获得并拥有道具的状态下给定条件成立的情况下,解除用户角色的道具拥有状态。例如,若在道具的拥有状态时给定条件成立,则使道具的获得、拥有的登记解除,使所拥有的道具例如被删除而变为不显示。
使道具拥有状态解除的给定条件例如在从获得(拥有)道具起经过了给定时间、发生了特定的游戏状况、或者如上所述恢复为通常操纵状态(基本姿势状态)等情况下成立。特定的游戏状况是移动体发生碰撞、或者移动体跳跃等预先确定的游戏中的特定状况。
另外,游戏处理部115进行道具获得的通知处理。例如,在获得了道具的情况下,进行通过图像、声音或振动通知获得了道具这一情况的通知处理。该通知处理由游戏处理部115的通知处理部116执行。例如,在获得了道具的情况下,进行使道具的图像或道具周围的显示物的图像变化、或者输出告知获得了道具的特定的游戏音(效果音)、或者使操作部160或可动框体30振动的处理。例如,可以通过设置于可动框体30上的各种体感装置(基于声音、振动、空气炮或光等的体感装置)来实现通知处理。
另外,虚拟空间设定部112也可以根据用户的身体信息来设定道具的配置场所。例如,根据用户的体格大小等身体信息,使道具的配置场所不同。例如,在用户是大人的情况下(身高较高的情况下),将道具配置在较高的场所,在用户是孩子的情况下(身高较低的情况)下,将道具配置在较低的场所。另外,也可以根据用户的手等规定部位的长度来设定道具的配置场所。或者,也可以根据用户的性别或年龄等信息来设定道具的配置场所。另外,用户的身体信息例如既可以在游戏开始前由用户输入而初始设定,也可以使用传感器等自动获取用户的身体信息。该身体信息的获取处理例如由信息获取部111进行。
另外,在本实施方式中,作为显示图像,显示处理部120生成用户以覆盖视野的方式佩戴的HDM200的显示图像。这样,在用户以覆盖视野的方式佩戴HMD200的情况下,当用户进行了道具获得动作时,使用户角色获得该道具能够有效提高用户的虚拟现实感。但是,显示处理部120也可以生成HMD200以外的显示部的显示图像。例如,也可以生成家庭用游戏装置中的电视机、个人计算机或者商业用游戏装置中的监视显示器等的显示部的显示图像。
另外,在本实施方式中,作为用户所玩的游戏的游戏处理,进行虚拟现实的模拟处理。虚拟现实的模拟处理是用于在虚拟空间中模拟真实空间中的现象的模拟处理,且是用于使用户虚拟体验该现象的处理。例如,进行用于使与真实空间的用户对应的虚拟用户或其搭乘移动体等的移动体在虚拟空间中移动、或者使用户体验伴随移动而产生的环境或周围的变化的处理。
此外,图1的本实施方式的模拟系统的处理可以通过商业用游戏装置或家庭用游戏装置等的处理装置、设置于设施中的PC等的处理装置、用户佩戴于后背等的处理装置(背包PC)、或者这些处理装置的分布式处理等来实现。或者,也可以通过服务器系统和终端装置实现本实施方式的模拟系统的处理。例如,也可以通过服务器系统和终端装置的分布式处理等来实现。
2.跟踪处理
接着,对跟踪处理的例子进行说明。图2的(A)中示出本实施方式的模拟系统中使用的HMD200的一例。如图2的(A)所示,HMD200中设置有多个受光元件201、202、203(光电二极管)。受光元件201、202设置于HMD200的前面侧,受光元件203设置于HMD200的右侧面。另外,HMD的左侧面、上表面等上也设置有未图示的受光元件。
另外,用户US在作为规定部位的手上佩戴有跟踪装置250、260。在佩戴于右手的跟踪装置250中,与HMD200同样地设置有多个受光元件251~254。佩戴于左手的跟踪装置260中也设置有多个受光元件261~264(未图示)。通过使用如此设置有受光元件的跟踪装置250、260,能够与HMD200的情况同样地确定手等规定部位的位置、方向等的部位信息。此外,佩戴跟踪装置的用户US的规定部位并不限定于手(手背),例如可以假定为脚、头部、胸部、腹部或腰等各种部位。
如图2的(B)所示,可动框体30的周边设置有基站280、284。基站280中设置有发光元件281、282,基站284中设置有发光元件285、286。发光元件281、282、285、286通过例如射出激光(红外线激光等)的LED实现。基站280、284使用这些发光元件281、282、285、286,例如呈放射状射出激光。而且,通过由图2的(A)的HMD200中设有的受光元件201~203等接收来自基站280、284的激光,实现HMD200的跟踪处理,从而能够检测用户US的头的位置和朝向(视点位置、视线方向)。例如,能够检测用户US的位置信息、姿势信息(方向信息)。
另外,通过由跟踪装置250、260中设有的受光元件251~254、261~264接收来自基站280、284的激光,能够检测用户US的手(广义上为规定部位)的位置及方向中的至少一方。
图3的(A)示出HMD200的另一例。在图3的(A)中,相对于HMD200设置有多个发光元件231~236。这些发光元件231~236通过例如LED等实现。发光元件231~234设置于HMD200的前面侧,发光元件235和未图示的发光元件236设置于背面侧。这些发光元件231~236射出(发出)例如可见光波段的光。具体而言,发光元件231~236射出互不相同的颜色的光。另外,在用户US佩戴于手(规定部位)的跟踪装置250中设置有发光元件255、256,在跟踪装置260中设置有发光元件265、266(未图示)。
并且,将图3的(B)所示的拍摄部150设置于用户US的周围的至少一方的场所(例如前方侧、或者前方侧及后方侧等),通过该拍摄部150拍摄HMD200的发光元件231~236的光。即,在拍摄部150的拍摄图像中,映出这些发光元件231~236的光点。然后,通过执行该拍摄图像的图像处理,实现用户US的头部(HMD)的跟踪。即,检测用户US的头部的三维位置和朝向(视点位置、视线方向)。
例如,如图3的(B)所示,拍摄部150中设置有第一相机151和第二相机152,通过使用该第一相机151和第二相机152的第一、第二拍摄图像,能够检测出用户US的头部在深度方向上的位置等。另外,根据设置于HMD200上的运动传感器的运动检测信息,还能够检测出用户US的头部的旋转角度(视线)。因此,通过使用这样的HMD200,无论用户US朝向周围360度全方位中的哪个方向,都能够将与其对应的虚拟空间(虚拟三维空间)中的图像(能够从与用户的视点对应的虚拟相机看到的图像)显示于HMD200的显示部220。
另外,通过利用拍摄部150拍摄跟踪装置250的发光元件255、256的光或跟踪装置260的发光元件265、266的光,能够与HMD200的情况同样地检测用户US的手(右手、左手)的位置及方向中的至少一方。
此外,作为发光元件231~236、255、256、265、266,也可以使用红外线的LED而非可见光。另外,也可以通过例如使用深度相机等的其他方法来检测用户的头部或手(规定部位)的位置、运动等。
另外,检测用户US或用户US的手(规定部位)的位置信息、姿势信息的跟踪处理的方法并不限定于图2的(A)~图3的(B)中说明的方法。例如,也可以使用设置于HMD200或跟踪装置250、260中的运动传感器等,进行HMD200、跟踪装置250、260的跟踪处理,从而检测位置信息、方向信息或者姿势信息。即,不设置图2的(B)中的基站280、284、图3的(B)中的摄像部150等的外部装置而实现跟踪处理。或者,也可以使用公知的眼部跟踪、脸部跟踪或头部跟踪等各种视点跟踪方法。或者,也可以使用检测并确定用户的运动(运动数据)的运动跟踪的方法。
3.可动框体
接着,对本实施方式的可动框体30的构成例进行说明。图4是可动框体30的立体图。
在图4所示的可动框体30中,在底部32上设置有罩部33,在该罩部33上设置有基座部34(台座部)。基座部34以与底部32相对的方式设置。
基座部34上设置有具有座椅62的乘坐部60。用户US就座于该乘坐部60的座椅62上。另外,基座部34上设置有移动部40,移动部40上设置有方向盘50、加速踏板52、制动踏板54(未图示)等的操作部160。另外,移动部40上设置有向用户进行送风的送风机80。该送风机80通过例如多叶片式风扇等实现。
如图4的E1所示,移动部40在前后方向上移动自如。具体而言,设置有移动的锁定解除用的控制杆(未图示),通过由用户对该控制杆进行操作,从而解除移动部40的移动锁定。而且,用户例如可以以2cm刻度分10个阶段使移动部40沿E1所示的方向移动。由此,能够进行调整而使方向盘50等的操作部160位于对于用户而言最佳的位置处。
可动框体30是改变用户的游戏位置的框体(街机框体、驾驶舱框体等)。例如,可动框体30根据图1的游戏处理部115(处理部100)的游戏处理的结果(游戏状况)而改变用户的游戏位置。
例如,游戏处理部115作为用户玩的游戏的游戏处理而进行虚拟现实的模拟处理。例如,进行用于使与真实空间的用户对应的用户角色所搭乘的移动体(车辆、机器人等)在虚拟空间中移动、或者使用户体验伴随移动产生的环境或周围的变化的处理。然后,可动框体30根据作为游戏处理的模拟处理的结果改变游戏位置。例如,根据用户角色所搭乘的移动体(或用户角色)在虚拟空间中的移动处理的结果等改变游戏位置。例如,在竞速游戏中,作为用于使用户体验伴随车辆(赛车)移动时的加速、减速或方向的变化的加速度的模拟处理,进行改变游戏位置的处理。或者,作为用于在敌方的攻击命中了车辆时,使用户体验到该冲击的模拟处理,进行改变游戏位置的处理。
这里,游戏位置是在玩虚拟现实(VR)的模拟游戏时用户所在的游戏位置。例如,游戏位置是用户的乘坐部60的乘坐位置。例如,在用户坐在乘坐部60的座椅62上并玩虚拟现实的模拟游戏的情况下,游戏位置例如是座椅62的乘坐位置即落座位置。在用户跨在模拟摩托车、自行车或者马等乘坐物或动物的乘坐部上的情况下,游戏位置是跨越的位置。另外,在用户以站立姿势玩模拟游戏的情况下,游戏位置例如是乘坐部中的站立位置。
这样,本实施方式的模拟系统具有能够根据游戏处理的结果(游戏状况)而改变用户的游戏位置的可动框体30。这样,通过改变游戏位置(乘坐位置),能够使用户体验到例如伴随虚拟空间中的用户角色的搭乘移动体(车辆、机器人)的移动等而产生的加速度的变化等,从而有望提高虚拟现实感。
具体而言,在图4中,在底部32与基座部34之间,在其四角设置有未图示的第一~第四空气弹簧部(广义上为伸缩部)。这些第一~第四空气弹簧部通过使用空气压缩机或气泡进行空气的供给和排出,从而在图4的Y轴方向上伸缩。例如,通过全部的第一~第四空气弹簧部伸长或收缩,能够使基座部34在Y轴方向上向上侧或下侧移动。通过这些上下方向上的基座部34的移动,能够进行例如线路的路面状态的再现等。例如,通过以较少的行程且以较快的速度使基座部34在上下方向上移动,能够表现出路面的凹凸(坑洼道路)等。
另外,通过使四角的第一~第四空气弹簧部中的前侧及后侧的一方的空气弹簧部伸长,另一方的空气弹簧部收缩,能够使基座部34绕X轴纵摇。另外,通过四角的第一~第四空气弹簧部中的左侧及右侧的一方的空气弹簧部伸长,另一方的空气弹簧部收缩,能够使基座部34绕Z轴横摇。通过进行这样的纵摇或横摇,能够使用户体验到伴随车辆等移动体的移动而产生的加速感、减速感、或者转弯时的惯性力。由此,能够提高用户的虚拟现实感,并且还能够抑制所谓的3D眩晕。
4.本实施方式的方法
接着,对本实施方式的方法进行说明。此外,以下主要对将本实施方式的方法应用于用户角色搭乘于车上与其他车辆竞争的竞速游戏的情况进行说明。但是,适用本实施方式的方法的游戏并不限定于这样的竞速游戏。例如,本实施方式的方法可以适用于竞速游戏以外的各种游戏(车以外的竞争游戏、机器人游戏)、FPS(First Person shooter、第一人称射击游戏)或格斗游戏等的对战游戏、电车或飞机等乘坐物的模拟游戏、RPG、动作类游戏、虚拟体验游戏、体育游戏、恐怖体验游戏、或者音乐游戏等)中,也可以适用于游戏以外的方式中。
4.1游戏的说明
在本实施方式中,实现在操纵虚拟空间的移动体的游戏中,不损害游戏的投入感而以自然的形式实现道具的获得和使用的方法。具体而言,在本实施方式中,在用户(玩家)在虚拟空间中玩的游戏中,用户操纵移动体(包括FPS等中的用户角色),进行运算虚拟空间的游戏状况的游戏处理。用户的位置、方向或者姿势等通过HMD或跟踪装置进行检测。设定有道具区域,该道具区域是设置有道具的区域,并位于在操纵移动体的用户的通常状态下无法到达(接触)的位置,用户(虚拟形象)在该区域的方向(上下左右)进行给定的动作(阈值以上的移动、接近),从而能够获得区域内的道具。并且,能够在检测到用户的给定动作(阈值以上的移动、接近)时获得道具。
对通过这样的本实施方式的方法实现的竞速游戏进行说明。在该竞速游戏中,与真实空间的用户对应的虚拟空间的用户角色作为驾驶员搭乘于车辆(赛车)上进行驾驶,并与敌方车辆进行竞争。通过在线路中设定道具区域,获得并使用该道具区域的道具,能够使竞速游戏占据优势。
图5的(A)~图9的(B)是通过本实施方式生成的游戏图像的例子,图10的(A)~图12的(B)是说明游戏期间的用户的动作的图。
图10的(A)是用户US呈通常操纵状态(基本姿势状态)的情况,如A1所示,用户US用右手、左手双手握住方向盘50驾驶车辆。该情况下,在用户US的HMD200中显示如图5的(A)、(B)所示那样的游戏图像。在该游戏图像中,显示在虚拟空间的线路中行驶的用户的车辆CP(广义上为移动体)和敌方车辆CE(敌方移动体)。另外,还显示车辆CP的方向盘ST、操作方向盘ST的用户角色(玩家角色)的手HR、HL(部位)。
而且,当图10的(A)的真实空间的用户US向左操纵方向盘50时,如图5的(A)所示,在虚拟空间中也显示车辆CP的方向盘ST被用户角色的手HR、HL向左操纵的游戏图像。另外,当真实空间的用户US向右操纵方向盘50时,如图5的(B)所示,在虚拟空间中也显示方向盘ST被用户角色的手HR、HL向右操纵的游戏图像。即,显示与真实空间的用户US的手的动作相联动,虚拟空间的用户角色的手HR、HL也移动这样的游戏图像。由此,能够向用户US带来宛如驾驶真实车辆那样的虚拟现实感。
而且,在本实施方式的竞速游戏中,在沿线路的道具区域中配置有道具。例如在图6的(A)中,炸弹的道具BM安装于气球BAL,并出现在用户角色驾驶的车辆CP的前方。为了获得该道具BM,如图10的(B)所示,真实空间的用户US如A2所示那样使右手离开方向盘50,并如A3所示向上方抬起。该右手的位置和方向的信息通过跟踪装置250作为手的部位信息而获得。
当这样真实空间的用户US抬起手时,如图6的(A)所示,虚拟空间的用户角色也抬起手HR。即,如上所述,通过跟踪装置250检测用户US的手的位置、方向,并根据该检测结果使虚拟空间的手HR的位置、方向也变化。而且,在本实施方式中,在这样抬起的手HR的高度处配置有道具BM。即,在以图10的(A)那样的通常操纵状态(双手驾驶时)无法接触的位置,且以图10的(B)所示那样的非通常操纵状态时(单手驾驶时)能够接触的位置处配置有道具BM。
而且,在图6的(B)中,通过真实空间的用户US移动手,虚拟空间的用户角色的手HR移动,手HR靠近(接触)道具BM,从而成功获得道具BM。即,用户US通过进行道具获得动作而获得道具BM。此时,例如使用图像、声音或振动等,进行通知获得了道具BM的通知处理。然后,当这样成功获得了道具BM时,道具BM变为拥有状态,炸弹的道具BM与手HR呈一体地移动。例如,道具BM以追随用户角色的手HR(手的骨头)的动作的方式移动。例如,将道具BM登记为从属于手HR的部件对象。
成功获得了炸弹的道具BM的用户US进行例如图11的B1所示那样的道具使用动作。例如,进行以过肩投掷的姿势,从视点来看时从近前侧向里侧挥动手而投掷炸弹的动作。于是,如图7的(A)所示,在虚拟空间中,也进行用户角色的手HR投掷炸弹的道具BM的动作。例如,进行一边用左手HL握住方向盘ST,一边用右手HR投掷道具BM的动作。由此,炸弹的道具BM被投掷朝向敌方车辆CE飞去。即,执行道具使用处理。
然后,在图7的(B)中,由于投掷的炸弹的道具BM命中敌方车辆CE,因此,显示例如爆炸的效果EF的图像,对敌方车辆CE造成伤害。
另外,在图8的(A)中,出现了安装于气球BAL上的锤子的道具HM。而且,通过用户US进行道具获得动作,在图8的(B)中,成功通过手HR获得道具HM,道具HM变为拥有状态。即,宛如用手握住锤子一样,道具HM与手HR呈一体地移动。
然后,在图12的(A)中,如B2所示,用户US作为道具使用动作而进行纵向挥动手的动作。由此,如图9的(A)所示,在虚拟空间中,也进行用户角色的手HR握住锤子的道具HM并沿纵向挥动的动作。然后,在图9的(B)中,由于挥动的锤子的道具HM命中敌方车辆CE,因此,显示表示锤子命中的效果EF的图像,对敌方车辆CE造成伤害。
在这样的锤子的情况下,当如图12的(A)中的B2所示用户US纵向挥动了手时,在虚拟空间中也进行纵向挥动锤子的道具HM的动作(道具使用动作)。另一方面,当如图12的(B)中的B3所示用户US横向倾斜挥动了手时,在虚拟空间中也进行横向倾斜挥动锤子的道具HM摆动的动作。即,在用户US进行了朝向任意方向挥动的动作的情况下,都进行朝向对应的方向挥动道具HM的动作。
另一方面,在炸弹的情况下,仅在如图11所示以过肩投掷的姿势从近前侧向里侧纵向挥动手时,进行投掷炸弹的道具BM的动作。在例如侧掷那样横向挥动了手的情况下,不进行投掷炸弹的道具BM的动作。另外,例如仅在挥动手的速度为给定速度以上的情况下,进行投掷炸弹的道具BM的动作。这样,在本实施方式中,根据道具使用动作的动作方向、道具使用动作的强度(速度)、或者进行道具使用动作时的用户US的手HR(规定部位)的状态(位置、方向)等执行道具使用处理。例如,判断是否执行道具使用处理,或者设定执行处理的内容(级别)。
如以上那样,根据本实施方式的方法,用户能够获得宛如用自己的手获得真实的炸弹并掷向敌方车辆、或者用自己的手握住真实的锤子并拍打敌方车辆这样的虚拟现实感。例如,在本实施方式中,由于通过跟踪装置检测用户的手的动作,因此,真实空间中的用户的手的动作与虚拟空间中的用户角色的手的动作相互联动。因此,与使用键盘、鼠标或游戏控制器等的操作部件进行投掷炸弹的操作的方法相比,具有能够大幅提高虚拟现实感这一优点。
4.2道具的获得、使用
接着,对本实施方式的方法更为详细地进行说明。如在图5的(A)~图12的(B)中说明的那样,在本实施方式中,通过真实空间中呈通常操纵状态的用户例如将一只手放开方向盘50并进行道具获得动作,从而能够获得道具。该情况下,在本实施方式中,在用户的通常操纵状态时用户角色无法接触的场所设定道具区域(道具配置场所)。
例如在图13中,用户呈通常操纵状态,与用户对应的用户角色CH乘坐在车辆CP中,并在线路CS上行驶。而且,由于用户呈双手握住方向盘的通常操纵状态,因此,驾驶虚拟空间的车辆CP的用户角色CH也呈双手握住方向盘ST的通常操纵状态。该情况下,在图13中,配置有道具HM、BM的道具区域AR设定于用户呈通常操纵状态时用户角色CH无法接触的场所。即,由于用户角色CH的双手HR、HL握住方向盘ST,因此,只要真实空间的用户没有抬起手,用户角色CH也没有抬起手HR或HL,就不能触碰到道具区域AR的道具HM、BM。这样,在双手握住方向盘ST的通常操纵状态时,无法获得道具HM、BM,从而能够防止发生用户无意中获得道具HM、BM这样的不自然的事态。
例如,若用户未打算获得,但仅仅通过车辆CP在线路CS上行驶就能够获得道具HM、BM,则用户不能理解为什么能够获得道具HM、BM,从而导致用户的虚拟现实感降低。关于这一点,若将道具HM、BM配置于通常操纵状态下手够不到的地方,则能够防止用户无意中获得道具HM、BM而感到不自然的事态,从而能够提高虚拟现实感。此外,道具区域、道具的配置方法并不限定于图13的方法,例如也能够实施将道具区域或道具配置于通常操纵状态时也能够接触到的场所的变形。
而且,在本实施方式中,在判断为用户朝向道具的方向进行了道具的获得动作的情况下,进行使用户角色获得道具的处理。具体而言,在判断为用户移动规定部位而使与规定部位对应的用户角色的部位靠近(接触)了道具的情况下,判断为进行了道具获得动作。
例如,当图10的(A)的通常操纵状态的用户(US)将一只手放开方向盘50而向上方抬起时,判断为用户朝向道具的方向进行了道具的获得动作。该判断处理基于通过安装于用户的手上的跟踪装置250、260检测到的手的位置或方向等的部位信息(广义上为用户信息)而进行。然后,当这样用户抬起手时,如图6的(A)所示,虚拟空间的用户角色的手HR也向上方升高,从而能够获得道具BM。
而且,当如图14的(A)所示判断为用户角色的手HR靠近道具BM时,如图14的(B)所示判断为获得了道具BM。例如,在角色的手HR与道具BM的距离变为阈值以下的情况下,判断为获得了道具BM。更为具体而言,例如使用对道具BM设定的命中量等和对手HR设定的命中量等进行命中判定处理,在判定为命中的情况下,判断为获得了道具BM。该命中判定处理基于虚拟空间中的道具BM的位置信息和通过跟踪装置250、260检测到的用户的手的部位信息(位置、方向)而进行。
而且,当如图14的(B)所示获得了道具BM时,该道具BM被登记为用户角色的拥有道具,例如变为道具BM从属于手HR,手HR与道具BM一体化的拥有状态。另外,当获得了道具BM时,进行利用例如效果等的图像、效果音等的声音或者振动通知获得道具的通知处理。通过进行这样的通知处理,用户能够通过视觉、听觉或者触觉识别到获得了道具。
另外,在本实施方式中,在判断为在用户角色获得并拥有道具的状态下,用户例如使用规定部位进行了道具使用动作的情况下,执行道具使用处理。例如,在根据用户信息判断为在拥有道具的状态下,用户进行了规定动作的情况下,视为执行了道具使用处理。此时的道具使用动作是获得道具时所使用的手等的规定部位的动作。即,在利用作为规定部位的手获得了道具的情况下,判断是否通过该手进行了投掷道具等的道具使用动作。
例如,在图14的(C)中判断为进行了投掷道具这样的道具使用动作,在图14的(D)中判断为进行了挥动道具这样的道具使用动作。例如,在图6的(A)~图7的(B)的情况下,判断为进行了投掷炸弹的道具BM这样的道具使用动作。然后,执行炸弹的道具BM朝向敌方车辆CE飞去、或者命中敌方车辆CE而产生爆炸的效果EF、或者对敌方车辆CE造成伤害等的道具使用处理。另外,在图8的(A)~图9的(B)的情况下,判断为进行了挥动锤子的道具HM这样的道具使用动作。然后,执行锤子的道具HM以敌方车辆CE为目标而被挥动、或者命中敌方车辆CE而产生爆炸的效果EF、或者撞到锤子而使敌方车辆CE因为冲击旋转等的道具使用处理。
该情况下,在本实施方式中,根据道具使用动作的动作方向、道具使用动作的强度、道具的种类、道具使用动作时的用户的视线信息、或者进行道具使用动作的用户的手(规定部位)的状态等,判断有无执行道具使用处理,或者设定道具使用处理的执行内容并执行道具使用处理。例如,在图6的(A)~图7的(B)的炸弹的道具BM的情况下,当如图11那样用户的手的动作方向为过肩投掷的方向,且作为道具使用动作的强度的投掷时的释放速度在规定速度以上时,执行投掷炸弹的道具BM这样的道具使用处理。另一方面,在图8的(A)~图9的(B)的锤子的道具HM的情况下,锤子的道具HM朝向与图12的(A)、(B)所示那样的用户的手的动作方向对应的方向挥动。该情况下,即使作为道具使用动作的强度的挥动速度慢,锤子的道具HM也以该较慢的速度挥动。即,根据道具的种类(炸弹、锤子)而判断有无执行道具使用处理、或者设定道具使用处理的执行内容并执行道具使用处理。或者,如果是例如转弯飞行这样的种类的道具,则在道具使用处理时,使道具在弯曲的轨道上移动。另外,如果是如香蕉那样使敌方车辆打滑的种类的道具,则当将该道具投掷至敌方车辆前方时,执行使敌方车辆打滑这样的道具使用处理。
在图6的(A)~图7的(B)的炸弹的道具BM的情况下,也反映投掷道具BM这样的道具使用动作时的用户的视线信息,并执行道具使用处理。例如,若用户一边使视线朝向上方一边进行投掷的动作,则道具BM被呈抛物线状朝向上方投掷。此时的用户的视线信息通过HMD200的跟踪处理而获得。另外,在图6的(A)~图7的(B)的炸弹的道具BM的情况下,还判断投掷时的手的位置、方向等的状态。例如,以如图11所示用户使手掌朝向正面侧为条件,判断为进行了投掷道具的道具使用动作,并执行道具使用处理。即,以手掌朝向投掷的方向侧为条件,执行投掷道具这样的道具使用处理。在这样根据各种条件或信息执行道具使用处理的情况下,能够实现更加接近于现实世界的现象的道具使用处理,从而能够提高用户的虚拟现实感。
此外,在本实施方式中,与用户的规定部位对应的用户角色的部位(部位对象、部件对象)的位置、方向等的部位信息通过跟踪装置250、260检测,并显示在与检测位置对应的虚拟空间的位置上。具体而言,作为用户信息而获得包含手等规定部位的位置信息及方向信息中的至少一方的部位信息,根据所获得的部位信息将与规定部位对应的用户角色的部位配置设定于虚拟空间中。然后,执行显示配置设定于虚拟空间中的部位的处理。例如,当在图10的(A)中用户左右操纵方向盘50时,与其相应地,显示如图5的(A)、(B)所示与用户的手对应的用户角色的手HR、HL(广义上为部位)左右操纵方向盘ST的图像。另外,当用户进行用手投掷炸弹的动作时,与其相应地,显示如图6的(B)~图7的(A)所示用户角色的手HR(疑似的手)投掷炸弹的道具BM的图像。另外,当用户进行用手挥动锤子的动作时,与其相应地,显示如图8的(B)~图9的(A)所示用户角色的手HR挥动锤子的道具HM的图像。这样,由于用户的手与虚拟空间的用户角色的手相联动地移动,因而能够进一步提高用户的虚拟现实感。
另外,在本实施方式中,在用户角色获得并拥有道具的状态下,当给定条件成立时,解除用户角色的道具拥有状态。例如,在道具的拥有状态之后,用户恢复为通常操纵状态(基本姿势状态)的情况下,解除道具拥有状态。或者,在道具拥有状态之后,经过了给定时间、或者发生了特定的游戏状况(移动体的碰撞、旋转或者跳跃等)时,解除道具拥有状态。
例如,在图15的(A)中,用户从双手握住方向盘进行操纵的通常操纵状态,进行使一只手放开方向盘而获得、拥有道具的动作。然后,在该拥有状态下进行道具的使用动作。
另一方面,在图15的(B)中,在从通常操纵状态起用一只手获得、拥有了道具之后,再次恢复为通常操纵状态。当这样恢复为通常操纵状态时,道具的拥有状态被解除,例如道具消失、或者不显示道具。由此,用户无法使用所获得、拥有的道具。
这样,用户只有在从通常操纵状态使手放开方向盘,并拥有道具时才能使用道具。而且,例如在用户为了集中驾驶而恢复为双手握住方向盘的通常操纵状态时,道具的拥有状态自动被解除,能够提高用户的便利性。或者,在获得、拥有道具之后,经过了给定时间(例如5秒~10秒)时,道具的拥有状态被解除,道具消失或者不显示。或者,例如在由于攻击或碰撞、或者与墙壁碰撞等而导致车辆成为旋转状态等这样的游戏状况的情况下,道具的拥有状态也被解除。另外,例如在敌方车辆跳跃时,道具命中,使敌方车辆成为旋转状态等的情况下,有可能使敌方车辆的用户产生所谓的3D眩晕。因此,在这样的游戏状况的情况下,也解除道具的拥有状态,使得道具无法使用。
需要说明的是,也可以使拥有状态被解除的道具变为暂时不可使用并加以储存。例如,以与用户角色的手等部位的连结被解除,但能够再次使用的方式储存该道具。而且,例如也可以在满足了使用许可条件时,执行所储存的道具的使用处理。
另外,在本实施方式中,进行将用户的通常操纵状态下的用户信息存储于存储部170的处理。例如,在游戏开始前的初始设定时进行存储通常操纵状态的姿势下的用户信息的处理。例如,在游戏开始时,设施的操作人员等如图16所示指示用户双手握住方向盘50。具体而言,指示以连结右手与左手的线通过方向盘50的中心的方式握住。然后,将在用户采取这样的通常操纵状态的姿势的状态下,通过跟踪装置250、260检测到的手的位置、方向等的部位信息,作为初始设定信息存储至存储部170(初始设定信息存储部174)中。该手的位置、方向等例如是图2的(B)中利用基站280、284检测的坐标空间中的位置、方向等。
这样,能够根据所存储的部位信息,容易地判断用户是否为通常操纵状态。由此,能够通过简单的处理来判断用户是否将手放开方向盘50而不再是通常操纵状态、或者在道具的拥有状态的解除处理中用户是否恢复为通常操纵状态等。另外,例如也可以以根据所存储的部位信息判断为用户呈通常操纵状态为条件,生成例如图5的(A)、(B)所示虚拟空间的用户角色使握住方向盘ST的手HR、HL与真实空间中的用户对方向盘50的操作相联动地进行动作这样的图像。
例如,在图4的可动框体30中,能够使移动部40沿E1的方向前后移动。由此,用户能够将方向盘50转至自己希望的位置。在这样通过移动部40进行了调整的情况下,若如图16所示通过安装于用户的手上的跟踪装置250、260作为部位信息而检测出手的位置等,则也能够适当地检测出通常操纵状态下的用户的右、左手的位置,并作为初始设定信息进行存储。即,也可以不用调整位置检测用的其他传感器来检测通过移动部40进行了怎样的调整。
另外,在本实施方式中,由于是通过跟踪装置250、260检测用户的右、左手的部位信息,并进行道具获得等的判断处理,因此,具有无需考虑用户的惯用手等情况的优点。例如,即使是同为右撇子的用户,既有在进行道具的获得时一边用左手握住方向盘50一边用右手获得道具的用户,也有一边用右手握住方向盘50一边用左手获得道具的用户。因此,例如在游戏开始前由设施的操作人员询问用户的惯用手的方法中,无法适当地判断用户想要用哪只手来获得道具。
关于这一点,在图16中,使用安装于用户的右、左手的跟踪装置250、260来判定用户的道具获得动作等。例如,对于想要一边用左手握住方向盘50一边用右手获得道具的用户,能够使用安装于右手的跟踪装置250判定通过右手进行了道具获得动作等。另一方面,对于想要一边用右手握住方向盘50一边用左手获得道具的用户,能够使用安装于左手的跟踪装置260判定通过左手进行了道具获得动作。因此,即使不考虑用户的惯用手等的情况,也能够进行适当的判定处理。
另外,在本实施方式中,如图10的(A)~图12的(B)所示,用户以覆盖视野的方式佩戴HMD200,作为该HMD200的显示图像,显示图5的(A)~图9的(B)所示那样的游戏图像。这样,由于用户以覆盖视野的方式佩戴HMD200,因此,跟踪装置250、260被HMD200遮挡而用户看不到。因此,即使在自身的手上安装有跟踪装置250、260,用户也不会感到不自然,具有在埋头于游戏时会忘记了跟踪装置250、260的存在这一优点。这意味着,在使用HMD200的系统中,通过跟踪装置250、260检测手的位置等并进行道具的获得处理等的方法是有效的。
另外,由于视野被HMD200覆盖的用户无法看到真实空间的方向盘50,因此,也有可能将手磕在方向盘50上。关于这一点,在本实施方式中,如图5的(A)、(B)等所示,将与真实空间的方向盘50对应的虚拟空间的方向盘ST、与真实空间的用户的手对应的用户角色的手HR、HL显示于HMD200中。并且,该显示处理如利用图16所说明那样,根据通常操纵状态下存储的手的部位信息而进行。因此,真实空间的方向盘50位于与虚拟空间的方向盘ST的位置对应的位置处,因此,能够防止一边观察HMD200的显示图像一边玩游戏的用户误将手磕在方向盘50上这样的事态。
另外,在本实施方式中,在用户角色获得道具时,进行使道具朝向移动体的移动方向移动的处理。例如在图6的(A)中,用户角色搭乘于在虚拟空间的线路上行驶的车辆CP(移动体)上,因此,用户角色的手HR也以与车辆CP的速度相同的速度移动。因此,产生道具BM相对于手HR的相对速度变快,难以获得道具BM这样的事态。
因此,在本实施方式中,如图17的(A)所示,在利用手HR获得道具BM时,进行使道具BM朝向车辆CP的移动方向移动的处理。例如,在车辆CP的移动速度为VA,用户角色的手HR以速度VA移动的情况下,进行例如以VI≤VA的速度使道具BM移动的移动处理。例如,在手HR与道具BM的距离变为给定距离以下时,开始该移动处理。这样,例如能够像接力赛那样使道具BM相对于手HR的相对速度变慢,因此,如图17的(B)所示,用户能够容易地获得道具BM。由此,能够防止用户很难获得道具BM,从而无法享受游戏或投入游戏中这样的事态。
此外,关于在获得道具时使道具BM以速度VI移动的移动处理中的速度VI的设定,能够采用各种方法。例如,也可以是对于初级玩家而言,减小速度VI与速度VA之差而使道具的获得变得容易,另一方面,对于高级玩家而言,增大速度VI与速度VA之差而使道具的获得变得困难。例如,根据速度VI进行游戏操作的障碍设定。或者,也可以准备使速度VI可变地变化这样的特定的道具等。或者,也可以采用在获得道具时,使道具BM朝向与手HR的移动方向相反的方向移动,使道具的获得变得非常困难这样的方法。
另外,在本实施方式中,进行使用户角色获得并变为拥有状态的道具追随移动体的移动而移动的处理。例如,在图17的(C)中,用户角色CH获得了道具BM并变为拥有状态。该情况下,道具BM也随着用户角色CH所搭乘的车辆CP的移动而移动。例如,道具BM与用户角色CH的手HR相连而与手HR成为一体。例如,在车辆CP的局部坐标系的位置设定道具BM的位置。由此,当虚拟空间的车辆CP在线路上移动时,道具BM也随着该移动而移动。而且,例如也可以使用如图6的(B)所示用户角色CH获得了道具BM的手HR,实现如图7的(A)、(B)所示那样投掷炸弹的道具BM这样的道具使用处理。另外,也可以使用如图8的(B)所示用户角色CH获得了道具HM的手HR,实现如图9的(A)、(B)所示那样以敌方车辆CE为目标而挥动锤子的道具BM这样的道具使用处理。
另外,在本实施方式中,在移动体移动的线路上设定了道具区域。例如,在上述的图13中,沿着作为移动体的车辆CP移动的路线CS设定道具区域AR。这样,在如竞速游戏那样使车辆沿着线路移动的游戏中,不仅能够附加车辆的操纵、与敌方车辆的竞争的乐趣要素,还能够附加获得道具的乐趣要素,从而能够增加游戏的趣味性。
另外,在本实施方式中,也可以根据用户的身体信息设定道具的配置场所。
例如,在图18的(A)中,在真实空间中,大人用户USA搭乘在可动框体30(游戏壳体)中玩游戏。该情况下,如图18的(B)所示,在虚拟空间中,将道具HM、BM(道具区域AR)的配置场所设定在较高的位置处。这样,在身高较高的大人用户USA抬起手的场所配置道具HM、BM,从而用户USA能够获得这些道具HM、BM。
另一方面,在图18的(C)中,在真实空间中,儿童用户USC搭乘在可动框体30中玩游戏。该情况下,如图18的(D)所示,在虚拟空间中,将道具HM、BM(道具区域AR)的配置场所设定在比图18的(B)低的位置处。这样,在身高较低的儿童用户USC抬起手的场所配置道具HM、BM,从而用户USC能够获得这些道具HM、BM。这样,在根据用户的身高、体格等的身体信息配置道具的情况下,能够在与用户的身高等对应的适当场所配置道具,从而用户能够获得该道具。
此外,用户的身体信息例如既可以在游戏开始前通过用户告知等方式手动输入,也可以通过例如传感器等自动识别用户的身高、体格等身体信息。
4.3变形例
接着,对本实施方式的变形例进行说明。例如,在图4~图18的(D)中,对将本实施方式的方法应用于与用户对应的用户角色搭乘于车辆等移动体的游戏的情况进行了说明,但本实施方式并不限定于此。例如,在如FPS或RPG的游戏等那样,不搭乘移动体而以用户角色的第一人称视点进行的这样的游戏中,也能够应用本实施方式的方法。
图19是在这样的游戏中使用的场地的说明图。在该游戏中,在现实世界的设施等中准备场地FL(游戏场地、游戏区域、游戏空间),用户US1~US4在该场地FL中移动。场地FL中设置有通过墙壁等实现的隔断WL。
用户US1~US4佩戴HMD1~HMD4,并持有枪型控制器GN1~GN4(广义上为控制器)。另外,用户US1~US4例如在右手安装有跟踪装置SR1~SR4,在左手也安装有未图示的跟踪装置。通过使用这些跟踪装置,能够确定用户US1~US4的右手、左手的位置、方向等。进而,用户US1~US4例如在后背上安装有未图示的处理装置(背包PC)。这些用户US1~US4例如为了团队对战游戏而组成队伍(广义上的群组)。HMD1~HMD4映出虚拟空间中的影像,用户US1~US4一边观看该影像一边玩对战游戏等的游戏。
图20是在这样的游戏中显示在HMD上的游戏图像的例子。例如,图20是图19的用户US1的HMD1上显示的游戏图像的例子,显示有与用户US1对应的用户角色MV1(用户虚拟形象)的手和所持的枪GV1。另外,显示有与己方队伍的用户US2、US3对应的用户角色MV2、MV3、以及与敌方队伍的用户对应的用户角色MB1、MB2、MB3。己方队伍的用户角色MV1、MV2、MV3利用所持的枪GV1、GV2、GV3攻击敌方一侧,敌方队伍的用户角色MB1、MB2、MB3利用所持的枪GB1、GB2、GB3进行攻击。
而且,在本实施方式中,在这样的游戏中,根据包含用户的位置信息、方向信息以及姿势信息中的至少一方的用户信息(部位信息)来判断用户是否进行了道具的获得动作,在判断为进行了道具获得动作的情况下,进行使用户角色获得道具的处理。而且,在根据用户信息(部位信息)判断为在用户角色获得并拥有道具的状态下,用户进行了道具使用动作的情况下,执行道具使用处理。
例如,在图21的(A)中,处于基本姿势状态的用户US正在进行抬起手以获得道具的道具获得动作。该手的道具获得动作能够根据来自安装于手上的跟踪装置SL的部位信息(用户信息)进行检测。然后,通过这样的用户US抬起手的道具获得动作,如图21的(B)所示,作为用户US的分身的用户角色MV在虚拟空间中获得炸弹的道具BM。由此,道具BM变为被用户角色MV拥有的状态。
而且,在这样用户角色MV获得并拥有道具BM的状态下,如图22的(A)所示,用户US进行道具使用动作。即,进行将手从近前侧向前方侧挥动而投掷的动作。该道具使用动作能够根据来自安装于手上的跟踪装置SL的部位信息(用户信息)进行检测。由此,虚拟空间的用户角色MV投掷手中所持的道具BM,从而执行道具使用处理。例如,当炸弹的道具BM命中敌方时,执行显示炸弹爆炸的效果、或者对敌方造成伤害的道具使用处理。
这样,在图21的(A)~图22的(B)中,当用户移动一只手来进行道具的获得动作,并使用该一只手进行道具的使用动作时,执行用户角色MV用一只手获得道具,并利用该一只手投掷道具并击中敌方的道具使用处理。而且,此时的道具获得动作、道具使用动作的检测根据通过跟踪装置检测到的部位信息(用户信息)进行。因此,能够向用户带来宛如在现实世界中进行了获得并使用炸弹等道具这样的一系列动作的真实的虚拟现实感。即,在通过佩戴HMD而在用户的视野中扩展的VR空间中,能够实现好像用手采取真物的炸弹那样的虚拟现实感。
另外,在本实施方式中,根据用户信息判断基本姿势状态的用户是否进行了道具的获得动作,并在判断为进行了道具获得动作的情况下,进行使用户角色获得道具的处理。然后,在判断为在用户角色获得并拥有道具之后,用户恢复为基本姿势状态的情况下,进行解除用户角色的道具拥有状态的处理。
例如,在本实施方式中,如上述的图21的(A)、(B)所示,当判断为用户US进行了道具的获得动作时,进行使用户角色MV获取道具BM的处理。而且,假设在这样用户角色MV获得并拥有道具BM之后,如图23的(A)所示用户US恢复为基本姿势状态。即,恢复为不进行道具的获得的通常的基本姿势状态。该基本姿势状态(通常姿势状态)是一只手拿着枪型控制器GN,而另一只手没有拿任何东西而放置在身体前方的状态。这样,当用户US恢复为基本姿势状态时,如图23的(C)所示,在虚拟空间中,用户角色MV对道具BM的拥有状态被解除。即,道具BM消失而变为不显示,用户角色MV无法使用道具BM。
这样,仅在用户从基本姿势状态进行抬起手等的道具获得动作,并拥有道具的状态时,才能使用道具。并且,例如若用户没有使用道具的意愿而恢复为基本姿势状态,则自动解除道具的拥有状态,从而能够提高用户的便利性。此外,也可以在获得道具之后经过了给定期间的情况下、或者变为特定的游戏状况的情况下,解除道具的拥有状态。另外,道具的拥有状态的解除处理也可以是暂时解除用户角色的手等部位与道具之间的连结,并将该道具储存在储存场所的处理。而且,例如也可以是在限制时间内用户再次抬起手等满足了给定的使用许可条件的情况下,能够使用所储存的道具。
4.4详细处理
接着,使用图24、图25的流程图对本实施方式的详细处理例进行说明。
图24是表示本实施方式的整体处理的概要的流程图。首先,将用双手握住方向盘的状态下的用户的手的部位信息作为初始设定信息进行存储(步骤S1)。即,如利用图16所说明那样,进行将通常操纵状态(基本姿势状态)下的手的部位信息存储至存储部170的处理。接着,判断游戏是否已开始(步骤S2),当游戏已开始时,根据操作信息或跟踪信息执行游戏处理(步骤S3)。然后,将通过游戏处理生成的图像显示在HMD上(步骤S4)。例如,生成图5的(A)~图9的(B)所示那样的游戏图像并显示于HMD上。然后,判断游戏是否已结束(步骤S5),当游戏已结束时,结束处理。
图25是表示道具的获得处理、使用处理的详细情况的流程图。首先,获取放开方向盘的用户的手的部位信息(步骤S11)。例如,在图10的(B)中,通过安装于用户的手上的跟踪装置250、260获取手的部位信息。然后,进行与用户的手对应的用户角色的手与道具的命中判定处理(步骤S12)。即,进行利用图14的(A)所说明那样的命中判定处理。然后,判断手是否命中了道具(步骤S13),当命中时,将道具登记为用户角色的手的一部分,从而获得并拥有道具(步骤S14)。即,如图14的(B)所示,进行获得并拥有道具的处理。此时,也进行获得道具的通知处理。
接着,判断是否进行了道具的使用动作(步骤S15)。例如,根据通过跟踪装置250、260检测到的部位信息,判断是否进行了图14的(C)、(D)所示那样的使用动作。然后,根据道具使用动作的动作方向、强度、道具的种类、道具使用动作时的用户的视线信息或者手的部位的状态,设定道具使用处理的执行内容,并执行道具使用处理(步骤S16)。例如,进行使道具移动、或者显示道具命中而产生的效果的图像、或者因为道具命中而对敌方造成伤害等的处理。然后,判断用户是否恢复为通常操纵状态(步骤S17),当恢复为通常操纵状态时,解除道具的拥有(步骤S19)。另外,判断是否经过了规定时间(步骤S18),当经过了规定时间时,解除道具的拥有(步骤S19)。
此外,以上对本实施方式详细进行了说明,但是,本领域技术人员可以容易地理解,能够实施实质上不脱离本发明的新规事项和效果的多种变形。因此,这样的变形例全部包含在本发明的范围内。例如,在说明书或附图中,至少一次与更广义或同义的不同用语(规定部位、移动体、用户信息、基本姿势状态等)一同记载的用语(手、车辆、部位信息、通常操纵状态等),在说明书或附图的任何地方均可替换为该不同的用语。另外,模拟系统的构成、可动框体的构成、结构、虚拟空间的设定处理、道具区域或道具的配置设定处理、移动体的移动处理、游戏处理、显示处理、道具的获得处理、使用处理等也不限定于本实施方式中所说明那样,与之均等的方法、处理以及构成也包含在本发明的范围内。另外,本发明能够适用于各种游戏。另外,本发明能够适用于商业用游戏装置、家庭用游戏装置、或者多个用户参加的大型游乐设施系统等的各种模拟系统。
附图标记说明
US...用户;CH;MV...用户角色;ST...方向盘;
HL;HR...手;CP...车辆;CE...敌方车辆;
AR...道具区域;BM;HM...道具;
CS...线路;FL...场地;BAL...气球;EF...效果;
30...可动框体;32...底部;33...罩部;34...基座部;
SL;SL1~SL4...跟踪装置;
40...移动部;
50...方向盘;52...加速踏板;54...制动踏板;
60...乘坐部;62...座椅;80...送风机;
100...处理部;102...输入处理部;110...运算处理部;
111...信息获取部;112...虚拟空间设定部;113...移动体处理部;
114...虚拟相机控制部;115...游戏处理部;116...通知处理部;
117...控制部;120...显示处理部;130...声音处理部;
140...输出处理部;150...拍摄部;151;152...相机;
160...操作部;170...存储部;172...对象信息存储部;
174...初始设定信息存储部;178...描绘缓冲器;
180...信息存储介质;192...声音输出部;194...I/F部;
195...便携式信息存储介质;196...通信部;
200...HMD(头部佩戴式显示装置);201~203...受光元件;
210...传感器部;220...显示部;231~236...发光元件;
240...处理部;250;260...跟踪装置;
251~254;261~264...受光元件;255;256;265;266...发光元件;
280;284...基站;
281;282;285;286...发光元件。

Claims (17)

1.一种模拟系统,其特征在于,包括:
信息获取部,获取包括用户的位置信息、方向信息以及姿势信息中的至少一方的用户信息;
虚拟空间设定部,进行虚拟空间的设定处理;
移动体处理部,进行使与所述用户对应的用户角色所搭乘的移动体在所述虚拟空间中移动的处理;
游戏处理部,进行所述虚拟空间中的游戏的处理;以及
显示处理部,生成所述虚拟空间中的图像作为向所述用户显示的显示图像,
所述虚拟空间设定部在所述用户的通常操纵状态时所述用户角色无法接触的场所设定道具区域,
所述游戏处理部根据所述用户信息判断所述用户是否朝向所述道具区域的道具的方向进行了道具获得动作,在判断为进行了所述道具获得动作的情况下,进行使所述用户角色获得所述道具的处理。
2.根据权利要求1所述的模拟系统,其特征在于,
所述游戏处理部根据所述用户信息判断基本姿势状态的所述用户是否进行了所述道具获得动作,在判断为进行了所述道具获得动作的情况下,进行使所述用户角色获得所述道具的处理,在判断为在所述用户角色获得并拥有所述道具之后所述用户恢复为所述基本姿势状态的情况下,解除所述用户角色的道具拥有状态。
3.根据权利要求1所述的模拟系统,其特征在于,
所述游戏处理部进行使所述用户的所述通常操纵状态下的所述用户信息存储至存储部的处理。
4.根据权利要求1所述的模拟系统,其特征在于,
所述虚拟空间设定部针对所述移动体所移动的线路设定所述道具区域。
5.根据权利要求1至4中任一项所述的模拟系统,其特征在于,
所述游戏处理部在判断为所述用户进行了移动规定部位的动作并与所述规定部位对应的所述用户角色的部位靠近了所述道具的情况下,判断为进行了所述道具获得动作。
6.根据权利要求5所述的模拟系统,其特征在于,
所述游戏处理部在根据所述用户信息判断为在所述用户角色获得并拥有所述道具的状态下所述用户使用所述规定部位进行了道具使用动作的情况下,执行道具使用处理。
7.根据权利要求5所述的模拟系统,其特征在于,
所述信息获取部获取包含所述规定部位的位置信息及方向信息中的至少一方的部位信息作为所述用户信息,
所述虚拟空间设定部根据所述部位信息将与所述规定部位对应的所述用户角色的所述部位配置设定于所述虚拟空间,
所述显示处理部进行显示被配置设定于所述虚拟空间的所述部位的处理。
8.根据权利要求1至4中任一项所述的模拟系统,其特征在于,
所述移动体处理部在所述用户角色获得所述道具时进行使所述道具朝向所述移动体的移动方向移动的处理。
9.根据权利要求1至4中任一项所述的模拟系统,其特征在于,
所述移动体处理部进行使被所述用户角色获得而变为拥有状态的所述道具追随所述移动体的移动而移动的处理。
10.根据权利要求1至4中任一项所述的模拟系统,其特征在于,
所述游戏处理部在根据所述用户信息判断为在所述用户角色获得并拥有所述道具的状态下所述用户进行了道具使用动作的情况下,执行道具使用处理。
11.根据权利要求10所述的模拟系统,其特征在于,
所述游戏处理部根据所述道具使用动作的动作方向、所述道具使用动作的强度、所述道具的种类、所述道具使用动作时的所述用户的视线信息、以及进行所述道具使用动作的所述用户的规定部位的状态中的至少一方,执行所述道具使用处理。
12.根据权利要求1至4中任一项所述的模拟系统,其特征在于,
所述游戏处理部在所述用户角色获得并拥有所述道具的状态下给定的条件成立的情况下,解除所述用户角色的道具拥有状态。
13.根据权利要求1至4中任一项所述的模拟系统,其特征在于,
在获得了所述道具的情况下,所述游戏处理部进行通过图像、声音或振动来通知获得了所述道具这一情况的通知处理。
14.根据权利要求1至4中任一项所述的模拟系统,其特征在于,
所述虚拟空间设定部根据所述用户的身体信息设定所述道具的配置场所。
15.根据权利要求1至4中任一项所述的模拟系统,其特征在于,
作为所述显示图像,所述显示处理部生成所述用户以覆盖视野的方式佩戴的头部佩戴式显示装置的显示图像。
16.一种图像处理方法,其特征在于,进行如下处理:
信息获取处理,获取包括用户的位置信息、方向信息以及姿势信息中的至少一方的用户信息;
虚拟空间设定处理,进行虚拟空间的设定处理;
移动体处理,进行使与所述用户对应的用户角色所搭乘的移动体在所述虚拟空间中移动的处理;
游戏处理,进行所述虚拟空间中的游戏的处理;以及
显示处理,生成所述虚拟空间中的图像作为向所述用户显示的显示图像,
所述虚拟空间设定处理中,在所述用户的通常操纵状态时所述用户角色无法接触的场所设定道具区域,
在所述游戏处理中,根据所述用户信息判断所述用户是否朝向所述道具区域的道具的方向进行了道具获得动作,在判断为进行了所述道具获得动作的情况下,进行使所述用户角色获得所述道具的处理。
17.一种计算机可读取的信息存储介质,其特征在于,
存储使计算机作为信息获取部、虚拟空间设定部、移动体处理部、游戏处理部以及显示处理部发挥作用的程序,
所述信息获取部获取包括用户的位置信息、方向信息以及姿势信息中的至少一方的用户信息,
所述虚拟空间设定部进行虚拟空间的设定处理,
所述移动体处理部进行使与所述用户对应的用户角色所搭乘的移动体在所述虚拟空间中移动的处理,
所述游戏处理部进行所述虚拟空间中的游戏的处理,
所述显示处理部生成所述虚拟空间中的图像作为向所述用户显示的显示图像,
所述虚拟空间设定部在所述用户的通常操纵状态时所述用户角色无法接触的场所设定道具区域,
所述游戏处理部根据所述用户信息判断所述用户是否朝向所述道具区域的道具的方向进行了道具获得动作,在判断为进行了所述道具获得动作的情况下,进行使所述用户角色获得所述道具的处理。
CN201880038784.3A 2017-06-12 2018-06-07 模拟系统、图像处理方法以及信息存储介质 Active CN110769906B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-115421 2017-06-12
JP2017115421A JP6957218B2 (ja) 2017-06-12 2017-06-12 シミュレーションシステム及びプログラム
PCT/JP2018/021916 WO2018230443A1 (ja) 2017-06-12 2018-06-07 シミュレーションシステム、画像処理方法及び情報記憶媒体

Publications (2)

Publication Number Publication Date
CN110769906A CN110769906A (zh) 2020-02-07
CN110769906B true CN110769906B (zh) 2023-06-20

Family

ID=64660746

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880038784.3A Active CN110769906B (zh) 2017-06-12 2018-06-07 模拟系统、图像处理方法以及信息存储介质

Country Status (5)

Country Link
US (1) US11090554B2 (zh)
JP (1) JP6957218B2 (zh)
CN (1) CN110769906B (zh)
GB (1) GB2577464A (zh)
WO (1) WO2018230443A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10635895B2 (en) * 2018-06-27 2020-04-28 Facebook Technologies, Llc Gesture-based casting and manipulation of virtual content in artificial-reality environments
CN111314730A (zh) * 2020-02-25 2020-06-19 广州华多网络科技有限公司 视频直播的虚拟资源寻找方法、装置、设备及存储介质
CN111277890B (zh) * 2020-02-25 2023-08-29 广州方硅信息技术有限公司 虚拟礼物的获取方法和三维全景直播间的生成方法
CN111760275A (zh) * 2020-07-08 2020-10-13 网易(杭州)网络有限公司 游戏控制方法、装置和电子设备
US11836301B2 (en) * 2021-08-10 2023-12-05 Qualcomm Incorporated Electronic device for tracking objects
WO2023028687A1 (en) * 2021-09-03 2023-03-09 Dreamcraft Attractions Ltd. System and method for integrating real-world props into virtual reality amusement attractions
WO2024116465A1 (ja) * 2022-11-28 2024-06-06 株式会社Subaru 情報伝達装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0246059B2 (ja) * 1982-11-25 1990-10-12 Mitsubishi Petrochemical Co Puropirenkeijushiseikeihinnohyomenshorihoho
JP2739458B2 (ja) * 1995-09-07 1998-04-15 ニューロング株式会社 身体移動装置
JPH11309269A (ja) 1998-04-27 1999-11-09 Sony Corp ゲーム装置、シミュレーション装置及びゲーム画像表示方法
CN102580314B (zh) * 2006-05-04 2015-05-20 美国索尼电脑娱乐公司 获得用于控制游戏程序的运行的输入
JP5184384B2 (ja) * 2009-01-05 2013-04-17 株式会社ソニー・コンピュータエンタテインメント 制御システムおよび制御方法
US8487938B2 (en) * 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US9098873B2 (en) * 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US8736583B2 (en) * 2011-03-29 2014-05-27 Intel Corporation Virtual links between different displays to present a single virtual object
JP5788275B2 (ja) 2011-09-14 2015-09-30 株式会社バンダイナムコエンターテインメント ゲーム装置、ゲームシステム、プログラム、情報記憶媒体及びサーバシステム
JP6121181B2 (ja) * 2013-02-05 2017-04-26 株式会社バンダイナムコエンターテインメント ゲームシステム及びプログラム
JP6206099B2 (ja) * 2013-11-05 2017-10-04 セイコーエプソン株式会社 画像表示システム、画像表示システムを制御する方法、および、頭部装着型表示装置
US9987554B2 (en) * 2014-03-14 2018-06-05 Sony Interactive Entertainment Inc. Gaming device with volumetric sensing
JP2016192029A (ja) * 2015-03-31 2016-11-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP5996138B1 (ja) * 2016-03-18 2016-09-21 株式会社コロプラ ゲームプログラム、方法およびゲームシステム
CN106730811B (zh) * 2016-12-07 2018-09-07 腾讯科技(深圳)有限公司 一种vr场景下的道具运动处理方法和装置
JP2019109849A (ja) * 2017-12-20 2019-07-04 セイコーエプソン株式会社 透過型頭部装着型表示装置、表示制御方法、およびコンピュータープログラム

Also Published As

Publication number Publication date
US20200108308A1 (en) 2020-04-09
JP6957218B2 (ja) 2021-11-02
WO2018230443A1 (ja) 2018-12-20
JP2019000171A (ja) 2019-01-10
CN110769906A (zh) 2020-02-07
GB2577464A (en) 2020-03-25
GB202000258D0 (en) 2020-02-26
US11090554B2 (en) 2021-08-17

Similar Documents

Publication Publication Date Title
CN110769906B (zh) 模拟系统、图像处理方法以及信息存储介质
JP6754678B2 (ja) シミュレーションシステム及びプログラム
CN109478340B (zh) 模拟系统、处理方法以及信息存储介质
JP6714791B2 (ja) シミュレーションシステム及びプログラム
JP7142853B2 (ja) シミュレーションシステム及びプログラム
JP6719308B2 (ja) シミュレーションシステム及びプログラム
JP6761340B2 (ja) シミュレーションシステム及びプログラム
JP6712423B2 (ja) シミュレーションシステム
JP6774260B2 (ja) シミュレーションシステム
JP7071823B2 (ja) シミュレーションシステム及びプログラム
JP6849317B2 (ja) ゲームシステム
CN112104857A (zh) 图像生成系统、图像生成方法及信息存储介质
JP6425846B1 (ja) プログラム、情報処理装置、及び情報処理方法
JP2019202061A (ja) シミュレーションシステム及びプログラム
JP2018171320A (ja) シミュレーションシステム及びプログラム
JP6918189B2 (ja) シミュレーションシステム及びプログラム
JP6545761B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2022113745A (ja) ゲームプログラム、ゲームシステム、及び自動運転車

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant