CN109478345B - 模拟系统、处理方法及信息存储介质 - Google Patents

模拟系统、处理方法及信息存储介质 Download PDF

Info

Publication number
CN109478345B
CN109478345B CN201780043391.7A CN201780043391A CN109478345B CN 109478345 B CN109478345 B CN 109478345B CN 201780043391 A CN201780043391 A CN 201780043391A CN 109478345 B CN109478345 B CN 109478345B
Authority
CN
China
Prior art keywords
display
user
processing
distance range
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780043391.7A
Other languages
English (en)
Other versions
CN109478345A (zh
Inventor
柿沢高弘
相田优
三浦修介
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Publication of CN109478345A publication Critical patent/CN109478345A/zh
Application granted granted Critical
Publication of CN109478345B publication Critical patent/CN109478345B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/18Training appliances or apparatus for special sports for skiing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/807Gliding or sliding on surfaces, e.g. using skis, skates or boards
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/0638Displaying moving images of recorded environment, e.g. virtual environment
    • A63B2071/0644Displaying moving images of recorded environment, e.g. virtual environment with display speed of moving landscape controlled by the user's performance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8041Skating using skis, skates or board
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种模拟系统、处理方法及信息存储介质,模拟系统包括:移动体处理部,进行使与佩戴HMD的用户对应的移动体在虚拟空间中移动的处理;虚拟摄像头控制部,响应移动体的移动而进行移动的虚拟摄像头进行控制;以及显示处理部,在虚拟空间中生成从虚拟摄像头能够看到的图像而作为头部佩戴式显示装置的显示图像。显示处理部与处于距虚拟摄像头的给定距离范围内的显示物相比,针对处于比给定距离范围远的距离范围内的显示物的图像进行模糊处理而作为晕眩防止用的图像效果处理,并生成显示图像。

Description

模拟系统、处理方法及信息存储介质
技术领域
本发明涉及模拟系统、处理方法及信息存储介质等。
背景技术
以往,已知一种模拟系统,通过用户将HMD(头部佩戴式显示装置)佩戴于头部,使用户看到显示于HMD的画面的图像,从而能够身体感觉所谓的虚拟现实(VR)的世界。作为这样的模拟系统的现有技术,例如有在专利文献1等中公开的技术。
现有技术文献
专利文献
专利文献1:日本特开平11-309269号公报
发明内容
发明所要解决的技术问题
在使用了HMD的模拟系统中,在虚拟空间中将从虚拟摄像头看到的图像显示于HMD。通过将这种图像显示于HMD,宽广的VR空间遍及用户的视野的整个周围地扩展,因此能够明显地提高用户的虚拟现实感。
像这样,在使用了HMD的模拟系统中,能够对用户提供高品质且沉浸度高的内容。不过,尽管提供这样的内容,但若发生所谓的3D晕眩,则导致用户无法长时间的游戏。另外,与内容的魅力相比,用户可能更会因为对于3D晕眩的回避冲动而不再游戏。
3D晕眩是由于在虚拟空间中用户的大脑感到的感觉、与在实际空间中用户的身体感到的感觉的差距等而产生的。例如若将从虚拟摄像头能够看到的图像保持原样地显示于HMD,则大脑感到在虚拟空间的景色中从近到远的所有的显示物是看上去很清晰的状态,想要拾取所有的信息,但信息变得过多,诱发3D晕眩。进而,若发生这样的3D晕眩,则成为用户的长时间游戏的阻碍,或者用户变得犹豫进行再次游戏,导致模拟系统的魅力、利用率降低。
根据本发明的若干方式,提供能够在使用了头部佩戴式显示装置的系统中能够有效地抑制用户的3D晕眩的产生的模拟系统、处理方法及信息存储介质等。
用于解决技术问题的手段
根据本发明的一个方式的模拟系统,包括:移动体处理部,进行使移动体在虚拟空间中移动的处理,所述移动体与佩戴头部佩戴式显示装置的用户相对应;虚拟摄像头控制部,对虚拟摄像头进行控制,所述虚拟摄像头响应所述移动体的移动而进行移动;以及显示处理部,在所述虚拟空间中生成从所述虚拟摄像头能够看到的图像而作为所述头部佩戴式显示装置的显示图像,所述显示处理部与处于距所述虚拟摄像头的给定距离范围内的显示物相比,针对处于比所述给定距离范围远的距离范围内的显示物的图像进行模糊处理而作为晕眩防止用的图像效果处理,并生成所述显示图像。另外,本发明涉及使计算机作为上述各部分发挥功能的程序、或者存储该程序的计算机可读的信息存储介质。
根据本发明的一个方式,进行使与用户对应的移动体在虚拟空间中移动的处理,生成从虚拟摄像头能够看到的图像作为头部佩戴式显示装置的显示图像,虚拟摄像头响应移动体的移动而进行移动。进而,与处于距虚拟摄像头给定距离范围内的显示物相比,针对处于较远的距离范围内的显示物的图像进行模糊处理而作为晕眩防止用的图像效果处理。由此,对于处于距虚拟摄像头较远的距离范围内的显示物,由于为模糊的图像,因此能够抑制用户将视线对焦到这些显示物。因此,能够提供在使用了头部佩戴式显示装置的系统中有效地抑制用户的3D晕眩的产生的模拟系统等。
另外,在本发明的一个方式中,也可以是,所述显示处理部进行景深处理而作为所述图像效果处理。
通过这样做,有效利用通常不推荐使用的景深处理,从而对于处于给定距离范围内的显示物,生成对焦图像,而对于处于比给定距离范围远的距离范围内的显示物,能够生成不对焦的模糊图像。
另外,在本发明的一个方式中,也可以是,所述显示处理部进行如下所述景深处理:在所述给定距离范围包含于景深的焦点区域且从所述虚拟摄像头观察时比所述焦点区域靠跟前侧的区域中不进行模糊处理,而在比所述焦点区域靠纵深侧的区域中进行模糊处理。
通过这样做,能够对于处于焦点区域、处于比焦点区域靠跟前侧的区域的显示物,生成对焦图像,而对于处于比焦点区域靠纵深侧的区域的显示物,生成不对焦的模糊图像。
另外,在本发明的一个方式中,也可以是,所述显示处理部使景深的焦点区域的宽度响应所述移动体的移动状态而变化。
通过这样做,能够利用景深处理实现与移动体的移动状态相应的适当的晕眩防止用的图像效果处理。
另外,在本发明的一个方式中,也可以是,上述显示处理部也可以进行雾化处理而作为上述图像效果处理。
通过这样做,例如通过雾化处理使处于比给定距离范围远的距离范围内的显示物模糊,由此能够实现晕眩防止用的图像效果处理。
另外,在本发明的一个方式中,也可以是,所述显示处理部进行如下所述图像效果处理:对于通过与从所述虚拟摄像头向视线方向侧延伸的给定长度的线段的碰撞判定处理而判定为与所述线段交叉的显示物不进行模糊处理,而针对其他显示物进行模糊处理。
通过这样做,通过对与有限的线段交叉的显示物不进行模糊处理而对其他显示物进行模糊处理这样的简单的处理,能够实现晕眩防止用的图像效果处理。
另外,在本发明的一个方式中,也可以是,所述给定距离范围是基于所述头部佩戴式显示装置的虚拟观察距离设定的范围。
通过这样做,对于处于基于虚拟观察距离设定的距离范围内的显示物,假设为用户即使对焦视线也不产生3D晕眩,从而不进行模糊处理,由此能够将更自然的显示图像显示于头部佩戴式显示装置。
另外,在本发明的一个方式中,也可以是,所述给定距离范围是距所述虚拟摄像头为0.75m~3.5m距离范围,所述显示处理部在所述给定距离范围中不进行显示物的模糊处理,而在比所述给定距离范围远的距离范围中进行显示物的模糊处理。
通过这样做,对于处于0.75m~3.5m的距离范围内的显示物,例如有效利用用户频繁地对焦视线、或者长时间注视也不感到眼睛的疲劳等的知识,能够设定不进行模糊处理的给定距离范围。
另外,在本发明的一个方式中,也可以是,即使是处于比所述给定距离范围远的距离范围内的显示物,所述显示处理部将预定显示物从模糊处理的对象中排除,或者与其他显示物相比减弱模糊处理的模糊度。
通过这样做,对于预定显示物,即使位于比给定距离范围远的距离范围内,也不进行模糊处理,或成为较弱的模糊度。因此,能够防止由于模糊处理而使用户不易识别出该显示物等的情况。
另外,在本发明的一个方式中,也可以是,即使是处于比所述给定距离范围远的距离范围内的显示物,所述显示处理部对所述预定显示物进行与其他显示物相比提高视觉辨认度的处理。
通过这样做,对于预定显示物,即使位于比给定距离范围远的距离范围内,也不进行模糊处理,或成为较弱的模糊度。因此,能够防止由于模糊处理而使用户不易识别出该显示物等的情况。
另外,在本发明的一个方式中,也可以是,所述显示处理部对所述预定显示物进行尺寸变化处理、亮度变化处理、色调变化处理以及纵深度值变化处理中的至少一方作为所述提高视觉辨认度的处理。
通过这样做,对于预定显示物,即使位于比给定距离范围远的距离范围,也进行提高视觉辨认度的处理,用户能够适当地识别该显示物。
另外,在本发明的一个方式中,也可以是,所述显示处理部对所述预定显示物进行尺寸变化处理、亮度变化处理、色调变化处理以及纵深度值变化处理中的至少一方作为所述提高视觉辨认度的处理。
通过这样做,通过使显示物的尺寸、亮度、色调、纵深度值发生变化,能够实现提高该显示物的视觉辨认度的处理。
另外,在本发明的一个方式中,也可以是,所述模拟系统还包括输入处理部(使计算机作为输入处理部发挥功能),所述输入处理部获取佩戴所述头部佩戴式显示装置的用户的视点信息的追踪信息,所述虚拟摄像头控制部基于所述追踪信息使所述虚拟摄像头的位置、姿态变化。
像这样,通过基于用户的视点信息的追踪信息使虚拟摄像头的位置、姿态发生变化,从而能够将虚拟现实感高的显示图像显示于头部佩戴式显示装置。另一方面,像这样,在基于追踪信息使虚拟摄像头的位置、姿态发生变化的情况下,也进行晕眩防止用的图像效果处理,由此能够有效地防止用户的3D晕眩的产生。
另外,在本发明的一个方式中,也可以是,所述显示处理部响应所述虚拟摄像头的视线方向或视点位置的变化状况、所述移动体的移动状态的变化状况、所述虚拟摄像头的注视位置或注视对象的状况、或者游戏状况,进行所述图像效果处理的开启、关闭的设定,或者进行图像效果处理的效果度的设定。
通过这样做,能够与各种状况相应地将图像效果处理设定为开启或关闭,或者使图像效果处理的效果度发生变化。
另外,在本发明的一个方式中,也可以是,所述显示处理部与所述用户的游戏等级相应地,进行所述图像效果处理的开启、关闭的设定,或者进行所述图像效果处理的效果度的设定。
通过这样做,能够与用户的游戏等级相应地将图像效果处理设定为开启或关闭,或者使图像效果处理的效果度发生变化。
另外,在本发明的一个方式中,也可以是,所述用户的游戏等级能够基于追踪所述用户的头部运动而得到的追踪信息或所述用户的游戏历史记录信息来判断。
通过这样做,能够有效地利用用户的头部的追踪信息、游戏历史记录信息来判断用户的游戏等级。
另外,在本发明的一个方式中,也可以是,所述显示处理部基于由所述用户设定的设定信息或者所述用户的游戏历史记录信息,进行所述图像效果处理的开启、关闭的设定,或者进行所述图像效果处理的效果度的设定。
通过这样做,能够基于用户输入的设定信息、用户的游戏历史记录信息等,将图像效果处理设定为开启或关闭,或者使图像效果处理的效果度发生变化。
另外,在本发明的一个方式中,也可以是,所述模拟系统还包括可动壳体,所述可动壳体响应所述移动体的移动状态而使所述用户的游戏位置变化。
通过这样做,通过利用可动壳体使用户的游戏位置发生变化,由此能够使用户体感移动体的移动状态的变化,从而能够进一步抑制3D晕眩的产生等。
另外,根据本发明的另一方式的处理方法,进行如下处理:移动体处理,进行使移动体在虚拟空间中移动的处理,所述移动体与佩戴头部佩戴式显示装置的用户对应;虚拟摄像头控制处理,对虚拟摄像头进行控制,所述虚拟摄像头响应所述移动体的移动而进行移动;以及显示处理,在所述虚拟空间中生成从所述虚拟摄像头能够看到的图像而作为所述头部佩戴式显示装置的显示图像,在所述显示处理中,与处于距所述虚拟摄像头的给定距离范围内的显示物相比,针对处于比所述给定距离范围远的距离范围内的显示物的图像进行模糊处理而作为晕眩防止用的图像效果处理,并生成所述显示图像。
附图说明
图1是表示本实施方式的模拟系统的结构例的框图。
图2的(A)、图2的(B)是本实施方式所使用的HMD的一个例子。
图3的(A)、图3的(B)是本实施方式所使用的HMD的另一例子。
图4是作为模拟系统的一个例子的机器人模拟器的结构例。
图5的(A)是在虚拟空间中虚拟用户所搭乘的机器人的说明图,图5的(B)是机器人模拟器中的游戏图像的例子。
图6是机器人模拟器中的游戏图像的例子。
图7的(A)、图7的(B)是使用电动缸的可动壳体的动作说明图。
图8是作为模拟系统的一个例子的滑雪模拟器的结构例。
图9是表示HMD的光学系统的结构例的图。
图10是通过比较例的方法生成的游戏图像的例子。
图11是关于3D晕眩的问题的说明图。
图12是本实施方式的方法的说明图。
图13是通过本实施方式的方法生成的游戏图像的例子。
图14的(A)、图14的(B)是作为本实施方式的图像效果处理进行的景深处理的说明图。
图15的(A)、图15的(B)是使景深的焦点区域的宽度与移动体的移动状态相应地发生变化的方法的说明图。
图16是作为本实施方式的图像效果处理进行的雾化处理的说明图。
图17是基于与线段的碰撞判定的图像效果处理的说明图。
图18的(A)、图18的(B)是虚拟观察距离、距离范围的说明图。
图19的(A)、图19的(B)是对于处于远距离范围内的显示物,从图像效果处理的对象中排除,或者减弱效果度的方法的说明图。
图20是提高处于远距离范围内的显示物的视觉辨认度的处理的说明图。
图21的(A)~图21的(C)是基于追踪信息使虚拟摄像头的位置、姿态变化的方法的说明图。
图22的(A)~图22的(C)是角色碰撞岩石而使行进方向等发生变化的状况的说明图。
图23是说明与各状况相应地设定图像效果处理的开启、关闭,或者使效果度变化的处理的流程图。
图24是与各状况相应地设定图像效果处理的开启、关闭,或者设定效果度的方法的说明图。
图25是与用户的游戏等级相应地设定图像效果处理的开启、关闭,或者设定效果度的方法的说明图。
图26是基于用户的头部的追踪信息判断游戏等级的处理的流程图。
图27是可动壳体、输出声音的控制方法的说明图。
图28是基于用户的设定信息设定图像效果处理的开启、关闭、效果度的方法的说明图。
图29是基于用户的游戏历史记录信息设定图像效果处理的开启、关闭、效果度的方法的说明图。
图30是表示本实施方式的详细的处理例的流程图。
具体实施方式
以下,说明本实施方式。此外,以下说明的本实施方式并未对权利要求书所记载的本发明的内容进行不当限定。另外,在本实施方式中说明的构成的全部并不一定是本发明的必须构成要件。
1.模拟系统
图1是表示本实施方式的模拟系统(模拟器、游戏系统)的结构例的框图。本实施方式的模拟系统例如是模拟虚拟现实(VR)的系统,能够适用于提供游戏内容的游戏系统、体育比赛模拟器、运动模拟器等实时模拟系统、提供影像等内容的内容提供系统、或者实现远程操作的操作系统等各种系统。此外,本实施方式的模拟系统并不限于图1的结构,能够实施省略其构成要素(各部分)的一部分、或者增加其他构成要素等的各种变形。
可动壳体40(广义上为壳体)例如被称为街机壳体等,为模拟系统的装置的外壳。可动壳体40可以是机器人游戏、汽车游戏、飞机游戏等中的驾驶舱壳体(体感壳体),也可以是卡片游戏壳体等。可动壳体40是模拟系统的主体部分,设置有用于实现模拟系统的各种设备、结构物。进而,可动壳体40使用户的游戏位置等发生变化。例如可动壳体40与移动体的移动状态相应地使用户的游戏位置发生变化。具体地,与移动体的速度、加速度的变化、或者移动体的行进方向的变化、或移动体移动的路线的状况等相应地使用户的游戏位置发生变化。对于可动壳体40的详细内容,后文叙述。
操作部160用于用户(玩家)输入各种操作信息(输入信息)。操作部160例如能够通过操作按钮、方向指示键、操纵杆、方向盘、踏板或手柄等各种操作设备实现。例如在后述的图4中,通过操作杆161、162、加速踏板163、制动踏板164等实现操作部160。
存储部170存储各种信息。存储部170作为处理部100、通信部196等工作区域发挥功能。游戏程序、游戏程序的执行所需的游戏数据保持于该存储部170。存储部170的功能能够通过半导体存储器(DRAM、VRAM)、HDD(硬盘驱动器)、SSD、光盘装置等而实现。存储部170包含对象信息存储部172、渲染缓存器178。
信息存储介质180(能够通过计算机读取的介质)是储存程序、数据等的装置,其功能能够通过光盘(DVD、BD、CD)、HDD、或者半导体存储器(ROM)等而实现。处理部100基于储存于信息存储介质180的程序(数据)进行本实施方式的各种处理。即,在信息存储介质180中,作为本实施方式的各部分而存储用于使计算机(具备输入装置、处理部、存储部、输出部的装置)发挥功能的程序(用于使计算机执行各部分的处理的程序)。
HMD200(头部佩戴式显示装置)是被佩戴于用户的头部,并在用户的眼前显示图像的装置。虽然希望HMD200是非透射型,但也可以是透射型。另外,HMD200也可以是所谓的眼镜式的HMD。
HMD200包含传感器部210、显示部220、处理部240。此外,也能够实施对HMD200设置发光元件的变形。传感器部210例如是用于实现头追踪等追踪处理的装置。例如通过使用了传感器部210的追踪处理来确定HMD200的位置、方向。通过HMD200的位置、方向被确定,能够确定用户的视点位置、视线方向。
作为追踪方式能够采用各种方式。在作为追踪方式的一个例子的第一追踪方式中,如在后述的图2的(A)、图2的(B)中详细地进行说明那样,设置多个光接收元件(光电二极管等)作为传感器部210。并且,通过由上述多个光接收元件接收来自设置于外部的发光元件(LED等)的光(激光等),从而确定在现实世界的三维空间的HMD200(用户的头部)的位置、方向。在第二追踪方式中,如在后述的图3的(A)、图3的(B)中详细进行说明那样,将多个发光元件(LED)设置于HMD200。并且,通过设置于外部的拍摄部拍摄来自上述多个发光元件的光,从而确定HMD200的位置、方向。在第三追踪方式中,设置运动传感器作为传感器部210,使用该运动传感器来确定HMD200的位置、方向。运动传感器例如能够通过加速度传感器、陀螺传感器等而实现。例如对使用了三轴加速度传感器和三轴陀螺传感器的六轴运动传感器进行使用,从而能够确定在现实世界的三维空间的HMD200的位置、方向。此外,也可以通过第一追踪方式与第二追踪方式的组合、或者第一追踪方式与第三追踪方式的组合等来确定HMD200的位置、方向。另外,也可以不通过确定HMD200的位置、方向来确定用户的视点位置、视线方向,而采用直接确定用户的视点位置、视线方向的追踪处理。
HMD200的显示部220例如能够通过液晶显示器(LCD)、有机EL显示器等而实现。例如在HMD200设置有配置于用户的左眼前的第一显示器和配置于右眼前的第二显示器作为显示部220,从而使例如立体观察显示成为可能。在进行立体观察显示的情况下,例如生成视差不同的左眼用图像和右眼用图像,在第一显示器显示左眼用图像,在第二显示器显示右眼用图像即可。此外,也可以在一个显示器的第一、第二显示区域显示左眼用图像、右眼用图像。
HMD200的处理部240在HMD200中进行所需的各种处理。例如处理部240进行传感器部210的控制处理、显示部220的显示控制处理等。另外,处理部240也可以进行三维声学(立体声学)处理,来实现三维的声音的方向、距离、扩散的再现。
声音输出部192是输出由本实施方式生成的声音的装置,例如能够通过扬声器或者耳机等而实现。
I/F(接口)部194进行与便携式信息存储介质195的接口处理,其功能能够通过I/F处理用的ASIC等而实现。便携式信息存储介质195用于用户保存各种信息,便携式信息存储介质195是即使未供应电源的情况下也保持上述信息的存储的存储装置。便携式信息存储介质195能够通过IC卡(存储卡)、USB存储器、或者磁卡等而实现。
通信部196是经由有线、无线的网络而与外部(其他装置)之间进行通信的装置,其功能能够通过通信用ASIC或通信用处理器等硬件、通信用固件而实现。
此外,作为本实施方式的各部分而用于使计算机发挥功能的程序(数据)也可以从服务器(主机装置)所具有的信息存储介质经由网络以及通信部196向信息存储介质180(或者存储部170)传送。基于这样的服务器(主机装置)的信息存储介质的使用也能够包括在本发明的范围内。
处理部100(处理器)基于来自操作部160的操作信息、HMD200中的追踪信息(HMD的位置及方向中的至少一方的信息。视点位置及视线方向中的至少一方的信息)、程序等进行游戏处理(模拟处理)、移动体处理、虚拟摄像头控制处理、显示处理、或者声音处理等。
处理部100的各部分所进行的本实施方式的各处理(各功能)能够通过处理器(包括硬件的处理器)而实现。例如本实施方式的各处理能够通过基于程序等的信息而工作的处理器、和存储程序等的信息的存储器而实现。处理器例如可以使各部分的功能通过单独的硬件来实现,或者也可以使各部分的功能通过一体的硬件来实现。例如处理器包括硬件,该硬件能够包括处理数字信号的电路以及处理模拟信号的电路中的至少一方。例如,处理器也能够由安装于电路基板的一个或多个电路装置(例如IC等)、一个或多个电路元件(例如电阻、电容器等)构成。处理器例如也可以是CPU(Central Processing Unit:中央处理单元)。不过,处理器并不限于CPU,也能够使用GPU(Graphics Processing Unit:图形处理单元)、或者DSP(Digital Signal Processor:数字信号处理器)等各种处理器。另外,处理器也可以是基于ASIC的硬件电路。另外,处理器也可以包括处理模拟信号的放大电路、滤波电路等。存储器(存储部170)可以是SRAM、DRAM等半导体存储器,也可以是寄存器。或者可以是硬盘装置(HDD)等磁存储装置,也可以是光盘装置等光学式存储装置。例如,存储器储存能够通过计算机读取的命令,该命令由处理器执行,由此实现了处理部100的各部分的处理(功能)。这里的命令可以是构成程序的命令组,也可以是对处理器的硬件电路指示工作的命令。
处理部100包括输入处理部102、运算处理部110以及输出处理部140。运算处理部110包括游戏处理部112、可动壳体处理部113、移动体处理部114、对象空间设定部116、虚拟摄像头控制部118、显示处理部120以及声音处理部130。如上述那样,由上述各部分执行的本实施方式的各处理能够通过处理器(或者处理器及存储器)而实现。此外,能够实施省略上述构成要素(各部分)的一部分、或者增加其他构成要素等各种变形。
作为输入处理,输入处理部102进行接受操作信息、追踪信息的处理、从存储部170读出信息的处理、经由通信部196接收信息的处理。例如作为输入处理,输入处理部102进行获取用户使用操作部160而输入的操作信息、由HMD200的传感器部210等检测出的追踪信息的处理、从存储部170读出由读出命令所指定的信息的处理、从外部装置(服务器等)经由网络接收信息的处理。这里接收处理是向通信部196指示信息的接收,或者获取通信部196接收到的信息并写入存储部170的处理等。
运算处理部110进行各种运算处理。例如进行游戏处理(模拟处理)、移动体处理、虚拟摄像头控制处理、显示处理、或者声音处理等运算处理。
游戏处理部112(游戏处理的程序模块)进行用于用户操作游戏的各种游戏处理。换言之,游戏处理部112(模拟处理部)执行用于用户体验虚拟现实(virtual reality)的各种模拟处理。游戏处理例如是在满足游戏开始条件的情况下开始游戏的处理、使已开始的游戏运行的处理、在满足游戏结束条件的情况下结束游戏的处理、或者对游戏成绩进行运算的处理等。
可动壳体处理部113(可动壳体处理的程序模块)进行关于可动壳体40的各种处理。例如进行可动壳体40的控制处理,或者进行用于控制可动壳体40的各种信息的检测处理。例如可动壳体处理部113进行后述的图7的(A)的电动缸413、414的控制处理。例如进行控制电动缸413、414的杆部的直线运动的处理。另外,可动壳体处理部113进行检测基于图4的操作杆161、162、加速踏板163、制动踏板164的操作信息的处理。进而,基于检测到的操作信息,执行可动壳体40的控制处理等。另外,可动壳体处理部113进行后述的图8的空气弹簧部50~53等的控制处理。例如进行用于使空气弹簧部50~53伸缩的控制处理。另外,在进行基于操作部件43、44的摇摆操作、基于脚台45、46的留痕迹操作的情况下,可动壳体处理部113进行该操作信息的检测处理,基于检测出的操作信息执行可动壳体40的控制处理等。
移动体处理部114(移动体处理的程序模块)进行关于在虚拟空间内移动的移动体的各种处理。例如进行在作为虚拟空间的对象空间(游戏空间)使移动体移动的处理、使移动体动作的处理。例如移动体处理部114基于用户通过操作部160输入的操作信息、获取到的追踪信息、程序(移动/动作算法)、各种数据(运动数据)等进行使移动体(模型对象)在对象空间内(虚拟空间内)移动、或者使移动体动作(运动、动画)的控制处理。具体地,进行按照每1帧(例如1/60秒)依次求出移动体的移动信息(位置、旋转角度、速度、或者加速度)、动作信息(部分对象的位置、或者旋转角度)的模拟处理。此外,帧是进行移动体的移动/动作处理(模拟处理)、图像生成处理的时间的单位。
移动体例如是与实际空间的用户(玩家)对应的虚拟空间的虚拟用户(虚拟玩家)、或者该虚拟用户所搭乘(操作)的搭乘移动体(操作移动体)等。例如移动体是在后述的图4的机器人模拟器中与用户对应的角色(虚拟用户)所搭乘的机器人(搭乘移动体)。或者是在图8的滑雪模拟器中,与用户对应地在虚拟空间进行滑雪的角色(虚拟用户)。
对象空间设定部116(对象空间设定处理的程序模块)进行配置有多个对象的对象空间(在广义上是虚拟空间)的设定处理。例如,进行将表示移动体(人、机器人、车、电车、飞机、船、怪兽或者动物等)、地图(地形)、建筑物、看台、路线(道路)、树木、墙壁、水面等显示物的各种对象(由多边形、自由曲面或细分曲面等原始面构成的对象)配置并设定于对象空间的处理。即,确定世界坐标系中的对象的位置、旋转角度(与朝向、方向同义),并将对象以该旋转角度(绕X、Y、Z轴的旋转角度)配置于该位置(X、Y、Z)。具体地,在存储部170的对象信息存储部172与对象号建立对应关系地存储对象空间中的对象(部分对象)的位置、旋转角度、移动速度、移动方向等的信息即对象信息。对象空间设定部116例如按照各帧进行更新该对象信息的处理等。
虚拟摄像头控制部118(虚拟摄像头控制处理的程序模块)进行用于生成从对象空间的给定(任意)的视点能够看到的图像的虚拟摄像头(视点、基准虚拟摄像头)的控制处理。例如进行控制虚拟摄像头的位置(视点位置)或者姿态(视线方向)的处理。具体地,进行对虚拟摄像头的位置(X、Y、Z)、作为姿态信息的旋转角度(绕X、Y、Z轴的旋转角度)进行控制的处理(控制视点位置、视线方向或者视角的处理)。该虚拟摄像头相当于用户(虚拟用户)的视点。在立体观察显示的情况下,设定左眼用的第一视点(左眼用的第一虚拟摄像头)和右眼用的第二视点(右眼用的第二虚拟摄像头)。
显示处理部120(显示处理的程序模块)进行游戏图像(模拟图像)的显示处理。例如基于由处理部100进行的各种处理(游戏处理、模拟处理)的结果进行渲染处理,由此生成图像,并将图像显示于HMD200的显示部220。具体地,进行坐标转换(世界坐标转换、摄像头坐标转换)、限幅处理、透视转换、或者光源处理等几何处理,基于该处理结果制作渲染数据(原始面的顶点的位置坐标、纹理坐标、颜色数据、法线向量或者α值等)。进而,基于该渲染数据(原始面数据)将透视转换后(几何处理后)的对象(一个或多个原始面)在渲染缓存器178(能够以帧缓存器、工作缓存器等像素单位存储图像信息的缓存器)进行渲染。由此,在对象空间(虚拟空间)内生成从虚拟摄像头(给定视点。左眼用、右眼用的第一、第二视点)能够看到的图像。此外,在显示处理部120中进行的渲染处理能够通过顶点着色处理、像素着色处理等而实现。
声音处理部130(声音处理的程序模块)基于在处理部100中进行的各种处理的结果进行声音处理。具体地,生成乐曲(音乐、BGM)、效果声音、或声音等游戏声音,并使游戏声音输出至声音输出部192。此外,也可以通过HMD200的处理部240实现声音处理部130的声音处理的一部分(例如三维声学处理)。
输出处理部140进行各种信息的输出处理。例如作为输出处理,输出处理部140进行向存储部170写入信息的处理、经由通信部196发发送息的处理。例如输出处理部140进行将由写入命令所指定的信息写入存储部170的处理、经由网络向外部装置(服务器等)发送信息的处理。发送处理是向通信部196指示信息的发送或者向通信部196指示发送的信息的处理等。
进而,如图1所示,本实施方式的模拟系统包括移动体处理部114、虚拟摄像头控制部118以及显示处理部120。另外,能够包括输入处理部102。
移动体处理部114进行使与用户对应的移动体(虚拟用户、搭乘移动体等)在虚拟空间(对象空间)中移动的处理。例如进行按照每个预定期间(例如每一帧)求出移动体的位置、方向的信息的处理,而在虚拟空间的路线等中进行使移动体移动的处理。另外,移动体处理部114也进行使移动体动作的处理(运动处理)等。
虚拟摄像头控制部118对与移动体的移动相应地进行移动的虚拟摄像头进行控制。例如对以追随移动体的方式移动的虚拟摄像头进行控制。例如虚拟摄像头控制部118进行作为用户的第一人称视点设定的虚拟摄像头的控制。例如通过在与虚拟空间中移动的移动体的视点对应的位置设定虚拟摄像头,并设定虚拟摄像头的视点位置、视线方向,从而控制虚拟摄像头的位置(位置坐标)、姿态(绕旋转轴的旋转角度)。
显示处理部120生成在虚拟空间中从虚拟摄像头(用户视点)能够看到的图像作为HMD200的显示图像(显示影像)。例如生成在作为虚拟空间的对象空间中从给定视点能够看到的图像。生成的图像希望是立体观察用的图像。
接着,显示处理部120进行晕眩防止用(3D晕眩防止用)的图像效果处理。具体地,显示处理部120对相比于位于距虚拟摄像头给定距离范围内的显示物而位于比给定距离范围远的距离范围内的显示物的图像进行模糊处理,作为晕眩防止用的图像效果处理(广义上为图像处理),从而生成显示图像。例如不对位于第一距离范围内的显示物(对象)进行模糊处理,对位于第二距离范围内的显示物进行模糊处理,第一距离范围是给定距离范围,第二距离范围是比给定距离范围远的距离范围。这样的话,位于第一距离范围内的显示物成为对焦图像(焦点图像),位于第二距离范围内的显示物成为散焦图像(非焦点图像)。在此,不需要使第一距离范围与第二距离范围连续,在其之间也可以具有第三距离范围。另外,距离范围是在深度方向(Z方向)上距虚拟摄像头的距离(深度距离)的范围。另外,图像效果处理例如能够作为针对从虚拟摄像头能够看到的图像(通过渲染处理生成的图像)的后效果(post effect)处理来进行。另外,晕眩防止用的图像效果处理不是用于生成照片般逼真的图像的处理,而是出于防止用户发生3D晕眩的目的而进行的效果处理。
例如显示处理部120进行景深处理作为图像效果处理。景深处理是与焦点的前后的距离相应地对场景应用模糊处理(Blur)的处理。景深处理例如是作为图像处理的引擎(例如虚幻引擎)的库而准备的。例如在景深处理中,能够进行模糊方式(高斯DOF、模糊DOF等)、焦点距离、焦点区域、近点侧过渡范围(近过渡范围)、远点侧过渡范围(远过渡范围)、或模糊度(模糊尺寸)等各种参数的设定。在本实施方式中,作为该参数的设定,进行与通常的照片般逼真的图像的生成不同的晕眩防止用的特別的设定。
具体地,显示处理部120在给定距离范围(第一距离范围)包含于景深的焦点区域、且从虚拟摄像头观察时比焦点区域靠跟前侧的区域(近点侧的区域)中,不进行模糊处理,在比焦点区域靠纵深侧的区域(远点侧的区域)中,执行进行模糊处理的景深处理。即,以进行这样的景深处理的方式设定上述的参数,从而实现晕眩防止用的景深处理。例如以将近点侧过渡范围设为无效,从虚拟摄像头的位置到远点侧过渡范围之间成为焦点区域的方式设定景深处理的参数。进而,给定距离范围(例如后述的0.75m~3.5m的距离范围)进入该焦点区域。
该情况下,显示处理部120也可以使景深的焦点区域的宽度与移动体的移动状态(速度、加速度或移动方向等)相应地变化。例如随着移动体的速度(角速度)变快而缩小焦点区域。例如当移动体为停止状态时,将焦点区域设定为通常的宽度,当移动体变成给定速度(角速度)以上时,缩小焦点区域。之后,也可以随着速度变高,进一步缩小焦点区域。
另外,显示处理部120也可以进行雾化处理作为图像效果处理。雾化处理例如可以是能够设定雾化颜色(雾化的目标色)的雾化处理(例如虚幻引擎中的指数函数的高度雾化),也可以是不设定雾化颜色的雾化处理(例如虚幻引擎中的环境雾化)。另外,作为图像效果处理,希望进行景深处理与雾化处理双方。例如与进行景深处理一起,进行与各游戏阶段(黑天、白天、下午的游戏阶段等)对应的雾化颜色(黑、白、红等)的雾化处理。通过这样做,能够实现更有效的晕眩防止。
另外,显示处理部120也可以针对通过与从虚拟摄像头向视线方向侧延伸的给定长度的线段的碰撞判定处理判定为与线段交叉的显示物不进行模糊处理,而对其他显示物进行模糊处理的图像效果处理。例如由该线段的长度规定生成不进行模糊处理的显示物的图像的范围。进而,进行判定从虚拟摄像头延伸的线段与显示物是否交叉的碰撞判定。进而,对于判定为与线段交叉(碰撞)的显示物,不进行模糊处理。即,对于该显示物生成对焦图像。进而,不与线段交叉的其他显示物变成模糊处理的候补对象,并对该显示物进行模糊处理。这里,线段例如也可以是用于设定针对敌方的靶标的线段。例如与线段交叉的显示物变成用户的攻击对象,若在该显示物重叠显示有靶标的状态下用户进行攻击动作,则攻击命中该显示物。
另外,给定距离范围例如是基于HMD200的虚拟观察距离(广义上为观察距离)设定的范围。例如在HMD200具有目镜等光学系统、显示器的情况下,基于用户的眼睛的位置、目镜及显示器的位置关系,规定了虚拟观察距离。进而,处于该虚拟观察距离的位置的虚拟画面成为出现HMD200的图像(虚像)的画面。例如HMD200的光学系统以与在分离该虚拟观察距离的位置观察画面变得相等的方式进行设计。进而,对于处于包含该虚拟观察距离的给定距离范围内的显示物,不进行模糊处理,以使得生成对焦图像。
具体地,给定距离范围例如是距虚拟摄像头0.75m~3.5m的距离范围。该距离是虚拟空间中的距离,以虚拟空间中的距离与现实世界中的距离一致(大致一致)的方式设计虚拟世界。例如若显示物处于0.75m~3.5m的距离范围,则即使用户长时间眼睛看向该显示物,也不产生眼睛的疲劳等。显示处理部120至少在给定距离范围即0.75m~3.5m的范围中不进行显示物的模糊处理,而在比给定距离范围远的距离范围中进行显示物的模糊处理。
另外,对于即使是处于比给定距离范围(第一距离范围)远的距离范围(第二距离范围)内的显示物的预定显示物,显示处理部120将该预定显示物从模糊处理的对象中排除、或与其他显示物相比减弱模糊处理的模糊度。例如对于在游戏等中重要的显示物、需要使用户看到的特定显示物,从图像效果处理的模糊处理的对象中排除,或者与其他显示物相比减弱模糊处理的模糊度(效果度)。通过这样做,防止对用户而言重要的显示物等由于图像效果处理而变得非常模糊而使用户难以看到的情况。
另外,显示处理部120对于即使是处于比给定距离范围远的距离范围内的显示物的预定显示物,进行与其他显示物相比提高视觉辨认度的处理。例如显示处理部120对预定显示物进行尺寸变化处理、亮度变化处理、色调变化处理以及纵深度值变化处理中的至少一方作为提高视觉辨认度的处理。提高视觉辨认度的处理是用于用户能够更加容易地视觉确认该显示物的处理。尺寸变化处理是使该显示物的尺寸变化的处理。亮度变化处理、色调变化处理是使该显示物的亮度(光亮度)、色调(色泽。通过明度与彩度的组合表示的颜色的系统)发生变化的处理。纵深度值变化处理是使该显示物的纵深度值(从虚拟摄像头观察的深度距离)发生变化的处理。
另外,输入处理部102(输入接受部)获取佩戴HMD200的用户的视点信息的追踪信息。例如获取作为用户的视点位置、视线方向中的至少一方的视点信息的追踪信息(视点追踪信息)。该追踪信息例如能够通过进行HMD200的追踪处理而获取。此外,也可以通过追踪处理直接获取用户的视点位置、视线方向。具体地,追踪信息包含来自用户的初始视点信息的视点信息的变化信息。例如追踪信息包含用户的相比于初始视点位置的视点位置的变化信息(视点位置的坐标的变化值)以及用户的相比于初始视线方向的视线方向的变化信息(绕视线方向的旋转轴的旋转角度的变化值)中的至少一方。基于这样的追踪信息所包含的视点信息的变化信息,能够确定用户的视点位置、视线方向(用户的头部的位置、姿态的信息)。
进而,虚拟摄像头控制部118基于获取到的追踪信息(用户的视点位置及视线方向中的至少一方的信息)使虚拟摄像头的位置、姿态发生变化。例如虚拟摄像头控制部118以与实际空间中的用户的视点位置、视线方向的变化相应地使虚拟摄像头的位置(视点位置)、姿态(视线方向)发生变化的方式设定虚拟摄像头。
例如对虚拟空间中的虚拟用户的视点(第一人称视点)设定虚拟摄像头。进而,若佩戴HMD200的实际空间(实际世界)的用户摇头、或者移动身体等而使用户的视点位置、视线方向发生变化,则虚拟空间中的虚拟用户的视点位置、视线方向也与其相应地发生变化。即,若实际空间中的用户的视点位置、视线方向发生变化,则与其相应地虚拟空间中的虚拟摄像头的位置、姿态发生变化。另外,通过用户对操作部160进行操作等,虚拟用户(角色)、其搭乘的移动体(机器人、电车、车、摩托车、自行车、飞机或船等)在虚拟空间内移动,则虚拟摄像头的位置(虚拟用户的视点位置)也以追随该移动的方式发生变化。通过这样做,用户能够体验犹如自己的分身即虚拟用户、其搭乘的移动体在虚拟空间中移动那样的虚拟现实。此外,虚拟空间中的虚拟用户的视点例如成为第一人称视点,但也可以在该第一人称视点的图像例如映现虚拟用户(角色)的身体的一部分,或者映现搭乘移动体的内部的样子。
此外,虚拟摄像头的姿态例如能够通过虚拟摄像头的视线方向的向量、和虚拟摄像头的上方向的向量(表示虚拟摄像头的向上方向是哪个方向的向量)而规定。视线方向的向量能够根据虚拟摄像头的注视位置而设定。例如通过使虚拟摄像头的视线方向的向量变化,能够实现虚拟摄像头的纵摆、偏转的姿态变化(旋转移动)。例如通过使虚拟摄像头的上方向的向量变化,能够实现虚拟摄像头的横摆的姿态变化(旋转移动)。
另外,移动体的姿态能够通过多个绕各旋转轴(X轴、Y轴、Z轴)的移动体(模型对象)的旋转角度而规定。移动体的姿态变化是绕各旋转轴的旋转移动。例如移动体的姿态能够通过移动体的本地坐标系相对于世界坐标系绕各旋转轴的旋转角度而规定,例如能够通过坐标转换的旋转矩阵来表示。
另外,也可以代替对HMD200显示图像,而通过投影装置向投影用的屏幕投影图像。投影用屏幕是由一个曲面或多个面构成的屏幕,例如是被称为圆顶形状的屏幕的曲面屏幕。
另外,显示处理部120与虚拟摄像头的视线方向或视点位置的变化状况、移动体的移动状态的变化状况、虚拟摄像头的注视位置或注视对象的状况、或游戏状况相应地,进行图像效果处理的开启、关闭的设定,或者进行图像效果处理的效果度的设定。
例如,在发生了虚拟摄像头的视线方向或视点位置、移动体的速度或加速度等(广义上为移动状态)较大地变化的状况(变化事件)的情况下,将图像效果处理设为开启。例如在剧烈产生虚拟摄像头的视线方向或视点位置、移动体的速度或加速度等的变化的状况(例如碰撞、急转弯、侧滑、跌倒、快速的下坡路或落下等)、所发生的状况是预定的状况的情况下,判断为很可能引起用户的3D晕眩,从而将图像效果处理设为开启。或者,也可以在虚拟摄像头的视线方向或视点位置、移动体的速度或加速度等完全不变化的情况下,将图像效果处理设为关闭。或者,与虚拟摄像头的视线方向或视点位置、移动体的速度或加速度等的变化量相应地,设定图像效果处理的效果度。例如变化量越大,越为增强效果度。效果度例如是确定模糊处理中的模糊度、效果处理的开始时机、效果处理期间的长度等的信息等。
或者,在虚拟摄像头的注视位置或注视对象为易产生晕眩的位置、对象的情况下,将图像效果处理设为开启,在不是这样的位置、对象的情况下,将图像效果处理设为关闭。例如,在与用户的视点对应的虚拟摄像头朝向的方向的场景为易产生3D晕眩的状况的情况下,将图像效果处理设为开启。例如是在注视位置等中显示有很多显示物的状况的情况下,将图像效果处理设为开启,在是几乎不显示显示物的状况的情况下,将图像效果处理设为关闭。或者,与注视位置或注视对象中的状况相应地使图像效果处理的效果度发生变化。例如与注视位置等中的显示物的数量相应地使图像效果处理的效果度发生变化。例如显示物的数量越多,越为增强效果度。或者,在游戏状况为易产生晕眩的游戏状况的情况下,将图像效果处理设为开启,在不是这样的游戏状况的情况下,将图像效果处理设为关闭。或者与游戏状况相应地使图像效果处理的效果度发生变化。游戏状况例如是游戏的行进状况(游戏的开局、中局、终局等)、用户玩的游戏阶段的状况(游戏阶段的种类、属性等)、与敌方的对战状况、用户(虚拟用户)的地位、获得点的状况、或者游戏中的用户(虚拟用户)的周围的状况等。
此外,也可以按照每个场景将设定有晕眩度数的表信息存储于存储部170,基于该表信息,设定图像效果处理的开启、关闭,或者图像效果处理的效果度。
另外,显示处理部120也可以与用户的游戏等级(游戏操作的等级)相应地进行图像效果处理的开启、关闭的设定,或者进行图像效果处理的效果度的设定。例如在用户的游戏等级较低的情况下(例如新手、初学者等),将图像效果处理设为开启,在游戏等级较高的情况下(例如高级者等),将图像效果处理设为关闭。或者,用户的游戏等级越低,越为增强图像效果处理的效果度,从而防止未习惯于HMD的游戏的新手、初学者的用户产生3D晕眩。另外,用户的游戏等级越高,越为减弱图像效果处理的效果度,从而使高级者的用户在几乎不施加图像效果处理的游戏图像中享受游戏。
该情况下,也可以基于追踪用户的头部的移动的追踪信息或用户的游戏历史记录信息判断用户的游戏等级。例如基于游戏开始后的用户的头部的追踪信息(视点追踪信息)、存储于存储部170的用户的过去的游戏历史记录信息等,进行判断用户的游戏等级的处理。该判断处理例如由游戏处理部112进行。例如新手、初学者的用户处于在游戏开始之后,有一段时间几乎不移动佩戴了HMD200的头部的趋势。另一方面,高级者的用户处于从游戏的开局起频繁地移动头部,而欲观察各种位置的趋势。因此,能够基于游戏开始后的用户的头部的移动的追踪信息,判断用户的游戏等级。或者,基于过去的用户的游戏历史记录信息,判断用户的游戏的等级。例如基于游戏历史记录信息,判断频繁地进行游戏操作的用户判断为游戏等级较高,判断为初次进行游戏操作的用户判断为游戏等级较低。该游戏历史记录信息例如可以从用户所持的便携式信息存储介质195读出,也可以基于存储于便携式信息存储介质195的用户ID等的识别信息,从服务器进行下载。
另外,显示处理部12也可以基于由用户设定的设定信息或用户的游戏历史记录信息,进行图像效果处理的开启、关闭的设定,或者进行图像效果处理的效果度的设定。例如在用于用户输入游戏的各种设定信息的设定选项画面等中,能够设定图像效果处理的开启、关闭、图像效果处理的效果度。或者,基于用户的过去的游戏历史记录信息等,设定图像效果处理的开启、关闭、图像效果处理的效果度。例如对于基于游戏历史记录信息判断为是频繁地进行游戏操作并习惯于游戏操作的用户、判断为是高级者的用户,将图像效果处理设为关闭,或者减弱图像效果处理的效果度。另一方面,对于基于游戏历史记录信息判断为是新手、初学者等的用户、判断为是中级者的用户,将图像效果处理设为开启,或者加强图像效果处理的效果度。
另外,在本实施方式中,用户作为操作游戏的游戏处理进行虚拟现实的模拟处理。虚拟现实的模拟处理是用于将实际空间中的现象在虚拟空间进行模拟的模拟处理,是用于使用于虚拟体验该现象的处理。例如进行用于使与实际空间的用户对应的虚拟用户、该搭乘移动体等的移动体在虚拟空间移动,使用户体感伴随着移动的环境、周围的变化的处理。
进而,可动壳体40与移动体的移动状态相应地使用户的游戏位置发生变化。移动状态是移动体的速度(角速度)、加速度(角加速度)、移动方向、或移动环境等的状态。例如可动壳体40基于作为游戏处理的模拟处理的结果使游戏位置变化。例如基于虚拟空间中的移动体的移动处理的结果等,使游戏位置变化。例如,作为用于使用户体感伴随着用户的行进方向的变化的加速度的变化(加速、减速)的模拟处理,通过可动壳体40进行使游戏位置变化的处理。或者,移动体在路线上移动时,作为用于使用于体感路线的起伏、凹凸的模拟处理,通过可动壳体40进行使游戏位置变化的处理。这样通过可动壳体40使游戏位置变化,由此HMD200中的显示图像的摇晃、用户体感的加速度等的变化在某种程度上进行连动,能够抑制用户的3D晕眩等。
此外,游戏位置是操作虚拟现实(VR)的模拟游戏时用户所在的游戏位置。例如游戏位置是在座椅等乘坐部的用户的乘坐位置。例如坐在作为乘坐部的座椅等上,操作虚拟现实的模拟游戏的情况下,游戏位置是例如使作为座椅的乘坐位置的就坐位置。另外,在用户横跨模拟摩托车、自行车、或者马等交通工具、动物的乘坐部的情况下,游戏位置是横跨的位置。另外,用户以站立姿态操作模拟游戏的情况下,游戏位置例如是用户的站立位置。
另外,本实施方式的模拟系统具有声音处理部130,声音处理部130进行生成与移动体的移动状态相应的输出声音的处理。例如生成与移动体的行进方向的变化相应的声音或者与移动体移动的路线的状况相应的输出声音。例如在移动体的行进方向变化、或者路线的状况变化的情况下,生成用于使用户识别该变化的输出声音。例如在有凹凸的路线中,输出“呱嗒”这样的声音,使用户在听觉上识别出在路线中存在凹凸。另外,在用户的行进方向突然变化的情况下,输出用于使用户识别使行进方向变化的加速度的变化(加速、减速等)的声音,而使用户在听觉上识别出行进方向发生了变化。通过这样做,能够降低用户的3D晕眩的产生。
2.追踪处理
接着,对追踪处理的例子进行说明。在图2的(A)中示出用于本实施方式的模拟系统的HMD200的一个例子。如图2的(A)所示,在HMD200设置有多个光接收元件201、202、203(光电二极管)。光接收元件201、202设置于HMD200的前表面侧,光接收元件203设置于HMD200的右侧面。另外,在HMD的左侧面、上表面等也设置有未图示的光接收元件。
另外,在HMD200设置有头带260等,用户PL能够以更好的佩戴感稳定地将HMD200佩戴于头部。另外,在HMD200设置有未图示的耳机端子,通过向该耳机端子连接耳机270(声音输出部192),从而用户PL例如能够听到实施了三维声学(三维音响)的处理的游戏声音。此外,也可以通过HMD200的传感器部210等检测用户的头部的点头动作、摇头动作,从而能够输入用户的操作信息。
如图2的(B)所示,在模拟系统(可动壳体40)的周边设置有基站280、284。在基站280设置有发光元件281、282,在基站284设置有发光元件285、286。发光元件281、282、285、286例如通过射出激光(红外线激光等)的LED而实现。基站280、284使用这些发光元件281、282、285、286例如呈放射状射出激光。进而,设置于图2的(A)的HMD200的光接收元件201~203等接收来自基站280、284的激光,由此实现了HMD200的追踪,能够检测用户PL的头的位置、朝向的方向(视点位置、视线方向)。
在图3的(A)中示出HMD200的另一例子。在图3的(A)中,对HMD200设置有多个发光元件231~236。这些发光元件231~236例如通过LED等而实现。发光元件231~234设置于HMD200的前表面侧,发光元件235、未图示的发光元件236设置于背面侧。这些发光元件231~236例如射出(发出)可见光的带域的光。具体地,发光元件231~236射出相互不同的颜色的光。进而,将图3的(B)所示的拍摄部150设置在用户PL的前方侧,由该拍摄部150拍摄这些发光元件231~236的光。即,在拍摄部150的拍摄图像映现这些发光元件231~236的光斑。进而,进行该拍摄图像的图像处理,由此实现用户PL的头部(HMD)的追踪。即,检测用户PL的头部的三维位置、朝向的方向(视点位置、视线方向)。
例如,如图3的(B)所示,在拍摄部150设置有第一、第二摄像头151、152,通过使用这些第一、第二摄像头151、152的第一、第二拍摄图像,能够检测出用户PL的头部的深度方向上的位置等。另外,基于设置于HMD200的运动传感器的运动检测信息,也能够检测出用户PL的头部的旋转角度(视线)。因此,通过使用这样的HMD200,即使用户PL朝向周围的360度的整个方向中的某个方向的情况下,也能够将与其对应的虚拟空间(虚拟三维空间)中的图像(从与用户的视点对应的虚拟摄像头能够看到的图像)显示于HMD200的显示部220。此外,作为发光元件231~236,也可以使用红外线的LED而非可见光。另外,例如也可以通过使用深度摄像头等其他方法来检测用户的头部的位置、移动等。
此外,检测用户的视点位置、视线方向(用户的位置、方向)的追踪处理的方法并不限于图2的(A)~图3(B)中说明的方法。例如也可以使用设置于HMD200的运动传感器等,利用HMD200的单体实现追踪处理。即,不设置图2的(B)的基站280、284、图3的(B)的拍摄部150等外部装置而实现追踪处理。或者,也可以通过公知的眼追踪、脸追踪或者头追踪等各种视点追踪方法,检测用户的视点位置、视线方向等视点信息等。
3.模拟系统的具体例
接着,对模拟系统的具体例进行说明。图4是模拟系统的一个例子。
另外,在基底部452设置有移动部470。具体地,在基底部452设置有导轨部454、455,以在沿着导轨部454、455的方向上能够移动的方式设置有移动部470。
移动部470具有支承部472,在支承部472的上端设置有上表面部473(操作基台)。进而,在上表面部473设置有操作杆161、162、具有传感器部的游戏控制器165。游戏控制器165所具有的传感器部检测位置以及方向中的至少一方。操作杆161、162构成图1的操作部160。若用户用手对操作杆161、162进行操作,则与其连动地,显示虚拟空间的机器人的驾驶舱内的虚拟用户操作设置于驾驶舱的操作杆的样子。
用户若将操作杆161、162向前方侧推倒,则虚拟空间的机器人向前方侧移动,若将操作杆161、162向后方侧推倒,则机器人向后方侧移动。用户若将操作杆161、162向右方向侧、左方向侧推倒,则机器人向右方向侧、左方向侧移动。另外,通过将操作杆161、162中的一个向前方侧推倒,将另一个向后方侧推倒,能够改变机器人朝向的方向。
在游戏控制器165设置有用作传感器部的至少一个光接收元件。进而,通过与图2的(A)、图2的(B)的追踪处理同样的处理,实现游戏控制器165的传感器部的检测功能(位置以及方向中的至少一方的检测功能)。通过该检测功能,例如能够检测由可动壳体40的可动引起的游戏位置(在乘坐部460的乘坐位置、就坐位置)的变化。
在移动部470的支承部472的下端设置有下表面部474,在下表面部474设置有加速踏板163、制动踏板164。若用户踩踏加速踏板163,则虚拟空间的机器人进行加速地移动的冲刺移动。若用户踩踏制动踏板164,则机器人的移动停止。
在可动壳体40的基底部452设置有框部430。进而,框部430的引导部432引导来自处理装置的缆线20。例如在从下方朝向上方的预定路径上引导缆线20。进而,被引导的缆线20经由经过点TP而连接到HMD200。具体地,缆线20在经过点TP进一步固定于固定件433,并连接到HMD200。
在本实施方式的机器人模拟器中,如图5的(A)所示,生成与用户对应的虚拟用户PLV(虚拟玩家)搭乘于虚拟空间内的机器人RB的驾驶舱CKP而与敌方机器人等对战的机器人游戏的游戏图像。在机器人RB出击时,在虚拟世界中,关闭图5的(A)的盖子FD。进而,用户(虚拟用户)在狭窄的空间的驾驶舱CKP内操纵机器人RB,享受与敌方机器人等对战的游戏。
图5的(B)、图6是通过本实施方式的机器人模拟器生成的游戏图像的例子。如这些游戏图像所示,在虚拟世界的机器人RB的有视野式驾驶舱CKP的盖子FD设置有窗户WD,用户能够经过该窗户WD观看外界情况。在图6中,在窗户WD内显示有敌方机器人ERB、靶标SG、战场的地图。另外,也显示作为用户操作的机器人RB的武器的导弹发射器LAA、加农炮CNB、表示这些武器剩余的弹数的弹数图标SNA、SNB。
靶标SG以追随佩戴HMD200的用户的视线(头部、HMD)的移动的方式移动。例如若用户朝右,则游戏图像上的靶标SG向右移动,若向左,则靶标SG向左移动。用户将靶标SG的位置向敌方机器人ERB的位置移动,并通过发射器LAA、加农炮CNB进行攻击,由此享受对战游戏。
若用户将头部像点头那样朝向下方,并将视线朝向下方,则显示图5的(B)所示的游戏图像。在图5的(B)的游戏图像中,显示了显示器DIS、操作杆LVL、LVR、虚拟用户PLV的手HL、HR的图像。进而,若现实世界的用户对操作部160(左用、右用的操作杆)进行操作,则与此连动地,显示虚拟世界的虚拟用户PLV的手HL、HR对操作杆LVL、LVR进行操作的样子。由此,犹如能够带给用户操作真正的机器人那样的感觉,从而能够大幅提高用户的虚拟现实感。
此外,图6的游戏图像例如可以通过对虚拟世界的机器人RB的外壳等安装左眼用的虚拟摄像头和右眼用的虚拟摄像头,并将从左眼用的虚拟摄像头能够看到的图像显示(投影)于用户的左眼用图像的窗户WD的位置,将从右眼用的虚拟摄像头能够看到的图像显示(投影)于用户的右眼用图像的窗户WD的位置而实现。
像这样在本实施方式的模拟系统中,遍及用户的整个周围的方向地,作为虚拟空间的VR(Virtual Reality)空间的世界扩展。例如若用户面向前方的正面侧,则如图6所示,能够借助设置于虚拟世界的机器人RB的驾驶舱CKP的盖子FD的窗户WD,观察敌方机器人ERB、风景。另外,若用户朝向前方的下方侧,则如图5的(B)所示,能够看到配置于驾驶舱CKP的显示器DIS、虚拟用户PLV通过手HL、HR对操作杆LVL、LVR进行操作的样子。因此,能够带给用户犹如就坐于真正的机器人的驾驶舱,来对该机器人进行操作那样的感觉,从而能够大幅提高用户的虚拟现实感。
图7的(A)是示意性地说明可动壳体40(可动机构)的动作的图。此外,在图7的(A)中,为了便于说明,将图4的罩部451、基底部452、座椅支承部464等结构省略示出。例如在图7的(A)中,对通过电动缸413、414而使座椅462(乘坐部460)旋转移动的情况进行说明,但实际上,图4的基底部452、座椅462等成为一体地旋转移动。
如图7的(A)所示,可动壳体40具有作为致动器的电动缸413、414。电动缸413、414基于来自处理装置的电信号即控制信号,如A1、A2所示,使该杆部直线运动,由此,实现了使座椅462的方向(姿态)等发生变化的动作。具体地,在图4中,实现了使安装有座椅462(乘坐部460)的基底部452的方向(姿态)等发生变化的动作。
在可动壳体40的底部450设置有基台402,在基台402设置有铰链部403、404。进而,电动缸413、414的一端通过铰链部403、404安装于基台402。具体地,铰链部403、404以能够绕水平方向即X轴自由转动的方式支承电动缸413、414的一端。另外,在座椅462的靠背部的背面侧设置有安装部件420,在安装部件420设置有铰链部423、424。进而,电动缸413、414的另一端通过铰链部423、424安装于安装部件420。具体地,铰链部423、424以绕X轴自由转动的方式支承电动缸413、414的另一端。
在基台402设置有铰链部405、406,在铰链部405、406安装有支承部415、419的一端。进而,支承部415、419的另一端安装于座椅462的座部(背面)。更加具体地,支承部415由连杆球416、417、和限制偏转方向(转弯)的移动的连杆轴418构成。支承部419由连杆球构成。此外,支承部415、419实际上设置于图4的罩部451的内侧。
在图7的(B)中示出构成支承部419等的连杆球的例子。在支承部419中,如图7的(B)的B1所示的阳螺纹侧固定于座椅462侧(可动侧),B2所示的阴螺纹侧固定于底部450侧(固定侧)。
通过使用这样的球面滑动轴承部件即连杆球,能够实现由支承部419进行的纵摆、横摆、偏转的旋转移动。此外,在图7的(A)中,通过设置由连杆轴418等构成的支承部415,来限制偏转的旋转移动。该情况下。若作为连杆轴418使用电动缸等来设为自由伸缩,则也能够控制偏转的旋转移动。
例如在图7的(A)中,若电动缸413、414的杆部一起变短,则座椅462(基底部452)绕X轴纵摆,来实现用户后部下沉的动作。例如在图4中,在用户踩踏加速踏板163,而使机器人的移动加速的情况下,为了体感该加速感,进行用户后部下沉那样的纵摆的旋转移动。
另外,若电动缸413、414的杆部一起变长,则座椅462(基底部452)绕X轴纵摆,来实现了用户前倾的动作。例如在图4中,用户踩踏制动踏板164来使机器人的移动减速的情况下,为了体感该减速感,进行用户变成前倾那样的纵摆的旋转移动。
另外,用户在对图4的操作杆161、162进行操作,来进行将机器人相对于行进方向向右侧、左侧转弯的操作的情况下,进行将电动缸413、414的杆部的一方变短,另一方变长的控制。由此,座椅462(基底部452)绕Z轴横摆,能够使用户体感机器人相对于行进方向朝右侧、左侧转弯时的惯性力。
像这样,通过使用户体感伴随着机器人的移动的加速感、减速感、惯性力,能够提高用户的虚拟现实感,并且也能够抑制所谓的3D晕眩。即,例如在HMD200中,若虚拟用户所搭乘的机器人(搭乘移动体)移动的图像被立体地显示,而在实际世界中用户的游戏位置几乎不移动,则用户产生感觉的偏差,引起3D晕眩。
在该点上,在本实施方式中,通过设置可动壳体40,能够减缓这样的3D晕眩。即,在机器人的加速、减速、转弯时,使可动壳体40的座椅462(基底部452)旋转移动(横摆、纵摆等),来使用户的游戏位置发生变化。通过这样做,虚拟世界的现象与实际空间的现象变得接近,从而能够减缓3D晕眩。
图8是表示模拟系统的一个例子即滑雪模拟器的结构例的立体图。滑雪模拟器具有可动壳体40,该可动壳体40包括在DRC方向上对置设置的基底部41、42。在基底部41、42之间,且在其四角设置有空气弹簧部50、51、52、53(广义上为伸缩部)。这些空气弹簧部50、51、52、53使用空压机、阀来进行空气的供给、排出,因此在DRC方向上进行伸缩。
例如,如图8所示,将铅锤方向设为Y轴方向,将用户PL朝向的方向设为Z轴方向,将与Y轴方向及Z轴方向正交的方向设为X轴方向。该情况下,通过所有的空气弹簧部50、51、52、53拉伸、或收缩,能够使基底部41在Y轴方向上向上侧、下侧移动。通过这些上下方向上的基底部41的移动,例如可以再现用滑雪板滑雪时的雪面的状态。例如,通过以较小的行程、且以较快的速度使基底部41沿上下方向移动,能够表现雪面的凹凸等。
另外,通过四角的空气弹簧部50、51、52、53中的左侧及右侧中的一个空气弹簧部拉伸,另一个空气弹簧部收缩,能够使基底部41绕Z轴横摆。另外,通过空气弹簧部50、51、52、53中的前侧及后侧的一个空气弹簧部拉伸,另一个空气弹簧部收缩,能够使基底部41绕X轴纵摆。通过进行这样的横摆、纵摆,能够表现用滑雪板滑雪的斜面的状态等。
另外,在可动壳体40设置有相对于底部41自由转动的操作部件43、44,操作部件43、44用于放置用户PL的左脚、右脚。具体地,操作部件43、44朝图8的DRD方向摇摆移动(摆动)。即,能够进行绕Y轴的偏转的摇摆移动。脚台45、46朝DRE方向转动。即,能够进行绕Z轴的旋转。
用户PL以滑动滑雪板的要领进行使用了操作部件43、44、脚台45、46的操作。例如,通过进行将操作部件43、44在DRD方向上摇摆移动的摇摆操作、使脚台45、46在DRE方向上转动的留痕迹操作,从而进行像用现实世界的滑雪板进行那样的滑雪操作。由此,在HMD200放映出的虚拟用户进行对应的滑雪操作,用户PL能够体感在虚拟空间内的路线上滑动滑雪板的虚拟现实。
另外,在可动壳体40设置有引导部60、62,引导部60、62在前端设置有用于用户PL用手把持的把持部61、63(把持部63未图示)。把持部61、63相当于现实世界的滑雪杖的手柄。用户PL用手握住把持部61、6,由此支承自己的身体,并且以进行滑雪的要领进行将操作部件43、44摇摆移动的摇摆操作,或者进行使用脚台45、46的留痕迹操作,而享受滑雪的模拟游戏。
此外,从设置于用户PL的前方的风洞部69送出风,使用户PL体感由于用滑雪板滑雪而产生的风。另外,引导部60将来自生成HMD200的显示图像的处理装置(包含图1的处理部100、存储部170等的装置。例如游戏装置、PC等)的缆线20从下方向上方沿着预定路径进行引导。进而,缆线20通过支承引导件64而被从作为经过点TP的缆线取出口65取出,并与HMD200连接。
此外,实现本实施方式的模拟系统的装置并不限于图4、图6所示的装置。例如,本实施方式的模拟系统能够应用于作为显示部使用HMD的家庭用游戏装置、业务用游戏装置、个人计算机(PC)、便携式信息终端、多名用户参加的大型娱乐装置等各种装置。另外,本实施方式的模拟系统也可以通过经由网络通信连接多个终端装置(游戏装置、PC、便携式信息终端等)的服务器系统而实现。在该情况下,本实施方式的各处理也可以通过模拟系统与终端装置的分散处理而实现。
4.本实施方式的方法
接下来,对本实施方式的方法详细地进行说明。此外,以下主要以将本实施方式的方法应用于图4的机器人模拟器的情况为例进行说明。不过,本实施方式并不限于此,能够应用于各种游戏(RPG、动作游戏、对战游戏、竞赛游戏、体育游戏、恐怖体验游戏、电车、飞机等交通工具的模拟游戏、益智游戏、交流游戏、或者音乐游戏等),也能够应用于游戏以外。另外,以下以移动体是虚拟用户(角色)所搭乘的机器人等搭乘移动体的情况为例进行说明,但移动体也可以是与用户对应的虚拟用户(例如图8的滑雪者)。
4.1 3D晕眩
图9是表示HMD的光学系统的结构例的图。在用户的左眼、右眼的前方侧设置有目镜2、4、显示器6、8。在显示器6、8分别显示立体观察的左眼用、右眼用的图像。目镜2、4的镜片中央间的距离例如被设定为与左眼用、右眼用的图像的生成用的第一、第二虚拟摄像头的摄像头间距离相应的距离。此外,也可以在一个显示器的第一、第二显示区域显示左眼用、右眼用的图像。
通过设置这样的目镜2、4,能够在远离虚拟观察距离VD(观察距离)的位置像存在明显的显示器即虚拟画面10那样进行识别。例如以立体观察下的视差为零的显示物配置于虚拟画面10的位置的方式显示能够看到图像。该情况下,例如,通过变更目镜2、4的焦点距离等,能够调整虚拟观察距离VD、虚拟画面10的画面尺寸等。
图10是通过本实施方式的比较例的方法生成的游戏图像的例子。在该比较例的方法中,不进行实施方式那样的晕眩防止用的图像效果处理,而将从虚拟摄像头能够看到的图像(通过渲染处理生成的图像)保持原样地显示于HMD。因此,游戏图像上的所有显示物OB1~OB10作为对焦图像进行显示。像这样,若从虚拟摄像头能够看到的图像保持原样地显示于HMD,则大脑感到从虚拟摄像头观察从近到运的所有显示物OB1~OB10是能清楚地看到的状态,欲拾取全部的信息,则变得信息过多,诱发3D晕眩。3D晕眩例如是通过持续观察有立体感的移动激烈的影像,引起头晕等交通工具晕眩那样的症状。例如在现实世界的人的眼睛中,对于眼睛注视的物体对焦,但对于注视的物体的周围的物体,实际上看起来模糊。因此,如图10所示,对于除用户(虚拟用户)注视的显示物OB1(敌方机器人)以外的显示物OB2~OB10,若成为有焦点的图像,则与在现实世界中眼睛能够看到的图像不同。因此,对于用户而言变成不自然的图像而产生眼睛的疲劳,成为3D晕眩等的原因。进而,若产生这样的3D晕眩,则成为用户的长时间游戏的阻碍,用户不进行再次游戏,模拟系统的魅力、利用率降低。
例如,如图11的D1所示,在现实世界中,人类通过眼睛的焦点距离FCD的调节(眼球的水晶体的调节)、与双眼的视线交叉的角度即会聚角θC的調整,识别物体的深度位置等。即,通过调节眼睛的焦点距离FCD的调节需求、和调整会聚角θC的会聚需求,识别深度感、立体感。
另一方面,在立体观察中,如图11的D2所示,通过将有视差的图像显示于虚拟画面10,将显示物的图像融合于虚拟画面10的纵深侧。该情况下,由于虚拟画面10处于虚拟观察距离VD的位置,因此眼睛的焦点距离变成FCD=VD,而对于会聚角θC,以双眼的视线交叉于融合的显示物的位置的方式进行调整。即,在立体观察中,立体感主要通过视差而做出,忽视了眼睛的焦点距离FCD的调节这一概念。即,通过左眼用图像与右眼用图像的视差,将显示物在虚拟画面10的纵深侧、跟前侧融合的情况下,与其相应地对会聚角θC进行调整,但眼睛的焦点距离为了FCD=VD而变成恒定。因此,与现实世界中的眼睛的移动乖离,该乖离产生不自然感,引起3D晕眩等。
例如,在图10的游戏图像中,若用户注视处于距虚拟摄像头较远的显示物OB5~OB10,则如图11的D2所示,焦点距离FCD保持恒定的状态不变地仅调整会聚角θC,来看到这些显示物OB5~OB10。因此,用户被迫与现实世界中的眼睛的移动乖离的眼睛的移动。例如,如在图11的D2中说明的那样,在立体观察中,调节需求被固定,而会聚需求变成可变。进而,用于实现立体观察的实际图像要求一边保持与光学相同的虚拟观察距离VD不变地显示于虚拟画面10,一边用户以将视线朝向各种不同的纵深度值的显示物OB5~OB10的方式移动眼睛。即,若在游戏图像上显示这样的纵深度值不同的多个显示物OB5~OB10,则每当注视这些显示物时,用户被迫眼睛的不自然的移动。其结果,具有导致用户3D晕眩这一问题。
4.2图像效果处理
为了解决以上那样的问题,在本实施方式中,采用进行晕眩防止用的图像效果处理的方法。具体地,如图12所示,对于与处于距虚拟摄像头VC给定距离范围DRG1内的显示物OBX相比而处于比距离范围DRG1远的距离范围DRG2内的显示物的图像,进行模糊处理作为晕眩防止用的图像效果处理。例如对作为从虚拟摄像头能够看到的图像而通过渲染处理所生成的图像,进行晕眩防止用的图像效果处理,由此将处于距虚拟摄像头VC远的距离范围DRG2内的显示物OBY的图像进行模糊。例如,对于处于距离范围DRG1(第一距离范围)内的显示物OBX,设为对焦图像(焦点图像),而对于处于距离范围DRG2(第二距离范围)内的显示物OBY,设为模糊的图像(散焦图像)。此外,距离范围是虚拟摄像头VC的深度方向上的距离(Z)的范围。另外,开始显示物的模糊处理的距离(深度距离)能够任意地进行设定。
图13是通过本实施方式的方法生成的游戏图像的例子。在图13中,对于处于距虚拟摄像头较近距离处的显示物OB1~OB4,未变成模糊的图像。例如,显示物OB1~OB4成为对焦图像。另一方面,对于处于距虚拟摄像头较远距离处的显示物OB5~OB10,成为通过图像效果处理模糊的图像。例如,显示物OB5~OB10变成未对焦图像。此外,OB1、OB2是表示敌方机器人、OB3表示敌方砲台、OB5表示桥、OB4、OB6、OB7、OB8、OB9表示照明塔、OB10表示山的显示物。
像这样,在图13中,对于从虚拟摄像头(虚拟用户的视点)观察处于较近的显示物OB1~OB4,成为对焦清楚的图像。因此,用户能够将这些显示物OB1~OB4作为注视对象顺畅地进行游戏操作。例如将靶标SG与敌方机器人的显示物OB1、OB2、敌方砲台的显示物OB3对齐来享受攻击等的游戏操作。
另一方面,对于从虚拟摄像头观察处于较远处的显示物OB5~OB10,成为未对焦的模糊的图像。因此,通过用户注视这些显示物OB5~OB10,能够有效地防止引起3D晕眩。即,在用户佩戴HMD来观看虚拟空间的景色时,通过进行图12那样的图像效果处理,例如如图13那样,在画面的中央部对焦,除中央部以外处进行模糊来显示能够看到的图像。因此,用户以把视线(目线)仅对焦到画面中央部的方式意识发挥作用,将眼睛的视线(会聚)对焦到这里。其结果为,用户的视线不会朝向画面中央部的外侧的各种位置,从而能够防止3D晕眩。另外,仅画面中央部的注视位置看起来清楚,其周边模糊的图像变成与人类的眼睛的状态同样地,因此也有能够显示对于用户而言感到自然的图像的优点。
例如新手、初学者的用户一边将头部的朝向设为前方方向来朝向画面中央部的方向,一边仅使眼睛环视,想要看见画面中央部的外侧的周缘部的显示物。该情况下,若周缘部的显示物是对焦图像,则如在图11的D2中说明的那样,焦点距离FCD保持恒定不变,发生仅使会聚角θC变化的眼睛的移动,引起3D晕眩。
在该点上,根据本实施方式的方法,如图13所示,对于画面中央部的显示物(OB1等)成为清晰的图像,而对于周缘部的显示物(OB5~OB10),成为模糊的图像。因此,防止用户使眼睛环视来进行仅使会聚角θC变化的眼睛的移动,从而能够有效地防止3D晕眩。
进而,在本实施方式中,作为这样的图像效果处理,例如进行景深处理。作为景深处理例如能够使用虚幻引擎中的高斯DOF等。图14的(A)是景深处理的说明图。例如在虚幻引擎中,如图14的(A)所示,能够设定焦点区域FCRG(焦点距离)、近点侧过渡范围NTR、远点侧过渡范围FTR、模糊度(模糊尺寸)等参数。比近点侧过渡范围NTR靠跟前侧(接近虚拟摄像头的一侧)的区域是近点侧模糊区域NERG(近侧模糊区域)。比远点侧过渡范围FTR靠纵深侧(距虚拟摄像头远的一侧)的区域是远点侧模糊区域FARG(远侧模糊区域)。
进而,在本实施方式中,图12的距离范围DRG1包含于图14的(A)的焦点区域FCRG。另外,距离范围DRG2包含于远点侧模糊区域FARG。通过这样做,如图13的游戏图像所示,处于距离范围DRG1(FCRG)内的显示物OB1~OB4成为对焦图像,而处于距离范围DRG2(FARG)内的显示物OB5~OB10通过景深处理成为模糊的图像。因此,能够有效利用景深来实现晕眩防止用的图像效果处理。
更加具体地,在本实施方式中,如图14的(B)所示,图12的距离范围DRG1包含于景深的焦点区域FCRG,在从虚拟摄像头观察而比焦点区域FCRG靠跟前侧的区域中,不进行模糊处理。即,图14的(A)的近点侧过渡范围NTR未设定,而近点侧模糊区域NERG变得无效。进而,以在比焦点区域FCRG靠纵深侧的区域中进行模糊处理的方式进行景深处理。例如,设定图14的(A)的远点侧过渡范围FTR,将远点侧模糊区域FARG设为有効。该远点侧模糊区域FARG例如相当于图12的距离范围DRG2。
这样一来,如图13所示,对于从虚拟摄像头观察较近的显示物OB1~OB4,生成对焦图像,对于从虚拟摄像头观察较远的显示物OB5~OB10,生成未对焦的模糊的图像。
例如景深处理为了生成照片般逼真的图像而通常被利用。例如仅将焦点对焦到车、人物等成为关注对象的显示物,除此之外的显示物通过景深处理生成成为模糊的图像那样的镜片模拟的图像。进而,不会始终执行景深处理,而仅在车、人物等成为关注对象的显示物所搭乘的场景中,执行景深处理。即,为了生成通过摄像头的镜片感到那样的照片般逼真的图像,执行景深处理。进一步,在虚幻引擎中,景深处理作为引起用户的不适感等,推荐不在HMD用的图像的生成时使用。
在点上,在本实施方式中,不是为了显现这样的照片般逼真的图像而使用景深处理,而是为了防止用户的3D晕眩而使用景深处理。因此,不是为了照片般逼真的图像表现的参数设定,而进行将焦点仅对焦到距虚拟摄像头比较近的显示物,较远的显示物模糊那样的参数设定。另外,在本实施方式中,在虚幻引擎中不被推荐的景深处理为了HMD用的图像的生成而特别使用。
例如,在忠实的镜片模拟的景深处理中,在近点侧模糊区域NERG中也进行显示物的模糊处理。相对于此,在图14的(B)的方法中,对于近点侧模糊区域NERG设为无效,对于远点侧模糊区域FARG设为有効,从而仅对远处的显示物进行模糊处理。通过这样做,对于处于距虚拟摄像头较近的位置的显示物,不会变成模糊的图像,用户能够以自然的感觉进行游戏操作。此外,也能够进行将近点侧模糊区域NERG设为有効,对于距虚拟摄像头非常近的显示物进行模糊处理那样的变形方式。
另外,在用于照片般逼真的图像表现的景深处理中,仅在上述的车、人物登场等特定的场景中,执行景深处理。而在本实施方式中,在游戏开始之后,始终执行景深处理。具体地,从与用户对应的移动体(虚拟用户、搭乘移动体)在游戏阶段登场,而变成显示游戏阶段的图像那样的时机起,至该游戏结束为止的游戏操作期间,始终执行景深处理。像这样,在游戏操作期间中,始终执行景深处理,由此能够有效地防止在游戏操作期间用户产生3D晕眩的情况。
另外,在本实施方式中,也可以使景深的焦点区域FCRG的宽度与移动体的移动状态相应地发生变化。例如机器人、虚拟用户等的速度、加速度越高,景深的焦点区域FCRG越窄。
例如,在图15的(A)中,如C1所示,用户的机器人RB以敌方机器人ERB为中心进行旋转的移动。在本实施方式的机器人模拟器中,通过对图4的操作杆161、162等进行操作,能够容易地进行这样的旋转移动。进而,像这样在变成以敌方机器人ERB为中心,用户的机器人RB以高速旋转移动那样的状况的情况下,如图15的(B)的C2所示,将景深的焦点区域FCRG变窄。通过这样做,仅对处于用户的机器人RB的附近的敌方机器人ERB生成对焦图像,对于其他显示物成为模糊的图像。
通过这样做,在用户的机器人RB的旋转移动时,在成为以除敌方机器人ERB以外的多数显示物横切画面的方式显示的状况的情况下,由于这些显示物成为模糊的图像,因此能够有效地防止用户的3D晕眩的产生。即,在这样的状况中,若除敌方机器人ERB以外的多数显示物在画面上高速地移动,用户将视线对焦到这些显示物,则3D晕眩发生的概率变得非常高。在该点,在本实施方式中,像这样,在机器人RB的移动状态成为规定状态(高速旋转移动等)的情况下,用户注视的除敌方机器人ERB以外的显示物成为模糊的图像。因此。能够抑制用户将视线朝向这些显示物的情况,从而能够有效地防止3D晕眩的产生。
另外,在本实施方式中,也可以进行雾化处理作为晕眩防止用的图像效果处理。该情况下的雾化处理可以是能够指定雾化颜色的雾化处理,也可以是不需要雾化颜色的指定的雾化处理。
例如,图16是可以指定雾化颜色的雾化处理的参数的设定例。在图16中,例如按照各游戏阶段设定雾化颜色、雾化处理的强度(模糊度)。例如若为晚上的游戏阶段,则将雾化颜色设定为黑色,若为下午的日落的游戏阶段,则将雾化颜色设定为红色。在能够设定这样的雾化颜色的雾化处理的情况下,作为图像效果处理,希望进行景深处理与雾化处理双方。通过这样做,对于处于距虚拟摄像头较远的距离的显示物(远景显示物),通过景深处理变成模糊的图像,并且通过雾化处理而接近规定颜色。其结果为,远处的显示物变得更不醒目,能够更加有效地防止用户将眼睛环视该显示物那样的情况。此外,作为晕眩防止用的图像效果处理,也可以仅进行模糊处理。例如,作为晕眩防止用的图像效果处理,进行无法设定雾化颜色那样的雾化处理(环境雾化等)。该情况下,希望以与利用景深处理下的镜片模拟的模糊度相同的模糊度生成图像的方式,设定雾化处理的各种参数。
或者作为本实施方式的变形例,例如也可以从画面中央部朝向画面端部(周缘部)遍及多个方向地施加抖动那样的抖动处理。若这样做,则对于画面中央部,通过抖动处理而不将图像模糊,能够生成随着从画面中央部朝向画面端部通过抖动将图像模糊那样的显示图像。因此,用户的视线集中到画面中央部,视线不朝向周缘部的显示物,因此能够有效地防止用户的3D晕眩。
另外,在本实施方式中,对于通过与从虚拟摄像头向视线方向侧延伸的线段的碰撞判定处理判定为与线段交叉的显示物,也可以不进行模糊处理而采用对其他显示物进行模糊处理那样的方法。
例如在图17中,用于设定靶标SG的线段LSG以沿着虚拟摄像头VC的例如视线方向CVL的方式进行设定。在图17中,该线段LSG与敌方机器人ERB交叉,判定为正进行碰撞。因此,在线段LSG的交叉位置设定并显示靶标SG。该情况下,线段LSG变成有限的长度LA,该线段LSG不与处于距虚拟摄像头VC非常远的显示物OBF、OBG交叉。因此,对这些显示物OBF、OBG进行模糊处理,生成模糊的图像。
通过这样做,对于作为用户注视的显示物的敌方机器人ERB,不进行模糊处理,而对于用户未注视的显示物OBF、OBG,进行模糊处理。由此,对于用户注视的敌方机器人ERB,变成对焦图像,在用户的视野中在其周边能够看到的显示物OBF、OBG变成模糊的图像。因此,抑制了用户的视线朝向显示物OBF、OBG,能够防止由于眼睛的焦点距离与会聚角的关系同现实世界乖离而引起的3D晕眩的发生。此外,在图17中,对线段LSG交叉的显示物(ERB)不进行模糊处理,而在该显示物的基础上,对于处于距该显示物给定距离范围内的显示物,也可以不进行模糊处理。通过这样做,能够实现对于处于以在画面上的用户的注视点为中心的给定区域内的显示物,变成对焦图像,对于处于该区域的外侧的区域的显示物变成模糊的图像那样的图像效果处理。
另外,图12的距离范围DRG2例如能够基于在图9中说明的HMD的虚拟观察距离VD(观察距离)而设定。例如在图18的(A)中,VSC是虚拟画面,VD是相当于从虚拟摄像头VC至虚拟画面VSC的距离的虚拟观察距离。如在图10中说明的那样,虚拟观察距离VD由HMD的光学系统的特性(镜片焦点等)规定。FOV(Field Of View)相当于视野角。例如在本实施方式中,能够进行110度以上的视角下的图像生成。像这样通过设为较广的视角,能够遍及用户的视野的整个周围地,进行宽广的VR空间扩展那样的VR图像的生成。
进而,如图18的(B)所示,在图12中说明的距离范围DRG1基于该虚拟观察距离VD而设定。例如以距虚拟摄像头VC虚拟观察距离VD的位置包含于DRG1的方式设定距离范围DRG1。
具体地,如图18的(B)所示,距离范围DRG1设定为距虚拟摄像头VC0.75m~3.5m的距离范围。该距离是在虚拟空间中的距离,以虚拟空间中的距离与现实世界中的距离一致的方式设定VR世界。进而在本实施方式中,在至少0.75m~3.5m的距离范围DRG1中,不进行显示物的模糊处理,而在比距离范围DRG1远的距离范围DRG2中进行显示物的模糊处理。例如在图18的(B)中,进行模糊处理的距离范围DRG2为距虚拟摄像头VC距离LD2(深度方向的距离)的距离范围。例如在距虚拟摄像头VC的位置距离LD2的位置为止的距离范围中不进行模糊处理,而在距离LD2以上的距离范围DRG2进行模糊处理。距离LD2例如在图14的(A)、图14的(B)的景深处理中是规定远点侧模糊区域FARG、远点侧过渡范围FTR的距离。该距离LD2例如以判断游戏阶段的宽度、用户的游戏操作的容易性、用户对游戏图像是否感到不自然等为基准来进行设定,例如能够设定为10m~80m左右的范围内的距离。
例如在图9那样的结构的HMD中,为了防止用户的眼睛的疲劳等,知道长时间、注视的显示物(例如新增显示、用户关心的注视对象)在虚拟空间中配置在0.75m~3.5m的距离范围,希望进行渲染。若为0.75m~3.5m的距离范围内的显示物,则如图11的D2那样,认为虽然在眼睛的调节需求与会聚需求的关系同现实世界乖离的情况下,引起3D晕眩的可能性也极低。因此,在本实施方式中,对于至少0.75m~3.5m的距离范围DRG1内的显示物,不进行模糊处理而设为对焦图像。
另一方面,虽然处于比距虚拟摄像头VC0.75m~3.5m的距离范围DRG1远的位置,但不是那么远的位置的显示物成为模糊的图像,则用户感到不自然,或者成为游戏操作的障碍,有可能游戏平衡崩溃。因此,在比作为距离范围DRG1的远点侧的位置的距离3m长的距离设定LD2。例如在考虑了游戏平衡等的距离设定LD2。进而,对距离LD2以上的距离范围DRG2内的显示物进行模糊处理,防止3D晕眩的发生。通过这样做,能够实现兼顾3D晕眩的发生的防止与优选的游戏平衡的调整。
4.3模糊处理的例外、视觉辨认度强调处理
在本实施方式中,对于即使是处于比距离范围DRG1远的距离范围DRG2的显示物的预定显示物,从模糊处理的对象中排除,或者减弱模糊度。即,对特定的显示物进行模糊处理的例外处理。
例如,在图19的(A)中,敌方机器人ERB虽然位于距离范围DRG2内,但为用户应注视的重要的显示物。因此,对于该敌方机器人ERB,从模糊处理的对象中排除,或者与处于距离范围DRG2内的其他显示物相比减弱模糊处理的模糊度。通过这样做,用户在敌方机器人ERB位于较远的距离范围DRG2内的情况下,也能够视觉上清楚地识别到其存在,从而能够实现用户的顺畅的游戏操作。
另外,位于距离范围DRG2内的照明塔LG的照明、敌方机器人ERB的眼睛的部分发光,但并不希望通过模糊处理减弱该光。因此,在这样的情况下,对于照明塔LG的照明部分、敌方机器人ERB的眼睛的部分等发光部分,减弱模糊处理的模糊度。若以图像效果处理为雾化处理的情况为例,对于照明塔LG的照明部分、敌方机器人ERB的眼睛的部分等发光部分,降低雾化密度,来尽可能地不使其模糊。通过这样做,可以适当地图像表现这些发光部分看起来合理地发光的样子。
例如,在雾化处理中,对各显示物准备用于调整雾化施加程度的参数。因此,通过对照明塔LG的照明部分、敌方机器人ERB的眼睛的部分等发光部分调整该参数,能够调整雾化施加程度,来减弱模糊度。此外,作为从模糊处理的对象中排除、或者减弱模糊度的显示物,能够假设各种显示物。例如,希望对于在游戏中假设为重要的显示物、靶标(GUN SIGHT)等显示物、发出发光、爆炸、中弹等规定的效果的显示物,希望从模糊处理的对象中排除,或者减弱模糊度。
另外,在本实施方式中,也可以对于即使是处于比距离范围DRG1远的距离范围DRG2内的显示物的预定显示物,与其他显示物相比进行提高视觉辨认度的处理。例如作为提高视觉辨认度的处理,对该预定显示物进行尺寸变化处理、亮度变化处理、色调变化处理、或者纵深度值变化处理。
例如,在图19的(B)的表信息中,与各显示物建立对应关系地设定有视觉辨认度强调标志。进而,例如针对视觉辨认度强调标志被设为1的显示物,例如在位于距离范围DRG2内的情况下,进行强调视觉辨认度的处理。强调视觉辨认度的处理是与不进行该处理的通常状态时相比,用户变得易视觉确认该显示物那样的处理。
例如,在图20中,发出爆炸效果的显示物OBH位于距离范围DRG2内。该情况下,例如,与通常时相比,增大显示物OBH的尺寸,或者提高显示物OBH的亮度(爆炸效果的亮度),使显示物OBH的色调(爆炸效果的色调)变化成更醒目的色调。通过这样做,在通过位于距离范围DRG2而对显示物OBH进行模糊处理的情况下,也能够通过显示物OBH的尺寸、亮度或色调发生变化,从而提高该视觉辨认度。因此,能够防止发生用户无法充分视觉确认显示物OBH的爆炸的效果那样的情况。
或者,也可以使显示物OBH的纵深度值(Z值、深度距离)发生变化。例如显示物OBH以位于与距离范围DRG2相比接近虚拟摄像头VC的一侧的方式使纵深度值发生变化。通过这样做,不对显示物OBH进行模糊处理,从而能够提高用户的视觉辨认度。另外,在例如进行与距离相应地使模糊度发生变化那样的图像效果处理的情况下,通过使显示物OBH的纵深度值以变成接近虚拟摄像头VC的一侧的方式变化,能够减弱模糊度,从而能够提高该视觉辨认度。此外,作为成为提高视觉辨认度的处理的对象的显示物,能够假设各种显示物。例如,对于在游戏中假设为重要的显示物、靶标等显示物、产生发光、爆炸、中弹等预定效果的显示物,希望进行提高视觉辨认度的处理。
4.4图像效果处理的开启、关闭、效果度的设定等
在本实施方式中,获取用户的视点信息的追踪信息,并基于获取到的追踪信息使虚拟摄像头VC的位置、姿态发生变化。这里,虚拟摄像头VC的位置对应于视点位置CVP,虚拟摄像头VC的姿态对应于视线方向CVL。
例如,如图21的(A)~图21的(C)所示,若现实世界的用户PL将视线方向VL(头部)朝向下方向、上方向,则该用户PL的视点信息的追踪信息(视点追踪信息)例如通过HMD200的追踪处理而被获取。进而基于获取到的追踪信息(用户的视点位置、视线方向的特定信息)设定虚拟摄像头VC的视点位置CVP、视线方向CVL,由此如图21的(A)~图21的(C)所示,使虚拟摄像头VC的位置、姿态发生变化。例如,如图21的(B)所示,若用户PL的视线方向VL朝下方向,则虚拟摄像头VC的视线方向CVL也朝下方向。如图21的(C)所示,若用户PL的视线方向VL朝上方向,则虚拟摄像头VC的视线方向CVL也朝上方向。通过这样做,若现实世界的用户PL使视点位置VP、视线方向VL发生变化,则与其相应地,虚拟摄像头VC的视点位置CVP、视线方向CVL也发生变化。因此,虚拟摄像头VC如用户PL的实际第一人称视点那样进行动作,因此能够提高虚拟现实感。
另一方面,虚拟摄像头的视点位置、视线方向在虚拟空间中也根据移动的移动体的移动状态而变化。移动体例如在虚拟空间中是与用户对应的虚拟用户(例如滑雪者等角色)、虚拟用户所搭乘的搭乘移动体(例如机器人、车)等。
例如,在图22的(A)中,在作为移动体的角色CH的前方侧(行进方向侧)存在岩石RK(碰撞对象物),再图22的(B)中,角色CH与该岩石RK碰撞。由此,如图22的(C)所示,角色CH的行进方向DT发生变化。这样的行进方向DT的变化处理例如能够通过进行角色CH与岩石RK的碰撞的运算处而实现。该碰撞的运算处理能够通过进行基于由于角色CH与岩石RK的碰撞而受到的反作用力的物理运算处理而实现。例如,通过由于图22的(B)的碰撞而受到的反作用力,如图22的(C)所示,进行使角色CH的行进方向DT发生变化的物理运算处理。
像这样通过与岩石RK的碰撞等,若角色CH的行进方向DT较大地变化,则导致HMD显示图像较大地变化。该HMD的显示图像的较大的变化例如招致3D晕眩等的问题。
例如,通过与图22的(B)的岩石RK的碰撞,如图22的(C)所示,角色CH的行进方向DT较大地变化,导致追随角色CH的虚拟摄像头的视线方向、视点位置也较大地变化。例如在第一人称视点的情况下,在角色CH的视点的位置设定虚拟摄像头,例如虚拟摄像头的视线方向朝向角色CH的行进方向DT。因此,如图22的(C)所示,若行进方向DT较大地变化,则虚拟摄像头的视线方向、视点位置也较大地变化,HMD的显示图像也较大地变化。
这样的碰撞事件发生时的HMD的显示图像的剧烈的变化由于虚拟空间中的伪现象(伪碰撞)而产生,因此在与现实世界的现象之间存在乖离。若发生这样的、与现实世界乖离的HMD的显示图像的剧烈的变化,则引起用户的3D晕眩。
该情况下,例如也能够在与图22的(B)的岩石碰撞时,使图8、图4的可动壳体40动作,来使用户体感基于碰撞的反作用力,由此减小现实世界与虚拟世界的乖离,减轻用户的3D晕眩。例如在与岩石的碰撞时,通过使图8的空气弹簧部50~53稍微伸缩,从而能够使用户在某种程度上体感由于体感碰撞所产生的振动。
然而,在基于这样的可动壳体40的碰撞的伪体感存在界限,在显示于HMD的虚拟世界的图像的剧烈的变化、与现实世界的用户的体感之间存在较大的乖离。即,产生在现实世界中,用户未与岩石碰撞,而仅虚拟世界的图像通过与岩石的碰撞而较大地摇晃移动的现象。若频繁产生这样的现象,则引起用户的3D晕眩等。
因此,在本实施方式中,采用判定与虚拟摄像头、移动体等相关的各种状况,来与该状况相应地进行图像效果处理的开启、关闭的设定、图像效果处理的效果度的设定的方法。图23是说明该方法的处理的流程图。
首先,获取虚拟摄像头的视线方向或视点位置的变化状况、移动体的移动状态的变化状况、虚拟摄像头的注视位置或注视对象的状况、或者游戏状况(步骤S1)。例如如图22的(A)~图22的(C)所示,在发生了虚拟摄像头的视线方向、视点位置变化、或者移动体的移动状态变化的状况的情况下,获取该状况的信息。或者,获取关于虚拟摄像头的注视位置或注视对象是易产生晕眩的位置、对象的信息。或者,获取关于易产生3D晕眩的游戏状况的信息。进而,与获取到的各状况相应地,进行图像效果处理的开启、关闭的设定、或效果度的设定(步骤S2)。
例如,在为虚拟摄像头的视线方向或视点位置、移动体的移动状态(速度、加速度)较大地发生变化的状况的情况下,将晕眩防止用的图像效果处理设为开启,在不是这样的状况的情况下,将晕眩防止用的图像效果处理设为关闭。例如,如图22的(C)所示,在作为移动体的角色CH的行进方向DT较大地发生变化的状况的情况下,将图像效果处理设为开启。或者,与虚拟摄像头的视线方向或视点位置、移动体的速度或加速度等的变化量相应地设定效果度。例如,若变化量越大,则越加强模糊度等效果度。另外,虚拟摄像头朝向的方向的场景显示有许多显示物,在为易产生3D晕眩的状况的情况下,将图像效果处理设为开启。另一方面,在几乎未显示有显示物,并不易产生3D晕眩的状况的情况下,将图像效果处理设为关闭。或者,也可以与注视位置等的显示物的数量相应地,使图像效果处理的效果度发生变化。或者,在游戏的行进状况、游戏阶段的状况、或者对战状况等游戏状况是易产生晕眩的游戏状况的情况下,将图像效果处理设为开启,在不是这样的游戏状况的情况下,将图像效果处理设为关闭。
例如在图24的表信息中,将图像效果处理的开启、关闭的标志、效果度的参数与各状况建立对应关系。进而,若为图24的状况CA1,则将图像效果处理设定为开启,将效果度设定为EF1。若为状况CA2,则将图像效果处理设定为开启,将效果度设定为EF2。效果度EF1、EF2例如是设定图像效果处理的模糊处理的模糊度等的参数。另一方面,若为状况CA3、CA4,则能够将图像效果处理设定为关闭。
此外,在将图像效果处理设为开启的虚拟摄像头、移动体的状况例如是虚拟摄像头的视线方向、视点位置、移动体的速度、加速度等突然变化,或者预测突然变化的状况。即,是产生3D晕眩的可能性高的状况。例如,如图22的(A)~图22的(C)所示,是与岩石碰撞,或者超速而侧滑,或者在坡路上突然下滑,或者从悬崖落下等的状况。
另外,在本实施方式中,也可以与用户的游戏等级(游戏操作的等级)相应地设定图像效果处理的开启、关闭,或者设定图像效果处理的效果度。
例如在图25的表信息中,将图像效果处理的开启、关闭的标志、效果度参数与用户的各游戏等建立对应关系。例如在用户的游戏等级为新手、初级、初中级、中级、中上级的情况下,将图像效果处理设定为开启,效果度被分别设定为EFA、EFB、EFC、EFD、EFE。这里对于效果度而言,新手用的效果度EFA最强,中上级用的效果度EFE最弱。在效果度是模糊处理的模糊度的情况下,新手用的模糊度最强,中上级用的模糊度最弱。通过这样做,能够防止未习惯于游戏的新手等产生3D晕眩的情况。另一方面,在用户的游戏等级为上级、超上级的情况下,将图像效果处理设定为关闭。通过这样做,假设为习惯于游戏,并不易引起3D晕眩的用户能够一边观察未对显示物进行模糊处理的真实的游戏图像,一边进行游戏操作。
这里,用户的游戏等级能够基于追踪用户的头部的移动的追踪信息、用户的游戏历史记录信息等进行判断。
图26是基于追踪信息判断游戏等级的处理的流程图。首先,判断游戏是否开始(步骤S11),在开始的情况下,进行用户的头部的移动的追踪处理,来获取追踪信息(步骤S12)。具体地,进行如在图2的(A)~图3的(B)中说明的那样的HMD的追踪处理,获取用于确定用户的视线方向、视点位置的追踪信息。进而,基于获取到的追踪信息,判断用户的游戏等级(步骤S13)。
例如,新手、初级者的用户处于在游戏开始后,几乎不移动佩戴HMD的头部的趋势。另一方面,上级者的用户处于从游戏的开局频繁地移动头部,想看到各种位置的趋势。因此通过获取用户的头部的移动的追踪信息,能够判断用户的游戏等级。
另外,在本实施方式中,如图27所示,也可以与移动体的移动状态相应地,在图4、图8等中说明的可动壳体40使用户的游戏位置发生变化。例如与移动体的速度、加速度的变化、移动体的行进方向的变化或、者移动体移动的路线的状况(状态)等相应地,可动壳体40使用户的游戏位置发生变化。或者,也可以与移动体的移动状态相应地控制输出声音。例如生成与移动体的速度、加速度的变化相应的声音、与移动体的行进方向的变化相应的声音、或者与移动体移动的路线的状况相应的输出声音。
例如,在虚拟空间的移动体(机器人、角色等)的行进方向在下坡的路线中朝向下方向的情况下,以现实空间的用户的姿态向前侧纵摆的方式控制可动壳体40。若以图4、图7的(A)为例,使在基底部452绕X轴进行向前侧方向的纵摆的姿态变化,来实现用户前倾那样的姿态变化。以图8为例,拉伸后侧的空气弹簧部50、52,而收缩前侧的空气弹簧部51、53。另外,例如输出使用户感到在下坡的路线上下降那样的输出声音(例如风噪声)。另外,在虚拟空间的移动体的行进方向在上坡的路线中朝向上方向的情况下,以现实空间的用户的姿态向后侧纵摆的方式控制可动壳体40。以图4为例,使基底部452进行绕X轴向后侧方向的纵摆的姿态变化,来实现用户后仰那样的姿态变化。以图8为例,将后侧的空气弹簧部50、52收缩,而将前侧的空气弹簧部51、53拉伸。另外,例如输出使用户感到在爬上坡的路线的输出声音。
另外,在路线为有凹凸的不平的道路的情况下,进行使用户的游戏位置上下摇摆那样的可动壳体40的控制。以图4、图7的(A)为例,使电动缸414、414细微地伸缩。若以图8为例,则使各空气弹簧部50~52在上下方向上细微地伸缩。另外输出表示不平道路那样的输出声音。
像这样,若对可动壳体40、输出声音进行控制,则能够使用可动壳体40、输出声音来使用户感到在虚拟空间中的移动体的移动状态(加速度、速度的变化、行进方向的变化、路线的状况)。例如,通过基于可动壳体40的游戏位置的变化体感移动体的移动状态,通过输出声音的变化在听觉上能够识别。因此,现实世界中的用户的体感、听觉状态、与虚拟世界中的移动体的状态在某种程度上一致,实现了抑制3D晕眩的产生。例如,在没有利用这样的可动壳体40的游戏位置的变化、输出声音的变化的状态下,若虚拟空间中的移动体的移动状态变化,则用户的体感、听觉状态与虚拟空间的状况变得不一致。因此,有可能发生3D晕眩这样的情况,但根据图27的本实施方式的方法,能够防止这样的情况的发生。
另外,在本实施方式中,也可以基于由用户设定的设定信息或用户的游戏历史记录信息,设定图像效果处理的开启、关闭,或者设定图像效果处理的效果度。
例如,图28是用户设定游戏的各种选择的设定选项画面的例子。在该设定选项画面中,用户能够进行图像效果处理的开启、关闭的设定、效果度的设定。例如易引起3D晕眩的用户将图像效果处理设定为开启,设定为较强的效果度。通过这样做,对远处的显示物进行模糊处理,并且模糊度也变强,因此能够有效地防止这样的用户产生3D晕眩。另一方面,不易产生3D晕眩的用户将图像效果处理设定为关闭,或者将图像效果处理设定为开启,来设定较弱的效果度。通过这样做,这样的用户能够享受更加真实的设定下的游戏。
另外,在图29中,基于用户的游戏历史记录的信息,进行图像效果处理的开启、关闭的设定、效果度的设定。例如对于基于用户的游戏历史记录信息,判断为游戏等级较低的用户、判断为碰撞、急加速、跌倒、落下等状况频繁地发生的用户,将图像效果处理设定为开启,并设定为较强的效果度。通过这样做,对于判断为是初级者、初级者的用户、判断为未习惯于游戏操作的用户,将图像效果处理自动地设定为开启,并设定为效果度也较强的效果度。由此,能够有效地防止这样的用户产生3D晕眩。另一方面,对于判断为是上级者的用户、习惯于游戏操作的用户,判断不易引起3D晕眩,来将图像效果处理设为关闭,或者将图像效果处理设定为开启,设定为较弱的效果度。通过这样做,这样的用户能够享受更真实的设定下的游戏。此外,游戏历史记录的信息例如存储于图1的便携式信息存储介质195(IC卡等),基于来自便携式信息存储介质195的游戏历史记录的信息进行图像效果处理的开启、关闭的设定、效果度的设定。或者也可以从外部的服务器下载用户的游戏历史记录的信息。
4.5处理例
接下来,使用图30的流程图对本实施方式的处理例进行说明。
首先,判定游戏是否开始(步骤S21),在判断为开始了的情况下,获取用户的操作信息(步骤S22)。例如获取使用图1的操作部160而输入的用户的操作信息。另外,获取用户的视点信息的追踪信息(步骤S23)。例如获取通过图2的(A)~图3的(B)等中说明的追踪处理获得的追踪信息。进而,基于用户的操作信息、追踪信息等执行虚拟摄像头、移动体的控制处理(步骤S24)。例如基于用户的操作信息进行使机器人、角色等的移动体移动的处理,以追随该移动体的方式控制虚拟摄像头的视线方向、视点位置。另外,基于追踪信息进行设定虚拟摄像头的视线方向、视点位置的控制。
接下来,进行渲染处理,生成从虚拟摄像头能够看到的图像(步骤S25)。例如,作为从虚拟摄像头可观的察图像,生成立体观察的左眼用、右眼用的图像。进而,对于生成的图像,如图12那样,对处于距离范围DRG2的显示物执行模糊图像效果处理(步骤S26)。此时,如在图19的(A)~图20中说明那样,对于预定显示物,进行从模糊处理的对象中排除,或者减弱模糊度,或者提高视觉辨认度的处理。通过这样做,能够适当地调整游戏平衡,并且生成不易产生3D晕眩的图像,来显示于用户的HMD。
此外,如上述那样,对本实施方式详细地进行了说明,但在不实质性地脱离本发明的创新内容以及效果的前提下,能够有多种变形,这对于本领域技术人员是容易理解的。因此,这样的变形例均应包括在本发明的范围之中。例如在说明书或附图中,至少一次与更广义或同义的不同用语(移动体等)一起被记载的用语(角色、机器人等)在说明书或附图的任何部位都能够置换为该不同的用语。另外,移动体的移动处理、虚拟摄像头的控制处理(设定处理)、图像效果处理、景深处理、雾化处理、距离范围的设定处理、视觉辨认度的强调处理、图像效果的开启、关闭、效果度的设定处理等也并不限于在本实施方式中所说明的内容,与这些等效的方法/处理/结构也包括在本发明的范围。另外,本发明能够适用于各种游戏。另外,本发明能够适用于商务用游戏装置、家庭用游戏装置、或者多名用户参加的大型娱乐系统等各种模拟系统。
附图标记说明:
DRG1、DRG2…距离范围;RB…机器人;ERB…敌方机器人;OB1~OB10…显示物;SG…靶标;CH…角色;DT…行进方向;VC…虚拟摄像头;VP、CVP…视点位置;VL、CVL…视线方向;RK…岩石;;PL…用户;PLV…虚拟用户;TP…经过点;20…缆线;40…可动壳体;41、42…基底部;43、44…操作部件;45、46…脚台;50~53…空气弹簧部;60、62…引导部;61、63…把持部;64…支承引导件;65…缆线取出口;69…风洞部;100…处理部;102…输入处理部;110…运算处理部;112…游戏处理部;113…可动壳体处理部;114…移动体处理部;116…对象空间设定部;118…虚拟摄像头控制部;120…显示处理部;130…声音处理部;140…输出处理部;40…可动壳体;41、42…基底部;43、44…操作部件;45、46…脚台;50~53…空气弹簧部;60、62…引导部;61、63…把持部;64…支承引导件;65…缆线取出口;69…风洞部;150…拍摄部;151、152…摄像头、160…操作部;161、162…操作杆;163…加速踏板;164…制动踏板;165…游戏控制器;170…存储部;172…对象信息存储部;178…渲染缓存器;180…信息存储介质;192…声音输出部;194…I/F部;195…便携式信息存储介质;196…通信部;200…HMD(头部佩戴式显示装置);201~203…光接收元件;210…传感器部;220…显示部;231~236…发光元件;240…处理部;260…头带;270…耳机;280、284…基站;281、282、285、286…发光元件;430…框部;432…引导部;433…固定件;450…底部;451…罩部;452…基底部;454、455…导轨部;460…乘坐部;462…座椅;464…座椅支承部;470…移动部;472…支承部;473…上表面部;474…下表面部。

Claims (17)

1.一种模拟系统,其特征在于,包括:
移动体处理部,进行使移动体在虚拟空间中移动的处理,所述移动体与佩戴头部佩戴式显示装置的用户相对应,所述头部佩戴式显示装置具有目镜及显示器;
虚拟摄像头控制部,对虚拟摄像头进行控制,所述虚拟摄像头响应所述移动体的移动而进行移动;以及
显示处理部,在所述虚拟空间中生成从所述虚拟摄像头能够看到的图像而作为所述头部佩戴式显示装置的显示图像,
所述显示处理部通过在使第一距离范围包含于景深的焦点区域、第二距离范围不包含于景深的焦点区域的晕眩防止用参数中设定景深处理的参数,与处于距所述虚拟摄像头的所述第一距离范围内的显示物相比,针对处于所述第二距离范围内的显示物的图像进行模糊处理即所述景深处理而作为晕眩防止用的图像效果处理,并生成所述显示图像,所述第一距离范围基于虚拟观察距离而设定,所述第二距离范围是比所述第一距离范围更远的距离范围,所述虚拟观察距离根据所述头部佩戴式显示装置的所述目镜及所述显示器的位置关系而设定。
2.根据权利要求1所述的模拟系统,其特征在于,
所述显示处理部进行如下所述景深处理:在所述第一距离范围包含于景深的焦点区域且从所述虚拟摄像头观察时比所述焦点区域靠跟前侧的区域中不进行模糊处理,而在比所述焦点区域靠纵深侧的区域中进行模糊处理。
3.根据权利要求2所述的模拟系统,其特征在于,
所述显示处理部使景深的焦点区域的宽度响应所述移动体的移动状态而变化。
4.根据权利要求1至3中任一项所述的模拟系统,其特征在于,
所述显示处理部进行雾化处理而作为所述图像效果处理。
5.根据权利要求1至3中任一项所述的模拟系统,其特征在于,
所述显示处理部进行如下所述图像效果处理:针对通过与从所述虚拟摄像头向视线方向侧延伸的给定长度的线段的碰撞判定处理而判定为与所述线段交叉的显示物不进行模糊处理,而针对其他显示物进行模糊处理。
6.根据权利要求1至3中任一项所述的模拟系统,其特征在于,
所述第一距离范围是距所述虚拟摄像头为0.75m~3.5m距离的范围,所述第二距离范围是距所述虚拟摄像头为10m以上的距离的范围,
所述显示处理部在所述第一距离范围中不进行显示物的模糊处理,而在比所述第一距离范围远的所述第二距离范围中进行显示物的模糊处理。
7.根据权利要求1至3中任一项所述的模拟系统,其特征在于,
即使是处于比所述第一距离范围远的所述第二距离范围内的显示物,所述显示处理部将预定显示物从模糊处理的对象中排除,或者与其他显示物相比减弱模糊处理的模糊度。
8.根据权利要求1至3中任一项所述的模拟系统,其特征在于,
即使是处于比所述第一距离范围远的所述第二距离范围内的显示物,所述显示处理部对预定显示物进行与其他显示物相比提高视觉辨认度的处理。
9.根据权利要求8所述的模拟系统,其特征在于,
所述显示处理部对所述预定显示物进行尺寸变化处理、亮度变化处理、色调变化处理以及纵深度值变化处理中的至少一方而作为所述提高视觉辨认度的处理。
10.根据权利要求1至3中任一项所述的模拟系统,其特征在于,
所述模拟系统还包括输入处理部,所述输入处理部获取佩戴所述头部佩戴式显示装置的用户的视点信息的追踪信息,
所述虚拟摄像头控制部基于所述追踪信息使所述虚拟摄像头的位置、姿态变化。
11.根据权利要求1至3中任一项所述的模拟系统,其特征在于,
所述显示处理部响应所述虚拟摄像头的视线方向或视点位置的变化状况、所述移动体的移动状态的变化状况、所述虚拟摄像头的注视位置或注视对象的状况、或者游戏状况,进行所述图像效果处理的开启、关闭的设定,或者进行图像效果处理的效果度的设定。
12.根据权利要求1至3中任一项所述的模拟系统,其特征在于,
所述显示处理部与所述用户的游戏等级相应地,进行所述图像效果处理的开启、关闭的设定,或者进行所述图像效果处理的效果量的设定。
13.根据权利要求12所述的模拟系统,其特征在于,
所述用户的游戏等级能够基于追踪所述用户的头部运动而得到的追踪信息或所述用户的游戏历史记录信息来判断。
14.根据权利要求1至3中任一项所述的模拟系统,其特征在于,
所述显示处理部基于由所述用户设定的设定信息或者所述用户的游戏历史记录信息,进行所述图像效果处理的开启、关闭的设定,或者进行所述图像效果处理的效果量的设定。
15.根据权利要求1至3中任一项所述的模拟系统,其特征在于,
所述模拟系统还包括可动壳体,所述可动壳体响应所述移动体的移动状态而使所述用户的游戏位置变化。
16.一种处理方法,其特征在于,进行如下处理:
移动体处理,进行使移动体在虚拟空间中移动的处理,所述移动体与佩戴头部佩戴式显示装置的用户对应,所述头部佩戴式显示装置具有目镜及显示器;
虚拟摄像头控制处理,对虚拟摄像头进行控制,所述虚拟摄像头响应所述移动体的移动而进行移动;以及
显示处理,在所述虚拟空间中生成从所述虚拟摄像头能够看到的图像而作为所述头部佩戴式显示装置的显示图像,
在所述显示处理中,通过在使第一距离范围包含于景深的焦点区域、第二距离范围不包含于景深的焦点区域的晕眩防止用参数中设定景深处理的参数,与处于距所述虚拟摄像头的所述第一距离范围内的显示物相比,针对处于所述第二距离范围内的显示物的图像进行模糊处理即所述景深处理而作为晕眩防止用的图像效果处理,并生成所述显示图像,所述第一距离范围基于虚拟观察距离而设定,所述第二距离范围是比所述第一距离范围更远的距离范围,所述虚拟观察距离根据所述头部佩戴式显示装置的所述目镜及所述显示器的位置关系而设定。
17.一种计算机可读的信息存储介质,其特征在于,存储有程序,所述程序使计算机作为如下部分发挥功能:
移动体处理部,进行使移动体在虚拟空间中移动的处理,所述移动体与佩戴头部佩戴式显示装置的用户对应,所述头部佩戴式显示装置具有目镜及显示器;
虚拟摄像头控制部,对虚拟摄像头进行控制,所述虚拟摄像头响应所述移动体的移动而进行移动;以及
显示处理部,在所述虚拟空间中生成从所述虚拟摄像头能够看到的图像而作为所述头部佩戴式显示装置的显示图像,
所述显示处理部通过在使第一距离范围包含于景深的焦点区域、第二距离范围不包含于景深的焦点区域的晕眩防止用参数中设定景深处理的参数,与处于距所述虚拟摄像头的所述第一距离范围内的显示物相比,针对处于所述第二距离范围内的显示物的图像进行模糊处理即所述景深处理而作为晕眩防止用的图像效果处理,并生成所述显示图像,所述第一距离范围基于虚拟观察距离而设定,所述第二距离范围是比所述第一距离范围更远的距离范围,所述虚拟观察距离根据所述头部佩戴式显示装置的所述目镜及所述显示器的位置关系而设定。
CN201780043391.7A 2016-07-13 2017-07-06 模拟系统、处理方法及信息存储介质 Active CN109478345B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-138929 2016-07-13
JP2016138929A JP6714791B2 (ja) 2016-07-13 2016-07-13 シミュレーションシステム及びプログラム
PCT/JP2017/024794 WO2018012395A1 (ja) 2016-07-13 2017-07-06 シミュレーションシステム、処理方法及び情報記憶媒体

Publications (2)

Publication Number Publication Date
CN109478345A CN109478345A (zh) 2019-03-15
CN109478345B true CN109478345B (zh) 2023-07-28

Family

ID=60951701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780043391.7A Active CN109478345B (zh) 2016-07-13 2017-07-06 模拟系统、处理方法及信息存储介质

Country Status (4)

Country Link
US (1) US11493990B2 (zh)
JP (1) JP6714791B2 (zh)
CN (1) CN109478345B (zh)
WO (1) WO2018012395A1 (zh)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9716825B1 (en) 2016-06-12 2017-07-25 Apple Inc. User interface for camera effects
JP6689694B2 (ja) 2016-07-13 2020-04-28 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
JP6719308B2 (ja) * 2016-07-13 2020-07-08 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
US11511176B2 (en) * 2017-03-13 2022-11-29 Holodia Inc. Method for generating multimedia data associated with a system for practicing sports
US10438393B2 (en) * 2017-03-16 2019-10-08 Linden Research, Inc. Virtual reality presentation of body postures of avatars
JP6513241B1 (ja) * 2018-01-30 2019-05-15 株式会社コロプラ プログラム、情報処理装置、及び情報処理方法
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
JP2019149122A (ja) * 2018-02-28 2019-09-05 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP6582205B2 (ja) * 2018-02-28 2019-10-02 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム
JP2019152980A (ja) * 2018-03-01 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN108732764B (zh) * 2018-06-06 2024-05-31 北京七鑫易维信息技术有限公司 一种智能眼镜、眼球轨迹的追踪方法、装置及存储介质
JP7210180B2 (ja) * 2018-07-25 2023-01-23 キヤノン株式会社 画像処理装置、画像表示装置、画像処理方法、及びプログラム
DK201870623A1 (en) * 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
KR102597518B1 (ko) * 2019-02-20 2023-11-03 삼성전자주식회사 영상에 보케 효과를 적용하는 전자 장치 및 그 제어 방법
WO2020213088A1 (ja) * 2019-04-17 2020-10-22 楽天株式会社 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
CN113875230B (zh) 2019-05-23 2023-03-28 奇跃公司 混合模式三维显示方法
JP6688423B1 (ja) * 2019-08-20 2020-04-28 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
JP2021086552A (ja) * 2019-11-29 2021-06-03 三菱電機株式会社 情報処理装置、表示方法、及び表示プログラム
EP4070286A4 (en) * 2019-12-06 2023-01-18 Magic Leap, Inc. VIRTUAL, AUGMENTED AND MIXED REALITY PROCESSES AND SYSTEMS
JP7184261B2 (ja) * 2020-01-30 2022-12-06 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
US11465031B2 (en) * 2020-09-16 2022-10-11 RevolutioNice, Inc. Ambulation simulation systems, terrain simulation systems, treadmill systems, and related systems and methods
CN112043396B (zh) * 2020-10-08 2022-03-04 深圳市精锋医疗科技股份有限公司 手术机器人及其图形化控制装置、图形化显示方法
FR3120719B1 (fr) * 2021-03-15 2024-04-19 Driving Simulation Ass Navigation rotationnelle en environnement virtuel avec une référence visuelle
CN115793841A (zh) * 2021-09-09 2023-03-14 华为技术有限公司 一种显示方法与电子设备
US20230222625A1 (en) * 2022-01-12 2023-07-13 Htc Corporation Method for adjusting virtual object, host, and computer readable storage medium
WO2023223933A1 (ja) * 2022-05-18 2023-11-23 ソニーグループ株式会社 情報処理方法、情報処理装置、通信システム及びコンピュータプログラム
WO2023238662A1 (ja) * 2022-06-07 2023-12-14 ソニーグループ株式会社 情報処理装置、情報処理方法、および記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201320734A (zh) * 2011-11-03 2013-05-16 Altek Corp 產生背景模糊的影像處理方法及其影像擷取裝置
CN103140878A (zh) * 2010-09-28 2013-06-05 英特尔公司 用于运动模糊和景深的背面剔除
CN104011788A (zh) * 2011-10-28 2014-08-27 奇跃公司 用于增强和虚拟现实的系统和方法
CN104836999A (zh) * 2015-04-03 2015-08-12 深圳市亿思达科技集团有限公司 一种全息立体显示用于自适应视力的移动终端及方法
CN105163042A (zh) * 2015-08-03 2015-12-16 努比亚技术有限公司 一种虚化处理深度图像的装置和方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3428151B2 (ja) * 1994-07-08 2003-07-22 株式会社セガ 画像表示装置を用いた遊戯装置
JP3442270B2 (ja) * 1997-11-25 2003-09-02 株式会社ナムコ 画像生成装置及び情報記憶媒体
JPH11309269A (ja) 1998-04-27 1999-11-09 Sony Corp ゲーム装置、シミュレーション装置及びゲーム画像表示方法
JP3262772B2 (ja) 1999-12-17 2002-03-04 株式会社ナムコ 画像生成システム及び情報記憶媒体
WO2002095684A1 (fr) * 2001-05-18 2002-11-28 Sony Computer Entertainment Inc. Afficheur
JP4761528B2 (ja) * 2005-10-11 2011-08-31 任天堂株式会社 ゲームプログラムおよびゲーム装置
TWI308845B (en) * 2006-06-07 2009-04-11 Himax Display Inc Head-mounted display and image adjusting method for the same
US8831278B2 (en) * 2010-11-30 2014-09-09 Eastman Kodak Company Method of identifying motion sickness
US9452354B2 (en) * 2013-06-07 2016-09-27 Sony Interactive Entertainment Inc. Sharing three-dimensional gameplay
WO2016105521A1 (en) * 2014-12-23 2016-06-30 Meta Company Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest
GB2534921B (en) * 2015-02-06 2021-11-17 Sony Interactive Entertainment Inc Head-mountable display system
US10713501B2 (en) * 2015-08-13 2020-07-14 Ford Global Technologies, Llc Focus system to enhance vehicle vision performance
CN105635805B (zh) * 2015-12-18 2018-12-21 潍坊歌尔电子有限公司 一种虚拟现实场景中优化运动图像的方法和装置
CN105487544B (zh) * 2016-01-18 2018-10-16 沈阳工业大学 基于模糊推理系统的多机器人角度控制围捕方法
US20170228931A1 (en) * 2016-02-08 2017-08-10 Google Inc. Limited field of view in virtual reality
CN105653227A (zh) * 2016-03-22 2016-06-08 北京全景思维科技有限公司 跟踪眼球焦距的头戴式虚拟现实显示设备及显示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103140878A (zh) * 2010-09-28 2013-06-05 英特尔公司 用于运动模糊和景深的背面剔除
CN104011788A (zh) * 2011-10-28 2014-08-27 奇跃公司 用于增强和虚拟现实的系统和方法
TW201320734A (zh) * 2011-11-03 2013-05-16 Altek Corp 產生背景模糊的影像處理方法及其影像擷取裝置
CN104836999A (zh) * 2015-04-03 2015-08-12 深圳市亿思达科技集团有限公司 一种全息立体显示用于自适应视力的移动终端及方法
CN105163042A (zh) * 2015-08-03 2015-12-16 努比亚技术有限公司 一种虚化处理深度图像的装置和方法

Also Published As

Publication number Publication date
CN109478345A (zh) 2019-03-15
US20190220089A1 (en) 2019-07-18
JP6714791B2 (ja) 2020-07-01
US11493990B2 (en) 2022-11-08
JP2018010488A (ja) 2018-01-18
WO2018012395A1 (ja) 2018-01-18

Similar Documents

Publication Publication Date Title
CN109478345B (zh) 模拟系统、处理方法及信息存储介质
US10915166B2 (en) Simulation system, processing method, and information storage medium
US11014000B2 (en) Simulation system, processing method, and information storage medium
US11865453B2 (en) Simulation system, process method, and information storage medium
US10955909B2 (en) Simulation system, processing method, and information storage medium
WO2018124280A1 (ja) シミュレーションシステム、画像処理方法及び情報記憶媒体
US20190105572A1 (en) Drivable vehicle augmented reality game
US20180357817A1 (en) Information processing method, program, and computer
WO2017213218A1 (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
CN110769906B (zh) 模拟系统、图像处理方法以及信息存储介质
CN112104857A (zh) 图像生成系统、图像生成方法及信息存储介质
JP2017220224A (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
JP6425846B1 (ja) プログラム、情報処理装置、及び情報処理方法
US20180253902A1 (en) Method executed on computer for providing object in virtual space, program for executing the method on the computer, and computer apparatus
JP2019133309A (ja) プログラム、情報処理装置、及び情報処理方法
JP6820299B2 (ja) プログラム、情報処理装置、および方法
JP2020004060A (ja) プログラム、情報処理装置および方法
JP6918189B2 (ja) シミュレーションシステム及びプログラム
JP7121518B2 (ja) プログラム、情報処理装置、及び情報処理方法
JP6966257B2 (ja) 情報処理方法、プログラム、およびコンピュータ
JP2019155115A (ja) プログラム、情報処理装置、及び情報処理方法
JP2019211865A (ja) コンピュータプログラム、情報処理装置および情報処理方法
JP2019032715A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6946084B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2019185723A (ja) プログラム、情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant