CN109478341A - 模拟系统、处理方法及信息存储介质 - Google Patents

模拟系统、处理方法及信息存储介质 Download PDF

Info

Publication number
CN109478341A
CN109478341A CN201780043165.9A CN201780043165A CN109478341A CN 109478341 A CN109478341 A CN 109478341A CN 201780043165 A CN201780043165 A CN 201780043165A CN 109478341 A CN109478341 A CN 109478341A
Authority
CN
China
Prior art keywords
softcam
processing
image
moving body
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201780043165.9A
Other languages
English (en)
Inventor
石井嘉明
牧野伸哉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Publication of CN109478341A publication Critical patent/CN109478341A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/18Training appliances or apparatus for special sports for skiing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/807Gliding or sliding on surfaces, e.g. using skis, skates or boards
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0308Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0334Foot operated pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/0638Displaying moving images of recorded environment, e.g. virtual environment
    • A63B2071/0644Displaying moving images of recorded environment, e.g. virtual environment with display speed of moving landscape controlled by the user's performance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8041Skating using skis, skates or board
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

模拟系统包括:移动体处理部,进行使与佩戴HMD的用户对应的移动体在虚拟空间中移动的处理;虚拟摄像头控制部,其进行与移动体的移动相应地移动的虚拟摄像头的控制;以及显示处理部,在虚拟空间中生成从虚拟摄像头能够看到的图像作为显示处理部HMD的显示图像。显示处理部在判断为移动体的加速度的变化或虚拟摄像头的视线方向的变化满足给定的变化条件的情况下,进行使HMD的显示图像变化成与从虚拟摄像头能够看到的图像不同的图像的显示处理。

Description

模拟系统、处理方法及信息存储介质
技术领域
本发明涉及模拟系统、处理方法及信息存储介质等。
背景技术
以往,已知一种模拟系统,通过用户将HMD(头部佩戴式显示装置)佩戴于头部,使用户看到显示于HMD的画面的图像,由此能够身体感觉所谓的虚拟现实(VR)的世界。作为这样的模拟系统的现有技术,例如有在专利文献1等中公开的技术。
现有技术文献
专利文献
专利文献1:日本特开平11-309269号公报
发明内容
发明要解决的课题
在使用了HMD的模拟系统中,在虚拟空间中将从虚拟摄像头看到的图像显示于HMD。通过将这种图像显示于HMD,宽广的VR空间遍及用户的视野的整个周围地扩展,因此能够明显地提高用户的虚拟现实感。
在这样的模拟系统中,在虚拟空间中与用户对应的角色等移动体移动,生成能够从追随生成移动体的移动的虚拟摄像头可视的图像。该情况下,若发生移动体的行进方向、姿态较大地发生变化的状况,则虚拟摄像头的位置、姿态发生变化,导致HMD的显示图像较大地发生变化。进而,显示图像的较大的变化成为用户的眼睛的负担等,例如导致用户的3D晕眩等的问题。
根据本发明的若干方式,提供能够减轻由于移动体的加速度的变化、虚拟摄像头的视线方向的变化而带给用户负担等的模拟系统、处理方法以及信息存储介质等。
用于解决课题的手段
涉及一种模拟系统,其包括:移动体处理部,其进行使与佩戴头部佩戴式显示装置的用户对应的移动体在虚拟空间中移动的处理;虚拟摄像头控制部,其进行与上述移动体的移动相应地移动的虚拟摄像头的控制;以及显示处理部,其在上述虚拟空间中生成从上述虚拟摄像头能够看到的图像作为上述头部佩戴式显示装置的显示图像,上述显示处理部在判断为上述移动体的加速度的变化或上述虚拟摄像头的视线方向的变化满足给定的变化条件的情况下,进行使上述头部佩戴式显示装置的显示图像变化成与从上述虚拟摄像头能够看到的图像不同的图像的显示处理。另外,本发明涉及作为上述各部分使计算机发挥功能的程序、或者存储该程序的计算机可读的信息存储介质。
根据本发明的一个方式,进行使与用户对应的移动体在虚拟空间中移动的处理,作为头部佩戴式显示装置的显示图像,生成从与移动体的移动相应地移动的虚拟摄像头能够看到的图像。进而,若移动体的加速度的变化或虚拟摄像头的视线方向的变化满足给定的变化条件,则头部佩戴式显示装置的显示图像变化成与从虚拟摄像头能够看到的图像不同的图像。例如,在进行了移动体的加速度、虚拟摄像头的视线方向满足给定的变化条件那样的变化的情况下,若将从虚拟摄像头能够看到的图像作为头部佩戴式显示装置的显示图像保持不变地进行显示,则发生成为用户的眼睛的负担等的状况。根据本发明的一个方式,在发生了这样的状况的情况下,头部佩戴式显示装置的显示图像由从虚拟摄像头能够看到的通常的图像变化成与该图像不同的图像。因此,提供可以减轻由于移动体的加速度的变化、虚拟摄像头的视线方向的变化带给用户负担等的模拟系统等。
另外,在本发明的一个方式中,上述显示处理部在满足上述给定的变化条件的情况下,可以进行使上述头部佩戴式显示装置的显示图像的整体变化的显示处理。
若这样做,在满足了给定的变化条件,发生了从虚拟摄像头能够看到的图像成为用户的眼睛的负担等的状况的情况下,通过头部佩戴式显示装置的显示图像的整体发生变化,从而能够避免该状况。
另外,在本发明的一个方式中,上述显示处理部也可以进行使上述显示图像淡出的处理作为使上述显示图像的整体变化的显示处理。
若这样做,在满足给定的变化条件,发生了从虚拟摄像头能够看到的图像成为用户的眼睛的负担等的状况的情况下,通过将头部佩戴式显示装置的显示图像淡出,能够避免该状况。
另外,在本发明的一个方式中,上述显示处理部在满足上述给定的变化条件的情况下,也可以对从上述虚拟摄像头能够看到的图像实施给定的效果处理的显示处理。
由此,在满足了给定的变化条件的情况下,能够针对从虚拟摄像头能够看到的图像实施能够减轻用户的眼睛的负担等的效果处理。
另外,在本发明的一个方式中,上述显示处理部在发生了使上述移动体的行进方向朝与上述行进方向不同的方向变化的加速度变化事件的情况下,判断为满足了上述给定的变化条件,进行使上述头部佩戴式显示装置的显示图像变化成与从上述虚拟摄像头能够看到的图像不同的图像的显示处理。
由此,若发生使移动体的行进方向朝与该行进方向不同的方向变化那样的加速度变化事件,则头部佩戴式显示装置的显示图像变化成与从虚拟摄像头能够看到的图像不同的图像,来减轻用户的眼睛的负担等。
另外,在本发明的一个方式中,上述加速度变化事件可以是上述移动体的碰撞事件以及上述移动体的落下事件中的至少一种。
由此,在发生了移动体与碰撞对象物碰撞,或者移动体落下那样的事件的情况下,头部佩戴式显示装置的显示图像变化成与从虚拟摄像头能够看到的图像不同的图像,从而能够减轻碰撞时、落下时的用户的眼睛的负担等。
另外,在本发明的一个方式中,上述显示处理部也可以在上述虚拟摄像头的视线方向的角度变化成给定的角度以上的情况下,判断为满足了上述给定的变化条件,进行使上述头部佩戴式显示装置的显示图像变化成与从上述虚拟摄像头能够看到的图像不同的图像的显示处理。
由此,在存在虚拟摄像头的视线方向的变化成为给定的角度以上那样的大的视线方向的变化的情况下,头部佩戴式显示装置的显示图像变化成与从虚拟摄像头能够看到的图像不同的图像,从而能够减轻由于视线方向的较大的变化的用户的眼睛的负担等。
另外,在发明的一个方式中,上述显示处理部也可以使变化成与从上述虚拟摄像头能够看到的图像不同的图像的显示处理的处理开始时机和处理程度中至少一方在满足上述给定的变化条件的第一事件的发生时、与满足上述给定的变化条件的第二事件的发生时不同。
由此,能够通过与各事件相应的适当的处理开始时机、处理程度,执行变化成与从虚拟摄像头能够看到的图像不同的图像的显示处理。
另外,在本发明的一个方式中,上述虚拟摄像头控制部也可以进行作为上述用户的第一人称视角设定的上述虚拟摄像头的控制。
由此,在第一人称视角下的图像显示于头部佩戴式显示装置那样的虚拟现实的系统中,能够减轻由于移动体的加速度的变化、虚拟摄像头的视线方向的变化而带给用户的负担等。
另外,在本发明的一个方式中,也可以包括获取佩戴上述头部佩戴式显示装置的上述用户的视角信息的跟踪信息的输入处理部(也可以作为输入处理部使计算机发挥功能),上述虚拟摄像头控制部基于上述跟踪信息使上述虚拟摄像头的位置、姿态发生变化,另一方面,在上述移动体的行进方向发生变化的情况下,也针对述虚拟摄像头的纵摇以及横摇中至少一方的姿态变化以进行无效或限制的方式设定上述虚拟摄像头。
像这样通过基于用户的视角信息的跟踪信息使虚拟摄像头的位置、姿态发生变化,从而能够将虚拟现实感高的显示图像显示于头部佩戴式显示装置。另一方面,在移动体的行进方向发生变化的情况下,通过针对虚拟摄像头的纵摇、横摇的姿态变化进行无效或限制,从而能够抑制由于显示图像的摇晃等的3D晕眩等的问题的发生。
另外,在本发明的一个方式中,也可以包括与上述移动体移动的线路的状况或上述移动体的行进方向的变化相应地,使上述用户的玩游戏位置发生变化的可动壳体。
由此,通过可动壳体使用户的玩游戏位置发生变化,由此能够使用户体感移动体的行进方向的变化、线路的状况,从而能够进一步抑制3D晕眩的发生等。
另外,在本发明的一个方式中,也可以包括生成与上述移动体移动的线路的状况相应的声音或与上述移动体的行进方向的变化相应的输出音的声音处理部(也可以作为声音处理部使计算机发挥功能)。
由此,能够通过输出声音的变化使用户在听觉上识别出移动体的行进方向的变化、线路的状况,从而能够进一步抑制3D晕眩的发生等。
另外,在本发明的一个方式中,上述显示处理部也可以基于由上述用户设定的设定信息或上述用户的游戏历史记录信息,使变化成与从上述虚拟摄像头能够看到的图像不同的图像的显示处理的处理开始时机和处理程度中至少一方变化。
由此,能够基于用户输入的设定信息、用户的过去的游戏历史记录信息等,设定变成成与从虚拟摄像头能够看到的图像不同的图像的显示处理的处理开始时机、处理程度。
另外,本发明的其他方式涉及一种处理方法,进行:移动体处理,其进行使与佩戴头部佩戴式显示装置的用户对应的移动体在虚拟空间中移动的处理;虚拟摄像头控制处理,其进行与上述移动体的移动相应地移动的虚拟摄像头的控制;以及显示处理,其在上述虚拟空间中生成从上述虚拟摄像头能够看到的图像作为上述头部佩戴式显示装置的显示图像,在上述显示处理中。在判断为上述移动体的加速度的变化或上述虚拟摄像头的视线方向的变化满足给定的变化条件的情况下。使上述头部佩戴式显示装置的显示图像变化成与从上述虚拟摄像头能够看到的图像不同的图像。
附图说明
图1是表示本实施方式的模拟系统的结构例的框图。
图2的(A)、图2的(B)是本实施方式所使用的HMD的一个例子。
图3的(A)、图3的(B)是本实施方式所使用的HMD的另一例子。
图4是作为模拟系统的一个例子的滑雪模拟器的结构例。
图5是利用滑雪模拟器的游戏图像的例子。
图6是作为模拟系统的一个例子的机器人模拟器的结构例。
图7是利用机器人模拟器的游戏图像的例子。
图8的(A)~图8的(C)是由于在角色碰撞到岩石的情况下的加速度变化而产生的问题的说明图。
图9的(A)~图9的(C)是由于在角色从悬崖落下的情况下的加速度变化而产生的问题的说明图。
图10的(A)、图10的(B)是说明角色碰撞岩石的场景的游戏图像的例子。
图11的(A)、图11的(B)是说明在角色碰撞岩石的场景下的淡出处理的游戏图像的例子。
图12的(A)、图12的(B)是说明角色从悬崖落下的场景的游戏图像的例子。
图13的(A)、图13的(B)是说明角色从悬崖落下的场景下的淡出处理的游戏图像的例子。
图14的(A)、图14的(B)是本实施方式的效果处理的说明图。
图15的(A)~图15的(C)是因在角色跌倒的情况下的虚拟摄像头的视线方向的变化而产生的问题的说明图。
图16的(A)、图16的(B)是与各事件相应地设定淡出处理、效果处理的开始时机的方法的说明图。
图17的(A)、图17的(B)是设定与各事件相应的处理开始时机、处理程度的方法的说明图。
图18是伴随着移动体的行进方向的变化的虚拟摄像头的姿态变化的问题的说明图。
图19的(A)~图19的(C)是基于跟踪信息使虚拟摄像头的位置、姿态变化的方法的说明图。
图20是将虚拟摄像头的姿态变化设为无效的方法的说明图。
图21是将虚拟摄像头的姿态变化设为无效的方法的说明图。
图22是虚拟摄像头的姿态变化的无效处理的第一实现方法的说明图。
图23是虚拟摄像头的姿态变化的无效处理的第二实现方法的说明图。
图24的(A)~图24的(C)是从悬崖落下时的虚拟摄像头的设定方法的说明图。
图25的(A)~图25的(C)是与岩石碰撞时的虚拟摄像头的设定方法的说明图。
图26是可动壳体、输出音的控制方法的说明图。
图27是基于用户的设定信息设定处理开始时机、处理程度的方法的说明图。
图28是基于游戏历史记录设定处理开始时机、处理程度的方法的说明图。
图29是表示本实施方式的详细的处理例的流程图。
具体实施方式
以下,说明本实施方式。此外,以下说明的本实施方式并未对权利要求书所记载的本发明的内容进行不当限定。另外,在本实施方式中说明的构成的全部并不一定是本发明的必须构成要件。
1.模拟系统
图1是表示本实施方式的模拟系统(模拟器、游戏系统)的结构例的框图。本实施方式的模拟系统例如是模拟虚拟现实(VR)的系统,能够适用于提供游戏内容的游戏系统、体育比赛模拟器、运动模拟器等实时模拟系统、提供影像等内容的内容提供系统、或者实现远程操作的操作系统等各种系统。此外,本实施方式的模拟系统并不限于图1的结构,能够实时省略其构成要素(各部分)的一部分,或者增加其他构成要素等的各种变形。
可动壳体40是使用户的玩游戏位置等变化的壳体。例如可动壳体40与移动体的行进方向的变化或者移动体移动的线路的状况相应地使用户的玩游戏位置变化。后述可动壳体40的详细内容。
操作部160用于用户(玩家)输入各种操作信息(输入信息)。操作部160例如能够通过操作按钮、方向指示键、操纵杆、方向盘、踏板或手柄等各种操作设备实现。例如在后述的图4中,通过操作部件43、44、脚台45、46等实现操作部160。在图6中,通过操作杆161、162、加速踏板163、制动踏板164等实现操作部160。
存储部170存储各种信息。存储部170作为处理部100、通信部196等工作区域发挥功能。游戏程序、游戏程序的执行所需的游戏数据保持于该存储部170。存储部170的功能能够通过半导体存储器(DRAM、VRAM)、HDD(硬盘驱动器)、SSD、光盘装置等而实现。存储部170包含对象信息存储部172、描绘缓存器178。
信息存储介质180(能够通过计算机读取的介质)是储存程序、数据等的装置,其功能能够通过光盘(DVD、BD、CD)、HDD、或者半导体存储器(ROM)等而实现。处理部100基于储存于信息存储介质180的程序(数据)进行本实施方式的各种处理。即,在信息存储介质180中,作为本实施方式的各部分而存储用于使计算机(具备输入装置、处理部、存储部、输出部的装置)发挥功能的程序(用于使计算机执行各部分的处理的程序)。
HMD200(头部佩戴式显示装置)是被佩戴于用户的头部,并在用户的眼前显示图像的装置。虽然希望HMD200是非透射型,但也可以是透射型。另外,HMD200也可以是所谓的眼镜式的HMD。
HMD200包含传感器部210、显示部220、处理部240。此外,也能够进行对HMD200设置发光元件的变形实施。传感器部210例如是用于实现头跟踪等跟踪处理的装置。例如通过使用了传感器部210的跟踪处理来确定HMD200的位置、方向。通过HMD200的位置、方向被确定,能够确定用户的视角位置、视线方向。
作为跟踪方式能够采用各种方式。在作为跟踪方式的一个例子的第一跟踪方式中,如在后述的图2的(A)、图2的(B)中详细地进行说明那样,作为传感器部210设置多个受光元件(光电二极管等)。进而通过上述多个受光元件接收来自设置于外部的发光元件(LED等)的光(激光等),从而确定在现实世界的三维空间的HMD200(用户的头部)的位置、方向。在第二跟踪方式中,如在后述的图3的(A)、图3的(B)中详细进行说明那样,将多个发光元件(LED)设置于HMD200。进而,通过设置于外部的拍摄部拍摄来自上述多个发光元件的光,从而确定HMD200的位置、方向。在第三跟踪方式中,作为传感器部210设置运动传感器,使用该运动传感器来确定HMD200的位置、方向。运动传感器例如能够通过加速度传感器、陀螺传感器等而实现。例如对使用了三轴加速度传感器和三轴陀螺传感器的六轴运动传感器进行使用,从而能够确定在现实世界的三维空间的HMD200的位置、方向。此外,也可以通过第一跟踪方式与第二跟踪方式的组合、或者第一跟踪方式与第三跟踪方式的组合等来确定HMD200的位置、方向。另外,也可以不通过确定HMD200的位置、方向来确定用户的视角位置、视线方向,而采用直接确定用户的视角位置、视线方向的跟踪处理。
HMD200的显示部220例如能够通过液晶显示器(LCD)、有机EL显示器等而实现。例如在HMD200作为显示部220设置有配置于用户的左眼前的第一显示器和配置于右眼前的第二显示器,例如使立体观察显示成为可能。在进行立体观察显示的情况下,例如生成视差不同的左眼用图像和右眼用图像,在第一显示器显示左眼用图像,在第二显示器显示右眼用图像即可。此外,也可以在一个显示器的第一、第二显示区域显示左眼用图像、右眼用图像。
HMD200的处理部240在HMD200中进行所需的各种处理。例如处理部240进行传感器部210的控制处理、显示部220的显示控制处理等。另外,处理部240也可以进行三维声学(立体声学)处理,来实现三维的声音的方向、距离、扩散的再现。
声音输出部192是输出由本实施方式生成的声音的装置,例如能够通过扬声器或者耳机等而实现。
I/F(接口)部194进行与便携式信息存储介质195的接口处理,其功能能够通过I/F处理用的ASIC等而实现。便携式信息存储介质195用于用户保存各种信息,便携式信息存储介质195是即使电源为非供给的情况下也保持上述信息的存储的存储装置。便携式信息存储介质195能够通过IC卡(存储卡)、USB存储器、或者磁卡等而实现。
通信部196是经由有线、无线的网络而与外部(其他装置)之间进行通信的装置,其功能能够通过通信用ASIC或通信用处理器等硬件、通信用固件而实现。
此外,作为本实施方式的各部分而用于使计算机发挥功能的程序(数据)也可以从服务器(主机装置)所具有的信息存储介质经由网络以及通信部196向信息存储介质180(或者存储部170)传送。基于这样的服务器(主机装置)的信息存储介质的使用也能够包括在本发明的范围内。
处理部100(处理器)基于来自操作部160的操作信息、HMD200中的跟踪信息(HMD的位置及方向中至少一方的信息。视角位置及视线方向中至少一方的信息)、程序等进行游戏处理(模拟处理)、移动体处理、虚拟摄像头控制处理、显示处理、或者声音处理等。
处理部100的各部分进行的本实施方式的各处理(各功能)能够通过处理器(包括硬件的处理器)而实现。例如本实施方式的各处理能够通过基于程序等的信息而动作的处理器、和存储程序等的信息的存储器而实现。处理器例如可以使各部分的功能通过单独的硬件来实现,或者也可以使各部分的功能通过一体的硬件来实现。例如处理器包括硬件,该硬件能够包括处理数字信号的电路以及处理模拟信号的电路中至少一方。例如,处理器也能够由安装于电路基板的一个或多个电路装置(例如IC等)、一个或多个电路元件(例如电阻、电容器等)构成。处理器例如也可以是CPU(Central Processing Unit:中央处理单元)。不过,处理器并不限于CPU,也能够使用GPU(Graphics Processing Unit:图形处理单元)、或者DSP(Digital Signal Processor:数字信号处理器)等各种处理器。另外,处理器也可以是基于ASIC的硬件电路。另外,处理器也可以包括处理模拟信号的放大电路、滤波电路等。存储器(存储部170)可以是SRAM、DRAM等半导体存储器,也可以是寄存器。或者可以是硬盘装置(HDD)等磁存储装置,也可以是光盘装置等光学式存储装置。例如,存储器储存能够通过计算机读取的命令,该命令由处理器执行,由此实现了处理部100的各部分的处理(功能)。这里的命令可以是构成程序的命令组,也可以是对处理器的硬件电路指示动作的命令。
处理部100包括输入处理部102、运算处理部110、及输出处理部140。运算处理部110包括游戏处理部112、可动壳体处理部113、移动体处理部114、对象空间设定部116、虚拟摄像头控制部118、显示处理部120、及声音处理部130。如上述那样,由上述各部分执行的本实施方式的各处理能够通过处理器(或者处理器及存储器)而实现。此外,能够进行省略上述构成要素(各部分)的一部分,或者增加其他构成要素等各种变形实施。
输入处理部102作为输入处理进行接收操作信息、跟踪信息的处理、从存储部170读出信息的处理、经由通信部196接收信息的处理。例如输入处理部102作为输入处理进行获取用户使用操作部160而输入的操作信息、由HMD200的传感器部210等检测出的跟踪信息的处理、从存储部170读出由读出命令所指定的信息的处理、从外部装置(服务器等)经由网络接收信息的处理。这里接收处理是向通信部196指示信息的接收,或者获取通信部196接收到的信息并写入存储部170的处理等。
运算处理部110进行各种运算处理。例如进行游戏处理(模拟处理)、移动体处理、虚拟摄像头控制处理、显示处理、或者声音处理等运算处理。
游戏处理部112(游戏处理的程序模块)进行用于用户操作游戏的各种游戏处理。换言之,游戏处理部112(模拟处理部)执行用于用户体验虚拟现实(virtual reality)的各种模拟处理。游戏处理例如是在满足游戏开始条件的情况下开始游戏的处理、使已开始的游戏运行的处理、在满足游戏结束条件的情况下结束游戏的处理、或者对游戏成绩进行运算的处理等。
可动壳体处理部113(可动壳体处理的程序模块)进行关于可动壳体40的各种处理。例如进行可动壳体40的控制处理,或者进行用于控制可动壳体40的各种信息的检测处理。例如可动壳体处理部113进行后述的图4的空气弹簧部50~53等的控制处理。例如进行用于使空气弹簧部50~53伸缩的控制处理。另外,在进行基于操作部件43、44的摇摆操作、基于脚台45、46的留痕迹操作的情况下,可动壳体处理部113进行该操作信息的检测处理,基于检测出的操作信息执行可动壳体40的控制处理等。另外可动壳体处理部113进行使图6的基底部452的姿态变化(纵摇、横摇等)的电动缸(未图示)的控制处理。例如进行控制电动缸的杆部的直线运动的处理。另外,可动壳体处理部113进行基于图6的操作杆161、162、加速踏板163、及制动踏板164的操作信息的检测处理,基于检测出的操作信息执行可动壳体40的控制处理等。
移动体处理部114(移动体处理的程序模块)进行关于在虚拟空间内移动的移动体的各种处理。例如进行在作为虚拟空间的对象空间(游戏空间)使移动体移动的处理、使移动体动作的处理。例如移动体处理部114基于用户通过操作部160输入的操作信息、获取到的跟踪信息、程序(移动/动作算法)、各种数据(运动数据)等进行使移动体(模型对象)在对象空间内(虚拟空间内)移动,或者使移动体动作(运动、动画)的控制处理。具体地,进行按照每1帧(例如1/60秒)依次求出移动体的移动信息(位置、旋转角度、速度、或者加速度)、动作信息(部分对象的位置、或者旋转角度)的模拟处理。此外,帧是进行移动体的移动/动作处理(模拟处理)、图像生成处理的时间的单位。
移动体例如是与实际空间的用户(玩家)对应的虚拟空间的虚拟用户(虚拟玩家)、或者该虚拟用户所搭乘(操作)的搭乘移动体(操作移动体)等。例如移动体是在后述的图4的滑雪模拟器中与用户对应地在虚拟空间进行滑雪的角色(虚拟用户)。或者,在图6的机器人模拟器中与用户对应的角色(虚拟用户)所搭乘的机器人(搭乘移动体)。
对象空间设定部116(对象空间设定处理的程序模块)进行配置有多个对象的对象空间(在广义上是虚拟空间)的设定处理。例如,进行将表示移动体(人、机器人、车、电车、飞机、船、怪兽或者动物等)、地图(地形)、建筑物、看台、线路(道路)、树木、墙壁、水面等显示物的各种对象(由多边形、自由曲面或细分曲面等原始面构成的对象)配置并设定于对象空间的处理。即,决定世界坐标系中的对象的位置、旋转角度(与朝向、方向同义),并以该旋转角度(绕X、Y、Z轴的旋转角度)将对象配置于该位置(X、Y、Z)。具体地,在存储部170的对象信息存储部172与对象号建立对应关系地存储对象空间中的对象(部分对象)的位置、旋转角度、移动速度、移动方向等的信息即对象信息。对象空间设定部116例如按照各帧进行更新该对象信息的处理等。
虚拟摄像头控制部118(虚拟摄像头控制处理的程序模块)进行用于生成从对象空间的给定(任意)的视角可观察的图像的虚拟摄像头(视角、基准虚拟摄像头)的控制处理。例如进行控制虚拟摄像头的位置(视角位置)或者姿态(视线方向)的处理。具体地,进行控制虚拟摄像头的位置(X、Y、Z)、作为姿态信息的旋转角度(绕X、Y、Z轴的旋转角度)的处理(控制视角位置、视线方向或者视角的处理)。该虚拟摄像头相当于用户(虚拟用户)的视角。在立体观察显示的情况下,设定左眼用的第一视角(左眼用的第一虚拟摄像头)和右眼用的第二视角(右眼用的第二虚拟摄像头)。
显示处理部120(显示处理的程序模块)进行游戏图像(模拟图像)的显示处理。例如基于由处理部100进行的各种处理(游戏处理、模拟处理)的结果进行描绘处理,由此生成图像,并显示于HMD200的显示部220。具体地,进行坐标转换(世界坐标转换、摄像头坐标转换)、限幅处理、透视转换、或者光源处理等几何处理,基于该处理结果制作描绘数据(原始面的顶点的位置坐标、纹理坐标、颜色数据、法线向量或者α值等)。进而,基于该描绘数据(原始面数据)将透视转换后(几何处理后)的对象(一个或多个原始面)在描绘缓存器178(能够以帧缓存器、工作缓存器等像素单位存储图像信息的缓存器)进行描绘。由此,在对象空间(虚拟空间)内生成从虚拟摄像头(给定的视角。左眼用、右眼用的第一、第二视角)可观察的图像。此外,在显示处理部120中进行的描绘处理能够通过顶点着色处理、像素着色处理等而实现。
声音处理部130(声音处理的程序模块)基于在处理部100中进行的各种处理的结果进行声音处理。具体地,生成乐曲(音乐、BGM)、效果声音、或声音等游戏声音,并使游戏声音输出至声音输出部192。此外,也可以通过HMD200的处理部240实现声音处理部130的声音处理的一部分(例如三维声学处理)。
输出处理部140进行各种信息的输出处理。例如输出处理部140作为输出处理进行向存储部170写入信息的处理、经由通信部196发送信息的处理。例如输出处理部140进行将由写入命令所指定的信息向存储部170写入的处理、经由网络对外部的装置(服务器等)发送信息的处理。发送处理是向通信部196指示信息的发送或者向通信部196指示发送的信息的处理等。
进而,如图1所示,本实施方式的模拟系统包括移动体处理部114、虚拟摄像头控制部118以及显示处理部120。另外,能够包括输入处理部102。
移动体处理部114进行使与用户对应的移动体(虚拟用户、搭乘移动体等)在虚拟空间(对象空间)移动的处理。例如进行按照每个规定期间(例如每一帧)求出移动体的位置、方向的信息的处理,而在虚拟空间的线路等中进行使移动体移动的处理。另外,移动体处理部114也进行使移动体动作的处理(运动处理)等。
虚拟摄像头控制部118进行与移动体的移动相应地进行移动的虚拟摄像头的控制。例如进行以追随移动体的方式移动的虚拟摄像头的控制。例如虚拟摄像头控制部118进行作为用户的第一人称视角设定的虚拟摄像头的控制。例如在与虚拟空间中移动的移动体的视角对应的位置设定虚拟摄像头,并设定虚拟摄像头的视角位置、视线方向,由此控制虚拟摄像头的位置(位置坐标)、姿态(绕旋转轴的旋转角度)。
显示处理部120生成在虚拟空间中从虚拟摄像头(用户视角)可观察的图像作为HMD200的显示图像(显示影像)。例如生成在作为虚拟空间的对象空间中从给定的视角可观察的图像。生成的图像希望是立体观察用的图像。
进而,显示处理部120在判断为移动体的加速度的变化或者虚拟摄像头的视线方向的变化满足给定的变化条件的情况下,进行使HMD200的显示图像变化成与从虚拟摄像头可观察的图像不同的图像的显示处理。例如显示处理部120在判断为满足给定的变化条件的情况下,使HMD200的显示图像变化成与作为通常的游戏图像(模拟图像)显示的图像不同的图像。例如使其变化成与基于游戏处理(模拟处理)的结果实时更新的游戏图像(模拟图像)不同的图像。例如使HMD200的显示图像变化成减轻了以移动体的加速度的变化、虚拟摄像头的视线方向的变化成原因的用户的眼睛等的负担(3D晕眩等)的图像。是否满足给定的变化条件例如可以通过实际监视移动体的加速度的变化或者虚拟摄像头的视线方向的变化来判断,也可以基于是否发生了满足给定的变化条件的事件(加速度变化事件或者视线方向变化事件等)来判断。
例如显示处理部120在满足了给定的变化条件的情况下,进行使HMD200的显示图像的整体变化的显示处理。即,进行使显示图像整体地变化的显示处理。例如显示处理部120进行将显示图像的所有像素设为对象的显示处理。具体地,进行使显示图像的所有像素的像素值变化成给定的值(例如与白或黑等规定颜色对应的像素值)的显示处理。或者,进行将显示图像的所有像素设为对象的效果处理(滤波处理)。
例如显示处理部120作为使显示图像的整体变化的显示处理进行使显示图像淡出的处理。例如在发生了满足给定的条件的事件的情况下,例如在经过给定的时间之后进行使显示图像淡出的处理。淡出处理是例如将显示图像的像素(所有像素)的颜色逐渐接近规定颜色的处理。作为淡出处理,例如有全白处理、全黑处理等。全白处理是将显示图像的像素的颜色(亮度值)逐渐变白的处理。全黑处理是将显示图像的像素的颜色逐渐变黑的处理。此外,淡出处理并不限于全白处理、全黑处理,例如能够假定将显示图像的所有像素的颜色逐渐变红的全红处理等各种处理。
另外,显示处理部120在满足给定的变化条件的情况下,也可以对从虚拟摄像头可观察的图像进行实施给定的效果处理的显示处理。例如在发生了满足给定的条件的事件的情况下,例如在经过给定的时间之后,对从虚拟摄像头可观察的图像进行给定的效果处理。由此,在满足给定的变化条件的情况下,能够使HMD200的显示图像变化成与从虚拟摄像头可观察的图像不同的图像。作为该情况下的效果处理,例如能够假定模糊处理、半透明合成处理、二值化处理、或者马赛克处理等各种处理。例如效果处理能够通过对从虚拟摄像头可观察的图像实施各种图像滤波处理而实现。作为图像滤波处理,例如能够假定移动平均滤波处理、高斯滤波处理、或者中值滤波处理等各种处理。例如显示处理部120通过游戏处理(模拟处理)对实时生成的图像实施图像滤波处理等,由此实现满足给定的变化条件的情况下的效果处理。该效果处理希望针对HMD200的显示图像的整体进行,但也可以针对一部分的区域进行。
另外,显示处理部120在发生了使移动体的行进方向朝向与行进方向不同的方向变化的加速度变化事件的情况下,判断为满足了给定的变化条件。进而,进行使HMD200的显示图像变化成与从虚拟摄像头可观察的图像不同的图像的显示处理。例如在发生了判断为作用了使移动体的行进方向朝向左方向、右方向、下方向或者上方向等的方向变化那样的加速度(在虚拟空间的伪加速度)的加速度变化事件的情况下,判断为满足了给定的变化条件。例如,在满足了这种加速度变化事件的发生条件的情况下,判断为满足了给定的变化条件。例如事先准备第一~第N加速度变化事件。然后在判断为发生了第一~第N加速度变化事件的第m(1≤m≤N)加速度变化事件的情况下,作为变化成与从虚拟摄像头可观察的图像不同的图像的显示处理,进行与该第m加速度变化事件建立对应关系的显示处理。具体地,根据与第m加速度变化事件对应的处理开始时机、处理程度,执行该显示处理。
这里,加速度变化事件例如是移动体的碰撞事件以及移动体的落下事件中至少一方。此外,加速度变化事件也可以是除碰撞事件、落下事件以外的事件。例如加速度变化事件也可以是急减速事件、急加速事件、或者急斜面行进事件等。
碰撞事件例如是移动体与虚拟空间内的其他对象碰撞的事件。认为像这样与其他对象碰撞,产生了使移动体的行进方向变化的加速度(基于碰撞的反作用的加速度),所以关于加速度变化判断为满足了给定的变化条件。进而,进行使HMD200的显示图像变化成与从虚拟摄像头可观察的图像不同的图像的显示处理。
落下事件例如是移动体向下侧方向等落下移动的事件。例如落下事件是在移动体的下方不存在线路(地图),而移动体向下侧方向落下的事件。认为通过像这样移动体落下,发生了使移动体的行进方向朝向下侧方向变化的加速度(基于重力的加速度),所以关于加速度变化判断为满足了给定的变化条件。进而进行使HMD200的显示图像变化成与从虚拟摄像头可观察的图像不同的图像的显示处理。该情况下,例如碰撞事件发生时的该显示处理、落下事件发生时的该显示处理可以与其处理内容不同。例如使该显示处理的处理开始时机和处理程度中至少一方不同。
另外,显示处理部120在虚拟摄像头的视线方向的角度变化成给定的角度以上的情况下,判断为满足了给定的变化条件,而进行使HMD200的显示图像变化成与从虚拟摄像头可观察的图像不同的图像的显示处理。例如在发生了移动体跌倒、或旋转、或者变得无法进行移动控制等,使虚拟摄像头的视线方向的角度变化变成给定的角度以上的状况的情况下,判断为满足了给定的变化条件。例如与前述的碰撞事件、落下事件同样地,在发生了虚拟摄像头的视线方向的角度变化变成给定的角度以上的事件的情况下,判断为满足了给定的变化条件,执行变更成与从虚拟摄像头可观察的图像不同的图像的处理。
另外,显示处理部120使变化成与从虚拟摄像头可观察的图像不同的图像的显示处理的处理开始时机和处理程度中至少一方在满足给定的变化条件的第一事件发生时、与满足给定的变化条件的第二事件发生时不同。例如与第二事件相比,在第一事件中,提前该显示处理的处理开始时机。另外与第二事件相比,在第一事件中,加强该显示处理的处理程度。处理开始时机是直至开始淡出处理、效果处理等处理为止的时机。处理程度例如表示淡出处理中的淡出时间(从原来的图像直至变化成规定颜色为止所需的时间)、效果处理中的效果的强度(滤波的强度)等,作为淡出处理、效果处理的处理参数进行设定。第一事件例如是前述的碰撞事件,第二事件例如是落下事件,但并不限于此,作为第一、第二事件,能够假定各种事件。
另外,本实施方式的模拟系统包括输入处理部102。进而,输入处理部102(输入接收部)获取佩戴HMD200(头部佩戴式显示装置)的用户的视角信息的跟踪信息。例如获取作为用户的视角位置、视线方向中至少一方的视角信息的跟踪信息(视角跟踪信息)。该跟踪信息例如能够通过进行HMD200的跟踪处理而获取。此外,也可以通过跟踪处理直接获取用户的视角位置、视线方向。
进而,虚拟摄像头控制部118进行作为用户的第一人称视角设定的虚拟摄像头的控制。例如虚拟摄像头控制部118基于跟踪信息(用户的视角位置以及视线方向中至少一方的信息)使虚拟摄像头的位置、姿态变化。例如,虚拟摄像头控制部118以与实际空间中的用户的视角位置、视线方向的变化相应地使虚拟摄像头的位置(视角位置)、姿态(视线方向)发生变化的方式设定虚拟摄像头。
例如对虚拟空间中的虚拟用户的视角(第一人称视角)设定虚拟摄像头。进而,若佩戴HMD200的实际空间(实际世界)的用户摇头、或者移动身体等使用户的视角位置、视线方向发生变化,则虚拟空间的虚拟用户的视角位置、视线方向也与其相应地发生变化。即,若实际空间中的用户的视角位置、视线方向发生变化,则与其相应地虚拟空间中的虚拟摄像头的位置、姿态发生变化。另外,通过用户对操作部160进行操作等,虚拟用户(角色)、其搭乘移动体(机器人、电车、车、摩托车、自行车、飞机或船等)在虚拟空间内移动,则虚拟摄像头的位置(虚拟用户的视角位置)也以追随该移动的方式发生变化。由此,用户能够体验犹如自己的分身即虚拟用户、其搭乘移动体在虚拟空间移动那样的虚拟现实。此外,虚拟空间中的虚拟用户的视角例如成为第一人称视角,但也可以在该第一人称视角的图像例如映现虚拟用户(角色)的身体的一部分,或者映现搭乘移动体的内部的样子。
在另一方面,虚拟摄像头控制部118在移动体的行进方向发生变化的情况下,也以针对虚拟摄像头的纵摇以及横摇中至少一方的姿态变化进行无效或限制的方式设定虚拟摄像头。例如以不取决于移动体的行进方向的变化地不进行纵摇、横摇的方式设定虚拟摄像头的姿态。例如若实际空间中的用户的视角位置、视线方向发生变化,则与其相应地虚拟摄像头的位置、姿态发生变化,但在移动体的行进方向发生变化的情况下,虚拟摄像头变成不进行与该移动体的行进方向相应的纵摇、横摇。例如,以纵摇角、横摇角不从初始的设定角度发生变化而变成固定的方式设定虚拟摄像头。例如关于纵摇(纵摇角),以在虚拟空间的世界坐标系中例如变成与水平方向的面(XZ平面)平行的方式设定虚拟摄像头。关于横摇(横摇角),例如以不从世界坐标系的铅锤方向(Y轴)变化的方式设定虚拟摄像头。此外,使纵摇、横摇的姿态变化无效是指不进行纵摇、横摇的姿态变化。限制纵摇、横摇的姿态变化是指以比与移动体的行进方向相应的纵摇、横摇的旋转角度小的旋转角度(足够小的旋转角度)进行纵摇、横摇的姿态变化。
此外,虚拟摄像头的姿态例如能够通过虚拟摄像头的视线方向的向量、和虚拟摄像头的上方向的向量(表示虚拟摄像头的向上方向是哪个方向的向量)而规定。视线方向的向量能够根据虚拟摄像头的注视位置而设定。例如通过使虚拟摄像头的视线方向的向量变化,能够实现虚拟摄像头的纵摇、偏摆的姿态变化(旋转移动)。例如通过使虚拟摄像头的上方向的向量变化,能够实现虚拟摄像头的横摇的姿态变化(旋转移动)。
另外,输入处理部102获取通过HMD200的跟踪处理而得到的跟踪信息。例如通过后述的图2的(A)~图3的(B)那样的HMD200的跟踪处理,获取用于确定作为用户的视角位置以及视线方向中至少一方的视角信息的跟踪信息。进而,该跟踪信息包括来自用户的初始视角信息的视角信息的变化信息。例如跟踪信息包括来自用户的初始视角位置的视角位置的变化信息(视角位置的坐标的变化值)、以及来自用户的初始视线方向的视线方向的变化信息(绕视线方向的旋转轴的旋转角度的变化值)中至少一方。基于这样的跟踪信息所包含的视角信息的变化信息,能够确定用户的视角位置、视线方向。
另外,移动体处理部114在移动体的行进方向发生变化的情况下,也以将移动体的纵摇以及横摇中至少一方的姿态变化无效或限制的方式进行使移动体移动的处理。例如在线路等上移动的移动体的行进方向发生变化的情况下,也以不使移动体的姿态的纵摇、横摇发生变化的方式将移动体的模型对象配置设定于该移动位置。进而虚拟摄像头控制部118在姿态变化被无效或限制的移动体的视角的位置设定虚拟摄像头。例如在与虚拟用户对应的移动体的第一人称视角的位置配置设定虚拟摄像头。由此,在移动体的行进方向发生变化的情况下,也针对虚拟摄像头的纵摇以及横摇中至少一方的姿态变化进行无效或限制。
在该情况下,具体地,例如进行在世界坐标系中使移动体的本地坐标系的基准位置移动的处理。本地坐标系的基准位置例如是原点位置,例如以移动体的规定位置(例如后述的脚下位置、腰的位置等)成为本地坐标系的原点位置的方式对移动体进行配置设定。进而,以本地坐标系的纵摇以及横摇中至少一方的旋转移动相对于世界坐标系进行无效或限制的方式设定本地坐标系。进而,在本地坐标系中的移动体的视角的位置设定虚拟摄像头的视角坐标系(视角坐标系的原点)。
此外,在当移动体的行进方向发生变化的情况下以对移动体的纵摇、横摇的姿态变化进行无效或限制的方式使移动体移动的方法中,虚拟摄像头的姿态的控制方法并不限于上述的方法。另外,也可以代替对HMD200显示图像,而对投影用的屏幕利用投影装置投影图像。投影用屏幕是由一个曲面或多个面构成的屏幕,例如是被称为圆顶形状的屏幕的曲面屏幕。
另外,移动体的姿态能够通过多个绕各旋转轴(X轴、Y轴、Z轴)的移动体(模型对象)的旋转角度而规定。移动体的姿态变化是绕各旋转轴的旋转移动。例如移动体的姿态能够通过移动体的本地坐标系相对于世界坐标系绕各旋转轴的旋转角度而规定,例如能够通过坐标转换的旋转矩阵来表示。
另外,移动体处理部114在根据虚拟空间的线路的状态的变化而使移动体的行进方向发生变化的情况下,以对移动体的纵摇以及横摇中至少一方的姿态变化进行无效或限制的方式进行使移动体在线路上移动的处理。进而,针对移动体所附带的给定的对象,与线路的形状相应地使姿态发生变化。
例如与线路对应的线路信息存储于存储部170,移动体处理部114基于该线路信息进行移动体的移动处理。例如与线路上的各点建立对应关系,存储线路的高度信息、方向信息等线路信息,移动体处理部114读出与移动体的位置对应的点的线路信息,执行使移动体向行进方向移动的处理。例如以在下坡的线路中向下行方向移动,在上坡的线路中向上行方向移动的方式设定移动体的行进方向。另外,以在右转弯的线路中向右方向转弯,在左转弯的线路中向左方向转弯的方式设定移动体的行进方向。进而,在像这样移动体的行进方向发生变化的情况下,也以移动体不进行纵摇、横摇的姿态变化的方式(以对该姿态变化进行限制的方式)执行移动体的移动处理。进而在该情况下,也针对移动体所附带的给定的对象(例如滑雪板、作为移动体的角色的身体的一部分等),使姿态与线路的状态(形状等)相应地发生变化。例如在下坡的线路中,以沿着下坡的方式使该给定的对象的姿态变化,在上坡的线路中,以沿着上坡的方式使该给定的对象的姿态变化。
另外,移动体处理部114进行以与移动体的行进方向的变化相应地使移动体的姿态变化的方式使移动体移动的处理。例如在为向下行方向前进的行进方向的情况下,以向下行方向移动的方式变化成可观察姿态,在为向上行方向前进的行进方向的情况下,以向上行方向移动的方式变化成可观察姿态,而使移动体移动。同样地,在朝右方向、左方向转弯的行进方向的情况下,以向右转、或向左转的方式变化成可观察姿态,使移动体移动。在该情况下,虚拟摄像头控制部118在与移动体的行进方向的变化相应地使移动体的姿态变化的情况下,也能够针对虚拟摄像头的纵摇以及横摇中至少一方的姿态变化进行无效或限制的方式设定虚拟摄像头。例如是向下行方向、上行方向前进的行进方向,且是移动体的姿态变化成与下行方向、上行方向对应的姿态的情况下,针对虚拟摄像头的纵摇的姿态变化进行无效或限制。例如使虚拟摄像头不进行纵摇的姿态变化。另外,例如是向右方向、左方向转弯的行进方向,且是移动体的姿态变化成向右方向、左方向转弯的姿态的情况下,也针对虚拟摄像头的横摇的姿态变化进行无效或限制。例如使虚拟摄像头不进行横摇的姿态变化。
另外,在本实施方式中,用户作为操作游戏的游戏处理进行虚拟现实的模拟处理。虚拟现实的模拟处理是用于将实际空间中的现象在虚拟空间进行模拟的模拟处理,是用于使用于虚拟体验该现象的处理。例如进行用于使与实际空间的用户对应的虚拟用户、该搭乘移动体等的移动体在虚拟空间移动,使用户体感伴随着移动的环境、周围的变化的处理。
进而,可动壳体40基于作为游戏处理的模拟处理的结果使玩游戏位置变化。例如基于虚拟空间中的移动体的移动处理的结果等,使玩游戏位置变化。例如,作为用于使用户体感伴随着用户的行进方向的变化的加速度的变化(加速、减速)的模拟处理,通过可动壳体40进行使玩游戏位置变化的处理。或者,移动体在线路上移动时,作为用于使用于体感线路的起伏、凹凸的模拟处理,通过可动壳体40进行使玩游戏位置变化的处理。这样通过可动壳体40使玩游戏位置变化,由此HMD200中的显示图像的摇晃、用户体感的加速度等的变化在某种程度上进行连动,能够抑制用户的3D晕眩等。
此外,玩游戏位置是操作虚拟现实(VR)的模拟游戏时用户所在的玩游戏位置。例如玩游戏位置是在座椅等乘坐部的用户的乘坐位置。例如坐在作为乘坐部的座椅等上,操作虚拟现实的模拟游戏的情况下,玩游戏位置是例如使作为座椅的乘坐位置的就坐位置。另外,在用户横跨模拟摩托车、自行车、或者马等交通工具、动物的乘坐部的情况下,玩游戏位置是横跨的位置。另外,用户以站立姿态操作模拟游戏的情况下,玩游戏位置例如是用户的站立位置。
另外,本实施方式的模拟系统具有声音处理部130,声音处理部130进行生成与移动体的行进方向的变化相应的声音或者与移动体移动的线路的状况相应的输出声音的处理。例如在移动体的行进方向变化、或者线路的状况变化的情况下,生成用于使用户识别该变化的输出声音。例如在有凹凸的线路中,输出“呱嗒”这样的声音,使用户在听觉上识别出在线路中存在凹凸。另外,在用户的行进方向突然变化的情况下,输出用于使用户识别使行进方向变化的加速度的变化(加速、减速等)的声音,而使用户在听觉上识别出行进方向发生了变化。由此,能够降低用户的3D晕眩的发生。
另外,显示处理部120基于用户的设定信息或者用户的游戏历史记录信息使变化成与从虚拟摄像头可观察的图像不同的图像的显示处理的处理开始时机和处理程度中至少一方变化。例如在用于用户输入游戏的各种设定信息的选择设定画面等中,能够设定该显示处理的处理开始时机、处理程度。或者,基于过去的用户的游戏历史记录信息使该显示处理的处理开始时机、处理程度发生变化。例如针对基于游戏历史记录信息判定为频繁地进行游戏操作且习惯于游戏操作的用户、判断为高手的用户,减慢该显示处理的处理开始时机,或者减弱处理程度。另一方面,针对基于游戏历史记录信息判断为未习惯游戏操作的用户、判断为新手的用户,加快该显示处理的处理开始时机,或者加强处理程度。例如基于游戏历史记录信息,考虑用户的碰撞次数、落下次数、跌倒次数、或者过去的设定,来执行变化成与从虚拟摄像头可观察的图像不同的图像的处理。该游戏历史记录信息例如可以从用户所持的便携式信息存储介质195读出,也可以基于存储于便携式信息存储介质195的用户ID等的识别信息从服务器进行下载。
2.跟踪处理
接着,对跟踪处理的例子进行说明。在图2的(A)中示出用于本实施方式的模拟系统的HMD200的一个例子。如图2的(A)所示,在HMD200设置有多个受光元件201、202、203(光电二极管)。受光元件201、202设置于HMD200的前表面侧,受光元件203设置于HMD200的右侧面。另外,在HMD的左侧面、上表面等也设置有未图示的受光元件。
另外,在HMD200设置有头带260等,用户PL能够以更好的佩戴感稳定地将HMD200佩戴于头部。另外,在HMD200设置有未图示的耳机端子,通过向该耳机端子连接耳机270(声音输出部192),从而用户PL例如能够听到实施了三维声学(三维音响)的处理的游戏声音。此外,也可以通过HMD200的传感器部210等检测用户的头部的点头动作、摇头动作,从而能够输出用户的操作信息。
如图2的(B)所示,在模拟系统(可动壳体40)的周边设置有基站280、284。在基站280设置有发光元件281、282,在基站284设置有发光元件285、286。发光元件281、282、285、286例如通过射出激光(红外线激光等)的LED而实现。基站280、284使用这些发光元件281、282、285、286例如呈放射状射出激光。进而,设置于图2的(A)的HMD200的受光元件201~203等接收来自基站280、284的激光,由此实现了HMD200的跟踪,能够检测用户PL的头的位置、朝向的方向(视角位置、视线方向)。
在图3的(A)中示出HMD200的另一例子。在图3的(A)中,对HMD200设置有多个发光元件231~236。这些发光元件231~236例如通过LED等而实现。发光元件231~234设置于HMD200的前表面侧,发光元件235、未图示的发光元件236设置于背面侧。这些发光元件231~236例如射出(发出)可见光的带域的光。具体地,发光元件231~236射出相互不同的颜色的光。进而,将图3的(B)所示的拍摄部150设置在用户PL的前方侧,由该拍摄部150拍摄这些发光元件231~236的光。即,在拍摄部150的拍摄图像映现这些发光元件231~236的光斑。进而,进行该拍摄图像的图像处理,由此实现用户PL的头部(HMD)的跟踪。即,检测用户PL的头部的三维位置、朝向的方向(视角位置、视线方向)。
例如,如图3的(B)所示,在拍摄部150设置有第一、第二摄像头151、152,通过使用这些第一、第二摄像头151、152的第一、第二拍摄图像,能够检测出用户PL的头部的进深方向上的位置等。另外,基于设置于HMD200的运动传感器的运动检测信息,也能够检测出用户PL的头部的旋转角度(视线)。因此,通过使用这样的HMD200,即使用户PL朝向周围的360度的整个方向中的某个方向的情况下,也能够将与其对应的虚拟空间(虚拟三维空间)中的图像(从与用户的视角对应的虚拟摄像头可观察的图像)显示于HMD200的显示部220。此外,作为发光元件231~236,也可以使用红外线的LED而非可见光。另外,例如也可以通过使用深度摄像头等其他方法来检测用户的头部的位置、移动等。
此外,检测用户的视角位置、视线方向(用户的位置、方向)的跟踪处理的方法并不限于图2的(A)~图3(B)中说明的方法。例如也可以使用设置于HMD200的运动传感器等,利用HMD200的单体实现跟踪处理。即,不设置图2的(B)的基站280、284、图3的(B)的拍摄部150等外部装置而实现跟踪处理。或者,也可以通过公知的眼跟踪、脸跟踪或者头跟踪等各种视角跟踪方法,检测用户的视角位置、视线方向等视角信息等。
3.模拟系统的具体例
接着,对模拟系统的具体例进行说明。图4是表示作为模拟系统的一个例子的滑雪模拟器的结构例的立体图。
图4的滑雪模拟器具有可动壳体40,该可动壳体40包括对置的基底部41、42。基底部41、42以在图4的DRC方向上对置的方式设置。在基底部41、42之间,且在其四角设置有空气弹簧部50、51、52、53(广义上为伸缩部)。这些空气弹簧部50、51、52、53使用空压机、阀来进行空气的供给、排出,由此在DRC方向上进行伸缩。
例如,如图4所示,将铅锤方向设为Y轴方向,将用户PL朝向的方向设为Z轴方向,将与Y轴方向及Z轴方向正交的方向设为X轴方向。在该情况下,通过所有的空气弹簧部50、51、52、53拉伸,能够使基底部41在Y轴方向上朝上侧(相对于基底部42为上侧)移动。另外,通过所有的空气弹簧部50、51、52、53收缩,能够使基底部41在Y轴方向上朝下侧移动。通过上述上下方向上的基底部41的移动,例如可以再现用滑雪板滑雪时的雪面的状态。例如,通过以较小的行程、且以较快的速度使基底部41沿上下方向移动,能够表现雪面的凹凸等。
另外,通过四角的空气弹簧部50、51、52、53中的左侧的空气弹簧部50、51收缩,且右侧的空气弹簧部52、53拉伸,或者左侧的空气弹簧部50、51拉伸,且右侧的空气弹簧部52、53收缩,能够使基底部41绕Z轴横摇。另外,通过后侧的空气弹簧部50、52收缩,且前侧的空气弹簧部51、53拉伸,或者后侧的空气弹簧部50、52拉伸,且前侧的空气弹簧部51、53收缩,能够使基底部41绕X轴纵摇。通过进行这样的横摇、纵摇,能够表现用滑雪板滑雪的斜面的状态等。
另外,可动壳体40包括操作部件43、44。操作部件43、44设置在基底部41上。在操作部件43以自由转动的方式设置有用于放置用户PL的左脚的脚台45。在操作部件44以自由转动的方式设置有用于放置右脚的脚台46。
具体地,操作部件43、44朝图4的DRD方向摇摆移动(摆动)。即能够进行绕Y轴的偏摆的摇摆移动。脚台45、46朝DRE方向转动。即,能够进行绕Z轴的旋转。
用户PL以滑动滑雪板的要领进行使用了操作部件43、44、脚台45、46的操作。例如,通过进行将操作部件43、44在DRD方向上摇摆移动的摇摆操作、使脚台45、46在DRE方向上转动的留痕迹操作,从而进行如使用现实世界的滑雪板进行那样的滑雪操作。由此,在HMD200放映出的虚拟用户进行对应的滑雪操作,用户PL能够体感在虚拟空间内的线路上滑动滑雪板的虚拟现实。
另外,在可动壳体40设置有引导部60、62。用户PL站在由引导部60、62规定的玩游戏位置PPL,操作滑雪的模拟游戏。在引导部60、62设置有用于用户PL用手把持的把持部61、63(把持部63未图示)。把持部61、63相当于现实世界的滑雪杖的手柄。用户PL用手握住模仿这种滑雪杖的引导部60、62的把持部61、63,由此支承自己的身体。进而,一边用手握住左右的把持部61、63来支承身体,一边按照进行滑雪的要领进行将操作部件43、44摇摆移动的摇摆操作,或者进行使用脚台45、46的留痕迹操作,而享受滑雪的模拟游戏。此外,从设置于用户PL的前方的风洞部69送出风,能够给予犹如因滑雪而产生的风碰到身体那样的虚拟现实感。
另外,引导部60将来自生成HMD200的显示图像的处理装置(包括图1的处理部100、存储部170等的装置。例如游戏装置、PC等)的缆线20从下方向上方沿着规定路径引导。例如引导部60由中空构造的管子构成,来自处理装置的缆线20通过该引导部60的管子之中而被从缆线取出口65取出。具体地,引导部60具有在作为经过点TP的缆线取出口65中支承缆线20的棒状的支承引导件64,缆线20被从作为经过点TP的缆线取出口65取出而连接到HMD200。
进而,在图4中,空气弹簧部50~53进行伸缩,由此进行基底部41的上下方向的移动、基底部41绕Z轴的横摇、绕X轴的纵摇的旋转移动,与其相应地用户PL的玩游戏位置PPL也发生变化。即,用户PL站立的基底部41沿上下方向移动、或者进行横摇、纵摇的旋转移动,则作为用户PL的站立位置的玩游戏位置PPL也发生变化。进而,如前述那样,可动壳体40与虚拟空间的虚拟用户、搭乘移动体等移动体的行进方向的变化或移动体移动的线路的状况相应地,使用户PL的玩游戏位置PPL变化。
图5是在图4的滑雪模拟器中显示于HMD200的游戏图像(模拟图像)的例子。该游戏图像是所谓的第一人称视角下的图像。在图5的游戏图像中,与用户对应的虚拟用户(虚拟滑雪者)行进的滑雪线路的图像、线路周围的风景的图像被实时显示。这些图像作为所谓的立体观察图像通过HMD200显示给用户。另外,在该游戏图像中,对于虚拟用户的身体的一部分、滑雪板、雪仗也被适当地显示。例如,在图4中,若用户将视线朝下,则利用在图2的(A)~图3的(B)等中说明的方法检测视线方向的变化,如图5那样,将虚拟用户的身体的一部分(手、脚等)、滑雪板、雪仗设为游戏图像的显示。由此,在虚拟空间中,能够带给用户犹如作为现实的滑雪者正滑雪行进那样的虚拟现实感。
图6是表示作为模拟系统的一个例子的机器人模拟器(机器人游戏装置)的结构例的立体图。在图6所示的可动壳体40中,在底部450(基底部)之上设置有罩部451,在其之上设置有基底部452(台座部)。在该基底部452设置有座椅支承部464,在座椅支承部464之上安装有座椅462,由此构成了乘坐部460。
另外,在基底部452设置有移动部470。具体地,在基底部452设置有导轨部454、455,以在沿着导轨部454、455的方向上能够移动的方式设置有移动部470。
移动部470具有支承部472,在支承部472的上端设置有上表面部473(操作基座)。进而,在上表面部473设置有操作杆161、162、具有传感器部的游戏控制器165。游戏控制器165所具有的传感器部检测位置以及方向中至少一方。操作杆161、162构成图1的操作部160。若用户用手对操作杆161、162进行操作,则与其连动地,显示虚拟空间的机器人的驾驶舱内的虚拟用户操作设置于驾驶舱的操作杆的样子。
用户若将操作杆161、162向前方侧推倒,则虚拟空间的机器人向前方侧移动,若将操作杆161、162向后方侧推倒,则机器人向后方侧移动。用户若将操作杆161、162向右方向侧、左方向侧推倒,则机器人向右方向侧、左方向侧移动。另外,通过将操作杆161、162中的一个向前方侧推倒,将另一个向后方侧推倒,能够改变机器人朝向的方向。
在游戏控制器165设置有用作传感器部的至少一个受光元件。进而,通过与图2的(A)、图2的(B)的跟踪处理同样的处理,实现游戏控制器165的传感器部的检测功能(位置以及方向中至少一方的检测功能)。通过该检测功能,例如能够检测由可动壳体40的可动引起的玩游戏位置(在乘坐部460的乘坐位置、就坐位置)的变化。
在移动部470的支承部472的下端设置有下表面部474,在下表面部474设置有加速踏板163、制动踏板164。若用户踩踏加速踏板163,则虚拟空间的机器人进行加速地移动的冲刺移动。若用户踩踏制动踏板164,则机器人的移动停止。
在可动壳体40的基底部452设置有框部430。进而,框部430的引导部432引导来自处理装置的缆线20。例如在从下方朝向上方的规定路径上引导缆线20。进而,被引导的缆线20经由经过点TP而连接到HMD200。具体地,缆线20在经过点TP进一步固定于固定件433,并连接到HMD200。
在乘坐部460的座椅462的背面侧设置有未图示的两个电动缸。通过这些电动缸的杆部进行伸缩,从而基底部452的姿态发生变化。例如实现了基底部452的纵摇、横摇等的姿态变化。例如通过两个电动缸的杆部一起拉伸,实现了基底部452向前侧的纵摇的姿态变化。通过两个电动缸的杆部一起收缩,实现了基底部452向后侧的纵摇的姿态变化。通过两个电动缸的杆部中的一个拉伸,另一个收缩,实现了基底部452向右侧、左侧的横摇的姿态变化。通过这些基底部452的纵摇、横摇的姿态变化。能够使用户的身体的朝向纵摇、或者横摇。
在图7中,示出在图6的机器人模拟器中显示于HMD200的游戏图像的例子。在本实施方式中,生成与用户对应的虚拟用户搭乘于虚拟空间内的机器人的驾驶舱,而与敌方机器人等对战的机器人游戏的游戏图像。在机器人出击时,在虚拟世界中,关闭驾驶舱的盖子。进而,用户(虚拟用户)在狭窄的空间的驾驶舱内操纵机器人,享受与敌方机器人等对战的游戏。
如图7的游戏图像所示,在虚拟世界的机器人的有视野式驾驶舱的盖子FD设置有窗户WD,用户能够经过该窗户WD观看外界的样子。在图7中,在窗户WD内显示有敌方机器人ERB、靶标SG、战场的地图。另外,也显示作为用户操作的机器人的武器的导弹发射器LAA、大炮CNB、表示这些武器剩余的弹数的弹数图标SNA、SNB。
靶标SG以追随佩戴HMD200的用户的视线(头部、HMD)的移动的方式移动。例如若用户朝右,则游戏图像上的靶标SG向右移动,若向左,则靶标SG向左移动。用户将靶标SG的位置向敌方机器人ERB的位置移动,并通过发射器LAA、大炮CNB进行攻击,由此享受对战游戏。
此外,实现本实施方式的模拟系统的装置并不限于图4、图6所示的装置。例如,本实施方式的模拟系统能够应用于作为显示部使用HMD的家庭用游戏装置、业务用游戏装置、个人计算机(PC)、便携式信息终端、多名用户参加的大型娱乐装置等各种装置。另外,本实施方式的模拟系统也可以通过经由网络通信连接多个终端装置(游戏装置、PC、便携式信息终端等)的服务器系统而实现。在该情况下,本实施方式的各处理也可以通过模拟系统与终端装置的分散处理而实现。
4.本实施方式的方法
接下来,对本实施方式的方法详细地进行说明。此外,以下主要以将本实施方式的方法应用于图4的滑雪模拟器的滑雪游戏的情况为例进行说明。不过,本实施方式并不限于此,能够应用于各种游戏(RPG、机器人对战游戏、动作游戏、对战游戏、竞赛游戏、体育游戏、恐怖体验游戏、电车、飞机等交通工具的模拟游戏、益智游戏、交流游戏、或者音乐游戏等),也能够应用于游戏以外。另外,以下,以移动体是作为虚拟用户的角色的情况为例进行说明,但移动体也可以是虚拟用户所搭乘的机器人、车、飞机或者电车等搭乘移动体。
4.1加速度变化时、视线方向变化时的显示处理
在图8的(A)中,在虚拟空间中作为滑雪者(虚拟用户)的角色CH(广义上为移动体)在线路上滑动行进。进而,在与虚拟空间的虚拟用户对应的角色CH的视角的位置设定虚拟摄像头,从该虚拟摄像头可观察的图像如图5所示显示(立体观察显示)于HMD200。由此,例如能够将第一人称视角下的图像显示于HMD200,从而能够带给用户犹如成为虚拟空间中的滑雪者而在线路上行进那样的虚拟现实感。
进而,在图8的(A)中,在角色CH的前方侧(行进方向侧)存在岩石RK(碰撞对象物)。在图8的(B)中,角色CH碰撞到该岩石RK。由此如图8的(C)所示,角色CH的行进方向DT发生变化。
与该岩石RK的碰撞事件是使角色CH(移动体)的行进方向DT朝向不同的方向变化的加速度变化事件。例如通过与岩石RK的碰撞,角色CH的行进方向DT从角色CH的正面方向朝向右侧方向变化。这种行进方向DT的变化处理例如能够通过进行角色CH与岩石RK的碰撞的运算处理(命中检查处理)而实现。该碰撞的运算处理通过进行基于角色CH与岩石RK的碰撞而受到的反作用力的物理运算处理而实现。例如利用通过图8的(B)的碰撞受到的反作用力,如图8的(C)所示,进行使角色CH的行进方向DT变化的物理运算处理。
在图9的(A)中,作为滑雪者的角色CH行进至悬崖CF的附近,在图9的(B)中从悬崖CF落下。通过从该悬崖CF的落下,如图9的(C)所示,角色CH的行进方向DT发生变化。
来自该悬崖CF的落下事件也是使角色的行进方向DT朝向不同的方向变化的加速度变化事件。例如通过来自悬崖CF的落下,角色CH的行进方向DT从角色CH的正面方向朝向下侧方向变化。这种行进方向DT的变化处理例如能够通过进行来自悬崖CF的角色CH的落下移动的运算处理而实现。该落下移动的运算处理能够通过进行基于从悬崖CF跌落的角色CH受到的重力的物理运算处理而实现。例如根据在图9的(B)的落下时受到的重力,如图9的(C)所示,进行使角色CH的行进方向DT变化的物理运算处理。
像这样,若通过与岩石的碰撞、从悬崖的落下,角色CH的行进方向DT较大地发生变化,则导致图5所示的HMD的显示图像较大地发生变化。该HMD的显示图像的较大的变化例如招致3D晕眩等的问题。这里,3D晕眩是指例如持续看有立体感的移动的剧烈的影像,引起头晕等交通工具晕眩那样的症状。
例如,通过与图8的(B)的岩石RK的碰撞,如图8的(C)所示,角色CH的行进方向DT较大地发生变化,则追随角色CH的虚拟摄像头的视线方向也较大地发生变化。例如,在第一人称视角的情况下,在角色CH的视角的位置设定虚拟摄像头,例如,虚拟摄像头的视线方向朝向角色CH的行进方向DT。因此,如图8的(C)所示,若行进方向DT较大地发生变化,则虚拟摄像头的视线方向也较大地发生变化,图5的HMD的显示图像也较大地发生变化。
这种碰撞事件发生时的HMD的显示图像的剧烈的变化是由虚拟空间中的模拟现象(疑似碰撞)所引起的,因此在与现实世界的现象之间有乖离。若发生这样的、与现实世界乖离的HMD的显示图像的剧烈的变化,则引起用户的3D晕眩。
在该情况下,例如在与图8的(B)的岩石碰撞时,使图4的可动壳体40动作,而使用户体感由碰撞引起的反作用力,由此也可能减小现实世界与虚拟世界的乖离,也减轻用户的3D晕眩。例如在与岩石的碰撞时,通过使空气弹簧部50~53微小地伸缩,由此能够使用户在某种程度上体感由碰撞引起的振动。
然而,由这样的可动壳体40产生的碰撞的伪体感存在界限,在显示于HMD的虚拟世界的图像的剧烈的变化、与现实世界的用户的体感之间存在较大的乖离。即,在现实世界中用户未与岩石碰撞,而仅通过虚拟世界的图像与岩石的碰撞而引起大幅摇晃移动的现象。若频繁产生这样的现象,则引起用户的3D晕眩等。
另外,在从图9的(A)~图9的(C)的悬崖的落下时,图4的现实世界的用户无法体感由落下而产生的重力加速度。因此,在虚拟世界中从悬崖落下,而在现实世界中未产生这样的落下,虚拟空间中的现象与现实世界中的现象产生乖离。若产生与这样的现实世界的现象乖离的HMD的显示图像的变化,则引起用户的3D晕眩等。
因此,在本实施方式中,在判断为发生了这样的角色的碰撞事件、落下事件等加速度变化事件的情况下,进行使HMD的显示图像变化成与从虚拟摄像头可观察的图像不同的图像的处理。例如角色(移动体)的加速度的变化在判断为满足了给定的变化条件的情况下,使HMD的显示图像变化成与虚拟摄像头可观察的图像不同的图像。例如进行使HMD的显示图像的整体变化的显示处理。作为这样的显示处理,例如有实施使显示图像淡出的处理、对从虚拟摄像头可观察的图像实施效果处理的处理等。
图10的(A)是像图8的(A)那样角色CH朝向岩石RK的方向行进时显示于HMD的图像的例子。如图10的(A)的G1所示,在角色CH的正面方向(行进方向侧)存在岩石。进而,图10的(B)是与G2的岩石碰撞的瞬间的图像,是与图8的(B)的状况对应的图像。像这样。若与岩石碰撞,如图8的(C)所示,角色CH的行进方向DT较大地发生变化,则HMD的显示图像剧烈地变化,引起用户的3D晕眩等的问题。
因此,在本实施方式中,在产生了该碰撞事件那样的加速度变化事件的情况下(广义上,加速度变化满足了给定的变化条件的情况下),进行
图11的(A)、图11的(B)所示的淡出处理。例如,如图11的(A)所示,开始显示图像(从虚拟摄像头可观察的图像)的淡出处理,最终如图11的(B)所示使画面整体为全白。例如在图11的(A)中,G3所示的岩石的图像与图10的(A)、图10的(B)中的岩石的图像相比,成为接近白色的颜色。
该情况下,例如像图8的(B)那样,角色CH碰撞岩石RK之后,给定的期间之间将图10的(A)、图10的(B)那样的通常的游戏图像(模拟图像)显示于HMD。进而,在经过给定的期间,变成淡出处理的开始时机的情况下,开始图11的(A)、图11的(B)所示的淡出处理(全白处理)。
图12的(A)、图12的(B)是如图9的(A)、图9的(B)那样在角色CH越过悬崖CF落下的场景下显示于HMD的图像的例子。即,在
图12的(A)中,角色CH朝向H1所示的悬崖行进,在图12的(B)中,角色CH朝向H2所示的悬崖下落下。像这样从悬崖落下,如图9的(C)所示那样,角色CH的行进方向DT较大地发生变化,则HMD的显示图像剧烈地变化,引起用户的3D晕眩等的问题。
因此,在本实施方式中,在发生了该落下事件那样的加速度变化事件的情况下,进行图13的(A)、图13的(B)所示的淡出处理。例如,如
图13的(A)所示,开始显示图像的淡出处理,最终如图13的(B)所示使画面整体全白。
在该情况下,如图9的(B)、图9的(C)所示,角色CH从悬崖CF碰撞之后,在给定的期间,将图12的(B)那样的通常的游戏图像(模拟图像)显示于HMD。进而,在经过给定的期间,变成淡出处理的开始时机的情况下,开始图13的(A)、图13的(B)所示的淡出处理(全白处理)。
像这样,在本实施方式中,在判定为角色CH(移动体)的加速度的变化满足给定的变化条件的情况下,使HMD的显示图像变化成与虚拟摄像头可观察的图像(通常的游戏图像、模拟图像)不同的图像。具体地,在发生了碰撞事件、落下事件等加速度变化事件的情况下,进行将画面整体淡出的淡出处理。这些加速度变化事件是使角色CH的行进方向DT向与该行进方向不同的方向变化的事件。
此外,加速度变化事件发生时(变化条件成立时)进行的处理并不限于这样的淡出处理。例如如图14的(A)所示,也可以进行模糊处理、半透明合成处理等效果处理。例如在图14的(A)中,对显示图像的整体实施效果处理。例如在模糊处理中,对HMD的显示图像的整体进行模糊处理。在该情况下,也可以从模糊处理的开始时机逐渐加强模糊的程度(广义上为显示处理的处理程度)。半透明合成处理能够通过针对从虚拟摄像头可观察的图像,对规定的图像进行半透明合成而实现。该情况下,也可以从半透明合成处理的开始时机起逐渐提高半透明对象图像的半透明合成率(广义上为显示处理的处理程度)。另外,作为效果处理能够假定各种处理,例如可以是二值化处理、马赛克处理等。另外,效果处理能够例如对从虚拟摄像头可观察的图像(原图像)实施图像滤波处理而实现。图像滤波处理例如是移动平均滤波处理、高斯滤波处理、或者中值滤波处理等。另外,如图14的(B)所示,也可以仅对显示图像的一部分的区域(例如中央部的主要区域)进行效果处理(图像滤波处理)。
另外,在本实施方式中,在判断为虚拟摄像头的视线方向的变化满足给定的变化条件的情况下,也可以使HMD的显示图像变化成与从虚拟摄像头可观察的图像不同的图像。例如在发生了虚拟摄像头的视线方向的变化事件的情况下,进行淡出处理、效果处理。
例如,在图15的(A)中,作为移动体的角色CH在线路CS上行进。虚拟摄像头VC设定于角色CH的视角的位置,由此生成第一人称视角下的图像。进而,在图15的(B)中,角色CH跌倒,伴随于此,虚拟摄像头VC的视线方向CVL剧烈地变化。在该情况下,也例如进行在图11的(A)、图11的(B)、图13的(A)、图13的(B)中说明的淡出处理,或者进行在图14的(A)、图14的(B)中说明的效果处理。即,进行使HMD的显示图像的整体变化的处理。更加具体地,如图15的(C)所示,在虚拟摄像头VC的视线方向CVL的角度变化是给定的角度θth以上的情况下,判断为满足了给定的变化条件,使HMD的显示图像变化成与从虚拟摄像头VC可观察的图像不同的图像。例如由于跌倒等,判断为虚拟摄像头VC的视线方向从CVL变化角度θth以上,而成为CVL’的情况下,对显示图像进行淡出处理、效果处理。
以上,在本实施方式中,在移动体的加速度的变化、虚拟摄像头的视线方向的变化满足给定的变化条件的情况下,使HMD的显示图像变化成与从虚拟摄像头可观察的图像不同的图像。具体地,在发生了碰撞事件、落下事件等加速度变化事件的情况下、在发生了跌倒事件等虚拟摄像头的视线方向变化事件的情况下,进行使HMD的显示图像的整体变化的显示处理。具体地,进行使显示图像淡出的处理,或者进行针对显示图像的效果处理(加工处理)。
这样,在加速度变化事件、视线方向变化事件发生时,例如能够有效地防止HMD的显示图像大幅摇晃,或者剧烈摇晃,而成为用户的眼睛的负担等,产生3D晕眩等的不良情况。
例如,在未习惯于游戏的用户、新手的用户的游戏操作中,碰撞、落下、跌倒等事件频繁地反复。进而,由此,若HMD的显示图像频繁地剧烈地变化,则招致3D晕眩等的问题。例如未对现实世界的用户作用加速度,而在虚拟空间中产生碰撞事件、落下事件等加速度变化事件,若与此对应的显示图像显示于HMD,则导致在现实世界的现象与虚拟世界的现象之间产生乖离。另外,现实世界的用户的视线方向未发生变化,而在虚拟空间中发生跌倒事件等,虚拟摄像头的视线方向剧烈地变化,与此对应的显示图像显示于HMD,则在现实世界的现象与虚拟世界的现象之间产生乖离。若产生这样的现实世界与虚拟世界的现象的乖离,则引起用户3D晕眩。
在该方面,在本实施方式中,若发生加速度变化事件、视线方向变化事件,则进行淡出处理、效果处理,游戏暂时中断。因此,现实世界与虚拟世界的现象乖离的时间以短期间结束,从而能够减轻由于HMD的显示图像的摇晃而引起的用户的眼睛的负担等。进而,例如在事件的发生场所或者其周围的场所进行游戏的再次开始。例如从发生了碰撞、落下或者跌倒等事件的场所、例如向游戏开始地点侧返回的场所,进行游戏的再次开始,用户能够再次开始通常那样的游戏。因此,例如未习惯于游戏的用户、新手的用户即使在反复碰撞、落下、跌倒等的情况下,用户的眼睛的负担等被充分减轻,从而能够有效地防止引起3D晕眩。
图16的(A)、图16的(B)是对碰撞、落下等事件发生时的淡出处理的详细内容进行说明的图。在本实施方式中,使变化成与从虚拟摄像头可观察的图像不同的图像的显示处理的处理开始时机、处理程度与满足给定的变化条件的第一事件发生时、与满足给定的变化条件的第二事件发生时不同。此外,以下,是变化成与从虚拟摄像头可观察的图像不同的图像的处理以为淡出处理的情况为例进行说明,但该处理也可以是图14的(A)、图14的(B)所示的效果处理等。
例如如图16的(A)所示,若发生碰撞事件,则进行碰撞的物理运算处理。例如如图8的(B)所示,在角色CH与岩石RK碰撞的情况下,根据碰撞时的角色CH的行进方向DT、和岩石RK的碰撞面的信息(形状信息。碰撞面所朝向的方向的信息)进行物理运算处理,来求出碰撞后的行进方向DT。进而例如如图8的(C)所示,进行使角色CH向求出的行进方向DT移动的处理。
在该情况下,如图16的(A)所示,直至经过给定的期间TA为止,不开始淡出处理(效果处理)。进而,在该期间TA显示通常的游戏图像。例如在由于碰撞而使行进方向DT发生变化的情况下,将从虚拟摄像头可观察的图像显示于HMD。进而在经过期间TA之后,开始淡出处理。
另外,如图16的(B)所示,若发生落下事件,则进行落下的物理运算处理。例如如图9的(B)所示,在角色CH从悬崖CF落下的情况下,进行基于角色CH的速度、重力加速度的信息求出落下后的角色CH的行进方向的物理运算处理。进而,如图9的(C)所示,进行使角色CH向求出的行进方向DT落下的处理。
在该情况下,如图16的(B)所示,直至经过给定的期间TB为止,不开始淡出处理(效果处理)。进而,在该期间TB显示通常的游戏图像。例如,在由于落下而使行进方向DT发生变化的情况下,将从虚拟摄像头可观察的图像显示于HMD。进而,在经过期间TB之后,开始淡出处理。
这样做,在碰撞、落下的事件发生后,直至经过期间TA、TB为止显示通常的游戏图像,之后进行淡出处理,因此将用户感到的不自然感变成最小限度。即,若未等待经过期间TA、TB而进行淡出处理,则在碰撞、落下之后不久马上开始淡出处理。这样,用户有时无法掌握自己变成了什么样的状况,招致用户的混乱、不自然感。
相对于此,在图16的(A)、图16的(B)中,直至经过期间TA、TB为止,显示通常的游戏图像,之后进行淡出处理。因此,用户通过观察期间TA、TB中的HMD的显示图像,能够适当地掌握与岩石碰撞、或者从悬崖落下。因此,用户通过碰撞、落下,能够掌握变成什么样的状况,从而能够防止用户感到不自然等事态。
进一步,在本实施方式中,从图16的(A)、图16的(B)可知,与事件相应地使淡出处理(广义上变化成与从虚拟摄像头可观察的图像不同的图像的处理)的处理开始时机不同。例如通过碰撞事件(第一事件)与落下事件(第二事件),使淡出处理的处理开始时机不同。
例如在图16的(A)的碰撞事件中,处理开始时机TMA变快。即,期间TA较短。另一方面,在图16的(B)的落下事件中,处理开始时机TMB与图16的(A)相比变慢。即,期间TB比期间TA长。
例如,在碰撞事件发生时,为了将由于碰撞而引起的用户的混乱等抑制到最小限度,加快处理开始时机TMA,而马上开始淡出处理(效果处理)。另一方面,在落下事件发生时,为了使用户更好地观察落下的样子,提高游戏的演出效果,使处理开始时机TMB比图16的(A)的碰撞时的处理开始时机TMA慢。由此,用户能够在较长的期间TB借助HMD的显示图像虚拟体验自己落下的样子,从而能够提高游戏的演出效果。
另外,在本实施方式中,也可以与事件相应地使淡出处理(变化成与从虚拟摄像头可观察的图像不同的图像的处理)的处理程度不同。例如通过碰撞事件(第一事件)与落下事件(第二事件),使淡出处理的处理程度不同。例如在碰撞事件中,加强淡出处理的处理程度,例如以较短的时间进行全白。另一方面,在落下事件中,减弱淡出处理的处理程度,例如与碰撞事件相比花费较长的时间进行全白。
例如,如图17的(A)所示,预先将处理开始时机TM1、TM2、TM3…的信息对应给各事件EV1、EV2、EV3…。处理开始时机的信息例如是确定开始事件发生后、淡出处理、效果处理等显示处理为止的时间的信息。另外,如图17的(B)所示,预先将处理程度PD1、PD2、PD3…的信息对应给各事件EV1、EV2、EV3…。处理程度的信息例如是确定淡出处理的开始后、直至完全淡出为止的时间的信息、确定效果处理中的效果的强度(例如模糊程度、半透明度、滤波系数等)的信息等。由此,能够与发生的各事件相应地使处理开始时机、处理程度不同,能够以与各事件相应的最适的处理开始时机、处理程度执行淡出处理、效果处理。
4.2虚拟摄像头的姿态变化的无效处理
图18是表示在虚拟空间中作为滑雪者的角色CH在线路CS上滑动行进的样子的图。在图18中,水平面HS是虚拟空间的世界坐标系中的水平面(XZ平面)。在平坦的线路CS中,如图18的A1所示,角色CH的行进方向DT成为与水平面HS平行(大致平行。下同)的方向。进而,虚拟摄像头VC的视线方向CVL也成为与水平面HS平行(大致平行)的方向。此外,虚拟摄像头VC的视角位置CVP例如设定为角色CH的视角的位置(例如眼睛的位置),由此实现了第一人称视角。
另一方面,在图18的A2、A3中,角色CH在下坡的线路CS行进,角色CH的行进方向DT成为相对于水平面HS成俯角的方向。进而,角色CH成为相对于下坡的线路CS的面垂直(大致垂直。下同)的站立姿态,因此虚拟摄像头VC的视线方向CVL也成为相对于水平面HS成俯角的方向。进而,之后,由于在A4中角色CH在平坦的线路CS上行进,因此行进方向DT及虚拟摄像头VC的视线方向CVL相对于水平面HS返回到平行的方向。
这样,在图18中,若通过线路CS的角色CH的行进,行进方向DT如A1~A4那样发生变化,则伴随于此,虚拟摄像头VC的视线方向CVL也发生变化。在将第一人称视角的图像显示于HMD的情况下,如图18所示,通过与行进方向DT的变化连动地使虚拟摄像头VC的视线方向CVL变化。进而,像这样,若虚拟摄像头VC的视线方向CVL发生变化,则图5的HMD的显示图像也与视线方向CVL的变化相应地较大地发生变化。例如,在图18的A1、A2、A3中,从与水平面HS平行的视线方向CVL的显示图像变化成相对于水平面HS成俯角的视线方向CVL上的显示图像,之后,在A4中,返回到与水平面HS平行的视线方向CVL上的显示图像。即,伴随着角色CH的行进方向DT的变化,虚拟摄像头VC的视线方向CVL较大地发生变化,HMD的显示图像也大幅摇晃。另外,例如在线路CS中存在细小的凹凸的情况下,与该凹凸相应地,显示图像剧烈摇晃。
进而,像这样若显示图像摇晃,则引起所谓的用户的3D晕眩。例如,现实世界的滑雪者在存在图18那样的线路的起伏的情况下,通过三个半规管等检测行进方向的变化(加速度的变化、重力方向的变化、离心力的变化),来例如将视线方向朝向看到远处的方向。由此,眼睛可观察的图像也不发生变化,防止了晕眩。
然而,在经由HMD观察虚拟空间的世界那样的VR的系统中,如图18那样,若伴随着行进方向DT的变化,虚拟摄像头VC的视线方向CVL发生变化,则HMD的显示图像与用户的意思、感觉无关地进行摇晃。例如现实世界的用户实际上未在下行、上行的线路上行进,而仅HMD的显示图像与虚拟空间的线路的下行、上行的倾斜相应地发生变化。因此,产生与用户的意思、感觉的偏差,引起3D晕眩。
该情况下,在图4的可动壳体40中,与虚拟空间中的线路的下行、上行的倾斜相应地使基底部41绕X轴纵摇,由此,能够使用户某种程度上体感虚拟空间的线路的下行、上行的倾斜。然而,例如虚拟空间中的线路的倾斜是20度~40度那样的倾斜的情况下,由图4的基底部41的纵摇引起的倾斜例如成为10度以下左右。因此,与虚拟世界的线路的倾斜存在较大的差异,即使使图4的基底部41纵摇,也无法充分防止由于显示图像的摇晃而引起的3D晕眩的发生。
像这样,在图18的虚拟摄像头VC的控制方法中,与用户的意思、感觉无关地,与虚拟空间的线路的形状相应地将使用户的头部犹如强制地朝下或者朝上那样的图像显示于HMD,因此引起3D晕眩。
因此,在本实施方式中,与用户的视线方向对应的虚拟摄像头VC的视线方向CVL只要用户自己不移动自己的头,例如始终相对于水平面HS平行(大致平行)。即,即使在虚拟空间的线路CS上存在倾斜(起伏),也如图18那样,虚拟摄像头VC的视线方向CVL不会沿着线路CS的倾斜而发生变化,视线方向CVL与水平面HS平行,从而对虚拟摄像头VC进行控制。此时,虚拟摄像头VC的视线方向CVL不会始终变得与水平面HS平行,在用户根据自己的意思、感觉将视线方向朝向下方向、上方向的情况下,虚拟摄像头VC的视线方向CVL也与其相应地朝向下方向、上方向。这样做,在允许基于用户的意思。能够在允许基于反应的视线方向的变化的同时,抑制与用户的意思、感觉无关地使视线方向发生变化的事态。因此,能够兼顾地实现用户的虚拟现实感的提高、和由于HMD的显示图像的摇晃而引起的3D晕眩的防止。
更加具体地,在本实施方式中,获取用户的视角信息的跟踪信息,基于获取到的跟踪信息使虚拟摄像头VC的位置、姿态变化。这里虚拟摄像头VC的位置对应于视角位置CVP,虚拟摄像头VC的姿态对应于视线方向CVL。
例如,如图19的(A)~图19的(C)所示,若现实世界的用户PL将视线方向VL(头部)朝向下方向、上方向,则例如通过HMD200的跟踪处理获取该用户PL的视角信息的跟踪信息(视角跟踪信息)。进而,基于获取到的跟踪信息(用户的视角位置、视线方向的确定信息)设定虚拟摄像头VC的视角位置CVP、视线方向CVL,由此如图19的(A)~图19的(C)那样,使虚拟摄像头VC的位置、姿态变化。例如如图19的(B)那样,若用户PL的视线方向VL朝向下方向,则虚拟摄像头VC的视线方向CVL也朝向下方向。如图19的(C)所示,若用户PL的视线方向VL朝向上方向,则虚拟摄像头VC的视线方向CVL也朝向上方向。由此,若现实世界的用户PL使视角位置VP、视线方向VL发生变化,则与其相应地,虚拟摄像头VC的视角位置CVP、视线方向CVL也发生变化。因此,虚拟摄像头VC像用户PL的实际的第一人称视角那样动作,因此能够提高虚拟现实感。
更加具体地,在游戏开始前,对用户指示采取基准姿势(成为基准的站立姿态)。进而,通过HMD200的跟踪处理,检测用户的初始视角位置、初始视线方向,并保存于存储部(HMD、模拟系统的存储部)。接着,若游戏开始,则此次来自保存的初始视角位置、初始视线方向的变化信息作为跟踪信息被获取。即,用户的视角位置、视线方向的变化信息作为跟踪信息被获取。例如,视角位置的变化信息是视角位置的坐标的变化值,视线方向的变化信息是表示视线方向的旋转角度(绕旋转轴的旋转角度)的变化值。例如,将初始视角位置的坐标设为(x0、y0、z0),将视角位置的坐标的变化值设为(Δx、Δy、Δz)。另外,将表示初始视线方向的旋转角度设为(θx0、θy0、θz0),将表示视线方向的旋转角度的变化值设为(Δθx、Δθy、Δθz)。于是,当前的视角位置能够表示为(x、y、z)=(x0+Δx、y0+Δy、z0+Δz),当前的视线方向的旋转角度能够表示为(θx、θy、θz)=(θx0+Δθx、θy0+Δθy、θz0+Δθz)。
接着,基于跟踪信息设定虚拟摄像头的视角位置、视线方向,并使虚拟摄像头的位置、姿态发生变化。该情况下,虚拟摄像头的视角位置、视线方向的设定能够通过对表示虚拟摄像头的初始视角位置的坐标、初始视线方向的旋转角度加上上述的(Δx、Δy、Δz)、(Δθx、Δθy、Δθz)的处理等而实现。
根据这样的方法,在图4中,不取决于乘坐于可动壳体40的用户的身长(体格)的大小而在角色的视角位置设定虚拟摄像头。因此,由于不需要例如与用户的身长相应地准备不同的模型的角色,因此实现了数据量的削減等。
以上,在本实施方式中,基于通过跟踪处理获取到的跟踪信息,使虚拟摄像头VC的位置、姿态发生变化。由此,若现实世界的用户使视角位置、视线方向发生变化,则与其连动地由于虚拟空间中的虚拟摄像头VC的视角位置、视线方向也发生变化,因此能够提高用户的虚拟现实感。
另一方面,在本实施方式中,如图18那样,在角色CH(移动体)的行进方向DT发生变化的情况下,对于虚拟摄像头VC的纵摇以及横摇中至少一方的姿态变化,以成为无效(或者限制)的方式设定虚拟摄像头VC。
例如,在图20中,通过在下坡的线路CS行进,如B1、B2、B3、B4所示,角色CH的行进方向DT发生变化。该情况下,也在图20中,不进行虚拟摄像头VC的纵摇的姿态变化(与纵摇对应的绕旋转轴的旋转运动),而例如虚拟摄像头VC的视线方向CVL维持为与水平面HS平行的方向。即,在图18中,虚拟摄像头VC的视线方向CVL与线路CS的状态(倾斜、起伏、形状等)相应地发生变化,进行了虚拟摄像头VC的纵摇的姿态变化。相对于此,在图20中,虚拟摄像头VC的视线方向CVL不取决于线路CS的状态,而不进行虚拟摄像头VC的纵摇的姿态变化。不过,在图20中,虚拟摄像头VC的视线方向CVL并非始终与水平面HS平行,如在图19的(A)~图19的(C)中说明的那样,若用户将视线方向朝上方向、下方向,则与其相应地,虚拟摄像头VC的视线方向CVL也发生变化。
另外,在本实施方式中,在通过角色CH向右方向、左方向转弯那样的行进方向的变化,成为产生横摇那样的状况的情况下,也如图21所示,不进行虚拟摄像头VC的横摇的姿态变化。即,以横摇绕旋转轴不旋转的方式设定虚拟摄像头VC。由此,在图5的HMD的显示图像中,只要用户不将头向右倾斜,则变成水平线的方向不发生变化,从而能够抑制3D晕眩。
此外,在存在角色CH向右方向、左方向转弯那样的行进方向的变化的情况下,例如针对虚拟摄像头VC的偏摆的姿态变化进行。例如,在角色CH向右方向转弯的情况下,虚拟摄像头VC的视线方向CVL朝向右方向,在角色CH向左方向转弯的情况下,以虚拟摄像头VC的视线方向CVL朝向左方向的方式进行偏摆的姿态变化。由此,用户能够经由虚拟摄像头VC看到在作为虚拟用户的角色CH的行进方向上可观察的图像,作为图5的HMD的显示图像能够显示适当的图像。
例如,将沿着虚拟摄像头VC的长轴(光轴)的轴设为ZV轴,将与ZV轴正交、且与世界坐标系的铅锤方向的轴平行的轴设为YV轴,将与ZV轴及YV轴正交的轴设为XV轴。在该情况下,虚拟摄像头VC的纵摇例如是绕XV轴的旋转运动。虚拟摄像头VC的横摇例如是绕ZV轴的旋转运动。另外,偏摆例如是绕YV轴的旋转运动。以在图20中,不进行作为绕XV轴的旋转运动的虚拟摄像头VC的纵摇,在图21中,不进行作为绕ZV轴的旋转运动的虚拟摄像头VC的横摇的方式设定虚拟摄像头VC。另一方面,针对绕YV轴的旋转运动即虚拟摄像头VC的偏摆被允许。
此外,在图20、图21中,对于将由行进方向的变化引起的虚拟摄像头VC的纵摇、横摇的姿态变化设为无效的情况进行了说明,但也可以进行限制(抑制)该姿态变化那样的虚拟摄像头VC的控制。例如如图18所示,以与角色CH的行进方向DT平行的方式虚拟摄像头VC的视线方向CVL发生变化的情况下的、虚拟摄像头VC的纵摇角的变化设为α。该情况下,在图20中,虚拟摄像头VC的纵摇角的变化变成Δθp=0,而Δθp<α那样,也可以以将Δθp变得足够小的方式限制虚拟摄像头VC的纵摇的姿态变化。另外,在由图21的转弯而产生的横摇中,将相对于铅锤方向的轴的角色CH的体轴(沿着长边方向的轴。纵轴)的角度即横摇角的变化设为β。该情况下,在图21中,虚拟摄像头VC的横摇角的变化成Δθr=0,而也可以以Δθr<β、Δθr变得足够小的方式限制虚拟摄像头VC的横摇的姿态变化。
如以上那样,根据本实施方式,通过角色CH(移动体)的行进方向DT的变化,在发生纵摇、横摇那样的状况的情况下,虚拟摄像头VC的纵摇角、横摇角也不发生变化(或者纵摇角、横摇角的变化被限制)。因此,能够防止HMD的显示图像较大地摇晃,或者剧烈摇晃那样的事态,从而能够抑制3D晕眩的发生。该情况下,如图19的(A)~图19的(C)所示,用户移动头部来使视角位置VP、视线方向VL发生变化的情况下,虚拟摄像头VC的姿态与其相应地发生变化。由此,能够给用户带来犹如成为真正的滑雪者而在线路上滑行那样的虚拟现实感。因此,根据本实施方式,可以提供能够兼顾实现3D晕眩等的不良情况的发生的防止、和虚拟现实感的提高的模拟系统。
例如,作为本实施方式的比较例的方法,考虑将虚拟摄像头的视线方向以始终与水平面平行的方式进行设定的方法。该比较例的方法适于生成通常的第三人称视角的伪三次元图像的系统。然而,在该比较例的方法中,由于不取决于用户的意思、反应而始终将虚拟摄像头的视线方向朝向水平方向,所以不适于使用HMD那样的系统。
相对于此,在本实施方式的方法中,通过用户的意思、无意识的反应,移动头部等,来使现实世界中的用户的视角位置、视线方向发生变化,则与其连动地虚拟世界中的虚拟摄像头的视角位置、视线方向也发生变化(图19的(A)~图19的(C))。因此,基于用户的意思、反应的视角的变化反映为虚拟摄像头的视角的变化,因此能够对使用HMD的系统实现最适的虚拟摄像头的控制,实现用户的虚拟现实感的提高等。进而,在本实施方式中,一边反映基于这样的用户的意思、反应的视角的变化,一边针对由于移动体的行进方向的变化而产生的影响,不对虚拟摄像头的纵摇、横摇的姿态变化反映。因此,能够提供在实现虚拟现实感的提高的同时,能够防止3D晕眩等的发生的模拟系统。
图22是对实现虚拟摄像头的纵摇、横摇的姿态变化的无效处理(限制处理)的第一实现方法进行说明的图。
在图22中,如C1~C4所示,在角色CH(移动体)的行进方向DT发生变化的情况下,也以角色CH的纵摇以及横摇中至少一方的姿态变化变成无效(或者限制)的方式进行使角色CH移动的处理。然后在姿态变化被变成无效(或者限制)的角色CH的视角的位置设定有虚拟摄像头VC。换言之,在与用户对应的角色CH(虚拟用户)在虚拟空间中移动时,将其视线方向转换成角色CH与基准坐标(脚下位置LP)共用且体轴(Y轴)与世界坐标系的水平面HS(基准面)垂直的基本模型(基本姿态)的视角坐标系来进行运算,由此防止了3D晕眩的发生。
例如,在图18中,与线路CS的状态(倾斜)相应地,角色CH的纵摇的姿态发生变化。例如,在下坡的线路CS中,进行角色CH向前侧纵摇的姿态变化。即,进行相对于水平方向变成俯角的纵摇角的姿态变化。在上坡的线路CS中,进行角色CH向后侧纵摇的姿态变化。即,进行相对于水平方向变成仰角的纵摇角的姿态变化。
相对于此,在图22中,如C1~C4所示,在角色CH的行进方向DT发生变化的情况下,角色CH也不进行纵摇的姿态变化。例如以角色CH的体轴(连接头部与脚下的轴)相对于世界坐标系的水平面HS例如成直角(大致直角)的方式设定(固定)角色CH的姿态。例如针对角色CH的脚下位置LP(基准坐标)配置基本姿态(直立姿态)的角色CH。然后在角色CH的行进方向DT发生变化的情况下,角色CH也保持基本姿态(直立姿态)不变地在线路CS上行进。例如作为线路信息,在设定有在各点的线路的高度信息的情况下,在使角色CH移动时,仅参照该线路信息的高度信息。然后,不使角色CH的姿态发生变化而例如仅使作为基准位置的脚下位置LP的高度发生变化。在图22中,由于是下坡的线路CS,因此随着角色CH在线路CS上行进,仅角色CH(脚下位置LP)的高度发生变化,角色CH的姿态未发生变化。
同样地,在通过向右方向、左方向的转弯而产生了如在图21中说明的那样使姿态横摇的状况的情况下,也不进行角色CH的横摇的姿态变化。即,在存在由于转弯而引起的行进方向DT的变化的情况下,角色CH也保持图22那样的基本姿态(站立姿态)不变,而不进行图21那样的横摇的姿态变化地在线路CS上行进。
进而,在这样的基本姿态的角色CH的视角(视角坐标系)的位置设定虚拟摄像头VC的视角位置CVP。另外,虚拟摄像头VC的视线方向CVL朝向与水平面HS平行的方向。例如,由于角色CH的姿态保持基本姿态不变而未发生变化,因此相对于脚下位置LP的角色CH的视角位置变成固定的位置,在该固定的位置设定虚拟摄像头VC的视角位置CVP。另外,角色CH的基本姿态是直立姿态,虚拟摄像头VC的视线方向CVL朝向与角色CH的体轴正交(大致正交)的方向。
此外,实际上,作为滑雪者的角色CH为稍前倾的基本姿态。因此,角色CH的体轴与水平面HS所成的角度变得比90度稍小,角色CH的体轴与虚拟摄像头VC的视线方向CVL所成的角度变得比90度稍大。
像这样,在图22中,在行进方向DT发生变化的情况下,角色CH也不进行纵摇、横摇的姿态变化而保持基本姿态(直立姿态、前倾姿态)不变地在线路CS上行进。进而,通过在保持这样的基本姿态不变的角色CH的视角位置设定虚拟摄像头VC,其结果为,能够实现图20所示那样的虚拟摄像头VC的姿态控制。即,在行进方向DT发生变化的情况下,也能够实现不进行虚拟摄像头VC的纵摇、横摇那样的姿态控制。
图23是对虚拟摄像头的纵摇、横摇的姿态变化的无效处理(限制处理)的第二实现方法进行说明的图。
在图23的F1~F4中,进行以与角色CH(移动体)的行进方向DT的变化相应地使角色CH的姿态发生变化的方式使角色CH移动的处理。例如,若为下坡的线路CS,则进行角色CH向前侧纵摇的姿态变化,若为上坡的线路CS,则进行向后侧纵摇的姿态变化。另外,在向右方向、左方向转弯的情况下,进行横摇的姿态变化。
进而,在图23的F1~F4中,在像这样与行进方向DT的变化相应地使角色CH的姿态发生变化的情况下,也对于虚拟摄像头VC的纵摇、横摇的姿态变化以变成无效(限制)的方式设定虚拟摄像头VC。
例如,在图23的F2、F3中,由于是下坡的线路CS,因此行进方向DT朝向下方向,对于角色CH也进行向前侧纵摇的姿态变化。不过,虚拟摄像头VC的视线方向CVL朝向水平方向,朝向与行进方向DT不同的方向。
由此,在与线路CS的状态等相应地使角色CH的行进方向发生变化的情况下,只要用户不移动头部等,则虚拟摄像头VC的视线方向CVL也朝向固定的方向(水平方向)。因此,能够防止HMD的显示图像大幅摇晃、或者剧烈摇晃的事态,从而防止3D晕眩的发生。进而,与图22的第一实现方法不同,在图23的第二实现方法中,对于角色CH的姿态,与行进方向DT相应地发生变化。例如若为下坡的线路CS,则变成朝向下方向的姿态,若为上坡的线路CS,则变成朝向上方向的姿态。另外,在转弯时,如图21所示,变成将体轴向右或左倾斜的横摇的姿态。因此,例如在对战用图像、观赏用图像或者演示图像中,也能够显示对方用户、观众等不会感到不自然的图像。因此,能够兼顾实现防止由于HMD的显示图像的摇晃而引起的3D晕眩的发生、和生成合适的对战用图像、观赏用图像或者演示图像。此外,对战用图像是用于对战用的图像。例如对战用图像是用于成为对手的对方用户观察该用户的角色等的移动体的图像,例如是显示于该对方用户的HMD(显示部)的图像。观赏用图像(观战用图像)是用于观赏用的图像。例如观赏用图像是用于观赏(观战)用户的移动体移动的游戏的样子的图像。例如观赏用图像是为了观众观看游戏的样子而显示于观赏用显示器的图像。演示用图像是用作演示用的图像。例如演示用图像是在游戏开始前、开始后等演示用而显示的图像。
图24的(A)~图24的(C)是说明从悬崖CF的落下事件时的虚拟摄像头VC的姿态变化的图。在如图24的(A)所示角色CH从悬崖CF飞出,如图24的(B)、图24的(C)所示落下的情况下,角色CH的行进方向DT从水平方向朝下侧方向发生变化。该情况下,在本实施方式中,使用在图20中说明的方法,由此如图24的(B)、图24的(C)所示,虚拟摄像头VC的视线方向CVL不朝向下侧方向而维持为水平方向。即,虚拟摄像头VC的纵摇的姿态变化变得无效。
这里,图24的(B)是使用了图22的第一实现方法的情况的例子,
图24的(C)是使用了图23的第二实现方法的情况的例子。在图24的(B)中,由于使用第一实现方法,因此角色CH的纵摇的姿态变化变得无效。在图24的(C)中,由于使用第二实现方法,因此角色CH进行纵摇的姿态变化,但对于虚拟摄像头VC而言,纵摇的姿态变化变得无效。此外,在图24的(B)、图24的(C)中,在如图19的(B)所示现实世界的用户朝向下侧方向的情况下,虚拟摄像头VC的视线方向CVL也变得朝向下侧方向,用户能够看见悬崖下的样子。
图25的(A)~图25的(C)是对向岩石RK碰撞事件时的虚拟摄像头VC的姿态变化进行说明的图。如图25的(A)那样,在角色CH碰撞岩石RK的情况下,在图25的(B)、图25的(C)中,角色CH的行进方向DT例如向上侧方向发生变化。该情况下,在本实施方式中,通过使用在图20中说明的方法,从而如图25的(B)、图25的(C)所示,虚拟摄像头VC的视线方向CVL不朝向上侧方向而维持为水平方向。即,虚拟摄像头VC的纵摇的姿态变化变得无效。
这里,图25的(B)是使用了图22的第一实现方法的情况下的例子,图25的(C)是使用了图23的第二实现方法的情况的例子。由于在图25的(B)中使用第一实现方法,因此角色CH的纵摇的姿态变化变得无效。由于在图25的(C)中使用第二实现方法,因此角色CH进行纵摇的姿态变化,而对于虚拟摄像头VC而言,纵摇的姿态变化变得无效。此外,在图25的(B)、图25的(C)中,在如图19的(C)所示那样现实世界的用户朝向上侧方向的情况下,虚拟摄像头VC的视线方向CVL也朝向上侧方向。
像这样,在图24的(A)~图25的(C)中,由于虚拟摄像头VC的纵摇等的姿态变化变得无效,因此能够抑制用户的3D晕眩等的发生。但是,例如在图24的(A)~图24的(C)中,虽然虚拟摄像头VC的视线方向CVL维持为水平,但虚拟摄像头VC的视角位置CVP向下侧方向移动,因此图5的HMD的显示图像也伴随于此而较大地发生变化。另外,在图25的(A)~图25的(C)中,虚拟摄像头VC的视角位置CVP向上侧方向移动,因此图5的HMD的显示图像也伴随于此而较大地发生变化。因此,仅通过将虚拟摄像头的纵摇等的姿态变化设为无效的方法,无法完全防止用户的3D晕眩等的发生。
在该方面,在本实施方式中,如在图10的(A)~图14的(B)中进行说明的那样,在发生了碰撞事件、落下事件的情况下,进行显示图像的淡出处理等。因此,在图24的(A)~图25的(C)中,在虚拟摄像头VC的视角位置CVP向下侧方向、上侧方向移动,而使HMD的显示图像较大地发生变化的情况下,也能够通过以短时间将显示图像淡出,而防止用户的3D晕眩等的发生。
4.3可动壳体及输出声音的控制、用户设定、游戏历史记录
在本实施方式中,如图26所示,在图4、图6等中进行说明的可动壳体40也可以与移动体(角色等)的行进方向的变化或移动体移动的线路的状况(状态)相应地使用户的玩游戏位置发生变化。或者,也可以生成与移动体的行进方向的变化相应的声音或者与移动体移动的线路的状况相应的输出声音。
例如,在虚拟空间的移动体(角色等)的行进方向在下坡的线路中朝向下方向的情况下,以现实空间的用户的姿态向前侧纵摇的方式控制可动壳体40。以图4为例,将后侧的空气弹簧部50、52拉伸,而将前侧的空气弹簧部51、53收缩。另外,例如输出使用户感到像在下坡的线路上下降的输出声音(例如风噪声)。另外,在虚拟空间的移动体的行进方向在上坡的线路上朝向上方向的情况下,以现实空间的用户的姿态向后侧纵摇的方式控制可动壳体40。以图4为例,将后侧的空气弹簧部50、52收缩,而将前侧的空气弹簧部51、53拉伸。另外,例如输出使用户感到像在上坡的线路上上升的输出声音。
另外,在线路凹凸的某不平道路的情况下,进行将用户的玩游戏位置上下摇晃那样的可动壳体40的控制。以图4为例,使各空气弹簧部50~52沿上下方向细微地伸缩。另外,输出表示不平道路那样的输出声音。
像这样,若对可动壳体40、输出声音进行控制,则能够使用可动壳体40、输出音来使用户感到虚拟空间中的移动体的行进方向的变化、线路的状况。例如通过由可动壳体40引起的玩游戏位置的变化而体感由行进方向的变化、线路状况所引起的加速度等的变化,或者通过输出声音的变化而在听觉上进行识别。因此,现实世界中的用户的体感、听觉状态、与虚拟世界中的移动体、线路的状况在某种程度上变得一致,实现了3D晕眩的产生的抑制。例如,在没有由这种可动壳体40引起的玩游戏位置的变化、输出声音的变化的状态下,若虚拟空间中的移动体的行进方向、线路状况剧烈地发生变化,则用户的体感、听觉状态与虚拟空间的状况变得不一致。因此,有可能发生3D晕眩的事态,而根据图26的本实施方式的方法,能够防止这种事态的发生。
另外,在本实施方式中,也可以基于由用户进行的设定信息或用户的游戏历史记录信息,使淡出处理、效果处理(变化成与从虚拟摄像头可观察的图像不同的图像的显示处理)的处理开始时机、处理程度发生变化。
例如,图27是用户设定游戏的各种的选择的选择设定画面的例子。在该选择设定画面中,用户能够设定淡出处理、效果处理的处理开始时机、处理程度。例如易引起3D晕眩的用户加快处理开始时机,增强处理程度。由此,淡出处理、效果处理以短时间开始,或者该处理程度变强,因此能够有效地防止这样的用户产生3D晕眩。另一方面,不易引起3D晕眩的用户通过减慢处理开始时机,或者减弱处理程度,由此能够享受更加真实的设定下的游戏。
另外,在图28中,基于用户的游戏历史记录的信息,设定淡出处理、效果处理的处理开始时机、处理程度。例如,基于用户的游戏历史记录信息,例如针对判定为碰撞、落下、跌倒等的事件的发生率较高的用户,加快处理开始时机,或者加强处理程度。由此,对于判断为不习惯于游戏操作的用户、作为初级者的用户,通过加快处理开始时机,或者加强处理程度,从而能够有效地防止引起3D晕眩。另一方面,对于判定为习惯游戏操作的用户、判断为是高手的用户,判断为不易引起3D晕眩,而减慢处理开始时机,减弱处理程度。例如,基于游戏历史记录信息确定用户的碰撞次数、落下次数、跌倒次数、或者过去的设定(选择设定等)。进而,基于用户的碰撞次数、落下次数、跌倒次数或者过去的设定等的信息,执行变化成与虚拟摄像头可观察的图像不同的图像的处理。例如基于该信息决定淡出处理、效果处理的处理开始时机、处理程度等的设定参数。此外,游戏历史记录的信息、例如存储于图1的便携式信息存储介质195(IC卡等),从便携式信息存储介质195基于游戏历史记录的信息进行处理开始时机、处理程度的设定。或者,也可以从外部的服务器下载用户的游戏历史记录的信息。
4.4处理例
接下来,对本实施方式的处理例使用图29的流程图进行说明。
首先,获取用户的操作信息(步骤S1)。例如获取使用图1的操作部160输入的用户的操作信息。另外,获取用户的视角信息的跟踪信息(步骤S2)。例如获取通过在图2的(A)~图3的(B)等中说明的跟踪处理而获得的跟踪信息。进而,执行基于用户的操作信息、线路信息等的移动体的移动处理(步骤S3)。例如基于用户的操作信息,在由线路信息规定的线路上,执行使角色等移动体移动的处理。
接下来,针对移动体的加速度的变化、虚拟摄像头的视线方向的变化,判断是否发生了满足给定的变化条件的事件(步骤S4)。例如判断是否发生了前述的碰撞事件、落下事件、跌倒事件。进而,在发生了该事件的情况下,判定为是否变成了与该事件对应的处理开始时机(步骤S5)。该处理开始时机例如能够使用在图17的(A)中说明的表数据而获取。进而,在变成处理开始时机的情况下,以与该事件对应的处理程度执行淡出处理(效果处理)(步骤S6)。该处理程度例如能够使用在图17的(B)中说明的表数据而获取。
此外,如上述那样,对本实施方式详细地进行了说明,但在不实质性地脱离本发明的创新内容以及效果的前提下,能够有多种变形,这对于本领域技术人员是容易理解的。因此,这样的变形例均应包括在本发明的范围之中。例如在说明书或附图中,至少一次与更广义或同义的不同用语(移动体、伸缩部等)一起被记载的用语(角色、空气弹簧部等)在说明书或附图的任何部位都能够置换为该不同的用语。另外,移动体的移动处理、虚拟摄像头的控制处理(设定处理)、变化条件的成立、事件发生的判断处理、HMD的显示图像的显示处理、淡出处理、效果处理等也并不限于在本实施方式中所说明的内容,与这些等效的方法/处理/结构也包括在本发明的范围。另外,本发明能够适用于各种游戏。另外,本发明能够适用于商务用游戏装置、家庭用游戏装置、或者多名用户参加的大型娱乐系统等各种模拟系统。
附图标记说明
CH…角色(移动体);DT…行进方向;CS…线路;VC…虚拟摄像头;VP、CVP…视角位置;VL、CVL…视线方向;LP…脚下位置;HS…水平面;RK…岩石;CF…悬崖;PL…用户;PPL…玩游戏位置;TP经过点;CP…缆线连接点;20…缆线;40…可动壳体;41、42…基底部;43、44…操作部件;45、46…脚台;50~53…空气弹簧部;60、62…引导部;61、63…把持部;64…支承引导件;65…缆线取出口;69…风洞部;100…处理部;102…输入处理部;110…运算处理部;112…游戏处理部;113…可动壳体处理部;114…移动体处理部;116…对象空间设定部;118…虚拟摄像头控制部;120…显示处理部;130…声音处理部;140…输出处理部;150…拍摄部;151、152…摄像头、160…操作部;161、162…操作杆;163…加速踏板;164…制动踏板;165…游戏控制器;170…存储部;172…空间信息存储部;178…描绘缓存器;180…信息存储介质;192…声音输出部;194…I/F部;195…便携式信息存储介质;196…通信部;200…HMD(头部佩戴式显示装置);201~203…受光元件;210…传感器部;220…显示部;231~236…发光元件;240…处理部;260…头带;270…耳机;280、284…基站;281、282、285、286…发光元件;430…框部;432…引导部;433…固定件;450…底部;451…罩部;452…基底部;454、455…导轨部;460…乘坐部;462…座椅;464…座椅支承部;470…移动部;472…支承部;473…上表面部;474…下表面部。

Claims (14)

1.一种模拟系统,其特征在于,包括:
移动体处理部,进行使与佩戴头部佩戴式显示装置的用户对应的移动体在虚拟空间中移动的处理;
虚拟摄像头控制部,进行与所述移动体的移动相应地移动的虚拟摄像头的控制;以及
显示处理部,在所述虚拟空间中生成从所述虚拟摄像头能够看到的图像作为所述头部佩戴式显示装置的显示图像,
所述显示处理部在判断为所述移动体的加速度的变化或者所述虚拟摄像头的视线方向的变化满足给定的变化条件的情况下,进行使所述头部佩戴式显示装置的显示图像变化成与从所述虚拟摄像头能够看到的图像不同的图像的显示处理。
2.根据权利要求1所述的模拟系统,其特征在于,
所述显示处理部在满足所述给定的变化条件的情况下,进行使所述头佩戴式显示装置的显示图像的整体变化的显示处理。
3.根据权利要求2所述的模拟系统,其特征在于,
所述显示处理部进行使所述显示图像淡出的处理作为使所述显示图像的整体变化的显示处理。
4.根据权利要求1至3中的任一项所述的模拟系统,其特征在于,
所述显示处理部在满足所述给定的变化条件的情况下,进行针对从所述虚拟摄像头能够看到的图像实施给定的效果处理的显示处理。
5.根据权利要求1至4中的任一项所述的模拟系统,其特征在于,
所述显示处理部在发生了使所述移动体的行进方向朝与所述行进方向不同的方向变化的加速度变化事件的情况下,判断为满足了所述给定的变化条件,从而进行使所述头部佩戴式显示装置的显示图像变化成与从所述虚拟摄像头能够看到的图像不同的图像的显示处理。
6.根据权利要求5所述的模拟系统,其特征在于,
所述加速度变化事件是所述移动体的碰撞事件以及所述移动体的落下事件中至少一方。
7.根据权利要求1至6中的任一项所述的模拟系统,其特征在于,
所述显示处理部使变化成与从所述虚拟摄像头能够看到的图像不同的图像的显示处理的处理开始时机和处理程度中至少一方在满足所述给定的变化条件的第一事件的发生时、与满足所述给定的变化条件的第二事件发生时不同。
8.根据权利要求1至7中的任一项所述的模拟系统,其特征在于,
所述虚拟摄像头控制部进行设定为所述用户的第一人称视角的所述虚拟摄像头的控制。
9.根据权利要求1至8中的任一项所述的模拟系统,其特征在于,
所述模拟系统包括输入处理部,该输入处理部获取佩戴所述头部佩戴式显示装置的所述用户的视角信息的跟踪信息,
所述虚拟摄像头控制部基于所述跟踪信息使所述虚拟摄像头的位置、姿态变化,而在所述移动体的行进方向发生变化的情况下,还以针对所述虚拟摄像头的纵摇以及横摇中至少一方的姿态变化进行无效或限制的方式设定所述虚拟摄像头。
10.根据权利要求1至9中的任一项所述的模拟系统,其特征在于,
所述模拟系统包括可动壳体,该可动壳体与所述移动体移动的线路的状况或所述移动体的行进方向的变化相应地,使所述用户的玩游戏位置变化。
11.根据权利要求1至10中的任一项所述的模拟系统,其特征在于,
所述模拟系统包括声音处理部,该声音处理部生成与所述移动体移动的线路的状况相应的声音或者与所述移动体的行进方向的变化相应的输出声音。
12.根据权利要求1至11中的任一项所述的模拟系统,其特征在于,
所述显示处理部基于由所述用户设定的设定信息或所述用户的游戏历史记录信息,使变化成与从所述虚拟摄像头能够看到的图像不同的图像的显示处理的处理开始时机和处理程度中至少一方变化。
13.一种处理方法,其特征在于,进行如下处理:
移动体处理,进行使与佩戴头部佩戴式显示装置的用户对应的移动体在虚拟空间中移动的处理;
虚拟摄像头控制处理,进行与所述移动体的移动相应地移动的虚拟摄像头的控制;以及
显示处理,在所述虚拟空间中生成从所述虚拟摄像头能够看到的图像作为所述头部佩戴式显示装置的显示图像,
在所述显示处理中,
在判断为所述移动体的加速度的变化或所述虚拟摄像头的视线方向的变化满足给定的变化条件的情况下,使所述头部佩戴式显示装置的显示图像变化成与从所述虚拟摄像头能够看到的图像不同的图像。
14.一种信息存储介质,能够由计算机读取,其特征在于,
所述信息存储介质存储使计算机作为以下部分发挥功能的程序:
移动体处理部,进行使与佩戴头部佩戴式显示装置的用户对应的移动体在虚拟空间中移动的处理;
虚拟摄像头控制部,进行与所述移动体的移动相应地移动的虚拟摄像头的控制;以及
显示处理部,在所述虚拟空间中生成从所述虚拟摄像头能够看到的图像作为所述头部佩戴式显示装置的显示图像,
所述显示处理部在判断为所述移动体的加速度的变化或所述虚拟摄像头的视线方向的变化满足给定的变化条件的情况下,进行使所述头部佩戴式显示装置的显示图像变化成与从所述虚拟摄像头能够看到的图像不同的图像的显示处理。
CN201780043165.9A 2016-07-13 2017-07-06 模拟系统、处理方法及信息存储介质 Pending CN109478341A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016138928A JP6719308B2 (ja) 2016-07-13 2016-07-13 シミュレーションシステム及びプログラム
JP2016-138928 2016-07-13
PCT/JP2017/024793 WO2018012394A1 (ja) 2016-07-13 2017-07-06 シミュレーションシステム、処理方法及び情報記憶媒体

Publications (1)

Publication Number Publication Date
CN109478341A true CN109478341A (zh) 2019-03-15

Family

ID=60952521

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780043165.9A Pending CN109478341A (zh) 2016-07-13 2017-07-06 模拟系统、处理方法及信息存储介质

Country Status (4)

Country Link
US (1) US10955909B2 (zh)
JP (1) JP6719308B2 (zh)
CN (1) CN109478341A (zh)
WO (1) WO2018012394A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111868667A (zh) * 2018-03-26 2020-10-30 索尼公司 信息处理装置、信息处理方法和程序
WO2022193612A1 (zh) * 2021-03-16 2022-09-22 天津亚克互动科技有限公司 游戏角色的运动处理方法及装置、存储介质、计算机设备

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102374404B1 (ko) * 2017-07-25 2022-03-15 삼성전자주식회사 콘텐트를 제공하기 위한 디바이스 및 방법
JP7104539B2 (ja) * 2018-03-29 2022-07-21 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
JP2020004263A (ja) * 2018-06-29 2020-01-09 株式会社コロプラ 仮想体験をユーザに提供するためのプログラム、コンピュータ及び方法
JP2020042480A (ja) * 2018-09-10 2020-03-19 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
DE102019002403A1 (de) * 2019-04-02 2020-10-08 Daimler Ag Verfahren und Vorrichtung zur Beeinflussung einer optischen Ausgabe von Bilddaten auf einer Ausgabeeinrichtung in einem Fahrzeug
US11699279B1 (en) * 2019-06-28 2023-07-11 Apple Inc. Method and device for heading estimation
JP6761888B1 (ja) * 2019-10-25 2020-09-30 株式会社バーチャルキャスト 表示制御装置、表示制御方法、および表示システム
US11301047B2 (en) * 2020-04-24 2022-04-12 Sony Interactive Entertainment Inc. Hybrid wireless streaming solution, switching from 2D to 3D based on an intuitive hand gesture in virtual reality or augmented reality (AR) head-mounted displays (HMD)
US11465031B2 (en) * 2020-09-16 2022-10-11 RevolutioNice, Inc. Ambulation simulation systems, terrain simulation systems, treadmill systems, and related systems and methods
CN112802166B (zh) * 2021-01-18 2023-08-08 网易(杭州)网络有限公司 模拟虚拟植物受风摆动的显示方法、装置、存储介质及设备
US20220295040A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system with remote presentation including 3d graphics extending beyond frame

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5921780A (en) * 1996-06-28 1999-07-13 Myers; Nicole J. Racecar simulator and driver training system and method
CN104076513A (zh) * 2013-03-26 2014-10-01 精工爱普生株式会社 头戴式显示装置、头戴式显示装置的控制方法、以及显示系统
CN105320820A (zh) * 2015-12-02 2016-02-10 上海航空电器有限公司 基于沉浸式虚拟现实平台的快速座舱设计系统及方法
CN105653020A (zh) * 2015-07-14 2016-06-08 朱金彪 穿越时空的方法和装置以及使用其的眼镜或头盔

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5354202A (en) * 1990-08-01 1994-10-11 Atari Games Corporation System and method for driver training with multiple driver competition
US5707237A (en) * 1993-04-20 1998-01-13 Kabushiki Kaisha Ace Denken Driving simulation system
JP3428151B2 (ja) * 1994-07-08 2003-07-22 株式会社セガ 画像表示装置を用いた遊戯装置
TW469148B (en) * 1996-10-09 2001-12-21 Sega Enterprises Kk Game apparatus, method of game processing, game execution method, and game system
KR100682351B1 (ko) * 1997-11-07 2007-02-15 가부시키가이샤 세가 게임 장치
US6010403A (en) * 1997-12-05 2000-01-04 Lbe Technologies, Inc. System and method for displaying an interactive event
JPH11309269A (ja) 1998-04-27 1999-11-09 Sony Corp ゲーム装置、シミュレーション装置及びゲーム画像表示方法
JP3046578B2 (ja) * 1998-06-11 2000-05-29 株式会社ナムコ 画像生成装置及び情報記憶媒体
JP2000339490A (ja) * 1999-05-28 2000-12-08 Mitsubishi Electric Corp Vr酔い低減方法
JP2003066825A (ja) * 2001-08-24 2003-03-05 Mitsubishi Heavy Ind Ltd 擬似体感装置
JP4957938B2 (ja) * 2001-09-19 2012-06-20 株式会社セガ ゲームプログラム、ゲーム装置及びネットワークサーバ
EP1495434B1 (en) * 2002-04-05 2018-02-28 Konstantin Sizov Portable in-the-vehicle road simulator
US7126607B2 (en) * 2002-08-20 2006-10-24 Namco Bandai Games, Inc. Electronic game and method for effecting game features
JP3822617B2 (ja) * 2004-07-16 2006-09-20 株式会社コナミデジタルエンタテインメント ゲーム機の衝撃体感装置およびこの装置を備えたゲーム機
US7625287B2 (en) * 2005-10-05 2009-12-01 Nintendo Co., Ltd. Driving game steering wheel simulation method and apparatus
JP4761528B2 (ja) * 2005-10-11 2011-08-31 任天堂株式会社 ゲームプログラムおよびゲーム装置
US8021270B2 (en) * 2008-07-03 2011-09-20 D Eredita Michael Online sporting system
US9418568B2 (en) * 2009-09-29 2016-08-16 Advanced Training System Llc System, method and apparatus for driver training system with dynamic mirrors
CN101780321B (zh) * 2009-12-30 2012-01-25 永春至善体育用品有限公司 一种高临场感的运动健身器材虚拟实景的制作方法以及基于该虚拟实景的互动系统和方法
JP5738569B2 (ja) * 2010-10-15 2015-06-24 任天堂株式会社 画像処理プログラム、装置、システムおよび方法
US9179619B1 (en) * 2012-03-01 2015-11-10 Pioneer Hi-Bred International, Inc. Soybean variety XB72D12
JP5888372B2 (ja) * 2013-08-29 2016-03-22 キヤノンマーケティングジャパン株式会社 情報処理システムとその処理方法及びプログラム
US9978202B2 (en) * 2014-02-14 2018-05-22 Igt Canada Solutions Ulc Wagering gaming apparatus for detecting user interaction with game components in a three-dimensional display
US9589384B1 (en) * 2014-11-26 2017-03-07 Amazon Technologies, Inc. Perspective-enabled linear entertainment content
US10013808B2 (en) * 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US10139902B2 (en) 2015-09-16 2018-11-27 Colopl, Inc. Method and apparatus for changing a field of view without synchronization with movement of a head-mounted display
US10133343B2 (en) * 2015-12-02 2018-11-20 Tactonic Tecnologies, LLC Foot operated navigation and interaction for virtual reality experiences
US20170228931A1 (en) * 2016-02-08 2017-08-10 Google Inc. Limited field of view in virtual reality
JP5996814B1 (ja) * 2016-02-08 2016-09-21 株式会社コロプラ 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
US10338392B2 (en) 2016-06-13 2019-07-02 Microsoft Technology Licensing, Llc Identification of augmented reality image display position
JP6714791B2 (ja) * 2016-07-13 2020-07-01 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
JP6689694B2 (ja) * 2016-07-13 2020-04-28 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
JP6715192B2 (ja) * 2017-01-06 2020-07-01 任天堂株式会社 ゲームシステム、ゲームプログラム、情報処理装置およびゲーム制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5921780A (en) * 1996-06-28 1999-07-13 Myers; Nicole J. Racecar simulator and driver training system and method
CN104076513A (zh) * 2013-03-26 2014-10-01 精工爱普生株式会社 头戴式显示装置、头戴式显示装置的控制方法、以及显示系统
CN105653020A (zh) * 2015-07-14 2016-06-08 朱金彪 穿越时空的方法和装置以及使用其的眼镜或头盔
CN105320820A (zh) * 2015-12-02 2016-02-10 上海航空电器有限公司 基于沉浸式虚拟现实平台的快速座舱设计系统及方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111868667A (zh) * 2018-03-26 2020-10-30 索尼公司 信息处理装置、信息处理方法和程序
US11480787B2 (en) 2018-03-26 2022-10-25 Sony Corporation Information processing apparatus and information processing method
WO2022193612A1 (zh) * 2021-03-16 2022-09-22 天津亚克互动科技有限公司 游戏角色的运动处理方法及装置、存储介质、计算机设备

Also Published As

Publication number Publication date
WO2018012394A1 (ja) 2018-01-18
JP2018010487A (ja) 2018-01-18
JP6719308B2 (ja) 2020-07-08
US20190220088A1 (en) 2019-07-18
US10955909B2 (en) 2021-03-23

Similar Documents

Publication Publication Date Title
CN109478341A (zh) 模拟系统、处理方法及信息存储介质
US10915166B2 (en) Simulation system, processing method, and information storage medium
CN109478345A (zh) 模拟系统、处理方法及信息存储介质
US11014000B2 (en) Simulation system, processing method, and information storage medium
US11865453B2 (en) Simulation system, process method, and information storage medium
US11090554B2 (en) Simulation system, image processing method, and information storage medium
JP2018109835A (ja) シミュレーションシステム及びプログラム
JP7071823B2 (ja) シミュレーションシステム及びプログラム
JP6774260B2 (ja) シミュレーションシステム
JP6737941B1 (ja) プログラム、方法、および視聴端末
JP2021053365A (ja) プログラム、方法、および視聴端末
JP6910809B2 (ja) シミュレーションシステム、プログラム及びコントローラ
CN108686371A (zh) 仿真系统
JP2018171320A (ja) シミュレーションシステム及びプログラム
JP6918189B2 (ja) シミュレーションシステム及びプログラム
JP6826626B2 (ja) 視聴プログラム、視聴方法、および視聴端末
JP7121518B2 (ja) プログラム、情報処理装置、及び情報処理方法
JP5957258B2 (ja) プログラム、情報記憶媒体、ゲーム装置、およびサーバシステム
JP2021175436A (ja) ゲームプログラム、ゲーム方法、および端末装置
JP2888830B2 (ja) 3次元ゲーム装置及び画像合成方法
JP2022096801A (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP2021051762A (ja) 視聴プログラム、視聴方法、および視聴端末

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination