WO2017115793A1 - ゲーム装置、処理方法及び情報記憶媒体 - Google Patents

ゲーム装置、処理方法及び情報記憶媒体 Download PDF

Info

Publication number
WO2017115793A1
WO2017115793A1 PCT/JP2016/088881 JP2016088881W WO2017115793A1 WO 2017115793 A1 WO2017115793 A1 WO 2017115793A1 JP 2016088881 W JP2016088881 W JP 2016088881W WO 2017115793 A1 WO2017115793 A1 WO 2017115793A1
Authority
WO
WIPO (PCT)
Prior art keywords
game
player
image
processing
boundary
Prior art date
Application number
PCT/JP2016/088881
Other languages
English (en)
French (fr)
Inventor
正 山下
博 五十嵐
賢一 原
陽介 黒田
弘高 川上
亮 内藤
Original Assignee
株式会社バンダイナムコエンターテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社バンダイナムコエンターテインメント filed Critical 株式会社バンダイナムコエンターテインメント
Priority to EP16881767.4A priority Critical patent/EP3398666B1/en
Publication of WO2017115793A1 publication Critical patent/WO2017115793A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Definitions

  • the present invention relates to a game device, a processing method, an information storage medium, and the like.
  • Patent Document 1 In order to avoid such danger, the conventional technology of Patent Document 1 is equipped with a monochrome liquid crystal panel and a sensor capable of stepping light from the outside world from transmission to shielding in an HMD.
  • the monochrome liquid crystal panel When the sensor detects a sudden movement or an impact, the monochrome liquid crystal panel is made transparent so that the outside can be seen. As a result, the user can avoid obstacles in the outside world.
  • Patent Document 2 a photographing device that photographs the front direction of the user wearing the HMD and a distance meter that measures the distance between the object in the front direction are provided. Then, based on the measurement result of the distance meter, when it is determined that there is an obstacle in the front direction of the user, the video data captured by the imaging device is displayed on the screen of the HMD. At this time, warning information is also added to the video data. Thereby, the user can recognize the obstacle in the front by seeing the video data photographed by the photographing apparatus, and can avoid the obstacle.
  • the game be interrupted in a dark manner to avoid danger.
  • the black-and-white liquid crystal panel suddenly becomes transparent during game play and the outside world is visible in the user's field of view.
  • a game device a processing method, an information storage medium, and the like that can realize more appropriate danger notification in a game using a head-mounted display device.
  • One embodiment of the present invention includes an input processing unit that acquires information on a position of a player who moves in a real-world play area or game device housing by wearing a head-mounted display device, and a virtual object in which a plurality of objects are arranged.
  • a game processing unit for processing a game played by a player in a typical game space and a display processing unit for performing processing for displaying a game image seen from a given viewpoint in the game space on the head-mounted display device
  • the game processing unit heads to the boundary when the player approaches or reaches the boundary of the area set as the player movement range in the play area or the game apparatus casing.
  • a first event that performs a deterrence process that deters the movement of the player in the direction, and the movement of the player beyond the boundary of the area is detected.
  • the present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.
  • position information of a player who moves within a play area or a game device housing is acquired.
  • processing of a game played by the player is performed, and a game image viewed from a given viewpoint in the game space is displayed as a head-mounted display worn by the player. Displayed on the device.
  • the first event occurs.
  • processing for suppressing the movement of the player in the direction toward the boundary is performed.
  • the second event occurs.
  • the second event at least one of processing for changing to an image display different from the game image, processing for changing the game progress mode, and processing for ending the game is performed.
  • processing for suppressing movement of the player in the boundary direction is performed. Even if such a first event is generated, if the movement of the player beyond the boundary is detected, the second level that realizes a higher level of danger notification than the processing of the first event. Event occurs. Accordingly, it is possible to provide a game device or the like that can realize more appropriate danger notification in a game using a head-mounted display device.
  • the game processing unit may perform a process of reducing the image quality of the game image as a process of changing to an image display different from the game image.
  • the game processing unit may reduce the brightness, saturation, contrast, or resolution of the game image or reduce the game image from a color image as the process of reducing the image quality of the game image. Processing for changing to a monochrome image or processing for blurring the game image may be performed.
  • the occurrence of the second event may cause the brightness, saturation, contrast, or resolution of the game image to decrease, the game image to change to a monochrome image, or the game image to change to a blurred image. become. Accordingly, it is possible to realize appropriate danger notification for the movement in the boundary direction without significantly reducing the game immersion level of the player.
  • the game processing unit may perform a process of stopping the game progress as the process of changing the game progress mode.
  • the game processing unit differs from the game image when it is detected that the player has returned to the inner side of the boundary of the area after the occurrence of the second event. You may perform the process which returns an image display to the display of the said game image, or the process which returns the said game progress aspect.
  • the game processing unit as the suppression process of the first event, a process of displaying a danger notification object at a position corresponding to the boundary of the area, a process of displaying warning information, The process of causing a given object to appear on the direction side toward the boundary, the process of changing the display mode of the given object on the direction side toward the boundary, or the player's side in a direction different from the direction toward the boundary You may perform the process which generate
  • the danger notification object is displayed at the position corresponding to the boundary of the area, the warning information is displayed, the object appears on the direction side toward the boundary, or the object on the direction side toward the boundary is displayed.
  • the game processing unit may control the suppression process at the first event based on a moving speed of the player.
  • the game processing unit performs a process of changing to an image display different from the game image in the second event, a process of changing the game progress mode, or a process of ending a game.
  • the control may be performed based on the moving speed of the player.
  • the game processing unit may perform a process of vibrating a vibrating device or a process of outputting a warning sound in the first event or the second event.
  • the display processing unit may perform a process of displaying the game image in which a spectator image is displayed in a place corresponding to the outside of the area on the head-mounted display device. Good.
  • the player has become enthusiastic about the game play and moved to a place corresponding to the outside of the real world area where the audience is in the virtual game space. Even in this case, it is possible to realize appropriate danger notification for the player.
  • an input processing unit that acquires at least position information of a player who moves in a real-world play area or a game device housing with a head-mounted display device, and a plurality of objects are arranged.
  • a game processing unit for processing a game played by a player in a virtual game space, and a display for performing processing for displaying a game image seen from a given viewpoint in the game space on the head-mounted display device
  • the game processing unit detects an approach or arrival of a player to a boundary of an area set as a movement range of the player in the play area or the game apparatus housing, or the boundary When the movement of the player beyond the limit is detected, a process for reducing the brightness, saturation, contrast, or resolution of the game image.
  • the present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.
  • the brightness, saturation and color of the game image are detected.
  • a process of reducing the degree, contrast or resolution, a process of changing the game image from a color image to a monochrome image, or a process of blurring the game image are performed.
  • the player can grasp that the movement of the player is not an appropriate movement by viewing the game image with the lowered image quality.
  • an input process for acquiring position information of a player who moves in a real-world play area or a game apparatus housing by wearing a head-mounted display device, and a plurality of objects are arranged.
  • a game process for processing a game played by a player in a virtual game space a display process for performing a process for displaying a game image viewed from a given viewpoint in the game space on the head-mounted display device;
  • the game process proceeds in the direction toward the boundary.
  • a first event that performs a deterrence process that deters movement of the player is detected, and movement of the player across the boundary of the area is detected.
  • an input process for acquiring at least position information of a player who moves in a real-world play area or game device case by wearing a head-mounted display device, and a plurality of objects are arranged.
  • a game process for processing a game played by a player in a virtual game space, and a display process for performing a process for displaying a game image seen from a given viewpoint in the game space on the head-mounted display device The game processing unit detects that the player has approached or reached the boundary of the area set as the player movement range in the play area or the game apparatus casing, or exceeds the boundary. Processing for reducing brightness, saturation, contrast, or resolution of the game image when movement of the player is detected Or processing for changing the game image from the color image to a monochrome image, or related to the processing method for performing processing for blurring the game image.
  • FIG. 2A and FIG. 2B are examples of the HMD used in this embodiment.
  • 3A and 3B are other examples of the HMD used in the present embodiment.
  • 4A and 4B are explanatory diagrams of a play area. Explanatory drawing of a game device housing. The example of the game image produced
  • FIG. 12A to FIG. 12C are explanatory diagrams of the method of this embodiment.
  • FIG. 15A and FIG. 15B are explanatory diagrams of a technique for changing the game progress mode in the second event.
  • FIG. 16A and FIG. 16B are explanatory diagrams of a technique for stopping the game progress or ending the game in the second event.
  • FIG. 17A and FIG. 17B are explanatory diagrams of a method for suppressing the movement of the player in the first event.
  • 18A and 18B are explanatory diagrams of a method for controlling the first and second events based on the moving speed of the player.
  • FIGS. 21A to 21C are explanatory diagrams of a player's game play evaluation method in the first and second games.
  • FIGS. 22A to 22C are explanatory diagrams of a method for evaluating the game play of the player in the second game using the line-of-sight information.
  • FIG. 23A and FIG. 23B are explanatory diagrams of a player's game play evaluation method in the first game which is a music game.
  • FIG. 1 shows a configuration example of a game apparatus (image generation apparatus, game system) according to the present embodiment. Note that the game device according to the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of the components (parts) and adding other components are possible.
  • the input device 160 is a device for the player to input various input information.
  • the input device 160 can include a performance information input device 161 and a vibration device 164.
  • the input device 160 may have a game controller function for the player to input game operation information.
  • the game controller is realized by, for example, an operation button, a direction instruction key, a joystick or a lever.
  • the game controller and the performance information input device 161 may be realized by an integral casing or may be realized by a separate casing.
  • the performance information input device 161 is a device for inputting player performance information.
  • the input information of the input device 160 is song (vocal) performance information.
  • the performance information input device 161 is realized by a microphone 162 described with reference to FIG.
  • the input information of the input device 160 is musical instrument performance information.
  • the performance information input device 161 can be realized by a musical instrument such as a stringed instrument (guitar), a percussion instrument (drum, drum), a keyboard instrument (piano, keyboard), or a device imitating the instrument.
  • the vibration device 164 (vibration generating unit) is a device that generates vibration for a warning or the like, and is realized by, for example, a vibration motor (vibrator).
  • the vibration motor generates vibration by rotating an eccentric weight.
  • eccentric weights are attached to both ends of the drive shaft so that the motor itself swings.
  • the vibration device 164 is not limited to a vibration motor, and may be realized by, for example, a piezoelectric element.
  • the storage unit 170 stores various types of information.
  • the storage unit 170 functions as a work area such as the processing unit 100 or the communication unit 196.
  • the game program and game data necessary for executing the game program are held in the storage unit 170.
  • the function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), HDD (hard disk drive), SDD, optical disk device, or the like.
  • the storage unit 170 includes a spatial information storage unit 172, a music information storage unit 174, a parameter storage unit 176, and a drawing buffer 178.
  • the information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), HDD, semiconductor memory (ROM), or the like.
  • the processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an input device, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.
  • the head-mounted display device 200 (hereinafter referred to as HMD as appropriate) is a device that is mounted on the player's head and displays an image in front of the player's eyes.
  • the HMD 200 is preferably a non-transmissive type, but may be a transmissive type.
  • the HMD 200 may be a so-called glasses-type HMD.
  • the HMD 200 includes a sensor unit 210, a display unit 220, and a processing unit 240. A modification in which a light emitting element is provided in the HMD 200 is also possible.
  • the sensor unit 210 is for realizing tracking processing such as head tracking, for example.
  • the position and direction of the HMD 200 are specified by tracking processing using the sensor unit 210. By specifying the position and direction of the HMD 200, the viewpoint position and line-of-sight direction of the player can be specified.
  • the first tracking method which is an example of the tracking method
  • a plurality of light receiving elements are provided as the sensor unit 210, as will be described in detail with reference to FIGS. 2A and 2B described later.
  • the second tracking method for specifying the direction, a plurality of light emitting elements (LEDs) are provided in the HMD 200, as will be described in detail with reference to FIGS. 3A and 3B described later.
  • a motion sensor is provided as the sensor unit 210, and the position and direction of the HMD 200 are specified using this motion sensor.
  • the motion sensor can be realized by, for example, an acceleration sensor or a gyro sensor.
  • an acceleration sensor for example, by using a 6-axis motion sensor using a 3-axis acceleration sensor and a 3-axis gyro sensor, the position and direction of the HMD 200 in a three-dimensional space in the real world can be specified.
  • the position and direction of the HMD 200 may be specified by a combination of the first tracking method and the second tracking method, or a combination of the first tracking method and the third tracking method.
  • the display unit 220 of the HMD 200 can be realized by, for example, a liquid crystal display (LCD) or an organic EL display.
  • the HMD 200 is provided with a first display arranged in front of the player's left eye and a second display arranged in front of the right eye as the display unit 220, so that, for example, stereoscopic display is possible. ing.
  • stereoscopic display for example, a left-eye image and a right-eye image with different parallaxes are generated, the left-eye image is displayed on the first display, and the right-eye image is displayed on the second display.
  • the processing unit 240 of the HMD 200 performs various processes necessary for the HMD 200.
  • the processing unit 240 performs control processing of the sensor unit 210, display control processing of the display unit 220, and the like.
  • the processing unit 240 performs a three-dimensional sound (stereoscopic sound) process to realize reproduction of a three-dimensional sound direction, distance, and spread. That is, a process for controlling the sound field in the three-dimensional space is performed.
  • the sound subjected to such three-dimensional acoustic processing is output to a sound output unit 192 realized by headphones or the like via a headphone terminal provided in the HMD 200.
  • the sound output unit 192 outputs the sound generated according to the present embodiment, and can be realized by, for example, headphones or a speaker provided in a television or an audio device.
  • the I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and its function can be realized by an ASIC for I / F processing or the like.
  • the portable information storage medium 195 is for a user to save various types of information, and is a storage device that retains storage of such information even when power is not supplied.
  • the portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.
  • the communication unit 196 communicates with the outside (another apparatus) via a wired or wireless network, and functions thereof are hardware such as a communication ASIC or communication processor, or communication firmware. Can be realized.
  • a program (data) for causing a computer to function as each unit of the present embodiment is obtained from an information storage medium of a server (host device) via an information storage medium 180 (or storage unit 170, auxiliary storage) via a network and communication unit 196. May be distributed to the device 195).
  • a server host device
  • an information storage medium 180 or storage unit 170, auxiliary storage
  • a network and communication unit 196 May be distributed to the device 195.
  • Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.
  • the processing unit 100 performs game processing, game results calculation processing based on input information from the input device 160, tracking information (HMD position, direction, or viewpoint position, line-of-sight direction) in the HMD 200, a program, and the like. Display processing or sound processing.
  • each process (each function) of this embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware).
  • each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program.
  • the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware.
  • the processor may include hardware, and the hardware may include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal.
  • the processor can be configured by one or a plurality of circuit devices (for example, ICs) mounted on a circuit board or one or a plurality of circuit elements (for example, resistors, capacitors, etc.).
  • the processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (GraphicsGProcessing Unit) or a DSP (Digital Signal Processor) can be used.
  • the processor may be an ASIC hardware circuit.
  • the processor may include an amplifier circuit, a filter circuit, and the like that process an analog signal.
  • the memory storage unit 170
  • the memory stores instructions that can be read by a computer, and the processing (function) of each unit of the processing unit 100 is realized by executing the instructions by the processor.
  • the instruction here may be an instruction set constituting a program, or an instruction for instructing an operation to the hardware circuit of the processor.
  • the processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140.
  • the arithmetic processing unit 110 includes a game processing unit 111, a game result calculation unit 118, a display processing unit 120, and a sound processing unit 130.
  • each process of the present embodiment executed by these units can be realized by a processor (or a processor and a memory).
  • Various modifications such as omitting some of these components (each unit) or adding other components are possible.
  • the input processing unit 102 performs processing for receiving input information and tracking information, processing for reading information from the storage unit 170, and processing for receiving information via the communication unit 196 as input processing.
  • the input processing unit 102 obtains input information input by the player using the input device 160, tracking information (player position information, line-of-sight information, etc.) detected by the sensor unit 210 of the HMD 200, or a read command
  • the process of reading out the information specified in (1) from the storage unit 170 and the process of receiving information from an external device (server, other game device, etc.) of the game device via the network are performed as input processing.
  • the reception process includes a process of instructing the communication unit 196 to receive information, a process of acquiring information received by the communication unit 196, and writing the information in the storage unit 170, and the like.
  • the arithmetic processing unit 110 performs various arithmetic processes. For example, arithmetic processing such as game processing, game results calculation processing, display processing, or sound processing is performed.
  • the game processing unit 111 (game processing program module) performs various game processes for the player to play the game.
  • the game processing unit 111 includes a game progress processing unit 112, an evaluation processing unit 113, a character processing unit 114, a parameter processing unit 115, an object space setting unit 116, and a virtual camera control unit 117.
  • the game progress processing unit 112 performs a process of starting a game when the game start condition is satisfied, a process of progressing the game, or a process of ending the game when the game end condition is satisfied.
  • the evaluation processing unit 113 performs a game play evaluation process for the player. For example, a player's performance in a music game and an evaluation process for game operation are performed. Music information used in the music game is stored in the music information storage unit 174.
  • the character processing unit 114 performs various processes related to the character. For example, processing for moving the character in the object space (game space) or processing for moving the character is performed. For example, the process of moving the character can be realized by motion processing (motion reproduction or the like) using motion data.
  • the parameter processing unit 115 performs calculation processing of various parameters (game parameters) used in the game. For example, a process of increasing or decreasing the parameter value is performed.
  • the parameter information is stored in the parameter storage unit 176.
  • the object space setting unit 116 performs an object space (virtual three-dimensional space) setting process in which a plurality of objects are arranged.
  • various objects polygons, free-form surfaces, subdivision surfaces, etc.
  • display objects such as characters (people, animals, robots, etc.), maps (terrain), buildings, auditoriums, courses (roads), trees, walls, water surfaces, etc.
  • the object is arranged and set in the object space.
  • the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z).
  • Arrange objects are possible.
  • the spatial information storage unit 172 of the storage unit 170 stores information such as the positions and rotation angles (directions) of a plurality of objects (part objects) in the object space as spatial information.
  • the object space setting unit 116 performs a process of updating the space information for each frame, for example.
  • the virtual camera control unit 117 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.
  • This virtual camera corresponds to the viewpoint of the player.
  • a first viewpoint for the left eye first virtual camera for the left eye
  • a second viewpoint for the right eye second virtual camera for the right eye
  • the game score calculation unit 118 performs processing for calculating the game score of the player. For example, calculation processing of game results such as scores and points acquired by the game play of the player is performed.
  • the display processing unit 120 performs a game image display process. For example, a drawing process is performed based on the results of various processes (game process, simulation process) performed by the processing unit 100, thereby generating an image and displaying it on the display unit 220 of the HMD 200. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, ⁇ value, etc.) are created.
  • the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.).
  • an image that can be seen from the virtual camera (given viewpoint, left eye and right eye first and second viewpoints) in the object space is generated.
  • the drawing processing performed by the display processing unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.
  • the sound processing unit 130 performs sound processing based on the results of various processes performed by the processing unit 100. Specifically, game sounds such as music (music, BGM), sound effects, or sounds are generated, and the game sounds are output to the sound output unit 192. Note that part of the sound processing of the sound processing unit 130 (for example, three-dimensional sound processing) may be realized by the processing unit 240 of the HMD 200.
  • the output processing unit 140 performs various types of information output processing. For example, the output processing unit 140 performs processing for writing information in the storage unit 170 and processing for transmitting information via the communication unit 196 as output processing. For example, the output processing unit 140 writes information specified by the write command into the storage unit 170, or transmits information to an external device (server, other game device, etc.) of the game device via the network. I do.
  • the transmission process is a process of instructing the communication unit 196 to transmit information, or instructing the communication unit 196 to transmit information.
  • the game device of this embodiment contains the input process part 102, the game process part 111, and the display process part 120, as shown in FIG.
  • the input processing unit 102 wears the HMD 200 (head-mounted display device) and acquires position information of a player who moves in a real-world play area or game device housing. For example, when position information and direction information of the HMD 200 are detected by tracking processing, the input processing unit 102 acquires, for example, position information of the HMD 200 as position information of the player. Further, the input processing unit 102 acquires the viewpoint position information and line-of-sight information (line-of-sight direction information) of the player specified by the position information and direction information of the HMD 200.
  • the game processing unit 111 performs processing of a game played by the player in a virtual game space where a plurality of objects are arranged. For example, in a game space (virtual three-dimensional space) that is an object space, a plurality of objects such as characters are arranged, and the game processing unit 111 performs various game processes ( Game progress processing, character processing, object space setting processing, virtual camera control processing, or the like). Then, the display processing unit 120 displays a game image viewed from a given viewpoint (first and second viewpoints for left eye and right eye) in the game space on the display unit 220 (first and second displays) of the HMD 200. Process to display.
  • a given viewpoint first and second viewpoints for left eye and right eye
  • the player's viewpoint is set by the player's viewpoint position information and line-of-sight information (line-of-sight direction information).
  • the game processing unit 111 detects the first event when the player approaches or reaches the boundary of the area set as the player movement range in the play area or the game apparatus housing. appear. For example, a first event for performing a suppression process that suppresses the movement of the player in the direction toward the boundary of the area is generated.
  • the game processing unit 111 generates a second event when the movement of the player beyond the boundary of the area is detected.
  • a second event is generated for performing at least one of a process for changing to an image display different from the game image, a process for changing the game progress mode, and a process for ending the game.
  • the play area is an area defined (set) in advance as an area (field, space) in which the user plays the game.
  • This play area is an area including a range in which, for example, the position information of the player can be tracked.
  • the play area may be, for example, an area surrounded by walls, but may be an open space area.
  • the inside of the game device case is a space inside the case when the game device has a case in which a player can enter.
  • Various devices (for example, operation devices) and equipment used by the player for game play can be provided in the game device housing.
  • an area assumed as a movement range of the player is set (defined) in such a play area or a game apparatus housing.
  • This area may be set, for example, when an operator inputs setting information (such as coordinates) of the area in the initialization setting of the game device.
  • area setting information is stored in the storage unit 170 as registration information.
  • the first event occurs when the approach or arrival of the player to the boundary of this area is detected.
  • the approach or arrival of the player to the boundary of the area can be detected based on the position information of the player acquired by the input processing unit 102.
  • the approach or arrival of the player to the boundary of the area can be detected by obtaining the distance between the player's position and the boundary, or by determining the intersection between the player's position and the boundary.
  • a suppression process is performed to suppress the movement of the player in the direction toward the boundary of the area.
  • the player stops moving and stays there, or moves in a direction opposite to the direction toward the boundary of the area, a direction crossing the direction toward the boundary of the area, or the like.
  • This inhibition process can be performed using an object that appears in the game space. For example, when the first event occurs, an object for the suppression process appears in the game space, and the movement of the player in the direction toward the boundary of the area is suppressed using this object.
  • the second event when the movement of the player beyond the boundary of the area is detected, the second event is generated.
  • the second event may be generated at the moment when the player position (representative position) crosses the boundary of the area, or the second event occurs when the player moves a predetermined distance after crossing the boundary or after a predetermined time has elapsed. May be generated.
  • processing for changing to an image display different from the game image, processing for changing the game progress mode, or processing for ending the game is performed. In this way, depending on the suppression process at the first event, the movement in the boundary direction is not stopped, and the player who has moved beyond the boundary as it is is urged to stop the movement at a higher level. be able to.
  • the game processing unit 111 performs a process of reducing the image quality of the game image as a process of changing to an image display different from the game image.
  • a process for reducing the image quality is performed as compared with the game image displayed when the player normally plays the game in the area.
  • the game processing unit 111 instructs the display processing unit 120 (image processing unit) to reduce the image quality of the game image when the second event occurs.
  • the game processing unit 111 performs a process of reducing the brightness, saturation, contrast, or resolution of the game image as a process of reducing the image quality of the game image (a process of changing to an image display different from the game image), or A process of changing the game image from a color image to a monochrome image or a process of blurring the game image is performed.
  • the brightness of the game image is reduced to make the screen darker than the normal game image.
  • the saturation of the game image is reduced to make the image less colored than the normal game image.
  • the contrast of the game image is lowered to reduce the difference in brightness between the bright and dark portions of the game image.
  • the resolution is lowered by reducing the number of pixels constituting the game image.
  • the game image that is normally a color image (RGB) is changed to a monochrome image.
  • a blur filter process or the like is performed on the game image to display an image that is more blurred than the normal game image.
  • the process of reducing the image quality of these game images can be realized by performing post-processing image processing of a rendering image that is a game image, for example.
  • the game processing unit 111 can be realized by instructing, for example, the display processing unit 120 to perform image processing for reducing the image quality of a rendering image that is a game image.
  • the process of reducing the image quality of the game image is not limited to the process exemplified above, and various image quality reduction processes that make the player continue the game in the same state can be assumed.
  • the process of changing to an image display different from the game image is not limited to the process of reducing the image quality of the game image, and various modifications can be made.
  • it may be a process in which the overall appearance of the image changes to an image display different from the game image.
  • an image completely different from the game image may be displayed.
  • a monochromatic wire frame image may be displayed.
  • you may make it display the image in which only the shape and outline of the display thing displayed on a game image remain.
  • the game processing unit 111 may perform a process of changing the output mode of the game sound when the approach or arrival of the player to the boundary of the area is detected. For example, as a process for changing the output mode of the game sound, a process for reducing the volume (volume) of the game sound is performed. That is, when the second event occurs, a process for lowering the volume is performed as compared with game sounds (music, BGM, etc.) output when the player is normally playing a game in the area. For example, the game processing unit 111 instructs the sound processing unit 130 to decrease the volume of the game sound when the second event occurs.
  • a process for changing the output mode of the game sound a process for reducing the volume (volume) of the game sound is performed. That is, when the second event occurs, a process for lowering the volume is performed as compared with game sounds (music, BGM, etc.) output when the player is normally playing a game in the area.
  • the game processing unit 111 instructs the sound processing unit 130 to decrease the volume of the game sound when
  • the process of changing the game sound output mode is not limited to such a process of lowering the volume of the game sound, and various processes that make the player continue to play the game in that state can be assumed.
  • a normal game sound may be modulated, or an additional sound effect or the like may be mixed with the game sound.
  • the game processing unit 111 performs a process of stopping the game progress as a process of changing the game progress mode. For example, the progress of the game is stopped (temporarily stopped) by stopping the passage of time in the game space or stopping the moving image playback of the game image.
  • Various processes can be assumed as the process of changing the game progress mode. For example, in the game process, the game progresses according to a predetermined sequence, but when the second event occurs, a game progress mode change process for changing the sequence is executed.
  • a process of returning the game to the start state may be performed. For example, in a game in which the game is started by inserting coins or paying in-game currency, and the game can be played (one game play), the game is returned to the start state (the game is reset). And replaying the game play.
  • the game processing unit 111 performs processing for returning an image display different from the game image to the display of the game image when it is detected that the player has returned to the inner side of the area boundary after the occurrence of the second event. Or the process which returns a game progress aspect is performed. For example, when the image quality of the game image is reduced when the second event occurs, the reduced image quality is returned to the normal image quality. If an image completely different from the game image is displayed, the image display is returned to the game image display. If the game progress has been stopped when the second event occurs, the stopped game progress is resumed and returned to the normal game progress.
  • the game processing unit 111 displays a danger notification object at a position corresponding to the boundary of the area, a process of displaying warning information, and a given object on the direction side toward the boundary. Processing to appear, processing to change the display mode of a given object on the direction side toward the boundary, or processing to generate a player's attention object or attention event on a direction side different from the direction toward the boundary.
  • the danger notification object when the first event occurs, is displayed at a position in the VR space corresponding to the boundary of the area (boundary position, or a position on the near side or the far side of the boundary). That is, the danger notification object appears at a position corresponding to the boundary of the area in the game space that is the object space.
  • the danger notification object is desirably displayed on the entire game image, for example, but the shape or the like is not limited.
  • a warning character or symbol is displayed when the first event occurs.
  • an object model object
  • an avatar appears on the side toward the boundary. For example, an object having a shape and property that makes the player want to escape appears.
  • the display mode of a given object on the direction side toward the boundary is changed.
  • image information and shape information such as color and texture of an object on the boundary direction side (direction direction toward the boundary) are changed.
  • the display mode of the object is changed to a display mode that suppresses ( ⁇ ) the player from moving to the boundary direction side or notifies the danger notification.
  • the player's attention object or attention event is generated in a direction different from the direction toward the boundary, and the player moves in the direction of the attention object or the occurrence location of the attention event.
  • an attention object or an attention event that is an important event is generated.
  • the direction of the boundary becomes a dead end, and an attention event is generated so that the road appears to open in a direction different from the boundary direction.
  • the game processing unit 111 controls the suppression process at the first event based on the moving speed of the player. For example, the generation timing of the first event is controlled based on the moving speed of the player. For example, control is performed such that the first event is generated earlier as the player moves faster. Further, when the first event occurs when the boundary of the area approaches, the determination distance determined to be approaching the boundary is controlled based on the moving speed of the player. For example, the determination distance is lengthened as the moving speed of the player increases.
  • the game processing unit 111 controls a process of changing to an image display different from the game image at the second event, a process of changing the game progress mode, or a process of ending the game based on the moving speed of the player.
  • the timing for changing the image display, the timing for changing the progress mode, and the timing for ending the game are controlled based on the moving speed. For example, control is performed so that these timings become earlier as the moving speed of the player increases.
  • the degree of change in image display is controlled based on the moving speed. For example, control is performed so that the degree of these changes increases as the moving speed of the player increases.
  • the game processing unit 111 performs a process of vibrating the vibration device 164 or a process of outputting a warning sound in the first event or the second event.
  • a process for suppressing the movement of the player in the direction toward the boundary is performed, the vibration device 164 is vibrated, and a warning sound is output by the sound output unit 192.
  • the second event occurs, a process of changing to an image display different from the game image, a process of changing the game progress mode, or a process of ending the game is performed, and the vibration device 164 is vibrated, or the sound output unit 192 Outputs a warning sound.
  • a vibrating device for warning may be a vibrating device provided in a device other than the input device 160.
  • the vibration device provided in HMD200 etc. may be sufficient.
  • the display processing unit 120 performs a process of displaying on the HMD 200 a game image in which a spectator image is displayed at a place corresponding to the outside of the area.
  • spectator seats are set and arranged at locations corresponding to the outside of the area.
  • the virtual player corresponding to the player approaches the spectator seat in the game space.
  • the virtual player enters the spectator seat in the game space.
  • the processing of the present embodiment is not limited to the processing described above, and various modifications can be made.
  • the game processing unit 111 detects the player's approach or arrival to the boundary of the area set as the player's movement range in the play area or the game apparatus casing, or the movement of the player beyond the boundary is detected.
  • processing for reducing the brightness, saturation, contrast or resolution of the game image processing for changing the game image from a color image to a monochrome image, or processing for blurring the game image may be performed.
  • a process for reducing the image quality of the game image is performed without causing the first event.
  • the game to which the method of the present embodiment is applied is a music game (live stage game, karaoke game, etc.) for performing a song will be mainly described as an example.
  • the game to which the method of the present embodiment is applied is not limited to this, for example, music that plays an instrument such as a stringed instrument (guitar, etc.), a percussion instrument (drum, drum, etc.), or a keyboard instrument (keyboard, piano). It may be a game (game that competes for rhythm and skill).
  • the method of this embodiment can also be applied to various games such as a communication game (human relationship simulation game) with a heterosexual character, a battle game, an RPG game, a robot game, a card game, a sports game, or an action game. is there.
  • FIG. 2A shows an example of the HMD 200 used in the game device of this embodiment.
  • the HMD 200 is provided with a plurality of light receiving elements 201, 202, and 203 (photodiodes).
  • the light receiving elements 201 and 202 are provided on the front side of the HMD 200, and the light receiving element 203 is provided on the right side of the HMD 200.
  • a light receiving element (not shown) is also provided on the left side, upper surface, and the like of the HMD.
  • the player PL has input devices 160-1 and 160-2 with the left hand and the right hand. Similar to the HMD 200, the input devices 160-1 and 160-2 are provided with a plurality of light receiving elements (not shown). Further, the input device 160-1 is provided with a microphone 162 (sound input device), and the player PL sings with the mouth toward the microphone 162 in a song performance game. The input devices 160-1 and 160-2 also function as game controllers, and are provided with operation buttons, direction instruction keys, and the like (not shown). Note that the player may have one input device 160.
  • the HMD 200 is provided with a headband 260 and the like so that the player PL can stably wear the HMD 200 on the head with a better wearing feeling.
  • the HMD 200 is provided with a headphone terminal (not shown). By connecting a headphone 270 (sound output unit 192) to the headphone terminal, for example, processing of three-dimensional sound (three-dimensional audio) is performed.
  • the player PL can listen to the game sound.
  • the player PL inputs operation information and enjoys game play by operating the input devices 160-1 and 160-2 that function as game controllers, or by performing a head movement operation and a head movement operation.
  • the whirling motion and the swing motion can be detected by the sensor unit 210 of the HMD 200 or the like.
  • base stations 280 and 284 are installed in the play area of the player PL.
  • the base station 280 is provided with light emitting elements 281 and 282, and the base station 284 is provided with light emitting elements 285 and 286.
  • the light emitting elements 281, 282, 285, and 286 are realized by LEDs that emit laser (infrared laser or the like), for example.
  • the base stations 280 and 284 use these light emitting elements 281, 282, 285, and 286 to emit, for example, a laser beam radially.
  • the 2A receive the laser beams from the base stations 280 and 284, thereby realizing the tracking of the HMD 200 and the position and direction of the player PL head. Can be detected.
  • the light receiving elements (not shown) provided in the input devices 160-1 and 160-2 receive the lasers from the base stations 280 and 284, thereby realizing the tracking of the input devices 160-1 and 160-2.
  • the positions and directions of the input devices 160-1 and 160-2 can be detected. Thereby, for example, an image of a microphone corresponding to the input device 160-1 can be displayed on the game image.
  • FIG. 3A shows another example of the HMD 200.
  • a plurality of light emitting elements 231 to 236 are provided for the HMD 200. These light emitting elements 231 to 236 are realized by LEDs, for example.
  • the light emitting elements 231 to 234 are provided on the front side of the HMD 200, and the light emitting element 235 and the light emitting element 236 (not shown) are provided on the back side. These light emitting elements 231 to 236 emit (emit) light in a visible light band, for example. Specifically, the light emitting elements 231 to 236 emit light of different colors.
  • the imaging unit 150 images the light of these light emitting elements 231 to 236. That is, spot images of these light emitting elements 231 to 236 are reflected in the captured image of the imaging unit 150. Then, by performing image processing on the captured image, tracking of the head (HMD) of the player PL is realized. That is, the three-dimensional position and movement of the head of the player PL are detected.
  • HMD head
  • the imaging unit 150 includes first and second cameras 151 and 152, and the first and second cameras 151 and 152 of the first and second cameras 151 and 152 are provided.
  • the position of the player PL in the depth direction can be detected.
  • the rotation angle (line of sight) of the head of the player PL can also be detected. Therefore, by using such an HMD 200, the player PL corresponds to an image in a virtual three-dimensional space (corresponding to the player's viewpoint) regardless of the direction of all 360 degrees around the player PL.
  • An image that can be seen from the virtual camera) can be displayed on the display unit 220 of the HMD 200.
  • the light emitting elements 231 to 236 infrared LEDs instead of visible light may be used.
  • the position and movement of the player's head may be detected by other methods such as using a depth camera.
  • the tracking processing method for detecting the player's viewpoint information is not limited to the method described with reference to FIGS. 2 (A) to 3 (B).
  • the tracking process may be realized by a single unit of the HMD 200 using a motion sensor or the like provided in the HMD 200. That is, tracking processing is realized without providing external devices such as the base stations 280 and 284 in FIG. 2B and the imaging unit 150 in FIG.
  • the player's viewpoint information or the like may be detected by various viewpoint tracking methods such as known eye tracking, face tracking, or head tracking. For example, in eye tracking, the position and shape of the left eye and right eye of the player are recognized.
  • the viewpoint tracking is realized by specifying the position of the left eye, the position of the right eye, the viewing direction of the left eye, the viewing direction of the right eye, and the like, and acquiring the viewpoint information of the player.
  • This eye tracking can be realized, for example, by photographing the left eye and the right eye of the player with the imaging unit and performing image recognition processing such as a pupil on the captured image.
  • image recognition processing such as a pupil on the captured image.
  • face tracking the imaging unit captures the player's face and performs face image recognition processing. Then, based on the result of the image recognition process, the position and direction of the player's face are specified, and the viewpoint position and line-of-sight direction of the player are obtained, thereby realizing viewpoint tracking.
  • FIGS. 4A and 4B show an example of a play area in which the game of the present embodiment is realized.
  • This play area is realized by a box-shaped soundproof private room.
  • the box private room has walls 301, 302, 303, 304, a door 306, and ventilation equipment 307, 308.
  • casters 310 and 312 are provided on the bottom surface of the box so as to be movable.
  • the player PL opens the door 306 and enters the private room to play the game.
  • This space in the private room becomes a play area (play space) for the player PL.
  • an area AR assumed as a movement range of the player PL is set in the play area of the box private room.
  • this area AR it is possible to track the viewpoint information (viewpoint position, line-of-sight direction) and position information of the player PL using the base stations 280, 284 and the like.
  • reliable tracking cannot be realized at a position beyond the boundary BD of the area AR.
  • the player PL exceeds the boundary BD of the area AR, there is a risk of hitting the walls 301, 302, 303, 304, which is not desirable in terms of safety.
  • the area AR can be set, for example, by the initialization setting of the game device.
  • FIG. 5 shows an example of the game apparatus housing 320.
  • the game device has a large game device housing 320 so that the player can enter the game device housing 320 and play the game.
  • various devices operation devices
  • equipment equipment
  • seats chairs
  • the like are provided inside the game device housing 320.
  • the player enters the game apparatus housing 320, wears the HMD 200 on his head, and enjoys a game in the VR (virtual reality) world.
  • VR virtual reality
  • the game realized by the present embodiment is a music game in which a vocal performance is achieved by becoming a vocal of a band in a sense of reality like a real live stage.
  • the player can obtain a strong feeling of cheering from his fans all over the body while feeling an unprecedented sense of singing in front of a large audience.
  • HMD and high-power surround speakers you can feel as if you are performing on a live stage and singing with your fans.
  • the audience around the stage responds to the player's vocal performance and stage action and interactively returns flashy cheering and various actions.
  • the player selects the concert appearance mode in the play settings before the stage appearance. After that, the song to be sung is selected and the appearance stage is selected. Then, devices such as the HMD 200 and the input devices 160-1 and 160-2 described with reference to FIGS. 2A and 2B are mounted.
  • the store operator explains precautions and assists the device mounting and adjustment of the player.
  • the operator calibrates (initializes) the private room space, which is the play area, in advance.
  • the input device 160-1 in FIG. 2A is a microphone & game controller.
  • the arm or hand of the player virtual player
  • the position of the input device 160-1 etc. held by the player is sensed, and a microphone image is drawn at the same position.
  • the microphone image moves accordingly.
  • the player adjusts the vocal keys in the VR room standby room.
  • the standby room is a waiting space below the stage.
  • the space where the player stands in the VR space is a large lift, and rises on the stage during the performance.
  • a spotlight of backlighting is applied from the front toward the player, and a loud cheer occurs that has reached its peak with the appearance of the player.
  • the performance starts with the input of the start action (for example, hand action) of the player, and the live sequence is started.
  • FIGS. 6 and 7 are examples of game images (images in the VR space) displayed on the HMD 200 of the player on the stage.
  • a full audience is projected in front of the player.
  • FIG. 6 shows a game image when the player faces the front
  • FIG. 7 shows a game image when the player faces the right.
  • a game image showing a drum, an amplifier, a screen, etc. is displayed as shown in FIG.
  • the live stage is performed in a huge concert hall surrounded by a dome DOM as in the real world.
  • lyrics and intervals are displayed on a monitor installed at the foot of the player in the VR space. If necessary, the player performs a vocal performance while viewing these lyrics and pitch indications.
  • the world of the VR space that is the game space extends across the entire direction of the player.
  • the game image of FIG. 6 is displayed on the HMD 200, and when the player turns right, the game image of FIG. 7 is displayed.
  • the game image of FIG. 8 is displayed. Therefore, it is possible to give the player a virtual reality as if a vocal performance is being performed in a huge concert hall where many spectators cheer. Therefore, the degree of immersion of the player in the game can be significantly improved as compared with the conventional game device.
  • the movement (action) and cheer of the audience change according to the inflection of the song.
  • the movement and cheer of the audience change according to the action of the player.
  • the audiences AD1 to AD7 near the stage where the player stands are represented by polygon model objects composed of a large number of polygons, for example.
  • the audiences AD8 to AD11 in FIG. the audience at a position far from the stage is represented by an image drawn on a billboard polygon facing the player's line of sight.
  • the movement of the polygon model audience is expressed by, for example, motion playback using motion data. These spectators perform basic actions (basic motion) according to the rhythm of the song.
  • basic motion basic motion
  • the audience action there is a stage for expressing the degree of excitement in the song. This stage basically goes up and down depending on the inflection of the song. In addition, the stage may be raised by the better evaluation of the player's performance.
  • the audience will react interactively according to the voice and movement of the player. For example, when a player performs an action such as “singing in a specific direction” or “waving his hand”, the tension of the audience in that direction increases, and the basic action becomes one stage, flashy or suddenly exciting action that has nothing to do with rhythm.
  • the first evaluation process is an evaluation process as to how much performance that can excite a specific audience can be achieved. In other words, how enthusiastic the specific audience was.
  • the second evaluation process is an evaluation process as to whether or not the player has successfully sung a song.
  • the evaluation system based on the first evaluation process is a main evaluation system that can obtain feedback from the audience during the player's play.
  • the audience who performs some appealing action toward the player is targeted.
  • the spectator AD4 raises his right hand to perform an appealing action to the player, and this spectator AD4 is the target.
  • the audience AD10 who is performing an appealing action is the target.
  • audiences AD3, AD4, and AD5 may be targets.
  • thermal madness gauge thermal madness gauge
  • the first action performed by the player on the appealing audience is an action of singing with a gaze toward the target audience. This first action is evaluated in the song part of the song part and the interlude part.
  • the second action that the player performs on the appealing audience is an action (movement) in which the player raises his arm in response to the shout from the audience.
  • it is an action that the player utters in response to a call from the audience.
  • the audience that is the target of these first and second actions occurs, for example, randomly in the concert hall.
  • the number of targets in the performance of one song by the player is determined to be a predetermined number.
  • the enthusiasm parameter reaches the maximum value and succeeds in raising the enthusiasm for all the predetermined number of audiences as targets
  • the player is evaluated to the maximum, assuming that the predetermined number of targets are all cleared.
  • the type of the last stage effect changes according to the number of target clears. For example, when all 10 targets are cleared, the most flashy effect occurs in the last stage. For example, when eight targets are cleared, a more flashy effect occurs than when five targets are cleared.
  • the evaluation system based on the second evaluation process is an evaluation system based on the detection of the pitch and rhythm of the player's song, and the evaluation is performed by adding points that are not clearly indicated to the player. Specifically, it is evaluated whether or not the utterance can be adapted to the rhythm. For example, when the player can speak in accordance with the designated timing of playing the bass or drum, points are added. In addition, the skill of long tone and the accuracy of rest are evaluated. Also evaluate the accuracy of the pitch. That is, the pitch of the player's song is determined, and the pitch of the song sung with the correct pitch is displayed graphically. Note that if the player's volume level is zero for a certain period of time, most of the audience will shift to a standby motion, during which time the player will not be able to earn points.
  • the audience asks for an offer.
  • the player can play one more song.
  • the lights become darker in the cheering that fades out, and it ends with a blackout.
  • a message such as “Thank you very much, please remove the HMD” and a guide voice are played.
  • the player removes the equipment and leaves the private room, and the game play ends.
  • the player feels virtual reality as if he was performing live in front of an enthusiastic audience in a real live hall. Can be given to. As shown in FIGS. 6 and 7, an audience enthusiastic about the player's performance is displayed in front of the player's eyes, so that the excited player may move toward the audience in the VR space. .
  • FIG. 10 is a diagram showing a state where the stage SG where the player PL stands in the VR space is looked down from above. Note that the player PL in FIG. 10 is actually a virtual player in the VR space. However, in the present embodiment, the player in the real world and the virtual player are represented by the same symbol PL for the sake of simplicity of explanation.
  • the stage SG is divided by the boundary BDS, and spectators who act as shown in FIGS. 6 and 7 are arranged in the audience seats SE1, SE2, and SE3 around the stage SG.
  • the boundary BDS of the stage SG corresponds to, for example, the boundary BD of the area AR of the real-world play area shown in FIG.
  • the boundary BDS of the stage SG in the VR space is set at a position corresponding to, for example, a predetermined distance from the boundary BD of the real world area AR in FIG.
  • the player PL standing on the stage SG in FIG. 10 performs a live performance surrounded by spectators (AD1 to AD11) as shown in FIGS. Therefore, as shown in FIG. 11, the player PL excited to see the enthusiastic spectators as shown in FIG. 6 moves to the outside of the stage SG as shown in FIG.
  • the player PL may hit the wall 301 of the room, which is not desirable in terms of safety.
  • a method of generating the first and second events for danger notification is adopted.
  • the occurrence of a situation such as a player hitting a wall can be effectively suppressed while minimizing the impediment to immersion due to danger notifications. To do.
  • FIG. 12A it is assumed that the approach (or arrival) of the player PL to the boundary BD of the area AR set in the play area (or in the game device housing) is detected. For example, when the player PL is located within a distance LB from the boundary BD of the area AR, it is determined that the player PL has approached the boundary BD. In this case, a first event is generated. When the direction from the player PL toward the boundary BD is the DR1 direction, in the first event, processing for suppressing the player PL from moving in the DR1 direction (boundary direction) is performed. For example, the movement of the player PL is suppressed (suppressed or stopped) so that the player PL does not exceed the boundary BD. As a result, the player PL stops moving and stops on the spot, turns back, or moves to the right or right.
  • a process of displaying the danger notification object OBW at a position corresponding to the boundary BD of the area AR is performed.
  • the danger notification object OBW is displayed at a position slightly outside the boundary BD, but the danger notification object OBW is displayed at the position of the boundary BD and a position slightly inside the boundary BD. May be.
  • FIG. 13 shows an example of the danger notification object OBW.
  • the danger notification object OBW is a wire frame wall object (mesh-like object).
  • the player gives up on moving in the DR1 direction (boundary direction) in FIG. 12A, for example, stops moving and stops on the spot, or moves in the DR1 direction. It will be possible to expect the player to move in the opposite direction.
  • the danger notification object OBW has a mesh shape, the player can still see the image of the spectator and the like, and can prevent the sense of immersion in the game from being hindered due to the danger notification.
  • Other examples of the first event suppression process will be described later.
  • the display of the wall (fence) by the wire frame as shown in FIG. 13 matches the world view of the music game as described in FIG. 6 to FIG. 8, and is displayed without breaking the world view. For this reason, even if the wall by such a wire frame is displayed, the unnatural feeling felt by the player can be minimized.
  • the danger notification object displayed when the player approaches or reaches the boundary of the area has a shape, color, or material that matches the world view of the game.
  • the danger notification object matches the world view of the game, the danger notification object can be displayed as it is at the time of approaching or reaching the boundary.
  • the danger notification object may be gradually changed from transparent to opaque when the player approaches or reaches the boundary.
  • the danger notification object may be gradually changed from opaque to transparent and disappear.
  • the second event is generated when the movement of the player PL exceeding the boundary BD of the area AR is detected.
  • a process for changing to an image display different from the game image is performed. For example, the image quality of the game image is extremely reduced, or an image completely different from the game image is displayed.
  • processing for changing the output mode of the game sound may be performed. For example, processing for reducing the volume of the game sound may be performed.
  • a process of returning the image display different from that to the game image display is performed.
  • the image quality of the game image is returned to the original image quality.
  • the display is returned from the display of an image completely different from the game image to the display of the game image.
  • a process for restoring the output mode of the game sound may be performed. For example, the volume of the game sound is restored.
  • FIG. 14 shows an example of a game image with reduced image quality.
  • the characteristics (features) of the normal game image such as FIG. 6) remain, but the process of reducing the brightness, saturation, contrast, or resolution of the game image, or blurring the game image Processing is performed.
  • the image of the spectator and the spectator seat appears to be blurred, and the entire image is dark. Note that it is desirable to further warn with a text image or sound so as to return to the original standing position (FIG. 4A) when displaying FIG.
  • the process of reducing the image quality of the game image as shown in FIG. 14 can be easily generated by performing known image processing on the game image that is a rendering image, for example.
  • the image quality as shown in FIG. 14 is obtained by performing filter processing for reducing brightness, saturation, or contrast on the original game image, or performing blur processing filter processing on the original image.
  • a reduced game image can be generated.
  • a game image of an RGB color image may be converted into a black and white image and displayed.
  • the player may lose his or her position and direction. That is, a player whose eyes are covered with the HMD 200 has no display object serving as a reference for recognizing his / her position and direction when the entire field of view is completely white. Lose sight.
  • the outline (feature amount) of the display object such as the audience or the audience seat remains. Therefore, by using the positions of these display objects as a reference, the player does not have to lose sight of his / her position and direction.
  • the game image is displayed although the image quality is lowered, so that the degree of immersion in the game of the player does not decrease so much. Moreover, it can be expected that an excited player returns to a calm psychological state due to a decrease in the image quality of the game image.
  • a process of changing the game progress mode may be performed.
  • a process for stopping the game progress is performed as a process for changing the game progress mode.
  • the passage of time in the game space is stopped, or the moving image reproduction of the game image is stopped, and for example, a still image is displayed.
  • the time passage in the game space may be extremely slow, or the video playback of the game image may be extremely slow.
  • a display is made to inform the player that the game has stopped due to the occurrence of the second event. At this time, a notification is made to prompt the player to return to the original standing position.
  • a process of returning the game to the start state may be performed. For example, return to the start state of the live performance or return to the standby state in the standby room.
  • Processing to restore the progress mode is performed. Specifically, the progress of the stopped game is resumed. For example, the passage of time in the game space is resumed, or the video playback of the game image is resumed.
  • a process for ending the game may be performed.
  • the display as shown in FIG. 16B is performed, and the game is completed.
  • the game play of the player it is not desirable to end the game, but the game may be ended for a more reliable safety measure.
  • a warning information display process may be performed as a suppression process in the first event.
  • the player since it is dangerous to move in the DR1 direction as it is, the player is warned of turning back. In this way, the player can visually recognize that the movement in the DR1 direction is dangerous, and can effectively suppress the movement in the DR1 direction.
  • a warning sound may be further output when such a warning is displayed.
  • a process of causing an object to appear on the direction side toward the boundary BD may be performed.
  • a monster object OBMS is displayed in front of the player.
  • a balloon such as “Don't come over here” is also displayed.
  • a monster attacks the player. If such a monster object OBMS is displayed, the player stops moving in the DR1 direction in FIG. 12A in order to avoid this monster. Then, for example, the movement is stopped and the vehicle stops on the spot or turns back in a direction different from the DR1 direction. That is, it is possible to generate an event that makes the player hesitate to move in a dangerous direction. Therefore, effective suppression processing at the first event can be realized.
  • a process of changing the display mode (image information or shape information such as color and texture) of the object on the direction side toward the boundary may be performed. For example, a danger is notified to the player when the facial expression or color of the spectator (object in a broad sense) near the player is moving and gradually faded or turned pale. That is, the display mode of an object such as a spectator in the boundary direction is changed to a display mode that suppresses movement in the boundary direction.
  • a process of generating a player's attention object or attention event in a direction different from the direction DR1 toward the boundary BD may be performed.
  • an important object of interest for example, an important item
  • a direction side for example, a backward direction, for example
  • the object of interest is displayed in the left and right directions.
  • an event such as a dead end on the direction DR1 side and an opening of a path for exiting a maze or the like on a direction side different from the direction DR1 is generated. By doing so, it is possible to realize effective suppression processing at the first event.
  • the first event occurs when the approach or arrival of the player to the boundary of the area set as the movement range of the player is detected.
  • processing for suppressing (suppressing) the player from moving in the direction toward the boundary is performed.
  • the second event occurs.
  • processing for changing to an image display different from the game image, processing for changing the game progress mode, processing for ending the game, and the like are performed. In this way, in the first event, movement in the boundary direction can be suppressed without causing the player to feel so unnatural.
  • the movement speed VS of the player PL may be detected, and the first event may be controlled based on the movement speed VS.
  • the suppression process at the first event is controlled based on the moving speed VS of the player PL.
  • the first event is generated at an earlier timing.
  • the first event is generated and the above-described suppression process is performed. In this case, when the moving speed VS of the player PL is fast, the distance LB is made longer than when the moving speed VS is slow.
  • the second event may be controlled based on the moving speed VS of the player PL.
  • the process of changing to an image display different from the game image at the second event is controlled based on the moving speed VS of the player PL.
  • the display is changed to an image display different from the game image at an earlier timing.
  • a game image with reduced image quality as shown in FIG. 14 or an image completely different from the game image is displayed at an earlier timing.
  • the process of changing the game progress mode in the second event and the process of ending the game are controlled based on the moving speed VS of the player PL.
  • the process of changing the output mode of the game sound at the second event may be controlled based on the moving speed VS of the player PL. For example, when the moving speed VS of the player is fast, processing such as lowering the volume of the game sound may be performed at an earlier timing.
  • a process of vibrating the vibration device 164 or a process of outputting a warning sound may be performed.
  • the vibration device provided in the input device 160-2 164 is vibrated to generate a vibration for warning.
  • a warning sound is output using the headphones 270.
  • the vibration device 164 provided in the input device 160-2 is vibrated as shown in FIG.
  • a warning vibration may be generated or a warning sound may be output using the headphones 270.
  • the line-of-sight information of the player wearing the HMD 200 and the input information input by the player using the input device 160 are acquired.
  • the input processing unit 102 in FIG. 1 acquires line-of-sight information and input information of the input device 160.
  • the line-of-sight information is information representing the line-of-sight direction of the player, and can be acquired by the tracking processing described above.
  • the line-of-sight information of the player can be specified by obtaining the direction information of the HMD 200 by tracking processing.
  • the input information of the input device 160 is, for example, performance information (vocal performance, musical instrument performance) input by a player's performance.
  • the first game for the player to play the first game is performed. Perform game processing. Further, based on the line-of-sight information indicating the player's line-of-sight direction, the second game process for the player to play the second game is performed. Based on the result of the first game process and the result of the second game process, the game result of the player is calculated. For example, based on the evaluation results of the player's game play in the first and second game processes, the game results (total or final game result) of the player as a whole are calculated.
  • the first game is, for example, a music game in which game processing is performed based on player performance information that is input information.
  • the performance information that is input information is audio information of the player's song.
  • the performance information that is input information is instrument sound information generated by an instrument played by the player (or an apparatus that simulates an instrument).
  • the second game is a game in which game processing is performed based on line-of-sight relationship information representing the relationship between the player's line of sight and the target.
  • the second game is a game in which the game play of the player is evaluated by performing a game play that matches the player's line of sight (gaze direction) with the target.
  • game processing is performed based on line-of-sight relationship information representing the relationship between the player's line of sight and the target audience.
  • the audience ADB is the target among the audiences ADA, ADB, and ADC.
  • game processing is performed based on the line-of-sight information between the line of sight VLP of the player PL wearing the HMD and the target audience ADB, and the game play of the player is evaluated. Specifically, when the player PL points the line of sight VLP toward the audience ADB, the player's evaluation of game play becomes high.
  • the spectator AD4 appealing to the player is the target for the player to adjust his line of sight.
  • the player sings with the line of sight toward the target audience AD4 the player's evaluation of game play becomes high.
  • a first evaluation process for evaluating the game play of the player in the first game and a second evaluation for evaluating the game play of the player in the second game are performed.
  • the evaluation process is performed.
  • the player's game score (for example, overall or final game score) is calculated.
  • the first evaluation process for evaluating the game play of the player is performed. For example, in a first game that is a music game, an evaluation process for the performance of the player is performed.
  • a second evaluation process for evaluating the player's game play is performed.
  • the player PL plays a second game in which the line of sight VLP is aligned with the target audience ADB, and a second evaluation process is performed to evaluate the game play.
  • the game play of the player is evaluated, and the evaluation of the game play of the player in the second evaluation process is increased.
  • the player's game score is calculated based on the result of the first evaluation process and the result of the second evaluation process.
  • the result of the first evaluation process and the result of the second evaluation process are comprehensively determined, and for example, the final game score (point, score, etc.) of the player is calculated.
  • the line-of-sight relationship information indicating the relationship between the player's line of sight and the target, and the input status of the player's input information in the first game
  • the player's game play is evaluated in the second game.
  • the performance information as the player input information is input.
  • the evaluation of the game play of the player in the game of 2 is made high. For example, when it is determined that the player PL is singing with the line of sight VLP directed toward the audience ADB, the player's evaluation of the game play in the second game is highly evaluated.
  • the player's game in the second game is based on the line-of-sight relationship information indicating the relationship between the player's line of sight and the target and the player's movement information. You may evaluate play.
  • the evaluation of the game play of the player in the game of 2 is made high.
  • the evaluation of the player's game play in the second game is highly evaluated.
  • the player in the second game when it is determined that the player PL is performing a predetermined action such as raising the arm in accordance with the call from the audience ADB or the movement of the audience ADB. Make the gameplay rating high.
  • the movement information of the player PL can be acquired by detecting the position and direction of the input device 160 (160-1 or 160-2) in FIG.
  • processing for changing the value of the parameter set as the target of the player's line of sight is performed. Then, the result of the second evaluation process is obtained based on at least one of the parameter value and the number of targets for which the parameter has reached a given value.
  • the value of the target thermal madness parameter of the line of sight VLP of the player PL is changed based on the game play result of the player PL in the second game.
  • the player PL performs a vocal performance with the line of sight VLP toward the spectator ADB, so the enthusiastic parameter of the spectator ADB is increased.
  • the enthusiastic parameter of the audience ADB reaches the maximum value (given value in a broad sense)
  • the audience ADB is in a target clear state.
  • the player PL is performing a vocal performance with the line of sight VLP toward the audience ADA, so that the enthusiasm parameter of the audience ADA is increased.
  • the madness parameter of the audience ADA reaches the maximum value, the audience ADA is also in a target clear state.
  • the player PL is performing a vocal performance with the line of sight VLP toward the spectator ADC, so that the madness parameter of the spectator ADC is increased.
  • the madness parameter of the audience ADC reaches the maximum value, the audience ADC is also in a target clear state.
  • the second value of the player is determined based on the number of targets for which the thermal madness parameter (parameter in a broad sense) has reached the maximum value (given value).
  • the result of the evaluation process is required. Note that the result of the second evaluation process may be obtained not by the number of targets that have reached such a maximum value (given value) but by the value of the target (audience) parameter itself.
  • the player's game play in the first game is evaluated based on at least one of the pitch and rhythm specified based on the player's performance information as input information. .
  • the player's game play in the first game is evaluated in the same manner as a karaoke scoring game.
  • lyrics and the pitch of the song are displayed to the player.
  • This pitch display is for the player to visually grasp the pitch that serves as a reference (example) for the evaluation process.
  • this pitch display allows the player to grasp the rhythm that serves as a reference (example) for the evaluation process.
  • a comparison process with the pitch and rhythm reference data as shown in FIG. 23B is performed. That is, processing for extracting pitch and rhythm data of the player's song from the player's vocal performance information is performed. Then, the player's game play (vocal performance) in the first game (music game) is evaluated by comparing the extracted pitch and rhythm data of the player with the reference data of the pitch and rhythm. Do. In this way, it is possible to appropriately evaluate the skill of the player's song.
  • volume reference data is prepared as shown in FIG. 23 (B), and the player's ability to control the vocal volume (inflection) may be evaluated. Good.
  • FIG. 24 is a flowchart of processing for changing to an image display different from the game image when the second event occurs.
  • step S1 the position information of the player who moves while wearing the HMD is acquired (step S1).
  • This position information can be acquired by the tracking process described above.
  • step S2 it is determined whether or not the approach (or arrival) of the player to the boundary of the area has been detected (step S2).
  • step S3 processing for suppressing movement of the player in the boundary direction, such as display processing of a danger notification object, is executed (step S3). That is, the first event processing described with reference to FIGS. 12A and 13 is executed.
  • step S4 it is determined whether or not the player has returned to the inner side of the boundary. And when it returns, a danger alerting
  • step S6 it is determined whether or not a player movement beyond the boundary of the area has been detected. Then, when movement beyond the boundary is detected, processing for changing to an image display different from the game image is executed (step S7). That is, the second event processing described with reference to FIGS. 12B and 14 is executed.
  • step S8 it is determined whether or not the player has returned to the inner side of the boundary. If it returns, processing for returning to the display of the game image is performed (step S9). That is, the process described with reference to FIG.
  • FIG. 25 is a flowchart of processing for changing the game progress mode when the second event occurs.
  • the processing in steps S11 to S15 in FIG. 25 is the same as the processing in steps S1 to S5 in FIG.
  • step S17 a process for stopping the progress of the game is executed (step S17). That is, the processing of the second event described with reference to FIGS. 15A and 16A is executed.
  • step S18 it is determined whether or not the player has returned to the inner side of the boundary. And when returning, the process which restarts a game progress is performed (step S19). That is, the process described with reference to FIG.
  • the present invention can be applied to various games. Further, the present invention can be applied to various game devices such as a business game device, a home game device, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. .
  • the game device may be a mobile phone or a portable information terminal in which a game program is installed and executed.
  • PL player AR area, BD boundary, OBW danger notification object
  • 100 processing units 102 input processing units, 110 arithmetic processing units, 111 game processing unit, 112 game progress processing unit, 113 evaluation processing unit, 114 character processing unit, 115 parameter processing unit, 116 object space setting unit, 117 virtual camera control unit, 118 game result calculation unit, 120 display processing unit, 130 sound processing unit, 150 imaging unit, 151, 152 camera, 160 (160-1, 160-2) input device, 161 performance information input device, 162 microphone, 170 storage unit, 172 spatial information storage unit, 174 Music information storage unit, 176 parameter storage unit, 178 Drawing buffer, 180 information storage medium, 192 sound output unit, 194 I / F unit, 195 portable information storage medium, 196 communication unit, 200 HMD (head-mounted display device), 201 to 203 light receiving element, 210 sensor unit, 220 display unit, 231 to 236 light emitting element, 240 processing unit, 260 headbands, 270 headphones, 280, 284 base station,

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Software Systems (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Acoustics & Sound (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

ゲーム装置は、頭部装着型表示装置を装着してプレイエリア等で移動するプレーヤの位置情報を取得する入力処理部と、ゲームの処理を行うゲーム処理部と、ゲーム画像を頭部装着型表示装置に表示する処理を行う表示処理部を含む。ゲーム処理部は、プレイエリア又はゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合に、境界に向かう方向へのプレーヤの移動を抑止する抑止処理を行う第1のイベントを発生し、エリアの境界を越えたプレーヤの移動が検出された場合に、ゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、及びゲームを終了させる処理の少なくとも1つの処理を行う第2のイベントを発生する。

Description

ゲーム装置、処理方法及び情報記憶媒体
 本発明は、ゲーム装置、処理方法及び情報記憶媒体等に関する。
 従来より、HMD(頭部装着型表示装置)をユーザが頭部に装着し、HMDの画面に表示される画像をプレーヤが見ることで、いわゆるバーチャルリアリティー(VR)の世界を体感できる装置が知られている。このような装置の従来技術としては、例えば特許文献1、2に開示される技術がある。
特開平5-304646公報 特開2013-164737号公報
 HMDを装着している場合、ユーザの視線はHMDの画面に集中する。このため、ユーザがHMDを装着したまま歩行すると、周囲の障害物にぶつかってしまうおそれがある。
 このような危険を回避するために、特許文献1の従来技術では、HMDに対して、外界からの光を透過から遮蔽まで段階的に通すことができる白黒液晶パネルと、センサを装備する。そして、センサが急激な動きや衝撃などを検知した場合に、白黒液晶パネルを透過状態にして、外界が見えるようにする。これにより、ユーザは外界の障害物を避けることが可能になる。
 また特許文献2の従来技術では、HMDを装着したユーザの正面方向を撮影する撮影装置と、正面方向にある物体との距離を測定する距離計を設ける。そして距離計の測定結果に基づいて、ユーザの正面方向に障害物があると判定された場合に、撮影装置で撮影した映像データをHMDの画面に表示する。この際に映像データに対して注意喚起情報も付加する。これにより、ユーザは、撮影装置で撮影した映像データを見ることで、正面の障害物を認識することが可能になり、障害物を避けることが可能になる。
 しかしながら、これらの従来技術では、障害物にぶつかる危険を避けるために、光を透過から遮蔽まで段階的に通すことができる白黒液晶パネルや、正面方向の外界の映像をユーザに見せるための撮影装置が必要になってしまう。このため危険回避のための特別なデバイス(白黒液晶パネル、撮影装置)を備えた専用のHMDが必要になり、このようなデバイスを備えていないHMDにおいては、これらの従来技術の手法を採用できないという問題がある。
 またHMDを利用したゲームにおいては、危険回避のために無闇にゲームが中断されてしまうのは望ましくない。例えばゲームプレイ中に、突然に白黒液晶パネルが透過状態になって、ユーザの視界に外界が見えてしまうような事態は好ましくない。
 本発明の幾つかの態様によれば、頭部装着型表示装置を利用したゲームにおいてより適切な危険報知等を実現できるゲーム装置、処理方法及び情報記憶媒体等を提供できる。
 本発明の一態様は、頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの位置情報を取得する入力処理部と、複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理部と、前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理部と、を含み、前記ゲーム処理部は、前記プレイエリア又は前記ゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合に、前記境界に向かう方向へのプレーヤの移動を抑止する抑止処理を行う第1のイベントを発生し、前記エリアの前記境界を越えたプレーヤの移動が検出された場合に、前記ゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、及びゲームを終了させる処理の少なくとも1つの処理を行う第2のイベントを発生するゲーム装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
 本発明の一態様によれば、プレイエリア又はゲーム装置筐体内で移動するプレーヤの位置情報が取得される。また、複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理が行われ、当該ゲーム空間において所与の視点から見えるゲーム画像が、プレーヤが装着する頭部装着型表示装置に表示される。そして、プレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出されると、第1のイベントが発生する。この第1のイベントでは、当該境界に向かう方向へのプレーヤの移動を抑止する処理が行われる。一方、エリアの境界を越えたプレーヤの移動が検出されると、第2のイベントが発生する。この第2のイベントでは、ゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、及びゲームを終了させる処理の少なくとも1つの処理が行われる。このように本発明の一態様では、第1のイベントでは、境界方向へのプレーヤの移動を抑止する処理が行われる。そして、このような第1のイベントを発生させても、境界を越えたプレーヤの移動が検出された場合には、第1のイベントの処理よりも、より高いレベルの危険報知を実現する第2のイベントが発生する。従って、頭部装着型表示装置を利用したゲームにおいて、より適切な危険報知等を実現できるゲーム装置等の提供が可能になる。
 また本発明の一態様では、前記ゲーム処理部は、前記ゲーム画像とは異なる画像表示に変化させる処理として、前記ゲーム画像の画質を低下させる処理を行ってもよい。
 このようにすれば、第2のイベントの発生により、ゲーム画像の画質が低下することで、プレーヤのゲーム没入度をそれほど低下させずに、境界方向への移動に対する適切な危険報知等を実現できるようになる。
 また本発明の一態様では、前記ゲーム処理部は、前記ゲーム画像の画質を低下させる処理として、前記ゲーム画像の明度、彩度、コントラスト又は解像度を低下させる処理、或いは前記ゲーム画像をカラー画像からモノクロ画像に変更する処理、或いは前記ゲーム画像をぼかす処理を行ってもよい。
 このようにすれば、第2のイベントの発生により、ゲーム画像の明度、彩度、コントラスト又は解像度が低下したり、ゲーム画像がモノクロ画像に変化したり、ゲーム画像がぼけた画像に変化するようになる。従って、プレーヤのゲーム没入度をそれほど低下させずに、境界方向への移動に対する適切な危険報知等を実現できるようになる。
 また本発明の一態様では、前記ゲーム処理部は、前記ゲーム進行態様を変化させる処理として、ゲーム進行を停止する処理を行ってもよい。
 このようにすれば、第2のイベントの発生により、ゲーム進行が停止することで、境界方向への移動に対する適切な危険報知等を実現できるようになる。
 また本発明の一態様では、前記ゲーム処理部は、前記第2のイベントの発生後に、プレーヤが前記エリアの前記境界の内側方向に戻ったことが検出された場合に、前記ゲーム画像とは異なる画像表示を前記ゲーム画像の表示に戻す処理、或いは前記ゲーム進行態様を元に戻す処理を行ってもよい。
 このようにすれば、第2のイベントの発生後に、プレーヤがエリアの境界の内側方向に戻ると、ゲーム画像とは異なる画像表示がゲーム画像の表示に戻る、或いはゲーム進行態様が元に戻るようになる。これによりプレーヤは、通常通りにゲームプレイを続行できるようになる。
 また本発明の一態様では、前記ゲーム処理部は、前記第1のイベントの前記抑止処理として、前記エリアの前記境界に対応する位置に危険報知オブジェクトを表示する処理、警告情報を表示する処理、前記境界に向かう方向側に所与のオブジェクトを出現させる処理、前記境界に向かう方向側にある所与のオブジェクトの表示態様を変化させる処理、或いは前記境界に向かう方向とは異なる方向側にプレーヤの注目オブジェクト又は注目イベントを発生させる処理を行ってもよい。
 このようにすれば、エリアの境界に対応する位置に危険報知オブジェクトを表示したり、警告情報を表示したり、境界に向かう方向側にオブジェクトを出現させたり、境界に向かう方向側にあるオブジェクトの表示態様を変化させたり、境界に向かう方向とは異なる方向側にプレーヤの注目オブジェクト又は注目イベントを発生させることで、境界方向へのプレーヤの移動を効果的に抑止できるようになる。
 また本発明の一態様では、前記ゲーム処理部は、前記第1のイベントでの前記抑止処理を、プレーヤの移動速度に基づき制御してもよい。
 このようにすれば、例えばプレーヤの移動速度が速い場合にも、第1のイベントによる適切な移動の抑止処理を実現できるようになる。
 また本発明の一態様では、前記ゲーム処理部は、前記第2のイベントでの前記ゲーム画像とは異なる画像表示に変化させる処理、前記ゲーム進行態様を変化させる処理、又はゲームを終了させる処理を、プレーヤの移動速度に基づき制御してもよい。
 このようにすれば、例えばプレーヤの移動速度が速い場合にも、第2のイベントによる適切な危険報知等を実現できるようになる。
 また本発明の一態様では、前記ゲーム処理部は、前記第1のイベント又は前記第2のイベントにおいて、振動デバイスを振動させる処理又は警告音を出力する処理を行ってもよい。
 このようにすれば、第1のイベント又は第2のイベントでの処理に加えて、警告のための振動や警告音により、プレーヤに対する適切な危険報知等を実現できるようになる。
 また本発明の一態様では、前記表示処理部は、前記エリアの外側に対応する場所に観客の画像が表示される前記ゲーム画像を、前記頭部装着型表示装置に表示する処理を行ってもよい。
 このようにすれば、例えばプレーヤがゲームプレイに熱中してしまい、現実世界のエリアの外側に対応する場所であって、仮想的なゲーム空間において観客が居る場所の方に、移動して来た場合にも、プレーヤに対する適切な危険報知等を実現できるようになる。
 また本発明の一態様は、頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの少なくとも位置情報を取得する入力処理部と、複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理部と、前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理部と、を含み、前記ゲーム処理部は、前記プレイエリア又は前記ゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合、或いは前記境界を越えたプレーヤの移動が検出された場合に、前記ゲーム画像の明度、彩度、コントラスト又は解像度を低下させる処理、或いは前記ゲーム画像をカラー画像からモノクロ画像に変更する処理、或いは前記ゲーム画像をぼかす処理を行うゲーム装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
 本発明の一態様によれば、プレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出されたり、或いは境界を越えた移動が検出されると、ゲーム画像の明度、彩度、コントラスト又は解像度を低下させる処理、或いはゲーム画像をカラー画像からモノクロ画像に変更する処理、或いはゲーム画像をぼかす処理が行われるようになる。プレーヤは、このように画質が低下したゲーム画像を見ることで、プレーヤの移動が適切な移動ではないことを把握することが可能になる。そして、プレーヤのゲームへの没入度等をそれほど低下させずに、境界方向への移動に対する適切な危険報知等を実現できるようになる。従って、頭部装着型表示装置を利用したゲームにおいて、より適切な危険報知等を実現できるゲーム装置等の提供が可能になる。
 また本発明の他の態様は、頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの位置情報を取得する入力処理と、複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理と、前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理と、を行い、前記ゲーム処理では、前記プレイエリア又は前記ゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合に、前記境界に向かう方向へのプレーヤの移動を抑止する抑止処理を行う第1のイベントを発生し、前記エリアの前記境界を越えたプレーヤの移動が検出された場合に、前記ゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、及びゲームを終了させる処理の少なくとも1つの処理を行う第2のイベントを発生する処理方法に関係する。
 また本発明の他の態様は、頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの少なくとも位置情報を取得する入力処理と、複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理と、前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理と、を行い、前記ゲーム処理部では、前記プレイエリア又は前記ゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合、或いは前記境界を越えたプレーヤの移動が検出された場合に、前記ゲーム画像の明度、彩度、コントラスト又は解像度を低下させる処理、或いは前記ゲーム画像をカラー画像からモノクロ画像に変更する処理、或いは前記ゲーム画像をぼかす処理を行う処理方法に関係する。
本実施形態のゲーム装置の構成例。 図2(A)、図2(B)は本実施形態に用いられるHMDの一例。 図3(A)、図3(B)は本実施形態に用いられるHMDの他の例。 図4(A)、図4(B)はプレイエリアの説明図。 ゲーム装置筺体の説明図。 本実施形態により生成されるゲーム画像の例。 本実施形態により生成されるゲーム画像の例。 本実施形態により生成されるゲーム画像の例。 VR空間でのコンサートホールを俯瞰した図。 ステージでのプレーヤの移動についての説明図。 ステージでのプレーヤの移動についての説明図。 図12(A)~図12(C)は本実施形態の手法の説明図。 第1のイベントにおいて危険報知オブジェクトを表示する手法の説明図。 第2のイベントにおいてゲーム画像とは異なる画像表示に変化させる手法の説明図。 図15(A)、図15(B)は第2のイベントにおいてゲーム進行態様を変化させる手法の説明図。 図16(A)、図16(B)は第2のイベントにおいてゲーム進行を停止したりゲームを終了する手法の説明図。 図17(A)、図17(B)は第1のイベントにおけるプレーヤの移動の抑止手法の説明図。 図18(A)、図18(B)はプレーヤに移動速度に基づいて第1、第2のイベントを制御する手法の説明図。 第1、第2のイベントにおいて警告振動を発生させたり警告音を出力する手法の説明図。 図20(A)、図20(B)は入力情報に基づく第1のゲームの第1のゲーム処理と視線情報に基づく第2のゲームの第2のゲーム処理を行う手法の説明図。 図21(A)~図21(C)は第1、第2のゲームでのプレーヤのゲームプレイの評価手法の説明図。 図22(A)~図22(C)は視線情報を用いた第2のゲームでのプレーヤのゲームプレイの評価手法の説明図。 図23(A)、図23(B)は音楽ゲームである第1のゲームでのプレーヤのゲームプレイの評価手法の説明図。 本実施形態の詳細な処理例を示すフローチャート。 本実施形態の詳細な処理例を示すフローチャート。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
 1.構成
 図1に本実施形態のゲーム装置(画像生成装置、ゲームシステム)の構成例を示す。なお、本実施形態のゲーム装置は図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 入力装置160は、プレーヤが種々の入力情報を入力するための装置である。この入力装置160は、演奏情報入力装置161、振動デバイス164を含むことができる。また入力装置160は、プレーヤがゲームの操作情報を入力するためのゲームコントローラの機能を有していてもよい。ゲームコントローラは、例えば操作ボタン、方向指示キー、ジョイスティック又はレバー等により実現される。この場合にゲームコントローラと演奏情報入力装置161は、一体の筐体で実現してもよいし、別体の筐体で実現してもよい。
 演奏情報入力装置161は、プレーヤの演奏情報を入力するための装置である。例えば本実施形態により実現される音楽ゲームが、歌の演奏ゲームである場合には、入力装置160の入力情報は、歌(ボーカル)の演奏情報となる。そして演奏情報入力装置161は図2(A)で説明するマイク162等により実現される。本実施形態により実現される音楽ゲームが、楽器の演奏ゲームである場合には、入力装置160の入力情報は、楽器の演奏情報となる。そして演奏情報入力装置161は、弦楽器(ギター)、打楽器(ドラム、太鼓)、鍵盤楽器(ピアノ、キーボード)などの楽器、或いは当該楽器を模した装置により実現できる。
 振動デバイス164(振動発生部)は、警告等のための振動を発生するデバイスであり、例えば振動モータ(バイブレータ)などにより実現される。振動モータは、例えば、偏芯した錘を回転させることで振動を発生する。具体的には駆動軸の両端に偏心した錘を取り付けてモータ自体が揺れるようにする。なお振動デバイス164は、振動モータには限定されず、例えばピエゾ素子などにより実現されるものであってもよい。
 記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SDD、光ディスク装置などにより実現できる。記憶部170は、空間情報記憶部172、楽曲情報記憶部174、パラメータ記憶部176、描画バッファ178を含む。
 情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
 頭部装着型表示装置200(以下、適宜、HMDと呼ぶ)は、プレーヤの頭部に装着されて、プレーヤの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。
 HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、プレーヤの視点位置、視線方向を特定できる。
 トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(プレーヤの頭部)の位置、方向を特定する、第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。
 HMD200の表示部220は例えば液晶ディスプレイ(LCD)や有機ELディスプレイなどにより実現できる。例えばHMD200には、表示部220として、プレーヤの左目の前に配置される第1のディスプレイと、右目の前に配置される第2のディスプレイが設けられており、例えば立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左目用画像と右目用画像を生成し、第1のディスプレイに左目用画像を表示し、第2のディスプレイに右目用画像を表示すればよい。
 HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240は、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現する。即ち、3次元空間での音場を制御する処理を行う。このような3次元音響処理が施された音は、HMD200に設けられたヘッドホン端子を介して、ヘッドホン等により実現される音出力部192に出力される。
 音出力部192は、本実施形態により生成された音を出力するものであり、例えばヘッドホン、或いはテレビやオーディオ装置に設けられたスピーカ等により実現できる。
 I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。
 通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。
 なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置195)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。
 処理部100(プロセッサ)は、入力装置160からの入力情報やHMD200でのトラッキング情報(HMDの位置、方向、或いは視点位置、視線方向)と、プログラムなどに基づいて、ゲーム処理、ゲーム成績演算処理、表示処理、或いは音処理などを行う。
 処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
 処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、ゲーム処理部111、ゲーム成績演算部118、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 入力処理部102は、入力情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、入力装置160を用いてプレーヤが入力した入力情報やHMD200のセンサ部210等により検出されたトラッキング情報(プレーヤの位置情報、視線情報等)を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、ゲーム装置の外部装置(サーバ、他のゲーム装置等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。
 演算処理部110は、各種の演算処理を行う。例えばゲーム処理、ゲーム成績演算処理、表示処理、或いは音処理などの演算処理を行う。
 ゲーム処理部111(ゲーム処理のプログラムモジュール)はプレーヤがゲームをプレイするための種々のゲーム処理を行う。ゲーム処理部111は、ゲーム進行処理部112、評価処理部113、キャラクタ処理部114、パラメータ処理部115、オブジェクト空間設定部116、仮想カメラ制御部117を含む。
 ゲーム進行処理部112は、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などを行う。評価処理部113は、プレーヤのゲームプレイの評価処理を行う。例えば音楽ゲームでのプレーヤの演奏や、ゲーム操作についての評価処理を行う。音楽ゲームに使用される楽曲情報は楽曲情報記憶部174に記憶される。
 キャラクタ処理部114は、キャラクタに関する種々の処理を行う。例えばオブジェクト空間(ゲーム空間)においてキャラクタを移動させる処理や、キャラクタを動作させる処理を行う。例えばキャラクタを動作させる処理は、モーションデータを用いたモーション処理(モーション再生等)により実現できる。パラメータ処理部115は、ゲームに使用される種々のパラメータ(ゲームパラメータ)の演算処理を行う。例えばパラメータの値を増減させる処理を行う。パラメータの情報はパラメータ記憶部176に記憶される。
 オブジェクト空間設定部116は、複数のオブジェクトが配置されるオブジェクト空間(仮想3次元空間)の設定処理を行う。例えば、キャラクタ(人、動物、ロボット等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170の空間情報記憶部172には、オブジェクト空間での複数のオブジェクト(パーツオブジェクト)の位置、回転角度(方向)等の情報が空間情報として記憶される。オブジェクト空間設定部116は、例えば各フレーム毎にこの空間情報を更新する処理などを行う。
 仮想カメラ制御部117は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。この仮想カメラはプレーヤの視点に相当する。立体視表示の場合は、左目用の第1の視点(左目用の第1の仮想カメラ)と、右目用の第2の視点(右目用の第2の仮想カメラ)が設定される。
 ゲーム成績演算部118はプレーヤのゲーム成績を演算する処理を行う。例えばプレーヤのゲームプレイにより獲得された得点、ポイントなどのゲーム成績の演算処理を行う。
 表示処理部120は、ゲーム画像の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、HMD200の表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点。左目用、右目用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。
 音処理部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。
 出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、ゲーム装置の外部装置(サーバ、他のゲーム装置等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。
 そして本実施形態のゲーム装置は、図1に示すように、入力処理部102、ゲーム処理部111、表示処理部120を含む。入力処理部102は、HMD200(頭部装着型表示装置)を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの位置情報を取得する。例えばトラッキング処理によりHMD200の位置情報、方向情報が検出された場合に、入力処理部102は、例えばHMD200の位置情報をプレーヤの位置情報として取得する。また入力処理部102は、HMD200の位置情報、方向情報により特定されるプレーヤの視点位置情報、視線情報(視線方向情報)を取得する。
 ゲーム処理部111は、複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行う。例えばオブジェクト空間であるゲーム空間(仮想3次元空間)には、キャラクタ等の複数のオブジェクトが配置されており、ゲーム処理部111は、このゲーム空間でのゲームを実現するための種々のゲーム処理(ゲーム進行処理、キャラクタ処理、オブジェクト空間設定処理、或いは仮想カメラ制御処理等)を実行する。そして表示処理部120は、ゲーム空間において所与の視点(左目用、右目用の第1、第2の視点)から見えるゲーム画像を、HMD200の表示部220(第1、第2のディスプレイ)に表示する処理を行う。即ち、ゲーム空間であるオブジェクト空間において、プレーヤの視点(仮想カメラ)から見えるゲーム画像を表示する処理を行う。この場合のプレーヤの視点は、プレーヤの視点位置情報、視線情報(視線方向情報)により設定される。
 そして本実施形態では、ゲーム処理部111は、プレイエリア又はゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合に、第1のイベントを発生する。例えばエリアの境界に向かう方向へのプレーヤの移動を抑止する抑止処理を行う第1のイベントを発生する。
 一方、ゲーム処理部111は、エリアの境界を越えたプレーヤの移動が検出された場合に、第2のイベントを発生する。例えばゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、及びゲームを終了させる処理の少なくとも1つの処理を行う第2のイベントを発生する。
 プレイエリア(プレイフィールド、プレイスペース)は、ユーザがゲームプレイを行うエリア(フィールド、スペース)として予め規定(設定)されているエリアである。このプレイエリアは、例えばプレーヤの位置情報等のトラッキングが可能な範囲を内包するエリアである。プレイエリアは、例えば周囲が壁で囲まれたエリアであってもよいが、オープンスペースのエリアであってもよい。ゲーム装置筐体内とは、ゲーム装置が、その内側にプレーヤが入ることができる筐体を有している場合に、その筐体の内部の空間である。ゲーム装置筐体内には、プレーヤがゲームプレイに使用する各種の装置(例えば操作装置)、機具を設けることができる。
 本実施形態では、このようなプレイエリア又はゲーム装置筐体内に、プレーヤの移動範囲として想定されるエリアが設定(規定)される。このエリアは、ゲーム装置のイニシャライズ設定において、例えばオペレータがエリアの設定情報(座標等)を入力することで設定されてもよい。例えばエリアの設定情報を登録情報として記憶部170に記憶しておく。
 そして本実施形態では、このエリアの境界へのプレーヤの接近又は到達が検出された場合に、第1のイベントが発生する。この場合にエリアの境界へのプレーヤの接近又は到達は、入力処理部102により取得されたプレーヤの位置情報等に基づいて検出できる。例えばプレーヤの位置と境界との距離を求めたり、プレーヤの位置と境界との交差判定を行うことで、エリアの境界へのプレーヤの接近又は到達を検出できる。
 発生した第1のイベントでは、エリアの境界に向かう方向へのプレーヤの移動を抑止する抑止処理が行われる。これによりプレーヤは、移動を停止してその場に留まったり、エリアの境界に向かう方向の逆方向や、エリアの境界に向かう方向と交差する方向などに移動するようになる。この抑止処理は、ゲーム空間に出現するオブジェクトを用いて行うことができる。例えば第1のイベントの発生時に、抑止処理のためのオブジェクトをゲーム空間に出現させ、このオブジェクトを用いて、エリアの境界に向かう方向へのプレーヤの移動を抑止する。
 一方、本実施形態では、エリアの境界を越えたプレーヤの移動が検出されると、第2のイベントを発生する。例えばプレーヤの位置(代表位置)がエリアの境界を越えた瞬間に、第2のイベントを発生してもよいし、境界を越えてから所定距離移動した場合や所定時間経過後に、第2のイベントを発生してもよい。そして第2のイベントが発生すると、ゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、或いはゲームを終了させる処理が行われる。こうすることで、第1のイベントでの抑止処理によっては、境界方向への移動を停止せず、そのまま境界を越えて移動してしまったプレーヤに対して、更に高いレベルで移動の停止を促すことができる。
 例えばゲーム処理部111は、ゲーム画像とは異なる画像表示に変化させる処理として、ゲーム画像の画質を低下させる処理を行う。即ち、第2のイベントの発生時には、プレーヤがエリア内で通常にゲームをプレイしている場合に表示されるゲーム画像に比べて、画質(表示品質)を低下させる処理を行う。例えばゲーム処理部111が表示処理部120(画像処理部)に指示して、第2のイベントの発生時にゲーム画像の画質を低下させる。
 具体的にはゲーム処理部111は、ゲーム画像の画質を低下させる処理(ゲーム画像とは異なる画像表示に変化させる処理)として、ゲーム画像の明度、彩度、コントラスト又は解像度を低下させる処理、或いはゲーム画像をカラー画像からモノクロ画像に変更する処理、或いはゲーム画像をぼかす処理を行う。例えばゲーム画像の明度を低下させて、通常時のゲーム画像よりも画面を暗くする。或いはゲーム画像の彩度を低下させて、通常のゲーム画像よりも色味が少ない画像にする。或いはゲーム画像のコントラストを低下させて、ゲーム画像の明るい部分と暗い部分の輝度の差を小さくする。或いは、ゲーム画像を構成するピクセル数を少なくして解像度を低下させる。或いは通常時にはカラー画像(RGB)であったゲーム画像を、モノクロ画像に変更する。或いは、ゲーム画像に対してぼかしフィルター処理などを行って、通常時のゲーム画像よりもぼけた画像を表示する。これらのゲーム画像の画質を低下させる処理は、例えばゲーム画像であるレンダリング画像のポスト処理の画像処理等を行うことで実現できる。具体的にはゲーム処理部111が、ゲーム画像であるレンダリング画像の画質を低下させる画像処理を、例えば表示処理部120に指示することで実現できる。
 なおゲーム画像の画質を低下させる処理は、上記に例示した処理には限定されず、そのままの状態でのプレーヤのゲーム続行を躊躇させるような種々の画質低下処理を想定できる。またゲーム画像とは異なる画像表示に変化させる処理も、ゲーム画像の画質を低下させる処理には限定されず、種々の変形実施が可能である。例えば画像の全体の見え方が、ゲーム画像とは異なる画像表示に変化する処理であればよい。例えば、ゲーム画像とは異なる画像表示に変化させる処理として、ゲーム画像とは全く異なる画像を表示してもよい。例えば、単色のワイヤーフレームの画像を表示するようにしてもよい。またゲーム画像に表示される表示物の形状や輪郭がほんの少しだけ残るような画像を表示するようにしてもよい。
 なおゲーム処理部111は、エリアの境界へのプレーヤの接近又は到達が検出された場合に、ゲーム音の出力態様を変化させる処理を行ってもよい。例えばゲーム音の出力態様を変化させる処理として、ゲーム音のボリューム(音量)を下げる処理を行う。即ち、第2のイベントの発生時には、プレーヤがエリア内で通常にゲームを行っている場合に出力されるゲーム音(楽曲、BGM等)に比べて、ボリュームを下げる処理を行う。例えばゲーム処理部111が音処理部130に指示して、第2のイベントの発生時にゲーム音のボリュームを下げる。なおゲーム音の出力態様を変更する処理は、このようなゲーム音のボリュームを下げる処理には限定されず、そのままの状態でのプレーヤのゲーム続行を躊躇させるような種々の処理を想定できる。例えば通常時のゲーム音に対して変調をかけたり、付加的な効果音等をゲーム音にミックスする処理などであってもよい。
 またゲーム処理部111は、ゲーム進行態様を変化させる処理として、ゲーム進行を停止する処理を行う。例えばゲーム空間での時間経過を停止したり、ゲーム画像の動画再生を停止することなどにより、ゲーム進行を停止(一時停止)する。なお、ゲーム進行態様を変化させる処理としては、種々の処理を想定できる。例えばゲーム処理は、予め決められたシーケンスに沿ってゲームが進行するが、第2のイベントの発生時には、当該シーケンスを変更するゲーム進行態様の変化処理が実行される。例えばゲーム進行態様を変化させる処理として、ゲームをスタート状態に戻す処理を行ってもよい。例えば、プレーヤのコイン投入やゲーム内通貨の支払いなどによりゲームがスタートして、ゲームプレイ(1回のゲームプレイ)が可能になるゲームにおいて、ゲームをスタート時の状態に戻して(ゲームをリセットして)、ゲームプレイのやり直しとする。
 またゲーム処理部111は、第2のイベントの発生後に、プレーヤがエリアの境界の内側方向に戻ったことが検出された場合に、ゲーム画像とは異なる画像表示をゲーム画像の表示に戻す処理、或いはゲーム進行態様を元に戻す処理を行う。例えば第2のイベントの発生時にゲーム画像の画質を低下させていた場合には、低下した画質を通常時の画質に戻す。またゲーム画像とは全く異なる画像を表示していた場合には、この画像表示をゲーム画像の表示に戻す。また第2のイベントの発生時にゲーム進行を停止していた場合には、停止していたゲーム進行を再開し、通常のゲーム進行に戻す。
 またゲーム処理部111は、第1のイベントの抑止処理として、エリアの境界に対応する位置に危険報知オブジェクトを表示する処理、警告情報を表示する処理、境界に向かう方向側に所与のオブジェクトを出現させる処理、境界に向かう方向側にある所与のオブジェクトの表示態様を変化させる処理、或いは境界に向かう方向とは異なる方向側にプレーヤの注目オブジェクト又は注目イベントを発生させる処理を行う。
 例えば第1のイベントの発生時に、エリアの境界に対応するVR空間での位置(境界位置、或いは境界の手前側や奥側の位置)に、危険報知オブジェクトを表示する。即ち、オブジェクト空間であるゲーム空間において、エリアの境界に対応する位置に危険報知オブジェクトを出現させる。この危険報知オブジェクトは、例えばゲーム画像の全体に表示させることが望ましいが、その形状等は問わない。或いは第1のイベントの発生時に、警告の文字や記号等を表示する。或いは第1のイベントの発生時に、境界に向かう方向側に例えばモンスターやアバター等のオブジェクト(モデルオブジェクト)を出現させる。例えばプレーヤが逃げたくなるような形状、性質のオブジェクトを出現させる。或いは、境界に向かう方向側にある所与のオブジェクトの表示態様を変化させる。例えば境界方向側(境界に向かう方向側)にあるオブジェクトの色、テクスチャなどの画像情報や形状情報を変化させる。例えば境界方向側にプレーヤが移動するのを抑止(躊躇)したり、危険報知を知らせるような表示態様に、当該オブジェクトの表示態様を変化させる。或いは第1のイベントの発生時に、境界に向かう方向とは異なる方向側にプレーヤの注目オブジェクト又は注目イベントを発生させて、これらの注目オブジェクトの方向や注目イベントの発生場所の方向に、プレーヤの移動を誘導する。例えば重要事象となる注目オブジェクトや注目イベントを発生する。例えば境界の方向は行き止まりとなり、境界方向とは異なる方向に道が開けて見えるような注目イベントを発生する。
 またゲーム処理部111は、第1のイベントでの抑止処理を、プレーヤの移動速度に基づき制御する。例えば第1のイベントの発生タイミングをプレーヤの移動速度に基づき制御する。例えばプレーヤの移動速度が速いほど第1のイベントの発生タイミングが早くなるように制御する。またエリアの境界の接近時に第1のイベントを発生する場合に、境界への接近と判定される判定距離を、プレーヤの移動速度に基づき制御する。例えばプレーヤの移動速度が速いほど、当該判定距離を長くする。
 またゲーム処理部111は、第2のイベントでのゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、又はゲームを終了させる処理を、プレーヤの移動速度に基づき制御する。例えば画像表示を変化させるタイミングや進行態様を変化させるタイミングやゲームを終了させるタイミングを、移動速度に基づき制御する。例えばプレーヤの移動速度が速いほどこれらのタイミングが早くなるように制御する。また画像表示の変化の度合いを、移動速度に基づいて制御する。例えばプレーヤの移動速度が速いほど、これらの変化の度合いが大きくなるように制御する。
 またゲーム処理部111は、第1のイベント又は第2のイベントにおいて、振動デバイス164を振動させる処理又は警告音を出力する処理を行う。例えば第1のイベントの発生時に、境界に向かう方向へのプレーヤの移動を抑止する処理を行うと共に、振動デバイス164を振動させたり、音出力部192により警告音を出力する。或いは第2のイベント発生時に、ゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、或いはゲームを終了させる処理を行うと共に、振動デバイス164を振動させたり、音出力部192により警告音を出力する。なお、このような警告のための振動デバイスは、入力装置160以外の装置に設けられる振動デバイスであってもよい。例えばHMD200等に設けられる振動デバイスであってもよい。
 また表示処理部120は、エリアの外側に対応する場所に観客の画像が表示されるゲーム画像を、HMD200に表示する処理を行う。例えばゲーム空間において、エリアの外側に対応する場所に、観客席を設定配置する。そして現実世界においてプレーヤがエリアの境界に接近した場合には、ゲーム空間においては、プレーヤに対応する仮想プレーヤ(ゲーム空間でのプレーヤの視点)が観客席に接近するようにする。また現実世界においてプレーヤがエリアの境界を越えて移動した場合には、ゲーム空間においては、仮想プレーヤが観客席に侵入するようにする。
 なお本実施形態の処理は上述した処理には限定されず、種々の変形実施が可能である。例えばゲーム処理部111は、プレイエリア又はゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合、或いは境界を越えたプレーヤの移動が検出された場合に、ゲーム画像の明度、彩度、コントラスト又は解像度を低下させる処理、或いはゲーム画像をカラー画像からモノクロ画像に変更する処理、或いはゲーム画像をぼかす処理を行ってもよい。例えば第1のイベントは発生させずに、境界への接近又は到達、或いは境界を越えた移動が検出された場合に、ゲーム画像の画質を低下させる処理を行うようにする。
 2.本実施形態の手法
 次に本実施形態の手法について具体的に説明する。なお、以下では本実施形態の手法が適用されるゲームが、歌の演奏を行う音楽ゲーム(ライブステージのゲーム、カラオケゲーム等)である場合を主に例にとり説明する。しかしながら、本実施形態の手法が適用されるゲームは、これに限定されず、例えば弦楽器(ギター等)、打楽器(ドラム、太鼓等)、或いは鍵盤楽器(キーボード、ピアノ)等の楽器を演奏する音楽ゲーム(リズムや演奏の上手さを競うゲーム)などであってもよい。また本実施形態の手法は、異性キャラクタ等とのコミュニケーションゲーム(人間関係シミュレーションゲーム)、戦闘ゲーム、RPGゲーム、ロボットゲーム、カードゲーム、スポーツゲーム、或いはアクションゲーム等の種々のゲームにも適用可能である。
 2.1 HMD
 図2(A)に本実施形態のゲーム装置に用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面側に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。
 またプレーヤPLは、左手、右手で入力装置160-1、160-2を持っている。入力装置160-1、160-2には、HMD200と同様に複数の受光素子(不図示)が設けられている。また入力装置160-1にはマイク162(音入力デバイス)が設けられており、プレーヤPLは歌の演奏ゲームにおいてマイク162に口を向けて歌うことになる。また入力装置160-1、160-2はゲームコントローラとしても機能し、不図示の操作ボタン、方向指示キー等が設けられている。なおプレーヤが持つ入力装置160の個数は1個であってもよい。
 またHMD200には、ヘッドバンド260等が設けられており、プレーヤPLは、より良い装着感で安定的に頭部にHMD200を装着できるようになっている。また、HMD200には、不図示のヘッドホン端子が設けられており、このヘッドホン端子にヘッドホン270(音出力部192)を接続することで、例えば3次元音響(3次元オーディオ)の処理が施されたゲーム音を、プレーヤPLは聴くことが可能になる。そしてプレーヤPLは、ゲームコントローラとして機能する入力装置160-1、160-2を操作したり、頭部の頷き動作や首振り動作を行うことで、操作情報を入力し、ゲームプレイを楽しむ。頷き動作や首振り動作は、HMD200のセンサ部210等により検出できる。
 図2(B)に示すように、プレーヤPLのプレイエリアにはベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201~203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキングが実現され、プレーヤPLの頭の位置や向く方向を検出できるようになる。また入力装置160-1、160-2に設けられた不図示の受光素子が、ベースステーション280、284からのレーザーを受光することで、入力装置160-1、160-2のトラッキングが実現され、入力装置160-1、160-2の位置や方向を検出できるようになる。これにより、例えばゲーム画像に、入力装置160-1に対応するマイクの画像等を表示することが可能になる。
 図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231~236が設けられている。これらの発光素子231~236は例えばLEDなどにより実現される。発光素子231~234は、HMD200の前面側に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231~236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231~236は、互いに異なる色の光を出射する。そして図3(B)に示す撮像部150をプレーヤPLの前方側に設置し、この撮像部150により、これらの発光素子231~236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231~236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、プレーヤPLの頭部(HMD)のトラッキングを実現する。即ちプレーヤPLの頭部の3次元位置や動き等を検出する。
 例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、プレーヤPLの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、プレーヤPLの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、プレーヤPLが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想3次元空間での画像(プレーヤの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。なお、発光素子231~236として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、プレーヤの頭部の位置や動き等を検出するようにしてもよい。
 なお、プレーヤの視点情報(視点位置、視線方向等)、位置情報等を検出するトラッキング処理の手法は、図2(A)~図3(B)で説明した手法には限定されない。例えばHMD200に設けられたモーションセンサ等を用いて、HMD200の単体でトラッキング処理を実現してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法により、プレーヤの視点情報等を検出してもよい。例えばアイトラッキングでは、プレーヤの左目、右目の瞳の位置や形状等を認識する。そして、左目の位置、右目の位置、左目の視線方向、右目の視線方向等を特定し、プレーヤの視点情報を取得することで、視点トラッキングを実現する。このアイトラッキングは、例えば撮像部によりプレーヤの左目、右目を撮影し、その撮像画像に対して瞳等の画像認識処理を行うことなどで実現できる。また、フェイストラッキングでは、撮像部でプレーヤの顔を撮像し、顔の画像認識処理を行う。そして、画像認識処理の結果に基づいて、プレーヤの顔の位置や向く方向を特定して、プレーヤの視点位置、視線方向を求めて、視点トラッキングを実現する。
 2.2 プレイエリア、ゲーム装置の筺体
 図4(A)、図4(B)に本実施形態のゲームが実現されるプレイエリアの一例を示す。このプレイエリアは、ボックス状の防音の個室により実現される。図4(A)に示すようにボックスの個室は、壁301、302、303、304やドア306や通気設備307、308を有する。また図4(B)に示すようにボックスの底面にはキャスター310、312が設けられており、移動可能になっている。プレーヤPLはドア306を開けて個室内に入り、ゲームをプレイする。この個室内の空間がプレーヤPLのプレイエリア(プレイ空間)になる。
 そして図4(A)に示すように、ボックスの個室のプレイエリアには、プレーヤPLの移動範囲として想定されるエリアARが設定される。このエリアAR内では、ベースステーション280、284等を用いたプレーヤPLの視点情報(視点位置、視線方向)や位置情報のトラッキングが可能になっている。一方、エリアARの境界BDを越えた位置では、確実なトラッキングを実現できない。またプレーヤPLがエリアARの境界BDを越えると、壁301、302、303、304にぶつかるおそれがあり、安全面の上で望ましくない。エリアARの設定は、例えばゲーム装置のイニシャライズ設定などにより、その範囲を設定可能になっている。
 図5はゲーム装置筺体320の一例である。図5ではゲーム装置は大型のゲーム装置筺体320を有しており、プレーヤはゲーム装置筺体320内に入ってゲームをプレイできるようになっている。ゲーム装置筺体320の内部には、例えば各種の装置(操作装置)、機具、シート(椅子)等が設けられる。プレーヤは、ゲーム装置筺体320の内部に入り、HMD200を頭部に装着して、VR(バーチャルリアリティ)の世界でのゲームを楽しむ。
 2.3 ゲームの概要
 次に、本実施形態の手法により実現されるゲームの概要について説明する。本実施形態により実現されるゲームは、本物のライブステージのような臨場感の中、バンドのボーカルになりきって、ボーカル演奏を行う音楽ゲームである。プレーヤは、大観衆を目前にして歌うという、かつてない高揚感を感じつつ、自分のファンからの歓声を全身に浴びる強烈な快感を得ることができる。HMDと大出力のサラウンドスピーカーにより、まるで本物のライブステージに出演し、自分のファンに囲まれて歌っているかのような、臨場感を得ることができる。
 ステージの周りの観客は、プレーヤのボーカル演奏やステージアクションに反応して、派手な声援や様々なアクションをインタラクティブに返してくる。HMDによる、まるでその場に立っているかのような臨場感のライブステージの上で、表情まで見える最前列のファンをはじめ、会場を埋める満員の観客の前で、バンドメンバーの演奏と共に、自分の歌とライブパフォーマンスを行って、観客の期待に応える。
 プレーヤは共有スペースに設けられた受け付けスペースで、入室時間の予約やプレイ設定を行い、図4(A)、図4(B)に示すようにクッション材の貼られた安全な個室内で、ライブ出演体験を楽しむ。
 プレーヤは、ステージ出演前のプレイ設定において、コンサート出演モードを選択する。その後、歌う曲の選択を行い、出演ステージを選択する。そして図2(A)、図2(B)等で説明したHMD200、入力装置160-1、160-2などのデバイスを装着する。店舗のオペレータが、注意事項等を説明し、プレーヤのデバイス装着及び調整を補助する。プレイエリアである個室空間のキャリブレーション(イニシャライズ)は、オペレータが事前に行う。
 図2(A)の入力装置160-1は、マイク&ゲームコントローラになっている。VR空間内では、プレーヤ(仮想プレーヤ)の腕や手は描画されないが、プレーヤが手で持っている入力装置160-1等の位置がセンシングされ、同じ位置にマイク画像が描画され、プレーヤの動きに応じてマイク画像が動くようになる。
 プレーヤは、VR空間のスタンバイルームで、ボーカルのキー調整を行う。スタンバイルームは、ステージの下の待機スペースである。VR空間においてプレーヤが立っているスペースは大きなリフトになっていて、本番時にはステージ上にせり上がる。
 リフトが上昇しステージが近づいて来るのに合わせて、遠くから聞こえていたホールの歓声や掛け声が徐々に大きくなり、迫力を増し、且つ、生々しく変化する。ステージ上にプレーヤが出現すると、プレーヤに向けて前方から逆光のスポットライトが当てられ、プレーヤの登場で最高潮に達した大歓声が起こる。プレーヤの開始アクションの入力(例えばハンドアクション)で演奏がスタートして、ライブシーケンスに移行する。
 ライブの本番ではプレーヤは、思う存分、ステージでの熱唱を楽しむ。図6、図7、図8は、ステージ上のプレーヤのHMD200に表示されるゲーム画像(VR空間での画像)の例である。図6、図7に示すようにプレーヤの目の前には満員の観客が映し出される。図6はプレーヤが正面を向いた場合のゲーム画像であり、図7は、プレーヤが右方向を向いた場合のゲーム画像である。プレーヤが後ろを振り向くと、図8に示すようにドラムやアンプやスクリーン等が映し出されたゲーム画像が表示される。ライブステージは、図9に示すように、現実世界と同様にドームDOMに囲まれた巨大なコンサートホールで行われる。VR空間のコンサートホールには多数の観客が訪れており、プレーヤのボーカル演奏により、観客の歓声は最高潮になる。なおVR空間においてプレーヤの足元に設置されたモニターには、歌詞や音程表示が映し出される。プレーヤは必要であれば、これらの歌詞や音程表示を見ながらボーカル演奏を行う。
 図6、図7、図8に示すように、HMD200を用いる本実施形態のゲーム装置では、プレーヤの全周囲の方向に亘って、ゲーム空間であるVR空間の世界が広がる。例えばHMD200を装着したプレーヤが前方向を向けば、図6のゲーム画像がHMD200に表示され、右方向を向けば、図7のゲーム画像が表示される。また後ろ方向を向けば、図8のゲーム画像が表示される。従って、多数の観客が歓声を上げる巨大なコンサートホールにおいて、ボーカル演奏しているかのような仮想現実感をプレーヤに与えることができる。従って、従来のゲーム装置に比べて、プレーヤのゲームへの没入度等を格段に向上できるようになる。
 また本実施形態では、曲の抑揚に合わせて観客の動き(アクション)や歓声が変化する。またプレーヤのアクションに応じるように、観客の動きや歓声が変化する。例えば図6において、プレーヤが立つステージの近くの観客AD1~AD7は、例えば多数のポリゴンで構成されるポリゴンモデルのオブジェクトにより表現されている。図7の観客AD8~AD11も同様である。一方、ステージから遠い位置にいる観客は、プレーヤの視線に正対するビルボードポリゴンに描かれた画像により表現されている。
 ポリゴンモデルの観客(AD1~AD11)は、例えばモーションデータによるモーション再生によりその動きが表現されている。これらの観客は、曲のリズムにのって基本アクション(基本モーション)を行う。観客のアクションには、曲中の盛り上がり度合いを表現するための段階がある。この段階は、基本的に曲の抑揚に依存して上下する。また、プレーヤのパフォーマンスに対する評価が良好になることによっても、段階が上がる場合がある。
 観客は、プレーヤの声や動きに応じも、インタラクティブにリアクションする。プレーヤが、例えば「特定の方向を向いて歌う」、「手を振る」といったアクションを行うことで、その方向の観客のテンションが上がり、基本アクションが、1段階、派手になったり、或いは曲のリズムとは関係ない突発的な盛り上がりアクションを行うようになる。
 ステージ上でのプレーヤのゲームプレイに対する評価処理としては、2つの評価処理がある。第1の評価処理は、特定の観客を盛り上げるパフォーマンスをどれだけ出来たかについての評価処理である。即ち、特定の観客をどれだけ熱狂させられたかである。第2の評価処理は、プレーヤが歌を上手く歌えたかどうかについての評価処理である。
 第1の評価処理による評価システムは、プレーヤのプレイ中の観客からのフィードバックが得られるメインの評価システムである。この評価システムでは、プレーヤに向けて何らかのアピールのアクションをしてくる観客がターゲットになる。例えば図6では、観客AD4が、右手を高く上げてプレーヤに対してアピールのアクションを行っており、この観客AD4がターゲットになる。また図7ではアピールのアクションを行っている観客AD10がターゲットになる。なお、群れをなす複数人の観客をターゲットにするようにしてもよい。例えば図7において観客AD3、AD4、AD5がターゲットになってもよい。
 これらのアピールする観客に対して、プレーヤが下述する第1、第2のアクションを行うことで、これらの観客の熱狂度パラメータ(熱狂度ゲージ)の値が上昇する。そして熱狂度パラメータが最大値になると、これらの観客が、大喜びを表現する熱狂アクションを行うようになる。この熱狂アクションは、曲のリズムとは無関係に狂喜するアクションなどである。
 アピールする観客に対してプレーヤが行う第1のアクションは、そのターゲットの観客の方に視線を向けて歌うアクションである。この第1のアクションが評価されるのは、楽曲の歌唱パートと間奏パートのうち、歌唱パートにおいてである。
 アピールする観客に対してプレーヤが行う第2のアクションは、観客からの掛け声に合わせてプレーヤが腕を上げるアクション(動き)である。或いは間奏パートにおいて、観客からのかけ声に合わせてプレーヤが発声するアクションである。
 これらの第1、第2のアクションのターゲットとなる観客は、例えばランダムにコンサートホール内で発生する。プレーヤの1曲の演奏におけるターゲットの数は所定数に決まっている。ターゲットとなる所定数の全ての観客について、熱狂度パラメータが最大値になり盛り上げに成功すると、所定数のターゲットを全クリアしたとして、プレーヤが最大限に評価される。例えばターゲットとなる観客の数が10人である場合に、これらの10人の全ての観客の熱狂度パラメータが最大値に達すると、ターゲットを全クリアしたと評価される。この場合に、ターゲットのクリア数に応じて、最後のステージエフェクトの種類が変化する。例えば10人のターゲットの全てをクリアした場合には、最後のステージにおいて最も派手なエフェクトが発生する。また例えば8人のターゲットをクリアした場合には、5人のターゲットをクリアした場合に比べて、より派手なエフェクトが発生する。
 第2の評価処理による評価システムは、プレーヤの歌の音程とリズムの検知による評価システムであり、プレーヤには明示しないポイントの加算で評価する。具体的には、リズムに合わせた発声が出来たかを評価する。例えば、ベース又はドラムの演奏の指定タイミングに合わせて、プレーヤが発声できると、ポイントが加算される。また、ロングトーンの上手さや、休符についての正確性なども評価される。また音程の正確性も評価する。即ち、プレーヤの歌の音程判定を行い、正解な音程で歌った音程をグラフ的に表示する。なお、プレーヤの音量がゼロの状態が一定時間、継続すると、観客の多くは待機モーションに移行し、その間はプレーヤはポイント加算を得ることができない。
 プレーヤの演奏が終了し、ライブステージを通してのプレーヤの評価結果が一定基準を満たすと、観客はアンコールを求めて来る。そのアンコールに応えることで、プレーヤは更に1曲、追加で演奏できるようになる。そしてライブステージの終了時には、フェードアウトする歓声の中で、照明はさらに暗くなり、ブラックアウトして終了する。その後、「お疲れ様でした、HMDを外してください」といった表示及びガイド音声が流れる。そしてプレーヤは装備を外して個室から退室し、ゲームプレイの終了となる。
 2.4 第1、第2のイベント
 以上のように本実施形態のゲーム装置によれば、あたかも本物のライブホールで、熱狂する観客の前でライブ演奏したかのような仮想現実感を、プレーヤに与えることができる。そして図6、図7に示すようにプレーヤの目の前には、プレーヤの演奏に熱狂する観客が映し出されるため、興奮したプレーヤがVR空間の観客の方に向かって移動してしまうおそれがある。
 例えば図10は、VR空間においてプレーヤPLが立つステージSGを、上方から俯瞰した様子を示す図である。なお図10のプレーヤPLは、実際にはVR空間での仮想プレーヤであるが、本実施形態では説明の簡素化のために、現実世界のプレーヤと仮想プレーヤを同一の符号PLで表している。
 ステージSGは境界BDSにより区画されており、ステージSGの周りの観客席SE1、SE2、SE3には、図6、図7に示すようにアクションする観客が配置されている。このステージSGの境界BDSは、例えば図4(A)の現実世界のプレイエリアのエリアARの境界BDに対応している。一例としては、図4(A)の現実世界のエリアARの境界BDから例えば所定距離だけ内側に対応する位置に、VR空間でのステージSGの境界BDSが設定されている。
 そして図10においてステージSGに立つプレーヤPLは、図6、図7に示すように観客(AD1~AD11)に囲まれてライブ演奏を行っている。従って、図6のように熱狂する観客を見て興奮したプレーヤPLが、これらの観客に近づこうとして、図11に示すようにステージSGの外側に移動してしまう事態が生じる。
 このような事態が生じると、図4(A)の現実世界において、プレーヤPLが部屋の壁301等にぶつかるおそれがあり、安全面の上で望ましくない。
 そこで本実施形態では、このような状況を回避するために、危険報知のための第1、第2のイベントを発生する手法を採用している。即ち、2段階でイベントを発生させることで、危険報知が原因でゲームへの没入感が阻害されるのを最小限に抑えながら、プレーヤが壁にぶつかるなどの事態の発生についても効果的に抑制する。
 具体的には図12(A)において、プレイエリア(或いはゲーム装置筐体内)に設定されたエリアARの境界BDへのプレーヤPLの接近(又は到達)が検出されたとする。例えばエリアARの境界BDから距離LBの範囲にプレーヤPLが位置した場合に、プレーヤPLが境界BDに接近したと判定する。この場合には第1のイベントを発生する。そしてプレーヤPLから境界BDに向かう方向をDR1方向とした場合に、第1のイベントでは、DR1方向(境界方向)にプレーヤPLが移動するのを抑止する処理を行う。例えば、プレーヤPLが境界BDを越えないように、プレーヤPLの移動を抑止する(抑制させる。停止させる)。これによりプレーヤPLは、移動を停止してその場に立ち止まったり、後ろ方向に引き返したり、右方向や右方向に移動するようになる。
 具体的には、この第1のイベントの抑止処理として、エリアARの境界BDに対応する位置に、危険報知オブジェクトOBWを表示する処理を行う。図12(A)では、境界BDから少しだけ外側の位置に危険報知オブジェクトOBWを表示しているが、境界BDの位置や、境界BDから少しだけ内側の位置に、危険報知オブジェクトOBWを表示してもよい。
 図13に危険報知オブジェクトOBWの一例を示す。図13では危険報知オブジェクトOBWは、ワイヤーフレームの壁オブジェクト(網目状のオブジェクト)となっている。このような危険報知オブジェクトOBWを表示することで、図12(A)のDR1方向(境界方向)に移動することをプレーヤが諦めて、例えば移動を停止してその場に立ち止まったり、DR1方向の反対側の方向にプレーヤが移動することを、期待できるようになる。また危険報知オブジェクトOBWは網目状になっているため、プレーヤは観客等の画像を相変わらず見ることができ、危険報知が原因でゲームへの没入感が阻害されてしまうのを最小限に抑制できる。なお第1のイベントの抑止処理の他の例については後述する。
 図13のようなワイヤーフレームによる壁(柵)の表示は、図6~図8で説明したような音楽ゲームの世界観に合っており、当該世界観を崩さない表示になっている。このため、このようなワイヤーフレームによる壁を表示しても、プレーヤが感じる不自然感を最小限に抑えることができる。このように、エリアの境界へのプレーヤの接近時又は到達時に表示される危険報知オブジェクトは、ゲームの世界観に合った形状、色又は素材を有するものであることが望ましい。そしてゲームの世界観に合った危険報知オブジェクトである場合には、境界への接近時又は到達時のタイミングで、危険報知オブジェクトをそのまま表示することも可能である。或いは、プレーヤの不自然感を低減するために、境界へのプレーヤの接近又は到達の際に、危険報知オブジェクトを徐々に透明から不透明に変化させて出現させてもよい。或いは、プレーヤが元の立ち位置の方向に戻った場合に、危険報知オブジェクトを徐々に不透明から透明に変化させて消滅させてもよい。
 さて、プレーヤがライブ演奏で興奮していると、このような危険報知オブジェクトOBWによる抑止処理を行っても、プレーヤがDR1方向への移動を止めない事態も起こり得る。そこで本実施形態では、図12(B)に示すようにエリアARの境界BDを越えたプレーヤPLの移動が検出された場合に、第2のイベントを発生させる。そして、第2のイベントでは、ゲーム画像とは異なる画像表示に変化させる処理を行う。例えばゲーム画像の画質を極端に低下させたり、ゲーム画像とは全く異なる画像を表示する。なお第2のイベントにおいて、ゲーム音の出力態様を変化させる処理を行ってもよい。例えばゲーム音のボリュームを下げる処理を行ってもよい。
 そして、このような第2のイベントの発生後に、図12(C)のようにプレーヤPLが、エリアARの境界BDの内側方向であるDR2方向に戻ったことが検出された場合に、ゲーム画像とは異なる画像表示を、ゲーム画像の表示に戻す処理を行う。例えばゲーム画像の画質を元の画質に戻す。或いは、ゲーム画像とは全く異なる画像の表示から、ゲーム画像の表示に戻す。なおこの際に、ゲーム音の出力態様を元に戻す処理を行ってもよい。例えばゲーム音のボリュームを元に戻す。
 図14に、画質を低下させたゲーム画像の例を示す。図14のゲーム画像では、通常時のゲーム画像(図6等)の特徴(特徴量)は残っているが、ゲーム画像の明度、彩度、コントラスト又は解像度を低下させる処理、或いはゲーム画像をぼかす処理などが行われている。例えば観客や観客席の画像がぼけて見えると共に、全体的に暗い画像になっている。なお図14の表示の際に、元の立ち位置(図4(A))に戻るように、テキスト画像や音声で更に警告することが望ましい。
 図14のようなゲーム画像の画質を低下させる処理は、例えばレンダリング画像であるゲーム画像に対して、公知の画像処理を施すことで、容易に生成できる。例えば元のゲーム画像に対して、明度、彩度又はコントラストを落とすためのフィルター処理を行ったり、元の画像に対してぼかし処理のフィルター処理などを行うことで、図14に示すような画質が低下したゲーム画像を生成できる。或いは例えばRGBのカラー画像のゲーム画像を白黒画像などに変換して表示してもよい。
 例えば図14のような画像の代わりに、画面の全面が真っ白となるような表示を行うと、プレーヤが自分の位置や向く方向を見失ってしまうおそれがある。即ち、HMD200で目を覆われているプレーヤは、視界の全面が真っ白になってしまうと、自分の位置や方向を認識する基準となる表示物が存在しなくなってしまうため、自分の位置や方向を見失ってしまう。
 これに対して図14の画質を落としたゲーム画像では、観客や観客席などの表示物の輪郭(特徴量)は残っている。このため、これらの表示物の位置を基準とすることで、プレーヤは、自分の位置や方向を見失わなくて済むようになる。また、図14では、画質は落ちるもののゲーム画像は表示されているため、プレーヤのゲームへの没入度は、それほど低下しない。またゲーム画像の画質が低下することで、興奮したプレーヤが冷静な心理状態に戻ることも期待できる。
 そして図12(C)のようにプレーヤPLが元の立ち位置の方向に引き返せば、ゲーム画像の画質は元に戻る。このため、一瞬だけ図14のような画質を落としたゲーム画像が表示された後、元の高画質のゲーム画像の表示に戻るため、プレーヤのゲームへの没入度の低下を、最小限に抑えることが可能になる。
 なお第2のイベントの発生時に、ゲーム進行態様を変化させる処理を行うようにしてもよい。例えば図15(A)では、エリアARの境界BDを越えたプレーヤPLの移動が検出されたため、ゲーム進行態様を変化させる処理として、ゲーム進行を停止する処理を行っている。例えばゲーム空間での時間経過を停止したり、ゲーム画像の動画再生を停止して、例えば静止画像が表示されるようにする。或いはゲーム空間での時間経過を極めて遅くしたり、ゲーム画像の動画再生を極めて遅くしてもよい。そして図16(A)に示すように、第2のイベントの発生によりゲームが停止したことを、プレーヤに伝える表示を行う。この際に、元の立ち位置に戻ることをプレーヤに促す通知を行う。
 なお、ゲーム進行態様を変化させる処理として、ゲームをスタート状態に戻す処理を行ってもよい。例えばライブ演奏のスタートの状態に戻したり、スタンバイルームでの待機の状態に戻す。
 そして、このような第2のイベントの発生後に、図15(B)のようにプレーヤPLが、エリアARの境界BDの内側方向であるDR2方向に戻ったことが検出された場合に、ゲームの進行態様を元に戻す処理を行う。具体的には、停止していたゲーム進行を再開する。例えばゲーム空間での時間の経過を再開したり、ゲーム画像の動画再生を再開する。
 このようにすれば、境界BDを越えた移動により、ゲーム進行は、一旦、停止するが、図15(B)のようにプレーヤが元の立ち位置の方向に引き返せば、ゲーム進行は再開するようになる。このため、一瞬だけゲーム進行が停止した後、ゲーム進行が再開するため、プレーヤのゲームプレイに対して、それほど大きな支障を来さなくて済むようになる。
 なお第2のイベントの発生時に、ゲームを終了させる処理を行ってもよい。例えば図16(B)に示すような表示を行って、ゲームを完全に終了する。プレーヤのゲームプレイのためには、ゲームを終了させることは望ましくないが、より確実な安全対策のためにゲームを終了させてもよい。
 なお、図12(A)の第1のイベントでのプレーヤの移動の抑止処理としては、種々の処理を想定できる。例えば図17(A)のように、第1のイベントでの抑止処理として、警告情報を表示する処理を行ってもよい。例えば図12(A)においてDR1方向にそのまま移動すると危険であるため、後ろに引き返すことをプレーヤに警告する。このようにすれば、プレーヤは、DR1方向への移動が危ないことを視覚的に認識できるようになり、DR1方向への移動を効果的に抑止することが可能になる。なお、このような警告表示の際に、更に警告音を出力するようにしてもよい。
 また第1のイベントでの抑止処理として、図17(B)に示すように、境界BDに向かう方向側にオブジェクトを出現させる処理を行ってもよい。例えば図17(B)では、モンスターのオブジェクトOBMSが、プレーヤの目の前に表示されている。また、「こっちを来るな」というような吹き出しの表示も行われる。そして必要であれば、モンスターがプレーヤに向かって襲ってくる。このようなモンスターのオブジェクトOBMSを表示すれば、プレーヤは、このモンスターを避けるために、図12(A)のDR1方向への移動を停止するようになる。そして、例えば移動を停止して、その場に立ち止まったり、DR1方向とは異なる方向に引き返すようになる。即ち、危険な方向に移動するのをプレーヤが躊躇するようなイベントを発生できる。従って、第1のイベントでの効果的な抑止処理を実現できる。
 また第1のイベントでの抑制処理として、境界に向かう方向側にあるオブジェクトの表示態様(色、テクスチャ等の画像情報や形状情報)を変化させる処理を行ってもよい。例えばプレーヤが移動して近づいている先に居る観客(広義にはオブジェクト)の顔の表情や色が、次第に慌てたり、青ざめたりすることで、プレーヤに対して危険を報知するようにする。即ち、境界方向への移動を抑止するような表示態様に、境界方向にいる観客等のオブジェクトの表示態様を変化させる。
 なお、第1のイベントでの抑止処理として、境界BDに向かう方向DR1とは異なる方向側に、プレーヤの注目オブジェクトや注目イベントを発生させる処理を行ってもよい。例えば、ゲームにおいて重要な注目オブジェクト(例えば重要なアイテム等)については、図12(A)の方向DR1側に発生しないようにして、方向DR1(前方方向)とは異なる方向側(例えば後ろ方向、左方向、右方向)に、注目オブジェクトを表示する。或いは、RPGゲーム等において、方向DR1側を行き止まりにして、方向DR1とは異なる方向側に、迷路等を抜けるための道が開けるなどのイベントを発生させる。こうすることで、第1のイベントでの効果的な抑止処理を実現できるようになる。
 以上のように本実施形態によれば、プレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出されると、第1のイベントが発生する。この第1のイベントでは、当該境界に向かう方向にプレーヤが移動するのを抑止(抑制)する処理が行われる。一方、エリアの境界を越えたプレーヤの移動が検出されると、第2のイベントが発生する。この第2のイベントでは、ゲーム画像とは異なる画像表示に変化させる処理や、ゲーム進行態様を変化させる処理や、ゲームを終了させる処理などが行われる。このようにすれば、第1のイベントでは、それほどプレーヤに不自然さを感じさせずに、境界方向への移動を抑止できる。これにより、例えば現実世界のプレイエリア又はゲーム装置筐体内において、境界方向に対応する方向に障害物などが存在した場合において、より自然な形で、プレーヤの危険等を回避させることが可能になる。そして本実施形態によれば、このような第1のイベントを発生させて境界方向へのプレーヤの移動を抑止したにもかかわらず、境界方向にプレーヤが移動した場合には、第2のイベントを発生させる。そして、この第2のイベントでは、ゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、或いはゲームを終了させる処理などが行われる。従って、第1のイベントにおける抑止処理よりも、より高いレベルでプレーヤの危険等を回避させることが可能になる。この結果、頭部装着型表示装置を利用したゲームにおいて、より適切な危険報知を実現できるゲーム装置の提供が可能になる。
 また本実施形態では図18(A)に示すように、プレーヤPLの移動速度VSを検出し、この移動速度VSに基づいて第1のイベントの制御を行ってもよい。例えば第1のイベントでの抑止処理を、プレーヤPLの移動速度VSに基づき制御する。例えばプレーヤPLの移動速度VSが速い場合には、より早いタイミングで第1のイベントが発生するようにする。例えば図18(A)では、境界BDから距離LBの範囲にプレーヤPLが位置した場合に、第1のイベントを発生させて、上述した抑止処理を行う。この場合、プレーヤPLの移動速度VSが速い場合には、移動速度VSが遅い場合に比べて、距離LBを長くする。例えばプレーヤPLの移動速度VSが速いと、図13のような第1のイベントでの危険報知オブジェクトOBWによる危険報知が間に合わなくなる事態が生じる。この点、例えば移動速度VSが速くなるにつれて、図18(A)の距離LBを長くすれば、このような事態の発生を抑制できるようになる。
 また本実施形態では図18(B)に示すように、プレーヤPLの移動速度VSに基づいて第2のイベントの制御を行ってもよい。例えば第2のイベントでのゲーム画像とは異なる画像表示に変化させる処理を、プレーヤPLの移動速度VSに基づいて制御する。例えば、プレーヤの移動速度VSが速い場合には、より早いタイミングで、ゲーム画像とは異なる画像表示に変化させる。例えば図14のように画質を低下させたゲーム画像や、ゲーム画像とは全く異なる画像を、より早いタイミングで表示する。或いは第2のイベントでのゲーム進行態様を変化させる処理やゲームを終了させる処理を、プレーヤPLの移動速度VSに基づいて制御する。例えば、プレーヤの移動速度VSが速い場合には、より早いタイミングで、ゲーム進行を停止したり、ゲームを終了させるようにする。このようにすることで、プレーヤPLが壁等にぶつかってしまう事態を、より効果的に抑制できるようになる。なお、第2のイベントでのゲーム音の出力態様を変化させる処理を、プレーヤPLの移動速度VSに基づいて制御してもよい。例えば、プレーヤの移動速度VSが速い場合には、より早いタイミングで、ゲーム音のボリュームを下げるなどの処理を行ってもよい。
 また本実施形態では、第1のイベント又は第2のイベントにおいて、振動デバイス164を振動させる処理や、警告音を出力する処理を行ってもよい。
 例えば図12(A)のようにエリアARの境界BDへのプレーヤPLの接近(又は到達)が検出された場合に、図19に示すように、例えば入力装置160-2に設けられた振動デバイス164を振動させて、警告のための振動を発生させる。また例えばヘッドホン270を用いて、警告音を出力する。こうすることで、境界方向であるDR1方向にプレーヤPLが移動するのを抑止する処理を、より効果的に実現できるようになる。
 或いは図12(B)のようにエリアARの境界BDを越えたプレーヤPLの移動が検出された場合に、図19に示すように、例えば入力装置160-2に設けられた振動デバイス164を振動させて、警告のための振動を発生させたり、ヘッドホン270を用いて、警告音を出力してもよい。こうすることで、第2のイベントでのプレーヤPLへの危険報知処理を、より効果的に実現できるようになる。
 2.5 第1、第2のゲーム処理
 次に図6~図8で説明したゲームに好適な本実施形態のゲーム処理について説明する。本実施形態では入力装置160の入力情報を用いた第1のゲーム処理と、視線情報を用いた第2のゲーム処理という2つのゲーム処理を行い、これらの2つのゲーム処理の結果により、プレーヤのゲーム成績を評価する手法を採用している。
 具体的には本実施形態では、図20(A)に示すように、HMD200を装着したプレーヤの視線情報と、入力装置160を用いてプレーヤが入力した入力情報を取得する。例えば図1の入力処理部102が、視線情報と、入力装置160の入力情報を取得する。視線情報は、プレーヤの視線方向等を表す情報であり、前述したトラッキング処理などにより取得できる。例えばトラッキング処理によりHMD200の方向情報等を求めることで、プレーヤの視線情報を特定できる。また入力装置160の入力情報は、例えばプレーヤの演奏により入力される演奏情報(ボーカル演奏、楽器演奏)である。
 そして本実施形態では図20(A)に示すように、入力装置160からの入力情報(例えばマイクにより検出された音声情報)に基づいて、プレーヤが第1のゲームをプレイするための第1のゲーム処理を行う。またプレーヤの視線方向を表す視線情報に基づいて、プレーヤが第2のゲームをプレイするための第2のゲーム処理を行う。そして第1のゲーム処理の結果と第2のゲーム処理の結果に基づいて、プレーヤのゲーム成績を演算する。例えば、第1、第2のゲーム処理でのプレーヤのゲームプレイの評価結果に基づいて、全体としてのプレーヤのゲーム成績(総合的又は最終的なゲーム結果)を演算する。
 この場合に第1のゲームは、例えば入力情報であるプレーヤの演奏情報に基づきゲーム処理が行われる音楽ゲームである。例えばプレーヤが歌う音楽ゲームである場合には、入力情報である演奏情報は、プレーヤの歌の音声情報などである。またプレーヤが楽器を弾く音楽ゲームである場合には、入力情報である演奏情報は、プレーヤが弾く楽器(或いは楽器を模した装置)により生成される楽器音情報などである。
 一方、第2のゲームは、プレーヤの視線とターゲットとの関係を表す視線関係情報に基づきゲーム処理が行われるゲームである。例えば第2のゲームは、プレーヤの視線(視線方向)をターゲットに合わせるゲームプレイを行うことで、プレーヤのゲームプレイが評価されるゲームである。具体的には第2のゲームは、プレーヤの視線とターゲットである観客との関係を表す視線関係情報に基づきゲーム処理が行われる。
 例えば図20(B)では、観客ADA、ADB、ADCのうち、観客ADBがターゲットとなっている。この場合に、HMDを装着するプレーヤPLの視線VLPと、ターゲットである観客ADBとの視線関係情報に基づいてゲーム処理が行われ、プレーヤのゲームプレイが評価される。具体的には、観客ADBの方にプレーヤPLがその視線VLPを向けると、プレーヤのゲームプレイの評価が高い評価になる。
 前述の図6のゲームを例にとれば、プレーヤに対してアピールをしている観客AD4が、プレーヤが視線を合わせるターゲットになる。そしてプレーヤが、このターゲットである観客AD4の方に視線を向けて歌うと、プレーヤのゲームプレイの評価が高い評価になる。
 また本実施形態では図21(A)に示すように、第1のゲームでのプレーヤのゲームプレイを評価する第1の評価処理と、第2のゲームでのプレーヤのゲームプレイを評価する第2の評価処理が行われる。そして第1の評価処理の結果と第2の評価処理の結果に基づいて、プレーヤのゲーム成績(例えば総合的又は最終的なゲーム成績)を演算する。
 即ち、入力装置160からの演奏情報等の入力情報に基づきゲーム処理が行われる第1のゲームにおいて、プレーヤのゲームプレイを評価する第1の評価処理が行われる。例えば、音楽ゲームである第1のゲームにおいて、プレーヤの演奏についての評価処理が行われる。
 またプレーヤの視線情報に基づきゲーム処理が行われる第2のゲームにおいて、プレーヤのゲームプレイを評価する第2の評価処理が行われる。例えば図20(B)のように、プレーヤPLは、ターゲットである観客ADBに視線VLPを合わせる第2のゲームをプレイし、そのゲームプレイを評価する第2の評価処理が行われる。そして例えば観客ADBに視線を向けてボーカル演奏等を行うと、プレーヤのゲームプレイが評価されて、第2の評価処理でのプレーヤのゲームプレイの評価が高くなる。
 そして、このような第1の評価処理の結果と第2の評価処理の結果に基づいて、プレーヤのゲーム成績を演算する。例えば第1の評価処理の結果と第2の評価処理の結果を総合的に判断して、例えばプレーヤの最終的なゲーム成績(ポイント、得点等)が演算される。
 より具体的には図21(B)に示すように、第2の評価処理では、プレーヤの視線とターゲットとの関係を表す視線関係情報と、第1のゲームでのプレーヤの入力情報の入力状況とに基づいて、第2のゲームでのプレーヤのゲームプレイの評価を行う。
 例えば図20(B)において、プレーヤPLが、ターゲットである観客ADBの方に視線VLPを向けている状態で、プレーヤの入力情報である演奏情報が入力されている状況である場合には、第2のゲームでのプレーヤのゲームプレイの評価を高い評価にする。例えば、プレーヤPLが観客ADBの方に視線VLPを向けて、歌っている状況であると判断された場合に、第2のゲームでのプレーヤのゲームプレイの評価を高い評価にする。
 また図21(C)に示すように、第2の評価処理では、プレーヤの視線とターゲットとの関係を表す視線関係情報と、プレーヤの動き情報に基づいて、第2のゲームでのプレーヤのゲームプレイの評価を行ってもよい。
 例えば図20(B)において、プレーヤPLが、ターゲットである観客ADBの方に視線VLPを向けている状態で、プレーヤの所定の動作(アクション)が、動き情報により検出された場合には、第2のゲームでのプレーヤのゲームプレイの評価を高い評価にする。例えばプレーヤPLが観客ADBの方に視線VLPを向けて、所定の動作を行っていると判断された場合に、第2のゲームでのプレーヤのゲームプレイの評価を高い評価にする。具体的には、観客ADBからのかけ声や、或いは観客ADBの動きに合わせて、プレーヤPLが腕を上げるなどの所定の動作を行っていると判断された場合に、第2のゲームでのプレーヤのゲームプレイの評価を高い評価にする。プレーヤPLの動き情報は、例えば図2(A)の入力装置160(160-1又は160-2)の位置や方向を検出することで取得できる。
 また本実施形態では、第2のゲームでのプレーヤのゲームプレイの結果に基づいて、プレーヤの視線のターゲットに設定されるパラメータの値を変化させる処理を行う。そして、パラメータの値及びパラメータが所与の値に達したターゲットの数の少なくとも一方に基づいて、第2の評価処理の結果を求める。
 例えば図22(A)では、第2のゲームでのプレーヤPLのゲームプレイの結果に基づいて、プレーヤPLの視線VLPのターゲットの熱狂度パラメータの値を変化させている。具体的には図22(A)では、プレーヤPLは視線VLPを観客ADBに向けて、ボーカル演奏を行っているため、観客ADBの熱狂度パラメータが上昇している。そして観客ADBの熱狂度パラメータが最大値(広義には所与の値)に達すると、観客ADBについてはターゲットクリアの状態になる。
 そして図22(B)では、プレーヤPLは視線VLPを観客ADAに向けて、ボーカル演奏を行っているため、観客ADAの熱狂度パラメータが上昇している。そして観客ADAの熱狂度パラメータが最大値に達すると、観客ADAについてもターゲットクリアの状態になる。
 また図22(C)では、プレーヤPLは視線VLPを観客ADCに向けて、ボーカル演奏を行っているため、観客ADCの熱狂度パラメータが上昇している。そして観客ADCの熱狂度パラメータが最大値に達すると、観客ADCについてもターゲットクリアの状態になる。
 そして、このようにして全ての観客ADA、ADB、ADCについて、ターゲットクリア(最大値への到達)になると、全ターゲットクリアになり、プレーヤPLに対して最も高い評価(評価ポイント)が与えられる。一方、ターゲットクリアの数が2つである場合には、全ターゲットクリアに比べて、プレーヤPLに与えられる評価は低くなる。同様に、ターゲットクリアの数が1つである場合には、ターゲットクリアの数が2つである場合に比べて、プレーヤPLに与えられる評価は低くなる。
 このように図22(A)~図22(C)では、熱狂度パラメータ(広義にはパラメータ)が、最大値(所与の値)に達したターゲットの数に基づいて、プレーヤの第2の評価処理の結果が求められている。なお、このような最大値(所与の値)に達したターゲットの数ではなく、ターゲット(観客)のパラメータの値そのものにより、第2の評価処理の結果を求めてもよい。
 また図21(A)の第1の評価処理では、入力情報であるプレーヤの演奏情報に基づき特定される音程及びリズムの少なくとも一方に基づいて、第1のゲームでのプレーヤのゲームプレイを評価する。例えばカラオケの採点ゲームと同様の方式で、第1のゲームでのプレーヤのゲームプレイを評価する。
 例えば図6~図8で説明したゲームでは、図23(A)に示すように、歌詞や歌の音程表示がプレーヤに映し出される。この音程表示は、評価処理の基準(お手本)となる音程を、プレーヤが視覚的に把握するためのものである。また、この音程表示により、評価処理の基準(お手本)となるリズムについても、プレーヤは把握できる。
 そしてプレーヤがボーカルの演奏を行った場合に、図23(B)に示すような音程、リズムの基準データとの比較処理が行われる。即ち、プレーヤのボーカルの演奏情報から、プレーヤの歌の音程、リズムのデータを抽出する処理を行う。そして、抽出されたプレーヤの音程、リズムのデータと、音程、リズムの基準データとの比較処理を行うことで、第1のゲーム(音楽ゲーム)でのプレーヤのゲームプレイ(ボーカル演奏)の評価を行う。このようにすれば、プレーヤの歌の上手さを適正に評価できるようになる。なお、音程、リズムの基準データに加えて、図23(B)に示すように音量の基準データを用意し、プレーヤのボーカルの音量のコントロールの上手さ(抑揚)についても評価するようにしてもよい。
 2.6 処理例
 次に本実施形態の処理例について図24、図25のフローチャートを用いて説明する。
 図24は、第2のイベント発生時にゲーム画像とは異なる画像表示に変化させる処理のフローチャートである。
 まず、HMDを装着して移動するプレーヤの位置情報を取得する(ステップS1)。この位置情報は、前述したトラッキング処理などにより取得できる。そして、取得された位置情報に基づいて、エリアの境界へのプレーヤの接近(又は到達)が検出されたか否かを判断する(ステップS2)。そして、接近(又は到達)が検出された場合には、危険報知オブジェクトの表示処理などの、境界方向へのプレーヤの移動を抑止する処理を実行する(ステップS3)。即ち、図12(A)、図13で説明した第1のイベントの処理を実行する。
 次に、プレーヤが境界の内側方向に戻ったか否かを判断する(ステップS4)。そして戻った場合には、危険報知オブジェクトを消して、非表示にする(ステップS5)。
 次にエリアの境界を越えたプレーヤの移動が検出されたか否かを判断する(ステップS6)。そして、境界を越えた移動が検出された場合には、ゲーム画像とは異なる画像表示に変化させる処理を実行する(ステップS7)。即ち、図12(B)、図14で説明した第2のイベントの処理を実行する。
 次に、プレーヤが境界の内側方向に戻ったか否かを判断する(ステップS8)。そして戻った場合には、ゲーム画像の表示に戻す処理を行う(ステップS9)。即ち、図12(C)で説明した処理を行う。
 図25は第2のイベント発生時にゲーム進行態様を変化させる処理のフローチャートである。図25のステップS11~S15の処理は、図24のステップS1~S5の処理と同様であるため詳細な説明を省略する。
 図25のステップS16で、エリアの境界を越えたプレーヤの移動が検出された場合には、ゲーム進行を停止する処理を実行する(ステップS17)。即ち、図15(A)、図16(A)で説明した第2のイベントの処理を実行する。
 次に、プレーヤが境界の内側方向に戻ったか否かを判断する(ステップS18)。そして戻った場合には、ゲーム進行を再開する処理を行う(ステップS19)。即ち、図15(B)で説明した処理を行う。
 なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、位置情報や視線情報の取得処理、ゲーム処理、イベントの発生処理、境界方向への移動の抑止処理、ゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、表示処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話機等の種々のゲーム装置に適用できる。例えばゲーム装置は、ゲームのプログラムがインストールされて実行される携帯電話機や携帯型情報端末であってもよい。
PL プレーヤ、AR エリア、BD 境界、OBW 危険報知オブジェクト、
100 処理部、102 入力処理部、110 演算処理部、
111 ゲーム処理部、
112 ゲーム進行処理部、113 評価処理部、114 キャラクタ処理部、
115 パラメータ処理部、116 オブジェクト空間設定部、
117 仮想カメラ制御部、118 ゲーム成績演算部、120 表示処理部、
130 音処理部、150 撮像部、151、152 カメラ、
160(160-1、160-2) 入力装置、161 演奏情報入力装置、
162 マイク、170 記憶部、172 空間情報記憶部、
174 楽曲情報記憶部、176 パラメータ記憶部、
178 描画バッファ、180 情報記憶媒体、
192 音出力部、194 I/F部、195 携帯型情報記憶媒体、
196 通信部、200 HMD(頭部装着型表示装置)、
201~203 受光素子、210 センサ部、
220 表示部、231~236 発光素子、240 処理部、
260 ヘッドバンド、270 ヘッドホン、
280、284 ベースステーション、
281、282、285、286 発光素子、
301~304 壁、306 ドア、307、308 通気設備、
310、312 キャスター、320 ゲーム装置筺体

Claims (15)

  1.  頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの位置情報を取得する入力処理部と、
     複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理部と、
     前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理部と、
     を含み、
     前記ゲーム処理部は、
     前記プレイエリア又は前記ゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合に、前記境界に向かう方向へのプレーヤの移動を抑止する抑止処理を行う第1のイベントを発生し、
     前記エリアの前記境界を越えたプレーヤの移動が検出された場合に、前記ゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、及びゲームを終了させる処理の少なくとも1つの処理を行う第2のイベントを発生することを特徴とするゲーム装置。
  2.  請求項1において、
     前記ゲーム処理部は、
     前記ゲーム画像とは異なる画像表示に変化させる処理として、前記ゲーム画像の画質を低下させる処理を行うことを特徴とするゲーム装置。
  3.  請求項2において、
     前記ゲーム処理部は、
     前記ゲーム画像の画質を低下させる処理として、前記ゲーム画像の明度、彩度、コントラスト又は解像度を低下させる処理、或いは前記ゲーム画像をカラー画像からモノクロ画像に変更する処理、或いは前記ゲーム画像をぼかす処理を行うことを特徴とするゲーム装置。
  4.  請求項1乃至3のいずれかにおいて、
     前記ゲーム処理部は、
     前記ゲーム進行態様を変化させる処理として、ゲーム進行を停止する処理を行うことを特徴とするゲーム装置。
  5.  請求項1乃至4のいずれかにおいて、
     前記ゲーム処理部は、
     前記第2のイベントの発生後に、プレーヤが前記エリアの前記境界の内側方向に戻ったことが検出された場合に、前記ゲーム画像とは異なる画像表示を前記ゲーム画像の表示に戻す処理、或いは前記ゲーム進行態様を元に戻す処理を行うことを特徴とするゲーム装置。
  6.  請求項1乃至5のいずれかにおいて、
     前記ゲーム処理部は、
     前記第1のイベントの前記抑止処理として、前記エリアの前記境界に対応する位置に危険報知オブジェクトを表示する処理、警告情報を表示する処理、前記境界に向かう方向側に所与のオブジェクトを出現させる処理、前記境界に向かう方向側にある所与のオブジェクトの表示態様を変化させる処理、或いは前記境界に向かう方向とは異なる方向側にプレーヤの注目オブジェクト又は注目イベントを発生させる処理を行うことを特徴とするゲーム装置。
  7.  請求項1乃至6のいずれかにおいて、
     前記ゲーム処理部は、
     前記第1のイベントでの前記抑止処理を、プレーヤの移動速度に基づき制御することを特徴とするゲーム装置。
  8.  請求項1乃至7のいずれかにおいて、
     前記ゲーム処理部は、
     前記第2のイベントでの前記ゲーム画像とは異なる画像表示に変化させる処理、前記ゲーム進行態様を変化させる処理、又はゲームを終了させる処理を、プレーヤの移動速度に基づき制御することを特徴とするゲーム装置。
  9.  請求項1乃至8のいずれかにおいて、
     前記ゲーム処理部は、
     前記第1のイベント又は前記第2のイベントにおいて、振動デバイスを振動させる処理又は警告音を出力する処理を行うことを特徴とするゲーム装置。
  10.  請求項1乃至9のいずれかにおいて、
     前記表示処理部は、
     前記エリアの外側に対応する場所に観客の画像が表示される前記ゲーム画像を、前記頭部装着型表示装置に表示する処理を行うことを特徴とするゲーム装置。
  11.  頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの少なくとも位置情報を取得する入力処理部と、
     複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理部と、
     前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理部と、
     を含み、
     前記ゲーム処理部は、
     前記プレイエリア又は前記ゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合、或いは前記境界を越えたプレーヤの移動が検出された場合に、前記ゲーム画像の明度、彩度、コントラスト又は解像度を低下させる処理、或いは前記ゲーム画像をカラー画像からモノクロ画像に変更する処理、或いは前記ゲーム画像をぼかす処理を行うことを特徴とするゲーム装置。
  12.  頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの位置情報を取得する入力処理と、
     複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理と、
     前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理と、
     を行い、
     前記ゲーム処理では、
     前記プレイエリア又は前記ゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合に、前記境界に向かう方向へのプレーヤの移動を抑止する抑止処理を行う第1のイベントを発生し、
     前記エリアの前記境界を越えたプレーヤの移動が検出された場合に、前記ゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、及びゲームを終了させる処理の少なくとも1つの処理を行う第2のイベントを発生することを特徴とする処理方法。
  13.  頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの少なくとも位置情報を取得する入力処理と、
     複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理と、
     前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理と、
     を行い、
     前記ゲーム処理部では、
     前記プレイエリア又は前記ゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合、或いは前記境界を越えたプレーヤの移動が検出された場合に、前記ゲーム画像の明度、彩度、コントラスト又は解像度を低下させる処理、或いは前記ゲーム画像をカラー画像からモノクロ画像に変更する処理、或いは前記ゲーム画像をぼかす処理を行うことを特徴とする処理方法。
  14.  頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの位置情報を取得する入力処理部と、
     複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理部と、
     前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理部として、
     コンピュータを機能させるプログラムを記憶し、
     前記ゲーム処理部は、
     前記プレイエリア又は前記ゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合に、前記境界に向かう方向へのプレーヤの移動を抑止する抑止処理を行う第1のイベントを発生し、
     前記エリアの前記境界を越えたプレーヤの移動が検出された場合に、前記ゲーム画像とは異なる画像表示に変化させる処理、ゲーム進行態様を変化させる処理、及びゲームを終了させる処理の少なくとも1つの処理を行う第2のイベントを発生することを特徴とするコンピュータ読み取り可能な情報記憶媒体。
  15.  頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの少なくとも位置情報を取得する入力処理部と、
     複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理部と、
     前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理部として、
     コンピュータを機能させるプログラムを記憶し、
     前記ゲーム処理部は、
     前記プレイエリア又は前記ゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合、或いは前記境界を越えたプレーヤの移動が検出された場合に、前記ゲーム画像の明度、彩度、コントラスト又は解像度を低下させる処理、或いは前記ゲーム画像をカラー画像からモノクロ画像に変更する処理、或いは前記ゲーム画像をぼかす処理を行うことを特徴とするコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2016/088881 2015-12-29 2016-12-27 ゲーム装置、処理方法及び情報記憶媒体 WO2017115793A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP16881767.4A EP3398666B1 (en) 2015-12-29 2016-12-27 Game apparatus, processing method, and information storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015257580A JP6727807B2 (ja) 2015-12-29 2015-12-29 ゲーム装置及びプログラム
JP2015-257580 2015-12-29

Publications (1)

Publication Number Publication Date
WO2017115793A1 true WO2017115793A1 (ja) 2017-07-06

Family

ID=59224726

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/088881 WO2017115793A1 (ja) 2015-12-29 2016-12-27 ゲーム装置、処理方法及び情報記憶媒体

Country Status (3)

Country Link
EP (1) EP3398666B1 (ja)
JP (1) JP6727807B2 (ja)
WO (1) WO2017115793A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107765953A (zh) * 2017-11-08 2018-03-06 网易(杭州)网络有限公司 信息的展示方法、装置、处理器及头戴式显示设备
CN111603772A (zh) * 2020-05-20 2020-09-01 腾讯科技(深圳)有限公司 区域检测方法、装置、设备及存储介质
CN113574591A (zh) * 2019-03-29 2021-10-29 索尼互动娱乐股份有限公司 边界设置设备、边界设置方法和程序
CN113678191A (zh) * 2019-03-29 2021-11-19 索尼互动娱乐股份有限公司 边界显示控制设备,边界显示控制方法和程序

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7058034B2 (ja) 2017-09-29 2022-04-21 グリー株式会社 ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置
DE102017218215B4 (de) * 2017-10-12 2024-08-01 Audi Ag Verfahren zum Betreiben einer am Kopf tragbaren elektronischen Anzeigeeinrichtung und Anzeigesystem zum Anzeigen eines virtuellen Inhalts
JP6948220B2 (ja) * 2017-10-17 2021-10-13 株式会社コロプラ 仮想体験をユーザに提供するための方法、プログラム及びコンピュータ
JP2019105960A (ja) * 2017-12-12 2019-06-27 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP6889192B2 (ja) * 2017-12-26 2021-06-18 株式会社カプコン ゲームプログラムおよびゲーム装置
EP3734428A4 (en) * 2017-12-27 2021-03-03 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
US11695908B2 (en) 2018-03-30 2023-07-04 Sony Corporation Information processing apparatus and information processing method
KR20200019486A (ko) 2018-08-14 2020-02-24 삼성전자주식회사 전자 장치, 그 제어 방법 및 전자 시스템
JP6771006B2 (ja) * 2018-09-19 2020-10-21 株式会社コロプラ プログラム、方法および情報処理装置
CN112714899A (zh) 2018-10-03 2021-04-27 麦克赛尔株式会社 头戴式显示器和头戴式显示系统
JP6987807B2 (ja) * 2019-05-24 2022-01-05 株式会社Cygames 情報処理プログラム、情報処理方法および情報処理装置
JP7448943B2 (ja) * 2019-10-07 2024-03-13 株式会社mediVR リハビリテーション支援装置、その方法およびプログラム
JP2021086204A (ja) * 2019-11-25 2021-06-03 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021002390A (ja) * 2020-09-24 2021-01-07 株式会社コロプラ プログラム、方法および情報処理装置
JP2022102913A (ja) 2020-12-25 2022-07-07 株式会社コナミデジタルエンタテインメント ゲームシステム、それに用いるコンピュータプログラム、及び制御方法
WO2024024054A1 (ja) * 2022-07-28 2024-02-01 日本電信電話株式会社 映像生成装置、映像生成方法、および映像生成プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10504917A (ja) * 1995-05-25 1998-05-12 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ ヘッドマウントディスプレイ用衝突警告システム
JP2003018498A (ja) * 2001-06-28 2003-01-17 Miyota Kk ゴーグル型表示装置
JP2005165848A (ja) * 2003-12-04 2005-06-23 Canon Inc 複合現実感提示方法および装置
JP2009075610A (ja) * 2008-12-04 2009-04-09 Olympus Corp 危険防止機能付きシースルー型表示装置、及びシースルー型表示装置を使用するときの危険防止方法
JP2013257716A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
WO2015048038A2 (en) * 2013-09-30 2015-04-02 Sony Computer Entertainment Inc. Camera based safety mechanisms for users of head mounted displays

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10504917A (ja) * 1995-05-25 1998-05-12 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ ヘッドマウントディスプレイ用衝突警告システム
JP2003018498A (ja) * 2001-06-28 2003-01-17 Miyota Kk ゴーグル型表示装置
JP2005165848A (ja) * 2003-12-04 2005-06-23 Canon Inc 複合現実感提示方法および装置
JP2009075610A (ja) * 2008-12-04 2009-04-09 Olympus Corp 危険防止機能付きシースルー型表示装置、及びシースルー型表示装置を使用するときの危険防止方法
JP2013257716A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
WO2015048038A2 (en) * 2013-09-30 2015-04-02 Sony Computer Entertainment Inc. Camera based safety mechanisms for users of head mounted displays

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107765953A (zh) * 2017-11-08 2018-03-06 网易(杭州)网络有限公司 信息的展示方法、装置、处理器及头戴式显示设备
CN107765953B (zh) * 2017-11-08 2023-08-22 网易(杭州)网络有限公司 信息的展示方法、装置、处理器及头戴式显示设备
CN113574591A (zh) * 2019-03-29 2021-10-29 索尼互动娱乐股份有限公司 边界设置设备、边界设置方法和程序
CN113678191A (zh) * 2019-03-29 2021-11-19 索尼互动娱乐股份有限公司 边界显示控制设备,边界显示控制方法和程序
CN111603772A (zh) * 2020-05-20 2020-09-01 腾讯科技(深圳)有限公司 区域检测方法、装置、设备及存储介质
CN111603772B (zh) * 2020-05-20 2023-03-28 腾讯科技(深圳)有限公司 区域检测方法、装置、设备及存储介质

Also Published As

Publication number Publication date
EP3398666A1 (en) 2018-11-07
JP6727807B2 (ja) 2020-07-22
EP3398666A4 (en) 2019-05-15
EP3398666B1 (en) 2021-03-03
JP2017119031A (ja) 2017-07-06

Similar Documents

Publication Publication Date Title
WO2017115793A1 (ja) ゲーム装置、処理方法及び情報記憶媒体
CN106924966B (zh) 游戏装置以及处理方法
JP6461850B2 (ja) シミュレーションシステム及びプログラム
JP2017119032A (ja) ゲーム装置及びプログラム
JP6306442B2 (ja) プログラム及びゲームシステム
JP7041888B2 (ja) シミュレーションシステム及びプログラム
US20190244416A1 (en) Simulation system, processing method, and information storage medium
JP6691351B2 (ja) プログラム及びゲームシステム
JP6515057B2 (ja) シミュレーションシステム、シミュレーション装置及びプログラム
JP2018109835A (ja) シミュレーションシステム及びプログラム
JP7144796B2 (ja) シミュレーションシステム及びプログラム
US10441876B2 (en) Video game integrating recorded video
JP2011101752A (ja) プログラム、情報記憶媒体、及び、画像生成装置
JP2019175323A (ja) シミュレーションシステム及びプログラム
JP6774260B2 (ja) シミュレーションシステム
JP6622832B2 (ja) プログラム及びゲームシステム
JP2011018147A (ja) ゲームプログラム、ゲーム装置、ゲーム制御方法
JP2017178612A (ja) 巻き取り装置及びシミュレーションシステム
JP6325016B2 (ja) シミュレーションシステム及びプログラム
JP2018201247A (ja) シミュレーションシステム
JP6401200B2 (ja) シミュレーションシステム
JP2024052169A (ja) ゲームシステム、プログラム及びゲーム提供方法
JP2019126416A (ja) ゲームプログラムおよびゲーム機
JP2019164315A (ja) カラオケシステム、vrコンテンツ用装置及びvrコンテンツ用プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16881767

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016881767

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016881767

Country of ref document: EP

Effective date: 20180730