WO2015122450A1 - 画像生成システム、画像生成方法及び情報記憶媒体 - Google Patents

画像生成システム、画像生成方法及び情報記憶媒体 Download PDF

Info

Publication number
WO2015122450A1
WO2015122450A1 PCT/JP2015/053804 JP2015053804W WO2015122450A1 WO 2015122450 A1 WO2015122450 A1 WO 2015122450A1 JP 2015053804 W JP2015053804 W JP 2015053804W WO 2015122450 A1 WO2015122450 A1 WO 2015122450A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
unit
image
screen
light
Prior art date
Application number
PCT/JP2015/053804
Other languages
English (en)
French (fr)
Inventor
和久 湊
牧野 貢
太志 松下
石井 源久
Original Assignee
株式会社バンダイナムコゲームス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社バンダイナムコゲームス filed Critical 株式会社バンダイナムコゲームス
Priority to CN201580008601.XA priority Critical patent/CN105993167B/zh
Publication of WO2015122450A1 publication Critical patent/WO2015122450A1/ja
Priority to US15/232,121 priority patent/US10661174B2/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/843Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/10Projectors with built-in or built-on screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Definitions

  • the present invention relates to an image generation system, an image generation method, an information storage medium, and the like.
  • an image generation system an image generation method, an information storage medium, and the like that can realize an appropriate hit determination process while generating a projection image for projection.
  • One aspect of the present invention includes an object space setting unit that performs an object space setting process, an image generation unit that generates a projection image for projection based on information on a plurality of objects arranged in the object space, A receiving unit that receives a captured image from an imaging unit that captures a projection area of the projected image, and a position of the spot light on the projection screen based on the position of the spot light on the captured image by the light from the light emitting unit.
  • a screen spot light position that is a position, and a direction from the set position set as the representative position of the light emitting unit or player to the screen spot light position is obtained as the light emitting direction of the light emitting unit, Hit determination with an object in the object space based on the obtained emission direction And the hit judging unit for performing management related to the image generation system comprising.
  • the present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.
  • the screen spot light position that is the position of the spot light on the projection screen is obtained based on the position of the spot light on the captured image. Then, a direction from the set position set as the light emitting unit or the representative position of the player to the screen spot light position is obtained as the light emitting direction, and hit determination processing with an object in the object space based on the emitting direction Is executed.
  • an appropriate hit determination process that reflects the shape of the projection screen can be realized in an image generation system that generates a projection image for projection.
  • the direction from the set position to the screen spot light position is set as the emission direction
  • an appropriate emission reflecting the shape of the projection screen can be obtained when the projection screen is not a screen composed of only one plane.
  • the direction can be obtained and the hit determination process based on the emission direction can be executed.
  • the projection screen is a screen configured by one curved surface or a plurality of surfaces
  • the image generation unit performs a distortion correction process based on shape information of the projection screen.
  • the projection image may be generated, and the hit determination unit may obtain the screen spot light position based on the shape information of the projection screen.
  • the distortion correction processing based on the shape information of the projection screen is performed, an appropriate projection image reflecting the shape of the projection screen constituted by one curved surface or a plurality of surfaces can be generated. Further, if the screen spot light position is obtained based on the shape information of the projection screen, the screen spot light position reflecting the shape of the projection screen constituted by one curved surface or a plurality of surfaces can be obtained. It is possible to realize an appropriate hit determination process reflecting the shape of the screen for use.
  • the hit determination unit obtains a direction vector of the spot light viewed from the imaging unit based on a position of the spot light on the captured image, and follows the direction vector. An intersection position between the straight line and the projection screen may be obtained as the screen spot light position.
  • the direction vector of the spot light corresponding to the position of the spot light on the captured image is obtained, and the screen spot light is obtained by obtaining the intersection point between the straight line along the direction vector and the projection screen.
  • the position can be determined. As a result, for example, it is possible to obtain a screen spot light position reflecting information on the optical system of the imaging unit.
  • the image generation unit includes a straight line connecting the intersection position between the light beam emitted from the pixel on the drawing buffer through the optical system of the projection apparatus and the projection screen and the representative viewpoint position.
  • the color of the pixel on the drawing buffer may be determined as the line of sight of the virtual camera.
  • the image generation unit may perform drawing corresponding to the object based on an intersection position between the projection screen and a straight line connecting the vertex position of the object and the representative viewpoint position in the object space.
  • a vertex position on the drawing buffer for the object may be obtained, and the drawing object may be drawn in the drawing buffer based on the vertex position.
  • the object space setting unit obtains an arrangement position of the aiming object representing the aim of the light emitting unit in the object space based on the emission direction, and determines the obtained arrangement position.
  • the aiming object may be arranged.
  • the aiming object of the light emitting part can be arranged at a position obtained based on the emitting direction, and an image of the aiming object can be generated on the projection image.
  • the object space setting unit may arrange the aiming object on a straight line along the emission direction.
  • the image generation unit may generate the projection image in which the spot light detection and adjustment object is displayed inside an imaging range of the imaging unit.
  • the object space setting unit may detect the detection adjustment object so that the detection adjustment object is displayed inside the imaging range of the imaging unit in a projection area of the projection image. May be arranged in the object space.
  • an imaging range specifying unit that specifies the imaging range of the imaging unit based on the second captured image obtained by capturing the projection image or the history information of the detection position of the spot light may be included.
  • the imaging unit may be included, and the imaging unit may include an imaging element and a fisheye lens.
  • the fisheye lens is provided in the imaging unit in this way, it is possible to detect the position of the spot light over a wide range of the projection area of the projection image.
  • the projector may be included, and the imaging unit may be attached to the projector.
  • an object space setting unit that performs an object space setting process, an image generation unit that generates a projection image for projection based on information on a plurality of objects arranged in the object space, A light projection unit that projects the projection image; an imaging unit that captures a projection area of the projection image; a light emission unit that emits light; and a light output from the light emission unit based on a captured image from the imaging unit.
  • a hit determination unit that performs a hit determination process with an object in the object space based on the determined emission direction, and the imaging unit includes an image sensor and a fisheye lens.
  • the projection image is projected by the projection device, and the projection area of the projection image is captured by the imaging unit. Then, based on the captured image, the light emitting direction of the light emitting unit is obtained, and hit determination processing with the object in the object space is executed.
  • the imaging unit is provided with a fisheye lens, and the light emitting direction of the light emitting unit is obtained based on the captured image captured through the fisheye lens. If the fisheye lens is provided in the imaging unit in this manner, the detection process can be executed for the hit determination process over a wide range of the projection area of the projection image. Therefore, hit determination processing suitable for an image generation system that generates a projection image for projection can be realized.
  • an object space setting process is performed, a projection image for projection is generated based on information on a plurality of objects arranged in the object space, and a projection area of the projection image is captured.
  • the present invention relates to an image generation method for performing hit determination processing with an object in the object space.
  • FIG. 1 shows an example of a game system to which the image generation system of this embodiment is applied.
  • FIG. 2 is a vertical sectional view of a game system to which the image generation system of this embodiment is applied.
  • FIG. 3 is a configuration example of the image generation system of the present embodiment.
  • FIG. 4 is an explanatory diagram of a distortion correction method for each pixel of the drawing buffer.
  • FIG. 5 is an explanatory diagram of a method of using a surrogate plane for distortion correction in pixel units.
  • FIG. 6 is a diagram illustrating a relationship between a drawing buffer, a UV map, and a render texture in a method using a surrogate plane for distortion correction in pixel units.
  • FIG. 7 is an explanatory diagram of a distortion correction method for each object vertex.
  • FIG. 1 shows an example of a game system to which the image generation system of this embodiment is applied.
  • FIG. 2 is a vertical sectional view of a game system to which the image generation system of this embodiment is applied
  • FIG. 8 shows an example of a projection image generated by the image generation system of this embodiment.
  • 9A and 9B are explanatory diagrams of a shooting game realized by the image generation system of the present embodiment.
  • FIGS. 10A and 10B are also explanatory diagrams of a shooting game realized by the image generation system of the present embodiment.
  • FIG. 11 is an explanatory diagram of a hit determination method according to this embodiment.
  • FIG. 12 is a flowchart for explaining hit determination processing according to this embodiment.
  • FIG. 13 is an explanatory diagram of the aiming object placement method of the present embodiment.
  • FIG. 14 is an explanatory diagram of the aiming object arrangement method of the present embodiment.
  • FIGS. 15A and 15B are explanatory diagrams of a method for calculating the direction vector of the spot light.
  • FIG. 16A and 16B are also explanatory diagrams of a method for calculating the direction vector of the spot light.
  • FIG. 17A and FIG. 17B are explanatory diagrams of the spot light detection adjustment object.
  • FIG. 18A and FIG. 18B are also explanatory diagrams of the spot light detection adjustment object.
  • FIG. 19 is an explanatory diagram of a spot light detection adjustment object.
  • 20A and 20B are explanatory diagrams of the imaging range of the imaging unit.
  • FIG. 21 is an explanatory diagram of an arrangement method of objects for spot light detection adjustment.
  • FIGS. 22A and 22B are explanatory diagrams of a display control method for the aiming object.
  • FIG. 1 shows a configuration example of a game system to which the image generation system of this embodiment is applied.
  • FIG. 2 is a vertical sectional view of the game system.
  • This game system includes a player seat 10, a control board 16, a curved screen 20 on which a projection image that is a game image is projected, a projection device 30 that projects a projection image (video) on the screen 20, and spot light. And a light emitting unit 50 (gun-type controller) simulating a gun, and a speaker (not shown) for outputting game sounds.
  • the player seat 10 is provided with its orientation and height adjusted so that the assumed normal viewing direction of the seated player faces the center of the screen 20.
  • the front direction of the player who is seated is the assumed normal viewing direction.
  • the screen 20 is formed in a convex shape with respect to the front direction (assumed normal viewing direction) of the player seated on the player seat 10.
  • the control board 16 is mounted with various processors such as CPU, GPU or DSP, and various memories such as ASIC, VRAM, RAM or ROM. Then, the control board 16 performs various processes for realizing a shooting game based on a program and data stored in the memory, an operation signal of a player who operates the light emitting unit 50, and the like.
  • the projection device 30 (projector) is supported by the support column 12 and the housing frame 14 installed behind the player seat 10 and is located above the player seat 10 so as not to interfere with the player seated on the player seat 10.
  • the projection center direction is set so as to face the vicinity of the center of the screen 20. In other words, the projection center direction is set so as to face the intersection point between the assumed normal viewing direction of the player and the screen 20.
  • the projection device 30 is provided with a wide-angle lens (for example, a fish-eye lens, that is, a super-wide-angle lens with an angle of view exceeding 180 degrees) as a projection lens. Projected to the whole.
  • the projection device 30 is provided with an imaging unit 40 that images the projection area of the projection image.
  • the shooting direction of the imaging unit 40 is set to the projection direction of the projection image.
  • the position of the spot light formed on the screen 20 by the light emitted from the light emitting unit 50 is detected.
  • the light emission direction of the light emitting unit 50 is specified based on the detected spot light position, and hit determination with an enemy object shown in the game image is performed.
  • the light emitting unit 50 is a gun-type controller that is modeled on a gun.
  • the light emitting portion 50 is provided with an infrared light emitting portion, and spot light is formed on the screen 20 when the infrared light hits.
  • the imaging unit 40 is provided with an infrared filter (IR filter) that blocks visible light and transmits infrared light, the position of the spot light of the infrared light is determined based on the captured image of the imaging unit 40. It can be detected.
  • IR filter infrared filter
  • the player sits on the player seat 10, watches the game image displayed on the screen 20, listens to the game sound from the speaker, and shoots the enemy appearing in the game image with the light emitting unit 50 simulating a gun. And enjoy the game.
  • a game space is configured by arranging objects such as background objects in an object space (virtual three-dimensional space).
  • object space virtual three-dimensional space
  • enemy objects and the like that are targets for shooting are also arranged, and a virtual camera is arranged at the viewpoint position of the player. Then, the image of the object space viewed from the virtual camera is projected (displayed) on the screen 20 by the projection device 30 as a game image.
  • FIG. 3 shows an example of a block diagram of the image generation system of the present embodiment. Note that the configuration of the image generation system of the present embodiment is not limited to FIG. 3, and various modifications such as omitting some of the components (each unit) or adding other components are possible. .
  • the imaging unit 40 includes an optical system such as a lens 42 and an imaging element 44.
  • the lens 42 is, for example, a lens that projects an image on the image sensor 44 and is a wide-angle lens (for example, a fisheye lens) for capturing the entire screen 20.
  • the image sensor 44 is realized by, for example, a CCD or CMOS sensor.
  • the imaging unit 40 is provided with the above-described infrared filter and the like.
  • the operation unit 160 is for the player to input operation data.
  • the operation unit 160 can be realized by the light emitting unit 50 that is a gun-type controller, an operation button (not shown), or the like.
  • the storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like. Then, the game program and game data necessary for executing the game program are held in the storage unit 170.
  • a RAM DRAM, VRAM
  • An information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions thereof by an optical disk (CD, DVD), HDD (hard disk drive), memory (ROM, etc.), and the like. realizable.
  • the processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.
  • the display unit 190 displays an image generated according to the present embodiment.
  • the display unit 190 can be realized by an LCD in a liquid crystal projector, a DMD in a DLP projector, or the like.
  • the sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.
  • the auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card.
  • the communication unit 196 communicates with the outside (for example, another image generation system, a server, or a host device) via a wired or wireless network, and functions as a communication ASIC, a communication processor, or the like. It can be realized by hardware and communication firmware.
  • the processing unit 100 performs game processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like.
  • the processing unit 100 performs various processes using the storage unit 170 as a work area.
  • the functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), and programs.
  • the processing unit 100 includes a game calculation unit 102, an object space setting unit 104, a moving body calculation unit 106, a virtual camera control unit 108, a reception unit 110, a hit determination unit 114, an imaging range specifying unit 116, an image generation unit 120, and sound generation. Part 130. Various modifications may be made such as omitting some of these components (each unit) or adding other components.
  • the game calculation unit 102 performs a game calculation process.
  • a game calculation a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a process for ending a game when a game end condition is satisfied and so on.
  • the object space setting unit 104 performs an object space setting process in which a plurality of objects are arranged.
  • various objects polygons, free-form surfaces
  • display objects such as moving objects (people, animals, robots, cars, airplanes, marine aircraft, etc.), maps (terrain), buildings, courses (roads), trees, walls, water surfaces, etc.
  • an object configured with a primitive surface such as a subdivision surface
  • the position and rotation angle of the object in the world coordinate system are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z).
  • Arrange objects are possible.
  • the object data storage unit 172 of the storage unit 170 stores object data such as the position, rotation angle, moving speed, moving direction, etc. of the object (part object) in association with the object number.
  • the object space setting unit 104 performs a process of updating the object data for each frame, for example.
  • the moving object calculation unit 106 performs control processing for moving a moving object (moving object) such as a person, an animal, a car, or an airplane. Also, control processing for operating the moving body is performed. That is, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), etc., a moving body (object, model object) is moved in the object space, Performs control processing to move the moving body (motion, animation). Specifically, a simulation process for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (1/60 second). I do.
  • a frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object.
  • the virtual camera control unit 108 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.
  • the position (viewpoint position) and direction (gaze direction) of the virtual camera are controlled so that the virtual camera follows changes in the position or direction of the moving body.
  • the virtual camera can be controlled based on information such as the position, direction, or speed of the moving object obtained by the moving object computing unit 106.
  • control may be performed such that the virtual camera is rotated at a predetermined rotation angle or moved along a predetermined movement path.
  • the virtual camera is controlled based on virtual camera data for specifying the position (movement path) or direction of the virtual camera.
  • the sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, and voices, and outputs them to the sound output unit 192.
  • the image generation system of this embodiment contains the object space setting part 104, the reception part 110, the hit determination part 114, and the image generation part 120, as shown in FIG.
  • the image generation system (game system) of this embodiment can include the imaging unit 40, the projection device 30 and the light emitting unit 50 of FIGS.
  • the object space setting unit 104 performs the object space setting process as described above.
  • the object space is a three-dimensional game space.
  • the image generation unit 120 generates a projection image. Specifically, a projection image for projection (a projection image generated by projection mapping processing) is generated based on information on a plurality of objects (enemy objects, background objects, etc.) arranged in the object space.
  • the projected image is an image that the projection device 30 projects onto the curved screen 20 (dome-shaped screen).
  • This projection image is displayed on a display unit 190 realized by an LCD in a liquid crystal projector or a DMD in a DLP projector, and is projected on the screen 20 by an optical system such as a wide-angle lens of the projection device 30.
  • the reception unit 110 receives a captured image from the imaging unit 40 that captures a projection area (screen area) of the projection image.
  • the imaging direction (imaging direction) of the imaging unit 40 is set to the projection direction of the projection image (projection direction of the projection device).
  • the imaging unit 40 is installed such that the imaging direction is parallel (substantially parallel) to the projection direction, for example.
  • the imaging unit 40 captures an image of the projection area of the screen 20
  • the captured image data is received by the receiving unit 110 that functions as an image interface.
  • the hit determination unit 114 performs a hit determination process between the light from the light emitting unit 50 and the object. That is, assuming that the bullet of the gun has flew in the light emitting direction of the light emitting unit 50, the hit determination process between the bullet represented by the light from the light emitting unit 50 and the object is performed.
  • the hit determination unit 114 obtains the position (position in the coordinate system of the image sensor) of the spot light with the light (for example, infrared light) from the light emitting unit 50 on the captured image. For example, image processing or the like is performed on the captured image from the imaging unit 40 to detect the position of spot light (infrared spot light) reflected in the captured image.
  • the hit determination unit 114 obtains a screen spot light position, which is the position of the spot light on the projection screen, based on the position of the spot light on the captured image. For example, the position of the spot light on the captured image and the position of the spot light on the projection screen can be associated one to one.
  • the screen spot light position is the position of the spot light on the projection screen that is associated one-to-one with the position of the spot light on the captured image.
  • the hit determination unit 114 obtains the direction from the set position set as the light emitting unit 50 or the representative position of the player to the screen spot light position as the light emitting direction of the light emitting unit 50. That is, the representative position assumed as the position of the light emitting unit 50 (or the position of the player) is set as the set position, and the direction of the straight line connecting the set position and the screen spot light position is obtained as the emission direction.
  • This emission direction does not necessarily match the actual emission direction of the light emitting unit 50, but in order to realize hit determination processing, the direction of a straight line connecting the set position and the above-described intersection position is assumed to be a virtual emission direction. Set to.
  • the hit determination unit 114 performs a hit determination process with an object in the object space based on the emission direction. That is, hit determination with a target object such as an enemy object is performed. For example, by setting a straight line (light ray) extending in the obtained emission direction and performing an intersection determination between the straight line and the object, it is determined whether or not the light (bullet, shot) from the light emitting unit 50 has hit the object. A hit determination process for checking is performed.
  • the image generation unit 120 When the projection screen is a screen composed of one curved surface or a plurality of surfaces, the image generation unit 120 performs a distortion correction process based on the shape information of the projection screen to generate a projection image.
  • the shape information of the projection screen is, for example, information representing the shape of the projection screen by a mathematical expression (for example, an ellipsoidal equation).
  • the image generation unit 120 generates a projection image by performing distortion correction processing for reflecting the shape of the projection screen formed by one curved surface or a plurality of surfaces.
  • the hit determination unit 114 obtains the screen spot light position based on the shape information of the projection screen.
  • the screen spot light position is obtained based on information representing the shape of the projection screen by a mathematical expression or the like. For example, as will be described later, when the position of the intersection of the straight line along the direction vector and the projection screen is obtained as the screen spot light position, the mathematical expression of the straight line along the direction vector and the mathematical expression representing the shape of the projection screen Based on the above, the screen spot light position can be obtained.
  • the hit determination unit 114 obtains the direction vector of the spot light viewed from the imaging unit 40 based on the position of the spot light on the captured image. For example, in the camera coordinate system of the imaging unit 40, a direction vector representing the direction of the spot light reflected on the screen 20 is obtained. Next, the hit determination unit 114 determines the intersection position of the straight line along the direction vector (the straight line along the direction of the direction vector from the representative position of the imaging unit 40) and the projection screen as the screen spot light position. Asking. Then, the hit determination unit 114 obtains the direction of a straight line connecting the set value assumed as the position of the light emitting unit 50 (or the position of the player) and the screen spot light position that is the intersection position as the emission direction, Perform hit determination processing.
  • the object space setting unit 104 performs an aiming object placement process. For example, the object space setting unit 104 obtains the arrangement position of the aiming object (gun site) representing the aim of the light emitting unit 50 in the object space based on the emission direction described above. Then, the aiming object is arranged at the obtained arrangement position. Specifically, the object space setting unit 104 arranges the aiming object on a straight line along the emission direction. For example, an aiming object that is a three-dimensional object is arranged so as to intersect the straight line.
  • the image generation unit 120 generates a projection image on which the spot light detection adjustment object is displayed.
  • a spot light detection adjustment object (initial adjustment object) generates a projection image displayed inside the imaging range (imaging area) of the imaging unit 40.
  • the object space setting unit 104 detects the detection adjustment object (three-dimensional) so that the detection adjustment object is displayed inside the imaging range of the imaging unit 40 in the projection area (screen area) of the projection image. Object) in the object space.
  • the imaging range specifying unit 116 performs processing for specifying the imaging range of the imaging unit 40.
  • the imaging range is narrower than the projection area (projected image display area).
  • the imaging range area is, for example, an area included in the projection area. Then, due to variations in the mounting position and mounting direction of the imaging unit 40, variations occur in the boundaries of the imaging range.
  • the imaging range specifying unit 116 specifies the boundary of the imaging range.
  • the imaging range specifying unit 116 specifies the imaging range of the imaging unit 40 based on the second captured image obtained by capturing the projection image or the history information of the spot light detection position.
  • the second captured image is an image different from the captured image captured by the imaging unit 40 for spot light detection.
  • the captured image is a captured image for infrared light
  • the second captured image is a captured image for visible light.
  • the second captured image may be captured by providing a second image capturing unit separate from the image capturing unit 40, or by switching a filter (for example, an infrared filter) of the image capturing unit 40 or the like.
  • the spot light detection position history information is a spot light detection position history obtained by an operator such as a player operating the light emitting unit 50.
  • the history information of the detection position of the spot light may be history information of a detection position by a past game play, or may be history information of a detection position by a game play of another player.
  • the image generation unit 120 generates a projection image for projection.
  • the generated projection image is projected onto the screen 20 by the projection device 30 shown in FIGS.
  • the projection image for projection is, for example, a projection image generated by projection mapping processing.
  • Projection mapping is a method of projecting with the projection device 30 taking into account the state (shape, etc.) of the object (screen) to be projected and the state (position, direction, etc.) of the projection device 30.
  • the image generation unit 120 determines that the pixel on the drawing buffer 176 (pixel of the projection image) is the intersection point between the light beam emitted through the optical system (such as a wide-angle lens) of the projection device 30 and the projection screen.
  • the color of the pixel on the drawing buffer 176 is determined with the straight line connecting the representative viewpoint positions as the line of sight of the virtual camera. For example, using this straight line as the line of sight of the virtual camera, the pixel color is determined from the information in the object space. Specifically, the color of the pixel is determined according to the intersection position of this straight line and the object in the object space (the position of the point on the object where this straight line first arrives in the object space).
  • This processing can be realized by the ray tracing method, but the drawing load is large and it is difficult to implement in real time. Therefore, a more practical method can be realized by saving the rendering result to a render texture on a flat screen that is as close as possible to a curved screen (this will be referred to as a “proxy plane”). Good. Then, the projection image is generated by determining the color of the pixel in this way.
  • the representative viewpoint position is a position assumed to be the player's viewpoint position (the position of the virtual camera).
  • the image generation unit 120 obtains a straight line connecting the vertex position of the object in the object space and the representative viewpoint position, and obtains an intersection position between the straight line and the projection screen. Then, based on the obtained intersection position, the vertex position on the drawing buffer 176 for the drawing object corresponding to the object is obtained. Then, a projection image is generated by drawing a drawing object in the drawing buffer 176 based on the obtained vertex position.
  • the projection screen is, for example, a virtual screen for generating a projection image that is arranged and set in an object space, which is a virtual three-dimensional space, corresponding to the screen 20 in FIGS.
  • distortion correction processing also referred to as projection mapping processing
  • This projection screen can be composed of one curved surface or a plurality of surfaces (curved surface, flat surface).
  • the drawing object is a two-dimensional object corresponding to the three-dimensional object to be drawn.
  • a three-dimensional object means an object arranged in a three-dimensional space (object space), and is an object having, for example, a three-dimensional coordinate value (X, Y, Z coordinate value) as a coordinate value of its vertex.
  • a drawing object is an object having, for example, a two-dimensional coordinate value (X, Y coordinate) as a coordinate value of its vertex.
  • the drawing buffer 176 is a buffer capable of storing image information in units of pixels, such as a frame buffer and a work buffer.
  • the projection screen is a curved screen (dome-shaped screen)
  • the projection screen may be a screen composed of one curved surface or a plurality of surfaces (plane, curved surface). That is, as the screen, a screen configured by one curved surface, a screen configured by a plurality of planes, a screen including a curved surface portion and a plane portion, and the like can be assumed.
  • a method for generating a projection image for projection will be described.
  • the projection screen is a screen composed of one curved surface or a plurality of surfaces
  • a distortion correction process based on the shape information of the projection screen is performed to generate a projection image.
  • a specific example of a distortion correction method performed when generating a projection image will be described.
  • the distortion becomes linear (distortion due to the perspective), and therefore it is possible to easily correct by using only one projective transformation matrix.
  • the pixel PX (XP, YP) on the drawing buffer (frame buffer) obtains a light ray RY emitted through the lens of the projection device.
  • the position of the intersection PS (XS, YS, ZS) where the ray RY intersects the screen SC is obtained.
  • the intersection PS is obtained using an equation representing the straight line RY and an equation representing the screen SC.
  • a mathematical expression representing the screen SC is shape information of the screen SC.
  • the color of the intersection PS (XS, YS, ZS) needs to be a color when the player (observer) observes the object space (virtual space). Therefore, a straight line LV connecting the position VP of the virtual camera VC corresponding to the representative viewpoint of the player and the position of the intersection PS (XS, YS, ZS) is obtained.
  • the color of the pixel of the projected image on the drawing buffer is determined from the information in the object space. For example, the position of the point PB (XB, YB, ZB) on the three-dimensional object OB that reaches first in the object space is obtained, and the color of the pixel of the projection image on the drawing buffer is determined accordingly.
  • the color of the pixel of the projection image is determined by using the color of the intersection (render texture coordinates (U, V)) between the plane (render texture) drawn in advance and the straight line LV.
  • a render texture can be created by selecting a plane as close as possible to the projection plane (hereinafter referred to as a proxy plane) in advance and performing a normal drawing method, that is, drawing with the plane as the projection plane.
  • FIG. 5 shows an example of such proxy planes PL1 and PL2.
  • Point PP is the intersection of straight line LV and proxy plane PL1 (PL2).
  • the render texture reference position only needs to be calculated once, as long as the viewpoint and the position of the projection device do not change.
  • a typical method for storing the data for each pixel of the drawing buffer, a pixel value (texel value) at which position (U, V) of the render texture is referred to one sheet. There is a method to keep it as a texture. This texture is called a “UV map”.
  • FIG. 6 shows the relationship among the drawing buffer, UV map, and render texture of the projection apparatus.
  • the corresponding points (UV coordinates) of the render texture shown in FIG. 6 for all the pixels on the drawing buffer requires a large resource. If there is no room to prepare such a large resource, the corresponding point (XP, YP) on the drawing buffer and the corresponding point (U, V) on the render texture for the representative vertex appropriately arranged on the screen SC. And make a mesh with triangular polygons connecting them.
  • the (U, V) coordinates recorded as information at the vertices of the triangle polygon are referred to, and the (U, V) coordinates interpolated therefrom are used for the points inside the triangle polygon. Like that. In this way, resources can be saved significantly.
  • the position of the intersection PS (XS, YS, ZS) between the obtained straight line LV and the screen SC is obtained.
  • the intersection PS is obtained using an equation representing the straight line LV and an equation representing the screen SC.
  • a mathematical expression representing the screen SC is shape information of the screen SC.
  • a straight line LR connecting the position of the intersection PS (XS, YS, ZS) and the position of the projection device PJ is obtained.
  • the position of the point PD (XD, YD) on the drawing buffer corresponding to the straight line LR is obtained.
  • This point PD corresponds to the vertex of the drawing object OBD on the drawing buffer corresponding to the three-dimensional object OB.
  • information on the optical system such as the lens characteristics and arrangement of the projection device PJ is used.
  • a projection image can be generated on the drawing buffer by performing a rasterizing process that connects the vertices of the drawing object OBD and paints colors.
  • vertex division processing is performed on the three-dimensional object OB in the object space with the vertex division number set by the vertex division number setting unit. Then, an intersection position between the straight line connecting the vertex position of the three-dimensional object OB after the vertex division process and the position of the virtual camera VC and the projection screen SC is obtained. Then, based on the obtained intersection position, the vertex position in the drawing buffer for the drawing object OBD corresponding to the three-dimensional object OB is obtained. Then, based on the obtained vertex position of the drawing object OBD, the drawing object OBD is drawn in the drawing buffer to generate a projection image for projection.
  • a straight line in the object space is drawn as a straight line on the drawing buffer, and as a result, a situation in which a distorted image is observed can be suppressed.
  • FIG. 8 shows an example of a projection image generated by the image generation system of this embodiment.
  • a projection image as shown in FIG. 8 is generated on the drawing buffer, and the generated projection image is projected onto the screen 20 by the projection device 30.
  • This projection image is an image that has been subjected to the above-described distortion correction in pixel units or distortion correction in vertex units.
  • the projected image shown in FIG. 8 is projected onto the screen 20 in FIGS. 1 and 2, and the player plays a shooting game on a target target object such as an enemy object while viewing the projected image reflected on the screen 20.
  • a target target object such as an enemy object
  • the light emitting unit 50 imitating a gun is held in the hand, the target target object is aimed, and a trigger (firing switch) provided in the light emitting unit 50 is pulled to perform shooting.
  • the emitting direction of light (infrared light) from the light emitting unit 50 is set on the game as the direction in which the bullet of the gun flies, and hit determination processing between the target target object and the bullet (emitted light) is performed. Is called.
  • a known shot effect process such as destruction of the target target object is performed.
  • FIG. 8 shows an example of a game image when two players are multi-playing.
  • SG1 is an aiming object for the first player
  • SG2 is an aiming object for the second player.
  • These aiming objects SG1 and SG2 are objects (three-dimensional objects) arranged in the object space, and the arrangement positions of the aiming objects SG1 and SG2 in the object space are obtained based on the emitting direction of the light emitting unit 50, for example. It is done. Therefore, the images of the aiming objects SG1 and SG2 are also images that have been subjected to the above-described distortion correction in units of pixels or vertices.
  • FIGS. 9A and 10A are explanatory diagrams of a shooting game realized by a conventional image generation system
  • FIGS. 9B and 10B are realized by the image generation system of the present embodiment. It is explanatory drawing of a shooting game to be performed.
  • a game image is displayed on a flat screen 520 of an LCD or CRT, and the player operates the light emitting unit 550 (gun-type controller) while viewing the game image. Play a shooting game. Since the game image is displayed on the flat screen 520, the shooting range by the light emitting unit 550 is narrow as indicated by A1.
  • the projection device 30 projects a projection image onto the dome-shaped (curved surface) screen 20.
  • the player plays the shooting game while holding the light emitting unit 50 while viewing the projection image projected on the screen 20. Since the projected image, which is a game image, is projected onto the dome-shaped screen 20, the shooting range by the light emitting unit 50 is wide as shown by A2. That is, it is possible to realize a shooting game in which bullets are hit against an enemy attacking from the upper side of the screen 20 and an enemy attacking from the lower direction.
  • FIGS. 10A and 10B are examples of a multiplayer shooting game played by two players.
  • the shooting range by the light emitting unit 550 of the first player is narrow as shown by A3
  • the shooting range by the light emitting unit 552 of the second player is also narrow as shown by A4.
  • the projection image from the projection device 30 is projected on the entire dome-shaped screen 20 provided so as to cover the first and second players. Is done. Therefore, the shooting range by the light emitting unit 50 of the first player and the shooting range by the light emitting unit 52 of the second player are very wide as indicated by A5. For example, as shown at A6, the first player can hit a bullet against an enemy that appears in the front direction of the second player. Similarly, as shown at A7, the second player can hit a bullet against an enemy that appears in the front direction of the first player.
  • the huge dome-shaped screen 20 that completely wraps the field of view of two (or one) players is employed. Therefore, it is possible to enjoy a shooting game (gun game) of a new experience that aims at the enemy attacking from the top, bottom, left and right while feeling an overwhelming immersive feeling together. Accordingly, it is possible to provide a shooting game that can be enjoyed by a wide range of customers such as couples, families, and groups.
  • the present embodiment employs the following hit determination method.
  • FIG. 11 is a diagram for explaining a hit determination method according to this embodiment.
  • the processes (1), (2), (3), (4), and (5) shown in FIG. (1) First, the position PSL (XL, YL) on the captured image of the spot light by the light from the light emitting part GN is detected.
  • the coordinates of the position PSL (XL, YL) are represented by, for example, a coordinate system (for example, a CCD coordinate system) of the image sensor. That is, infrared light is emitted from the light emitting portion GN (gun-type device) of the player, and the spot light of the infrared light (spot light formed on the screen 20 in FIGS.
  • a wide-angle lens For example, an image is taken (photographed) by an imaging unit CM provided with a fisheye lens. Then, image analysis processing of the obtained captured image is performed to obtain coordinates (CCD coordinate system) of the position PSL (XL, YL) of the spot light (red point) of the infrared light reflected in the captured image.
  • a direction vector VSL corresponding to the spot light is obtained based on the position PSL (XL, YL) of the spot light on the captured image. That is, the direction vector VSL of the spot light viewed from the imaging unit CM is obtained.
  • This direction vector VSL is a direction vector in the camera coordinate system of the imaging unit CM, for example.
  • the imaging unit CM has a wide viewing angle due to the refraction effect of a wide-angle lens (fisheye lens). For example, the viewing angle is widened such that the left and right viewing angle is about 120 degrees and the vertical viewing angle is about 90 degrees.
  • a wide projection area of the dome-shaped screen 20 can be accommodated in the imaging range of the imaging unit CM. And when calculating
  • the position of the intersection SL (XC, YC, ZC) between the straight line LL along the direction vector VSL and the projection screen SC is obtained. That is, in this embodiment, the screen spot light position, which is the spot light position on the screen 20, is obtained based on the spot light position PSL (XL, YL) on the captured image.
  • XC, YC, ZC) corresponds to the screen spot light position.
  • the direction vector VSL of the camera coordinate system is converted into a real world world coordinate system (dome coordinate system). That is, the direction of the direction vector VSL in the camera coordinate system is converted into the direction in the world coordinate system, and the installation direction (imaging direction) of the imaging unit CM is reflected in the direction vector VSL.
  • the imaging unit CM is installed inclined at a predetermined angle in the downward direction, and the inclination angle and the like are reflected in the direction vector VSL. Then, the position of the intersection SL (XC, YC, ZC) between the straight line LL and the screen SC along the direction of the direction vector VSL is obtained.
  • the position of the intersection SL is obtained using an equation representing the straight line LL along the direction vector VSL and an equation representing the screen SC.
  • a mathematical expression representing the screen SC is shape information of the screen SC.
  • the position of the obtained intersection SL (XC, YC, ZC) corresponds to the position of the spot light on the screen SC.
  • the emission direction DG (gun direction) is determined.
  • This set position PG is an ideal position of the light emitting part GN assumed in the real world.
  • the set position PG can be represented by fixed coordinate values (X, Y, Z coordinates) with the seat surface position of the player seat 10 in FIGS. 1 and 2 as a reference position. That is, the coordinates of the setting position PG are determined on the assumption that the light emitting portion GN is located at the setting position PG.
  • the set position PG may be a position set as a representative position of the player (a position of a predetermined part of the player). For example, when the position of the light emitting unit GN (or the position of the player) can be detected, the detected position may be set as the set position PG.
  • the setting position PG is a variable position.
  • a hit determination process with the object TOB in the object space is performed. That is, assuming that the emission direction DG (emission angle) is the direction of the light emission part GN (gun) that the player holds, the object TOB hit determination process is performed based on the straight line LG along the emission direction DG. Do. For example, the hit determination process is realized by the intersection determination between the straight line LG and the object TOB. That is, a ray along the emission direction DG is skipped, and this ray is extended to perform hit determination processing with the object TOB.
  • FIG. 12 is a flowchart showing the hit determination process of the present embodiment described above.
  • step S1 the position PSL of the spot light on the captured image (CCD coordinate system) is obtained (step S2). Then, a direction vector VSL (camera coordinate system) corresponding to the position PSL of the spot light is obtained (step S2).
  • the obtained direction vector VSL is converted from the camera coordinate system to the world coordinate system (step S3). Then, the position of the intersection SL between the straight line LL and the screen SC along the direction vector VSL is obtained (step S4).
  • step S5 the direction from the gun setting position PG to the position of the intersection SL is obtained as the emission direction DG.
  • hit determination processing is performed using the straight line LG along the obtained emission direction DG (step S6).
  • an appropriate hit determination process reflecting the dome shape or the like can be realized in the image generation system that projects the projection image on the dome-shaped screen 20.
  • the screen spot light position which is the position of the spot light on the screen SC
  • the spot light position PSL on the captured image is obtained from the spot light position PSL on the captured image.
  • the direction vector VSL corresponding to the spot light position PSL on the captured image is obtained, and the position of the intersection SL with the screen SC is obtained as the screen spot light position. Therefore, the position of the intersection SL reflecting the shape of the dome-shaped screen SC can be obtained. In addition, for example, when the shape of the screen SC is changed, this can be easily handled.
  • the direction vector VSL is obtained from the position PSL
  • the information of the optical system of the imaging unit CM can be used. Therefore, the position of the intersection SL that also reflects the information of the optical system of the imaging unit CM can be obtained.
  • the position of the intersection SL corresponds to the position of the spot light formed on the screen 20 by the light emitting part GN in the real world. Accordingly, by setting the light emission direction DG of the light emitting portion GN using the position of the intersection SL and performing hit determination processing with the object TOB, appropriate hit determination processing reflecting the dome shape and the like can be realized. It becomes like this.
  • a projected image is projected onto a single flat screen composed of one plane, and the position of the spot light formed on the single flat screen by the light emitting unit
  • hit detection is performed by detecting based on the captured image, obtaining the light emission direction only based on the position of the spot light.
  • a set position set as the representative position of the light emitting unit 50 or the player is prepared. Then, the direction from the set position to the screen spot light position is set as the light emission direction, and hit determination processing is executed. In this way, even when a game such as that shown in FIGS. 9B and 10B is realized using a projection screen composed of one curved surface or a plurality of surfaces, for projection. An accurate hit determination process reflecting the shape of the screen can be realized.
  • the position of the spot light may be detected by imaging the projection area by the imaging unit CM having a fisheye lens as a wide-angle lens. In this way, it is possible to cope with the case where the screen 20 has a dome shape and the projection area of the projection image is very wide.
  • the shooting range by the light emitting unit 50 is very wide. Therefore, for example, in FIG. 9B, it is possible to hit a bullet against an enemy attacking from above or below the screen 20.
  • the first player can hit a bullet against an enemy appearing in the front direction of the second player.
  • the second player can hit a bullet against an enemy that appears in the front direction of the first player.
  • the projection image from the projection device 30 is projected onto the entire dome-shaped screen 20 provided so as to cover the first and second players. Therefore, it is difficult for an imaging unit using a normal lens to detect the position of the spot light formed on such a screen 20.
  • the imaging range can be set by the fish-eye lens so that the entire giant dome-shaped screen 20 as shown in FIG.
  • the position of the spot light formed on the top can be detected appropriately. Accordingly, it is possible to realize a spot light detection system optimal for a shooting game as shown in FIGS. 9B and 10B.
  • an aiming object is required to aim at the enemy.
  • the aiming object is generally realized by a two-dimensional object arranged on a screen.
  • the projected image is a deformed image reflecting the dome shape as shown in FIG. Therefore, it is difficult to display an appropriate aim on such a projection image by the method of arranging a two-dimensional aiming object on the screen as described above.
  • a method is employed in which the arrangement position of the aiming object in the object space is obtained based on the emission direction DG obtained in FIG.
  • the emission direction DG of the light emission part GN is obtained by the method of FIG.
  • the arrangement position of the aiming object SG in the object space is obtained based on the emission direction DG, and the aiming object SG is arranged at the obtained arrangement position. That is, the aiming object SG is arranged not as a two-dimensional object on the screen but as a three-dimensional object (an object having three-dimensional coordinates) in an object space that is a virtual three-dimensional space.
  • the aiming object SG is arranged on the straight line LG along the emission direction DG.
  • the aiming object SG is arranged at the position of the intersection between the straight line LG and the screen SC.
  • the aiming object SG is displayed in the direction aimed by the player holding the light emitting part GN in his / her hand. For example, when the player moves the light emitting unit GN up, down, left, and right, the aiming object SG also moves up, down, left, and right in conjunction therewith. From the viewpoint of the player, when the aiming object SG overlaps the object TOB and the trigger of the light emitting part GN is pulled, the bullet from the light emitting part GN can be hit by the object TOB.
  • the aiming object SG is arranged in the object space by effectively utilizing the position of the intersection SL and the emission direction DG obtained for the hit determination process.
  • images of appropriate aiming objects SG1 and SG2 reflecting the shape of the screen 20 are displayed on the projection image.
  • this projection image by projecting this projection image onto the screen 20, it is possible to display images of the aiming objects SG1 and SG2 that appear to be in an appropriate shape when viewed from the player. Therefore, it is possible to display an aiming object suitable for an image generation system that performs projection mapping.
  • the aiming object SG is disposed on the straight line LG along the emission direction DG, but the present embodiment is not limited to this.
  • the aiming object SG may be arranged on a straight line LSV connecting the position VP of the virtual camera VC and the position of the intersection SL. In this way, the aiming object SG can be arranged so that it looks appropriate from the viewpoint of the player.
  • the arrangement position of the aiming object SG is not limited to the intersection position with the screen SC.
  • the aiming object SG ′ may be arranged behind the intersection position with the screen SC.
  • the aiming objects SG and SG ′ appear to be at the same position when viewed from the viewpoint of the player (virtual camera VC), but in the case of FIG.
  • FIGS. 15A and 15B are diagrams illustrating a method for obtaining the direction vector VSL in an ideal lens LEN such as a pinhole camera model.
  • FIG. 15A the position PSL (x, y) of the spot light in the coordinate system of the CCD that is the image sensor is detected. Then, a direction vector VSL in the camera coordinate system is obtained from the position PSL (x, y) in the CCD coordinate system.
  • the value range in the CCD coordinate system is (0 to 1), but in FIG. 15B, it is converted from (0 to 1) to ( ⁇ 1 to +1).
  • the direction of the Y axis is reversed with respect to FIG.
  • VSL ((2x-1) x (tan (Ax / 2)),-(2y-1) x (tan (Ay / 2)), 1) (4)
  • FIG. 16 is a diagram for explaining a method for obtaining the direction vector VSL in an f ⁇ lens often used for fisheye lenses.
  • VSL ((X / L) ⁇ sin ⁇ , (Y / L) ⁇ sin ⁇ , cos ⁇ ) (8)
  • the direction vector VSL may be obtained by applying the method of FIGS. 15A and 15B to the captured image after the image correction processing.
  • An actual lens is neither an ideal lens nor an f ⁇ lens, and often has a distortion that cannot be expressed by a simple expression.
  • FIG. 15A and FIG. 15B may be applied to obtain the direction vector VSL.
  • position detection adjustment work (gun initialization) is required.
  • the spot light detection adjustment objects IT1, IT2, IT3, IT4, and IT5 are displayed on the projection image at the time of initial adjustment.
  • FIG. 17A the detection adjustment object IT1 is displayed on the upper left of the screen. Then, the operator (for example, an amusement facility clerk) aims at the detection adjustment object IT1 and pulls the trigger of the light emitting unit 50.
  • FIGS. 17B, 18A, 18B, and 19 detection adjustment objects IT2, IT3, IT4, and IT5 are respectively displayed at the upper right, lower left, lower right, and middle of the screen. indicate. The operator then targets these detection adjustment objects IT2, IT3, IT4, and IT5 and pulls the trigger of the light emitting unit 50.
  • FIGS. 17A to 19 are projection images on which distortion correction processing has been performed in the same manner as in FIG. 8, and the detection adjustment objects IT1, IT2, IT3, IT4, and IT5 are arranged in the object space. Since it is a dimensional object, IT1, IT2, IT3, IT4, and IT5 are deformed images.
  • the mounting position and mounting direction of the imaging unit 40 vary. That is, the imaging unit 40 is attached to the projection device 30 such that the imaging direction matches (substantially matches) the projection direction of the projection device 30. In addition, the imaging unit 40 is attached at a predetermined position with respect to the projection device 30. However, there are variations in the mounting position and mounting direction of the imaging unit 40 due to assembly errors during the manufacture of the game system. Then, variation also occurs in the imaging range of the imaging unit 40 in the projection area.
  • RSC is a projection area (screen area) of a projection image
  • RCM is an imaging range of the imaging unit 40 in this projection area RSC.
  • the wide-angle lens (for example, fisheye lens) of the projection device 30 is a wider-angle lens than the wide-angle lens (for example, fisheye lens) of the imaging unit 40. That is, the projection range of the projection device 30 is wider than the imaging range of the imaging unit 40.
  • the imaging range RCM of the imaging unit 40 is narrower than the projection area RSC of the projection image.
  • the imaging range RCM shifts, for example, in the DRA direction with respect to the projection area RSC.
  • the direction in which the imaging range RCM shifts may be various depending on the mounting position of the imaging unit 40 and the variation in the mounting direction.
  • a projected image is generated so that the spot light detection adjustment objects IT1, IT2, IT3, IT4, and IT5 are displayed inside the imaging range RCM of the imaging unit 40.
  • the detection adjustment objects IT1, IT2, IT3, IT4, and IT5 are displayed on the inner side by a given distance from the boundary of the imaging range RCM as shown in DR1, DR2, DR3, DR4, and the like.
  • the detection adjustment objects IT1 to IT5 are arranged in the object space so that the detection adjustment objects IT1 to IT5 are displayed inside the imaging range RCM in the projection area RSC of the projection image.
  • adjustment work gun initialization as shown in FIGS. 17A to 19 cannot be executed in the first place.
  • the detection adjustment object IT3 at the lower left of the screen does not enter the imaging range RCM due to the imaging range RCM shifting in the upper right direction as shown in FIG. Then, even if the operator aims at the detection adjustment object IT3 and pulls the trigger of the light emitting unit 50 at the time of initial adjustment, the spot light aimed at the detection adjustment object IT3 is caused by the imaging unit 40. The image is not captured. Accordingly, since the emission direction DG corresponding to the detection adjustment object IT3 cannot be detected, a situation in which the above-described correction processing cannot be realized occurs.
  • a detection adjustment object or the like is displayed on the projection image, the detection adjustment object is imaged using an imaging unit capable of imaging visible light, and image analysis processing of the obtained captured image is performed.
  • Light position detection adjustment may be performed.
  • barcode image objects serving as detection adjustment objects are displayed at the four corners of the projected image.
  • these bar code image objects are imaged, and by performing image analysis processing of the captured image, a shift in the display position of the bar code image object is detected, and a spot is detected.
  • Perform light position detection adjustment is performed.
  • an imaging unit capable of imaging visible light is realized by, for example, switching a filter of the imaging unit 40 that emits infrared light.
  • the detection adjustment object in this case is not limited to the barcode image object.
  • four objects having different colors may be displayed at the four corners of the projected image.
  • the position detection adjustment of the spot light may be performed by irradiating the four corners of the projected image with laser or the like and performing image analysis processing of the irradiation position of the laser.
  • the process for specifying the imaging range RCM of the imaging unit 40 may be performed.
  • the imaging range RCM of the imaging unit 40 is specified based on the second captured image obtained by capturing the projection image or the history information of the spot light detection position.
  • a projection image of a specific image pattern is displayed, and the above-described imaging unit capable of capturing visible light captures the projection image of the specific image pattern, and image analysis processing of a second captured image that is the obtained captured image
  • the boundary of the imaging range RCM is specified.
  • the operator may perform an operation of shaking the light emitting unit 50 up, down, left, and right, and the boundary of the imaging range RCM may be detected based on the history of the spot light detection position at that time.
  • the boundary of the imaging range RCM may be detected on the basis of the spot light detection position history based on the operation of the player who played before the current player.
  • the aiming object SG when the aiming object SG is located within the imaging range RCM of the imaging unit 40, the light emission direction DG is detected by the method described in FIG.
  • the aiming object SG can be displayed on the projection image by arranging the aiming object SG on the projection image.
  • the emission direction DG cannot be detected as shown in FIG. 13, and the aiming object SG cannot be displayed at an appropriate position. That is, the imaging range RCM is narrower than the projection area RSC of the projection image. Therefore, an area RF that is inside the projection area RSC and outside the imaging range RCM is an area where a projection image exists but spot light cannot be detected. Accordingly, even if the player points the light emitting unit 50 toward the region RF so that spot light is formed in the region RF, the method of FIG. 13 cannot display the aiming object SG in the region RF. .
  • FIGS. 22A and 22B a method of shifting the display position of the aiming object SG in the outward direction DRS from the center of the imaging range RCM toward the outside is adopted. That is, the display position of the aiming object SG is shifted in the outward direction DRS from the display position specified by the method of FIG. For example, when the display position of the aiming object SG specified by the method of FIG. 13 is a position near the boundary of the imaging range RCM, the display position of the aiming object SG becomes a position near the boundary of the projection area RSC. Next, the display position of the aiming object SG is moved in the outer direction DRS.
  • the display position of the aiming object SG is not accurate, but the aiming object SG is displayed as shown in FIG. 22B even when the player points the emitting unit 50 toward the region RF. As a result, the player's unnatural feeling can be reduced.
  • the present invention can also be applied to a head tracking system and glasses-type stereoscopic vision.
  • the representative viewpoint position of the player is determined based on the position of the head, and image correction processing and aim correction processing corresponding to this position are performed, so that a more natural image and aim movement can be performed. realizable.
  • drawing on the proxy plane and image distortion correction processing are performed by dividing the viewpoint position of the player into the left eye and the right eye, and then combining the two images as a stereoscopic video. That's fine.
  • the representative viewpoint position may be used as a starting point of a straight line that determines the projecting direction of the bullet.
  • the representative viewpoint is not divided into the left eye and the right eye. This is performed using one point such as the center position of both eyes. As a result, stereoscopic viewing becomes possible, and it is possible to provide a more realistic video.
  • SC screen PJ projector (projector), VC virtual camera, VP virtual camera position, OB object, OBD drawing object, The position of the spot light on the PSL captured image, CM imaging unit, VSL direction vector, LL, LG straight line, SL intersection, GN light emission part, PG setting position, DG emission direction, TOB object, SG, SG1, SG2 Aiming object, IT1 to IT5 detection adjustment object, RCM imaging range, RSC projection area, 10 player seats, 12 struts, 14 frame, 16 control board 20 screen, 30 projector, 40 imaging unit, 42 lens, 44 image sensor, 50 light emitting part, 100 processing unit, 102 game calculation unit, 104 object space setting unit, 106 moving body computing unit, 108 virtual camera control unit, 110 receiving unit, 114 hit determination unit, 116 imaging range specifying unit, 120 image generation unit, 130 sound generation unit, 160 operation unit, 170 storage unit, 172 Object data storage unit, 176 Drawing buffer, 180 Information storage medium, 190 Display unit, 192 Sound output unit,

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

 画像生成システムは、オブジェクト空間設定部と、プロジェクション用の投影画像を生成する画像生成部と、撮像部からの撮像画像を受け付ける受け付け部と、光出射部からの光によるスポット光の撮像画像上での位置に基づいて、プロジェクション用スクリーンでのスポット光の位置であるスクリーンスポット光位置を求め、光出射部又はプレーヤの代表位置として設定された設定位置から、スクリーンスポット光位置へと向かう方向を、光出射部の光の出射方向として求め、求められた出射方向に基づいて、前記オブジェクト空間内のオブジェクトとのヒット判定処理を行うヒット判定部を含む。

Description

画像生成システム、画像生成方法及び情報記憶媒体
 本発明は、画像生成システム、画像生成方法及び情報記憶媒体等に関する。
 従来より、投影装置(プロジェクタ)により曲面スクリーン(ドーム形状のスクリーン)に対して投影される投影画像を生成するシステムが知られている。そして、曲面スクリーンに対して歪みの少ない投影画像を投影する従来技術としては、例えば特許文献1に開示される技術がある。
 また、光出射部からの光のスポット光の位置を検出して、シューティングゲームにおけるヒット判定を行うゲームシステムも知られている。このようなゲームシステムの従来技術としては、例えば特許文献2に開示される技術がある。
特開2003-85586号公報 特開2001-4327号公報
 しかしながら、曲面スクリーンへの投影画像を生成する画像生成システムにおいて、光出射部からの光のスポット光の位置を検出して、光出射部の光の出射方向とオブジェクトとの適切なヒット判定処理を実現する手法については提案されていなかった。
 本発明の幾つかの態様によれば、プロジェクション用の投影画像を生成しながら適切なヒット判定処理を実現できる画像生成システム、画像生成方法及び情報記憶媒体等を提供できる。
 本発明の一態様は、オブジェクト空間の設定処理を行うオブジェクト空間設定部と、前記オブジェクト空間に配置される複数のオブジェクトの情報に基づいて、プロジェクション用の投影画像を生成する画像生成部と、前記投影画像の投影領域を撮像する撮像部からの撮像画像を受け付ける受け付け部と、光出射部からの光によるスポット光の前記撮像画像上での位置に基づいて、プロジェクション用スクリーンでの前記スポット光の位置であるスクリーンスポット光位置を求め、前記光出射部又はプレーヤの代表位置として設定された設定位置から、前記スクリーンスポット光位置へと向かう方向を、前記光出射部の光の出射方向として求め、求められた前記出射方向に基づいて、前記オブジェクト空間内のオブジェクトとのヒット判定処理を行うヒット判定部と、を含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
 本発明の一態様によれば、撮像画像上でのスポット光の位置に基づいて、プロジェクション用スクリーンでのスポット光の位置であるスクリーンスポット光位置が求められる。そして、光出射部又はプレーヤの代表位置として設定された設定位置からスクリーンスポット光位置へと向かう方向が光の出射方向として求められ、この出射方向に基づいてオブジェクト空間内のオブジェクトとのヒット判定処理が実行される。このようにすれば、プロジェクション用の投影画像を生成する画像生成システムにおいて、プロジェクション用スクリーンの形状を反映した適切なヒット判定処理を実現できる。即ち、設定位置からスクリーンスポット光位置へと向かう方向を出射方向にすれば、プロジェクション用スクリーンが1つの平面だけで構成されるスクリーンではない場合に、プロジェクション用スクリーンの形状を反映させた適切な出射方向を求めて、この出射方向に基づくヒット判定処理を実行できるようになる。
 また本発明の一態様では、前記プロジェクション用スクリーンは、1つの曲面又は複数の面により構成されるスクリーンであり、前記画像生成部は、前記プロジェクション用スクリーンの形状情報に基づく歪み補正処理を行って、前記投影画像を生成し、前記ヒット判定部は、前記プロジェクション用スクリーンの形状情報に基づいて、前記スクリーンスポット光位置を求めてもよい。
 このように、プロジェクション用スクリーンの形状情報に基づく歪み補正処理を行えば、1つの曲面又は複数の面により構成されるプロジェクション用スクリーンの形状を反映させた適切な投影画像を生成できる。また、プロジェクション用スクリーンの形状情報に基づいてスクリーンスポット光位置を求めれば、1つの曲面又は複数の面により構成されるプロジェクション用スクリーンの形状を反映させたスクリーンスポット光位置を求めることができ、プロジェクション用スクリーンの形状を反映させた適切なヒット判定処理を実現できるようになる。
 また本発明の一態様では、前記ヒット判定部は、前記スポット光の前記撮像画像上での位置に基づいて、前記撮像部から見た前記スポット光の方向ベクトルを求め、前記方向ベクトルに沿った直線と前記プロジェクション用スクリーンとの交点位置を、前記スクリーンスポット光位置として求めてもよい。
 このようにすれば、撮像画像上でのスポット光の位置に対応するスポット光の方向ベクトルが求められ、この方向ベクトルに沿った直線とプロジェクション用スクリーンとの交点位置を求めることで、スクリーンスポット光位置を求めることができる。これにより例えば撮像部の光学系の情報等を反映させたスクリーンスポット光位置を求めることが可能になる。
 また本発明の一態様では、前記画像生成部は、描画バッファ上のピクセルが前記投影装置の光学系を通して出射される光線と前記プロジェクション用スクリーンとの交点位置と、代表視点位置とを結ぶ直線を、仮想カメラの視線として、前記描画バッファ上の前記ピクセルの色を決定してもよい。
このようにすれば、ピクセル単位での歪み補正処理を行って、プロジェクション用の投影画像を生成できるようになる。
 また本発明の一態様では、前記画像生成部は、前記オブジェクト空間内のオブジェクトの頂点位置と代表視点位置を結ぶ直線と、前記プロジェクション用スクリーンとの交点位置に基づいて、前記オブジェクトに対応する描画オブジェクトについての描画バッファ上での頂点位置を求め、前記頂点位置に基づいて前記描画バッファに前記描画オブジェクトを描画してもよい。
このようにすれば、頂点単位での歪み補正処理を行って、プロジェクション用の投影画像を生成できるようになる。
 また本発明の一態様では、前記オブジェクト空間設定部は、前記光出射部の照準を表す照準オブジェクトの前記オブジェクト空間での配置位置を、前記出射方向に基づいて求め、求められた前記配置位置に前記照準オブジェクトを配置してもよい。
 このようにすれば、光出射部の照準オブジェクトを、出射方向に基づき求められた位置に配置して、当該照準オブジェクトの画像を投影画像上に生成できるようになる。
 また本発明の一態様では、前記オブジェクト空間設定部は、前記出射方向に沿った直線上に、前記照準オブジェクトを配置してもよい。
 このようにすれば、光出射部の出射方向の変化に連動して投影画像上を移動する照準オブジェクトの画像を表示できるようになる。
 また本発明の一態様では、前記画像生成部は、前記スポット光の検出調整用オブジェクトが、前記撮像部の撮像範囲の内側に表示される前記投影画像を生成してもよい。
 このようにすれば、例えば撮像部の取り付け位置や取り付け方向等にバラツキがあった場合にも、検出調整用オブジェクトを用いたスポット光の位置検出の調整を適切に実現できるようになる。
 また本発明の一態様では、前記オブジェクト空間設定部は、前記検出調整用オブジェクトが、前記投影画像の投影領域において前記撮像部の前記撮像範囲の内側に表示されるように、前記検出調整用オブジェクトを前記オブジェクト空間に配置してもよい。
 このようにすれば、プロジェクション用の投影画像上に、スポット光の位置検出の調整を実現する検出調整用オブジェクトを適切に表示できるようになる。
 また本発明の一態様では、前記投影画像を撮像した第2の撮像画像又は前記スポット光の検出位置の履歴情報に基づいて、前記撮像部の撮像範囲を特定する撮像範囲特定部を含んでもよい。
 このようにすれば、撮像部の撮像範囲を特定することが可能になり、撮像部の撮像画像に基づくスポット光の検出処理に不具合等が生じるのを防止できるようになる。
 また本発明の一態様では、前記撮像部を含み、前記撮像部は、撮像素子と、魚眼レンズを有してもよい。
 このように撮像部に魚眼レンズを設ければ、投影画像の投影領域の広い範囲に亘って、スポット光の位置検出を実現することが可能になる。
 また本発明の一態様では、前記投影装置を含み、前記撮像部は、前記投影装置に取り付けられてもよい。
 このようにすれば、例えば投影装置の投影方向と撮像部の撮像方向を揃えることなどが容易になり、ヒット判定処理の精度等を向上できる。
 また本発明の他の態様は、オブジェクト空間の設定処理を行うオブジェクト空間設定部と、前記オブジェクト空間に配置される複数のオブジェクトの情報に基づいて、プロジェクション用の投影画像を生成する画像生成部と、前記投影画像を投影する投影装置と、前記投影画像の投影領域を撮像する撮像部と、光を出射する光出射部と、前記撮像部からの撮像画像に基づいて、前記光出射部の光の出射方向を求め、求められた前記出射方向に基づいて、前記オブジェクト空間内のオブジェクトとのヒット判定処理を行うヒット判定部と、を含み、前記撮像部は、撮像素子と、魚眼レンズを有する画像生成システムに関係する。
 本発明の他の態様によれば、投影装置により投影画像が投影され、投影画像の投影領域が撮像部により撮像される。そして撮像画像に基づいて、光出射部の光の出射方向が求められて、オブジェクト空間内のオブジェクトとのヒット判定処理が実行される。そして本発明の他の態様では、撮像部には魚眼レンズが設けられ、この魚眼レンズを介して撮像された撮像画像に基づいて、光出射部の光の出射方向が求められる。このように撮像部に魚眼レンズを設ければ、投影画像の投影領域の広い範囲に亘って、ヒット判定処理のために検出処理を実行できるようになる。従って、プロジェクション用の投影画像を生成する画像生成システムに好適なヒット判定処理を実現できるようになる。
 また本発明の他の態様は、オブジェクト空間の設定処理を行い、前記オブジェクト空間に配置される複数のオブジェクトの情報に基づいて、プロジェクション用の投影画像を生成し、前記投影画像の投影領域を撮像する撮像部からの撮像画像を受け付け、光出射部からの光によるスポット光の前記撮像画像上での位置に基づいて、プロジェクション用スクリーンでの前記スポット光の位置であるスクリーンスポット光位置を求め、前記光出射部又はプレーヤの代表位置として設定された設定位置から、前記スクリーンスポット光位置へと向かう方向を、前記光出射部の光の出射方向として求め、求められた前記出射方向に基づいて、前記オブジェクト空間内のオブジェクトとのヒット判定処理を行う画像生成方法に関係する。
図1は、本実施形態の画像生成システムを適用したゲームシステムの一例。 図2は、本実施形態の画像生成システムを適用したゲームシステムの鉛直断面図。 図3は、本実施形態の画像生成システムの構成例。 図4は、描画バッファのピクセル単位での歪み補正手法の説明図。 図5は、ピクセル単位での歪み補正に代理平面を用いる手法の説明図。 図6は、ピクセル単位での歪み補正に代理平面を用いる手法での描画バッファ、UVマップ、レンダーテクスチャの関係を示す図。 図7は、オブジェクトの頂点単位での歪み補正手法の説明図。 図8は、本実施形態の画像生成システムにより生成される投影画像の例。 図9(A)、図9(B)は、本実施形態の画像生成システムにより実現されるシューティングゲームの説明図。 図10(A)、図10(B)も本実施形態の画像生成システムにより実現されるシューティングゲームの説明図。 図11は、本実施形態のヒット判定手法の説明図。 図12は、本実施形態のヒット判定処理を説明するフローチャート。 図13は、本実施形態の照準オブジェクトの配置手法の説明図。 図14は、本実施形態の照準オブジェクトの配置手法の説明図。 図15(A)、図15(B)は、スポット光の方向ベクトルの演算手法の説明図。 図16(A)、図16(B)もスポット光の方向ベクトルの演算手法の説明図。 図17(A)、図17(B)は、スポット光の検出調整用オブジェクトの説明図。 図18(A)、図18(B)もスポット光の検出調整用オブジェクトの説明図。 図19は、スポット光の検出調整用オブジェクトの説明図。 図20(A)、図20(B)は、撮像部の撮像範囲についての説明図。 図21は、スポット光の検出調整用オブジェクトの配置手法の説明図。 図22(A)、図22(B)は、照準オブジェクトの表示制御手法についての説明図。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
 1.構成
 図1に、本実施形態の画像生成システムを適用したゲームシステムの構成例を示す。図2は、このゲームシステムの鉛直断面図である。
 図1、図2のゲームシステムは、アミューズメント施設に設置されてシューティングゲームをプレーヤがプレイするための業務用のゲームシステムである。このゲームシステムは、プレーヤシート10と、制御基板16と、ゲーム画像である投影画像が投影される曲面形状のスクリーン20と、スクリーン20に投影画像(映像)を投影する投影装置30と、スポット光の検出用の撮像部40と、銃を模した光出射部50(ガン型コントローラ)と、ゲーム音を出力するスピーカ(不図示)を備えている。
 プレーヤシート10は、着座したプレーヤの想定正視方向がスクリーン20の中央付近を向くように、その向きや高さが調整されて設けられている。本実施形態では、着座したプレーヤの正面方向を想定正視方向としている。スクリーン20は、プレーヤシート10に着座したプレーヤの正面方向(想定正視方向)に対して凸形状に形成されている。
 制御基板16には、CPU、GPU又はDSP等の各種プロセッサや、ASICや、VRAM、RAM又はROM等の各種メモリが実装されている。そして、制御基板16は、メモリに記憶されたプログラムやデータや、光出射部50等を操作するプレーヤの操作信号等に基づいて、シューティングゲームを実現するための各種処理を行う。
 投影装置30(プロジェクタ)は、プレーヤシート10の後方に設置された支柱12や筐体フレーム14に支持されて、プレーヤシート10の上方であってプレーヤシート10に着座したプレーヤに干渉しない位置に、その投影中心方向がスクリーン20の中心付近を向くように設置されている。即ち、投影中心方向がプレーヤの想定正視方向とスクリーン20との交点位置に向くように設置される。また、投影装置30には、投影レンズとして広角レンズ(例えば魚眼レンズ、即ち画角が180度を超えるような超広角レンズ)が取り付けられており、この広角レンズを通して、投影画像がスクリーン20の投影領域の全体に投影される。
 また投影装置30には、投影画像の投影領域を撮像する撮像部40が取り付けられている。例えば撮像部40の撮影方向は投影画像の投影方向に設定されている。この撮像部40により撮像された撮像画像を用いて、光出射部50からの出射光によりスクリーン20に形成されるスポット光の位置が検出される。そして検出されたスポット光の位置に基づいて光出射部50の光の出射方向が特定され、ゲーム画像に映る敵オブジェクトとのヒット判定が行われる。
 光出射部50は、銃を模して形成されたガン型のコントローラである。光出射部50には、赤外線の発光部が設けられており、この赤外光が当たることでスクリーン20にスポット光が形成される。撮像部40には、可視光を遮断し、赤外光を透過する赤外線フィルター(IRフィルター)が設けられているため、撮像部40の撮像画像に基づいて、赤外光のスポット光の位置を検出できる。
 プレーヤは、プレーヤシート10に着座して、スクリーン20に表示されるゲーム画像を見ながら、スピーカからのゲーム音を聞きつつ、ゲーム画像に出現する敵を、銃を模した光出射部50でシューティングしてゲームを楽しむ。
 本実施形態のシューティングゲームでは、オブジェクト空間(仮想3次元空間)に背景オブジェクト等のオブジェクトが配置されてゲーム空間が構成される。このオブジェクト空間内には、シューティングのターゲットとなる敵のオブジェクト等も配置されると共に、プレーヤの視点位置に仮想カメラが配置される。そして、この仮想カメラから見たオブジェクト空間の画像が、ゲーム画像として、投影装置30によってスクリーン20に投影(表示)される。
 図3に本実施形態の画像生成システムのブロック図の例を示す。なお、本実施形態の画像生成システムの構成は図3に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 撮像部40(カメラ)は、レンズ42等の光学系と、撮像素子44を有する。レンズ42は、例えば撮像素子44に像を映すレンズであり、スクリーン20の全体を撮像するための広角レンズ(例えば魚眼レンズ)である。撮像素子44は、例えばCCD又はCMOSセンサなどにより実現される。撮像部40はこれ以外にも上述の赤外線フィルター等が設けられる。
 操作部160は、プレーヤが操作データを入力するためのものである。図1、図2のゲームシステムに画像生成システムを適用した場合には、操作部160は、ガン型コントローラである光出射部50や、不図示の操作ボタン等により実現できる。
 記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。
 情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、HDD(ハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
 表示部190は、本実施形態により生成された画像を表示するものである。図1、図2のゲームシステムに画像生成システムを適用した場合には、表示部190は、液晶プロジェクタにおけるLCDや、DLPプロジェクタにおけるDMDなどにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。
 補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。
 通信部196は、有線や無線のネットワークを介して外部(例えば他の画像生成システム、サーバ、ホスト装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。
 処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
 処理部100は、ゲーム演算部102、オブジェクト空間設定部104、移動体演算部106、仮想カメラ制御部108、受け付け部110、ヒット判定部114、撮像範囲特定部116、画像生成部120、音生成部130を含む。なおこれらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 ゲーム演算部102はゲーム演算処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。
 オブジェクト空間設定部104は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行う。例えば、移動体(人、動物、ロボット、車、飛行機、船舶機等)、マップ(地形)、建物、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部172には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部104は、例えば各フレーム毎にこのオブジェクトデータを更新する処理などを行う。
 移動体演算部106は、人、動物、車、飛行機等の移動体(移動体オブジェクト)を移動させるための制御処理を行う。また移動体を動作させるための制御処理を行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(オブジェクト、モデルオブジェクト)をオブジェクト空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。
 仮想カメラ制御部108は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。
 例えば仮想カメラにより移動体を後方から撮影する場合には、移動体の位置又は方向の変化に仮想カメラが追従するように、仮想カメラの位置(視点位置)や方向(視線方向)を制御する。この場合には、移動体演算部106で得られた移動体の位置、方向又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させたりする制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は方向を特定するための仮想カメラデータに基づいて仮想カメラを制御する。
 音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。
 そして本実施形態の画像生成システムは、図3に示すように、オブジェクト空間設定部104と、受け付け部110と、ヒット判定部114と、画像生成部120を含む。また本実施形態の画像生成システム(ゲームシステム)は、撮像部40や図1、図2の投影装置30や光出射部50を含むことができる。
 オブジェクト空間設定部104は、前述のようにオブジェクト空間の設定処理を行う。オブジェクト空間は3次元のゲーム空間である。
 画像生成部120は投影画像を生成する。具体的には、オブジェクト空間に配置される複数のオブジェクト(敵オブジェクト、背景オブジェクト等)の情報に基づいて、プロジェクション用の投影画像(プロジェクションマッピング処理により生成された投影画像)を生成する。投影画像は、投影装置30が曲面形状のスクリーン20(ドーム形状のスクリーン)に対して投影する画像である。この投影画像は、液晶プロジェクタにおけるLCD或いはDLPプロジェクタにおけるDMDにより実現される表示部190に表示され、投影装置30の広角レンズ等の光学系により、スクリーン20に投影される。
 受け付け部110は、投影画像の投影領域(スクリーン領域)を撮像する撮像部40からの撮像画像を受け付ける。例えば撮像部40の撮像方向(撮影方向)は投影画像の投影方向(投影装置の投影方向)に設定されている。具体的には、撮像方向が投影方向と例えば平行(略平行)になるように撮像部40は設置されている。そして撮像部40が、スクリーン20の投影領域の画像を撮像すると、その撮像画像のデータが、画像インターフェースとして機能する受け付け部110により受け付けられる。
 ヒット判定部114は、光出射部50からの光とオブジェクトとのヒット判定処理を行う。即ち、光出射部50の光の出射方向に銃の弾が飛んだと想定し、光出射部50からの光により表される弾とオブジェクトとのヒット判定処理を行う。
 具体的にはヒット判定部114は、光出射部50からの光(例えば赤外光)によるスポット光の撮像画像上での位置(撮像素子の座標系での位置)を求める。例えば撮像部40からの撮像画像に対して画像処理等を行って、撮像画像に映るスポット光(赤外スポット光)の位置を検出する。そしてヒット判定部114は、スポット光の撮像画像上での位置に基づいて、プロジェクション用スクリーンでのスポット光の位置であるスクリーンスポット光位置を求める。例えば、撮像画像上でのスポット光の位置と、プロジェクション用スクリーンでのスポット光の位置は、一対一に対応づけることができる。スクリーンスポット光位置は、撮像画像上でのスポット光の位置に一対一に対応づけられるプロジェクション用スクリーンでのスポット光の位置である。
 そしてヒット判定部114は、光出射部50又はプレーヤの代表位置として設定された設定位置から、スクリーンスポット光位置へと向かう方向を、光出射部50の光の出射方向として求める。即ち、光出射部50の位置(又はプレーヤの位置)として想定される代表位置を、設定位置として設定し、その設定位置と、スクリーンスポット光位置とを結ぶ直線の方向を、出射方向として求める。この出射方向は、光出射部50の現実の出射方向とは必ずしも一致しないが、ヒット判定処理を実現するために、設定位置と上述の交点位置とを結ぶ直線の方向を、出射方向として仮想的に設定する。
 そしてヒット判定部114は、この出射方向に基づいて、オブジェクト空間内のオブジェクトとのヒット判定処理を行う。即ち、敵オブジェクト等の標的対象のオブジェクトとのヒット判定を行う。例えば、求められた出射方向に伸びる直線(光線)を設定し、この直線とオブジェクトとの交差判定を行うことで、光出射部50からの光(弾、ショット)がオブジェクトにヒットしたか否かをチェックするヒット判定処理を行う。
 またプロジェクション用スクリーンが1つの曲面又は複数の面により構成されるスクリーンである場合に、画像生成部120は、プロジェクション用スクリーンの形状情報に基づく歪み補正処理を行って、投影画像を生成する。プロジェクション用スクリーンの形状情報は、例えばプロジェクション用スクリーンの形状を数式(例えば楕円面の方程式)などで表した情報である。画像生成部120は、1つの曲面又は複数の面により構成されるプロジェクション用スクリーンの形状を反映させるための歪み補正処理を行って、投影画像を生成する。
 そしてヒット判定部114は、プロジェクション用スクリーンの形状情報に基づいて、スクリーンスポット光位置を求める。例えばプロジェクション用スクリーンの形状を数式等で表した情報に基づいて、スクリーンスポット光位置を求める。例えば後述するように、方向ベクトルに沿った直線とプロジェクション用スクリーンとの交点位置を、スクリーンスポット光位置として求める場合には、方向ベクトルに沿った直線の数式と、プロジェクション用スクリーンの形状を表す数式とに基づいて、スクリーンスポット光位置を求めることができる。
 またヒット判定部114は、スポット光の撮像画像上での位置に基づいて、撮像部40から見たスポット光の方向ベクトルを求める。例えば撮像部40のカメラ座標系において、スクリーン20に映るスポット光の方向を表す方向ベクトルを求める。次にヒット判定部114は、この方向ベクトルに沿った直線(撮像部40の代表位置を起点として、方向ベクトルの方向に沿った直線)と、プロジェクション用スクリーンとの交点位置を、スクリーンスポット光位置として求める。そしてヒット判定部114は、光出射部50の位置(又はプレーヤの位置)として想定される設定値と、この交点位置であるスクリーンスポット光位置とを結ぶ直線の方向を、出射方向として求めて、ヒット判定処理を行う。
 またオブジェクト空間設定部104は、照準オブジェクトの配置処理を行う。例えばオブジェクト空間設定部104は、光出射部50の照準を表す照準オブジェクト(ガンサイト)のオブジェクト空間での配置位置を、上述の出射方向に基づいて求める。そして求められた配置位置に照準オブジェクトを配置する。具体的にはオブジェクト空間設定部104は、出射方向に沿った直線上に、照準オブジェクトを配置する。例えば、当該直線に交差するように、3次元オブジェクトである照準オブジェクトを配置する。
 また画像生成部120は、スポット光の検出調整用オブジェクトが表示される投影画像を生成する。例えばスポット光の検出調整用オブジェクト(初期調整用オブジェクト)が、撮像部40の撮像範囲(撮像領域)の内側に表示される投影画像を生成する。具体的には、オブジェクト空間設定部104は、検出調整用オブジェクトが、投影画像の投影領域(スクリーン領域)において撮像部40の撮像範囲の内側に表示されるように、検出調整用オブジェクト(3次元オブジェクト)をオブジェクト空間に配置する。このような検出調整用オブジェクトを用いることで、スポット光の位置検出の調整処理(補正処理)等が実現される。
 撮像範囲特定部116は、撮像部40の撮像範囲の特定処理を行う。例えば本実施形態では、投影領域(投影画像の表示領域)に比べて、撮像範囲は狭い範囲になっており、例えば撮像範囲の領域は、例えば投影領域に内包される領域となっている。そして、撮像部40の取り付け位置や取り付け方向のバラツキが原因で、撮像範囲の境界等にもバラツキが発生する。撮像範囲特定部116は、この撮像範囲の境界等を特定する。
 この場合に撮像範囲特定部116は、投影画像を撮像した第2の撮像画像又はスポット光の検出位置の履歴情報に基づいて、撮像部40の撮像範囲を特定する。この第2の撮像画像は、スポット光の検出のために撮像部40により撮像された撮像画像とは異なる画像である。例えば撮像画像が例えば赤外光についての撮像画像である場合に、第2の撮像画像は可視光についての撮像画像である。この第2の撮像画像は、撮像部40と別の第2の撮像部を設けて撮像してもよいし、撮像部40のフィルター(例えば赤外線フィルター)の切り替え等を行って、撮像してもよい。また、スポット光の検出位置の履歴情報は、プレーヤ等の操作者が、光出射部50を操作することで得られたスポット光の検出位置の履歴である。スポット光の検出位置の履歴情報は、過去のゲームプレイによる検出位置の履歴情報であってもよいし、他人のプレーヤのゲームプレイによる検出位置の履歴情報であってもよい。
 画像生成部120はプロジェクション用の投影画像を生成する。生成された投影画像は、図1、図2の投影装置30により、スクリーン20に投影される。これによりプレーヤは、仮想カメラから見たオブジェクト空間の画像を、ゲーム画像として見ることが可能になる。プロジェクション用の投影画像は、例えばプロジェクションマッピング処理で生成された投影画像である。プロジェクションマッピングは、映す対象(スクリーン)の状態(形状等)と投影装置30の状態(位置、方向等)を考慮に入れて投影装置30で映す手法である。
 具体的には画像生成部120は、描画バッファ176上のピクセル(投影画像のピクセル)が、投影装置30の光学系(広角レンズ等)を通して出射される光線と、プロジェクション用スクリーンとの交点位置と、代表視点位置を結ぶ直線を、仮想カメラの視線として描画バッファ176上のピクセルの色を決定する。例えばこの直線を仮想カメラの視線として、オブジェクト空間の情報からピクセルの色を決定する。具体的には、この直線とオブジェクト空間内のオブジェクトとの交点位置(この直線がオブジェクト空間において最初に到達するオブジェクト上の点の位置)に応じて、ピクセルの色を決定する。この処理はレイトレーシング法にて実現することができるが描画負荷が大きく、リアルタイムでの実装が難しくなる。そこで、より実用的な方法としては、曲面のスクリーンになるべく近い形状の平面スクリーン(これを「代理平面」と呼ぶことにする)に対する描画結果をレンダーテクスチャに保存しておく手法で実現してもよい。そして、このようにしてピクセルの色を決定することで、投影画像が生成される。なお代表視点位置は、プレーヤの視点位置(仮想カメラの位置)と想定される位置である。
 或いは、画像生成部120は、オブジェクト空間内のオブジェクトの頂点位置と代表視点位置を結ぶ直線を求め、この直線とプロジェクション用スクリーンとの交点位置を求める。そして、求められた交点位置に基づいて、オブジェクトに対応する描画オブジェクトについての描画バッファ176上での頂点位置を求める。そして、求められた頂点位置に基づいて、描画バッファ176に描画オブジェクトを描画することで、投影画像を生成する。
 なお、プロジェクション用スクリーンは、例えば、図1、図2のスクリーン20に対応して、仮想3次元空間であるオブジェクト空間に配置設定される投影画像生成用の仮想的なスクリーンである。画像生成部120では、このプロジェクション用スクリーンの形状に合わせて歪み補正処理(プロジェクションマッピング処理とも呼ばれる)が行われることになる。このプロジェクション用スクリーンは、1つの曲面又は複数の面(曲面、平面)により構成できる。
 また、描画オブジェクトは、描画対象となる3次元オブジェクトに対応する2次元オブジェクトである。例えば、3次元オブジェクトは、3次元空間(オブジェクト空間)に配置されるオブジェクトを意味し、例えばその頂点の座標値として3次元の座標値(X、Y、Z座標値)を有するオブジェクトである。一方、描画オブジェクトは、例えばその頂点の座標値として2次元の座標値(X、Y座標)を有するオブジェクトである。また描画バッファ176は、例えばフレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファである。
 2.本実施形態の手法
 次に本実施形態の手法について具体的に説明する。なお、以下では、プロジェクション用スクリーンが曲面形状のスクリーン(ドーム形状のスクリーン)である場合を主に例にとり説明するが、本実施形態はこれに限定されない。プロジェクション用スクリーンは、単一平面ではないスクリーンの全般を指すものである。例えばプロジェクション用スクリーンは、1つの曲面又は複数の面(平面、曲面)により構成されるスクリーンであればよい。即ち、当該スクリーンとしては、1つの曲面で構成されるスクリーン、複数の平面で構成されるスクリーン、曲面部分と平面部分とを含むスクリーンなどを想定できる。
 2.1 ピクセル単位での歪み補正手法
 まずプロジェクション用の投影画像の生成手法について説明する。例えばプロジェクション用スクリーンが、1つの曲面又は複数の面により構成されるスクリーンである場合に、本実施形態では、プロジェクション用スクリーンの形状情報に基づく歪み補正処理を行って、投影画像を生成する。以下では、投影画像の生成の際に行われる歪み補正手法の具体例について説明する。
 ドーム形状(曲面形状)のスクリーンに画像を投影する場合に、投影装置の位置とプレーヤ(観察者)の位置が離れていると、画像の歪みが目立ってしまう。そこで、この歪みを予め考慮に入れて、投影装置からの投影画像(投影装置の描画バッファに描く画像)を生成することで、プレーヤから見て歪みのない映像を提示することが可能になる。
 この場合に、スクリーンが単一の平面であれば、歪みは線形(パースによる歪み)となるため、射影変換行列を1つ用いるだけで簡単に補正することが可能になる。
 しかし、単一平面ではないスクリーン(1つの曲面又は複数の面で構成されるスクリーン)である場合には、線形ではない歪みが加わるため、射影変換行列を1つ用いるだけという簡単な補正手法では、歪みを補正できず、画像の部分に応じて、細かく補正を行う必要がある。
 このような歪み補正を実現する手法として、描画バッファのピクセル単位で歪み補正を行う手法と、3次元オブジェクトの頂点単位で歪み補正を行う手法が考えられる。まず、ピクセル単位での歪み補正手法について説明する。
 描画バッファのピクセル単位での歪み補正手法では、図4や下記に示す(1)、(2)、(3)、(4)の処理を順に行う。
(1)描画バッファ(フレームバッファ)上のピクセルPX(XP,YP)が、投影装置のレンズを通して出射される光線RYを求める。
(2)その光線RYが、スクリーンSCと交差する交点PS(XS,YS,ZS)の位置を求める。例えばスクリーンSCが楕円面の方程式等の数式で表される場合には、直線RYを表す数式とスクリーンSCを表す数式を用いて交点PSを求める。このスクリーンSCを表す数式が、スクリーンSCの形状情報である。
(3)この交点PS(XS,YS,ZS)の色は、プレーヤ(観察者)がオブジェクト空間(仮想空間)を観察しているときの色である必要がある。そこで、プレーヤの代表視点に対応する仮想カメラVCの位置VPと、交点PS(XS,YS,ZS)の位置を結ぶ直線LVを求める。
(4)この直線LVを仮想カメラVCの視線としてオブジェクト空間の情報から、描画バッファ上の投影画像のピクセルの色を決定する。例えば、オブジェクト空間で最初に到達する3次元オブジェクトOB上の点PB(XB,YB,ZB)の位置を求め、それに応じて、描画バッファ上の投影画像のピクセルの色を決定する。
 この場合に、ピクセル単位での歪み補正手法の改良手法では、上記の最後の(4)において、直線LVと3次元オブジェクトOBとの交点PB(XB,YB,ZB)の色を求める代わりに、あらかじめ描画しておいた平面(レンダーテクスチャ)と直線LVとの交点(レンダーテクスチャの座標で(U,V))の色を用いて、投影画像のピクセルの色を決定する。レンダーテクスチャは、予め、投影面になるべく近い平面(以下、代理平面と呼ぶ)を選んでおき、そこに通常の描画方法、すなわち、平面を投影面とする描画を行うことで作成できる。
 図5に、このような代理平面PL1、PL2の一例を示す。点PPが直線LVと代理平面PL1(PL2)との交点である。
 レンダーテクスチャの参照位置は、視点や投影装置の位置が変化しない限り、最初に1度だけ計算しておけばよい。そのデータを保持しておくための代表的な方法としては、描画バッファの1ピクセルごとに、レンダーテクスチャのどの位置(U,V)のピクセル値(テクセル値)を参照するかを、1枚のテクスチャとして保持しておく方法がある。このテクスチャを、「UVマップ」と呼ぶ。図6に、投影装置の描画バッファとUVマップとレンダーテクスチャの関係を示す。
 図6のレンダーテクスチャの対応点(UV座標)を、描画バッファ上の全ピクセルについて求めて保持しておくことは、大きなリソースを必要とする。その大きなリソースを用意する余裕がない場合には、スクリーンSC上に適当に配置された代表頂点について、描画バッファ上の対応点(XP,YP)と、レンダーテクスチャ上の対応点(U,V)を求め、それらをつないだ三角形ポリゴンによるメッシュを作っておく。そして、三角形ポリゴンを描画するときに、三角形ポリゴンの頂点に情報として記録された(U,V)座標を参照し、三角形ポリゴン内部の点についてはそれらから補間された(U,V)座標を用いるようにする。このようにすれば、大幅にリソースを節約することが可能になる。
 2.2 頂点単位での歪み補正手法
 次に描画オブジェクトの頂点単位で歪み補正を行う手法について説明する。この手法では、オブジェクト空間内の3次元オブジェクトの頂点を、投影装置の描画バッファ上の点に変換する。具体的には図7や下記に示す(1)、(2)、(3)、(4)の処理を順に行う。これは図4の手法の処理を逆の順で行うことに相当する。
(1)オブジェクト空間内の3次元オブジェクトOBの頂点V(XV,YV,ZV)の位置と、プレーヤの代表視点に対応する仮想カメラVCの位置VPとを結ぶ直線LVを求める。
(2)求められた直線LVとスクリーンSCの交点PS(XS,YS,ZS)の位置を求める。例えばスクリーンSCが楕円面の方程式等の数式で表される場合には、直線LVを表す数式とスクリーンSCを表す数式を用いて交点PSを求める。このスクリーンSCを表す数式が、スクリーンSCの形状情報である。
(3)交点PS(XS,YS,ZS)の位置と投影装置PJの位置を結ぶ直線LRを求める。
(4)直線LRに対応する描画バッファ上の点PD(XD,YD)の位置を求める。この点PDは、3次元オブジェクトOBに対応する描画バッファ上の描画オブジェクトOBDの頂点に相当する。なお直線LRから点PDを求める際には、投影装置PJのレンズの特性や配置等の光学系の情報を用いる。
 以後は、描画オブジェクトOBDの頂点と頂点を結んで色を塗るラスタライズ処理を行うことで、描画バッファ上に投影画像を生成できる。
 なお、この場合に、以下のような手法を用いることが望ましい。即ち、オブジェクト空間内の3次元オブジェクトOBに対して、頂点分割数設定部で設定された頂点分割数で頂点分割処理を行う。そして頂点分割処理後の3次元オブジェクトOBの頂点位置と仮想カメラVCの位置とを結ぶ直線と、プロジェクション用のスクリーンSCとの交点位置を求める。そして、求められた交点位置に基づいて、3次元オブジェクトOBに対応する描画オブジェクトOBDについての、描画バッファでの頂点位置を求める。そして、求められた描画オブジェクトOBDの頂点位置に基づいて、描画オブジェクトOBDを描画バッファに描画する処理を行って、プロジェクション用の投影画像を生成する。このような手法を採用すれば、例えばオブジェクト空間内での直線が、描画バッファ上においても直線として描画されてしまい、結果として歪んだ画像が観察されてしまうような事態の発生を抑制できる。
 2.3 ヒット判定処理
 図8に本実施形態の画像生成システムで生成された投影画像の例を示す。本実施形態では図8に示すような投影画像が描画バッファ上に生成され、生成された投影画像が、投影装置30によりスクリーン20に投影される。この投影画像は、前述したピクセル単位での歪み補正又は頂点単位での歪み補正が行われた画像である。
 本実施形態では、図8に示す投影画像が図1、図2のスクリーン20に投影され、プレーヤは、スクリーン20に映る投影画像を見ながら、敵オブジェクト等の標的対象オブジェクトへのシューティングゲームをプレイする。即ち、銃を模した光出射部50を手に持ち、標的対象オブジェクトに狙いを定めて、光出射部50に設けられたトリガー(発射スイッチ)を引いて、シューティングを行う。この場合に光出射部50からの光(赤外光)の出射方向が、銃の弾の飛ぶ方向として、ゲーム上、設定され、標的対象オブジェクトと弾(出射光)とのヒット判定処理が行われる。弾がヒットすると、標的対象オブジェクトが破壊されるなどの公知の被弾演出処理が行われる。
 図8に示すように、投影画像には、木、岩などのゲーム画像を構成するオブジェクトの画像が表示される。またこの投影画像には照準オブジェクトSG1、SG2も表示される。照準オブジェクトSG1、SG2は、銃を模した光出射部50の照準を表すオブジェクトである。プレーヤがこの照準オブジェクト(SG1又はSG2)に狙いを定めて光出射部50のトリガーを引くと、照準オブジェクトの方向に弾(光線)が飛ぶようになる。なお、図8は二人のプレーヤがマルチプレイする場合のゲーム画像の例であり、SG1は第1のプレーヤ用の照準オブジェクトであり、SG2は第2のプレーヤ用の照準オブジェクトである。これらの照準オブジェクトSG1、SG2は、オブジェクト空間に配置されるオブジェクト(3次元オブジェクト)であり、照準オブジェクトSG1、SG2のオブジェクト空間での配置位置は、例えば光出射部50の出射方向に基づいて求められる。従って、これらの照準オブジェクトSG1、SG2の画像も、前述のピクセル単位又は頂点単位での歪み補正が行われた画像になっている。
 図9(A)、図10(A)は従来の画像生成システムにより実現されるシューティングゲームの説明図であり、図9(B)、図10(B)は本実施形態の画像生成システムにより実現されるシューティングゲームの説明図である。
 図9(A)の従来のシューティングゲームでは、例えばLCDやCRTの平面のスクリーン520にゲーム画像が表示され、プレーヤはこのゲーム画像を見ながら光出射部550(ガン型コントローラ)を操作して、シューティングゲームをプレイする。ゲーム画像は平面のスクリーン520に表示されるため、光出射部550によるシューティングの範囲はA1に示すように狭い。
 一方、図9(B)の本実施形態のシューティングゲームでは、ドーム形状(曲面形状)のスクリーン20に対して投影装置30により投影画像が投影される。プレーヤは、スクリーン20に投影される投影画像を見ながら、光出射部50を手に持って、シューティングゲームをプレイする。ゲーム画像である投影画像はドーム形状のスクリーン20に投影されるため、光出射部50によるシューティング範囲はA2に示すように広い。即ち、スクリーン20の上方向から襲ってくる敵や下方向から襲ってくる敵に対して弾をヒットさせるシューティングゲームを実現できる。
 図10(A)、図10(B)は、二人のプレーヤがプレイするマルチプレイのシューティングゲームの例である。
 図10(A)の従来のマルチプレイのシューティングゲームでは、平面のスクリーン520に画像が表示される。従って、第1のプレーヤの光出射部550によるシューティング範囲はA3に示すように狭く、第2のプレーヤの光出射部552によるシューティング範囲もA4に示すように狭い。
 一方、図10(B)の本実施形態のマルチプレイのシューティングゲームでは、第1、第2のプレーヤを覆うように設けられたドーム形状のスクリーン20の全体に、投影装置30からの投影画像が投影される。従って、第1のプレーヤの光出射部50によるシューティング範囲及び第2のプレーヤの光出射部52によるシューティング範囲は、A5に示すように非常に広くなる。例えば第1のプレーヤは、A6に示すように、第2のプレーヤの正面方向に出現する敵に対しても弾をヒットさせることができる。同様に第2のプレーヤは、A7に示すように、第1のプレーヤの正面方向に出現する敵に対しても弾をヒットさせることができる。
 このように本実施形態によれば、二人(或いは一人)のプレーヤの視界を完全に包み込む巨大なドーム形状のスクリーン20を採用している。従って、圧倒的な没入感を感じながら、上下左右から襲いかかる敵を狙い撃つ新しい体験のシューティングゲーム(ガンゲーム)を、二人一緒に楽しむことが可能になる。従って、カップル、ファミリー、グループなどの幅広い客層が楽しむことができるシューティングゲームの提供が可能になる。
 さて、このようなドーム形状(曲面形状)のスクリーン20を採用した場合に、光出射部50による弾のヒット判定処理(当たり判定処理)を、如何に正確に実現するかが重要な課題となる。この課題を解決するために本実施形態では以下のようなヒット判定手法を採用している。
 図11は本実施形態のヒット判定手法を説明する図である。本実施形態では図11や下記に示す(1)、(2)、(3)、(4)、(5)の処理を順に行う。
(1)まず、光出射部GNからの光によるスポット光の撮像画像上での位置PSL(XL,YL)を検出する。この位置PSL(XL,YL)の座標は、例えば撮像素子の座標系(例えばCCD座標系)で表される。
 即ち、プレーヤが持つ光出射部GN(銃型デバイス)からは赤外光が出射され、その赤外光のスポット光(図1、2のスクリーン20に形成されるスポット光)を、広角レンズ(例えば魚眼レンズ)が設けられた撮像部CMにより撮像(撮影)する。そして、得られた撮像画像の画像解析処理を行って、撮像画像に映った赤外光のスポット光(赤い点)の位置PSL(XL,YL)の座標(CCD座標系)を求める。
(2)次に、撮像画像上でのスポット光の位置PSL(XL,YL)に基づいて、このスポット光に対応する方向ベクトルVSLを求める。即ち、撮像部CMから見たスポット光の方向ベクトルVSLを求める。この方向ベクトルVSLは、例えば撮像部CMのカメラ座標系での方向ベクトルである。
 例えば光出射部GNにより図1、図2のスクリーン20上に形成されるスポット光からの光は、撮像部CMの光学系を通って、撮像素子の位置PSL(XL,YL)に映る。従って、撮像部CMの光学系(レンズ)の情報に基づいて、スポット光からの光の入射方向に対応する方向ベクトルVSL(入射方向と逆方向)を求めることができる。例えば、撮像部CMは、広角レンズ(魚眼レンズ)の屈折効果により視野角が広がっている。例えば左右視野角が約120度、上下視野角が約90度というように視野角が広がっている。このような視野角を広げる魚眼レンズを用いることで、ドーム形状のスクリーン20の広範囲の投影領域を、撮像部CMの撮像範囲に収めることができる。そして方向ベクトルVSLを求める際には、このような視野角を加味して、計算を行うことになる。
(3)次に、方向ベクトルVSLに沿った直線LLとプロジェクション用のスクリーンSCとの交点SL(XC,YC,ZC)の位置を求める。即ち、本実施形態では撮像画像上でのスポット光の位置PSL(XL,YL)に基づいて、スクリーン20上のスポット光位置であるスクリーンスポット光位置を求めているが、図11の交点SL(XC,YC,ZC)が、このスクリーンスポット光位置に相当する。
 具体的には、カメラ座標系の方向ベクトルVSLを、現実世界のワールド座標系(ドーム座標系)に変換する。即ち、カメラ座標系の方向ベクトルVSLの向きを、ワールド座標系の向きに変換して、撮像部CMの設置方向(撮像方向)を、方向ベクトルVSLに反映する。例えば図1、図2に示すように、撮像部CMは下方向に所定角度だけ傾けて設置されているため、この傾き角度等を方向ベクトルVSLに反映する。
 そして方向ベクトルVSLの方向に沿った直線LLとスクリーンSCとの交点SL(XC,YC,ZC)の位置を求める。例えばスクリーンSCが楕円面の方程式等の数式で表される場合には、方向ベクトルVSLに沿った直線LLを表す数式とスクリーンSCを表す数式を用いて交点SLの位置を求める。このスクリーンSCを表す数式が、スクリーンSCの形状情報である。また、求められた交点SL(XC,YC,ZC)の位置は、スクリーンSC上でのスポット光の位置に対応する。
(4)次に、光出射部GNの代表位置として設定された設定位置PGから交点SL(XC,YC,ZC)の位置(スクリーンスポット光位置)へと向かう方向を、光出射部GNの光の出射方向DG(銃方向)として求める。
 この設定位置PGは、現実世界で想定する光出射部GNの理想的な位置である。例えば、設定位置PGは、図1、図2のプレーヤシート10の座面位置を基準位置とした固定の座標値(X、Y、Z座標)により表すことができる。即ち、この設定位置PGに光出射部GNが位置すると想定して設定位置PGの座標を決定する。なお設定位置PGはプレーヤの代表位置(プレーヤの所定部位の位置)として設定される位置であってもよい。また例えば光出射部GNの位置(又はプレーヤの位置)を検出できる場合には、その検出位置を設定位置PGにしてもよい。この場合には設定位置PGは可変の位置になる。
(5)次に、求められた出射方向DGに基づいて、オブジェクト空間内のオブジェクトTOBとのヒット判定処理を行う。即ち、この出射方向DG(出射角度)を、プレーヤが構えている光出射部GN(銃)の向きと仮定して、この出射方向DGに沿った直線LGに基づいてオブジェクトTOBのヒット判定処理を行う。例えば直線LGとオブジェクトTOBの交差判定によりヒット判定処理を実現する。つまり、出射方向DGに沿ったレイを飛ばし、このレイを伸張してオブジェクトTOBとのヒット判定処理を行う。
 図12は、以上に説明した本実施形態のヒット判定処理を示すフローチャートである。
 まず撮像画像上(CCD座標系)でのスポット光の位置PSLを求める(ステップS1)。そしてスポット光の位置PSLに対応する方向ベクトルVSL(カメラ座標系)を求める(ステップS2)。
 次に、求められた方向ベクトルVSLをカメラ座標系からワールド座標系に変換する(ステップS3)。そして方向ベクトルVSLに沿った直線LLとスクリーンSCとの交点SLの位置を求める(ステップS4)。
 次に、銃の設定位置PGから交点SLの位置へと向かう方向を出射方向DGとして求める(ステップS5)。そして、求められた出射方向DGに沿った直線LGを用いてヒット判定処理を行う(ステップS6)。
 以上の本実施形態の手法によれば、ドーム形状のスクリーン20に投影画像を投影する画像生成システムにおいて、ドーム形状等を反映した適切なヒット判定処理を実現できるようになる。
 即ち、本実施形態では、撮像画像上でのスポット光の位置PSLから、スクリーンSC上でのスポット光の位置であるスクリーンスポット光位置を求めている。具体的には、撮像画像上でのスポット光の位置PSLに対応する方向ベクトルVSLを求めて、スクリーンSCとの交点SLの位置を、スクリーンスポット光位置として求める。従って、ドーム形状のスクリーンSCの形状を反映させた交点SLの位置を求めることができる。また、例えばスクリーンSCの形状が変更された場合にも、これに容易に対応できる。また位置PSLから方向ベクトルVSLを求める際には、撮像部CMの光学系の情報を用いることができるため、撮像部CMの光学系の情報も反映させた交点SLの位置を求めることができる。
 そして、この交点SLの位置は、現実世界において光出射部GNがスクリーン20上に形成するスポット光の位置に対応している。従って、この交点SLの位置を用いて、光出射部GNの光の出射方向DGを設定して、オブジェクトTOBとヒット判定処理を行えば、ドーム形状等を反映した適切なヒット判定処理を実現できるようになる。
 例えば本実施形態の比較例の手法として、1つの平面で構成される単一平面スクリーンに投影画像を投影すると共に、光出射部により単一平面スクリーンに形成されたスポット光の位置を、撮像部の撮像画像に基づき検出し、このスポット光の位置のみに基づいて光の出射方向を求めて、ヒット判定を行う手法が考えられる。
 しかしながら、この比較例の手法は、スクリーンが単一平面スクリーンである場合には、正確なヒット判定処理が可能であるが、本実施形態のプロジェクション用スクリーンのような1つの曲面又は複数の面により構成されるスクリーンを用いる場合には、正確なヒット判定処理を実現できないという問題がある。即ち、単一平面スクリーンでは、スクリーン上でのスポット光の位置のみに基づいて、光の出射方向を一意に決めることができるが、プロジェクションマッピングにおけるプロジェクション用スクリーンでは、光の出射方向を一意に決めることができない。
 この点、本実施形態では、光出射部50又はプレーヤの代表位置として設定された設定位置を用意する。そして、この設定位置からスクリーンスポット光位置へと向かう方向を、光の出射方向に設定して、ヒット判定処理を実行する。このようにすれば、1つの曲面又は複数の面により構成されるプロジェクション用スクリーンを用いて、例えば図9(B)、図10(B)に示すようなゲームを実現する場合にも、プロジェクション用スクリーンの形状を反映した正確なヒット判定処理を実現することが可能になる。
 また本実施形態では、広角レンズとして魚眼レンズを有する撮像部CMにより投影領域を撮像して、スポット光の位置を検出してもよい。このようにすれば、スクリーン20がドーム形状であり、投影画像の投影領域が非常に広い場合にも、これに対応できるようになる。
 即ち、本実施形態では、図9(B)のA2や図10(B)のA5に示すように、光出射部50によるシューティング範囲は非常に広い。従って、例えば図9(B)では、スクリーン20の上方向や下方向から襲ってくる敵に対して弾をヒットさせることができる。また図10(B)では、A6に示すように、第1のプレーヤは、第2のプレーヤの正面方向に出現する敵に対しても弾をヒットさせることができ、A7に示すように、第2のプレーヤは、第1のプレーヤの正面方向に出現する敵に対しても弾をヒットさせることができる。 そして例えば図10(B)では、第1、第2のプレーヤを覆うように設けられたドーム形状のスクリーン20の全体に、投影装置30からの投影画像が投影される。従って、通常レンズを用いた撮像部では、このようなスクリーン20上に形成されるスポット光の位置を検出することは難しい。
 この点、撮像部CMに、広角レンズとして魚眼レンズを設ければ、この魚眼レンズにより、図10(B)のような巨大なドーム形状のスクリーン20の全体が収まるように撮像範囲を設定でき、スクリーン20上に形成されるスポット光の位置を適切に検出できるようになる。従って、図9(B)、図10(B)に示すようなシューティングゲームに最適なスポット光の検出システムを実現できる。
 2.4 照準オブジェクト
 シューティングゲームにおいては、敵に狙いをつけるための照準オブジェクトが必要になる。そしてシューティングゲームにおいては、この照準オブジェクトを、スクリーン上に配置された2次元オブジェクトにより実現するのが一般的である。
 しかしながら、ドーム形状のスクリーン20へのプロジェクションマッピングを行う画像生成システムでは、投影画像は図8に示すようにドーム形状を反映させた変形した画像になる。従って、上述のようなスクリーン上に2次元の照準オブジェクトを配置する手法では、このような投影画像上に適切な照準を表示することは難しい。
 そこで本実施形態では、照準オブジェクトのオブジェクト空間での配置位置を、図11で求められた出射方向DGに基づいて求める手法を採用している。
 例えば図13において、前述の図11の手法により、光出射部GNの出射方向DGが求められている。この場合に本実施形態では、照準オブジェクトSGのオブジェクト空間での配置位置を、この出射方向DGに基づいて求め、求められた配置位置に照準オブジェクトSGを配置する。即ち、スクリーン上の2次元オブジェクトではなく、仮想3次元空間であるオブジェクト空間内の3次元オブジェクト(3次元の座標を有するオブジェクト)として、照準オブジェクトSGを配置する。具体的には、出射方向DGに沿った直線LG上に、照準オブジェクトSGを配置する。例えば図13では、直線LGとスクリーンSCとの交点の位置に照準オブジェクトSGが配置されている。
 このようにすれば、プレーヤが光出射部GNを手に持って狙った方向に、照準オブジェクトSGが表示されるようになる。例えばプレーヤが光出射部GNを上下左右に動かすと、これに連動して照準オブジェクトSGも上下左右に動くようになる。そしてプレーヤの視点から見て、照準オブジェクトSGがオブジェクトTOBに重なるような状態にして、光出射部GNのトリガーを引けば、光出射部GNからの弾をオブジェクトTOBにヒットさせることができる。
 即ち、プロジェクションマッピングを行う画像生成システムにおいては、スクリーン上に2次元の照準オブジェクトを配置する手法では、どのような形状・表示態様の照準オブジェクトを配置するかを決定するのが極めて困難である。
 これに対して本実施形態では、ヒット判定処理のために求められた交点SLの位置や出射方向DGを有効活用して、照準オブジェクトSGをオブジェクト空間に配置している。こうすることで、図8に示すように、スクリーン20の形状が反映された適切な照準オブジェクトSG1、SG2の画像が、投影画像上に表示されるようになる。そして、この投影画像をスクリーン20に投影することで、プレーヤから見て適切な形状に見える照準オブジェクトSG1、SG2の画像を表示できるようになる。従って、プロジェクションマッピングを行う画像生成システムに好適な照準オブジェクトの表示が可能になる。
 なお図13では、出射方向DGに沿った直線LG上に照準オブジェクトSGを配置しているが、本実施形態はこれに限定されない。例えば図14に示すように、仮想カメラVCの位置VPと交点SLの位置を結ぶ直線LSV上に照準オブジェクトSGを配置してもよい。このようにすれば、プレーヤの視点から見て適切に見えるように照準オブジェクトSGを配置できる。
 また照準オブジェクトSGの配置位置は、スクリーンSCとの交点位置には限定されない。例えば図13、図14に示すように、スクリーンSCとの交点位置よりも奥側に照準オブジェクトSG’を配置してもよい。図14の場合にはプレーヤの視点(仮想カメラVC)から見て照準オブジェクトSG、SG’が同じ位置に見えるが、図13の場合には少しずれた位置に見えることになる。
 2.5 方向ベクトルVSL
 次に方向ベクトルVSLを求める手法の詳細について説明する。
 図15(A)、図15(B)はピンホールカメラモデルのような理想的なレンズLENにおいて、方向ベクトルVSLを求める手法を説明する図である。
 図15(A)では、撮像素子であるCCDの座標系でのスポット光の位置PSL(x,y)が検出されている。そして、このCCD座標系での位置PSL(x,y)からカメラ座標系での方向ベクトルVSLを求める。
 例えば図15(A)ではCCD座標系での値域が(0~1)であるが、図15(B)では、(0~1)から(-1~+1)に変換されている。また図15(A)に対して図15(B)ではY軸の向きを反転している。図15(B)でのY軸の向きは紙面に対して手前向きである。従って、図15(A)の位置PSLを(x , y)とし、図15(B)の位置PSLを(X , Y)とすると、下式(1)のようになる。
 (X , Y)=(2x-1 , -(2y-1))  (1)
 また横画角をAxとし、縦画角をAyとし、図15(B)の仮想スクリーンSCVのZ座標をZ=1とすると、図15(B)の点PRの座標は下式(2)のように表される。
 PR=(tan(Ax/2), 0, 1)  (2)
 従って、点PVの座標は下式(3)のように表される。
 PV=((2x-1)×(tan(Ax/2)), -(2y-1)×(tan(Ay/2)), 1)  (3)
 この点PVの座標が下式(4)のようにカメラ座標系での方向ベクトルVSLになる。
 VSL=((2x-1)×(tan(Ax/2)), -(2y-1)×(tan(Ay/2)), 1) (4)
 図16は魚眼レンズによく使用されるfθレンズにおいて、方向ベクトルVSLを求める手法を説明する図である。
 図16のB1、B2では、図15(A)、図15(B)と同様に、(x , y)から(X , Y)への座標変換を行う。即ち、レンズ中心に合わせ、レンズ中心がCCDの中心(原点)になるようにする。またY軸の向きを反転する。
 図16のB3では、レンズにより像は反転するため、PSL(X , Y)の座標を上下左右に反転している。そして原点からPSL(X , Y)までの距離をL=(X+Y1/2とする。
 fθレンズは、θの角度で入射した光線が、焦点距離fだけ離れた位置において、レンズ中心(光軸)から距離fθの位置に結像するレンズである。従って、Lに対応するθについて、下式(5)が成り立つ。
 L=fθ  (5)
 このfθレンズにおいて、θ=0~π/2に対応する、レンズ中心(CCDにおける原点)からの距離を0~Mとする。即ち、fθレンズにおいてθ=π/2の角度で入射した光線が、焦点距離fだけ離れた位置において結像するときの距離をMとする。すると、下式(6)が成り立つ。
 M=f×(π/2) (6)
 上式(5)、(6)からθは下式(7)のように求まる。
 θ=(L/M)×(π/2)  (7)
 従って、図16のB4から明らかなように、方向ベクトルVSLは下式(8)のように求まる。
 VSL=((X/L)×sinθ,(Y/L)×sinθ,cosθ) (8)
 なお方向ベクトルVSLを求める手法としては種々の変形実施が可能である。例えばfθレンズ(魚眼レンズ)を有する撮像部40の撮像画像に対して、fθレンズによる歪みを補正する公知の画像補正処理を行う。そして画像補正処理後の撮像画像に対して、図15(A)、図15(B)の手法を適用して、方向ベクトルVSLを求めてもよい。実際のレンズは、理想的なレンズでもfθレンズでもなく、単純な式では表せないような歪みを持っている場合が多い。あらかじめ格子模様を印刷した画像等を撮影するなどして、その歪みを、理想的なカメラモデルでの画像に補正するマップを作っておき、それを使って理想的なカメラモデルでの画像に変換する手法は一般的に良く用いられるが、その手法で変換した後、図15(A)、図15(B)の手法を適用して、方向ベクトルVSLを求めてもよい。
 2.6 スポット光の位置検出の調整
 さて、本実施形態のようにスポット光の位置検出を行う場合には、その位置検出の調整作業(ガン・イニシャライズ)が必要になる。
 例えば図17(A)~図19では、スポット光の検出調整用オブジェクトIT1、IT2、IT3、IT4、IT5を、初期調整時における投影画像上に表示している。
 具体的には図17(A)では、画面の左上に検出調整用オブジェクトIT1を表示する。そして操作者(例えばアミューズメント施設の店員)は、この検出調整用オブジェクトIT1に狙いを定めて、光出射部50のトリガーを引く。同様に図17(B)、図18(A)、図18(B)、図19では、各々、画面の右上、左下、右下、真ん中に、検出調整用オブジェクトIT2、IT3、IT4、IT5を表示する。そして、操作者は、これらの検出調整用オブジェクトIT2、IT3、IT4、IT5に狙いを定めて、光出射部50のトリガーを引く。なお、図17(A)~図19は、図8と同様に歪み補正処理が行われた投影画像であり、検出調整用オブジェクトIT1、IT2、IT3、IT4、IT5はオブジェクト空間に配置される3次元オブジェクトであるため、IT1、IT2、IT3、IT4、IT5は変形した画像になっている。
 例えば図17(A)で検出調整用オブジェクトIT1が表示されている状態で、操作者が検出調整用オブジェクトIT1を狙って、光出射部50のトリガーを引いたとする。すると、この時に検出された出射方向DG(図11参照)と、目標となる出射方向DGTとの差分角度を求める。このようにすれば、実際のプレーヤのゲームプレイ時には、検出された出射方向DGを、上述の差分角度で補正することで、正確な出射方向DGを得ることができる。即ち、スポット光の正確な位置検出を実現できるようになる。
 さて、例えば図1、図2において、撮像部40の取り付け位置や取り付け方向にはバラツキがある。即ち、撮像部40は、その撮像方向が投影装置30の投影方向に一致(略一致)するように投影装置30に取り付けられる。また、投影装置30を基準とした所定位置に撮像部40が取り付けられる。しかしながら、ゲームシステムの製造時の組み立て誤差等により、撮像部40の取り付け位置や取り付け方向にはバラツキが生じる。すると、投影領域での撮像部40の撮像範囲にもバラツキが発生してしまう。
 例えば図20(A)、図20(B)において、RSCは投影画像の投影領域(スクリーン領域)であり、RCMは、この投影領域RSCでの撮像部40の撮像範囲である。投影装置30の広角レンズ(例えば魚眼レンズ)は、撮像部40の広角レンズ(例えば魚眼レンズ)に比べて、より広角なレンズとなっている。即ち、投影装置30の投影範囲は、撮像部40の撮像範囲よりも広角になっている。このため、図20(A)に示すように、撮像部40の撮像範囲RCMは、投影画像の投影領域RSCよりも狭い範囲となっている。そして、撮像部40の取り付け位置や取り付け方向にバラツキがあると、図20(B)に示すように、投影領域RSCに対して、撮像範囲RCMが、例えばDRAの方向にシフトしてしまう。そして、この撮像範囲RCMがシフトする方向は、撮像部40の取り付け位置や取り付け方向のバラツキの状況に応じて、様々な方向になる可能性がある。
 そこで本実施形態では図21に示すように、スポット光の検出調整用オブジェクトIT1、IT2、IT3、IT4、IT5が、撮像部40の撮像範囲RCMの内側に表示されるように投影画像を生成する。即ち、撮像範囲RCMの境界から、DR1、DR2、DR3、DR4等に示すように所与の距離だけ内側に、検出調整用オブジェクトIT1、IT2、IT3、IT4、IT5が表示されるようにする。具体的には、検出調整用オブジェクトIT1~IT5が、投影画像の投影領域RSCにおいて撮像範囲RCMの内側に表示されるように、検出調整用オブジェクトIT1~IT5をオブジェクト空間に配置する。
 このようにすれば、図20(A)、図20(B)に示すように、撮像部40の取り付け位置や取り付け方向のバラツキ等により、投影領域RSCに対して撮像範囲RCMがシフトした場合にも、検出調整用オブジェクトIT1~IT5を撮像範囲RCM内に収めることが可能になる。
 例えば、検出調整用オブジェクトIT1~IT5が、撮像範囲RCMの内側に表示されていないと、図17(A)~図19に示すような調整作業(ガン・イニシャライズ)を、そもそも実行できなくなる。
 例えば図20(B)のように撮像範囲RCMが右上方向にシフトすることで、画面左下の検出調整用オブジェクトIT3が撮像範囲RCMに入らなくなったとする。すると、初期調整時に操作者が、検出調整用オブジェクトIT3に狙いを定めて、光出射部50のトリガーを引いたとしても、検出調整用オブジェクトIT3に狙いを定めたスポット光は、撮像部40により撮像されない。従って、検出調整用オブジェクトIT3に対応する出射方向DGを検出できないため、上述した補正処理を実現できなくなる事態が生じる。
 この点、本実施形態では図21に示すように、撮像範囲RCMの境界から離れた内側領域に、検出調整用オブジェクトIT1~IT5が表示されるため、上記の事態の発生を防止できる。
 なお、検出調整用オブジェクト等を投影画像上に表示し、可視光が撮像可能な撮像部を用いて、この検出調整用オブジェクトを撮像し、得られた撮像画像の画像解析処理を行うこと、スポット光の位置検出調整を行ってもよい。例えば投影画像の四隅に、検出調整用オブジェクトとなるバーコード画像オブジェクトを表示する。そして、可視光が撮像可能な撮像部を用いて、これらのバーコード画像オブジェクトを撮像し、撮像画像の画像解析処理を行うことで、バーコード画像オブジェクトの表示位置のズレを検出して、スポット光の位置検出調整を行う。この場合に、可視光が撮像可能な撮像部は、例えば赤外光を出射する撮像部40のフィルターの切り替え等により実現する。例えば、赤外光のスポット光を検出する場合には、赤外線フィルターを介して画像を撮像し、上述のバーコード画像オブジェクトを撮像する場合には、この赤外線フィルターを撮像光が通らないように画像を撮像する。また、この場合の検出調整用オブジェクトは、バーコード画像オブジェクトには限定されない。例えば投影画像の四隅に、互いの色が異なる4つのオブジェクトを表示してもよい。或いは、投影画像の四隅にレーザー等を照射して、このレーザーの照射位置の画像解析処理を行うことで、スポット光の位置検出調整を行ってもよい。
 また本実施形態では、撮像部40の撮像範囲RCMの特定処理を行うようにしてもよい。例えば投影画像を撮像した第2の撮像画像、或いはスポット光の検出位置の履歴情報に基づいて、撮像部40の撮像範囲RCMを特定する。
 例えば特定画像パターンの投影画像を表示し、上述の可視光が撮像可能な撮像部により、この特定画像パターンの投影画像を撮像し、得られた撮像画像である第2の撮像画像の画像解析処理により、撮像範囲RCMの境界等を特定する。或いは、光出射部50を上下左右に振る動作を操作者に行わせ、その時のスポット光の検出位置の履歴に基づいて、撮像範囲RCMの境界を検出してもよい。或いは、現在のプレーヤの前にプレイしたプレーヤの操作に基づくスポット光の検出位置の履歴に基づいて、撮像範囲RCMの境界を検出してもよい。
 また照準オブジェクトSGについては、図22(A)、図22(B)に示すような表示制御を行うことが望ましい。
 例えば図22(A)に示すように、照準オブジェクトSGが、撮像部40の撮像範囲RCM内に位置する場合には、図13で説明した手法により光の出射方向DGを検出し、直線LG上に照準オブジェクトSGを配置することで、照準オブジェクトSGを投影画像上に表示できる。
 しかしながら、撮像範囲RCMの外側にスポット光が位置する場合には、図13のように出射方向DGを検出できないため、照準オブジェクトSGを適切な位置に表示することができなくなる。即ち、撮像範囲RCMは投影画像の投影領域RSCよりも狭い。従って、投影領域RSCの内側であり、且つ、撮像範囲RCMの外側となる領域RFは、投影画像は存在するが、スポット光は検出できない領域になる。従って、この領域RFにスポット光が形成されるように、プレーヤが光出射部50を領域RFの方に向けたとしても、図13の手法では、領域RFに照準オブジェクトSGを表示することはできない。
 そこで図22(A)、(B)では、照準オブジェクトSGの表示位置を、撮像範囲RCMの中心から外側に向かう外側方向DRSにシフトする手法を採用している。即ち、図13の手法で特定された表示位置よりも、照準オブジェクトSGの表示位置を外側方向DRSにシフトする。例えば図13の手法で特定された照準オブジェクトSGの表示位置が、撮像範囲RCMの境界付近の位置であった場合に、照準オブジェクトSGの表示位置が、投影領域RSCの境界付近の位置になるように、外側方向DRSに照準オブジェクトSGの表示位置を移動する。こうすることで、照準オブジェクトSGの表示位置は正確ではなくなるが、プレーヤが、出射部50を領域RFの方に向けた場合にも、図22(B)に示すように照準オブジェクトSGは表示されるようになり、プレーヤの不自然感を軽減できるようになる。
 なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、プロジェクション用の投影画像の生成手法、スポット光の位置の検出手法、ヒット判定手法等も本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム等の種々の画像生成システムに適用できる。
 また、本発明は、ヘッドトラッキングシステムやメガネ式立体視にも対応が可能である。ヘッドトラッキングシステムを導入する場合、頭の位置をもとにプレーヤの代表視点位置を決定し、この位置に対応した画像補正処理や照準補正処理を行うことで、より自然な映像や照準の移動が実現できる。
 また、立体視に対応させるには、代理平面への描画と画像の歪み補正処理を、プレーヤの視点位置を左眼と右眼に分けて行った後、2つの画像を立体視映像として合成すればよい。なお、代表視点位置は弾丸の出射方向を決定する直線の起点として用いても良いことは前述の通りであるが、この処理については代表視点を左眼と右眼に分けることはせず、例えば両眼の中心位置など、1点を用いて行うことになる。これにより、立体視が可能となり、さらに臨場感のある映像を提供することが可能となる。
SC スクリーン、PJ 投影装置(プロジェクタ)、VC 仮想カメラ、
VP 仮想カメラの位置、OB オブジェクト、OBD 描画オブジェクト、
PSL 撮像画像上のスポット光の位置、CM 撮像部、VSL 方向ベクトル、
LL、LG 直線、SL 交点、GN 光出射部、PG 設定位置、DG 出射方向、
TOB オブジェクト、SG、SG1、SG2 照準オブジェクト、
IT1~IT5 検出調整用オブジェクト、RCM 撮像範囲、RSC 投影領域、
10 プレーヤシート、12 支柱、14 筺体フレーム、16 制御基板
20 スクリーン、30 投影装置、40 撮像部、42 レンズ、
44 撮像素子、50 光出射部、
100 処理部、102 ゲーム演算部、104 オブジェクト空間設定部、
106 移動体演算部、108 仮想カメラ制御部、110 受け付け部、
114 ヒット判定部、116 撮像範囲特定部、120 画像生成部、
130 音生成部、160 操作部、170 記憶部、
172 オブジェクトデータ記憶部、176 描画バッファ、180 情報記憶媒体、190 表示部、192 音出力部、194 補助記憶装置、196 通信部

Claims (15)

  1.  オブジェクト空間の設定処理を行うオブジェクト空間設定部と、
     前記オブジェクト空間に配置される複数のオブジェクトの情報に基づいて、プロジェクション用の投影画像を生成する画像生成部と、
     前記投影画像の投影領域を撮像する撮像部からの撮像画像を受け付ける受け付け部と、
     光出射部からの光によるスポット光の前記撮像画像上での位置に基づいて、プロジェクション用スクリーンでの前記スポット光の位置であるスクリーンスポット光位置を求め、前記光出射部又はプレーヤの代表位置として設定された設定位置から、前記スクリーンスポット光位置へと向かう方向を、前記光出射部の光の出射方向として求め、求められた前記出射方向に基づいて、前記オブジェクト空間内のオブジェクトとのヒット判定処理を行うヒット判定部と、
     を含むことを特徴とする画像生成システム。
  2.  請求項1において、
     前記プロジェクション用スクリーンは、1つの曲面又は複数の面により構成されるスクリーンであり、
     前記画像生成部は、
     前記プロジェクション用スクリーンの形状情報に基づく歪み補正処理を行って、前記投影画像を生成し、
     前記ヒット判定部は、
     前記プロジェクション用スクリーンの形状情報に基づいて、前記スクリーンスポット光位置を求めることを特徴とする画像生成システム。
  3.  請求項2において、
     前記ヒット判定部は、
     前記スポット光の前記撮像画像上での位置に基づいて、前記撮像部から見た前記スポット光の方向ベクトルを求め、前記方向ベクトルに沿った直線と前記プロジェクション用スクリーンとの交点位置を、前記スクリーンスポット光位置として求めることを特徴とする画像生成システム。
  4.  請求項2又は3において、
     前記画像生成部は、
     描画バッファ上のピクセルが前記投影装置の光学系を通して出射される光線と前記プロジェクション用スクリーンとの交点位置と、代表視点位置とを結ぶ直線を、仮想カメラの視線として、前記描画バッファ上の前記ピクセルの色を決定することを特徴する画像生成システム。
  5.  請求項2又は3において、
     前記画像生成部は、
     前記オブジェクト空間内のオブジェクトの頂点位置と代表視点位置を結ぶ直線と、前記プロジェクション用スクリーンとの交点位置に基づいて、前記オブジェクトに対応する描画オブジェクトについての描画バッファ上での頂点位置を求め、前記頂点位置に基づいて前記描画バッファに前記描画オブジェクトを描画することを特徴とする画像生成システム。
  6.  請求項1乃至5のいずれかにおいて、
     前記オブジェクト空間設定部は、
     前記光出射部の照準を表す照準オブジェクトの前記オブジェクト空間での配置位置を、前記出射方向に基づいて求め、求められた前記配置位置に前記照準オブジェクトを配置することを特徴とする画像生成システム。
  7.  請求項6において、
     前記オブジェクト空間設定部は、
     前記出射方向に沿った直線上に、前記照準オブジェクトを配置することを特徴とする画像生成システム。
  8.  請求項1乃至7のいずれかにおいて、
     前記画像生成部は、
     前記スポット光の検出調整用オブジェクトが、前記撮像部の撮像範囲の内側に表示される前記投影画像を生成することを特徴とする画像生成システム。
  9.  請求項8において、
     前記オブジェクト空間設定部は、
     前記検出調整用オブジェクトが、前記投影画像の投影領域において前記撮像部の前記撮像範囲の内側に表示されるように、前記検出調整用オブジェクトを前記オブジェクト空間に配置することを特徴とする画像生成システム。
  10.  請求項1乃至9のいずれかにおいて、
     前記投影画像を撮像した第2の撮像画像又は前記スポット光の検出位置の履歴情報に基づいて、前記撮像部の撮像範囲を特定する撮像範囲特定部を含むことを特徴とする画像生成システム。
  11.  請求項1乃至10のいずれかにおいて、
     前記撮像部を含み、
     前記撮像部は、
     撮像素子と、魚眼レンズを有することを特徴とする画像生成システム。
  12.  請求項11において、
     前記投影装置を含み、
     前記撮像部は、前記投影装置に取り付けられることを特徴とする画像生成システム。
  13.  オブジェクト空間の設定処理を行うオブジェクト空間設定部と、
     前記オブジェクト空間に配置される複数のオブジェクトの情報に基づいて、プロジェクション用の投影画像を生成する画像生成部と、
     前記投影画像を投影する投影装置と、
     前記投影画像の投影領域を撮像する撮像部と、
     光を出射する光出射部と、
     前記撮像部からの撮像画像に基づいて、前記光出射部の光の出射方向を求め、求められた前記出射方向に基づいて、前記オブジェクト空間内のオブジェクトとのヒット判定処理を行うヒット判定部と、
     を含み、
     前記撮像部は、
     撮像素子と、魚眼レンズを有することを特徴とする画像生成システム。
  14.  オブジェクト空間の設定処理を行い、
     前記オブジェクト空間に配置される複数のオブジェクトの情報に基づいて、プロジェクション用の投影画像を生成し、
     前記投影画像の投影領域を撮像する撮像部からの撮像画像を受け付け、
     光出射部からの光によるスポット光の前記撮像画像上での位置に基づいて、プロジェクション用スクリーンでの前記スポット光の位置であるスクリーンスポット光位置を求め、前記光出射部又はプレーヤの代表位置として設定された設定位置から、前記スクリーンスポット光位置へと向かう方向を、前記光出射部の光の出射方向として求め、求められた前記出射方向に基づいて、前記オブジェクト空間内のオブジェクトとのヒット判定処理を行う、
    ことを特徴とする画像生成方法。
  15.  オブジェクト空間の設定処理を行うオブジェクト空間設定部と、
     前記オブジェクト空間に配置される複数のオブジェクトの情報に基づいて、プロジェクション用の投影画像を生成する画像生成部と、
     前記投影画像の投影領域を撮像する撮像部からの撮像画像を受け付ける受け付け部と、
     光出射部からの光によるスポット光の前記撮像画像上での位置に基づいて、プロジェクション用スクリーンでの前記スポット光の位置であるスクリーンスポット光位置を求め、前記光出射部又はプレーヤの代表位置として設定された設定位置から、前記スクリーンスポット光位置へと向かう方向を、前記光出射部の光の出射方向として求め、求められた前記出射方向に基づいて、前記オブジェクト空間内のオブジェクトとのヒット判定処理を行うヒット判定部として、
     コンピュータを機能させるプログラムを記憶したことを特徴とする情報記憶媒体。
PCT/JP2015/053804 2014-02-13 2015-02-12 画像生成システム、画像生成方法及び情報記憶媒体 WO2015122450A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201580008601.XA CN105993167B (zh) 2014-02-13 2015-02-12 图像生成系统、图像生成方法及信息存储介质
US15/232,121 US10661174B2 (en) 2014-02-13 2016-08-09 Image generation system, image generation method, and information storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-025962 2014-02-13
JP2014025962A JP6448196B2 (ja) 2014-02-13 2014-02-13 画像生成システム及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/232,121 Continuation US10661174B2 (en) 2014-02-13 2016-08-09 Image generation system, image generation method, and information storage medium

Publications (1)

Publication Number Publication Date
WO2015122450A1 true WO2015122450A1 (ja) 2015-08-20

Family

ID=53800191

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/053804 WO2015122450A1 (ja) 2014-02-13 2015-02-12 画像生成システム、画像生成方法及び情報記憶媒体

Country Status (4)

Country Link
US (1) US10661174B2 (ja)
JP (1) JP6448196B2 (ja)
CN (1) CN105993167B (ja)
WO (1) WO2015122450A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017071454A1 (en) 2015-10-26 2017-05-04 Kong Liang Immersive all-in-one pc system

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3392706B1 (en) * 2015-12-16 2021-12-29 Sony Group Corporation Image display device
JP6782297B2 (ja) 2016-05-25 2020-11-11 株式会社コーエーテクモゲームス ゲーム装置、及びゲーム制御方法
JP6780315B2 (ja) * 2016-06-22 2020-11-04 カシオ計算機株式会社 投影装置、投影システム、投影方法及びプログラム
JP2019008168A (ja) * 2017-06-26 2019-01-17 ローム株式会社 ディスプレイシステムおよび画像の表示方法
KR101963769B1 (ko) 2017-10-17 2019-03-29 주식회사 홍인터내셔날 영상 조사부를 구비한 다트 게임 장치 및 다트 게임 시스템
KR101963770B1 (ko) * 2017-10-17 2019-03-29 주식회사 홍인터내셔날 디스플레이부를 구비한 다트 게임 장치 및 다트 게임 시스템
KR101963771B1 (ko) 2017-10-17 2019-07-31 주식회사 홍인터내셔날 레슨 영상을 제공하는 다트 게임 장치 및 다트 게임 시스템
WO2019155903A1 (ja) * 2018-02-08 2019-08-15 ソニー株式会社 情報処理装置および方法
US10593014B2 (en) * 2018-03-26 2020-03-17 Ricoh Company, Ltd. Image processing apparatus, image processing system, image capturing system, image processing method
CN108744511B (zh) * 2018-05-30 2022-11-29 腾讯科技(深圳)有限公司 虚拟环境中的瞄准镜显示方法、设备及存储介质
CN109017120A (zh) * 2018-08-01 2018-12-18 中国水利水电科学研究院 一种动态的河流景观交互系统
CN109621402B (zh) * 2019-01-03 2022-05-27 上海亿湾特训练设备科技有限公司 一种影像实弹射击和激光射击通用的定位系统及方法
TWI738124B (zh) * 2019-11-22 2021-09-01 香港商女媧創造股份有限公司 具有可移動機構的非平面內投影的機器人系統
WO2022044806A1 (ja) * 2020-08-24 2022-03-03 ソニーグループ株式会社 情報処理装置および方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001218982A (ja) * 2000-02-08 2001-08-14 Taito Corp ゲーム装置
JP2002018128A (ja) * 2000-07-10 2002-01-22 Namco Ltd ゲームシステム及び情報記憶媒体
JP2007071403A (ja) * 2005-09-02 2007-03-22 Realviz:Kk 射撃模擬装置
JP2007139379A (ja) * 2005-11-22 2007-06-07 Babcock Hitachi Kk 映像射撃シミュレータ
JP2010071594A (ja) * 2008-09-19 2010-04-02 Hitachi Kokusai Electric Inc 射撃訓練システム
JP2012059011A (ja) * 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体、及び、画像生成装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08117447A (ja) * 1994-10-26 1996-05-14 Namco Ltd シューティング型ゲーム装置
JP2001004327A (ja) 1999-06-18 2001-01-12 Namco Ltd スポット光位置検出システム、シミュレータ
JP3561463B2 (ja) * 2000-08-11 2004-09-02 コナミ株式会社 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置
JP2003085586A (ja) 2001-06-27 2003-03-20 Namco Ltd 画像表示装置、画像表示方法、情報記憶媒体および画像表示プログラム
JP4179162B2 (ja) * 2003-12-26 2008-11-12 株式会社セガ 情報処理装置、ゲーム装置、画像生成方法、ゲーム画像生成方法
JP4673570B2 (ja) * 2004-03-31 2011-04-20 株式会社セガ 画像生成装置、画像表示方法及びプログラム
JP5134224B2 (ja) 2006-09-13 2013-01-30 株式会社バンダイナムコゲームス ゲームコントローラ及びゲーム装置
JP2008073184A (ja) * 2006-09-20 2008-04-03 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
US20130005417A1 (en) * 2011-06-30 2013-01-03 Peter Schmidt Mobile device action gaming
US9155960B2 (en) * 2013-01-11 2015-10-13 Chris Argiro Video-game console for allied touchscreen devices
US9694277B2 (en) * 2013-03-14 2017-07-04 Microsoft Technology Licensing, Llc Client side processing of character interactions in a remote gaming environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001218982A (ja) * 2000-02-08 2001-08-14 Taito Corp ゲーム装置
JP2002018128A (ja) * 2000-07-10 2002-01-22 Namco Ltd ゲームシステム及び情報記憶媒体
JP2007071403A (ja) * 2005-09-02 2007-03-22 Realviz:Kk 射撃模擬装置
JP2007139379A (ja) * 2005-11-22 2007-06-07 Babcock Hitachi Kk 映像射撃シミュレータ
JP2010071594A (ja) * 2008-09-19 2010-04-02 Hitachi Kokusai Electric Inc 射撃訓練システム
JP2012059011A (ja) * 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体、及び、画像生成装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017071454A1 (en) 2015-10-26 2017-05-04 Kong Liang Immersive all-in-one pc system
EP3368947A4 (en) * 2015-10-26 2019-06-12 Kong, Liang IMMERSIVE ALL-IN-ONE PC SYSTEM

Also Published As

Publication number Publication date
US20160346693A1 (en) 2016-12-01
JP2015154219A (ja) 2015-08-24
CN105993167A (zh) 2016-10-05
JP6448196B2 (ja) 2019-01-09
US10661174B2 (en) 2020-05-26
CN105993167B (zh) 2019-04-12

Similar Documents

Publication Publication Date Title
JP6448196B2 (ja) 画像生成システム及びプログラム
JP6438207B2 (ja) 画像生成システム及びプログラム
US8574071B2 (en) Information storage medium and image generation system
US11014000B2 (en) Simulation system, processing method, and information storage medium
JP5597837B2 (ja) プログラム、情報記憶媒体、及び、画像生成装置
JP5390115B2 (ja) プログラム、ゲームシステム
US8556716B2 (en) Image generation system, image generation method, and information storage medium
US9345972B2 (en) Information storage medium, image generation system, and image generation method
US20140292755A1 (en) Image generation system, image generation method, and information storage medium
JPWO2004045734A1 (ja) ゲーム画像処理プログラム及び記憶媒体
JP2002233665A5 (ja)
JP2007071403A (ja) 射撃模擬装置
JP5443129B2 (ja) プログラム及びネットワークシステム
JP2019152899A (ja) シミュレーションシステム及びプログラム
CN112005276A (zh) 用于针对不同位置处的用户对图像进行视角调整的方法和装置
US20130109475A1 (en) Game system, control method therefor, and a storage medium storing a computer program
JP7418956B2 (ja) 画像生成システム及びプログラム
JP2016192029A (ja) 画像生成システム及びプログラム
JP2018171319A (ja) シミュレーションシステム及びプログラム
JP2006061717A (ja) ゲーム画像の表示制御プログラム及びゲーム装置並びに記憶媒体
JP2018171309A (ja) シミュレーションシステム及びプログラム
JP2009075739A (ja) プログラム、情報記憶媒体、および画像生成システム
JP2011096017A (ja) プログラム、情報記憶媒体、及び端末
JP4409709B2 (ja) ゲーム装置及び情報記憶媒体
JP2011215919A (ja) プログラム、情報記憶媒体及び画像生成システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15748701

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15748701

Country of ref document: EP

Kind code of ref document: A1