JP6448196B2 - Image generation system and program - Google Patents

Image generation system and program Download PDF

Info

Publication number
JP6448196B2
JP6448196B2 JP2014025962A JP2014025962A JP6448196B2 JP 6448196 B2 JP6448196 B2 JP 6448196B2 JP 2014025962 A JP2014025962 A JP 2014025962A JP 2014025962 A JP2014025962 A JP 2014025962A JP 6448196 B2 JP6448196 B2 JP 6448196B2
Authority
JP
Japan
Prior art keywords
projection
image
screen
unit
spot light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014025962A
Other languages
Japanese (ja)
Other versions
JP2015154219A5 (en
JP2015154219A (en
Inventor
和久 湊
和久 湊
牧野 貢
貢 牧野
太志 松下
太志 松下
石井 源久
源久 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Bandai Namco Entertainment Inc filed Critical Namco Ltd
Priority to JP2014025962A priority Critical patent/JP6448196B2/en
Priority to CN201580008601.XA priority patent/CN105993167B/en
Priority to PCT/JP2015/053804 priority patent/WO2015122450A1/en
Publication of JP2015154219A publication Critical patent/JP2015154219A/en
Priority to US15/232,121 priority patent/US10661174B2/en
Publication of JP2015154219A5 publication Critical patent/JP2015154219A5/ja
Application granted granted Critical
Publication of JP6448196B2 publication Critical patent/JP6448196B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/843Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/10Projectors with built-in or built-on screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、画像生成システム及びプログラム等に関する。   The present invention relates to an image generation system, a program, and the like.

従来より、投影装置(プロジェクタ)により曲面スクリーン(ドーム形状のスクリーン)に対して投影される投影画像を生成するシステムが知られている。そして、曲面スクリーンに対して歪みの少ない投影画像を投影する従来技術としては、例えば特許文献1に開示される技術がある。   2. Description of the Related Art Conventionally, a system that generates a projection image projected on a curved screen (dome-shaped screen) by a projection device (projector) is known. As a conventional technique for projecting a projection image with little distortion on a curved screen, there is a technique disclosed in Patent Document 1, for example.

また、光出射部からの光のスポット光の位置を検出して、シューティングゲームにおけるヒット判定を行うゲームシステムも知られている。このようなゲームシステムの従来技術としては、例えば特許文献2に開示される技術がある。   There is also known a game system that detects the position of the spotlight of the light from the light emitting unit and performs hit determination in the shooting game. As a conventional technique of such a game system, there is a technique disclosed in Patent Document 2, for example.

特開2003−85586号公報JP 2003-85586 A 特開2001−4327号公報JP 2001-4327 A

しかしながら、曲面スクリーンへの投影画像を生成する画像生成システムにおいて、光出射部からの光のスポット光の位置を検出して、光出射部の光の出射方向とオブジェクトとの適切なヒット判定処理を実現する手法については提案されていなかった。   However, in an image generation system that generates a projection image on a curved screen, the position of the light spot light from the light emitting unit is detected, and an appropriate hit determination process between the light emitting direction of the light emitting unit and the object is performed. No method has been proposed for realization.

本発明の幾つかの態様によれば、プロジェクション用の投影画像を生成しながら適切なヒット判定処理を実現できる画像生成システム及びプログラム等を提供できる。   According to some aspects of the present invention, it is possible to provide an image generation system, a program, and the like that can realize an appropriate hit determination process while generating a projection image for projection.

本発明の一態様は、オブジェクト空間の設定処理を行うオブジェクト空間設定部と、前記オブジェクト空間に配置される複数のオブジェクトの情報に基づいて、プロジェクション用の投影画像を生成する画像生成部と、前記投影画像の投影領域を撮像する撮像部からの撮像画像を受け付ける受け付け部と、光出射部からの光によるスポット光の前記撮像画像上での位置に基づいて、プロジェクション用スクリーンでの前記スポット光の位置であるスクリーンスポット光位置を求め、前記光出射部又はプレーヤの代表位置として設定された設定位置から、前記スクリーンスポット光位置へと向かう方向を、前記光出射部の光の出射方向として求め、求められた前記出射方向に基づいて、前記オブジェクト空間内のオブジェクトとのヒット判定処理を行うヒット判定部と、を含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   One aspect of the present invention includes an object space setting unit that performs an object space setting process, an image generation unit that generates a projection image for projection based on information on a plurality of objects arranged in the object space, A receiving unit that receives a captured image from an imaging unit that captures a projection area of the projected image, and a position of the spot light on the projection screen based on the position of the spot light on the captured image by the light from the light emitting unit. A screen spot light position that is a position, and a direction from the set position set as the representative position of the light emitting unit or player to the screen spot light position is obtained as the light emitting direction of the light emitting unit, Based on the obtained emission direction, a hit determination process with an object in the object space is performed. And the hit judging unit that performs, related to an image generation system comprising. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、撮像画像上でのスポット光の位置に基づいて、プロジェクション用スクリーンでのスポット光の位置であるスクリーンスポット光位置が求められる。そして、光出射部又はプレーヤの代表位置として設定された設定位置からスクリーンスポット光位置へと向かう方向が光の出射方向として求められ、この出射方向に基づいてオブジェクト空間内のオブジェクトとのヒット判定処理が実行される。このようにすれば、プロジェクション用の投影画像を生成する画像生成システムにおいて、プロジェクション用スクリーンの形状を反映した適切なヒット判定処理を実現できる。即ち、設定位置からスクリーンスポット光位置へと向かう方向を出射方向にすれば、プロジェクション用スクリーンが1つの平面だけで構成されるスクリーンではない場合に、プロジェクション用スクリーンの形状を反映させた適切な出射方向を求めて、この出射方向に基づくヒット判定処理を実行できるようになる。   According to one aspect of the present invention, a screen spot light position, which is the position of the spot light on the projection screen, is obtained based on the position of the spot light on the captured image. Then, a direction from the set position set as the light emitting unit or the representative position of the player to the screen spot light position is obtained as the light emitting direction, and hit determination processing with an object in the object space based on the emitting direction Is executed. In this way, an appropriate hit determination process that reflects the shape of the projection screen can be realized in an image generation system that generates a projection image for projection. In other words, if the direction from the set position to the screen spot light position is set as the emission direction, an appropriate emission reflecting the shape of the projection screen can be obtained when the projection screen is not a screen composed of only one plane. The direction can be obtained and the hit determination process based on the emission direction can be executed.

また本発明の一態様では、前記プロジェクション用スクリーンは、1つの曲面又は複数の面により構成されるスクリーンであり、前記画像生成部は、前記プロジェクション用スクリーンの形状情報に基づく歪み補正処理を行って、前記投影画像を生成し、前記ヒット判定部は、前記プロジェクション用スクリーンの形状情報に基づいて、前記スクリーンスポット光位置を求めてもよい。   In one aspect of the present invention, the projection screen is a screen configured by one curved surface or a plurality of surfaces, and the image generation unit performs a distortion correction process based on shape information of the projection screen. The projection image may be generated, and the hit determination unit may obtain the screen spot light position based on the shape information of the projection screen.

このように、プロジェクション用スクリーンの形状情報に基づく歪み補正処理を行えば、1つの曲面又は複数の面により構成されるプロジェクション用スクリーンの形状を反映させた適切な投影画像を生成できる。また、プロジェクション用スクリーンの形状情報に基づいてスクリーンスポット光位置を求めれば、1つの曲面又は複数の面により構成されるプロジェクション用スクリーンの形状を反映させたスクリーンスポット光位置を求めることができ、プロジェクション用スクリーンの形状を反映させた適切なヒット判定処理を実現できるようになる。   As described above, if the distortion correction processing based on the shape information of the projection screen is performed, an appropriate projection image reflecting the shape of the projection screen constituted by one curved surface or a plurality of surfaces can be generated. Further, if the screen spot light position is obtained based on the shape information of the projection screen, the screen spot light position reflecting the shape of the projection screen constituted by one curved surface or a plurality of surfaces can be obtained. It is possible to realize an appropriate hit determination process reflecting the shape of the screen for use.

また本発明の一態様では、前記ヒット判定部は、前記スポット光の前記撮像画像上での位置に基づいて、前記撮像部から見た前記スポット光の方向ベクトルを求め、前記方向ベクトルに沿った直線と前記プロジェクション用スクリーンとの交点位置を、前記スクリーンスポット光位置として求めてもよい。   In the aspect of the invention, the hit determination unit obtains a direction vector of the spot light viewed from the imaging unit based on a position of the spot light on the captured image, and follows the direction vector. An intersection position between the straight line and the projection screen may be obtained as the screen spot light position.

このようにすれば、撮像画像上でのスポット光の位置に対応するスポット光の方向ベクトルが求められ、この方向ベクトルに沿った直線とプロジェクション用スクリーンとの交点位置を求めることで、スクリーンスポット光位置を求めることができる。これにより例えば撮像部の光学系の情報等を反映させたスクリーンスポット光位置を求めることが可能になる。   In this way, the direction vector of the spot light corresponding to the position of the spot light on the captured image is obtained, and the screen spot light is obtained by obtaining the intersection point between the straight line along the direction vector and the projection screen. The position can be determined. As a result, for example, it is possible to obtain a screen spot light position reflecting information on the optical system of the imaging unit.

また本発明の一態様では、前記画像生成部は、描画バッファ上のピクセルが前記投影装置の光学系を通して出射される光線と前記プロジェクション用スクリーンとの交点位置と、代表視点位置とを結ぶ直線を、仮想カメラの視線として、前記描画バッファ上の前記ピクセルの色を決定してもよい。   In one aspect of the present invention, the image generation unit includes a straight line connecting the intersection position between the light beam emitted from the pixel on the drawing buffer through the optical system of the projection apparatus and the projection screen and the representative viewpoint position. The color of the pixel on the drawing buffer may be determined as the line of sight of the virtual camera.

このようにすれば、ピクセル単位での歪み補正処理を行って、プロジェクション用の投影画像を生成できるようになる。   In this way, it becomes possible to generate a projection image for projection by performing distortion correction processing in units of pixels.

また本発明の一態様では、前記画像生成部は、前記オブジェクト空間内のオブジェクトの頂点位置と代表視点位置を結ぶ直線と、前記プロジェクション用スクリーンとの交点位置に基づいて、前記オブジェクトに対応する描画オブジェクトについての描画バッファ上での頂点位置を求め、前記頂点位置に基づいて前記描画バッファに前記描画オブジェクトを描画してもよい。   In the aspect of the invention, the image generation unit may perform drawing corresponding to the object based on an intersection position between the projection screen and a straight line connecting the vertex position of the object and the representative viewpoint position in the object space. A vertex position on the drawing buffer for the object may be obtained, and the drawing object may be drawn in the drawing buffer based on the vertex position.

このようにすれば、頂点単位での歪み補正処理を行って、プロジェクション用の投影画像を生成できるようになる。   In this way, it becomes possible to generate a projection image for projection by performing distortion correction processing in units of vertices.

また本発明の一態様では、前記オブジェクト空間設定部は、前記光出射部の照準を表す照準オブジェクトの前記オブジェクト空間での配置位置を、前記出射方向に基づいて求め、求められた前記配置位置に前記照準オブジェクトを配置してもよい。   In one aspect of the present invention, the object space setting unit obtains an arrangement position of the aiming object representing the aim of the light emitting unit in the object space based on the emission direction, and determines the obtained arrangement position. The aiming object may be arranged.

このようにすれば、光出射部の照準オブジェクトを、出射方向に基づき求められた位置に配置して、当該照準オブジェクトの画像を投影画像上に生成できるようになる。   In this way, the aiming object of the light emitting unit can be arranged at a position obtained based on the emitting direction, and an image of the aiming object can be generated on the projection image.

また本発明の一態様では、前記オブジェクト空間設定部は、前記出射方向に沿った直線上に、前記照準オブジェクトを配置してもよい。   In the aspect of the invention, the object space setting unit may arrange the aiming object on a straight line along the emission direction.

このようにすれば、光出射部の出射方向の変化に連動して投影画像上を移動する照準オブジェクトの画像を表示できるようになる。   In this way, it is possible to display an image of the aiming object that moves on the projection image in conjunction with a change in the emission direction of the light emitting unit.

また本発明の一態様では、前記画像生成部は、前記スポット光の検出調整用オブジェクトが、前記撮像部の撮像範囲の内側に表示される前記投影画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate the projection image in which the spot light detection adjustment object is displayed inside the imaging range of the imaging unit.

このようにすれば、例えば撮像部の取り付け位置や取り付け方向等にバラツキがあった場合にも、検出調整用オブジェクトを用いたスポット光の位置検出の調整を適切に実現できるようになる。   In this way, for example, even when there are variations in the mounting position and mounting direction of the imaging unit, it is possible to appropriately realize the adjustment of the spot light position detection using the detection adjustment object.

また本発明の一態様では、前記オブジェクト空間設定部は、前記検出調整用オブジェクトが、前記投影画像の投影領域において前記撮像部の前記撮像範囲の内側に表示されるように、前記検出調整用オブジェクトを前記オブジェクト空間に配置してもよい。   In the aspect of the invention, the object space setting unit may detect the detection adjustment object so that the detection adjustment object is displayed inside the imaging range of the imaging unit in a projection area of the projection image. May be arranged in the object space.

このようにすれば、プロジェクション用の投影画像上に、スポット光の位置検出の調整を実現する検出調整用オブジェクトを適切に表示できるようになる。   In this way, it becomes possible to appropriately display the detection adjustment object for realizing the adjustment of the position detection of the spot light on the projection image for projection.

また本発明の一態様では、前記投影画像を撮像した第2の撮像画像又は前記スポット光の検出位置の履歴情報に基づいて、前記撮像部の撮像範囲を特定する撮像範囲特定部を含んでもよい。   Moreover, in one aspect of the present invention, an imaging range specifying unit that specifies the imaging range of the imaging unit based on the second captured image obtained by capturing the projection image or the history information of the detection position of the spot light may be included. .

このようにすれば、撮像部の撮像範囲を特定することが可能になり、撮像部の撮像画像に基づくスポット光の検出処理に不具合等が生じるのを防止できるようになる。   In this way, it becomes possible to specify the imaging range of the imaging unit, and it is possible to prevent problems and the like from occurring in spot light detection processing based on the captured image of the imaging unit.

また本発明の一態様では、前記撮像部を含み、前記撮像部は、撮像素子と、魚眼レンズを有してもよい。   In one embodiment of the present invention, the imaging unit may include the imaging unit and a fisheye lens.

このように撮像部に魚眼レンズを設ければ、投影画像の投影領域の広い範囲に亘って、スポット光の位置検出を実現することが可能になる。   If the fisheye lens is provided in the imaging unit in this manner, it is possible to detect the position of the spot light over a wide range of the projection area of the projection image.

また本発明の一態様では、前記投影装置を含み、前記撮像部は、前記投影装置に取り付けられてもよい。   In one embodiment of the present invention, the projector may be included, and the imaging unit may be attached to the projector.

このようにすれば、例えば投影装置の投影方向と撮像部の撮像方向を揃えることなどが容易になり、ヒット判定処理の精度等を向上できる。   In this way, for example, it becomes easy to align the projection direction of the projection apparatus and the imaging direction of the imaging unit, and the accuracy of hit determination processing can be improved.

また本発明の他の態様は、オブジェクト空間の設定処理を行うオブジェクト空間設定部と、前記オブジェクト空間に配置される複数のオブジェクトの情報に基づいて、プロジェクション用の投影画像を生成する画像生成部と、前記投影画像を投影する投影装置と、前記投影画像の投影領域を撮像する撮像部と、光を出射する光出射部と、前記撮像部からの撮像画像に基づいて、前記光出射部の光の出射方向を求め、求められた前記出射方向に基づいて、前記オブジェクト空間内のオブジェクトとのヒット判定処理を行うヒット判定部と、を含み、前記撮像部は、撮像素子と、魚眼レンズを有する画像生成システムに関係する。   According to another aspect of the present invention, an object space setting unit that performs an object space setting process, an image generation unit that generates a projection image for projection based on information on a plurality of objects arranged in the object space, A light projection unit that projects the projection image; an imaging unit that captures a projection area of the projection image; a light emission unit that emits light; and a light output from the light emission unit based on a captured image from the imaging unit. And a hit determination unit that performs a hit determination process with an object in the object space based on the determined emission direction, and the imaging unit includes an image sensor and a fisheye lens. Related to the generation system.

本発明の他の態様によれば、投影装置により投影画像が投影され、投影画像の投影領域が撮像部により撮像される。そして撮像画像に基づいて、光出射部の光の出射方向が求められて、オブジェクト空間内のオブジェクトとのヒット判定処理が実行される。そして本発明の他の態様では、撮像部には魚眼レンズが設けられ、この魚眼レンズを介して撮像された撮像画像に基づいて、光出射部の光の出射方向が求められる。このように撮像部に魚眼レンズを設ければ、投影画像の投影領域の広い範囲に亘って、ヒット判定処理のために検出処理を実行できるようになる。従って、プロジェクション用の投影画像を生成する画像生成システムに好適なヒット判定処理を実現できるようになる。   According to another aspect of the present invention, the projection image is projected by the projection device, and the projection area of the projection image is captured by the imaging unit. Then, based on the captured image, the light emitting direction of the light emitting unit is obtained, and hit determination processing with the object in the object space is executed. In another aspect of the present invention, the imaging unit is provided with a fisheye lens, and the light emitting direction of the light emitting unit is obtained based on the captured image captured through the fisheye lens. If the fisheye lens is provided in the imaging unit in this manner, the detection process can be executed for the hit determination process over a wide range of the projection area of the projection image. Therefore, hit determination processing suitable for an image generation system that generates a projection image for projection can be realized.

本実施形態の画像生成システムを適用したゲームシステムの一例。An example of the game system to which the image generation system of this embodiment is applied. 本実施形態の画像生成システムを適用したゲームシステムの鉛直断面図。The vertical sectional view of the game system to which the image generation system of this embodiment is applied. 本実施形態の画像生成システムの構成例。1 is a configuration example of an image generation system according to the present embodiment. 描画バッファのピクセル単位での歪み補正手法の説明図。Explanatory drawing of the distortion correction method per pixel of a drawing buffer. ピクセル単位での歪み補正に代理平面を用いる手法の説明図。Explanatory drawing of the method of using a surrogate plane for distortion correction per pixel. ピクセル単位での歪み補正に代理平面を用いる手法での描画バッファ、UVマップ、レンダーテクスチャの関係を示す図。The figure which shows the relationship between the drawing buffer by the method of using a substitute plane for distortion correction per pixel, a UV map, and a render texture. オブジェクトの頂点単位での歪み補正手法の説明図。Explanatory drawing of the distortion correction method in the vertex unit of an object. 本実施形態の画像生成システムにより生成される投影画像の例。An example of a projection image generated by the image generation system of this embodiment. 図9(A)、図9(B)は本実施形態の画像生成システムにより実現されるシューティングゲームの説明図。FIG. 9A and FIG. 9B are explanatory diagrams of a shooting game realized by the image generation system of this embodiment. 図10(A)、図10(B)も本実施形態の画像生成システムにより実現されるシューティングゲームの説明図。FIGS. 10A and 10B are also explanatory diagrams of a shooting game realized by the image generation system of the present embodiment. 本実施形態のヒット判定手法の説明図。Explanatory drawing of the hit determination method of this embodiment. 本実施形態のヒット判定処理を説明するフローチャート。The flowchart explaining the hit determination process of this embodiment. 本実施形態の照準オブジェクトの配置手法の説明図。Explanatory drawing of the arrangement | positioning method of the aiming object of this embodiment. 本実施形態の照準オブジェクトの配置手法の説明図。Explanatory drawing of the arrangement | positioning method of the aiming object of this embodiment. 図15(A)、図15(B)はスポット光の方向ベクトルの演算手法の説明図。FIGS. 15A and 15B are explanatory diagrams of a method for calculating the direction vector of the spot light. 図16(A)、図16(B)もスポット光の方向ベクトルの演算手法の説明図。FIGS. 16A and 16B are also explanatory diagrams of a method for calculating the direction vector of the spot light. 図17(A)、図17(B)はスポット光の検出調整用オブジェクトの説明図。FIG. 17A and FIG. 17B are explanatory diagrams of objects for detecting and adjusting spot light. 図18(A)、図18(B)もスポット光の検出調整用オブジェクトの説明図。FIG. 18A and FIG. 18B are also explanatory diagrams of the spot light detection adjustment object. スポット光の検出調整用オブジェクトの説明図。Explanatory drawing of the object for detection adjustment of a spot light. 図20(A)、図20(B)は撮像部の撮像範囲についての説明図。20A and 20B are explanatory diagrams of the imaging range of the imaging unit. スポット光の検出調整用オブジェクトの配置手法の説明図。Explanatory drawing of the arrangement method of the spot light detection adjustment object. 図22(A)、図22(B)は照準オブジェクトの表示制御手法についての説明図。FIG. 22A and FIG. 22B are explanatory diagrams of the display control method for the aiming object.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に、本実施形態の画像生成システムを適用したゲームシステムの構成例を示す。図2は、このゲームシステムの鉛直断面図である。
1. Configuration FIG. 1 shows a configuration example of a game system to which the image generation system of this embodiment is applied. FIG. 2 is a vertical sectional view of the game system.

図1、図2のゲームシステムは、アミューズメント施設に設置されてシューティングゲームをプレーヤがプレイするための業務用のゲームシステムである。このゲームシステムは、プレーヤシート10と、制御基板16と、ゲーム画像である投影画像が投影される曲面形状のスクリーン20と、スクリーン20に投影画像(映像)を投影する投影装置30と、スポット光の検出用の撮像部40と、銃を模した光出射部50(ガン型コントローラ)と、ゲーム音を出力するスピーカ(不図示)を備えている。   The game system shown in FIGS. 1 and 2 is a business game system installed in an amusement facility for a player to play a shooting game. This game system includes a player seat 10, a control board 16, a curved screen 20 on which a projection image that is a game image is projected, a projection device 30 that projects a projection image (video) on the screen 20, and spot light. And a light emitting unit 50 (gun-type controller) simulating a gun, and a speaker (not shown) for outputting game sounds.

プレーヤシート10は、着座したプレーヤの想定正視方向がスクリーン20の中央付近を向くように、その向きや高さが調整されて設けられている。本実施形態では、着座したプレーヤの正面方向を想定正視方向としている。スクリーン20は、プレーヤシート10に着座したプレーヤの正面方向(想定正視方向)に対して凸形状に形成されている。   The player seat 10 is provided with its orientation and height adjusted so that the assumed normal viewing direction of the seated player faces the center of the screen 20. In the present embodiment, the front direction of the player who is seated is the assumed normal viewing direction. The screen 20 is formed in a convex shape with respect to the front direction (assumed normal viewing direction) of the player seated on the player seat 10.

制御基板16には、CPU、GPU又はDSP等の各種プロセッサや、ASICや、VRAM、RAM又はROM等の各種メモリが実装されている。そして、制御基板16は、メモリに記憶されたプログラムやデータや、光出射部50等を操作するプレーヤの操作信号等に基づいて、シューティングゲームを実現するための各種処理を行う。   The control board 16 is mounted with various processors such as a CPU, GPU or DSP, and various memories such as an ASIC, VRAM, RAM or ROM. Then, the control board 16 performs various processes for realizing a shooting game based on a program and data stored in the memory, an operation signal of a player who operates the light emitting unit 50, and the like.

投影装置30(プロジェクタ)は、プレーヤシート10の後方に設置された支柱12や筐体フレーム14に支持されて、プレーヤシート10の上方であってプレーヤシート10に着座したプレーヤに干渉しない位置に、その投影中心方向がスクリーン20の中心付近を向くように設置されている。即ち、投影中心方向がプレーヤの想定正視方向とスクリーン20との交点位置に向くように設置される。また、投影装置30には、投影レンズとして広角レンズ(例えば魚眼レンズ、即ち画角が180度を超えるような超広角レンズ)が取り付けられており、この広角レンズを通して、投影画像がスクリーン20の投影領域の全体に投影される。   The projection device 30 (projector) is supported by the support column 12 and the housing frame 14 installed behind the player seat 10 and is located above the player seat 10 so as not to interfere with the player seated on the player seat 10. The projection center direction is set so as to face the vicinity of the center of the screen 20. In other words, the projection center direction is set so as to face the intersection point between the assumed normal viewing direction of the player and the screen 20. In addition, the projection device 30 is provided with a wide-angle lens (for example, a fish-eye lens, that is, a super-wide-angle lens with an angle of view exceeding 180 degrees) as a projection lens. Projected to the whole.

また投影装置30には、投影画像の投影領域を撮像する撮像部40が取り付けられている。例えば撮像部40の撮影方向は投影画像の投影方向に設定されている。この撮像部40により撮像された撮像画像を用いて、光出射部50からの出射光によりスクリーン20に形成されるスポット光の位置が検出される。そして検出されたスポット光の位置に基づいて光出射部50の光の出射方向が特定され、ゲーム画像に映る敵オブジェクトとのヒット判定が行われる。   The projection device 30 is attached with an imaging unit 40 that captures a projection area of the projection image. For example, the shooting direction of the imaging unit 40 is set to the projection direction of the projection image. Using the picked-up image picked up by the image pickup unit 40, the position of the spot light formed on the screen 20 by the light emitted from the light emitting unit 50 is detected. Then, the light emission direction of the light emitting unit 50 is specified based on the detected position of the spot light, and hit determination with an enemy object shown in the game image is performed.

光出射部50は、銃を模して形成されたガン型のコントローラである。光出射部50には、赤外線の発光部が設けられており、この赤外光が当たることでスクリーン20にスポット光が形成される。撮像部40には、可視光を遮断し、赤外光を透過する赤外線フィルター(IRフィルター)が設けられているため、撮像部40の撮像画像に基づいて、赤外光のスポット光の位置を検出できる。   The light emitting unit 50 is a gun-type controller that is modeled on a gun. The light emitting portion 50 is provided with an infrared light emitting portion, and spot light is formed on the screen 20 when the infrared light hits. Since the imaging unit 40 is provided with an infrared filter (IR filter) that blocks visible light and transmits infrared light, the position of the spot light of the infrared light is determined based on the captured image of the imaging unit 40. It can be detected.

プレーヤは、プレーヤシート10に着座して、スクリーン20に表示されるゲーム画像を見ながら、スピーカからのゲーム音を聞きつつ、ゲーム画像に出現する敵を、銃を模した光出射部50でシューティングしてゲームを楽しむ。   The player sits on the player seat 10, watches the game image displayed on the screen 20, listens to the game sound from the speaker, and shoots the enemy appearing in the game image with the light emitting unit 50 simulating a gun. And enjoy the game.

本実施形態のシューティングゲームでは、オブジェクト空間(仮想3次元空間)に背景オブジェクト等のオブジェクトが配置されてゲーム空間が構成される。このオブジェクト空間内には、シューティングのターゲットとなる敵のオブジェクト等も配置されると共に、プレーヤの視点位置に仮想カメラが配置される。そして、この仮想カメラから見たオブジェクト空間の画像が、ゲーム画像として、投影装置30によってスクリーン20に投影(表示)される。   In the shooting game of the present embodiment, a game space is configured by arranging objects such as background objects in an object space (virtual three-dimensional space). In this object space, enemy objects and the like that are targets for shooting are also arranged, and a virtual camera is arranged at the viewpoint position of the player. Then, the image of the object space viewed from the virtual camera is projected (displayed) on the screen 20 by the projection device 30 as a game image.

図3に本実施形態の画像生成システムのブロック図の例を示す。なお、本実施形態の画像生成システムの構成は図3に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   FIG. 3 shows an example of a block diagram of the image generation system of the present embodiment. Note that the configuration of the image generation system of the present embodiment is not limited to FIG. 3, and various modifications such as omitting some of the components (each unit) or adding other components are possible. .

撮像部40(カメラ)は、レンズ42等の光学系と、撮像素子44を有する。レンズ42は、例えば撮像素子44に像を映すレンズであり、スクリーン20の全体を撮像するための広角レンズ(例えば魚眼レンズ)である。撮像素子44は、例えばCCD又はCMOSセンサなどにより実現される。撮像部40はこれ以外にも上述の赤外線フィルター等が設けられる。   The imaging unit 40 (camera) includes an optical system such as a lens 42 and an imaging element 44. The lens 42 is, for example, a lens that projects an image on the image sensor 44 and is a wide-angle lens (for example, a fisheye lens) for capturing the entire screen 20. The image sensor 44 is realized by, for example, a CCD or CMOS sensor. In addition to this, the imaging unit 40 is provided with the above-described infrared filter and the like.

操作部160は、プレーヤが操作データを入力するためのものである。図1、図2のゲームシステムに画像生成システムを適用した場合には、操作部160は、ガン型コントローラである光出射部50や、不図示の操作ボタン等により実現できる。   The operation unit 160 is for a player to input operation data. When the image generation system is applied to the game system of FIGS. 1 and 2, the operation unit 160 can be realized by the light emitting unit 50 that is a gun-type controller, an operation button (not shown), or the like.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like. Then, the game program and game data necessary for executing the game program are held in the storage unit 170.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、HDD(ハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   An information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions thereof by an optical disk (CD, DVD), HDD (hard disk drive), memory (ROM, etc.), and the like. realizable. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

表示部190は、本実施形態により生成された画像を表示するものである。図1、図2のゲームシステムに画像生成システムを適用した場合には、表示部190は、液晶プロジェクタにおけるLCDや、DLPプロジェクタにおけるDMDなどにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 displays an image generated according to the present embodiment. When the image generation system is applied to the game system of FIGS. 1 and 2, the display unit 190 can be realized by an LCD in a liquid crystal projector, a DMD in a DLP projector, or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。   The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card.

通信部196は、有線や無線のネットワークを介して外部(例えば他の画像生成システム、サーバ、ホスト装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (for example, another image generation system, a server, or a host device) via a wired or wireless network, and functions as a communication ASIC, a communication processor, or the like. It can be realized by hardware and communication firmware.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs game processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), and programs.

処理部100は、ゲーム演算部102、オブジェクト空間設定部104、移動体演算部106、仮想カメラ制御部108、受け付け部110、ヒット判定部114、撮像範囲特定部116、画像生成部120、音生成部130を含む。なおこれらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes a game calculation unit 102, an object space setting unit 104, a moving body calculation unit 106, a virtual camera control unit 108, a reception unit 110, a hit determination unit 114, an imaging range specifying unit 116, an image generation unit 120, and sound generation. Part 130. Various modifications may be made such as omitting some of these components (each unit) or adding other components.

ゲーム演算部102はゲーム演算処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 102 performs game calculation processing. Here, as a game calculation, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a process for ending a game when a game end condition is satisfied and so on.

オブジェクト空間設定部104は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行う。例えば、移動体(人、動物、ロボット、車、飛行機、船舶機等)、マップ(地形)、建物、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部172には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部104は、例えば各フレーム毎にこのオブジェクトデータを更新する処理などを行う。   The object space setting unit 104 performs an object space setting process in which a plurality of objects are arranged. For example, various objects (polygons, free-form surfaces) representing display objects such as moving objects (people, animals, robots, cars, airplanes, marine aircraft, etc.), maps (terrain), buildings, courses (roads), trees, walls, water surfaces, etc. Or an object configured with a primitive surface such as a subdivision surface) is set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Place the object. Specifically, the object data storage unit 172 of the storage unit 170 stores object data such as the position, rotation angle, moving speed, moving direction, etc. of the object (part object) in association with the object number. . The object space setting unit 104 performs a process of updating the object data for each frame, for example.

移動体演算部106は、人、動物、車、飛行機等の移動体(移動体オブジェクト)を移動させるための制御処理を行う。また移動体を動作させるための制御処理を行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(オブジェクト、モデルオブジェクト)をオブジェクト空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The moving object calculation unit 106 performs control processing for moving a moving object (moving object) such as a person, an animal, a car, or an airplane. Also, control processing for operating the moving body is performed. That is, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), etc., a moving body (object, model object) is moved in the object space, Performs control processing to move the moving body (motion, animation). Specifically, a simulation process for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (1/60 second). I do. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object.

仮想カメラ制御部108は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 108 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

例えば仮想カメラにより移動体を後方から撮影する場合には、移動体の位置又は方向の変化に仮想カメラが追従するように、仮想カメラの位置(視点位置)や方向(視線方向)を制御する。この場合には、移動体演算部106で得られた移動体の位置、方向又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させたりする制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は方向を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when a moving body is photographed from behind using a virtual camera, the position (viewpoint position) and direction (gaze direction) of the virtual camera are controlled so that the virtual camera follows changes in the position or direction of the moving body. In this case, the virtual camera can be controlled based on information such as the position, direction, or speed of the moving object obtained by the moving object computing unit 106. Alternatively, control may be performed such that the virtual camera is rotated at a predetermined rotation angle or moved along a predetermined movement path. In this case, the virtual camera is controlled based on virtual camera data for specifying the position (movement path) or direction of the virtual camera.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

そして本実施形態の画像生成システムは、図3に示すように、オブジェクト空間設定部104と、受け付け部110と、ヒット判定部114と、画像生成部120を含む。また本実施形態の画像生成システム(ゲームシステム)は、撮像部40や図1、図2の投影装置30や光出射部50を含むことができる。   The image generation system according to the present embodiment includes an object space setting unit 104, a reception unit 110, a hit determination unit 114, and an image generation unit 120, as shown in FIG. Moreover, the image generation system (game system) of this embodiment can include the imaging unit 40, the projection device 30 and the light emitting unit 50 of FIGS.

オブジェクト空間設定部104は、前述のようにオブジェクト空間の設定処理を行う。オブジェクト空間は3次元のゲーム空間である。   The object space setting unit 104 performs the object space setting process as described above. The object space is a three-dimensional game space.

画像生成部120は投影画像を生成する。具体的には、オブジェクト空間に配置される複数のオブジェクト(敵オブジェクト、背景オブジェクト等)の情報に基づいて、プロジェクション用の投影画像(プロジェクションマッピング処理により生成された投影画像)を生成する。投影画像は、投影装置30が曲面形状のスクリーン20(ドーム形状のスクリーン)に対して投影する画像である。この投影画像は、液晶プロジェクタにおけるLCD或いはDLPプロジェクタにおけるDMDにより実現される表示部190に表示され、投影装置30の広角レンズ等の光学系により、スクリーン20に投影される。   The image generation unit 120 generates a projection image. Specifically, a projection image for projection (a projection image generated by projection mapping processing) is generated based on information on a plurality of objects (enemy objects, background objects, etc.) arranged in the object space. The projected image is an image that the projection device 30 projects onto the curved screen 20 (dome-shaped screen). This projection image is displayed on a display unit 190 realized by an LCD in a liquid crystal projector or a DMD in a DLP projector, and is projected on the screen 20 by an optical system such as a wide-angle lens of the projection device 30.

受け付け部110は、投影画像の投影領域(スクリーン領域)を撮像する撮像部40からの撮像画像を受け付ける。例えば撮像部40の撮像方向(撮影方向)は投影画像の投影方向(投影装置の投影方向)に設定されている。具体的には、撮像方向が投影方向と例えば平行(略平行)になるように撮像部40は設置されている。そして撮像部40が、スクリーン20の投影領域の画像を撮像すると、その撮像画像のデータが、画像インターフェースとして機能する受け付け部110により受け付けられる。   The accepting unit 110 accepts a captured image from the image capturing unit 40 that captures a projection area (screen area) of the projection image. For example, the imaging direction (imaging direction) of the imaging unit 40 is set to the projection direction of the projection image (projection direction of the projection device). Specifically, the imaging unit 40 is installed such that the imaging direction is parallel (substantially parallel) to the projection direction, for example. When the imaging unit 40 captures an image of the projection area of the screen 20, the captured image data is received by the receiving unit 110 that functions as an image interface.

ヒット判定部114は、光出射部50からの光とオブジェクトとのヒット判定処理を行う。即ち、光出射部50の光の出射方向に銃の弾が飛んだと想定し、光出射部50からの光により表される弾とオブジェクトとのヒット判定処理を行う。   The hit determination unit 114 performs a hit determination process between the light from the light emitting unit 50 and the object. That is, assuming that the bullet of the gun has flew in the light emitting direction of the light emitting unit 50, the hit determination process between the bullet represented by the light from the light emitting unit 50 and the object is performed.

具体的にはヒット判定部114は、光出射部50からの光(例えば赤外光)によるスポット光の撮像画像上での位置(撮像素子の座標系での位置)を求める。例えば撮像部40からの撮像画像に対して画像処理等を行って、撮像画像に映るスポット光(赤外スポット光)の位置を検出する。そしてヒット判定部114は、スポット光の撮像画像上での位置に基づいて、プロジェクション用スクリーンでのスポット光の位置であるスクリーンスポット光位置を求める。例えば、撮像画像上でのスポット光の位置と、プロジェクション用スクリーンでのスポット光の位置は、一対一に対応づけることができる。スクリーンスポット光位置は、撮像画像上でのスポット光の位置に一対一に対応づけられるプロジェクション用スクリーンでのスポット光の位置である。   Specifically, the hit determination unit 114 obtains the position of the spot light on the captured image (the position in the coordinate system of the image sensor) by the light (for example, infrared light) from the light emitting unit 50. For example, image processing or the like is performed on the captured image from the imaging unit 40 to detect the position of spot light (infrared spot light) reflected in the captured image. The hit determination unit 114 obtains a screen spot light position, which is the position of the spot light on the projection screen, based on the position of the spot light on the captured image. For example, the position of the spot light on the captured image and the position of the spot light on the projection screen can be associated one to one. The screen spot light position is the position of the spot light on the projection screen that is associated one-to-one with the position of the spot light on the captured image.

そしてヒット判定部114は、光出射部50又はプレーヤの代表位置として設定された設定位置から、スクリーンスポット光位置へと向かう方向を、光出射部50の光の出射方向として求める。即ち、光出射部50の位置(又はプレーヤの位置)として想定される代表位置を、設定位置として設定し、その設定位置と、スクリーンスポット光位置とを結ぶ直線の方向を、出射方向として求める。この出射方向は、光出射部50の現実の出射方向とは必ずしも一致しないが、ヒット判定処理を実現するために、設定位置と上述の交点位置とを結ぶ直線の方向を、出射方向として仮想的に設定する。   Then, the hit determination unit 114 obtains the direction from the set position set as the light emitting unit 50 or the representative position of the player toward the screen spot light position as the light emitting direction of the light emitting unit 50. That is, the representative position assumed as the position of the light emitting unit 50 (or the position of the player) is set as the set position, and the direction of the straight line connecting the set position and the screen spot light position is obtained as the emission direction. This emission direction does not necessarily match the actual emission direction of the light emitting unit 50, but in order to realize hit determination processing, the direction of a straight line connecting the set position and the above-described intersection position is assumed to be a virtual emission direction. Set to.

そしてヒット判定部114は、この出射方向に基づいて、オブジェクト空間内のオブジェクトとのヒット判定処理を行う。即ち、敵オブジェクト等の標的対象のオブジェクトとのヒット判定を行う。例えば、求められた出射方向に伸びる直線(光線)を設定し、この直線とオブジェクトとの交差判定を行うことで、光出射部50からの光(弾、ショット)がオブジェクトにヒットしたか否かをチェックするヒット判定処理を行う。   Then, the hit determination unit 114 performs hit determination processing with an object in the object space based on the emission direction. That is, hit determination with a target object such as an enemy object is performed. For example, by setting a straight line (light ray) extending in the obtained emission direction and performing an intersection determination between the straight line and the object, it is determined whether or not the light (bullet, shot) from the light emitting unit 50 has hit the object. A hit determination process for checking is performed.

またプロジェクション用スクリーンが1つの曲面又は複数の面により構成されるスクリーンである場合に、画像生成部120は、プロジェクション用スクリーンの形状情報に基づく歪み補正処理を行って、投影画像を生成する。プロジェクション用スクリーンの形状情報は、例えばプロジェクション用スクリーンの形状を数式(例えば楕円面の方程式)などで表した情報である。画像生成部120は、1つの曲面又は複数の面により構成されるプロジェクション用スクリーンの形状を反映させるための歪み補正処理を行って、投影画像を生成する。   When the projection screen is a screen composed of one curved surface or a plurality of surfaces, the image generation unit 120 performs a distortion correction process based on the shape information of the projection screen to generate a projection image. The shape information of the projection screen is, for example, information representing the shape of the projection screen by a mathematical expression (for example, an ellipsoidal equation). The image generation unit 120 generates a projection image by performing distortion correction processing for reflecting the shape of the projection screen formed by one curved surface or a plurality of surfaces.

そしてヒット判定部114は、プロジェクション用スクリーンの形状情報に基づいて、スクリーンスポット光位置を求める。例えばプロジェクション用スクリーンの形状を数式等で表した情報に基づいて、スクリーンスポット光位置を求める。例えば後述するように、方向ベクトルに沿った直線とプロジェクション用スクリーンとの交点位置を、スクリーンスポット光位置として求める場合には、方向ベクトルに沿った直線の数式と、プロジェクション用スクリーンの形状を表す数式とに基づいて、スクリーンスポット光位置を求めることができる。   The hit determination unit 114 obtains the screen spot light position based on the shape information of the projection screen. For example, the screen spot light position is obtained based on information representing the shape of the projection screen by a mathematical expression or the like. For example, as will be described later, when the position of the intersection of the straight line along the direction vector and the projection screen is obtained as the screen spot light position, the mathematical expression of the straight line along the direction vector and the mathematical expression representing the shape of the projection screen Based on the above, the screen spot light position can be obtained.

またヒット判定部114は、スポット光の撮像画像上での位置に基づいて、撮像部40から見たスポット光の方向ベクトルを求める。例えば撮像部40のカメラ座標系において、スクリーン20に映るスポット光の方向を表す方向ベクトルを求める。次にヒット判定部114は、この方向ベクトルに沿った直線(撮像部40の代表位置を起点として、方向ベクトルの方向に沿った直線)と、プロジェクション用スクリーンとの交点位置を、スクリーンスポット光位置として求める。そしてヒット判定部114は、光出射部50の位置(又はプレーヤの位置)として想定される設定値と、この交点位置であるスクリーンスポット光位置とを結ぶ直線の方向を、出射方向として求めて、ヒット判定処理を行う。   Further, the hit determination unit 114 obtains the direction vector of the spot light viewed from the imaging unit 40 based on the position of the spot light on the captured image. For example, in the camera coordinate system of the imaging unit 40, a direction vector representing the direction of the spot light reflected on the screen 20 is obtained. Next, the hit determination unit 114 determines the intersection position of the straight line along the direction vector (the straight line along the direction of the direction vector from the representative position of the imaging unit 40) and the projection screen as the screen spot light position. Asking. Then, the hit determination unit 114 obtains the direction of a straight line connecting the set value assumed as the position of the light emitting unit 50 (or the position of the player) and the screen spot light position that is the intersection position as the emission direction, Perform hit determination processing.

またオブジェクト空間設定部104は、照準オブジェクトの配置処理を行う。例えばオブジェクト空間設定部104は、光出射部50の照準を表す照準オブジェクト(ガンサイト)のオブジェクト空間での配置位置を、上述の出射方向に基づいて求める。そして求められた配置位置に照準オブジェクトを配置する。具体的にはオブジェクト空間設定部104は、出射方向に沿った直線上に、照準オブジェクトを配置する。例えば、当該直線に交差するように、3次元オブジェクトである照準オブジェクトを配置する。   The object space setting unit 104 performs an aiming object placement process. For example, the object space setting unit 104 obtains the arrangement position of the aiming object (gun site) representing the aim of the light emitting unit 50 in the object space based on the emission direction described above. Then, the aiming object is arranged at the obtained arrangement position. Specifically, the object space setting unit 104 arranges the aiming object on a straight line along the emission direction. For example, an aiming object that is a three-dimensional object is arranged so as to intersect the straight line.

また画像生成部120は、スポット光の検出調整用オブジェクトが表示される投影画像を生成する。例えばスポット光の検出調整用オブジェクト(初期調整用オブジェクト)が、撮像部40の撮像範囲(撮像領域)の内側に表示される投影画像を生成する。具体的には、オブジェクト空間設定部104は、検出調整用オブジェクトが、投影画像の投影領域(スクリーン領域)において撮像部40の撮像範囲の内側に表示されるように、検出調整用オブジェクト(3次元オブジェクト)をオブジェクト空間に配置する。このような検出調整用オブジェクトを用いることで、スポット光の位置検出の調整処理(補正処理)等が実現される。   The image generation unit 120 generates a projection image on which the spot light detection adjustment object is displayed. For example, a spot light detection adjustment object (initial adjustment object) generates a projection image displayed inside the imaging range (imaging area) of the imaging unit 40. Specifically, the object space setting unit 104 detects the detection adjustment object (three-dimensional) so that the detection adjustment object is displayed inside the imaging range of the imaging unit 40 in the projection area (screen area) of the projection image. Object) in the object space. By using such an object for detection adjustment, adjustment processing (correction processing) or the like of spot light position detection is realized.

撮像範囲特定部116は、撮像部40の撮像範囲の特定処理を行う。例えば本実施形態では、投影領域(投影画像の表示領域)に比べて、撮像範囲は狭い範囲になっており、例えば撮像範囲の領域は、例えば投影領域に内包される領域となっている。そして、撮像部40の取り付け位置や取り付け方向のバラツキが原因で、撮像範囲の境界等にもバラツキが発生する。撮像範囲特定部116は、この撮像範囲の境界等を特定する。   The imaging range specifying unit 116 performs processing for specifying the imaging range of the imaging unit 40. For example, in the present embodiment, the imaging range is narrower than the projection area (projected image display area). For example, the imaging range area is, for example, an area included in the projection area. Then, due to variations in the mounting position and mounting direction of the imaging unit 40, variations occur in the boundaries of the imaging range. The imaging range specifying unit 116 specifies the boundary of the imaging range.

この場合に撮像範囲特定部116は、投影画像を撮像した第2の撮像画像又はスポット光の検出位置の履歴情報に基づいて、撮像部40の撮像範囲を特定する。この第2の撮像画像は、スポット光の検出のために撮像部40により撮像された撮像画像とは異なる画像である。例えば撮像画像が例えば赤外光についての撮像画像である場合に、第2の撮像画像は可視光についての撮像画像である。この第2の撮像画像は、撮像部40と別の第2の撮像部を設けて撮像してもよいし、撮像部40のフィルター(例えば赤外線フィルター)の切り替え等を行って、撮像してもよい。また、スポット光の検出位置の履歴情報は、プレーヤ等の操作者が、光出射部50を操作することで得られたスポット光の検出位置の履歴である。スポット光の検出位置の履歴情報は、過去のゲームプレイによる検出位置の履歴情報であってもよいし、他人のプレーヤのゲームプレイによる検出位置の履歴情報であってもよい。   In this case, the imaging range specifying unit 116 specifies the imaging range of the imaging unit 40 based on the second captured image obtained by capturing the projection image or the history information of the spot light detection position. The second captured image is an image different from the captured image captured by the imaging unit 40 for spot light detection. For example, when the captured image is a captured image for infrared light, for example, the second captured image is a captured image for visible light. The second captured image may be captured by providing a second image capturing unit separate from the image capturing unit 40, or by switching a filter (for example, an infrared filter) of the image capturing unit 40 or the like. Good. The spot light detection position history information is a spot light detection position history obtained by an operator such as a player operating the light emitting unit 50. The history information of the detection position of the spot light may be history information of a detection position by a past game play, or may be history information of a detection position by a game play of another player.

画像生成部120はプロジェクション用の投影画像を生成する。生成された投影画像は、図1、図2の投影装置30により、スクリーン20に投影される。これによりプレーヤは、仮想カメラから見たオブジェクト空間の画像を、ゲーム画像として見ることが可能になる。プロジェクション用の投影画像は、例えばプロジェクションマッピング処理で生成された投影画像である。プロジェクションマッピングは、映す対象(スクリーン)の状態(形状等)と投影装置30の状態(位置、方向等)を考慮に入れて投影装置30で映す手法である。   The image generation unit 120 generates a projection image for projection. The generated projection image is projected onto the screen 20 by the projection device 30 shown in FIGS. As a result, the player can view the image of the object space viewed from the virtual camera as a game image. The projection image for projection is, for example, a projection image generated by projection mapping processing. Projection mapping is a method of projecting with the projection device 30 taking into account the state (shape, etc.) of the object (screen) to be projected and the state (position, direction, etc.) of the projection device 30.

具体的には画像生成部120は、描画バッファ176上のピクセル(投影画像のピクセル)が、投影装置30の光学系(広角レンズ等)を通して出射される光線と、プロジェクション用スクリーンとの交点位置と、代表視点位置を結ぶ直線を、仮想カメラの視線として描画バッファ176上のピクセルの色を決定する。例えばこの直線を仮想カメラの視線として、オブジェクト空間の情報からピクセルの色を決定する。具体的には、この直線とオブジェクト空間内のオブジェクトとの交点位置(この直線がオブジェクト空間において最初に到達するオブジェクト上の点の位置)に応じて、ピクセルの色を決定する。この処理はレイトレーシング法にて実現することができるが描画負荷が大きく、リアルタイムでの実装が難しくなる。そこで、より実用的な方法としては、曲面のスクリーンになるべく近い形状の平面スクリーン(これを「代理平面」と呼ぶことにする)に対する描画結果をレンダーテクスチャに保存しておく手法で実現してもよい。そして、このようにしてピクセルの色を決定することで、投影画像が生成される。なお代表視点位置は、プレーヤの視点位置(仮想カメラの位置)と想定される位置である。   Specifically, the image generation unit 120 determines that the pixel on the drawing buffer 176 (pixel of the projection image) is the intersection point between the light beam emitted through the optical system (such as a wide-angle lens) of the projection device 30 and the projection screen. The color of the pixel on the drawing buffer 176 is determined with the straight line connecting the representative viewpoint positions as the line of sight of the virtual camera. For example, using this straight line as the line of sight of the virtual camera, the pixel color is determined from the information in the object space. Specifically, the color of the pixel is determined according to the intersection position of this straight line and the object in the object space (the position of the point on the object where this straight line first arrives in the object space). This processing can be realized by the ray tracing method, but the drawing load is large and it is difficult to implement in real time. Therefore, a more practical method can be realized by saving the rendering result to a render texture on a flat screen that is as close as possible to a curved screen (this will be referred to as a “proxy plane”). Good. Then, the projection image is generated by determining the color of the pixel in this way. The representative viewpoint position is a position assumed to be the player's viewpoint position (the position of the virtual camera).

或いは、画像生成部120は、オブジェクト空間内のオブジェクトの頂点位置と代表視点位置を結ぶ直線を求め、この直線とプロジェクション用スクリーンとの交点位置を求める。そして、求められた交点位置に基づいて、オブジェクトに対応する描画オブジェクトについての描画バッファ176上での頂点位置を求める。そして、求められた頂点位置に基づいて、描画バッファ176に描画オブジェクトを描画することで、投影画像を生成する。   Alternatively, the image generation unit 120 obtains a straight line connecting the vertex position of the object in the object space and the representative viewpoint position, and obtains an intersection position between the straight line and the projection screen. Then, based on the obtained intersection position, the vertex position on the drawing buffer 176 for the drawing object corresponding to the object is obtained. Then, a projection image is generated by drawing a drawing object in the drawing buffer 176 based on the obtained vertex position.

なお、プロジェクション用スクリーンは、例えば、図1、図2のスクリーン20に対応して、仮想3次元空間であるオブジェクト空間に配置設定される投影画像生成用の仮想的なスクリーンである。画像生成部120では、このプロジェクション用スクリーンの形状に合わせて歪み補正処理(プロジェクションマッピング処理とも呼ばれる)が行われることになる。このプロジェクション用スクリーンは、1つの曲面又は複数の面(曲面、平面)により構成できる。   Note that the projection screen is, for example, a virtual screen for generating a projection image that is arranged and set in an object space that is a virtual three-dimensional space, corresponding to the screen 20 in FIGS. In the image generation unit 120, distortion correction processing (also referred to as projection mapping processing) is performed in accordance with the shape of the projection screen. This projection screen can be composed of one curved surface or a plurality of surfaces (curved surface, flat surface).

また、描画オブジェクトは、描画対象となる3次元オブジェクトに対応する2次元オブジェクトである。例えば、3次元オブジェクトは、3次元空間(オブジェクト空間)に配置されるオブジェクトを意味し、例えばその頂点の座標値として3次元の座標値(X、Y、Z座標値)を有するオブジェクトである。一方、描画オブジェクトは、例えばその頂点の座標値として2次元の座標値(X、Y座標)を有するオブジェクトである。また描画バッファ176は、例えばフレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファである。   The drawing object is a two-dimensional object corresponding to the three-dimensional object to be drawn. For example, a three-dimensional object means an object arranged in a three-dimensional space (object space), and is an object having, for example, a three-dimensional coordinate value (X, Y, Z coordinate value) as a coordinate value of its vertex. On the other hand, a drawing object is an object having, for example, a two-dimensional coordinate value (X, Y coordinate) as a coordinate value of its vertex. The drawing buffer 176 is a buffer capable of storing image information in units of pixels, such as a frame buffer and a work buffer.

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。なお、以下では、プロジェクション用スクリーンが曲面形状のスクリーン(ドーム形状のスクリーン)である場合を主に例にとり説明するが、本実施形態はこれに限定されない。プロジェクション用スクリーンは、単一平面ではないスクリーンの全般を指すものである。例えばプロジェクション用スクリーンは、1つの曲面又は複数の面(平面、曲面)により構成されるスクリーンであればよい。即ち、当該スクリーンとしては、1つの曲面で構成されるスクリーン、複数の平面で構成されるスクリーン、曲面部分と平面部分とを含むスクリーンなどを想定できる。
2. Next, the method of this embodiment will be described in detail. In the following, the case where the projection screen is a curved screen (dome-shaped screen) will be mainly described as an example, but the present embodiment is not limited to this. A projection screen refers to any screen that is not a single plane. For example, the projection screen may be a screen composed of one curved surface or a plurality of surfaces (plane, curved surface). That is, as the screen, a screen configured by one curved surface, a screen configured by a plurality of planes, a screen including a curved surface portion and a plane portion, and the like can be assumed.

2.1 ピクセル単位での歪み補正手法
まずプロジェクション用の投影画像の生成手法について説明する。例えばプロジェクション用スクリーンが、1つの曲面又は複数の面により構成されるスクリーンである場合に、本実施形態では、プロジェクション用スクリーンの形状情報に基づく歪み補正処理を行って、投影画像を生成する。以下では、投影画像の生成の際に行われる歪み補正手法の具体例について説明する。
2.1 Distortion Correction Method in Pixel Unit First, a method for generating a projection image for projection will be described. For example, when the projection screen is a screen composed of one curved surface or a plurality of surfaces, in this embodiment, a distortion correction process based on the shape information of the projection screen is performed to generate a projection image. Hereinafter, a specific example of a distortion correction method performed when generating a projection image will be described.

ドーム形状(曲面形状)のスクリーンに画像を投影する場合に、投影装置の位置とプレーヤ(観察者)の位置が離れていると、画像の歪みが目立ってしまう。そこで、この歪みを予め考慮に入れて、投影装置からの投影画像(投影装置の描画バッファに描く画像)を生成することで、プレーヤから見て歪みのない映像を提示することが可能になる。   When projecting an image on a dome-shaped (curved surface) screen, if the position of the projection device and the position of the player (observer) are separated, image distortion will be conspicuous. Therefore, by taking this distortion into consideration in advance and generating a projection image from the projection apparatus (an image drawn in the drawing buffer of the projection apparatus), it is possible to present an image without distortion as viewed from the player.

この場合に、スクリーンが単一の平面であれば、歪みは線形(パースによる歪み)となるため、射影変換行列を1つ用いるだけで簡単に補正することが可能になる。   In this case, if the screen is a single plane, the distortion becomes linear (distortion due to the perspective), and thus correction can be easily performed by using only one projective transformation matrix.

しかし、単一平面ではないスクリーン(1つの曲面又は複数の面で構成されるスクリーン)である場合には、線形ではない歪みが加わるため、射影変換行列を1つ用いるだけという簡単な補正手法では、歪みを補正できず、画像の部分に応じて、細かく補正を行う必要がある。   However, in the case of a screen that is not a single plane (a screen composed of one curved surface or a plurality of surfaces), distortion that is not linear is added, so a simple correction method that uses only one projection transformation matrix is not possible. The distortion cannot be corrected, and it is necessary to perform fine correction according to the portion of the image.

このような歪み補正を実現する手法として、描画バッファのピクセル単位で歪み補正を行う手法と、3次元オブジェクトの頂点単位で歪み補正を行う手法が考えられる。まず、ピクセル単位での歪み補正手法について説明する。   As a technique for realizing such distortion correction, a technique for performing distortion correction in units of pixels of the drawing buffer and a technique for performing distortion correction in units of vertices of a three-dimensional object are conceivable. First, a distortion correction method for each pixel will be described.

描画バッファのピクセル単位での歪み補正手法では、図4や下記に示す(1)、(2)、(3)、(4)の処理を順に行う。
(1)描画バッファ(フレームバッファ)上のピクセルPX(XP,YP)が、投影装置のレンズを通して出射される光線RYを求める。
(2)その光線RYが、スクリーンSCと交差する交点PS(XS,YS,ZS)の位置を求める。例えばスクリーンSCが楕円面の方程式等の数式で表される場合には、直線RYを表す数式とスクリーンSCを表す数式を用いて交点PSを求める。このスクリーンSCを表す数式が、スクリーンSCの形状情報である。
(3)この交点PS(XS,YS,ZS)の色は、プレーヤ(観察者)がオブジェクト空間(仮想空間)を観察しているときの色である必要がある。そこで、プレーヤの代表視点に対応する仮想カメラVCの位置VPと、交点PS(XS,YS,ZS)の位置を結ぶ直線LVを求める。
(4)この直線LVを仮想カメラVCの視線としてオブジェクト空間の情報から、描画バッファ上の投影画像のピクセルの色を決定する。例えば、オブジェクト空間で最初に到達する3次元オブジェクトOB上の点PB(XB,YB,ZB)の位置を求め、それに応じて、描画バッファ上の投影画像のピクセルの色を決定する。
In the distortion correction method for each pixel of the drawing buffer, the processes (1), (2), (3), and (4) shown in FIG.
(1) The pixel PX (XP, YP) on the drawing buffer (frame buffer) obtains a light ray RY emitted through the lens of the projection device.
(2) The position of the intersection PS (XS, YS, ZS) where the ray RY intersects the screen SC is obtained. For example, when the screen SC is represented by an equation such as an elliptical equation, the intersection PS is obtained using an equation representing the straight line RY and an equation representing the screen SC. A mathematical expression representing the screen SC is shape information of the screen SC.
(3) The color of the intersection PS (XS, YS, ZS) needs to be a color when the player (observer) observes the object space (virtual space). Therefore, a straight line LV connecting the position VP of the virtual camera VC corresponding to the representative viewpoint of the player and the position of the intersection PS (XS, YS, ZS) is obtained.
(4) Using the straight line LV as the line of sight of the virtual camera VC, the color of the pixel of the projected image on the drawing buffer is determined from the information in the object space. For example, the position of the point PB (XB, YB, ZB) on the three-dimensional object OB that reaches first in the object space is obtained, and the color of the pixel of the projection image on the drawing buffer is determined accordingly.

この場合に、ピクセル単位での歪み補正手法の改良手法では、上記の最後の(4)において、直線LVと3次元オブジェクトOBとの交点PB(XB,YB,ZB)の色を求める代わりに、あらかじめ描画しておいた平面(レンダーテクスチャ)と直線LVとの交点(レンダーテクスチャの座標で(U,V))の色を用いて、投影画像のピクセルの色を決定する。レンダーテクスチャは、予め、投影面になるべく近い平面(以下、代理平面と呼ぶ)を選んでおき、そこに通常の描画方法、すなわち、平面を投影面とする描画を行うことで作成できる。   In this case, in the improvement method of the distortion correction method in pixel units, instead of obtaining the color of the intersection PB (XB, YB, ZB) between the straight line LV and the three-dimensional object OB in the last (4), The color of the pixel of the projection image is determined by using the color of the intersection (render texture coordinates (U, V)) between the plane (render texture) drawn in advance and the straight line LV. A render texture can be created by selecting a plane as close as possible to the projection plane (hereinafter referred to as a proxy plane) in advance and performing a normal drawing method, that is, drawing with the plane as the projection plane.

図5に、このような代理平面PL1、PL2の一例を示す。点PPが直線LVと代理平面PL1(PL2)との交点である。   FIG. 5 shows an example of such proxy planes PL1 and PL2. Point PP is the intersection of straight line LV and proxy plane PL1 (PL2).

レンダーテクスチャの参照位置は、視点や投影装置の位置が変化しない限り、最初に1度だけ計算しておけばよい。そのデータを保持しておくための代表的な方法としては、描画バッファの1ピクセルごとに、レンダーテクスチャのどの位置(U,V)のピクセル値(テクセル値)を参照するかを、1枚のテクスチャとして保持しておく方法がある。このテクスチャを、「UVマップ」と呼ぶ。図6に、投影装置の描画バッファとUVマップとレンダーテクスチャの関係を示す。   The render texture reference position only needs to be calculated once, as long as the viewpoint and the position of the projection device do not change. As a typical method for storing the data, for each pixel of the drawing buffer, a pixel value (texel value) at which position (U, V) of the render texture is referred to one sheet. There is a method to keep it as a texture. This texture is called a “UV map”. FIG. 6 shows the relationship among the drawing buffer, UV map, and render texture of the projection apparatus.

図6のレンダーテクスチャの対応点(UV座標)を、描画バッファ上の全ピクセルについて求めて保持しておくことは、大きなリソースを必要とする。その大きなリソースを用意する余裕がない場合には、スクリーンSC上に適当に配置された代表頂点について、描画バッファ上の対応点(XP,YP)と、レンダーテクスチャ上の対応点(U,V)を求め、それらをつないだ三角形ポリゴンによるメッシュを作っておく。そして、三角形ポリゴンを描画するときに、三角形ポリゴンの頂点に情報として記録された(U,V)座標を参照し、三角形ポリゴン内部の点についてはそれらから補間された(U,V)座標を用いるようにする。このようにすれば、大幅にリソースを節約することが可能になる。   Obtaining and storing the corresponding points (UV coordinates) of the render texture of FIG. 6 for all the pixels on the drawing buffer requires a large resource. If there is no room to prepare such a large resource, the corresponding point (XP, YP) on the drawing buffer and the corresponding point (U, V) on the render texture for the representative vertex appropriately arranged on the screen SC. And make a mesh with triangular polygons connecting them. When the triangle polygon is drawn, the (U, V) coordinates recorded as information at the vertices of the triangle polygon are referred to, and the (U, V) coordinates interpolated therefrom are used for the points inside the triangle polygon. Like that. In this way, resources can be saved significantly.

2.2 頂点単位での歪み補正手法
次に描画オブジェクトの頂点単位で歪み補正を行う手法について説明する。この手法では、オブジェクト空間内の3次元オブジェクトの頂点を、投影装置の描画バッファ上の点に変換する。具体的には図7や下記に示す(1)、(2)、(3)、(4)の処理を順に行う。これは図4の手法の処理を逆の順で行うことに相当する。
(1)オブジェクト空間内の3次元オブジェクトOBの頂点V(XV,YV,ZV)の位置と、プレーヤの代表視点に対応する仮想カメラVCの位置VPとを結ぶ直線LVを求める。
(2)求められた直線LVとスクリーンSCの交点PS(XS,YS,ZS)の位置を求める。例えばスクリーンSCが楕円面の方程式等の数式で表される場合には、直線LVを表す数式とスクリーンSCを表す数式を用いて交点PSを求める。このスクリーンSCを表す数式が、スクリーンSCの形状情報である。
(3)交点PS(XS,YS,ZS)の位置と投影装置PJの位置を結ぶ直線LRを求める。
(4)直線LRに対応する描画バッファ上の点PD(XD,YD)の位置を求める。この点PDは、3次元オブジェクトOBに対応する描画バッファ上の描画オブジェクトOBDの頂点に相当する。なお直線LRから点PDを求める際には、投影装置PJのレンズの特性や配置等の光学系の情報を用いる。
2.2 Distortion Correction Method for Each Vertex Next, a method for correcting distortion for each vertex of a drawing object will be described. In this method, the vertex of the three-dimensional object in the object space is converted into a point on the drawing buffer of the projection apparatus. Specifically, the processes (1), (2), (3), and (4) shown in FIG. This corresponds to performing the process of the method of FIG. 4 in the reverse order.
(1) A straight line LV connecting the position of the vertex V (XV, YV, ZV) of the three-dimensional object OB in the object space and the position VP of the virtual camera VC corresponding to the representative viewpoint of the player is obtained.
(2) The position of the intersection PS (XS, YS, ZS) between the obtained straight line LV and the screen SC is obtained. For example, when the screen SC is represented by an equation such as an equation of an ellipsoid, the intersection PS is obtained using an equation representing the straight line LV and an equation representing the screen SC. A mathematical expression representing the screen SC is shape information of the screen SC.
(3) A straight line LR connecting the position of the intersection PS (XS, YS, ZS) and the position of the projection device PJ is obtained.
(4) The position of the point PD (XD, YD) on the drawing buffer corresponding to the straight line LR is obtained. This point PD corresponds to the vertex of the drawing object OBD on the drawing buffer corresponding to the three-dimensional object OB. When obtaining the point PD from the straight line LR, information on the optical system such as the lens characteristics and arrangement of the projection device PJ is used.

以後は、描画オブジェクトOBDの頂点と頂点を結んで色を塗るラスタライズ処理を行うことで、描画バッファ上に投影画像を生成できる。   Thereafter, a projection image can be generated on the drawing buffer by performing a rasterizing process for connecting the vertices of the drawing object OBD and painting colors.

なお、この場合に、以下のような手法を用いることが望ましい。即ち、オブジェクト空間内の3次元オブジェクトOBに対して、頂点分割数設定部で設定された頂点分割数で頂点分割処理を行う。そして頂点分割処理後の3次元オブジェクトOBの頂点位置と仮想カメラVCの位置とを結ぶ直線と、プロジェクション用のスクリーンSCとの交点位置を求める。そして、求められた交点位置に基づいて、3次元オブジェクトOBに対応する描画オブジェクトOBDについての、描画バッファでの頂点位置を求める。そして、求められた描画オブジェクトOBDの頂点位置に基づいて、描画オブジェクトOBDを描画バッファに描画する処理を行って、プロジェクション用の投影画像を生成する。このような手法を採用すれば、例えばオブジェクト空間内での直線が、描画バッファ上においても直線として描画されてしまい、結果として歪んだ画像が観察されてしまうような事態の発生を抑制できる。   In this case, it is desirable to use the following method. That is, vertex division processing is performed on the three-dimensional object OB in the object space with the vertex division number set by the vertex division number setting unit. Then, an intersection position between the straight line connecting the vertex position of the three-dimensional object OB after the vertex division process and the position of the virtual camera VC and the projection screen SC is obtained. Then, based on the obtained intersection position, the vertex position in the drawing buffer for the drawing object OBD corresponding to the three-dimensional object OB is obtained. Then, based on the obtained vertex position of the drawing object OBD, the drawing object OBD is drawn in the drawing buffer to generate a projection image for projection. By adopting such a method, for example, a straight line in the object space is drawn as a straight line on the drawing buffer, and as a result, a situation in which a distorted image is observed can be suppressed.

2.3 ヒット判定処理
図8に本実施形態の画像生成システムで生成された投影画像の例を示す。本実施形態では図8に示すような投影画像が描画バッファ上に生成され、生成された投影画像が、投影装置30によりスクリーン20に投影される。この投影画像は、前述したピクセル単位での歪み補正又は頂点単位での歪み補正が行われた画像である。
2.3 Hit Determination Processing FIG. 8 shows an example of a projection image generated by the image generation system of this embodiment. In the present embodiment, a projection image as shown in FIG. 8 is generated on the drawing buffer, and the generated projection image is projected onto the screen 20 by the projection device 30. This projection image is an image that has been subjected to the above-described distortion correction in pixel units or distortion correction in vertex units.

本実施形態では、図8に示す投影画像が図1、図2のスクリーン20に投影され、プレーヤは、スクリーン20に映る投影画像を見ながら、敵オブジェクト等の標的対象オブジェクトへのシューティングゲームをプレイする。即ち、銃を模した光出射部50を手に持ち、標的対象オブジェクトに狙いを定めて、光出射部50に設けられたトリガー(発射スイッチ)を引いて、シューティングを行う。この場合に光出射部50からの光(赤外光)の出射方向が、銃の弾の飛ぶ方向として、ゲーム上、設定され、標的対象オブジェクトと弾(出射光)とのヒット判定処理が行われる。弾がヒットすると、標的対象オブジェクトが破壊されるなどの公知の被弾演出処理が行われる。   In the present embodiment, the projected image shown in FIG. 8 is projected onto the screen 20 in FIGS. 1 and 2, and the player plays a shooting game on a target target object such as an enemy object while viewing the projected image reflected on the screen 20. To do. That is, the light emitting unit 50 imitating a gun is held in the hand, the target target object is aimed, and a trigger (firing switch) provided in the light emitting unit 50 is pulled to perform shooting. In this case, the emitting direction of light (infrared light) from the light emitting unit 50 is set on the game as the direction in which the bullet of the gun flies, and hit determination processing between the target target object and the bullet (emitted light) is performed. Is called. When a bullet hits, a known shot effect process such as destruction of the target target object is performed.

図8に示すように、投影画像には、木、岩などのゲーム画像を構成するオブジェクトの画像が表示される。またこの投影画像には照準オブジェクトSG1、SG2も表示される。照準オブジェクトSG1、SG2は、銃を模した光出射部50の照準を表すオブジェクトである。プレーヤがこの照準オブジェクト(SG1又はSG2)に狙いを定めて光出射部50のトリガーを引くと、照準オブジェクトの方向に弾(光線)が飛ぶようになる。なお、図8は二人のプレーヤがマルチプレイする場合のゲーム画像の例であり、SG1は第1のプレーヤ用の照準オブジェクトであり、SG2は第2のプレーヤ用の照準オブジェクトである。これらの照準オブジェクトSG1、SG2は、オブジェクト空間に配置されるオブジェクト(3次元オブジェクト)であり、照準オブジェクトSG1、SG2のオブジェクト空間での配置位置は、例えば光出射部50の出射方向に基づいて求められる。従って、これらの照準オブジェクトSG1、SG2の画像も、前述のピクセル単位又は頂点単位での歪み補正が行われた画像になっている。   As shown in FIG. 8, an image of an object constituting a game image such as a tree or a rock is displayed on the projection image. In addition, aiming objects SG1 and SG2 are also displayed in the projection image. The aiming objects SG1 and SG2 are objects representing the aiming of the light emitting unit 50 simulating a gun. When the player aims at the aiming object (SG1 or SG2) and pulls the trigger of the light emitting unit 50, a bullet (light ray) will fly in the direction of the aiming object. FIG. 8 shows an example of a game image when two players are multi-playing. SG1 is an aiming object for the first player, and SG2 is an aiming object for the second player. These aiming objects SG1 and SG2 are objects (three-dimensional objects) arranged in the object space, and the arrangement positions of the aiming objects SG1 and SG2 in the object space are obtained based on the emitting direction of the light emitting unit 50, for example. It is done. Therefore, the images of the aiming objects SG1 and SG2 are also images that have been subjected to the above-described distortion correction in units of pixels or vertices.

図9(A)、図10(A)は従来の画像生成システムにより実現されるシューティングゲームの説明図であり、図9(B)、図10(B)は本実施形態の画像生成システムにより実現されるシューティングゲームの説明図である。   9A and 10A are explanatory diagrams of a shooting game realized by a conventional image generation system, and FIGS. 9B and 10B are realized by the image generation system of the present embodiment. It is explanatory drawing of a shooting game to be performed.

図9(A)の従来のシューティングゲームでは、例えばLCDやCRTの平面のスクリーン520にゲーム画像が表示され、プレーヤはこのゲーム画像を見ながら光出射部550(ガン型コントローラ)を操作して、シューティングゲームをプレイする。ゲーム画像は平面のスクリーン520に表示されるため、光出射部550によるシューティングの範囲はA1に示すように狭い。   In the conventional shooting game of FIG. 9A, for example, a game image is displayed on a flat screen 520 of an LCD or CRT, and the player operates the light emitting unit 550 (gun-type controller) while viewing the game image. Play a shooting game. Since the game image is displayed on the flat screen 520, the shooting range by the light emitting unit 550 is narrow as indicated by A1.

一方、図9(B)の本実施形態のシューティングゲームでは、ドーム形状(曲面形状)のスクリーン20に対して投影装置30により投影画像が投影される。プレーヤは、スクリーン20に投影される投影画像を見ながら、光出射部50を手に持って、シューティングゲームをプレイする。ゲーム画像である投影画像はドーム形状のスクリーン20に投影されるため、光出射部50によるシューティング範囲はA2に示すように広い。即ち、スクリーン20の上方向から襲ってくる敵や下方向から襲ってくる敵に対して弾をヒットさせるシューティングゲームを実現できる。   On the other hand, in the shooting game of this embodiment shown in FIG. 9B, a projection image is projected by the projection device 30 onto the dome-shaped (curved surface) screen 20. The player plays the shooting game while holding the light emitting unit 50 while viewing the projection image projected on the screen 20. Since the projected image, which is a game image, is projected onto the dome-shaped screen 20, the shooting range by the light emitting unit 50 is wide as shown by A2. That is, it is possible to realize a shooting game in which bullets are hit against an enemy attacking from the upper side of the screen 20 and an enemy attacking from the lower direction.

図10(A)、図10(B)は、二人のプレーヤがプレイするマルチプレイのシューティングゲームの例である。   FIG. 10A and FIG. 10B are examples of a multiplayer shooting game played by two players.

図10(A)の従来のマルチプレイのシューティングゲームでは、平面のスクリーン520に画像が表示される。従って、第1のプレーヤの光出射部550によるシューティング範囲はA3に示すように狭く、第2のプレーヤの光出射部552によるシューティング範囲もA4に示すように狭い。   In the conventional multiplayer shooting game of FIG. 10A, an image is displayed on a flat screen 520. Accordingly, the shooting range by the light emitting unit 550 of the first player is narrow as shown by A3, and the shooting range by the light emitting unit 552 of the second player is also narrow as shown by A4.

一方、図10(B)の本実施形態のマルチプレイのシューティングゲームでは、第1、第2のプレーヤを覆うように設けられたドーム形状のスクリーン20の全体に、投影装置30からの投影画像が投影される。従って、第1のプレーヤの光出射部50によるシューティング範囲及び第2のプレーヤの光出射部52によるシューティング範囲は、A5に示すように非常に広くなる。例えば第1のプレーヤは、A6に示すように、第2のプレーヤの正面方向に出現する敵に対しても弾をヒットさせることができる。同様に第2のプレーヤは、A7に示すように、第1のプレーヤの正面方向に出現する敵に対しても弾をヒットさせることができる。   On the other hand, in the multiplayer shooting game of this embodiment shown in FIG. 10B, the projection image from the projection device 30 is projected on the entire dome-shaped screen 20 provided so as to cover the first and second players. Is done. Therefore, the shooting range by the light emitting unit 50 of the first player and the shooting range by the light emitting unit 52 of the second player are very wide as indicated by A5. For example, as shown at A6, the first player can hit a bullet against an enemy that appears in the front direction of the second player. Similarly, as shown at A7, the second player can hit a bullet against an enemy that appears in the front direction of the first player.

このように本実施形態によれば、二人(或いは一人)のプレーヤの視界を完全に包み込む巨大なドーム形状のスクリーン20を採用している。従って、圧倒的な没入感を感じながら、上下左右から襲いかかる敵を狙い撃つ新しい体験のシューティングゲーム(ガンゲーム)を、二人一緒に楽しむことが可能になる。従って、カップル、ファミリー、グループなどの幅広い客層が楽しむことができるシューティングゲームの提供が可能になる。   Thus, according to the present embodiment, the huge dome-shaped screen 20 that completely wraps the field of view of two (or one) players is employed. Therefore, it is possible to enjoy a shooting game (gun game) of a new experience that aims at the enemy attacking from the top, bottom, left and right while feeling an overwhelming immersive feeling together. Accordingly, it is possible to provide a shooting game that can be enjoyed by a wide range of customers such as couples, families, and groups.

さて、このようなドーム形状(曲面形状)のスクリーン20を採用した場合に、光出射部50による弾のヒット判定処理(当たり判定処理)を、如何に正確に実現するかが重要な課題となる。この課題を解決するために本実施形態では以下のようなヒット判定手法を採用している。   Now, when such a dome-shaped (curved surface) screen 20 is adopted, it is an important issue how to accurately realize the bullet hit determination process (hit determination process) by the light emitting unit 50. . In order to solve this problem, the present embodiment employs the following hit determination method.

図11は本実施形態のヒット判定手法を説明する図である。本実施形態では図11や下記に示す(1)、(2)、(3)、(4)、(5)の処理を順に行う。
(1)まず、光出射部GNからの光によるスポット光の撮像画像上での位置PSL(XL,YL)を検出する。この位置PSL(XL,YL)の座標は、例えば撮像素子の座標系(例えばCCD座標系)で表される。
即ち、プレーヤが持つ光出射部GN(銃型デバイス)からは赤外光が出射され、その赤外光のスポット光(図1、2のスクリーン20に形成されるスポット光)を、広角レンズ(例えば魚眼レンズ)が設けられた撮像部CMにより撮像(撮影)する。そして、得られた撮像画像の画像解析処理を行って、撮像画像に映った赤外光のスポット光(赤い点)の位置PSL(XL,YL)の座標(CCD座標系)を求める。
(2)次に、撮像画像上でのスポット光の位置PSL(XL,YL)に基づいて、このスポット光に対応する方向ベクトルVSLを求める。即ち、撮像部CMから見たスポット光の方向ベクトルVSLを求める。この方向ベクトルVSLは、例えば撮像部CMのカメラ座標系での方向ベクトルである。
例えば光出射部GNにより図1、図2のスクリーン20上に形成されるスポット光からの光は、撮像部CMの光学系を通って、撮像素子の位置PSL(XL,YL)に映る。従って、撮像部CMの光学系(レンズ)の情報に基づいて、スポット光からの光の入射方向に対応する方向ベクトルVSL(入射方向と逆方向)を求めることができる。例えば、撮像部CMは、広角レンズ(魚眼レンズ)の屈折効果により視野角が広がっている。例えば左右視野角が約120度、上下視野角が約90度というように視野角が広がっている。このような視野角を広げる魚眼レンズを用いることで、ドーム形状のスクリーン20の広範囲の投影領域を、撮像部CMの撮像範囲に収めることができる。そして方向ベクトルVSLを求める際には、このような視野角を加味して、計算を行うことになる。
(3)次に、方向ベクトルVSLに沿った直線LLとプロジェクション用のスクリーンSCとの交点SL(XC,YC,ZC)の位置を求める。即ち、本実施形態では撮像画像上でのスポット光の位置PSL(XL,YL)に基づいて、スクリーン20上のスポット光位置であるスクリーンスポット光位置を求めているが、図11の交点SL(XC,YC,ZC)が、このスクリーンスポット光位置に相当する。
具体的には、カメラ座標系の方向ベクトルVSLを、現実世界のワールド座標系(ドーム座標系)に変換する。即ち、カメラ座標系の方向ベクトルVSLの向きを、ワールド座標系の向きに変換して、撮像部CMの設置方向(撮像方向)を、方向ベクトルVSLに反映する。例えば図1、図2に示すように、撮像部CMは下方向に所定角度だけ傾けて設置されているため、この傾き角度等を方向ベクトルVSLに反映する。
そして方向ベクトルVSLの方向に沿った直線LLとスクリーンSCとの交点SL(XC,YC,ZC)の位置を求める。例えばスクリーンSCが楕円面の方程式等の数式で表される場合には、方向ベクトルVSLに沿った直線LLを表す数式とスクリーンSCを表す数式を用いて交点SLの位置を求める。このスクリーンSCを表す数式が、スクリーンSCの形状情報である。また、求められた交点SL(XC,YC,ZC)の位置は、スクリーンSC上でのスポット光の位置に対応する。
(4)次に、光出射部GNの代表位置として設定された設定位置PGから交点SL(XC,YC,ZC)の位置(スクリーンスポット光位置)へと向かう方向を、光出射部GNの光の出射方向DG(銃方向)として求める。
この設定位置PGは、現実世界で想定する光出射部GNの理想的な位置である。例えば、設定位置PGは、図1、図2のプレーヤシート10の座面位置を基準位置とした固定の座標値(X、Y、Z座標)により表すことができる。即ち、この設定位置PGに光出射部GNが位置すると想定して設定位置PGの座標を決定する。なお設定位置PGはプレーヤの代表位置(プレーヤの所定部位の位置)として設定される位置であってもよい。また例えば光出射部GNの位置(又はプレーヤの位置)を検出できる場合には、その検出位置を設定位置PGにしてもよい。この場合には設定位置PGは可変の位置になる。
(5)次に、求められた出射方向DGに基づいて、オブジェクト空間内のオブジェクトTOBとのヒット判定処理を行う。即ち、この出射方向DG(出射角度)を、プレーヤが構えている光出射部GN(銃)の向きと仮定して、この出射方向DGに沿った直線LGに基づいてオブジェクトTOBのヒット判定処理を行う。例えば直線LGとオブジェクトTOBの交差判定によりヒット判定処理を実現する。つまり、出射方向DGに沿ったレイを飛ばし、このレイを伸張してオブジェクトTOBとのヒット判定処理を行う。
FIG. 11 is a diagram for explaining a hit determination method according to this embodiment. In the present embodiment, the processes (1), (2), (3), (4), and (5) shown in FIG.
(1) First, the position PSL (XL, YL) on the captured image of the spot light by the light from the light emitting part GN is detected. The coordinates of the position PSL (XL, YL) are represented by, for example, a coordinate system (for example, a CCD coordinate system) of the image sensor.
That is, infrared light is emitted from the light emitting portion GN (gun-type device) of the player, and the spot light of the infrared light (spot light formed on the screen 20 in FIGS. 1 and 2) is converted into a wide-angle lens ( For example, an image is taken (photographed) by an imaging unit CM provided with a fisheye lens. Then, image analysis processing of the obtained captured image is performed to obtain coordinates (CCD coordinate system) of the position PSL (XL, YL) of the spot light (red point) of the infrared light reflected in the captured image.
(2) Next, a direction vector VSL corresponding to the spot light is obtained based on the position PSL (XL, YL) of the spot light on the captured image. That is, the direction vector VSL of the spot light viewed from the imaging unit CM is obtained. This direction vector VSL is a direction vector in the camera coordinate system of the imaging unit CM, for example.
For example, light from the spot light formed on the screen 20 in FIGS. 1 and 2 by the light emitting unit GN passes through the optical system of the imaging unit CM and is reflected at the position PSL (XL, YL) of the imaging device. Therefore, based on the information of the optical system (lens) of the imaging unit CM, the direction vector VSL (the direction opposite to the incident direction) corresponding to the incident direction of the light from the spot light can be obtained. For example, the imaging unit CM has a wide viewing angle due to the refraction effect of a wide-angle lens (fisheye lens). For example, the viewing angle is widened such that the left and right viewing angle is about 120 degrees and the vertical viewing angle is about 90 degrees. By using such a fish-eye lens that widens the viewing angle, a wide projection area of the dome-shaped screen 20 can be accommodated in the imaging range of the imaging unit CM. And when calculating | requiring the direction vector VSL, a calculation will be performed in consideration of such a viewing angle.
(3) Next, the position of the intersection SL (XC, YC, ZC) between the straight line LL along the direction vector VSL and the projection screen SC is obtained. That is, in this embodiment, the screen spot light position, which is the spot light position on the screen 20, is obtained based on the spot light position PSL (XL, YL) on the captured image. XC, YC, ZC) corresponds to the screen spot light position.
Specifically, the direction vector VSL of the camera coordinate system is converted into a real world world coordinate system (dome coordinate system). That is, the direction of the direction vector VSL in the camera coordinate system is converted into the direction in the world coordinate system, and the installation direction (imaging direction) of the imaging unit CM is reflected in the direction vector VSL. For example, as shown in FIGS. 1 and 2, the imaging unit CM is installed inclined at a predetermined angle in the downward direction, and the inclination angle and the like are reflected in the direction vector VSL.
Then, the position of the intersection SL (XC, YC, ZC) between the straight line LL and the screen SC along the direction of the direction vector VSL is obtained. For example, when the screen SC is represented by an equation such as an equation of an ellipsoid, the position of the intersection SL is obtained using an equation representing the straight line LL along the direction vector VSL and an equation representing the screen SC. A mathematical expression representing the screen SC is shape information of the screen SC. Further, the position of the obtained intersection SL (XC, YC, ZC) corresponds to the position of the spot light on the screen SC.
(4) Next, in the direction from the set position PG set as the representative position of the light emitting part GN to the position (screen spot light position) of the intersection SL (XC, YC, ZC), the light of the light emitting part GN The emission direction DG (gun direction) is determined.
This set position PG is an ideal position of the light emitting part GN assumed in the real world. For example, the set position PG can be represented by fixed coordinate values (X, Y, Z coordinates) with the seat surface position of the player seat 10 in FIGS. 1 and 2 as a reference position. That is, the coordinates of the setting position PG are determined on the assumption that the light emitting portion GN is located at the setting position PG. The set position PG may be a position set as a representative position of the player (a position of a predetermined part of the player). For example, when the position of the light emitting unit GN (or the position of the player) can be detected, the detected position may be set as the set position PG. In this case, the setting position PG is a variable position.
(5) Next, based on the obtained emission direction DG, a hit determination process with the object TOB in the object space is performed. That is, assuming that the emission direction DG (emission angle) is the direction of the light emission part GN (gun) that the player holds, the object TOB hit determination process is performed based on the straight line LG along the emission direction DG. Do. For example, the hit determination process is realized by the intersection determination between the straight line LG and the object TOB. That is, a ray along the emission direction DG is skipped, and this ray is extended to perform hit determination processing with the object TOB.

図12は、以上に説明した本実施形態のヒット判定処理を示すフローチャートである。   FIG. 12 is a flowchart showing the hit determination processing of the present embodiment described above.

まず撮像画像上(CCD座標系)でのスポット光の位置PSLを求める(ステップS1)。そしてスポット光の位置PSLに対応する方向ベクトルVSL(カメラ座標系)を求める(ステップS2)。   First, the position PSL of the spot light on the captured image (CCD coordinate system) is obtained (step S1). Then, a direction vector VSL (camera coordinate system) corresponding to the position PSL of the spot light is obtained (step S2).

次に、求められた方向ベクトルVSLをカメラ座標系からワールド座標系に変換する(ステップS3)。そして方向ベクトルVSLに沿った直線LLとスクリーンSCとの交点SLの位置を求める(ステップS4)。   Next, the obtained direction vector VSL is converted from the camera coordinate system to the world coordinate system (step S3). Then, the position of the intersection SL between the straight line LL and the screen SC along the direction vector VSL is obtained (step S4).

次に、銃の設定位置PGから交点SLの位置へと向かう方向を出射方向DGとして求める(ステップS5)。そして、求められた出射方向DGに沿った直線LGを用いてヒット判定処理を行う(ステップS6)。   Next, the direction from the gun setting position PG to the position of the intersection SL is obtained as the emission direction DG (step S5). Then, hit determination processing is performed using the straight line LG along the obtained emission direction DG (step S6).

以上の本実施形態の手法によれば、ドーム形状のスクリーン20に投影画像を投影する画像生成システムにおいて、ドーム形状等を反映した適切なヒット判定処理を実現できるようになる。   According to the method of the present embodiment described above, an appropriate hit determination process reflecting the dome shape and the like can be realized in the image generation system that projects the projection image onto the dome-shaped screen 20.

即ち、本実施形態では、撮像画像上でのスポット光の位置PSLから、スクリーンSC上でのスポット光の位置であるスクリーンスポット光位置を求めている。具体的には、撮像画像上でのスポット光の位置PSLに対応する方向ベクトルVSLを求めて、スクリーンSCとの交点SLの位置を、スクリーンスポット光位置として求める。従って、ドーム形状のスクリーンSCの形状を反映させた交点SLの位置を求めることができる。また、例えばスクリーンSCの形状が変更された場合にも、これに容易に対応できる。また位置PSLから方向ベクトルVSLを求める際には、撮像部CMの光学系の情報を用いることができるため、撮像部CMの光学系の情報も反映させた交点SLの位置を求めることができる。   That is, in the present embodiment, the screen spot light position that is the position of the spot light on the screen SC is obtained from the position PSL of the spot light on the captured image. Specifically, the direction vector VSL corresponding to the spot light position PSL on the captured image is obtained, and the position of the intersection SL with the screen SC is obtained as the screen spot light position. Therefore, the position of the intersection SL reflecting the shape of the dome-shaped screen SC can be obtained. In addition, for example, when the shape of the screen SC is changed, this can be easily handled. Further, when the direction vector VSL is obtained from the position PSL, the information of the optical system of the imaging unit CM can be used. Therefore, the position of the intersection SL that also reflects the information of the optical system of the imaging unit CM can be obtained.

そして、この交点SLの位置は、現実世界において光出射部GNがスクリーン20上に形成するスポット光の位置に対応している。従って、この交点SLの位置を用いて、光出射部GNの光の出射方向DGを設定して、オブジェクトTOBとヒット判定処理を行えば、ドーム形状等を反映した適切なヒット判定処理を実現できるようになる。   The position of the intersection SL corresponds to the position of the spot light formed on the screen 20 by the light emitting part GN in the real world. Accordingly, by setting the light emission direction DG of the light emitting portion GN using the position of the intersection SL and performing hit determination processing with the object TOB, appropriate hit determination processing reflecting the dome shape and the like can be realized. It becomes like this.

例えば本実施形態の比較例の手法として、1つの平面で構成される単一平面スクリーンに投影画像を投影すると共に、光出射部により単一平面スクリーンに形成されたスポット光の位置を、撮像部の撮像画像に基づき検出し、このスポット光の位置のみに基づいて光の出射方向を求めて、ヒット判定を行う手法が考えられる。   For example, as a method of a comparative example of the present embodiment, a projected image is projected onto a single flat screen composed of one plane, and the position of the spot light formed on the single flat screen by the light emitting unit A method is conceivable in which hit detection is performed by detecting based on the captured image, obtaining the light emission direction only based on the position of the spot light.

しかしながら、この比較例の手法は、スクリーンが単一平面スクリーンである場合には、正確なヒット判定処理が可能であるが、本実施形態のプロジェクション用スクリーンのような1つの曲面又は複数の面により構成されるスクリーンを用いる場合には、正確なヒット判定処理を実現できないという問題がある。即ち、単一平面スクリーンでは、スクリーン上でのスポット光の位置のみに基づいて、光の出射方向を一意に決めることができるが、プロジェクションマッピングにおけるプロジェクション用スクリーンでは、光の出射方向を一意に決めることができない。   However, in the method of this comparative example, when the screen is a single flat screen, an accurate hit determination process is possible. However, by using one curved surface or a plurality of surfaces like the projection screen of the present embodiment. In the case of using a configured screen, there is a problem that an accurate hit determination process cannot be realized. That is, in a single flat screen, the light emission direction can be uniquely determined based only on the position of the spot light on the screen, but in the projection screen in projection mapping, the light emission direction is uniquely determined. I can't.

この点、本実施形態では、光出射部50又はプレーヤの代表位置として設定された設定位置を用意する。そして、この設定位置からスクリーンスポット光位置へと向かう方向を、光の出射方向に設定して、ヒット判定処理を実行する。このようにすれば、1つの曲面又は複数の面により構成されるプロジェクション用スクリーンを用いて、例えば図9(B)、図10(B)に示すようなゲームを実現する場合にも、プロジェクション用スクリーンの形状を反映した正確なヒット判定処理を実現することが可能になる。   In this regard, in the present embodiment, a set position set as the representative position of the light emitting unit 50 or the player is prepared. Then, the direction from the set position to the screen spot light position is set as the light emission direction, and hit determination processing is executed. In this way, even when a game such as that shown in FIGS. 9B and 10B is realized using a projection screen composed of one curved surface or a plurality of surfaces, for projection. An accurate hit determination process reflecting the shape of the screen can be realized.

また本実施形態では、広角レンズとして魚眼レンズを有する撮像部CMにより投影領域を撮像して、スポット光の位置を検出してもよい。このようにすれば、スクリーン20がドーム形状であり、投影画像の投影領域が非常に広い場合にも、これに対応できるようになる。   Further, in the present embodiment, the position of the spot light may be detected by imaging the projection area by the imaging unit CM having a fisheye lens as a wide-angle lens. In this way, it is possible to cope with the case where the screen 20 has a dome shape and the projection area of the projection image is very wide.

即ち、本実施形態では、図9(B)のA2や図10(B)のA5に示すように、光出射部50によるシューティング範囲は非常に広い。従って、例えば図9(B)では、スクリーン20の上方向や下方向から襲ってくる敵に対して弾をヒットさせることができる。また図10(B)では、A6に示すように、第1のプレーヤは、第2のプレーヤの正面方向に出現する敵に対しても弾をヒットさせることができ、A7に示すように、第2のプレーヤは、第1のプレーヤの正面方向に出現する敵に対しても弾をヒットさせることができる。 そして例えば図10(B)では、第1、第2のプレーヤを覆うように設けられたドーム形状のスクリーン20の全体に、投影装置30からの投影画像が投影される。従って、通常レンズを用いた撮像部では、このようなスクリーン20上に形成されるスポット光の位置を検出することは難しい。   That is, in the present embodiment, as shown by A2 in FIG. 9B and A5 in FIG. 10B, the shooting range by the light emitting unit 50 is very wide. Therefore, for example, in FIG. 9B, it is possible to hit a bullet against an enemy attacking from above or below the screen 20. In FIG. 10B, as shown at A6, the first player can hit a bullet against an enemy appearing in the front direction of the second player. As shown at A7, The second player can hit a bullet against an enemy that appears in the front direction of the first player. For example, in FIG. 10B, the projection image from the projection device 30 is projected onto the entire dome-shaped screen 20 provided so as to cover the first and second players. Therefore, it is difficult for an imaging unit using a normal lens to detect the position of the spot light formed on such a screen 20.

この点、撮像部CMに、広角レンズとして魚眼レンズを設ければ、この魚眼レンズにより、図10(B)のような巨大なドーム形状のスクリーン20の全体が収まるように撮像範囲を設定でき、スクリーン20上に形成されるスポット光の位置を適切に検出できるようになる。従って、図9(B)、図10(B)に示すようなシューティングゲームに最適なスポット光の検出システムを実現できる。   In this regard, if a fish-eye lens is provided as a wide-angle lens in the imaging unit CM, the imaging range can be set by the fish-eye lens so that the entire giant dome-shaped screen 20 as shown in FIG. The position of the spot light formed on the top can be detected appropriately. Accordingly, it is possible to realize a spot light detection system optimal for a shooting game as shown in FIGS. 9B and 10B.

2.4 照準オブジェクト
シューティングゲームにおいては、敵に狙いをつけるための照準オブジェクトが必要になる。そしてシューティングゲームにおいては、この照準オブジェクトを、スクリーン上に配置された2次元オブジェクトにより実現するのが一般的である。
2.4 Aiming object In a shooting game, an aiming object is required to aim at the enemy. In a shooting game, the aiming object is generally realized by a two-dimensional object arranged on a screen.

しかしながら、ドーム形状のスクリーン20へのプロジェクションマッピングを行う画像生成システムでは、投影画像は図8に示すようにドーム形状を反映させた変形した画像になる。従って、上述のようなスクリーン上に2次元の照準オブジェクトを配置する手法では、このような投影画像上に適切な照準を表示することは難しい。   However, in the image generation system that performs projection mapping onto the dome-shaped screen 20, the projected image is a deformed image reflecting the dome shape as shown in FIG. Therefore, it is difficult to display an appropriate aim on such a projection image by the method of arranging a two-dimensional aiming object on the screen as described above.

そこで本実施形態では、照準オブジェクトのオブジェクト空間での配置位置を、図11で求められた出射方向DGに基づいて求める手法を採用している。   Therefore, in the present embodiment, a method is employed in which the arrangement position of the aiming object in the object space is obtained based on the emission direction DG obtained in FIG.

例えば図13において、前述の図11の手法により、光出射部GNの出射方向DGが求められている。この場合に本実施形態では、照準オブジェクトSGのオブジェクト空間での配置位置を、この出射方向DGに基づいて求め、求められた配置位置に照準オブジェクトSGを配置する。即ち、スクリーン上の2次元オブジェクトではなく、仮想3次元空間であるオブジェクト空間内の3次元オブジェクト(3次元の座標を有するオブジェクト)として、照準オブジェクトSGを配置する。具体的には、出射方向DGに沿った直線LG上に、照準オブジェクトSGを配置する。例えば図13では、直線LGとスクリーンSCとの交点の位置に照準オブジェクトSGが配置されている。   For example, in FIG. 13, the emission direction DG of the light emission part GN is obtained by the method of FIG. In this case, in the present embodiment, the arrangement position of the aiming object SG in the object space is obtained based on the emission direction DG, and the aiming object SG is arranged at the obtained arrangement position. That is, the aiming object SG is arranged not as a two-dimensional object on the screen but as a three-dimensional object (an object having three-dimensional coordinates) in an object space that is a virtual three-dimensional space. Specifically, the aiming object SG is arranged on the straight line LG along the emission direction DG. For example, in FIG. 13, the aiming object SG is arranged at the position of the intersection between the straight line LG and the screen SC.

このようにすれば、プレーヤが光出射部GNを手に持って狙った方向に、照準オブジェクトSGが表示されるようになる。例えばプレーヤが光出射部GNを上下左右に動かすと、これに連動して照準オブジェクトSGも上下左右に動くようになる。そしてプレーヤの視点から見て、照準オブジェクトSGがオブジェクトTOBに重なるような状態にして、光出射部GNのトリガーを引けば、光出射部GNからの弾をオブジェクトTOBにヒットさせることができる。   In this way, the aiming object SG is displayed in the direction aimed by the player holding the light emitting part GN in his / her hand. For example, when the player moves the light emitting unit GN up, down, left, and right, the aiming object SG also moves up, down, left, and right in conjunction therewith. From the viewpoint of the player, when the aiming object SG overlaps the object TOB and the trigger of the light emitting part GN is pulled, the bullet from the light emitting part GN can be hit by the object TOB.

即ち、プロジェクションマッピングを行う画像生成システムにおいては、スクリーン上に2次元の照準オブジェクトを配置する手法では、どのような形状・表示態様の照準オブジェクトを配置するかを決定するのが極めて困難である。   That is, in an image generation system that performs projection mapping, it is extremely difficult to determine what shape / display mode the aiming object is to be arranged by the technique of arranging the two-dimensional aiming object on the screen.

これに対して本実施形態では、ヒット判定処理のために求められた交点SLの位置や出射方向DGを有効活用して、照準オブジェクトSGをオブジェクト空間に配置している。こうすることで、図8に示すように、スクリーン20の形状が反映された適切な照準オブジェクトSG1、SG2の画像が、投影画像上に表示されるようになる。そして、この投影画像をスクリーン20に投影することで、プレーヤから見て適切な形状に見える照準オブジェクトSG1、SG2の画像を表示できるようになる。従って、プロジェクションマッピングを行う画像生成システムに好適な照準オブジェクトの表示が可能になる。   On the other hand, in the present embodiment, the aiming object SG is arranged in the object space by effectively utilizing the position of the intersection SL and the emission direction DG obtained for the hit determination process. By doing so, as shown in FIG. 8, images of appropriate aiming objects SG1 and SG2 reflecting the shape of the screen 20 are displayed on the projection image. Then, by projecting this projection image onto the screen 20, it is possible to display images of the aiming objects SG1 and SG2 that appear to be in an appropriate shape when viewed from the player. Therefore, it is possible to display an aiming object suitable for an image generation system that performs projection mapping.

なお図13では、出射方向DGに沿った直線LG上に照準オブジェクトSGを配置しているが、本実施形態はこれに限定されない。例えば図14に示すように、仮想カメラVCの位置VPと交点SLの位置を結ぶ直線LSV上に照準オブジェクトSGを配置してもよい。このようにすれば、プレーヤの視点から見て適切に見えるように照準オブジェクトSGを配置できる。   In FIG. 13, the aiming object SG is arranged on the straight line LG along the emission direction DG, but the present embodiment is not limited to this. For example, as shown in FIG. 14, the aiming object SG may be arranged on a straight line LSV connecting the position VP of the virtual camera VC and the position of the intersection SL. In this way, the aiming object SG can be arranged so that it looks appropriate from the viewpoint of the player.

また照準オブジェクトSGの配置位置は、スクリーンSCとの交点位置には限定されない。例えば図13、図14に示すように、スクリーンSCとの交点位置よりも奥側に照準オブジェクトSG’を配置してもよい。図14の場合にはプレーヤの視点(仮想カメラVC)から見て照準オブジェクトSG、SG’が同じ位置に見えるが、図13の場合には少しずれた位置に見えることになる。   Further, the arrangement position of the aiming object SG is not limited to the intersection position with the screen SC. For example, as shown in FIGS. 13 and 14, the aiming object SG ′ may be arranged behind the intersection position with the screen SC. In the case of FIG. 14, the aiming objects SG and SG ′ appear to be at the same position when viewed from the viewpoint of the player (virtual camera VC), but in the case of FIG.

2.5 方向ベクトルVSL
次に方向ベクトルVSLを求める手法の詳細について説明する。
2.5 Direction vector VSL
Next, details of a method for obtaining the direction vector VSL will be described.

図15(A)、図15(B)はピンホールカメラモデルのような理想的なレンズLENにおいて、方向ベクトルVSLを求める手法を説明する図である。   FIGS. 15A and 15B are diagrams illustrating a method for obtaining the direction vector VSL in an ideal lens LEN such as a pinhole camera model.

図15(A)では、撮像素子であるCCDの座標系でのスポット光の位置PSL(x,y)が検出されている。そして、このCCD座標系での位置PSL(x,y)からカメラ座標系での方向ベクトルVSLを求める。   In FIG. 15A, the position PSL (x, y) of the spot light in the coordinate system of the CCD that is the image sensor is detected. Then, a direction vector VSL in the camera coordinate system is obtained from the position PSL (x, y) in the CCD coordinate system.

例えば図15(A)ではCCD座標系での値域が(0〜1)であるが、図15(B)では、(0〜1)から(−1〜+1)に変換されている。また図15(A)に対して図15(B)ではY軸の向きを反転している。図15(B)でのY軸の向きは紙面に対して手前向きである。従って、図15(A)の位置PSLを(x , y)とし、図15(B)の位置PSLを(X , Y)とすると、下式(1)のようになる。
(X , Y)=(2x-1 , -(2y-1)) (1)
For example, in FIG. 15A, the value range in the CCD coordinate system is (0 to 1), but in FIG. 15B, the range is converted from (0 to 1) to (−1 to +1). Further, in FIG. 15B, the direction of the Y axis is reversed with respect to FIG. The direction of the Y axis in FIG. 15B is forward with respect to the paper surface. Accordingly, when the position PSL in FIG. 15A is (x, y) and the position PSL in FIG. 15B is (X, Y), the following equation (1) is obtained.
(X, Y) = (2x-1,-(2y-1)) (1)

また横画角をAxとし、縦画角をAyとし、図15(B)の仮想スクリーンSCVのZ座標をZ=1とすると、図15(B)の点PRの座標は下式(2)のように表される。
PR=(tan(Ax/2), 0, 1) (2)
If the horizontal angle of view is Ax, the vertical angle of view is Ay, and the Z coordinate of the virtual screen SCV in FIG. 15B is Z = 1, the coordinates of the point PR in FIG. It is expressed as
PR = (tan (Ax / 2), 0, 1) (2)

従って、点PVの座標は下式(3)のように表される。
PV=((2x-1)×(tan(Ax/2)), -(2y-1)×(tan(Ay/2)), 1) (3)
Therefore, the coordinates of the point PV are expressed as the following formula (3).
PV = ((2x-1) × (tan (Ax / 2)),-(2y-1) × (tan (Ay / 2)), 1) (3)

この点PVの座標が下式(4)のようにカメラ座標系での方向ベクトルVSLになる。
VSL=((2x-1)×(tan(Ax/2)), -(2y-1)×(tan(Ay/2)), 1) (4)
The coordinates of this point PV become a direction vector VSL in the camera coordinate system as shown in the following equation (4).
VSL = ((2x-1) x (tan (Ax / 2)),-(2y-1) x (tan (Ay / 2)), 1) (4)

図16は魚眼レンズによく使用されるfθレンズにおいて、方向ベクトルVSLを求める手法を説明する図である。   FIG. 16 is a diagram for explaining a method for obtaining a direction vector VSL in an fθ lens often used for fisheye lenses.

図16のB1、B2では、図15(A)、図15(B)と同様に、(x , y)から(X , Y)への座標変換を行う。即ち、レンズ中心に合わせ、レンズ中心がCCDの中心(原点)になるようにする。またY軸の向きを反転する。   In B1 and B2 of FIG. 16, coordinate conversion from (x, y) to (X, Y) is performed in the same manner as in FIGS. 15A and 15B. That is, the lens center is set to the center (origin) of the CCD in accordance with the lens center. The direction of the Y axis is reversed.

図16のB3では、レンズにより像は反転するため、PSL(X , Y)の座標を上下左右に反転している。そして原点からPSL(X , Y)までの距離をL=(X+Y1/2とする。 In B3 of FIG. 16, since the image is reversed by the lens, the coordinates of PSL (X, Y) are reversed vertically and horizontally. The distance from the origin to PSL (X, Y) is L = (X 2 + Y 2 ) 1/2 .

fθレンズは、θの角度で入射した光線が、焦点距離fだけ離れた位置において、レンズ中心(光軸)から距離fθの位置に結像するレンズである。従って、Lに対応するθについて、下式(5)が成り立つ。
L=fθ (5)
The fθ lens is a lens in which a light beam incident at an angle of θ forms an image at a distance fθ from the lens center (optical axis) at a position separated by a focal length f. Therefore, the following equation (5) holds for θ corresponding to L.
L = fθ (5)

このfθレンズにおいて、θ=0〜π/2に対応する、レンズ中心(CCDにおける原点)からの距離を0〜Mとする。即ち、fθレンズにおいてθ=π/2の角度で入射した光線が、焦点距離fだけ離れた位置において結像するときの距離をMとする。すると、下式(6)が成り立つ。
M=f×(π/2) (6)
In this fθ lens, the distance from the lens center (the origin in the CCD) corresponding to θ = 0 to π / 2 is 0 to M. That is, let M be the distance when a light beam incident at an angle θ = π / 2 in the fθ lens forms an image at a position separated by the focal length f. Then, the following formula (6) is established.
M = f × (π / 2) (6)

上式(5)、(6)からθは下式(7)のように求まる。
θ=(L/M)×(π/2) (7)
From the above equations (5) and (6), θ can be obtained as in the following equation (7).
θ = (L / M) × (π / 2) (7)

従って、図16のB4から明らかなように、方向ベクトルVSLは下式(8)のように求まる。
VSL=((X/L)×sinθ,(Y/L)×sinθ,cosθ) (8)
Therefore, as is apparent from B4 of FIG. 16, the direction vector VSL is obtained as in the following equation (8).
VSL = ((X / L) × sin θ, (Y / L) × sin θ, cos θ) (8)

なお方向ベクトルVSLを求める手法としては種々の変形実施が可能である。例えばfθレンズ(魚眼レンズ)を有する撮像部40の撮像画像に対して、fθレンズによる歪みを補正する公知の画像補正処理を行う。そして画像補正処理後の撮像画像に対して、図15(A)、図15(B)の手法を適用して、方向ベクトルVSLを求めてもよい。実際のレンズは、理想的なレンズでもfθレンズでもなく、単純な式では表せないような歪みを持っている場合が多い。あらかじめ格子模様を印刷した画像等を撮影するなどして、その歪みを、理想的なカメラモデルでの画像に補正するマップを作っておき、それを使って理想的なカメラモデルでの画像に変換する手法は一般的に良く用いられるが、その手法で変換した後、図15(A)、図15(B)の手法を適用して、方向ベクトルVSLを求めてもよい。   Various modifications can be made as a method for obtaining the direction vector VSL. For example, a known image correction process for correcting distortion caused by the fθ lens is performed on the captured image of the imaging unit 40 having an fθ lens (fisheye lens). Then, the direction vector VSL may be obtained by applying the method of FIGS. 15A and 15B to the captured image after the image correction processing. An actual lens is neither an ideal lens nor an fθ lens, and often has a distortion that cannot be expressed by a simple expression. Create a map that corrects the distortion to an image with an ideal camera model by shooting an image with a grid pattern printed in advance, and converts it to an image with an ideal camera model Generally, the technique to be used is often used, but after the conversion by the technique, the technique of FIG. 15A and FIG. 15B may be applied to obtain the direction vector VSL.

2.6 スポット光の位置検出の調整
さて、本実施形態のようにスポット光の位置検出を行う場合には、その位置検出の調整作業(ガン・イニシャライズ)が必要になる。
2.6 Adjustment of Spot Light Position Detection When spot light position detection is performed as in the present embodiment, position detection adjustment work (gun initialization) is required.

例えば図17(A)〜図19では、スポット光の検出調整用オブジェクトIT1、IT2、IT3、IT4、IT5を、初期調整時における投影画像上に表示している。   For example, in FIGS. 17A to 19, spot light detection adjustment objects IT1, IT2, IT3, IT4, and IT5 are displayed on the projection image at the time of initial adjustment.

具体的には図17(A)では、画面の左上に検出調整用オブジェクトIT1を表示する。そして操作者(例えばアミューズメント施設の店員)は、この検出調整用オブジェクトIT1に狙いを定めて、光出射部50のトリガーを引く。同様に図17(B)、図18(A)、図18(B)、図19では、各々、画面の右上、左下、右下、真ん中に、検出調整用オブジェクトIT2、IT3、IT4、IT5を表示する。そして、操作者は、これらの検出調整用オブジェクトIT2、IT3、IT4、IT5に狙いを定めて、光出射部50のトリガーを引く。なお、図17(A)〜図19は、図8と同様に歪み補正処理が行われた投影画像であり、検出調整用オブジェクトIT1、IT2、IT3、IT4、IT5はオブジェクト空間に配置される3次元オブジェクトであるため、IT1、IT2、IT3、IT4、IT5は変形した画像になっている。   Specifically, in FIG. 17A, the detection adjustment object IT1 is displayed on the upper left of the screen. Then, the operator (for example, an amusement facility clerk) aims at the detection adjustment object IT1 and pulls the trigger of the light emitting unit 50. Similarly, in FIGS. 17B, 18A, 18B, and 19, detection adjustment objects IT2, IT3, IT4, and IT5 are respectively displayed at the upper right, lower left, lower right, and middle of the screen. indicate. The operator then targets these detection adjustment objects IT2, IT3, IT4, and IT5 and pulls the trigger of the light emitting unit 50. FIGS. 17A to 19 are projection images on which distortion correction processing has been performed in the same manner as in FIG. 8, and the detection adjustment objects IT1, IT2, IT3, IT4, and IT5 are arranged in the object space. Since it is a dimensional object, IT1, IT2, IT3, IT4, and IT5 are deformed images.

例えば図17(A)で検出調整用オブジェクトIT1が表示されている状態で、操作者が検出調整用オブジェクトIT1を狙って、光出射部50のトリガーを引いたとする。すると、この時に検出された出射方向DG(図11参照)と、目標となる出射方向DGTとの差分角度を求める。このようにすれば、実際のプレーヤのゲームプレイ時には、検出された出射方向DGを、上述の差分角度で補正することで、正確な出射方向DGを得ることができる。即ち、スポット光の正確な位置検出を実現できるようになる。   For example, it is assumed that the operator pulls the trigger of the light emitting unit 50 toward the detection adjustment object IT1 in a state where the detection adjustment object IT1 is displayed in FIG. Then, the difference angle between the emission direction DG (see FIG. 11) detected at this time and the target emission direction DGT is obtained. In this way, when the game is played by an actual player, the accurate emission direction DG can be obtained by correcting the detected emission direction DG with the above-described differential angle. In other words, accurate position detection of the spot light can be realized.

さて、例えば図1、図2において、撮像部40の取り付け位置や取り付け方向にはバラツキがある。即ち、撮像部40は、その撮像方向が投影装置30の投影方向に一致(略一致)するように投影装置30に取り付けられる。また、投影装置30を基準とした所定位置に撮像部40が取り付けられる。しかしながら、ゲームシステムの製造時の組み立て誤差等により、撮像部40の取り付け位置や取り付け方向にはバラツキが生じる。すると、投影領域での撮像部40の撮像範囲にもバラツキが発生してしまう。   For example, in FIGS. 1 and 2, there are variations in the mounting position and mounting direction of the imaging unit 40. That is, the imaging unit 40 is attached to the projection device 30 such that the imaging direction matches (substantially matches) the projection direction of the projection device 30. In addition, the imaging unit 40 is attached at a predetermined position with respect to the projection device 30. However, there are variations in the mounting position and mounting direction of the imaging unit 40 due to assembly errors during the manufacture of the game system. Then, variation also occurs in the imaging range of the imaging unit 40 in the projection area.

例えば図20(A)、図20(B)において、RSCは投影画像の投影領域(スクリーン領域)であり、RCMは、この投影領域RSCでの撮像部40の撮像範囲である。投影装置30の広角レンズ(例えば魚眼レンズ)は、撮像部40の広角レンズ(例えば魚眼レンズ)に比べて、より広角なレンズとなっている。即ち、投影装置30の投影範囲は、撮像部40の撮像範囲よりも広角になっている。このため、図20(A)に示すように、撮像部40の撮像範囲RCMは、投影画像の投影領域RSCよりも狭い範囲となっている。そして、撮像部40の取り付け位置や取り付け方向にバラツキがあると、図20(B)に示すように、投影領域RSCに対して、撮像範囲RCMが、例えばDRAの方向にシフトしてしまう。そして、この撮像範囲RCMがシフトする方向は、撮像部40の取り付け位置や取り付け方向のバラツキの状況に応じて、様々な方向になる可能性がある。   For example, in FIGS. 20A and 20B, RSC is a projection area (screen area) of a projection image, and RCM is an imaging range of the imaging unit 40 in this projection area RSC. The wide-angle lens (for example, fisheye lens) of the projection device 30 is a wider-angle lens than the wide-angle lens (for example, fisheye lens) of the imaging unit 40. That is, the projection range of the projection device 30 is wider than the imaging range of the imaging unit 40. For this reason, as shown in FIG. 20A, the imaging range RCM of the imaging unit 40 is narrower than the projection area RSC of the projection image. If there are variations in the mounting position and mounting direction of the imaging unit 40, as shown in FIG. 20B, the imaging range RCM shifts, for example, in the DRA direction with respect to the projection area RSC. The direction in which the imaging range RCM shifts may be various depending on the mounting position of the imaging unit 40 and the variation in the mounting direction.

そこで本実施形態では図21に示すように、スポット光の検出調整用オブジェクトIT1、IT2、IT3、IT4、IT5が、撮像部40の撮像範囲RCMの内側に表示されるように投影画像を生成する。即ち、撮像範囲RCMの境界から、DR1、DR2、DR3、DR4等に示すように所与の距離だけ内側に、検出調整用オブジェクトIT1、IT2、IT3、IT4、IT5が表示されるようにする。具体的には、検出調整用オブジェクトIT1〜IT5が、投影画像の投影領域RSCにおいて撮像範囲RCMの内側に表示されるように、検出調整用オブジェクトIT1〜IT5をオブジェクト空間に配置する。   Therefore, in the present embodiment, as shown in FIG. 21, a projected image is generated so that the spot light detection adjustment objects IT1, IT2, IT3, IT4, and IT5 are displayed inside the imaging range RCM of the imaging unit 40. . That is, the detection adjustment objects IT1, IT2, IT3, IT4, and IT5 are displayed on the inner side by a given distance from the boundary of the imaging range RCM as shown in DR1, DR2, DR3, DR4, and the like. Specifically, the detection adjustment objects IT1 to IT5 are arranged in the object space so that the detection adjustment objects IT1 to IT5 are displayed inside the imaging range RCM in the projection area RSC of the projection image.

このようにすれば、図20(A)、図20(B)に示すように、撮像部40の取り付け位置や取り付け方向のバラツキ等により、投影領域RSCに対して撮像範囲RCMがシフトした場合にも、検出調整用オブジェクトIT1〜IT5を撮像範囲RCM内に収めることが可能になる。   In this way, as shown in FIGS. 20A and 20B, when the imaging range RCM is shifted with respect to the projection region RSC due to variations in the mounting position and mounting direction of the imaging unit 40, and the like. In addition, the detection adjustment objects IT1 to IT5 can be accommodated in the imaging range RCM.

例えば、検出調整用オブジェクトIT1〜IT5が、撮像範囲RCMの内側に表示されていないと、図17(A)〜図19に示すような調整作業(ガン・イニシャライズ)を、そもそも実行できなくなる。   For example, if the detection adjustment objects IT1 to IT5 are not displayed inside the imaging range RCM, adjustment work (gun initialization) as shown in FIGS. 17A to 19 cannot be executed in the first place.

例えば図20(B)のように撮像範囲RCMが右上方向にシフトすることで、画面左下の検出調整用オブジェクトIT3が撮像範囲RCMに入らなくなったとする。すると、初期調整時に操作者が、検出調整用オブジェクトIT3に狙いを定めて、光出射部50のトリガーを引いたとしても、検出調整用オブジェクトIT3に狙いを定めたスポット光は、撮像部40により撮像されない。従って、検出調整用オブジェクトIT3に対応する出射方向DGを検出できないため、上述した補正処理を実現できなくなる事態が生じる。   For example, it is assumed that the detection adjustment object IT3 at the lower left of the screen does not enter the imaging range RCM due to the imaging range RCM shifting in the upper right direction as shown in FIG. Then, even if the operator aims at the detection adjustment object IT3 and pulls the trigger of the light emitting unit 50 at the time of initial adjustment, the spot light aimed at the detection adjustment object IT3 is caused by the imaging unit 40. The image is not captured. Accordingly, since the emission direction DG corresponding to the detection adjustment object IT3 cannot be detected, a situation in which the above-described correction processing cannot be realized occurs.

この点、本実施形態では図21に示すように、撮像範囲RCMの境界から離れた内側領域に、検出調整用オブジェクトIT1〜IT5が表示されるため、上記の事態の発生を防止できる。   In this regard, in the present embodiment, as shown in FIG. 21, since the detection adjustment objects IT1 to IT5 are displayed in the inner region away from the boundary of the imaging range RCM, the occurrence of the above situation can be prevented.

なお、検出調整用オブジェクト等を投影画像上に表示し、可視光が撮像可能な撮像部を用いて、この検出調整用オブジェクトを撮像し、得られた撮像画像の画像解析処理を行うこと、スポット光の位置検出調整を行ってもよい。例えば投影画像の四隅に、検出調整用オブジェクトとなるバーコード画像オブジェクトを表示する。そして、可視光が撮像可能な撮像部を用いて、これらのバーコード画像オブジェクトを撮像し、撮像画像の画像解析処理を行うことで、バーコード画像オブジェクトの表示位置のズレを検出して、スポット光の位置検出調整を行う。この場合に、可視光が撮像可能な撮像部は、例えば赤外光を出射する撮像部40のフィルターの切り替え等により実現する。例えば、赤外光のスポット光を検出する場合には、赤外線フィルターを介して画像を撮像し、上述のバーコード画像オブジェクトを撮像する場合には、この赤外線フィルターを撮像光が通らないように画像を撮像する。また、この場合の検出調整用オブジェクトは、バーコード画像オブジェクトには限定されない。例えば投影画像の四隅に、互いの色が異なる4つのオブジェクトを表示してもよい。或いは、投影画像の四隅にレーザー等を照射して、このレーザーの照射位置の画像解析処理を行うことで、スポット光の位置検出調整を行ってもよい。   It is to be noted that a detection adjustment object or the like is displayed on the projection image, the detection adjustment object is imaged using an imaging unit capable of imaging visible light, and image analysis processing of the obtained captured image is performed. Light position detection adjustment may be performed. For example, barcode image objects serving as detection adjustment objects are displayed at the four corners of the projected image. Then, using an imaging unit capable of capturing visible light, these bar code image objects are imaged, and by performing image analysis processing of the captured image, a shift in the display position of the bar code image object is detected, and a spot is detected. Perform light position detection adjustment. In this case, an imaging unit capable of imaging visible light is realized by, for example, switching a filter of the imaging unit 40 that emits infrared light. For example, when detecting spot light of infrared light, an image is picked up through an infrared filter, and when picking up the above-described barcode image object, the image is not passed through the infrared filter. Image. Further, the detection adjustment object in this case is not limited to the barcode image object. For example, four objects having different colors may be displayed at the four corners of the projected image. Alternatively, the position detection adjustment of the spot light may be performed by irradiating the four corners of the projected image with laser or the like and performing image analysis processing of the irradiation position of the laser.

また本実施形態では、撮像部40の撮像範囲RCMの特定処理を行うようにしてもよい。例えば投影画像を撮像した第2の撮像画像、或いはスポット光の検出位置の履歴情報に基づいて、撮像部40の撮像範囲RCMを特定する。   In the present embodiment, the process of specifying the imaging range RCM of the imaging unit 40 may be performed. For example, the imaging range RCM of the imaging unit 40 is specified based on the second captured image obtained by capturing the projection image or the history information of the spot light detection position.

例えば特定画像パターンの投影画像を表示し、上述の可視光が撮像可能な撮像部により、この特定画像パターンの投影画像を撮像し、得られた撮像画像である第2の撮像画像の画像解析処理により、撮像範囲RCMの境界等を特定する。或いは、光出射部50を上下左右に振る動作を操作者に行わせ、その時のスポット光の検出位置の履歴に基づいて、撮像範囲RCMの境界を検出してもよい。或いは、現在のプレーヤの前にプレイしたプレーヤの操作に基づくスポット光の検出位置の履歴に基づいて、撮像範囲RCMの境界を検出してもよい。   For example, a projection image of a specific image pattern is displayed, and the above-described imaging unit capable of capturing visible light captures the projection image of the specific image pattern, and image analysis processing of a second captured image that is the obtained captured image Thus, the boundary of the imaging range RCM is specified. Alternatively, the operator may perform an operation of swinging the light emitting unit 50 up, down, left, and right, and the boundary of the imaging range RCM may be detected based on the history of the spot light detection position at that time. Alternatively, the boundary of the imaging range RCM may be detected on the basis of the spot light detection position history based on the operation of the player who played before the current player.

また照準オブジェクトSGについては、図22(A)、図22(B)に示すような表示制御を行うことが望ましい。   For the aiming object SG, it is desirable to perform display control as shown in FIGS. 22 (A) and 22 (B).

例えば図22(A)に示すように、照準オブジェクトSGが、撮像部40の撮像範囲RCM内に位置する場合には、図13で説明した手法により光の出射方向DGを検出し、直線LG上に照準オブジェクトSGを配置することで、照準オブジェクトSGを投影画像上に表示できる。   For example, as shown in FIG. 22A, when the aiming object SG is located within the imaging range RCM of the imaging unit 40, the light emission direction DG is detected by the method described in FIG. The aiming object SG can be displayed on the projection image by arranging the aiming object SG on the projection image.

しかしながら、撮像範囲RCMの外側にスポット光が位置する場合には、図13のように出射方向DGを検出できないため、照準オブジェクトSGを適切な位置に表示することができなくなる。即ち、撮像範囲RCMは投影画像の投影領域RSCよりも狭い。従って、投影領域RSCの内側であり、且つ、撮像範囲RCMの外側となる領域RFは、投影画像は存在するが、スポット光は検出できない領域になる。従って、この領域RFにスポット光が形成されるように、プレーヤが光出射部50を領域RFの方に向けたとしても、図13の手法では、領域RFに照準オブジェクトSGを表示することはできない。   However, when the spot light is located outside the imaging range RCM, the emission direction DG cannot be detected as shown in FIG. 13, and the aiming object SG cannot be displayed at an appropriate position. That is, the imaging range RCM is narrower than the projection area RSC of the projection image. Therefore, an area RF that is inside the projection area RSC and outside the imaging range RCM is an area where a projection image exists but spot light cannot be detected. Accordingly, even if the player points the light emitting unit 50 toward the region RF so that spot light is formed in the region RF, the method of FIG. 13 cannot display the aiming object SG in the region RF. .

そこで図22(A)、(B)では、照準オブジェクトSGの表示位置を、撮像範囲RCMの中心から外側に向かう外側方向DRSにシフトする手法を採用している。即ち、図13の手法で特定された表示位置よりも、照準オブジェクトSGの表示位置を外側方向DRSにシフトする。例えば図13の手法で特定された照準オブジェクトSGの表示位置が、撮像範囲RCMの境界付近の位置であった場合に、照準オブジェクトSGの表示位置が、投影領域RSCの境界付近の位置になるように、外側方向DRSに照準オブジェクトSGの表示位置を移動する。こうすることで、照準オブジェクトSGの表示位置は正確ではなくなるが、プレーヤが、出射部50を領域RFの方に向けた場合にも、図22(B)に示すように照準オブジェクトSGは表示されるようになり、プレーヤの不自然感を軽減できるようになる。   Therefore, in FIGS. 22A and 22B, a method of shifting the display position of the aiming object SG in the outward direction DRS from the center of the imaging range RCM toward the outside is adopted. That is, the display position of the aiming object SG is shifted in the outward direction DRS from the display position specified by the method of FIG. For example, when the display position of the aiming object SG specified by the method of FIG. 13 is a position near the boundary of the imaging range RCM, the display position of the aiming object SG becomes a position near the boundary of the projection area RSC. Next, the display position of the aiming object SG is moved in the outer direction DRS. By doing so, the display position of the aiming object SG is not accurate, but the aiming object SG is displayed as shown in FIG. 22B even when the player points the emitting unit 50 toward the region RF. As a result, the player's unnatural feeling can be reduced.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、プロジェクション用の投影画像の生成手法、スポット光の位置の検出手法、ヒット判定手法等も本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム等の種々の画像生成システムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. In addition, a projection image generation method for projection, a spot light position detection method, a hit determination method, and the like are not limited to those described in this embodiment, and techniques equivalent to these are also included in the scope of the present invention. The present invention can be applied to various games. Further, the present invention can be applied to various image generation systems such as an arcade game system and a large attraction system in which a large number of players participate.

また、本発明は、ヘッドトラッキングシステムやメガネ式立体視にも対応が可能である。ヘッドトラッキングシステムを導入する場合、頭の位置をもとにプレーヤの代表視点位置を決定し、この位置に対応した画像補正処理や照準補正処理を行うことで、より自然な映像や照準の移動が実現できる。   In addition, the present invention can be applied to a head tracking system and glasses-type stereoscopic vision. When the head tracking system is introduced, the representative viewpoint position of the player is determined based on the position of the head, and image correction processing and aim correction processing corresponding to this position are performed, so that a more natural image and aim movement can be performed. realizable.

また、立体視に対応させるには、代理平面への描画と画像の歪み補正処理を、プレーヤの視点位置を左眼と右眼に分けて行った後、2つの画像を立体視映像として合成すればよい。なお、代表視点位置は弾丸の出射方向を決定する直線の起点として用いても良いことは前述の通りであるが、この処理については代表視点を左眼と右眼に分けることはせず、例えば両眼の中心位置など、1点を用いて行うことになる。これにより、立体視が可能となり、さらに臨場感のある映像を提供することが可能となる。   In order to support stereoscopic viewing, drawing on the proxy plane and image distortion correction processing are performed by dividing the viewpoint position of the player into the left eye and the right eye, and then combining the two images as a stereoscopic video. That's fine. As described above, the representative viewpoint position may be used as a starting point of a straight line that determines the projecting direction of the bullet. However, for this processing, the representative viewpoint is not divided into the left eye and the right eye. This is performed using one point such as the center position of both eyes. As a result, stereoscopic viewing becomes possible, and it is possible to provide a more realistic video.

SC スクリーン、PJ 投影装置(プロジェクタ)、VC 仮想カメラ、
VP 仮想カメラの位置、OB オブジェクト、OBD 描画オブジェクト、
PSL 撮像画像上のスポット光の位置、CM 撮像部、VSL 方向ベクトル、
LL、LG 直線、SL 交点、GN 光出射部、PG 設定位置、DG 出射方向、
TOB オブジェクト、SG、SG1、SG2 照準オブジェクト、
IT1〜IT5 検出調整用オブジェクト、RCM 撮像範囲、RSC 投影領域、
10 プレーヤシート、12 支柱、14 筺体フレーム、16 制御基板
20 スクリーン、30 投影装置、40 撮像部、42 レンズ、
44 撮像素子、50 光出射部、
100 処理部、102 ゲーム演算部、104 オブジェクト空間設定部、
106 移動体演算部、108 仮想カメラ制御部、110 受け付け部、
114 ヒット判定部、116 撮像範囲特定部、120 画像生成部、
130 音生成部、160 操作部、170 記憶部、
172 オブジェクトデータ記憶部、176 描画バッファ、180 情報記憶媒体、
190 表示部、192 音出力部、194 補助記憶装置、196 通信部
SC screen, PJ projector (projector), VC virtual camera,
VP virtual camera position, OB object, OBD drawing object,
The position of the spot light on the PSL captured image, CM image capturing unit, VSL direction vector,
LL, LG straight line, SL intersection, GN light emission part, PG setting position, DG emission direction,
TOB object, SG, SG1, SG2 Aiming object,
IT1-IT5 detection adjustment object, RCM imaging range, RSC projection area,
10 player seats, 12 struts, 14 frame, 16 control board 20 screen, 30 projector, 40 imaging unit, 42 lens,
44 image sensor, 50 light emitting part,
100 processing unit, 102 game calculation unit, 104 object space setting unit,
106 moving body computing unit, 108 virtual camera control unit, 110 receiving unit,
114 hit determination unit, 116 imaging range specifying unit, 120 image generation unit,
130 sound generation unit, 160 operation unit, 170 storage unit,
172 Object data storage unit, 176 drawing buffer, 180 information storage medium,
190 Display unit, 192 Sound output unit, 194 Auxiliary storage device, 196 Communication unit

Claims (12)

オブジェクト空間の設定処理を行うオブジェクト空間設定部と、
前記オブジェクト空間に配置される複数のオブジェクトの情報に基づいて、プロジェクション用の投影画像を生成する画像生成部と、
前記投影画像の投影領域を撮像する撮像部からの撮像画像を受け付ける受け付け部と、
光出射部からの光によるスポット光の前記撮像画像上での位置に基づいて、プロジェクション用スクリーンでの前記スポット光の位置であるスクリーンスポット光位置を求め、前記光出射部又はプレーヤの代表位置として設定された設定位置から、前記スクリーンスポット光位置へと向かう方向を、前記光出射部の光の出射方向として求め、求められた前記出射方向に基づいて、前記オブジェクト空間内のオブジェクトとのヒット判定処理を行うヒット判定部と、
を含み、
前記プロジェクション用スクリーンは、1つの曲面又は複数の面により構成されるスクリーンであり、
前記画像生成部は、
前記プロジェクション用スクリーンの形状情報に基づく歪み補正処理を行って、前記投影画像を生成し、
前記ヒット判定部は、
前記プロジェクション用スクリーンの形状情報に基づいて、前記スクリーンスポット光位置を求めることを特徴とする画像生成システム。
An object space setting unit for performing object space setting processing;
An image generation unit that generates a projection image for projection based on information of a plurality of objects arranged in the object space;
A receiving unit that receives a captured image from an imaging unit that captures a projection area of the projected image;
Based on the position of the spot light by the light from the light emitting section on the captured image, a screen spot light position that is the position of the spot light on the projection screen is obtained, and the representative position of the light emitting section or player is obtained. A direction from the set position to the screen spot light position is obtained as the light emission direction of the light emitting unit, and hit determination with an object in the object space is determined based on the obtained emission direction. A hit determination unit for processing;
Only including,
The projection screen is a screen composed of one curved surface or a plurality of surfaces,
The image generation unit
Performing distortion correction processing based on the shape information of the projection screen to generate the projection image;
The hit determination unit
An image generation system characterized in that the screen spot light position is obtained based on shape information of the projection screen .
請求項において、
前記ヒット判定部は、
前記スポット光の前記撮像画像上での位置に基づいて、前記撮像部から見た前記スポット光の方向ベクトルを求め、前記方向ベクトルに沿った直線と前記プロジェクション用スクリーンとの交点位置を、前記スクリーンスポット光位置として求めることを特徴とする画像生成システム。
In claim 1 ,
The hit determination unit
Based on the position of the spot light on the captured image, a direction vector of the spot light viewed from the imaging unit is obtained, and an intersection position between the straight line along the direction vector and the projection screen is determined as the screen. An image generation system characterized by obtaining a spot light position.
請求項1又は2において、
前記投影画像は、投影装置により前記プロジェクション用スクリーンに投影される画像であり、
前記画像生成部は、
描画バッファ上のピクセルが前記投影装置の光学系を通して出射される光線と前記プロジェクション用スクリーンとの交点位置と、代表視点位置とを結ぶ直線を、仮想カメラの視線として、前記描画バッファ上の前記ピクセルの色を決定することを特徴する画像生成システム。
In claim 1 or 2 ,
The projected image is an image projected onto the projection screen by a projection device,
The image generation unit
The pixel on the drawing buffer, with a straight line connecting the intersection position of the light beam emitted through the optical system of the projection device and the projection screen and the representative viewpoint position as a virtual camera line of sight. An image generation system characterized by determining the color of the image.
請求項1又は2において、
前記画像生成部は、
前記オブジェクト空間内のオブジェクトの頂点位置と代表視点位置を結ぶ直線と、前記プロジェクション用スクリーンとの交点位置に基づいて、前記オブジェクトに対応する描画オブジェクトについての描画バッファ上での頂点位置を求め、前記頂点位置に基づいて前記描画バッファに前記描画オブジェクトを描画することを特徴とする画像生成システム。
In claim 1 or 2 ,
The image generation unit
Based on the intersection position between the projection screen and the straight line connecting the vertex position of the object and the representative viewpoint position in the object space, the vertex position on the drawing buffer for the drawing object corresponding to the object is obtained, An image generation system for drawing the drawing object in the drawing buffer based on a vertex position.
請求項1乃至のいずれかにおいて、
前記オブジェクト空間設定部は、
前記光出射部の照準を表す照準オブジェクトの前記オブジェクト空間での配置位置を、前記出射方向に基づいて求め、求められた前記配置位置に前記照準オブジェクトを配置することを特徴とする画像生成システム。
In any one of Claims 1 thru | or 4 ,
The object space setting unit
An image generation system characterized in that an arrangement position of the aiming object representing the aim of the light emitting unit in the object space is obtained based on the emission direction, and the aiming object is arranged at the obtained arrangement position.
請求項において、
前記オブジェクト空間設定部は、
前記出射方向に沿った直線上に、前記照準オブジェクトを配置することを特徴とする画像生成システム。
In claim 5 ,
The object space setting unit
An image generation system, wherein the aiming object is arranged on a straight line along the emission direction.
請求項1乃至のいずれかにおいて、
前記画像生成部は、
前記スポット光の検出調整用オブジェクトが、前記撮像部の撮像範囲の内側に表示される前記投影画像を生成することを特徴とする画像生成システム。
In any one of Claims 1 thru | or 6 .
The image generation unit
The image generation system, wherein the spot light detection adjustment object generates the projection image displayed inside an imaging range of the imaging unit.
請求項において、
前記オブジェクト空間設定部は、
前記検出調整用オブジェクトが、前記投影画像の投影領域において前記撮像部の前記撮像範囲の内側に表示されるように、前記検出調整用オブジェクトを前記オブジェクト空間に配置することを特徴とする画像生成システム。
In claim 7 ,
The object space setting unit
An image generation system, wherein the detection adjustment object is arranged in the object space so that the detection adjustment object is displayed inside the imaging range of the imaging unit in a projection area of the projection image. .
請求項1乃至のいずれかにおいて、
前記投影画像を撮像した第2の撮像画像又は前記スポット光の検出位置の履歴情報に基づいて、前記撮像部の撮像範囲を特定する撮像範囲特定部を含むことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 8 .
An image generation system comprising: an imaging range specifying unit that specifies an imaging range of the imaging unit based on history information of a second captured image obtained by capturing the projected image or the detection position of the spot light.
請求項1乃至のいずれかにおいて、
前記撮像部を含み、
前記撮像部は、
撮像素子と、魚眼レンズを有することを特徴とする画像生成システム。
In any one of Claims 1 thru | or 9 ,
Including the imaging unit;
The imaging unit
An image generation system comprising an imaging element and a fisheye lens.
請求項10において、
前記プロジェクション用スクリーンに前記投影画像を投影する投影装置を含み、
前記撮像部は、前記投影装置に取り付けられることを特徴とする画像生成システム。
In claim 10,
A projection device for projecting the projection image onto the projection screen ;
The image generation system, wherein the imaging unit is attached to the projection device.
オブジェクト空間の設定処理を行うオブジェクト空間設定部と、
前記オブジェクト空間に配置される複数のオブジェクトの情報に基づいて、プロジェクション用の投影画像を生成する画像生成部と、
前記投影画像の投影領域を撮像する撮像部からの撮像画像を受け付ける受け付け部と、
光出射部からの光によるスポット光の前記撮像画像上での位置に基づいて、プロジェクション用スクリーンでの前記スポット光の位置であるスクリーンスポット光位置を求め、前記光出射部又はプレーヤの代表位置として設定された設定位置から、前記スクリーンスポット光位置へと向かう方向を、前記光出射部の光の出射方向として求め、求められた前記出射方向に基づいて、前記オブジェクト空間内のオブジェクトとのヒット判定処理を行うヒット判定部として、
コンピュータを機能させ
前記プロジェクション用スクリーンは、1つの曲面又は複数の面により構成されるスクリーンであり、
前記画像生成部は、
前記プロジェクション用スクリーンの形状情報に基づく歪み補正処理を行って、前記投影画像を生成し、
前記ヒット判定部は、
前記プロジェクション用スクリーンの形状情報に基づいて、前記スクリーンスポット光位置を求めることを特徴とするプログラム。
An object space setting unit for performing object space setting processing;
An image generation unit that generates a projection image for projection based on information of a plurality of objects arranged in the object space;
A receiving unit that receives a captured image from an imaging unit that captures a projection area of the projected image;
Based on the position of the spot light by the light from the light emitting section on the captured image, a screen spot light position that is the position of the spot light on the projection screen is obtained, and the representative position of the light emitting section or player is obtained. A direction from the set position to the screen spot light position is obtained as the light emission direction of the light emitting unit, and hit determination with an object in the object space is determined based on the obtained emission direction. As a hit determination unit that performs processing,
Make the computer work ,
The projection screen is a screen composed of one curved surface or a plurality of surfaces,
The image generation unit
Performing distortion correction processing based on the shape information of the projection screen to generate the projection image;
The hit determination unit
A program characterized in that the screen spot light position is obtained based on shape information of the projection screen .
JP2014025962A 2014-02-13 2014-02-13 Image generation system and program Active JP6448196B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014025962A JP6448196B2 (en) 2014-02-13 2014-02-13 Image generation system and program
CN201580008601.XA CN105993167B (en) 2014-02-13 2015-02-12 Image generation system, image generating method and information storage medium
PCT/JP2015/053804 WO2015122450A1 (en) 2014-02-13 2015-02-12 Image generation system, image generation method, and information storage medium
US15/232,121 US10661174B2 (en) 2014-02-13 2016-08-09 Image generation system, image generation method, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014025962A JP6448196B2 (en) 2014-02-13 2014-02-13 Image generation system and program

Publications (3)

Publication Number Publication Date
JP2015154219A JP2015154219A (en) 2015-08-24
JP2015154219A5 JP2015154219A5 (en) 2017-03-16
JP6448196B2 true JP6448196B2 (en) 2019-01-09

Family

ID=53800191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014025962A Active JP6448196B2 (en) 2014-02-13 2014-02-13 Image generation system and program

Country Status (4)

Country Link
US (1) US10661174B2 (en)
JP (1) JP6448196B2 (en)
CN (1) CN105993167B (en)
WO (1) WO2015122450A1 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102605411B1 (en) 2015-10-26 2023-11-22 량 콩 Immersive all-in-one PC system
US10423059B2 (en) * 2015-12-16 2019-09-24 Sony Corporation Image display apparatus
JP6782297B2 (en) 2016-05-25 2020-11-11 株式会社コーエーテクモゲームス Game device and game control method
JP6780315B2 (en) * 2016-06-22 2020-11-04 カシオ計算機株式会社 Projection device, projection system, projection method and program
JP2019008168A (en) * 2017-06-26 2019-01-17 ローム株式会社 Display system and image display method
KR101963770B1 (en) * 2017-10-17 2019-03-29 주식회사 홍인터내셔날 Dart game apparatus and dart game system with display unit
KR101963771B1 (en) 2017-10-17 2019-07-31 주식회사 홍인터내셔날 Dart game apparatus and dart game system providing lesson video
MY190115A (en) * 2017-10-17 2022-03-29 Phoenixdarts Co Ltd Dart game apparatus and dart game system with equipped an image projector
CN111670574A (en) * 2018-02-08 2020-09-15 索尼公司 Information processing apparatus, information processing method, and computer program
US10593014B2 (en) * 2018-03-26 2020-03-17 Ricoh Company, Ltd. Image processing apparatus, image processing system, image capturing system, image processing method
CN108744511B (en) * 2018-05-30 2022-11-29 腾讯科技(深圳)有限公司 Method, device and storage medium for displaying sighting telescope in virtual environment
CN109017120A (en) * 2018-08-01 2018-12-18 中国水利水电科学研究院 A kind of dynamic river discharges interactive system
CN112915523B (en) * 2019-01-03 2022-11-18 上海亿湾特训练设备科技有限公司 Shooting distinguishing method and system
TWI738124B (en) * 2019-11-22 2021-09-01 香港商女媧創造股份有限公司 Robotic system having non-planar inner projection of movable mechanism
WO2022044806A1 (en) * 2020-08-24 2022-03-03 ソニーグループ株式会社 Information processing device and method

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08117447A (en) * 1994-10-26 1996-05-14 Namco Ltd Shooting type game device
JP2001004327A (en) 1999-06-18 2001-01-12 Namco Ltd Spot light position detecting system and simulator
JP3753911B2 (en) * 2000-02-08 2006-03-08 株式会社タイトー Game device
JP2002018128A (en) * 2000-07-10 2002-01-22 Namco Ltd Game system and information storage medium
JP3561463B2 (en) * 2000-08-11 2004-09-02 コナミ株式会社 Virtual camera viewpoint movement control method and 3D video game apparatus in 3D video game
JP2003085586A (en) 2001-06-27 2003-03-20 Namco Ltd Image display, image displaying method, information storage medium, and image displaying program
JP4179162B2 (en) * 2003-12-26 2008-11-12 株式会社セガ Information processing device, game device, image generation method, and game image generation method
JP4673570B2 (en) * 2004-03-31 2011-04-20 株式会社セガ Image generation apparatus, image display method, and program
JP2007071403A (en) * 2005-09-02 2007-03-22 Realviz:Kk Firing simulator
JP4785503B2 (en) * 2005-11-22 2011-10-05 バブコック日立株式会社 Video shooting simulator
JP2008073184A (en) * 2006-09-20 2008-04-03 Namco Bandai Games Inc Program, information storage medium and game device
JP5134224B2 (en) 2006-09-13 2013-01-30 株式会社バンダイナムコゲームス GAME CONTROLLER AND GAME DEVICE
JP2010071594A (en) * 2008-09-19 2010-04-02 Hitachi Kokusai Electric Inc Shooting training system
JP5597837B2 (en) * 2010-09-08 2014-10-01 株式会社バンダイナムコゲームス Program, information storage medium, and image generation apparatus
US20130005417A1 (en) * 2011-06-30 2013-01-03 Peter Schmidt Mobile device action gaming
US9155960B2 (en) * 2013-01-11 2015-10-13 Chris Argiro Video-game console for allied touchscreen devices
US9694277B2 (en) * 2013-03-14 2017-07-04 Microsoft Technology Licensing, Llc Client side processing of character interactions in a remote gaming environment

Also Published As

Publication number Publication date
US10661174B2 (en) 2020-05-26
JP2015154219A (en) 2015-08-24
CN105993167A (en) 2016-10-05
WO2015122450A1 (en) 2015-08-20
US20160346693A1 (en) 2016-12-01
CN105993167B (en) 2019-04-12

Similar Documents

Publication Publication Date Title
JP6448196B2 (en) Image generation system and program
JP6438207B2 (en) Image generation system and program
US8574071B2 (en) Information storage medium and image generation system
JP5597837B2 (en) Program, information storage medium, and image generation apparatus
JP5390115B2 (en) Program, game system
JP6754678B2 (en) Simulation system and program
US8556716B2 (en) Image generation system, image generation method, and information storage medium
JP3786132B2 (en) Game image processing program and storage medium
US9345972B2 (en) Information storage medium, image generation system, and image generation method
US20140292755A1 (en) Image generation system, image generation method, and information storage medium
JP2002233665A5 (en)
JP2007071403A (en) Firing simulator
WO2015048890A1 (en) System and method for augmented reality and virtual reality applications
JP2019152899A (en) Simulation system and program
CN112005276A (en) Method and apparatus for adjusting perspective of image for user at different position
US20130109475A1 (en) Game system, control method therefor, and a storage medium storing a computer program
JP7418956B2 (en) Image generation system and program
JP2012215934A (en) Program, information storage medium, terminal, and server
JP2011096018A (en) Program, information storage medium, terminal, and network system
JP2016192029A (en) Image generation system and program
JP2018171319A (en) Simulation system and program
JP2006061717A (en) Game image display control program, game device, and storage medium
JP2018171309A (en) Simulation system and program
JP2009075739A (en) Program, information storage medium and image generation system
JP2011096017A (en) Program, information storage medium and terminal

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181204

R150 Certificate of patent or registration of utility model

Ref document number: 6448196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250