JP2016192029A - Image generation system and program - Google Patents

Image generation system and program Download PDF

Info

Publication number
JP2016192029A
JP2016192029A JP2015071109A JP2015071109A JP2016192029A JP 2016192029 A JP2016192029 A JP 2016192029A JP 2015071109 A JP2015071109 A JP 2015071109A JP 2015071109 A JP2015071109 A JP 2015071109A JP 2016192029 A JP2016192029 A JP 2016192029A
Authority
JP
Japan
Prior art keywords
viewpoint
information
player
tracking
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015071109A
Other languages
Japanese (ja)
Inventor
石井 源久
Motohisa Ishii
源久 石井
博文 本山
Hirofumi Motoyama
博文 本山
嘉明 石井
Yoshiaki Ishii
嘉明 石井
青木 隆
Takashi Aoki
青木  隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2015071109A priority Critical patent/JP2016192029A/en
Publication of JP2016192029A publication Critical patent/JP2016192029A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image generation system and a program that can generate a more appropriate image than an existing image by reducing influences caused by failed tracking of an eye point.SOLUTION: The image generation system includes: an object space setting unit performing processing of setting an object space; an eye point information operating unit setting tracking eye point information obtained by tracking the eye point of a player as eye point information of the player; and an image generating unit generating an image which can be seen from the eye point of the player in the object space, based on the eye point information, the eye point information operating unit further performing processing of estimating the eye point information of the player if the eye point being tracked is in a lost state.SELECTED DRAWING: Figure 9

Description

本発明は、画像生成システム及びプログラム等に関する。   The present invention relates to an image generation system, a program, and the like.

従来より、投影装置(プロジェクタ)により曲面スクリーン(ドーム形状のスクリーン)に対して投影される投影画像を生成するシステムが知られている。例えば曲面スクリーンに対して歪みの少ない投影画像を投影する従来技術としては、特許文献1に開示される技術がある。   2. Description of the Related Art Conventionally, a system that generates a projection image projected on a curved screen (dome-shaped screen) by a projection device (projector) is known. For example, as a conventional technique for projecting a projection image with little distortion on a curved screen, there is a technique disclosed in Patent Document 1.

また、別のアプローチで臨場感を高める画像を生成するシステムとして、立体視画像の生成システムも脚光を浴びている。立体視画像の生成システムの従来技術としては、例えば特許文献2に開示される技術がある。更に、ゲーム画像等を生成して頭部装着型表示装置(ヘッドマウントディスプレイ、HMD)に表示する画像生成システムについても知られている。   In addition, a stereoscopic image generation system is also in the spotlight as a system for generating an image that enhances the sense of reality by another approach. As a conventional technique of a stereoscopic image generation system, for example, there is a technique disclosed in Patent Document 2. Furthermore, an image generation system that generates a game image or the like and displays it on a head-mounted display device (head mounted display, HMD) is also known.

特開2003−85586号公報JP 2003-85586 A 特開2004−126902号公報JP 2004-126902 A

このような画像生成システムにおいては、プレーヤの視点を正確に特定することが重要になる。特に投影画像や立体視画像を生成するシステムにおいては、実際のプレーヤの視点と、画像生成に使用されるオブジェクト空間内でのプレーヤの視点が異なっていると、プレーヤにとって不自然な画像が生成されてしまう。   In such an image generation system, it is important to accurately specify the viewpoint of the player. In particular, in a system that generates projection images and stereoscopic images, an unnatural image for the player is generated if the viewpoint of the actual player is different from the viewpoint of the player in the object space used for image generation. End up.

この場合に、例えば撮像部などの何らかのデバイスを使用して、プレーヤの視点をトラッキングして、トラッキングされた視点での画像を生成するシステムも考えられる。しかしながら、このようなシステムにおいては、視点を常に正確にトラッキングできるとは限らず、トラッキングに失敗した場合には、プレーヤにとって、非常に不自然で違和感のある画像が生成されてしまうおそれがある。   In this case, for example, a system that tracks the player's viewpoint using some device such as an imaging unit and generates an image at the tracked viewpoint can be considered. However, in such a system, it is not always possible to accurately track the viewpoint, and if the tracking fails, an image that is very unnatural and uncomfortable for the player may be generated.

本発明の幾つかの態様によれば、視点のトラッキングが失敗等した場合にも、その影響を軽減し、従来よりも適切な画像を生成できる画像生成システム及びプログラム等を提供できる。   According to some aspects of the present invention, it is possible to provide an image generation system, a program, and the like that can reduce the influence of a viewpoint tracking failure and generate a more appropriate image than before.

本発明の一態様は、オブジェクト空間の設定処理を行うオブジェクト空間設定部と、プレーヤの視点トラッキングにより得られたトラッキング視点情報を、プレーヤの視点情報として設定する視点情報演算部と、前記視点情報に基づいて、前記オブジェクト空間においてプレーヤの視点から見える画像を生成する画像生成部と、を含み、前記視点情報演算部は、トラッキング視点がロスト状態になった場合に、プレーヤの前記視点情報の推定処理を行う画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   One aspect of the present invention includes an object space setting unit that performs an object space setting process, a viewpoint information calculation unit that sets tracking viewpoint information obtained by viewpoint tracking of the player as viewpoint information of the player, and the viewpoint information And an image generation unit that generates an image that can be seen from the viewpoint of the player in the object space, and the viewpoint information calculation unit is configured to estimate the viewpoint information of the player when the tracking viewpoint is in a lost state. It relates to the image generation system that performs. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、視点トラッキングにより得られたトラッキング視点情報が、プレーヤの視点情報として設定され、設定された視点情報に基づいて、オブジェクト空間においてプレーヤの視点から見える画像が生成される。そして、トラッキング視点がロスト状態になった場合には、プレーヤの視点情報の推定処理が行われ、推定処理により得られた視点情報に基づいて、オブジェクト空間においてプレーヤの視点から見える画像が生成されるようになる。このようにすれば、視点のトラッキングが失敗等した場合にも、より適切な画像を生成できる画像生成システム等を提供できるようになる。   According to one aspect of the present invention, tracking viewpoint information obtained by viewpoint tracking is set as player viewpoint information, and an image that is visible from the player's viewpoint in the object space is generated based on the set viewpoint information. . When the tracking viewpoint is lost, the player viewpoint information is estimated, and an image that is visible from the player viewpoint in the object space is generated based on the viewpoint information obtained by the estimation process. It becomes like this. This makes it possible to provide an image generation system or the like that can generate a more appropriate image even when viewpoint tracking fails.

また本発明の一態様では、前記視点情報演算部は、プレーヤを撮影した撮像画像により求められる前記トラッキング視点情報を、プレーヤの前記視点情報として特定してもよい。   In the aspect of the invention, the viewpoint information calculation unit may specify the tracking viewpoint information obtained from the captured image obtained by photographing the player as the viewpoint information of the player.

このようにすれば、プレーヤを撮影する撮像部を設けるだけで、撮像画像を用いてトラッキング視点情報を求めて、オブジェクト空間においてプレーヤの視点から見える画像を生成できるようになる。   In this way, the tracking viewpoint information can be obtained using the captured image and an image that can be seen from the viewpoint of the player can be generated in the object space simply by providing an imaging unit that captures the player.

また本発明の一態様では、前記視点情報演算部は、プレーヤの視点履歴情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行ってもよい。   In the aspect of the invention, the viewpoint information calculation unit may perform the viewpoint information estimation process when the tracking viewpoint is in a lost state based on the viewpoint history information of the player.

このようにすれば、例えば、現在の状況と似通った状況で得られた視点履歴情報等を利用して、視点情報を推定できるようになる。従って、トラッキング視点のロスト状態時において、より適切な視点情報をプレーヤの視点情報として設定して、オブジェクト空間においてプレーヤの視点から見える画像を生成できるようになる。   In this way, for example, viewpoint information can be estimated using viewpoint history information obtained in a situation similar to the current situation. Accordingly, when the tracking viewpoint is in the lost state, more appropriate viewpoint information can be set as the player's viewpoint information, and an image that can be seen from the player's viewpoint in the object space can be generated.

また本発明の一態様では、前記視点情報演算部は、前記視点履歴情報と、プレーヤが操作する移動体の移動情報及びプレーヤの操作情報の少なくとも1つに基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行ってもよい。   In the aspect of the invention, the viewpoint information calculation unit may be configured to detect the tracking viewpoint in a lost state based on at least one of the viewpoint history information, movement information of a moving body operated by the player, and operation information of the player. The viewpoint information may be estimated.

このようにすれば視点履歴情報だけではなく、移動体の移動情報やプレーヤの操作情報を加味して、トラッキング視点のロスト状態時のプレーヤの視点情報を推定できるため、より適切な視点情報をプレーヤの視点情報として設定できるようになる。   In this way, not only the viewpoint history information but also the movement information of the moving body and the operation information of the player can be added to estimate the player's viewpoint information when the tracking viewpoint is in the lost state. Can be set as viewpoint information.

また本発明の一態様では、前記視点情報演算部は、プレーヤが操作する移動体がコース又はマップを移動する場合に、過去に同じエリアに位置したときの前記視点履歴情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行ってもよい。   In the aspect of the invention, the viewpoint information calculation unit may perform the tracking based on the viewpoint history information when the moving body operated by the player moves on a course or a map in the past in the same area. The viewpoint information may be estimated when the viewpoint is in a lost state.

このようにコースやマップにおいて過去に同じエリアに位置したときの視点履歴情報を利用すれば、似通った状況での視点情報を、トラッキング視点のロスト状態時におけるプレーヤの視点情報として設定できるため、より適切な画像を生成できるようになる。   In this way, if you use viewpoint history information when you are located in the same area in the past in a course or map, you can set the viewpoint information in a similar situation as the viewpoint information of the player when the tracking viewpoint is lost, Appropriate images can be generated.

また本発明の一態様では、前記コースは周回コースであり、前記視点情報演算部は、プレーヤが操作する前記移動体が前記周回コースにおいて過去に同じエリアを通過したときの前記視点履歴情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行ってもよい。   In one aspect of the present invention, the course is a round course, and the viewpoint information calculation unit is based on the viewpoint history information when the moving body operated by a player has passed through the same area in the past in the round course. The viewpoint information may be estimated when the tracking viewpoint is in a lost state.

このように、周回コースにおいて過去に同じエリアに通過したときの視点履歴情報を利用すれば、似通った状況での視点情報を、トラッキング視点のロスト状態時におけるプレーヤの視点情報として推定できるようになる。また移動体が周回コースを周回することで、例えば周回ごとに視点履歴情報を取得できるため、候補対象となる視点情報を増やすことができるという利点もある。   In this way, if viewpoint history information when passing through the same area in the past in the circuit course is used, viewpoint information in a similar situation can be estimated as the viewpoint information of the player in the lost state of the tracking viewpoint. . In addition, since the moving body circulates the circuit course, viewpoint history information can be acquired for each circuit, for example, and there is an advantage that viewpoint information to be a candidate target can be increased.

また本発明の一態様では、可動機構を含み、前記視点情報演算部は、前記可動機構の動作情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行ってもよい。   Further, according to an aspect of the present invention, the viewpoint information calculation unit may include a movable mechanism, and the viewpoint information calculation unit may perform the viewpoint information estimation process when the tracking viewpoint is in a lost state based on operation information of the movable mechanism.

このようにすれば、可動機構の動作によりプレーヤの視点が変化した場合等に、そのプレーヤの視点情報を可動機構の動作情報に基づいて推定し、トラッキング視点のロスト状態時のプレーヤの視点情報として設定できるようになる。   In this way, when the player's viewpoint changes due to the movement of the movable mechanism, the viewpoint information of the player is estimated based on the movement information of the movable mechanism, and is used as the player's viewpoint information when the tracking viewpoint is in the lost state. It becomes possible to set.

また本発明の一態様では、前記視点情報演算部は、プレーヤの操作情報又はゲーム状況情報に基づいて、前記可動機構の前記動作情報を求め、前記動作情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行ってもよい。   In the aspect of the invention, the viewpoint information calculation unit obtains the motion information of the movable mechanism based on player operation information or game situation information, and based on the motion information, the tracking viewpoint lost state You may perform the estimation process of the said viewpoint information at the time.

このようにすれば、プレーヤの操作情報やゲーム状況情報に基づいて、可動機構の動作情報を求め、その動作情報に基づき推定された視点情報を、トラッキング視点のロスト状態時のプレーヤの視点情報として設定できるようになる。   In this way, the operation information of the movable mechanism is obtained based on the player operation information and the game situation information, and the viewpoint information estimated based on the operation information is used as the player viewpoint information when the tracking viewpoint is in the lost state. It becomes possible to set.

また本発明の一態様では、前記視点情報演算部は、プレーヤの体格情報、性別情報及び年齢情報の少なくとも1つを含むプレーヤ情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行ってもよい。   In the aspect of the invention, the viewpoint information calculation unit may estimate the viewpoint information when the tracking viewpoint is in a lost state based on player information including at least one of the player's physique information, gender information, and age information. Processing may be performed.

このようにすれば、トラッキング視点がロスト状態になった場合に、プレーヤの体格や性別や年齢などを加味して、視点情報を推定できるため、プレーヤの情報を反映させた、より適切な視点での画像を生成できるようになる。   In this way, when the tracking viewpoint becomes lost, viewpoint information can be estimated taking into account the player's physique, gender, age, etc., so a more appropriate viewpoint that reflects the player's information can be used. It becomes possible to generate images.

また本発明の一態様では、前記視点情報演算部は、複数の候補視点情報の中から、前記プレーヤ情報に基づいて視点情報を選択する処理を、前記トラッキング視点のロスト状態時の前記視点情報の推定処理として行ってもよい。   In the aspect of the invention, the viewpoint information calculation unit may perform a process of selecting viewpoint information based on the player information from among a plurality of candidate viewpoint information. You may perform as an estimation process.

このようにすれば、複数の候補視点情報の中から、プレーヤの体格や性別や年齢などに応じた視点情報を選択して、ラッキング視点のロスト状態時の視点情報を推定できるようになる。   In this way, it becomes possible to estimate the viewpoint information in the lost state of the racking viewpoint by selecting the viewpoint information according to the player's physique, gender, age, etc. from the plurality of candidate viewpoint information.

また本発明の一態様では、前記視点情報演算部は、プレーヤの動作の物理シミュレーション処理の結果情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行ってもよい。   In the aspect of the invention, the viewpoint information calculation unit may perform the estimation process of the viewpoint information when the tracking viewpoint is lost based on the result information of the physical simulation process of the player's motion.

この物理シミュレーション処理には、映像や可動機構の変化に反応する人間の挙動に関するシミュレーションの処理も含まれる。   This physical simulation process includes a simulation process related to human behavior that reacts to changes in video and movable mechanisms.

このようにすれば、物理シミュレーション処理により、プレーヤの動作を特定して、トラッキング視点のロスト状態時のプレーヤの視点情報を推定できるため、現実世界でのプレーヤの視点と似通った視点での画像を生成することが可能になる。   In this way, it is possible to identify the player's movement and to estimate the player's viewpoint information when the tracking viewpoint is in a lost state by the physical simulation process, so that an image with a viewpoint similar to the viewpoint of the player in the real world can be obtained. Can be generated.

また本発明の一態様では、前記画像生成部は、1つの曲面又は複数の面により構成されるプロジェクション用スクリーンの形状情報と、プレーヤの前記視点情報とに基づいて、投影画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate a projection image based on the shape information of the projection screen constituted by one curved surface or a plurality of surfaces and the viewpoint information of the player. Good.

このようにすれば、プロジェクション用スクリーンの形状情報や視点情報を用いることで、プロジェクション用スクリーンの形状を反映させた適切な投影画像を生成できるようになる。そして、トラッキング視点がロスト状態になった場合にも、推定処理により求められた視点情報を用いて投影画像が生成されるため、違和感や不自然さが少ない投影画像を生成できるようになる。   In this way, by using the shape information and viewpoint information of the projection screen, an appropriate projection image reflecting the shape of the projection screen can be generated. Even when the tracking viewpoint is in a lost state, the projection image is generated using the viewpoint information obtained by the estimation process, so that it is possible to generate a projection image with less discomfort and unnaturalness.

また本発明の一態様では、前記画像生成部は、描画バッファ上のピクセルが投影装置の光学系を通して出射される光線と前記プロジェクション用スクリーンとの交点位置と、プレーヤの視点位置とを結ぶ直線を、仮想カメラの視線として、前記描画バッファ上の前記ピクセルの色を決定してもよい。   Also, in one aspect of the present invention, the image generation unit forms a straight line connecting the intersection position between the light beam emitted from the pixels on the drawing buffer through the optical system of the projection apparatus and the projection screen and the viewpoint position of the player. The color of the pixel on the drawing buffer may be determined as the line of sight of the virtual camera.

このようにすれば、ピクセル単位での歪み補正処理を行って、プロジェクション用の投影画像を生成できるようになる。   In this way, it becomes possible to generate a projection image for projection by performing distortion correction processing in units of pixels.

また本発明の一態様では、前記画像生成部は、前記オブジェクト空間内のオブジェクトの頂点位置とプレーヤの視点位置を結ぶ直線と、前記プロジェクション用スクリーンとの交点位置に基づいて、前記オブジェクトに対応する描画オブジェクトについての描画バッファ上での頂点位置を求め、前記頂点位置に基づいて前記描画バッファに前記描画オブジェクトを描画してもよい。   In the aspect of the invention, the image generation unit may correspond to the object based on an intersection position between the projection screen and a straight line connecting the vertex position of the object in the object space and the viewpoint position of the player. A vertex position on the drawing buffer for the drawing object may be obtained, and the drawing object may be drawn in the drawing buffer based on the vertex position.

このようにすれば、頂点単位での歪み補正処理を行って、プロジェクション用の投影画像を生成できるようになる。   In this way, it becomes possible to generate a projection image for projection by performing distortion correction processing in units of vertices.

また本発明の一態様では、前記画像生成部は、プレーヤの前記視点情報に基づいて、立体視用の第1視点画像と第2視点画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate a first viewpoint image and a second viewpoint image for stereoscopic viewing based on the viewpoint information of the player.

このようにすれば、立体視用の第1視点画像、第2視点画像をプレーヤに表示することで、立体視を実現できるようになる。そして、トラッキング視点がロスト状態になった場合にも、推定処理により求められた視点情報を用いて、第1視点画像、第2視点画像が生成されるため、違和感や不自然さが少ない立体視を実現できるようになる。   In this way, stereoscopic viewing can be realized by displaying the first viewpoint image and the second viewpoint image for stereoscopic viewing on the player. Even when the tracking viewpoint is in the lost state, the first viewpoint image and the second viewpoint image are generated using the viewpoint information obtained by the estimation process, so that stereoscopic vision with less sense of incongruity and unnaturalness is generated. Can be realized.

本実施形態の画像生成システムを適用したゲームシステムの一例。An example of the game system to which the image generation system of this embodiment is applied. 本実施形態の画像生成システムを適用したゲームシステムの鉛直断面図。The vertical sectional view of the game system to which the image generation system of this embodiment is applied. 可動機構の構成例。The structural example of a movable mechanism. 本実施形態の画像生成システムの構成例。1 is a configuration example of an image generation system of the present embodiment. 図5(A)〜図5(C)は投影画像の生成に用いられる代表視点の説明図。FIGS. 5A to 5C are explanatory diagrams of representative viewpoints used for generating a projection image. 図6(A)、図6(B)は視点トラッキングの説明図。6A and 6B are explanatory diagrams of viewpoint tracking. 図7(A)、図7(B)も視点トラッキングの説明図。7A and 7B are also explanatory diagrams of viewpoint tracking. 図8(A)〜図8(C)はトラッキング視点のロスト状態についての説明図。FIG. 8A to FIG. 8C are explanatory diagrams of the tracking viewpoint lost state. 本実施形態の手法の処理例を示すフローチャート。The flowchart which shows the process example of the method of this embodiment. 図10(A)〜図10(C)は視点履歴情報を用いる手法の説明図。FIGS. 10A to 10C are explanatory diagrams of a method using viewpoint history information. 図11(A)〜図11(C)は周回コースで移動体を移動させるゲームにおいて視点履歴情報を用いる手法の説明図。FIG. 11A to FIG. 11C are explanatory diagrams of a method using viewpoint history information in a game in which a moving body is moved on a circuit course. 複数の視点履歴情報の中から移動体の移動情報等を用いて視点情報を選択する手法の説明図。Explanatory drawing of the method of selecting viewpoint information using the movement information etc. of a mobile body from several viewpoint historical information. 視点履歴情報に基づいてプレーヤの視点情報を推定する手法の処理例を示すフローチャート。The flowchart which shows the process example of the method of estimating a player's viewpoint information based on viewpoint history information. 可動機構の動作情報に基づいてプレーヤの視点情報を推定する手法の処理例を示すフローチャート。The flowchart which shows the process example of the method of estimating a player's viewpoint information based on the operation information of a movable mechanism. 図15(A)〜図15(C)は可動機構の動作情報に基づいてプレーヤの視点情報を推定する手法の説明図。FIGS. 15A to 15C are explanatory diagrams of a method for estimating the viewpoint information of the player based on the operation information of the movable mechanism. プレーヤ情報に基づいてプレーヤの視点情報を推定する手法の処理例を示すフローチャート。The flowchart which shows the process example of the method of estimating the viewpoint information of a player based on player information. 物理シミュレーション処理によりプレーヤの視点情報を推定する手法の処理例を示すフローチャート。The flowchart which shows the process example of the method of estimating a player's viewpoint information by a physical simulation process. 図18(A)〜図18(C)は物理シミュレーション処理によりプレーヤの視点情報を推定する手法の説明図。FIG. 18A to FIG. 18C are explanatory diagrams of a method for estimating the player's viewpoint information by physical simulation processing. 描画バッファのピクセル単位での歪み補正手法の説明図。Explanatory drawing of the distortion correction method per pixel of a drawing buffer. ピクセル単位での歪み補正に代理平面を用いる手法の説明図。Explanatory drawing of the method of using a surrogate plane for distortion correction per pixel. ピクセル単位での歪み補正に代理平面を用いる手法での描画バッファ、UVマップ、レンダーテクスチャの関係を示す図。The figure which shows the relationship between the drawing buffer by the method of using a substitute plane for distortion correction per pixel, a UV map, and a render texture. オブジェクトの頂点単位での歪み補正手法の説明図。Explanatory drawing of the distortion correction method in the vertex unit of an object. 図23(A)〜図23(C)は立体視画像を生成する手法の説明図。23A to 23C are explanatory diagrams of a method for generating a stereoscopic image. HMDに表示する画像を生成する手法の説明図。Explanatory drawing of the method of producing | generating the image displayed on HMD.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に、本実施形態の画像生成システムを適用したゲームシステム(ゲーム装置)の構成例を示す。図2は、このゲームシステムの鉛直断面図である。
1. Configuration FIG. 1 shows a configuration example of a game system (game device) to which the image generation system of this embodiment is applied. FIG. 2 is a vertical sectional view of the game system.

図1、図2のゲームシステムは、アミューズメント施設に設置されてレーシングゲームをプレーヤがプレイするための業務用のゲームシステムである。このゲームシステムは、プレーヤが座るシート10と、制御基板16と、ゲーム画像である投影画像が投影される曲面形状のスクリーン20と、スクリーン20に投影画像(映像)を投影する投影装置30と、視点トラッキング用の撮像部40と、可動機構60と、ゲーム音を出力するスピーカ(不図示)を備えている。また、プレーヤが操作情報を入力するためのハンドル50、ブレーキペダル52、アクセルペダル54、シフトレバー56と、カードリーダー58と、コイン投入口59を備えている。   The game system shown in FIGS. 1 and 2 is a business game system installed in an amusement facility for a player to play a racing game. The game system includes a seat 10 on which a player sits, a control board 16, a curved screen 20 on which a projection image that is a game image is projected, a projection device 30 that projects a projection image (video) on the screen 20, An imaging unit 40 for viewpoint tracking, a movable mechanism 60, and a speaker (not shown) that outputs game sound are provided. Further, a handle 50, a brake pedal 52, an accelerator pedal 54, a shift lever 56, a card reader 58, and a coin insertion slot 59 are provided for the player to input operation information.

可動機構60は、可動対象物であるシート10の方向(姿勢)や位置を変化させるものである。例えば可動機構60は、加速・減速や、コーナリングの荷重や、路面の凹凸をプレーヤに体感させるための動作を行う。可動機構60は制御基板16からの動作信号により動作する。   The movable mechanism 60 changes the direction (posture) and position of the sheet 10 that is a movable object. For example, the movable mechanism 60 performs operations for causing the player to experience acceleration / deceleration, cornering load, and road surface unevenness. The movable mechanism 60 operates according to an operation signal from the control board 16.

シート10は、基本位置・基本姿勢である場合に、着座したプレーヤの想定正視方向がスクリーン20の中央付近を向くように、可動機構60によりその位置・姿勢が設定される。本実施形態では、着座したプレーヤの正面方向を想定正視方向としている。スクリーン20は、基本位置・姿勢のシート10に着座したプレーヤの正面方向(想定正視方向)に対して、凸形状に形成されている。   When the seat 10 is in the basic position / basic posture, the position / posture is set by the movable mechanism 60 so that the assumed normal viewing direction of the seated player faces the center of the screen 20. In the present embodiment, the front direction of the player who is seated is the assumed normal viewing direction. The screen 20 is formed in a convex shape with respect to the front direction (assumed normal viewing direction) of the player seated on the seat 10 at the basic position / posture.

制御基板16には、CPU、GPU又はDSP等の各種プロセッサや、ASICや、VRAM、RAM又はROM等の各種メモリが実装されている。そして、制御基板16は、メモリに記憶されたプログラムやデータや、ハンドル50等を操作するプレーヤの操作情報等に基づいて、レーシングゲームを実現するための各種処理を行う。   The control board 16 is mounted with various processors such as a CPU, GPU or DSP, and various memories such as an ASIC, VRAM, RAM or ROM. The control board 16 performs various processes for realizing a racing game based on programs and data stored in the memory, operation information of a player who operates the handle 50, and the like.

投影装置30(プロジェクタ)は、筐体フレーム14に支持されて、シート10の上方であってシート10に着座したプレーヤに干渉しない位置に、その投影中心方向がスクリーン20の中心付近を向くように設置されている。即ち、投影中心方向がプレーヤの想定正視方向とスクリーン20との交点位置に向くように設置される。また、投影装置30には、投影レンズとして広角レンズ(例えば魚眼レンズ、即ち画角が180度を超えるような超広角レンズ)が取り付けられており、この広角レンズを通して、投影画像がスクリーン20の投影領域の全体に投影される。   The projection device 30 (projector) is supported by the housing frame 14 so that the projection center direction thereof faces the vicinity of the center of the screen 20 at a position above the seat 10 and not interfering with the player seated on the seat 10. is set up. In other words, the projection center direction is set so as to face the intersection point between the assumed normal viewing direction of the player and the screen 20. Further, the projection device 30 is provided with a wide-angle lens (for example, a fish-eye lens, that is, a super-wide-angle lens with an angle of view exceeding 180 degrees) as a projection lens, and a projection image is projected onto the projection area of the screen 20 through the wide-angle lens. Projected to the whole.

プレーヤは、シート10に着座して、スクリーン20に表示されるゲーム画面を見ながら、スピーカからのゲーム音を聞きつつ、ハンドル50、アクセルペダル52、ブレーキペダル54、シフトレバー56を操作してカーレースゲームを楽しむ。   The player sits on the seat 10 and operates the steering wheel 50, the accelerator pedal 52, the brake pedal 54, and the shift lever 56 while listening to the game sound from the speaker while watching the game screen displayed on the screen 20. Enjoy the racing game.

本実施形態のレースゲームでは、オブジェクト空間(仮想3次元空間)に、レースのコース等の背景オブジェクトが配置されてゲーム空間が構成される。このオブジェクト空間内には、プレーヤカーや他プレーヤカー等の各種オブジェクトが配置されると共に、プレーヤの視点位置に仮想カメラが配置される。そして、この仮想カメラから見たオブジェクト空間の画像が、ゲーム画像として、プロジェクタ30によってスクリーン20に投影(表示)される。   In the race game of the present embodiment, a game space is configured by arranging background objects such as a race course in an object space (virtual three-dimensional space). In the object space, various objects such as a player car and other player cars are arranged, and a virtual camera is arranged at the viewpoint position of the player. Then, the image of the object space viewed from the virtual camera is projected (displayed) on the screen 20 by the projector 30 as a game image.

図3に可動機構60(可動筺体)の構成例を示す。可動機構60は、可動対象物と、可動対象物を動かすアクチュエータを有する。図3では、可動対象物はシート10であり、アクチェエータは電動シリンダ73、74である。電動シリンダ73、74は、図1の制御基板16(処理部)からの電気信号である動作信号(広義には動作情報)に基づいて、A1、A2に示すようにロッド部を直線運動させる。電動シリンダ73、74は、ステッピングモータやボールねじを有しており、ステッピングモータでボールネジを回転させることで、ロッド部の直線運動を実現する。そして、このように電動シリンダ73、74のロッド部が直線運動することで、図3のA3、A4に示すようにシート10の方向(姿勢)や位置が変化する動作が実現される。   FIG. 3 shows a configuration example of the movable mechanism 60 (movable housing). The movable mechanism 60 includes a movable object and an actuator that moves the movable object. In FIG. 3, the movable object is the seat 10, and the actuators are the electric cylinders 73 and 74. The electric cylinders 73 and 74 linearly move the rod portion as indicated by A1 and A2 based on an operation signal (operation information in a broad sense) that is an electric signal from the control board 16 (processing portion) in FIG. The electric cylinders 73 and 74 have a stepping motor and a ball screw, and the linear motion of the rod portion is realized by rotating the ball screw with the stepping motor. Then, the rod portions of the electric cylinders 73 and 74 are linearly moved in this manner, thereby realizing an operation of changing the direction (posture) and position of the seat 10 as shown in A3 and A4 of FIG.

具体的には、ゲームシステムの筺体の底部12には、基台62が設けられており、基台62にはヒンジ部63、64が設けられている。そして電動シリンダ73、74の一端は、ヒンジ部63、64により基台62に取り付けられる。具体的にはヒンジ部63、64は、水平方向であるX軸回りに回動自在となるように電動シリンダ73、74の一端を支持している。なおヒンジ部63、64を、鉛直方向であるY軸の回りで回動自在となるように基台62に取り付けてよい。またシート10の背もたれ部の裏面側には取り付け板80が設けられており、取り付け板80には、ヒンジ部83、84が設けられている。そして電動シリンダ73、74の他端は、ヒンジ部83、84により取り付け板80に取り付けられる。具体的にはヒンジ部83、84は、X軸回りに回動自在となるように電動シリンダ73、74の他端を支持している。   Specifically, a base 62 is provided on the bottom 12 of the chassis of the game system, and hinges 63 and 64 are provided on the base 62. One ends of the electric cylinders 73 and 74 are attached to the base 62 by hinge portions 63 and 64. Specifically, the hinge portions 63 and 64 support one ends of the electric cylinders 73 and 74 so as to be rotatable around the X axis that is the horizontal direction. In addition, you may attach the hinge parts 63 and 64 to the base 62 so that rotation around the Y-axis which is a perpendicular direction is possible. A mounting plate 80 is provided on the back side of the back portion of the seat 10, and hinge portions 83 and 84 are provided on the mounting plate 80. The other ends of the electric cylinders 73 and 74 are attached to the attachment plate 80 by hinge portions 83 and 84. Specifically, the hinge portions 83 and 84 support the other ends of the electric cylinders 73 and 74 so as to be rotatable around the X axis.

基台62には、ヒンジ部65、66が設けられ、ヒンジ部65、66には支持部75、76の一端が取り付けられている。そして、支持部75、76の他端はシート10の座部(裏面)に取り付けられる。例えば支持部75、76は、鉛直方向であるY軸の回りで回動自在となるようにシート10の座部を支持している。   Hinge portions 65 and 66 are provided on the base 62, and one ends of support portions 75 and 76 are attached to the hinge portions 65 and 66. The other ends of the support portions 75 and 76 are attached to the seat portion (back surface) of the seat 10. For example, the support portions 75 and 76 support the seat portion of the seat 10 so as to be rotatable around the Y axis that is the vertical direction.

図3の可動機構60では、電動シリンダ73のロッド部が伸張方向に直線運動して長くなり、電動シリンダ74のロッド部が退避方向に直線運動して短くなると、シート10(座部)がY軸回りにおいて例えば右回りに回転するように動作する。また電動シリンダ73のロッド部が退避方向に直線運動して短くなり、電動シリンダ74のロッド部が伸張方向に直線運動して長くなると、例えばシート10が左回りに回転するように動作する。このように可動機構60が動作することで、車等の移動体のコーナリングをプレーヤに体感させることができる。   In the movable mechanism 60 of FIG. 3, when the rod portion of the electric cylinder 73 linearly moves in the extension direction and becomes long, and when the rod portion of the electric cylinder 74 linearly moves in the retraction direction and becomes short, the seat 10 (seat portion) becomes Y For example, it rotates to rotate clockwise around the axis. Further, when the rod portion of the electric cylinder 73 is linearly moved in the retracting direction to be shortened and the rod portion of the electric cylinder 74 is linearly moved to be in the extension direction to be long, for example, the seat 10 is operated to rotate counterclockwise. By operating the movable mechanism 60 in this way, the player can experience cornering of a moving body such as a car.

また、路面の凹凸等をプレーヤに体感させる場合には、ロッド部が微少のストローク距離で直線運動するように、電動シリンダ73、74を制御すればよい。   In order to allow the player to experience road surface irregularities and the like, the electric cylinders 73 and 74 may be controlled so that the rod portion linearly moves with a minute stroke distance.

なお、図3は可動機構60の構成の一例であり、本実施形態の可動機構60は図3の構成に限定されず、種々の変形実施が可能である。例えば可動機構60は、プレーヤの視点位置及び視線方向の少なくとも一方を変化させるような動作を行う機構(機械)である。可動機構60は、本実施形態の画像生成システム(処理部)からの動作情報(例えば電気信号である動作信号)に基づいて動作する。そして可動機構60が動作することで、プレーヤが着座するシート10(広義には、可動対象物、或いはプレーヤが搭乗する搭乗部)の位置及び方向(姿勢)の少なくとも一方が変化し、その結果、プレーヤの視点位置及び視線方向の少なくとも一方が変化する。   3 is an example of the configuration of the movable mechanism 60, and the movable mechanism 60 of the present embodiment is not limited to the configuration of FIG. 3, and various modifications can be made. For example, the movable mechanism 60 is a mechanism (machine) that performs an operation that changes at least one of the viewpoint position and the line-of-sight direction of the player. The movable mechanism 60 operates based on operation information (for example, an operation signal that is an electrical signal) from the image generation system (processing unit) of the present embodiment. As the movable mechanism 60 operates, at least one of the position and direction (orientation) of the seat 10 on which the player sits (in a broad sense, the movable object or the riding section on which the player rides) changes, and as a result, At least one of the viewpoint position and the line-of-sight direction of the player changes.

図4に本実施形態の画像生成システムのブロック図の例を示す。なお、本実施形態の画像生成システムの構成は図4に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   FIG. 4 shows an example of a block diagram of the image generation system of the present embodiment. Note that the configuration of the image generation system according to the present embodiment is not limited to that shown in FIG. 4, and various modifications may be made such as omitting some of the components (each unit) or adding other components. .

撮像部40(カメラ)は、レンズ等の光学系と、撮像素子を有する。レンズは、例えば撮像素子に像を映すレンズである。撮像素子は、例えばCCD又はCMOSセンサーなどにより実現される。   The imaging unit 40 (camera) includes an optical system such as a lens and an imaging element. The lens is a lens that projects an image on an image sensor, for example. The imaging element is realized by, for example, a CCD or CMOS sensor.

可動機構60(稼働筺体)は、シート10等の可動対象物を動作させるための機構(機械)であり、その詳細は図3に示した通りである。   The movable mechanism 60 (working housing) is a mechanism (machine) for operating a movable object such as the sheet 10 and the details thereof are as shown in FIG.

操作部160は、プレーヤが操作情報を入力するためのものである。図1、図2のゲームシステムでは、操作部160は、ハンドル50、ブレーキペダル52、アクセルペダル54、シフトレバー56や、不図示の操作ボタン等により実現できる。   The operation unit 160 is for a player to input operation information. 1 and 2, the operation unit 160 can be realized by the handle 50, the brake pedal 52, the accelerator pedal 54, the shift lever 56, an operation button (not shown), and the like.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like. Then, the game program and game data necessary for executing the game program are held in the storage unit 170.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD、BD)、HDD(ハードディスクドライブ)、SSD(ソリッドステートドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   An information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions thereof are an optical disk (CD, DVD, BD), HDD (hard disk drive), and SSD (solid state drive). Alternatively, it can be realized by a memory (ROM or the like). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

表示部190は、本実施形態により生成された画像を表示するものである。図1、図2の場合には、表示部190は、液晶プロジェクタにおけるLCDや、DLPプロジェクタにおけるDMDなどにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 displays an image generated according to the present embodiment. In the case of FIGS. 1 and 2, the display unit 190 can be realized by an LCD in a liquid crystal projector, a DMD in a DLP projector, or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。   The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card.

通信部196は、有線や無線のネットワークを介して外部(例えば他の画像生成システム、サーバ、ホスト装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (for example, another image generation system, a server, or a host device) via a wired or wireless network, and functions as a communication ASIC, a communication processor, or the like. It can be realized by hardware and communication firmware.

処理部100(プロセッサ)は、操作部160からの操作情報やプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs game processing, image generation processing, sound generation processing, or the like based on operation information from the operation unit 160, a program, or the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), and programs.

処理部100は、ゲーム演算部102、オブジェクト空間設定部104、移動体演算部106、視点情報演算部108、仮想カメラ制御部110、画像生成部120、音生成部130を含む。なおこれらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes a game calculation unit 102, an object space setting unit 104, a moving body calculation unit 106, a viewpoint information calculation unit 108, a virtual camera control unit 110, an image generation unit 120, and a sound generation unit 130. Various modifications may be made such as omitting some of these components (each unit) or adding other components.

ゲーム演算部102はゲーム演算処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 102 performs game calculation processing. Here, as a game calculation, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a process for ending a game when a game end condition is satisfied and so on.

オブジェクト空間設定部104は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行う。例えば、移動体(人、動物、ロボット、車、飛行機、船舶機等)、マップ(地形)、建物、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部172には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部104は、例えば各フレーム毎にこのオブジェクトデータを更新する処理などを行う。   The object space setting unit 104 performs an object space setting process in which a plurality of objects are arranged. For example, various objects (polygons, free-form surfaces) representing display objects such as moving objects (people, animals, robots, cars, airplanes, marine aircraft, etc.), maps (terrain), buildings, courses (roads), trees, walls, water surfaces, etc. Or an object configured with a primitive surface such as a subdivision surface) is set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Place the object. Specifically, the object data storage unit 172 of the storage unit 170 stores object data such as the position, rotation angle, moving speed, moving direction, etc. of the object (part object) in association with the object number. . The object space setting unit 104 performs a process of updating the object data for each frame, for example.

移動体演算部106は、人、動物、車、飛行機等の移動体(移動体オブジェクト)を移動させるための制御処理を行う。また移動体を動作させるための制御処理を行う。即ち操作部160によりプレーヤが入力した操作情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(オブジェクト、モデルオブジェクト)をオブジェクト空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The moving object calculation unit 106 performs control processing for moving a moving object (moving object) such as a person, an animal, a car, or an airplane. Also, control processing for operating the moving body is performed. That is, based on operation information input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), etc., a moving object (object, model object) is moved in the object space, Performs control processing to move the moving body (motion, animation). Specifically, a simulation process for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (1/60 second). I do. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object.

仮想カメラ制御部110は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは視野範囲を制御する処理)を行う。仮想カメラ制御部110の仮想カメラの制御は、例えば視点情報演算部108により求められたプレーヤの視点情報に基づき実現できる。   The virtual camera control unit 110 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or rotation angle (rotation angle around the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position, the line-of-sight direction, or the visual field range). I do. The virtual camera control of the virtual camera control unit 110 can be realized based on the viewpoint information of the player obtained by the viewpoint information calculation unit 108, for example.

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、歪み補正用の変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、ジオメトリ処理後のオブジェクト(1又は複数プリミティブ面)を、描画バッファ176(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、画像生成部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The image generation unit 120 performs drawing processing based on the results of various processing (game processing and simulation processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, distortion correction transformation, or light source processing is performed, and drawing data ( The position coordinates, texture coordinates, color data, normal vector, α value, etc.) of the vertexes of the primitive surface are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after the geometry processing is stored in a drawing buffer 176 (a buffer that can store image information in units of pixels such as a frame buffer and a work buffer). draw. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that the drawing processing performed by the image generation unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

そして本実施形態の画像生成システムは、図4に示すように、オブジェクト空間設定部104と、視点情報演算部108と、画像生成部120を含む。   And the image generation system of this embodiment contains the object space setting part 104, the viewpoint information calculating part 108, and the image generation part 120, as shown in FIG.

オブジェクト空間設定部104は、オブジェクト空間の設定処理を行う。即ち、オブジェクト空間内に複数のオブジェクトを配置設定するための処理を行う。   The object space setting unit 104 performs an object space setting process. That is, a process for arranging and setting a plurality of objects in the object space is performed.

視点情報演算部108は、プレーヤの視点トラッキングにより得られたトラッキング視点情報を、プレーヤの視点情報として設定する。例えばアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの視点トラッキング手法により、現実空間でのプレーヤの視点情報を特定する。トラッキング視点情報は、視点トラッキングにより求められた視点情報である。このトラッキング視点情報を求める視点トラッキングの手法としては、公知の種々の手法を採用できる。   The viewpoint information calculation unit 108 sets tracking viewpoint information obtained by the viewpoint tracking of the player as the viewpoint information of the player. For example, the viewpoint information of the player in the real space is specified by a viewpoint tracking method such as eye tracking, face tracking, or head tracking. The tracking viewpoint information is viewpoint information obtained by viewpoint tracking. As a viewpoint tracking method for obtaining the tracking viewpoint information, various known methods can be employed.

また、プレーヤの視点情報は、プレーヤの視点位置及び視線方向の少なくとも一方を含む情報である。なお、視点情報は、複数の視点位置・視線方向の情報や、それ以外の情報(例えば両眼間隔の情報等)を含んでもよい。   The player's viewpoint information is information including at least one of the player's viewpoint position and line-of-sight direction. The viewpoint information may include information on a plurality of viewpoint positions and line-of-sight directions, and other information (for example, information on the binocular interval).

画像生成部120は、特定された視点情報に基づいて、オブジェクト空間においてプレーヤの視点から見える画像を生成する。例えば現実空間での視点情報に基づいて、その視点情報に対応する、オブジェクト空間内での視点位置や視線方向を特定し、その視点から見える画像を生成する。生成される画像は、1つの曲面又は複数の面で構成されスクリーンに投影される投影用画像であってもよいし、立体視を実現する立体視画像であってもよい。その立体視画像は、平面のディスプレイに表示されるものであってもよいし、1つの曲面又は複数の面で構成されるスクリーンに立体視画像が投影されるものであってもよい。或いはHMD(頭部装着型表示装置)に表示する画像であってもよい。   The image generation unit 120 generates an image that can be seen from the viewpoint of the player in the object space based on the identified viewpoint information. For example, based on the viewpoint information in the real space, the viewpoint position and the line-of-sight direction in the object space corresponding to the viewpoint information are specified, and an image that can be seen from the viewpoint is generated. The generated image may be a projection image configured by one curved surface or a plurality of surfaces and projected on a screen, or may be a stereoscopic image that realizes stereoscopic vision. The stereoscopic image may be displayed on a flat display, or the stereoscopic image may be projected on a screen formed of one curved surface or a plurality of surfaces. Alternatively, an image displayed on an HMD (head-mounted display device) may be used.

そして本実施形態では、視点情報演算部108は、トラッキング視点がロスト状態になった場合に、プレーヤの視点情報の推定処理(決定処理)を行う。例えば、何らかの理由で、プレーヤの視点(現実世界での視点)を捕捉できなくなり、トラッキング視点の情報を取得できなくなる状態(ロスト状態)になった場合に、プレーヤの視点情報の推定処理を行う。   In this embodiment, the viewpoint information calculation unit 108 performs the viewpoint information estimation process (determination process) of the player when the tracking viewpoint is in a lost state. For example, when the player's viewpoint (the viewpoint in the real world) cannot be captured for some reason and the tracking viewpoint information cannot be acquired (lost state), the player's viewpoint information is estimated.

例えば、視点トラッキングが成功している状態では、視点情報演算部108は、視点トラッキングにより取得されたトラッキング視点情報を、プレーヤの視点情報として設定(特定)する。そして画像生成部120は、設定された視点情報に基づいて、オブジェクト空間においてプレーヤの視点から見える画像を生成する。一方、視点トラッキングがロスト状態になった場合には、視点情報演算部108は、プレーヤの視点情報の推定処理を行う。そして画像生成部120は、推定処理により得れた視点情報に基づいて、オブジェクト空間においてプレーヤの視点から見える画像を生成する。即ち、推定されたプレーヤの視点に対応するオブジェクト空間内の視点位置において見える画像を生成する。   For example, in a state where the viewpoint tracking is successful, the viewpoint information calculation unit 108 sets (identifies) the tracking viewpoint information acquired by the viewpoint tracking as the viewpoint information of the player. Then, the image generation unit 120 generates an image that can be seen from the viewpoint of the player in the object space, based on the set viewpoint information. On the other hand, when the viewpoint tracking is in a lost state, the viewpoint information calculation unit 108 performs a process for estimating the viewpoint information of the player. Then, the image generation unit 120 generates an image that can be seen from the viewpoint of the player in the object space, based on the viewpoint information obtained by the estimation process. In other words, an image that is visible at the viewpoint position in the object space corresponding to the estimated viewpoint of the player is generated.

例えば視点情報演算部108は、プレーヤを撮影した撮像画像により求められるトラッキング視点情報を、プレーヤの視点情報として設定する。例えば図1、図2に示すように、本実施形態では、プレーヤを撮影する撮像部40が設けられている。この撮像部40は、例えば少なくともプレーヤの顔を撮影できる位置に設置される。即ち、プレーヤを正面方向から見ることができる位置において、その撮影方向(光軸方向)がプレーヤ(プレーヤの顔)の方を向くように、設置されている。そして、視点情報演算部108は、この撮像部40からの撮像画像(画像データ)により求められたトラッキング視点情報を、プレーヤの視点情報として設定する。この撮像部40は通常のカメラであっても、顔の大きさや両眼の間隔から、ある程度は奥行き方向も含めた視点位置を推定できるが、より精確に求めるには、複数のカラーカメラを用いることで距離方向に対しても位置を取得できる構成としてもよい。また、通常のカラーカメラに加えて距離情報を取得することができる測距カメラを備えた物であってもよい。   For example, the viewpoint information calculation unit 108 sets tracking viewpoint information obtained from a captured image obtained by photographing the player as the viewpoint information of the player. For example, as shown in FIGS. 1 and 2, in the present embodiment, an imaging unit 40 that photographs the player is provided. The imaging unit 40 is installed, for example, at a position where at least the player's face can be photographed. That is, it is installed such that the shooting direction (optical axis direction) faces the player (player's face) at a position where the player can be seen from the front. Then, the viewpoint information calculation unit 108 sets the tracking viewpoint information obtained from the captured image (image data) from the imaging unit 40 as the viewpoint information of the player. Even if the imaging unit 40 is a normal camera, the viewpoint position including the depth direction can be estimated to some extent from the size of the face and the distance between both eyes, but a plurality of color cameras are used for more accurate determination. It is good also as a structure which can acquire a position also with respect to a distance direction. Further, in addition to a normal color camera, an object provided with a distance measuring camera that can acquire distance information may be used.

また視点情報演算部108は、プレーヤの視点履歴情報に基づいて、トラッキング視点のロスト状態時の視点情報の推定処理を行う。視点履歴情報(視点移動履歴情報)は、例えば過去に視点トラッキング等の視点演算処理により求められた視点情報群である。この視点履歴情報は、記憶部170の視点履歴情報記憶部177に記憶されている。なお視点履歴情報は、本実施形態の画像生成システムとは別の装置で生成された情報であってもよい。この場合には、ネットワークを介して、或いは補助記憶装置194を介して、この視点履歴情報を取得して、視点履歴情報記憶部177に記憶すればよい。   The viewpoint information calculation unit 108 performs viewpoint information estimation processing when the tracking viewpoint is in a lost state based on the viewpoint history information of the player. The viewpoint history information (viewpoint movement history information) is a viewpoint information group obtained by viewpoint calculation processing such as viewpoint tracking in the past, for example. This viewpoint history information is stored in the viewpoint history information storage unit 177 of the storage unit 170. The viewpoint history information may be information generated by a device different from the image generation system of the present embodiment. In this case, the viewpoint history information may be acquired via the network or the auxiliary storage device 194 and stored in the viewpoint history information storage unit 177.

例えば視点情報演算部108は、視点履歴情報と、プレーヤが操作する移動体の移動情報及びプレーヤの操作情報の少なくとも1つに基づいて、トラッキング視点のロスト状態時の視点情報の推定処理を行う。移動体は、プレーヤの操作に基づいてオブジェクト空間を移動するオブジェクトである。移動体の移動情報は、移動体の位置、速度、加速度、角速度、或いは角加速度等である。なお、ここでいう速度や加速度とは、一般的にはベクトル量である。或いは移動体の移動情報は移動体の移動経路等であってもよい。プレーヤの操作情報は、プレーヤが操作部160を操作することで得られる情報である。この操作情報は、プレーヤの過去の操作情報である操作履歴情報であってもよい。   For example, the viewpoint information calculation unit 108 performs viewpoint information estimation processing when the tracking viewpoint is lost based on at least one of viewpoint history information, movement information of a moving body operated by the player, and operation information of the player. The moving body is an object that moves in the object space based on the operation of the player. The movement information of the moving body is the position, speed, acceleration, angular velocity, angular acceleration, or the like of the moving body. Note that the velocity and acceleration here are generally vector quantities. Alternatively, the moving information of the moving body may be a moving path of the moving body. The player operation information is information obtained by the player operating the operation unit 160. This operation information may be operation history information that is past operation information of the player.

例えば視点履歴情報記憶部177には、候補となる複数の視点履歴情報が記憶されており、視点情報演算部108は、移動体の移動情報やプレーヤの操作情報に基づいて、これらの複数の視点履歴情報の中から視点履歴情報(視点情報)を選択し、選択された視点履歴情報に基づいて、プレーヤの視点情報を設定(推定)する。   For example, the viewpoint history information storage unit 177 stores a plurality of candidate viewpoint history information, and the viewpoint information calculation unit 108 selects the plurality of viewpoints based on the movement information of the moving object and the operation information of the player. The viewpoint history information (viewpoint information) is selected from the history information, and the player's viewpoint information is set (estimated) based on the selected viewpoint history information.

例えば、視点情報演算部108は、複数の視点履歴情報の中から、移動体の位置が第1の位置である場合には第1の視点履歴情報(第1の視点情報)を選択し、第2の位置である場合には第2の視点履歴情報(第2の視点情報)を選択する。また視点情報演算部108は、複数の視点履歴情報の中から、移動体の速度(又は加速度、角速度、角加速度)が第1の速度(第1の加速度、角速度、角加速度)である場合には第1の視点履歴情報(第1の視点情報)を選択し、第2の速度(第2の加速度、角速度、角加速度)である場合には第2の視点履歴情報(第2の視点情報)を選択する。また視点情報演算部108は、複数の視点履歴情報の中から、プレーヤが第1の操作(例えばハンドルを左に切る、アクセルペダルを踏む)を行っていた場合には、第1の視点履歴情報(第1の視点情報)を選択し、プレーヤが第2の操作(例えばハンドルを右に切る、ブレーキペダルを踏む)を行っていた場合には、第2の視点履歴情報(第2の視点情報)を選択する。   For example, the viewpoint information calculation unit 108 selects the first viewpoint history information (first viewpoint information) from the plurality of viewpoint history information when the position of the moving object is the first position, If the position is 2, the second viewpoint history information (second viewpoint information) is selected. In addition, the viewpoint information calculation unit 108, when the speed (or acceleration, angular velocity, angular acceleration) of the moving body is the first speed (first acceleration, angular velocity, angular acceleration) among the plurality of viewpoint history information. Selects the first viewpoint history information (first viewpoint information), and if it is the second speed (second acceleration, angular velocity, angular acceleration), the second viewpoint history information (second viewpoint information) ) Is selected. The viewpoint information calculation unit 108 also sets the first viewpoint history information when the player has performed a first operation (for example, turning the steering wheel to the left or stepping on the accelerator pedal) from among a plurality of viewpoint history information. When (first viewpoint information) is selected and the player is performing a second operation (for example, turning the steering wheel to the right or pressing the brake pedal), the second viewpoint history information (second viewpoint information) is selected. ) Is selected.

また視点情報演算部108は、プレーヤが操作する移動体がコース又はマップを移動する場合に、過去に同じエリア(コースブロック、マップブロック)に位置したときの視点履歴情報に基づいて、トラッキング視点のロスト状態時の視点情報の推定処理を行う。ここでコースは、オブジェクト空間内において、車等の移動体が移動すべき経路として設定されているものである。このコースは、カーレーシングゲームなどに用いられる。コースは、例えばその進行方向に交差(直交)する方向において所与の幅を有している。コースの形状データやコースの各位置での走行条件設定データ等が、コースデータとしてコースデータ記憶部178に記憶されている。またマップは、オブジェクト空間内において、キャラクタ等の移動体が移動するフィールドとなるものである。このマップの地形データやマップの各位置でのゲーム条件設定データ等が、マップデータとしてマップデータ記憶部179に記憶されている。   In addition, when the moving body operated by the player moves on the course or the map, the viewpoint information calculation unit 108 determines the tracking viewpoint based on the viewpoint history information when it is located in the same area (course block or map block) in the past. Estimating viewpoint information in the lost state. Here, the course is set as a route on which a moving body such as a car should move in the object space. This course is used for car racing games and the like. The course has a given width, for example, in a direction intersecting (orthogonal) with its traveling direction. Course shape data, running condition setting data at each position of the course, and the like are stored in the course data storage unit 178 as course data. The map is a field in which a moving body such as a character moves in the object space. The map terrain data, game condition setting data at each position of the map, and the like are stored in the map data storage unit 179 as map data.

移動体演算部106は、操作部160からのプレーヤの操作情報に基づいて、コース又はマップで移動体を移動させる演算処理を行う。そして移動体が、コース又はマップの第1のエリア(第1のコースブロック、第1のマップブロック)に位置する場合には、視点情報演算部108は、過去にその第1のエリアに移動体が位置したときの視点履歴情報を読み出す。例えば第1のエリアに対応づけられた視点履歴情報を読み出す。そして読み出された視点履歴情報に基づいて、移動体が第1のエリアに位置するときのプレーヤの視点情報を特定する。同様に、移動体が、コース又はマップの第2のエリア(第2のコースブロック、第2のマップブロック)に位置する場合には、視点情報演算部108は、過去にその第2のエリアに移動体が位置したときの視点履歴情報を読み出す。例えば第2のエリアに対応づけられた視点履歴情報を読み出す。そして読み出された視点履歴情報に基づいて、移動体が第2のエリアに位置するときのプレーヤの視点情報を特定する。   The moving object calculation unit 106 performs calculation processing for moving the moving object on the course or the map based on the operation information of the player from the operation unit 160. When the moving object is located in the first area (first course block, first map block) of the course or the map, the viewpoint information calculation unit 108 moves the moving object to the first area in the past. Read viewpoint history information when is located. For example, the viewpoint history information associated with the first area is read. Based on the read viewpoint history information, the viewpoint information of the player when the moving body is located in the first area is specified. Similarly, when the moving body is located in the second area of the course or the map (second course block, second map block), the viewpoint information calculation unit 108 moves to the second area in the past. Read viewpoint history information when the moving body is located. For example, the viewpoint history information associated with the second area is read. Based on the read viewpoint history information, the viewpoint information of the player when the moving body is located in the second area is specified.

この場合に、コースとしては、周回コースを用いることができる。周回コースは、競争ゲーム等において、移動体が、1周、2周、3周というように何周も周回することができるコースである。視点情報演算部108は、プレーヤが操作する移動体が、この周回コースにおいて過去に同じエリアを通過したときの視点履歴情報に基づいて、トラッキング視点のロスト状態時の視点情報の推定処理を行う。例えば現在の周回数がm周目であった場合に、過去の1周目〜m−1周目において、同じエリア(コースブロック)を通過(位置)したときの視点履歴情報に基づいて、そのエリアを通過する際のプレーヤの視点情報を特定する。例えば、1周目〜m−1周目に対応する第1〜第m−1の視点履歴情報の中から、例えば移動体の移動情報又はプレーヤの操作情報等に基づいて、視点情報を選択して、そのエリアを通過する際のプレーヤの視点情報を特定する。   In this case, a round course can be used as the course. The circuit course is a course in which a moving body can make many laps such as one lap, two laps, and three laps in a competitive game or the like. The viewpoint information calculation unit 108 performs viewpoint information estimation processing in the lost state of the tracking viewpoint based on viewpoint history information when the moving body operated by the player has passed through the same area in the past in this circuit course. For example, when the current number of laps is the m-th lap, based on the viewpoint history information when passing (positioning) the same area (course block) in the first lap to the (m-1) -th lap, The player's viewpoint information when passing through the area is specified. For example, the viewpoint information is selected from the first to m−1th viewpoint history information corresponding to the 1st to m−1th laps based on, for example, movement information of the moving body or operation information of the player. Thus, the viewpoint information of the player when passing through the area is specified.

また本実施形態の画像生成システム(ゲームシステム)は、図1〜図4で説明したように可動機構60を有する。この場合に視点情報演算部108は、可動機構60の動作情報に基づいて、トラッキング視点のロスト状態時の視点情報の推定処理を行う。可動機構60の動作情報は、可動機構60の動作状態を設定するための情報である。例えば動作情報は、可動対象物であるシート10の姿勢状態(回転状態)や位置(移動位置)を特定するための情報である。可動機構60の動作制御は処理部100により行われる。   Moreover, the image generation system (game system) of this embodiment has the movable mechanism 60 as demonstrated in FIGS. In this case, the viewpoint information calculation unit 108 performs viewpoint information estimation processing when the tracking viewpoint is in a lost state based on the operation information of the movable mechanism 60. The operation information of the movable mechanism 60 is information for setting the operation state of the movable mechanism 60. For example, the motion information is information for specifying the posture state (rotation state) and position (movement position) of the sheet 10 that is a movable object. The operation control of the movable mechanism 60 is performed by the processing unit 100.

例えば、視点情報演算部108は、可動機構60の動作情報に基づいて、可動対象物であるシート10が第1の姿勢状態(第1の位置)であると判断される場合には、シート10が第1の姿勢状態(第1の位置)である場合に想定されるプレーヤの視点位置や視線方向を、ロスト状態時のプレーヤの視点情報として設定する。また可動機構60の動作情報に基づいて、可動対象物であるシート10が第2の姿勢状態(第2の位置)であると判断される場合には、シート10が第2の姿勢状態(第2の位置)である場合に想定されるプレーヤの視点位置や視線方向を、ロスト状態時のプレーヤの視点情報として設定する。   For example, when it is determined that the seat 10 that is the movable object is in the first posture state (first position) based on the operation information of the movable mechanism 60, the viewpoint information calculation unit 108 Is set as the viewpoint information of the player in the lost state, which is assumed when the player is in the first posture state (first position). When it is determined that the sheet 10 that is the movable object is in the second posture state (second position) based on the operation information of the movable mechanism 60, the sheet 10 is in the second posture state (second position). 2) is set as the viewpoint information of the player in the lost state.

例えば視点情報演算部108は、プレーヤの操作情報又はゲーム状況情報に基づいて、可動機構60の動作情報を求め、求められた動作情報に基づいて、トラッキング視点のロスト状態時の視点情報の推定処理を行う。   For example, the viewpoint information calculation unit 108 obtains the operation information of the movable mechanism 60 based on the player operation information or the game situation information, and estimates the viewpoint information when the tracking viewpoint is in the lost state based on the obtained operation information. I do.

例えば、図1においてプレーヤがハンドル50を右に切った、或いは左に切ったなどの操作情報に基づいて、可動機構60の動作情報を求める。即ち、可動機構60の動作状態(回転状態等)を設定するための動作情報を求める。可動機構60は、この動作情報である動作信号に基づいて動作する。   For example, the operation information of the movable mechanism 60 is obtained based on operation information such as the player turning the handle 50 to the right or to the left in FIG. That is, the operation information for setting the operation state (rotation state, etc.) of the movable mechanism 60 is obtained. The movable mechanism 60 operates based on an operation signal that is this operation information.

例えばプレーヤがハンドル50を右に切った場合には、右方向へのコーナリングをプレーヤに体感させるために、例えば、シート10が右回りに回転するように可動機構60を動作させる。そして、右方向にコーナリングした場合に想定される視点位置や視線方向を、プレーヤの視点情報として設定(推定)する。またプレーヤがハンドル50を左に切った場合には、左方向へのコーナリングをプレーヤに体感させるために、例えば、シート10が左回りに回転するように可動機構60を動作させる。そして、左方向にコーナリングした場合に想定される視点位置や視線方向を、プレーヤの視点情報として設定(推定)する。   For example, when the player turns the handle 50 to the right, the movable mechanism 60 is operated so that, for example, the seat 10 rotates clockwise in order to make the player feel cornering in the right direction. Then, the viewpoint position and line-of-sight direction assumed when cornering in the right direction are set (estimated) as the viewpoint information of the player. When the player turns the handle 50 to the left, the movable mechanism 60 is operated so that, for example, the seat 10 rotates counterclockwise so that the player can feel the cornering in the left direction. Then, the viewpoint position and the line-of-sight direction assumed when cornering in the left direction are set (estimated) as the viewpoint information of the player.

また、ゲーム状況情報に基づいて、例えばプレーヤの移動体が凹凸のある路面等を走行していると判断された場合には、図3のY軸方向においてシート10が微少に上下するように、可動機構60(電動シリンダ73、74)を動作させる。そして、凹凸の路面を走行している場合に想定される視点位置や視線方向を、プレーヤの視点情報として設定(推定)する。例えばプレーヤの視点位置を路面の凹凸に合わせて上下させる。   Further, based on the game situation information, for example, if it is determined that the moving body of the player is traveling on an uneven road surface, the seat 10 is slightly moved up and down in the Y-axis direction of FIG. The movable mechanism 60 (electric cylinders 73 and 74) is operated. Then, the viewpoint position and line-of-sight direction assumed when traveling on an uneven road surface are set (estimated) as player viewpoint information. For example, the player's viewpoint position is raised or lowered according to the unevenness of the road surface.

なお、操作情報は、例えばプレーヤが操作部160を操作することで取得される情報である。ゲーム状況情報は、その時点でのゲームの状況を表す情報であり、ゲーム進行に伴い変化する情報である。例えば移動体が移動するゲームにおいては、ゲーム状況情報は、移動体の走行環境などの走行状況を表す情報である。また、キャラクタを用いたゲーム(RPGゲーム、格闘技ゲーム、アクションゲーム)などでは、ゲーム状況情報は、ゲームにおけるキャラクタの現在の状況を表す情報や、キャラクタのステータスパラメータ等に基づく情報である。またゲーム状況情報としては、例えばゲームの進行状況を表す情報、或いはゲームの達成度(マップのクリア状況、獲得ポイント等)を表す情報などを想定できる。   Note that the operation information is information acquired when the player operates the operation unit 160, for example. The game situation information is information representing the game situation at that time, and is information that changes as the game progresses. For example, in a game in which a moving body moves, the game situation information is information representing a running situation such as a running environment of the moving body. In a game using a character (RPG game, martial arts game, action game) or the like, the game situation information is information based on information indicating the current situation of the character in the game, character status parameters, or the like. Further, as the game status information, for example, information indicating the progress status of the game or information indicating the achievement level of the game (map clear status, acquired points, etc.) can be assumed.

また視点情報演算部108は、プレーヤの体格情報、性別情報及び年齢情報の少なくとも1つを含むプレーヤ情報に基づいて、トラッキング視点のロスト状態時の視点情報の推定処理を行ってもよい。例えば、プレーヤが第1の体格(例えば身長が高い、体重が重い等)である場合と第2の体格(例えば身長が低い、体重が軽い等)である場合とで、ロスト状態時のプレーヤの視点情報を異ならせる。或いは、プレーヤが男性である場合と女性である場合とで、ロスト状態時のプレーヤの視点情報を異ならせる。或いは、プレーヤが大人である場合と子供である場合とで、ロスト状態時のプレーヤの視点情報を異ならせる。   The viewpoint information calculation unit 108 may perform viewpoint information estimation processing when the tracking viewpoint is in a lost state, based on player information including at least one of the player's physique information, gender information, and age information. For example, when the player has a first physique (for example, high height, heavy weight, etc.) and a second physique (for example, low height, light weight, etc.), the player in the lost state Different viewpoint information. Alternatively, the player's viewpoint information in the lost state is different depending on whether the player is male or female. Alternatively, the player's viewpoint information in the lost state is different depending on whether the player is an adult or a child.

具体的には視点情報演算部108は、複数の候補視点情報の中から、プレーヤ情報に基づいて視点情報を選択する処理を、トラッキング視点のロスト状態時の視点情報の推定処理として行う。例えばプレーヤが第1の体格である場合には、視点情報演算部108は、複数の候補視点情報の中から、第1の体格用に用意された視点情報(視点履歴情報)を選択して、ロスト状態時のプレーヤの視点情報を設定する。第2の体格である場合には、第2の体格用に用意された視点情報(視点履歴情報)を選択して、ロスト状態時のプレーヤの視点情報を設定する。或いは、プレーヤが男性である場合には、視点情報演算部108は、男性用に用意された視点情報(視点履歴情報)を選択して、ロスト状態時のプレーヤの視点情報を設定する。女性である場合には、女性用に用意された視点情報(視点履歴情報)を選択して、ロスト状態時のプレーヤの視点情報を設定する。或いは、プレーヤが大人である場合には、大人用に用意された視点情報(視点履歴情報)を選択して、ロスト状態時のプレーヤの視点情報を設定する。子供である場合には、子供用に用意された視点情報(視点履歴情報)を選択して、ロスト状態時のプレーヤの視点情報を設定する。   Specifically, the viewpoint information calculation unit 108 performs a process of selecting viewpoint information based on player information from among a plurality of candidate viewpoint information as an estimation process of viewpoint information when the tracking viewpoint is in a lost state. For example, when the player has the first physique, the viewpoint information calculation unit 108 selects viewpoint information (viewpoint history information) prepared for the first physique from a plurality of candidate viewpoint information, Set the viewpoint information of the player in the lost state. In the case of the second physique, the viewpoint information (viewpoint history information) prepared for the second physique is selected, and the viewpoint information of the player in the lost state is set. Alternatively, when the player is a male, the viewpoint information calculation unit 108 selects viewpoint information (viewpoint history information) prepared for the male and sets the viewpoint information of the player in the lost state. In the case of a woman, the viewpoint information (viewpoint history information) prepared for the woman is selected and the viewpoint information of the player in the lost state is set. Alternatively, when the player is an adult, the viewpoint information (viewpoint history information) prepared for the adult is selected, and the viewpoint information of the player in the lost state is set. If it is a child, the viewpoint information (viewpoint history information) prepared for the child is selected, and the viewpoint information of the player in the lost state is set.

また視点情報演算部108は、プレーヤの動作の物理シミュレーション処理の結果に基づいて、トラッキング視点のロスト状態時の視点情報の推定処理を行ってもよい。例えば、プレーヤの操作情報、ゲーム状況情報、或いはこれらの操作情報やゲーム状況情報から求められる可動機構60の動作情報等に基づいて、プレーヤ(モデルオブジェクト)の動作の物理シミュレーション処理を行う。例えば、操作情報、ゲーム状況情報又は可動機構60の動作情報等に基づいて、プレーヤのモーションがどのように変化するかを、公知の物理シミュレーション処理により求める。そして、求められたプレーヤ(モデルオブジェクト)のモーションに基づいて、トラッキング視点のロスト状態時のプレーヤの視点情報を推定する。例えば、移動体が右コーナリングを行った場合や左コーナリングを行った場合のモーション情報を、物理シミュレーション処理により求め、そのモーション情報に基づいて、そのときのプレーヤの視点位置や視線位置の動きを特定する。そして、特定された視点位置や視線方向を、ロスト状態時のプレーヤの視点情報として推定する。   The viewpoint information calculation unit 108 may perform viewpoint information estimation processing when the tracking viewpoint is in a lost state based on the result of the physical simulation processing of the player's motion. For example, a physical simulation process of the operation of the player (model object) is performed based on the operation information of the player, the game situation information, or the operation information of the movable mechanism 60 obtained from the operation information and the game situation information. For example, based on operation information, game situation information, operation information of the movable mechanism 60, and the like, how the motion of the player changes is obtained by a known physical simulation process. Then, based on the obtained motion of the player (model object), the viewpoint information of the player when the tracking viewpoint is lost is estimated. For example, the motion information when the moving body performs right cornering or left cornering is obtained by physical simulation processing, and the movement of the player's viewpoint position or gaze position at that time is specified based on the motion information To do. Then, the identified viewpoint position and line-of-sight direction are estimated as the viewpoint information of the player in the lost state.

また画像生成部120は、1つの曲面又は複数の面により構成されるプロジェクション用スクリーンの形状情報と、プレーヤの視点情報とに基づいて、投影画像を生成する。プロジェクション用スクリーンの形状情報は、例えばプロジェクション用スクリーンの形状を数式(例えば楕円面の方程式)やポリゴンモデルなどで表した情報である。画像生成部120は、1つの曲面又は複数の面により構成されるプロジェクション用スクリーンの形状を反映させるための歪み補正処理を行って、投影画像を生成する。   The image generation unit 120 generates a projection image based on the shape information of the projection screen constituted by one curved surface or a plurality of surfaces and the viewpoint information of the player. The projection screen shape information is, for example, information representing the shape of the projection screen by a mathematical expression (for example, an equation of an ellipsoid) or a polygon model. The image generation unit 120 generates a projection image by performing distortion correction processing for reflecting the shape of the projection screen formed by one curved surface or a plurality of surfaces.

即ち画像生成部120はプロジェクション用の投影画像を生成する。生成された投影画像は、図1、図2の投影装置30により、スクリーン20に投影される。これによりプレーヤは、仮想カメラから見たオブジェクト空間の画像を、ゲーム画像として見ることが可能になる。プロジェクション用の投影画像は、例えばプロジェクションマッピング処理で生成された投影画像である。プロジェクションマッピングは、映す対象(スクリーン)の状態(形状等)と投影装置30の状態(位置、方向等)と視点の状態(位置、方向等)を考慮に入れて投影装置30で映す手法である。   That is, the image generation unit 120 generates a projection image for projection. The generated projection image is projected onto the screen 20 by the projection device 30 shown in FIGS. As a result, the player can view the image of the object space viewed from the virtual camera as a game image. The projection image for projection is, for example, a projection image generated by projection mapping processing. Projection mapping is a method of projecting with the projection device 30 taking into account the state (shape, etc.) of the object (screen) to be projected, the state (position, direction, etc.) of the projection device 30 and the state of the viewpoint (position, direction, etc.). .

具体的には画像生成部120は、描画バッファ176上のピクセル(投影画像のピクセル)が投影装置30の光学系(広角レンズ等)を通して出射される光線と、プロジェクション用スクリーンとの交点位置と、視点位置を結ぶ直線を、仮想カメラの視線として、描画バッファ176上のピクセルの色を決定する。例えばこの直線を仮想カメラの視線として、オブジェクト空間の情報からピクセルの色を決定する。具体的には、この直線とオブジェクト空間内のオブジェクトとの交点位置(この直線がオブジェクト空間において最初に到達するオブジェクト上の点の位置)に応じて、ピクセルの色を決定する。この処理はレイトレーシング法にて実現することもできるが、描画負荷が大きく、リアルタイムでの実装が難しくなる。そこで、より実用的な方法としては、曲面のスクリーンになるべく近い形状の平面スクリーン(これを「代理平面」と呼ぶことにする)に対する描画結果をレンダーテクスチャに保存しておく手法で実現してもよい。そして、このようにしてピクセルの色を決定することで、投影画像が生成される。   Specifically, the image generation unit 120 includes an intersection position between a light beam emitted from a pixel (projection image pixel) on the drawing buffer 176 through an optical system (such as a wide-angle lens) of the projection device 30 and the projection screen; The color of the pixel on the drawing buffer 176 is determined using the straight line connecting the viewpoint positions as the line of sight of the virtual camera. For example, using this straight line as the line of sight of the virtual camera, the pixel color is determined from the information in the object space. Specifically, the color of the pixel is determined according to the intersection position of this straight line and the object in the object space (the position of the point on the object where this straight line first arrives in the object space). This process can also be realized by the ray tracing method, but the drawing load is large and it is difficult to implement in real time. Therefore, a more practical method can be realized by saving the rendering result to a render texture on a flat screen that is as close as possible to a curved screen (this will be referred to as a “proxy plane”). Good. Then, the projection image is generated by determining the color of the pixel in this way.

或いは、画像生成部120は、オブジェクト空間内のオブジェクトの頂点位置と視点位置を結ぶ直線を求め、この直線とプロジェクション用スクリーンとの交点位置を求める。そして、求められた交点位置に基づいて、オブジェクトに対応する描画オブジェクトについての描画バッファ176上での頂点位置を求める。そして、求められた頂点位置に基づいて、描画バッファ176に描画オブジェクトを描画することで、投影画像を生成する。   Alternatively, the image generation unit 120 obtains a straight line connecting the vertex position of the object in the object space and the viewpoint position, and obtains an intersection position between the straight line and the projection screen. Then, based on the obtained intersection position, the vertex position on the drawing buffer 176 for the drawing object corresponding to the object is obtained. Then, a projection image is generated by drawing a drawing object in the drawing buffer 176 based on the obtained vertex position.

なお、プロジェクション用スクリーンは、例えば、図1、図2のスクリーン20に対応して、仮想3次元空間であるオブジェクト空間に配置設定される投影画像生成用の仮想的なスクリーンである。画像生成部120では、このプロジェクション用スクリーンの形状に合わせて歪み補正処理(プロジェクションマッピング処理とも呼ばれる)が行われることになる。このプロジェクション用スクリーンは、1つの曲面又は複数の面(曲面、平面)により構成できる。   Note that the projection screen is, for example, a virtual screen for generating a projection image that is arranged and set in an object space that is a virtual three-dimensional space, corresponding to the screen 20 in FIGS. In the image generation unit 120, distortion correction processing (also referred to as projection mapping processing) is performed in accordance with the shape of the projection screen. This projection screen can be composed of one curved surface or a plurality of surfaces (curved surface, flat surface).

また、描画オブジェクトは、描画対象となる3次元オブジェクトに対応する2次元オブジェクトである。例えば、3次元オブジェクトは、3次元空間(オブジェクト空間)に配置されるオブジェクトを意味し、例えばその頂点の座標値として3次元の座標値(X、Y、Z座標値)を有するオブジェクトである。一方、描画オブジェクトは、例えばその頂点の座標値として2次元の座標値(X、Y座標)を有するオブジェクトである。また描画バッファ176は、例えばフレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファである。   The drawing object is a two-dimensional object corresponding to the three-dimensional object to be drawn. For example, a three-dimensional object means an object arranged in a three-dimensional space (object space), and is an object having, for example, a three-dimensional coordinate value (X, Y, Z coordinate value) as a coordinate value of its vertex. On the other hand, a drawing object is an object having, for example, a two-dimensional coordinate value (X, Y coordinate) as a coordinate value of its vertex. The drawing buffer 176 is a buffer capable of storing image information in units of pixels, such as a frame buffer and a work buffer.

また画像生成部120は、プレーヤの視点情報に基づいて、立体視用の第1視点画像と第2視点画像を生成してもよい。例えば第1視点画像は左目用画像であり、第2視点画像は右目用画像である。例えば、プレーヤの視点情報(視点位置、視線方向)に基づいて、左目用仮想カメラ(第1視点用仮想カメラ)の視点情報と右目用仮想カメラ(第2視点用仮想カメラ)の視点情報を設定する。そして左目用仮想カメラに基づいて左目用画像(第1視点画像)を生成し、右目用仮想カメラに基づいて右目用画像(第2視点画像)を生成する。なお、実際に立体視映像を観察するための方式としては、メガネ方式(具体的には、偏光方式、時分割方式、分光方式等)や裸眼方式などの方式が考えられる。   The image generation unit 120 may generate a first viewpoint image and a second viewpoint image for stereoscopic viewing based on the viewpoint information of the player. For example, the first viewpoint image is a left-eye image, and the second viewpoint image is a right-eye image. For example, the viewpoint information of the left-eye virtual camera (first viewpoint virtual camera) and the right-eye virtual camera (second viewpoint virtual camera) are set based on the player's viewpoint information (viewpoint position, line-of-sight direction). To do. Then, a left-eye image (first viewpoint image) is generated based on the left-eye virtual camera, and a right-eye image (second viewpoint image) is generated based on the right-eye virtual camera. Note that, as a method for actually observing a stereoscopic image, a spectacle method (specifically, a polarization method, a time division method, a spectroscopic method, etc.) or a naked eye method may be considered.

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。なお、以下ではプロジェクション用スクリーンへの投影画像を生成するシステムに本実施形態の手法を適用した場合について主に説明するが、本実施形態はこれに限定されない。後述するように本実施形態の手法は、立体視画像を生成するシステムやHMDへの表示画像を生成するシステムなどの種々の画像生成システムに適用可能である。
2. Next, the method of this embodiment will be described in detail. In the following, the case where the method of the present embodiment is applied to a system that generates a projection image on a projection screen will be mainly described, but the present embodiment is not limited to this. As will be described later, the method of the present embodiment is applicable to various image generation systems such as a system that generates a stereoscopic image and a system that generates a display image on an HMD.

2.1 視点トラッキング
プロジェクション用スクリーンへの投影画像を生成するためには、プロジェクション用スクリーンの形状を反映させるための歪み補正処理を行う必要がある。そして、この歪み補正処理を正確に行うためには、プレーヤの視点位置等の視点情報が必要になる。なお、歪み補正処理の詳細については後述する。
2.1 Viewpoint Tracking In order to generate a projection image on the projection screen, it is necessary to perform distortion correction processing to reflect the shape of the projection screen. In order to perform this distortion correction processing accurately, viewpoint information such as the player's viewpoint position is required. Details of the distortion correction processing will be described later.

そして、これまでは、このような歪み補正処理を実現するために、図5(A)に示すように、プレーヤの代表視点RVPを設定して、投影画像の生成のための歪み補正処理を行っていた。例えば図5(A)ではシート10の底面の基準位置RPから高さHVの位置に代表視点RVPを設定していた。この代表視点RVPは、プレーヤの実際の視点とは正確には一致しない。例えば背が高い第1のプレーヤと、背が低い第2のプレーヤでは、視点位置が異なるが、図5(A)では、これらの第1、第2のプレーヤで、同じ代表視点RVPを用いて、歪み補正処理を行って、投影画像を生成する。多少の視点位置の差であれば、生成される投影画像の違和感はそれほど大きくないと考えられるからである。   Until now, in order to realize such distortion correction processing, as shown in FIG. 5A, the representative viewpoint RVP of the player is set, and distortion correction processing for generating a projection image is performed. It was. For example, in FIG. 5A, the representative viewpoint RVP is set to a position at a height HV from the reference position RP on the bottom surface of the sheet 10. This representative viewpoint RVP does not exactly match the player's actual viewpoint. For example, the first player who is tall and the second player who is short have different viewpoint positions, but in FIG. 5A, these first and second players use the same representative viewpoint RVP. Then, a distortion correction process is performed to generate a projection image. This is because a slight difference in the viewpoint position is considered not so great for the generated projection image.

しかしながら、例えば図3で説明したような可動機構60を設けた場合には、この可動機構60が動作することで、図5(B)、図5(C)に示すようにプレーヤの視点位置VPや視線方向VLは変化してしまう。このように可動機構60が動作して、プレーヤの視点位置VPや視線方向VLが変化する状況において、図5(A)のような代表視点RVPを用いた手法で投影画像を生成すると、不自然さや違和感が大きい画像が表示されてしまう。即ち、図5(A)の代表視点RVPで計算される歪み補正処理が施された投影画像を、プロジェクション用スクリーンに投影してしまうと、プレーヤが大きな違和感を感じてしまうおそれがある。   However, for example, when the movable mechanism 60 as described with reference to FIG. 3 is provided, the movable mechanism 60 operates, so that the viewpoint position VP of the player is obtained as shown in FIGS. 5B and 5C. And the line-of-sight direction VL change. In such a situation where the movable mechanism 60 operates and the player's viewpoint position VP and line-of-sight direction VL change, it is unnatural if a projection image is generated by the technique using the representative viewpoint RVP as shown in FIG. An image with a large sense of discomfort is displayed. That is, if a projection image subjected to the distortion correction processing calculated at the representative viewpoint RVP in FIG. 5A is projected on the projection screen, the player may feel a great sense of incongruity.

そこで本実施形態では、視点トラッキングによりプレーヤの視点を捕捉することで、プレーヤの視点情報を設定し、設定された視点情報を用いて投影画像等の画像を生成する手法を採用している。具体的には、プレーヤの視点トラッキングにより得られたトラッキング視点情報を、プレーヤの視点情報として設定し、設定された視点情報に基づいて、オブジェクト空間においてプレーヤの視点から見える画像を生成する。   Therefore, in the present embodiment, a technique is adopted in which the viewpoint information of the player is set by capturing the viewpoint of the player by viewpoint tracking, and an image such as a projection image is generated using the set viewpoint information. Specifically, the tracking viewpoint information obtained by the player's viewpoint tracking is set as the player's viewpoint information, and an image that is visible from the player's viewpoint in the object space is generated based on the set viewpoint information.

この場合の視点トラッキングは、図1、図2のように設置された撮像部40の撮像画像に基づき行うことが望ましい。即ち、プレーヤを撮影した撮像画像により求められるトラッキング視点情報を、プレーヤの視点情報として設定して、投影画像等の画像を生成する。図6(A)に、視点トラッキングに好適な構成の撮像部40の例を示す。   The viewpoint tracking in this case is desirably performed based on the captured image of the imaging unit 40 installed as shown in FIGS. That is, the tracking viewpoint information obtained from the captured image obtained by photographing the player is set as the viewpoint information of the player, and an image such as a projection image is generated. FIG. 6A shows an example of the imaging unit 40 having a configuration suitable for viewpoint tracking.

例えば図6(A)の撮像部40には、第1、第2のカメラ45、46が設けられている。これらの第1、第2のカメラ45、46で撮影された第1、第2の撮像画像を用いることで、プレーヤの視点を捕捉する視点トラッキングを実現できる。例えば複数のカメラ45、46を撮像部40に設けることで、現実空間における被写体であるプレーヤの奥行き方向の情報を求めることができる。例えばカメラ45やカメラ46の撮像画像を用いて、奥行き方向(撮像部40の光軸方向)に直交(交差)する平面でのプレーヤの視点位置を求めることができる。またカメラ45、46の撮像画像の視差情報等を用いて、奥行き方向でのプレーヤの視点の位置を求めることができ、これにより視点の3次元的な位置を求めることができる。或いは、カメラ45としてカラー画像センサーを有するカメラを用い、カメラ46としてデプスセンサーを有するカメラを用いることで、視点の3次元的な位置を求めてもよい。更には、単独のカラー画像センサーを有するカメラのみであっても、顔の大きさや両眼間隔を予め定位置で計測しておいたり、年齢・性別・体格等の情報から推定した顔の大きさや両眼間隔を用いて計算したりすることで、精度はやや落ちるものの、視点の3次元的な位置を求めることができる。   For example, the imaging unit 40 in FIG. 6A is provided with first and second cameras 45 and 46. By using the first and second captured images captured by the first and second cameras 45 and 46, viewpoint tracking for capturing the viewpoint of the player can be realized. For example, by providing a plurality of cameras 45 and 46 in the imaging unit 40, information in the depth direction of the player who is the subject in the real space can be obtained. For example, using the captured images of the camera 45 and the camera 46, it is possible to obtain the player's viewpoint position on a plane orthogonal (intersect) in the depth direction (the optical axis direction of the imaging unit 40). Further, the position of the viewpoint of the player in the depth direction can be obtained using the parallax information of the captured images of the cameras 45 and 46, and thereby the three-dimensional position of the viewpoint can be obtained. Alternatively, the three-dimensional position of the viewpoint may be obtained by using a camera having a color image sensor as the camera 45 and using a camera having a depth sensor as the camera 46. Furthermore, even with only a camera having a single color image sensor, the face size and binocular spacing are measured in advance at a fixed position, the face size estimated from information such as age, gender, and physique By calculating using the distance between both eyes, the three-dimensional position of the viewpoint can be obtained, although the accuracy is slightly reduced.

また図6(B)では、眼鏡200(広義には装着用部材)を用意し、この眼鏡200に、プレーヤの左目に対応する左目用マーカMKLと、右目に対応する右目用マーカMKRを設ける。即ち眼鏡200の左目部分に対応する位置に左目用マーカMKLを設け、右目部分に対応する位置に右目用マーカMKRを設ける。これらの左目用、右目用マーカMKL、MKRは、その形状が互いに異なっている。   In FIG. 6B, eyeglasses 200 (a mounting member in a broad sense) are prepared, and the eyeglasses 200 are provided with a left eye marker MKL corresponding to the left eye of the player and a right eye marker MKR corresponding to the right eye. That is, the left eye marker MKL is provided at a position corresponding to the left eye portion of the glasses 200, and the right eye marker MKR is provided at a position corresponding to the right eye portion. These left-eye and right-eye markers MKL and MKR have different shapes.

そして、この眼鏡200を装着したプレーヤを撮像部40により撮影し、その撮像画像に基づいて、プレーヤの左目、右目の位置情報を取得する。即ち、撮像部40によりプレーヤを撮像し、得られた撮像画像に対して画像認識処理を行って、図6(B)の左目用、右目用マーカMKL、MKRの形状を認識する。そして、形状認識の結果により、例えばプレーヤの左目、右目の位置を検出することで、プレーヤの視点情報を取得し、視点トラッキングを実現する。特にメガネ式での立体視表示を行う場合には、立体視メガネの存在によって撮像部40から見た目の部分の明るさが低下し、アイトラッキングが困難になる場合があるが、このようなマーカーをメガネに付けておくことで、アイトラッキングをより精確に行うことが可能になる。   Then, the player wearing the glasses 200 is photographed by the imaging unit 40, and the position information of the left eye and right eye of the player is acquired based on the captured image. That is, the player is imaged by the imaging unit 40, and image recognition processing is performed on the obtained captured image to recognize the shapes of the left-eye and right-eye markers MKL and MKR in FIG. Then, for example, by detecting the positions of the left eye and right eye of the player based on the result of shape recognition, the viewpoint information of the player is acquired, and viewpoint tracking is realized. In particular, when performing a stereoscopic display using glasses, the brightness of the portion viewed from the imaging unit 40 may be reduced due to the presence of the stereoscopic glasses, which may make eye tracking difficult. By attaching to the glasses, eye tracking can be performed more accurately.

或いは図7(A)に示すようなアイトラッキングにより視点トラッキングを実現してもよい。例えばアイトラッキングにより、プレーヤの左目、右目の瞳の位置や形状等を認識し、左目、右目の位置ERP、ELPや視線方向ERD、ELD等を特定して、プレーヤの視点情報を取得し、視点トラッキングを実現する。このアイトラッキングは、例えば撮像部40によりプレーヤの左目、右目を撮影し、その撮像画像に対して瞳等の画像認識処理を行うことなどで実現できる。   Alternatively, viewpoint tracking may be realized by eye tracking as shown in FIG. For example, by eye tracking, the positions and shapes of the left eye and right eye pupils of the player are recognized, the left eye and right eye positions ERP, ELP, the line-of-sight directions ERD, ELD, etc. are specified, and the player viewpoint information is acquired. Realize tracking. This eye tracking can be realized, for example, by photographing the left eye and the right eye of the player by the imaging unit 40 and performing image recognition processing such as a pupil on the captured image.

或いは図7(B)に示すようなフェイストラッキングにより視点トラッキングを実現してもよい。例えば撮像部40でプレーヤの顔を撮像し、顔の画像認識処理を行う。そして、画像認識処理の結果に基づいて、プレーヤの顔の位置や向く方向を特定して、プレーヤの視点位置VP、視線方向VLを求めて、視点トラッキングを実現する。   Alternatively, viewpoint tracking may be realized by face tracking as shown in FIG. For example, the imaging unit 40 captures the player's face and performs face image recognition processing. Then, based on the result of the image recognition process, the position and direction of the player's face are specified, and the viewpoint position VP and line-of-sight direction VL of the player are obtained to realize viewpoint tracking.

なお、本実施形態の視点トラッキング手法は、図6(A)〜図7(B)で説明した手法に限定されず、プレーヤの視点情報を特定できる公知の種々の視点トラッキング手法を採用できる。   Note that the viewpoint tracking method of the present embodiment is not limited to the method described with reference to FIGS. 6A to 7B, and various known viewpoint tracking methods that can specify the viewpoint information of the player can be employed.

このように視点トラッキングにより視点情報を取得し、取得された視点情報を用いて、投影画像等の画像を生成すれば、より自然で違和感の少ない画像を生成できる。   In this way, if viewpoint information is acquired by viewpoint tracking and an image such as a projection image is generated using the acquired viewpoint information, a more natural and less uncomfortable image can be generated.

しかしながら、視点トラッキングが成功している場合には、適切な視点情報を取得して、自然な画像を生成できるが、視点トラッキングが失敗して、トラッキング視点がロスト状態となった場合には、適切な視点情報を取得できない。このため、違和感のある画像や、破綻した画像が生成されてしまうおそれがある。   However, if viewpoint tracking is successful, appropriate viewpoint information can be acquired and a natural image can be generated, but if viewpoint tracking fails and the tracking viewpoint is lost, it is appropriate Can not get the correct viewpoint information. For this reason, an uncomfortable image or a broken image may be generated.

例えば可動機構60により、図8(A)のようにシート10が回転するなどして動作すると、この動作が原因で、図8(B)のようにプレーヤが手で自分の目を覆ってしまったり、図8(C)のようにプレーヤが前屈みの姿勢になってしまう場合がある。このような状況が発生すると、撮像部40によりプレーヤの顔等を撮影できなくなってしまい、プレーヤの視点を捕捉できなくなり、トラッキング視点がロスト状態になってしまう。或いは、プレーヤの姿勢の変化や動きが原因で、ゲームを見物している観客の視点を誤ってトラッキングしてしまい、結果として突然視点位置がジャンプするような状態になってしまう場合もある。これはいわゆる「誤認識状態」であるが、例えばフレーム間の視点位置の移動量の閾値を設け、視点位置の変化量がその閾値を超えるような場合には誤認識とみなすような処理等を行うことで、ロスト状態に帰着させることができるので、以後はロスト状態に含めて説明する。   For example, when the movable mechanism 60 operates by rotating the seat 10 as shown in FIG. 8A, the player covers his / her eyes with his hand as shown in FIG. 8B due to this operation. In some cases, the player may bend forward as shown in FIG. When such a situation occurs, the imaging unit 40 cannot capture the player's face, the player's viewpoint cannot be captured, and the tracking viewpoint becomes lost. Alternatively, there may be a case where the viewpoint of the spectator watching the game is mistakenly tracked due to a change or movement of the player's posture, and as a result, the viewpoint position suddenly jumps. This is a so-called “misrecognition state”. For example, a threshold value for the amount of movement of the viewpoint position between frames is set, and processing such as a recognition error when the amount of change in the viewpoint position exceeds the threshold value, etc. By doing so, it can be returned to the lost state, so that it will be described below including the lost state.

このようなトラッキング視点のロスト状態が発生すると、プレーヤの視点情報を取得できなかったり、取得したプレーヤの視点情報の信頼度が著しく低下してしまい、適正な投影画像等の画像を生成できなくなってしまう。   When such a tracking viewpoint lost state occurs, the player's viewpoint information cannot be acquired, or the reliability of the acquired player's viewpoint information is significantly reduced, and an image such as an appropriate projection image cannot be generated. End up.

2.2 ロスト状態時の視点情報の推定
以上のような課題を解決するために、本実施形態では、トラッキング視点のロスト状態時にプレーヤの視点情報を推定する処理を行って、オブジェクト空間においてプレーヤの視点から見える画像を生成する手法を採用している。
2.2 Estimating Viewpoint Information in Lost State In order to solve the above-described problems, in the present embodiment, processing for estimating the player's viewpoint information in the lost state of the tracking viewpoint is performed, and the player's viewpoint information in the object space is determined. A technique for generating an image that can be seen from the viewpoint is adopted.

図9は本実施形態の手法の処理例を示すフローチャートである。まずフレーム更新か否かを判断する(ステップS1)。例えばフレーム画像を更新するタイミングか否かを判断する。そして、フレーム更新のタイミングである場合には、撮像部40により撮像画像を取得する(ステップS2)。即ちプレーヤの顔等を撮影したが撮像画像を取得する。そして、取得された撮像画像に基づき視点トラッキングを行って、トラッキング視点情報を求める(ステップS3)。即ち図6(A)〜図7(B)で説明したような視点トラッキングを行って、プレーヤの視点位置や視線方向などの視点情報を設定する。   FIG. 9 is a flowchart showing a processing example of the technique of this embodiment. First, it is determined whether or not the frame is updated (step S1). For example, it is determined whether it is time to update the frame image. If it is the frame update timing, the captured image is acquired by the imaging unit 40 (step S2). That is, the photographed image is acquired although the face of the player is photographed. Then, viewpoint tracking is performed based on the acquired captured image to obtain tracking viewpoint information (step S3). That is, viewpoint tracking such as that described with reference to FIGS. 6A to 7B is performed to set viewpoint information such as the viewpoint position and line-of-sight direction of the player.

次に、トラッキング視点がロスト状態か否かを判断する(ステップS4)。例えば、図8(B)、図8(C)で説明したように、例えば撮像部40によりプレーヤの顔を撮影できないなどの理由で、視点トラッキングに失敗して、ステップS3でトラッキング視点情報を得られないロスト状態なのか否かを判断する。そしてトラッキング視点がロスト状態である場合には、視点情報の推定処理を行う(ステップS5)。例えば視点履歴情報、プレーヤの操作情報、ゲーム状況情報、可動機構60の動作情報或いはプレーヤ情報等の各種の情報に基づいて、プレーヤの視点情報を推定する処理を行う。そして、視点情報に基づいて、オブジェクト空間においてプレーヤの視点から見える画像を生成する(ステップS6)。   Next, it is determined whether or not the tracking viewpoint is in a lost state (step S4). For example, as described with reference to FIGS. 8B and 8C, viewpoint tracking has failed due to, for example, that the face of the player cannot be captured by the imaging unit 40, and tracking viewpoint information is obtained in step S3. It is determined whether or not the lost state is not possible. If the tracking viewpoint is in a lost state, viewpoint information estimation processing is performed (step S5). For example, processing for estimating the player's viewpoint information is performed based on various types of information such as viewpoint history information, player operation information, game situation information, operation information of the movable mechanism 60, or player information. Based on the viewpoint information, an image that can be seen from the viewpoint of the player in the object space is generated (step S6).

例えばトラッキング視点がロスト状態ではない場合には、ステップS3で得られたトラッキング視点情報に基づいて、オブジェクト空間においてプレーヤの視点から見える画像を生成する。一方、トラッキング視点がロスト状態である場合には、ステップS5で推定された視点情報に基づいて、オブジェクト空間においてプレーヤの視点から見える画像を生成する。   For example, when the tracking viewpoint is not in the lost state, an image that can be seen from the viewpoint of the player in the object space is generated based on the tracking viewpoint information obtained in step S3. On the other hand, if the tracking viewpoint is in a lost state, an image that is visible from the player's viewpoint in the object space is generated based on the viewpoint information estimated in step S5.

このとき、図1のような曲面形状のスクリーン20に投影する画像を生成する場合には、後述するような歪み補正処理を行って、投影画像を生成する。また立体視画像を生成する場合には、視点情報(トラッキング視点情報又は推定処理により得られた視点情報)に基づいて、左目用仮想カメラ(広義には第1視点)、右目用仮想カメラ(広義には第2視点)を設定して、立体視用の左目用画像(広義には第1視点画像)、右目用画像(広義には第2視点画像)を生成する。   At this time, when generating an image to be projected onto the curved screen 20 as shown in FIG. 1, a distortion correction process as described later is performed to generate a projection image. When generating a stereoscopic image, based on viewpoint information (tracking viewpoint information or viewpoint information obtained by estimation processing), a left-eye virtual camera (first viewpoint in a broad sense), a right-eye virtual camera (in a broad sense) Is set to generate a left-eye image for stereoscopic viewing (first viewpoint image in a broad sense) and a right-eye image (second viewpoint image in a broad sense).

以上の本実施形態の手法によれば、視点トラッキングにより求められたトラッキング視点情報に基づいて、プレーヤの視点から見える画像が生成される。従って、例えば図5(B)、図5(C)に示すように可動機構60が動作することなどにより、現実世界でのプレーヤの視点位置VPや視線方向VLが大きく変化した場合にも、視点トラッキングにより捕捉されたプレーヤの視点の情報に基づいて画像が生成されるため、プレーヤが不自然さや違和感を感じることが少ない画像をプレーヤに表示できるようになる。例えば図1のような曲面形状のスクリーン20への投影画像の場合には、より適切に歪み補正処理が行われた投影画像を生成できるようになる。また立体視画像を生成する場合にも、現実世界でのプレーヤの視点の位置等と矛盾が生じない立体視画像をプレーヤに表示できるようになる。   According to the method of the present embodiment described above, an image that can be seen from the viewpoint of the player is generated based on the tracking viewpoint information obtained by viewpoint tracking. Therefore, for example, even when the viewpoint position VP or the line-of-sight direction VL of the player in the real world changes greatly due to the movement of the movable mechanism 60 as shown in FIGS. Since the image is generated based on the viewpoint information of the player captured by the tracking, it is possible to display an image on which the player hardly feels unnaturalness or discomfort. For example, in the case of a projected image on a curved screen 20 as shown in FIG. 1, it is possible to generate a projected image on which distortion correction processing has been performed more appropriately. Also, when generating a stereoscopic image, a stereoscopic image that does not contradict the position of the player's viewpoint in the real world can be displayed on the player.

そして本実施形態では、このような視点トラッキングを利用して画像を生成する際に、例えば図8(B)、図8(C)のようにトラッキング視点がロスト状態になるような状況が発生した場合にも、視点履歴情報、プレーヤの操作情報、ゲーム状況情報、可動機構60の動作情報或いはプレーヤ情報等の各種情報に基づいて、プレーヤの視点情報の推定処理が行われる。そして、推定処理により求められた視点情報に基づいて画像が生成されるため、例えば現実世界のプレーヤの視点位置とはかけ離れたような違和感のある画像が、プレーヤに表示されてしまう事態を防止できる。従って、視点のトラッキングが失敗等した場合にも、より適切な画像を生成できる画像生成システムを提供できるようになる。   In this embodiment, when an image is generated using such viewpoint tracking, for example, a situation has occurred in which the tracking viewpoint is in a lost state as shown in FIGS. 8B and 8C. Even in this case, the viewpoint information of the player is estimated based on various information such as viewpoint history information, player operation information, game situation information, operation information of the movable mechanism 60, or player information. Since the image is generated based on the viewpoint information obtained by the estimation process, it is possible to prevent a situation in which an uncomfortable image that is far from the viewpoint position of the real world player is displayed on the player, for example. . Accordingly, it is possible to provide an image generation system that can generate a more appropriate image even when viewpoint tracking fails.

2.3 視点履歴情報に基づく推定処理
次に、本実施形態の視点情報の推定処理の具体例について説明する。本実施形態では、プレーヤの視点履歴情報に基づいて、トラッキング視点のロスト状態時の視点情報の推定処理を行っている。この視点履歴情報に基づく視点情報の推定処理について説明する。
2.3 Estimation Process Based on Viewpoint History Information Next, a specific example of the viewpoint information estimation process of the present embodiment will be described. In this embodiment, based on the player's viewpoint history information, viewpoint information estimation processing is performed when the tracking viewpoint is in a lost state. The viewpoint information estimation process based on this viewpoint history information will be described.

図10(A)に視点履歴情報の例を示す。図10(A)の視点履歴情報では、各インデックス(I1、I2、I3・・・)に対して、視点位置(VP1、VP2、VP3・・・)や視線方向(VL1、VL2、VL3・・・)などの視点情報が対応づけられている。視点履歴情報のインデックスとしては、フレーム番号、タイムスタンプ、コースブロック番号、マップブロック番号などの各種のインデックスを想定できる。   FIG. 10A shows an example of viewpoint history information. 10A, for each index (I1, I2, I3...), The viewpoint position (VP1, VP2, VP3...) And the line-of-sight direction (VL1, VL2, VL3...・) And other viewpoint information are associated. As the index of the viewpoint history information, various indexes such as a frame number, a time stamp, a course block number, and a map block number can be assumed.

図10(B)では、プレーヤが操作する移動体MVがコースCS上で移動している。即ち操作部160により入力された操作情報に基づいて、移動体MVを移動させる演算処理が行われ、これにより移動体MVがコースCSに沿って移動する。そして経路LC1では移動体MVは、いわゆるアウト・イン・アウトでコースCS上を移動しており、経路LC2では、移動体MVはアウト・アウト・アウトで移動している。例えば経路LC1は、周回のコースCSの第1周目の経路であり、経路LC2は、第2周目の経路である。   In FIG. 10B, the moving body MV operated by the player is moving on the course CS. That is, based on the operation information input by the operation unit 160, a calculation process for moving the moving body MV is performed, and thereby the moving body MV moves along the course CS. In the path LC1, the moving body MV moves on the course CS by so-called out / in / out, and in the path LC2, the moving body MV moves out / out / out. For example, the route LC1 is the first round route of the course CS, and the route LC2 is the second round route.

そして図10(C)のVPHT1は、第1周目の経路LC1での視点履歴情報であり、VPHT2は、第2周目の経路LC2での視点履歴情報である。例えば各インデックス(I1、I2、I3・・・)が、フレーム番号(タイムスタンプ)であるとする。この場合には、周回のコースCSの第1周目において経路LC1を移動体MVが移動したときに、各フレームにおいて視点トラッキング等により求められたプレーヤの視点位置(VP11、VP12、VP13・・・)、視線方向(VL11、VL12、VL13・・・)が、各フレーム番号(I1、I2、I3・・・)に対応づけられて、視点履歴情報VPHT1として記憶される。同様に、周回のコースCSの第2周目において経路LC2を移動体MVが移動したときに、各フレームにおいて視点トラッキング等により求められたプレーヤの視点位置(VP21、VP22、VP23・・・)、視線方向(VL21、VL22、VL23・・・)が、各フレーム番号(I1、I2、I3・・・)に対応づけられて、視点履歴情報VPHT2として記憶される。これらの経路LC1、LC2では、移動体MVのコース取りが違うため、視点履歴情報VPHT1、VPHT2において、各フレーム番号(各インデックス)に対応づけられて記憶される視点位置、視線方向も異なっている。   In FIG. 10C, VPHT1 is viewpoint history information on the route LC1 in the first round, and VPHT2 is viewpoint history information on the route LC2 in the second round. For example, each index (I1, I2, I3...) Is a frame number (time stamp). In this case, when the moving body MV moves on the route LC1 in the first round of the circuit course CS, the player's viewpoint position (VP11, VP12, VP13... ), The line-of-sight directions (VL11, VL12, VL13...) Are associated with each frame number (I1, I2, I3...) And stored as viewpoint history information VPHT1. Similarly, when the moving body MV moves on the route LC2 in the second lap of the course CS, the player viewpoint positions (VP21, VP22, VP23...) Obtained by viewpoint tracking in each frame, The line-of-sight directions (VL21, VL22, VL23...) Are stored as viewpoint history information VPHT2 in association with each frame number (I1, I2, I3...). In these routes LC1 and LC2, since the course of the moving body MV is different, the viewpoint position and the line-of-sight direction stored in association with each frame number (each index) in the viewpoint history information VPHT1 and VPHT2 are also different. .

そして、例えばプレーヤが操作する移動体MVが、周回のコースCSの第3周目において、図10(B)に示す同じコーナを通過する際に、視点トラッキングがロスト状態になったとする。具体的には図8(B)、図8(C)のような状態になって、撮像部40によりプレーヤの顔等を撮像できなくなり、視点トラッキングによってはプレーヤの視点情報を得られなくなったロスト状態になったとする。   For example, when the moving body MV operated by the player passes the same corner shown in FIG. 10B in the third lap of the circuit course CS, the viewpoint tracking is in a lost state. Specifically, the lost state where the player's face and the like cannot be captured by the imaging unit 40 due to the state shown in FIGS. 8B and 8C and the viewpoint information of the player cannot be obtained by viewpoint tracking. Suppose that it becomes a state.

この場合に本実施形態では、図10(C)に示す視点履歴情報VPHT1、VPHT2を用いて、トラッキング視点のロスト状態時のプレーヤの視点情報を推定する。具体的には、視点履歴情報VPHT1、VPHT2と、移動体MVの移動情報又はプレーヤの操作情報などに基づいて、ロスト状態時の視点情報を推定する。例えば、コースCSの第3周目での当該コーナにおける移動体MVの位置、速度、加速度、角速度又は角加速度等の移動情報と、視点履歴情報VPHT1、VPHT2とに基づいて、ロスト状態時の視点情報を推定する。例えば移動体MVの位置に基づいて、移動体MVの第3周目での移動経路LC3と、図10(B)の移動経路LC1、LC2との近接度合いを判断する。そして、例えば第1周目、第2周目の移動経路LC1、LC2のうち、第3周目の移動経路LC3に近い方の移動経路に対応づけられた視点履歴情報(VPHT1又はVPHT2)に基づいて、ロスト状態時のプレーヤの視点位置や視線方向などの視点情報を求める。或いは、移動経路LC1、LC2の各々に対応する重み付け係数WT1、WT2を、第3周目の移動経路LC3との近接度合いに基づいて設定し、これらの重み付け係数WT1、WT2により視点履歴情報VPHT1、VPHT2の重み付け処理を行って、ロスト状態時のプレーヤの視点情報を求める。   In this case, in this embodiment, the viewpoint information of the player when the tracking viewpoint is in the lost state is estimated using the viewpoint history information VPHT1 and VPHT2 shown in FIG. Specifically, the viewpoint information in the lost state is estimated based on the viewpoint history information VPHT1 and VPHT2 and the movement information of the moving object MV or the operation information of the player. For example, based on the movement information such as the position, velocity, acceleration, angular velocity or angular acceleration of the moving body MV in the corner on the third lap of the course CS and the viewpoint history information VPHT1, VPHT2, the viewpoint in the lost state Estimate information. For example, based on the position of the moving body MV, the degree of proximity between the moving path LC3 in the third turn of the moving body MV and the moving paths LC1 and LC2 in FIG. Then, for example, based on viewpoint history information (VPHT1 or VPHT2) associated with the movement path closer to the movement path LC3 of the third lap among the movement paths LC1 and LC2 of the first and second laps. Thus, viewpoint information such as the player's viewpoint position and line-of-sight direction in the lost state is obtained. Alternatively, the weighting coefficients WT1 and WT2 corresponding to each of the movement paths LC1 and LC2 are set based on the degree of proximity to the movement path LC3 in the third lap, and the viewpoint history information VPHT1 and the weighting coefficients WT1 and WT2 The weighting process of VPHT2 is performed, and the viewpoint information of the player in the lost state is obtained.

或いは、移動体MVの速度(或いは加速度、角速度、角加速度)が速いと判断された場合には、移動経路LC2の視点履歴情報VPHT2を採用したり、視点履歴情報VPHT2の重み付け係数を大きくすることで、ロスト状態時のプレーヤの視点情報を求める。一方、移動体MVの速度(或いは加速度、角速度、角加速度)が遅いと判断された場合には、移動経路LC1の視点履歴情報VPHT1を採用したり、視点履歴情報VPHT1の重み付け係数を大きくすることで、ロスト状態時のプレーヤの視点情報を求める。このようにすれば、プレーヤが操作する移動体MVが周回のコースCSにおいて過去に同じコーナ(広義にはエリア)を通過したときの視点履歴情報に基づいて、トラッキング視点のロスト状態時の視点情報を推定できるようになる。   Alternatively, when it is determined that the speed (or acceleration, angular velocity, angular acceleration) of the moving object MV is high, the viewpoint history information VPHT2 of the movement path LC2 is adopted, or the weighting coefficient of the viewpoint history information VPHT2 is increased. Thus, the viewpoint information of the player in the lost state is obtained. On the other hand, when it is determined that the speed (or acceleration, angular velocity, angular acceleration) of the moving body MV is slow, the viewpoint history information VPHT1 of the movement path LC1 is adopted, or the weighting coefficient of the viewpoint history information VPHT1 is increased. Thus, the viewpoint information of the player in the lost state is obtained. In this way, the viewpoint information when the tracking viewpoint is in the lost state based on the viewpoint history information when the moving body MV operated by the player has passed through the same corner (area in a broad sense) in the past in the course CS. Can be estimated.

また図11(A)の周回のコースCSでは、コースCSに対して複数のコースブロックが設定されている。例えば図11(A)のE1に示すコーナに対しては、図11(B)に示すようにコースブロックC1〜C11が設定されている。C1〜C11の各コースブロックは、コースCSの進行方向に対して交差(直交)する方向のラインで分割されている。そして図11(C)の視点履歴情報では、このコースブロック(コースブロック番号)がインデックスとなって、視点位置や視線方向などの視点情報が記憶されている。即ち図10(A)の視点履歴情報におけるインデックスが、図11(C)ではコースブロックになっている。   In the circuit course CS in FIG. 11A, a plurality of course blocks are set for the course CS. For example, for the corner indicated by E1 in FIG. 11A, course blocks C1 to C11 are set as shown in FIG. Each of the course blocks C1 to C11 is divided by lines in a direction intersecting (orthogonal) with the traveling direction of the course CS. In the viewpoint history information of FIG. 11C, this course block (course block number) is used as an index, and viewpoint information such as the viewpoint position and the line-of-sight direction is stored. That is, the index in the viewpoint history information in FIG. 10A is a course block in FIG.

なお、コースブロックは、視点情報以外の情報が更に対応づけられるブロックであってもよい。例えば、各コースブロックの形状を特定するための形状データや各コースブロックでの走行条件設定データなどを、視点情報と共に、コースブロックに対応づけて記憶するようにしてもよい。形状データは、例えば進行方向に交差(直交)する方向での各コースブロックのコース幅等のデータである。走行条件設定デーは、例えば各コースブロックにおいて移動体の走行条件を設定するためのデータであり、例えば路面の摩擦度や滑りやすさなどを表す路面データなどである。図4のコースデータ記憶部178は、各コースブロックに対して、このような各種の情報が対応づけられたコースデータを記憶する。なお、コースブロックに対して各種の情報を対応づけてコースデータとして記憶する手法については、例えば特開2000−348216号公報などに開示されている。   The course block may be a block to which information other than the viewpoint information is further associated. For example, shape data for specifying the shape of each course block, running condition setting data in each course block, and the like may be stored in association with the course block together with the viewpoint information. The shape data is data such as the course width of each course block in a direction intersecting (orthogonal) with the traveling direction, for example. The travel condition setting data is, for example, data for setting the travel conditions of the moving body in each course block, and is, for example, road surface data indicating the degree of friction and slipperiness of the road surface. The course data storage unit 178 in FIG. 4 stores course data in which such various types of information are associated with each course block. Note that a technique for associating various information with a course block and storing it as course data is disclosed in, for example, Japanese Patent Application Laid-Open No. 2000-348216.

図12は、図11(A)、図11(B)に示すような周回のコースCSで生成される視点履歴情報の例である。例えば周回のコースCSの第1周目での移動体の走行における視点トラッキング等に基づいて、図12の視点履歴情報VPHT1が生成される。第2周目での走行における視点トラッキング等に基づいて、視点履歴情報VPHT2が生成される。このようにして、コースCSを移動体がN周することで、視点履歴情報VPHT1〜VPHTNが生成される。   FIG. 12 is an example of viewpoint history information generated in a course CS as shown in FIGS. 11 (A) and 11 (B). For example, the viewpoint history information VPHT1 of FIG. 12 is generated based on viewpoint tracking or the like in traveling of the moving body in the first lap of the circuit course CS. The viewpoint history information VPHT2 is generated based on viewpoint tracking or the like in traveling in the second lap. In this way, viewpoint history information VPHT1 to VPTN is generated when the moving body makes N turns around the course CS.

そして、例えばコースCSの第N+1周目での移動体の走行時に、図8(B)、図8(C)で説明したようなトラッキング視点のロスト状態が発生すると、図12の複数の視点履歴情報VPHT1〜VPHTN(第1〜第Nの視点履歴情報)と、その時の移動体の移動情報(又はプレーヤの操作情報)に基づき、視点情報が選択される。そして選択された視点情報が、トラッキング視点のロスト状態時のプレーヤの視点情報として推定される。このようにして、移動体が周回のコースCSにおいて過去に同じコースブロック(広義にはエリア)を通過したときの視点履歴情報に基づいて、トラッキング視点のロスト状態時の視点情報が推定されるようになる。   Then, for example, when the tracking viewpoint lost state as described with reference to FIGS. 8B and 8C occurs during traveling of the moving body on the (N + 1) th lap of the course CS, a plurality of viewpoint histories in FIG. The viewpoint information is selected based on the information VPHT1 to VPHTN (first to Nth viewpoint history information) and the movement information of the moving body (or the operation information of the player) at that time. The selected viewpoint information is estimated as the viewpoint information of the player when the tracking viewpoint is in the lost state. In this way, the viewpoint information in the lost state of the tracking viewpoint is estimated based on the viewpoint history information when the moving body has passed the same course block (area in a broad sense) in the past in the circuit CS of the circuit. become.

図13に、視点履歴情報に基づく視点情報の推定処理のフローチャートを示す。まず、移動体の位置、速度等の移動情報を演算ずる(ステップS11)。これは操作部160により入力されたプレーヤの操作情報に基づいて、移動体の移動演算処理を行うことで実現される。そして移動体が位置するコースブロックを特定する(ステップS12)。例えば図11(A)のコースCSのE1に示すコーナを移動体が移動している場合には、図11(B)のコースブロックC1〜C11のいずれに移動体が位置しているのかが特定される。このコースブロックの特定は、ステップS11で求められた移動体の位置の情報等に基づき行われる。   FIG. 13 shows a flowchart of viewpoint information estimation processing based on viewpoint history information. First, movement information such as the position and speed of the moving body is calculated (step S11). This is realized by performing movement calculation processing of the moving body based on the player operation information input from the operation unit 160. Then, the course block where the moving body is located is specified (step S12). For example, when the moving body is moving in the corner indicated by E1 of the course CS in FIG. 11A, it is specified in which of the course blocks C1 to C11 in FIG. 11B the moving body is located. Is done. The course block is specified based on the information on the position of the moving body obtained in step S11.

次に、複数の視点履歴情報において、特定されたコースブロックに対応づけられた複数の視点情報の中から、移動体の移動情報(或いはプレーヤの操作情報)に対応する視点情報を選択する(ステップS13)。そして選択された視点情報を、トラッキング視点のロスト状態時の視点情報として推定する(ステップS14)。   Next, viewpoint information corresponding to movement information (or player operation information) of the moving body is selected from a plurality of viewpoint information associated with the identified course block in a plurality of viewpoint history information (step S13). The selected viewpoint information is estimated as viewpoint information when the tracking viewpoint is in a lost state (step S14).

例えば図12において、移動体の周回数がN+1周目である場合には、第1周目〜第N周目で得られた視点履歴情報VPHT1〜VPHTNにおいて、ステップS12で特定されたコースブロックに対応づけられた複数の視点情報の中から、移動体の移動情報(プレーヤの操作情報)に対応する視点情報が選択される。   For example, in FIG. 12, when the number of laps of the moving body is N + 1, the course block specified in step S12 in the viewpoint history information VPHT1 to VPHTN obtained in the 1st to Nth laps. The viewpoint information corresponding to the movement information of the moving body (player operation information) is selected from the plurality of associated viewpoint information.

例えば、トラッキング視点のロスト状態時に移動体が位置するコースブロックが、図11(B)のコースブロックC1であったとする。この場合には、視点履歴情報VPHT1〜VPHTNにおいて、コースブロックC1に対応づけられた視点位置VP11〜VPN1、視線方向VL11〜VLN1などの視点情報の中から、移動体の速度、加速度等の移動情報に対応する視点情報が選択される。   For example, it is assumed that the course block in which the moving body is located in the tracking viewpoint lost state is the course block C1 in FIG. In this case, in the viewpoint history information VPHT1 to VPTN, movement information such as the speed and acceleration of the moving body is selected from the viewpoint information such as the viewpoint positions VP11 to VPN1 and the line-of-sight directions VL11 to VLN1 associated with the course block C1. The viewpoint information corresponding to is selected.

具体的には図12では、各コースブロックに対して、過去にそのコースブロックを通過した時の移動体の速度(広義には移動情報。或いはプレーヤの操作情報であってもよい)が対応づけられている。例えば視点履歴情報VPHT1、VPHT2・・・VPHTNでは、コースブロックC1に対して、第1周目〜第N周目にコースブロックC1を通過した時の速度VC11、VC21・・・VCN1が対応づけられている。そして、第N+1周目においてコースブロックC1での移動体の速度がVCXである場合には、視点履歴情報VPHT1〜VPHTNのコースブロックC1に対応づけられた速度VC11〜VCN1の中から、例えば速度VCXに最も近い速度を選択する。   Specifically, in FIG. 12, each course block is associated with the speed of the moving body when it has passed the course block in the past (moving information in a broad sense, or may be player operation information). It has been. For example, in the viewpoint history information VPHT1, VPHT2,..., VPHTN, the speed VC11, VC21,..., VCN1 when passing through the course block C1 in the first to Nth laps is associated with the course block C1. ing. When the speed of the moving body in the course block C1 is VCX in the (N + 1) th lap, for example, the speed VCX is selected from the speeds VC11 to VCN1 associated with the course block C1 of the viewpoint history information VPHT1 to VPHTN. Select the speed closest to.

例えば視点履歴情報VPHT1においてコースブロックC1に対応づけられた速度VC11が、速度VCXに最も近かったとする。この場合には、視点履歴情報VPHT1においてコースブロックC1に対応づけられた視点位置VP11、視線方向VL11が選択されて、トラッキング視点のロスト状態時のプレーヤの視点情報として推定される。或いは、視点履歴情報VPHTNにおいてコースブロックC1に対応づけられた速度VCN1が、速度VCXに最も近かったとする。この場合には、視点履歴情報VPHTNにおいてコースブロックC1に対応づけられた視点位置VPN1、視線方向VLN1が、トラッキング視点のロスト状態時のプレーヤの視点情報として推定される。   For example, it is assumed that the speed VC11 associated with the course block C1 in the viewpoint history information VPHT1 is closest to the speed VCX. In this case, the viewpoint position VP11 and the line-of-sight direction VL11 associated with the course block C1 in the viewpoint history information VPHT1 are selected and estimated as the player viewpoint information when the tracking viewpoint is in the lost state. Alternatively, it is assumed that the speed VCN1 associated with the course block C1 in the viewpoint history information VPHTN is closest to the speed VCX. In this case, the viewpoint position VPN1 and the line-of-sight direction VLN1 associated with the course block C1 in the viewpoint history information VPHTN are estimated as the viewpoint information of the player when the tracking viewpoint is in the lost state.

このようにすることで、移動体が周回コースにおいて過去に同じエリアを通過したときの視点履歴情報(視点情報)に基づいて、ロスト状態時の視点情報を推定できるようになる。つまり、図10(A)〜図10(C)で説明したようなロスト状態時の視点情報の推定処理を実現できる。   By doing in this way, viewpoint information in a lost state can be estimated based on viewpoint history information (viewpoint information) when the moving body has passed through the same area in the past in the circuit course. That is, the viewpoint information estimation process in the lost state as described with reference to FIGS. 10A to 10C can be realized.

例えばN+1周目のコーナリングにおいて、移動体MVの速度が高ければ、図10(B)のLC2のような経路で移動体MVが走行する可能性が高い。従って、この場合には、過去の第1〜第N周の視点履歴情報の中から、同じように速度が高かった時の視点履歴情報の視点情報を選択することで、このように速い速度でコーナリングしたときの視点情報を、ロスト状態時のプレーヤの視点情報として推定できるようになる。従って、より適切な視点情報の推定処理を実現できる。   For example, in the cornering of the (N + 1) th cycle, if the speed of the moving body MV is high, there is a high possibility that the moving body MV travels along a route such as LC2 in FIG. Therefore, in this case, by selecting the viewpoint information of the viewpoint history information at the same time from the past viewpoint history information of the first to N-th laps at the same speed, at such a high speed. The viewpoint information when cornering can be estimated as the viewpoint information of the player in the lost state. Therefore, more appropriate viewpoint information estimation processing can be realized.

なお、以上では、移動体の速度に基づいて視点情報を選択する場合について説明したが、移動体の加速度、角速度、角加速度等に基づいて、視点情報を選択してもよい。或いはプレーヤの操作情報(例えばハンドルを回した角度、アクセルペダルやブレーキペダルの踏み込み量等)に基づいて、視点情報を選択してもよい。即ち、プレーヤの操作履歴情報に基づいて、トラッキング視点のロスト状態時のプレーヤの視点情報を推定してもよい。   In the above description, the viewpoint information is selected based on the speed of the moving body. However, the viewpoint information may be selected based on the acceleration, angular velocity, angular acceleration, and the like of the moving body. Alternatively, the viewpoint information may be selected based on the player's operation information (for example, the angle at which the steering wheel is turned, the depression amount of the accelerator pedal or the brake pedal, etc.). That is, the player viewpoint information when the tracking viewpoint is in the lost state may be estimated based on the player operation history information.

2.4 可動機構の動作情報に基づく推定処理
本実施形態では、可動機構の動作情報に基づいて、トラッキング視点のロスト状態時の視点情報の推定処理を行う。図14に、このような可動機構の動作情報に基づく視点情報の推定処理のフローチャートを示す。
2.4 Estimation Process Based on Movement Information of Movable Mechanism In the present embodiment, viewpoint information estimation processing when the tracking viewpoint is in a lost state is performed based on the movement information of the movable mechanism. FIG. 14 shows a flowchart of viewpoint information estimation processing based on the operation information of such a movable mechanism.

まず、プレーヤの操作情報を取得する(ステップS21)。そして、取得されたプレーヤの操作情報や、ゲーム状況情報に基づいて、可動機構60を動作させる(ステップS22)。例えば図1のハンドル50、ブレーキペダル52、アクセルペダル54、或いはシフトレバー56などをプレーヤが操作すると、その操作情報に基づいて、可動機構60を動作させる。或いは、ゲーム状況に対応するように可動機構60を動作させる。例えばゲーム処理においては、ゲーム進行に伴い、ゲーム状況を表すゲームパラメータを変化(更新)させる処理を行うが、このゲームパラメータの情報に基づいて、可動機構60を動作させる。   First, player operation information is acquired (step S21). Then, based on the acquired player operation information and game situation information, the movable mechanism 60 is operated (step S22). For example, when the player operates the handle 50, the brake pedal 52, the accelerator pedal 54, or the shift lever 56 of FIG. 1, the movable mechanism 60 is operated based on the operation information. Alternatively, the movable mechanism 60 is operated so as to correspond to the game situation. For example, in the game process, as the game progresses, a process that changes (updates) a game parameter that represents a game situation is performed, and the movable mechanism 60 is operated based on information about the game parameter.

具体的には、図1においてプレーヤがハンドル50を右に切った場合(右に回した場合)には、シート10(座部)が右回りに回転するように可動機構60を動作させる。具体的には、図3の電動シリンダ73のロッド部が長くなり、電動シリンダ74のロッド部が短くなるように、電動シリンダ73、74を動作させる。これにより、例えば車のテールが左方向に流れて、右コーナでのコーナリングで車がドリフト走行したような感覚を、プレーヤに与えることができる。   Specifically, in FIG. 1, when the player turns the handle 50 to the right (when turned to the right), the movable mechanism 60 is operated so that the seat 10 (seat portion) rotates clockwise. Specifically, the electric cylinders 73 and 74 are operated so that the rod portion of the electric cylinder 73 in FIG. 3 is long and the rod portion of the electric cylinder 74 is short. Thus, for example, it is possible to give the player a feeling that the car tail drifts to the left and the car drifts by cornering at the right corner.

一方、プレーヤがハンドル50を左に切った場合(左に回した場合)には、シート10が左回りに回転するように可動機構60を動作させる。具体的には、電動シリンダ73のロッド部が短くなり、電動シリンダ74のロッド部が長くなるように、電動シリンダ73、74を動作させる。これにより、例えば車のテールが右方向に流れて、左コーナでのコーナリングで車がドリフト走行したような感覚を、プレーヤに与えることができる。   On the other hand, when the player turns the handle 50 to the left (when turned to the left), the movable mechanism 60 is operated so that the seat 10 rotates counterclockwise. Specifically, the electric cylinders 73 and 74 are operated so that the rod portion of the electric cylinder 73 becomes shorter and the rod portion of the electric cylinder 74 becomes longer. Thereby, for example, the tail of the car flows in the right direction, and it is possible to give the player a feeling that the car has drifted by cornering at the left corner.

或いは、ゲーム状況情報の一つである走行状況が、凹凸の路面を走るような走行状況である場合には、シート10が微少に揺れるように可動機構60を動作させる。具体的には、電動シリンダ73、74のロッド部を微少のストローク距離で直線運動させる。これにより、あたかも車が凹凸のあるガタガタ道を走行しているような感覚を、プレーヤに与えることができる。   Alternatively, when the running situation that is one of the game situation information is a running situation that runs on an uneven road surface, the movable mechanism 60 is operated so that the seat 10 is slightly shaken. Specifically, the rod portions of the electric cylinders 73 and 74 are linearly moved with a minute stroke distance. Thereby, it is possible to give the player a feeling as if the vehicle is traveling on a rough road with unevenness.

そして図14において、トラッキング視点がロスト状態であるか否かを判断し(ステップS23)、ロスト状態であると判断された場合には、可動機構60の動作情報に基づいて、ロスト状態時のプレーヤの視点情報の推定処理を行う(ステップS24)。   In FIG. 14, it is determined whether or not the tracking viewpoint is in the lost state (step S23). If it is determined that the tracking viewpoint is in the lost state, the player in the lost state is determined based on the operation information of the movable mechanism 60. The viewpoint information is estimated (step S24).

例えば図15(A)において、シート10が停止している時のシート10の方向をCLとし、プレーヤの視点位置をVPとし、視線方向をVLとする。この場合に図15(B)では、例えばプレーヤが図1のハンドル50を右に切ったため、シート10が右回りに回転(プレーヤが向く方向を正面方向とした場合の右回り)するように、可動機構60が動作している。また図15(C)では、例えばプレーヤがハンドル50を左に切ったため、シート10が左回りに回転するように、可動機構60が動作している。   For example, in FIG. 15A, the direction of the seat 10 when the seat 10 is stopped is CL, the viewpoint position of the player is VP, and the line-of-sight direction is VL. In this case, in FIG. 15B, for example, the player turns the handle 50 of FIG. 1 to the right, so that the seat 10 rotates clockwise (clockwise when the direction facing the player is the front direction) The movable mechanism 60 is operating. In FIG. 15C, for example, since the player has turned the handle 50 to the left, the movable mechanism 60 is operated so that the seat 10 rotates counterclockwise.

本実施形態では、図15(B)、図15(C)のように可動機構60が動作した時のプレーヤの視点位置VPや視線方向VLを、視点トラッキング等を利用して予め計測しておく。そして、計測した視点位置VPや視線方向VLなどの視点情報を、可動機構60の動作情報に対応づけて記憶しておく。例えば図4の記憶部170に記憶しておく。例えばシート10の各回転角度(広義には可動対象物の動作情報)、或いは電動シリンダ73、74のロッド部の各移動量(広義にはアクチュエータの動作情報)などの各動作情報に対して、その各動作情報に対応する視点情報の計測結果(或いはシミュレーション結果)を対応づけて記憶しておく。そして、トラッキング視点がロスト状態になった場合には、その時の可動機構60の動作情報(動作状況)に対応づけられた視点情報を、記憶部170から読み出し、読み出された視点情報を、ロスト状態時のプレーヤの視点情報として推定する。   In this embodiment, the player's viewpoint position VP and line-of-sight direction VL when the movable mechanism 60 is operated as shown in FIGS. 15B and 15C are measured in advance using viewpoint tracking or the like. . Then, the viewpoint information such as the measured viewpoint position VP and the line-of-sight direction VL is stored in association with the operation information of the movable mechanism 60. For example, it is stored in the storage unit 170 of FIG. For example, for each operation information such as each rotation angle of the seat 10 (operation information of the movable object in a broad sense) or each movement amount of the rod portion of the electric cylinders 73 and 74 (operation information of the actuator in a broad sense), Measurement results (or simulation results) of viewpoint information corresponding to each operation information are stored in association with each other. When the tracking viewpoint becomes lost, the viewpoint information associated with the operation information (operation status) of the movable mechanism 60 at that time is read from the storage unit 170, and the read viewpoint information is converted into the lost viewpoint information. Estimated as the viewpoint information of the player in the state.

例えば図15(B)のようにシート10が右回りに回転した際に、トラッキング視点がロスト状態になった場合には、この回転角度の時(回転状態の時)の計測結果(シミュレーション結果)である視点情報が、記憶部170から読み出されて、ロスト状態時のプレーヤの視点情報として推定される。同様に図15(C)のようにシート10が左回りに回転した際に、トラッキング視点がロスト状態になった場合には、この回転角度の時(回転状態の時)の計測結果(シミュレーション結果)である視点情報が、記憶部170から読み出されて、ロスト状態時のプレーヤの視点情報として推定される。   For example, when the tracking viewpoint is in a lost state when the seat 10 is rotated clockwise as shown in FIG. 15B, the measurement result (simulation result) at this rotation angle (in the rotation state). Is read from the storage unit 170 and is estimated as the viewpoint information of the player in the lost state. Similarly, when the tracking viewpoint is in the lost state when the seat 10 is rotated counterclockwise as shown in FIG. 15C, the measurement result (simulation result) at this rotation angle (in the rotation state). ) Is read from the storage unit 170 and estimated as the player's viewpoint information in the lost state.

このようにすれば、トラッキング視点がロスト状態になった場合に、その時の可動機構60の動作状態に応じた視点に、プレーヤの視点を設定できるようになる。従って、トラッキング視点がロスト状態になっても、違和感が少なく、より自然に見える画像を生成して、プレーヤに表示できるようになる。   In this way, when the tracking viewpoint is in the lost state, the player's viewpoint can be set to the viewpoint according to the operating state of the movable mechanism 60 at that time. Therefore, even when the tracking viewpoint is in a lost state, it is possible to generate an image that is less uncomfortable and looks more natural and can be displayed on the player.

2.5 プレーヤ情報に基づく推定処理
本実施形態では、プレーヤの体格情報、性別情報及び年齢情報の少なくとも1つを含むプレーヤ情報に基づいて、トラッキング視点のロスト状態時の視点情報の推定処理を行ってもよい。具体的には複数の候補視点情報の中から、プレーヤ情報に基づいて視点情報を選択する処理を、ロスト状態時の視点情報の推定処理として行う。図16に、このようなプレーヤ情報に基づく視点情報の推定処理のフローチャートを示す。
2.5 Estimation Processing Based on Player Information In this embodiment, viewpoint information estimation processing in a lost tracking viewpoint state is performed based on player information including at least one of the player's physique information, gender information, and age information. May be. Specifically, the process of selecting viewpoint information based on the player information from among a plurality of candidate viewpoint information is performed as the viewpoint information estimation process in the lost state. FIG. 16 shows a flowchart of viewpoint information estimation processing based on such player information.

まず、プレーヤの体格、性別、年齢等のプレーヤ情報を取得しておく(ステップS31)。これは、例えばプレーヤが図4の操作部160を用いてプレーヤ情報を入力することで、取得できる。或いは、補助記憶装置194であるICカード等を用いて、プレーヤ情報を取得してもよい。例えば、プレーヤがICカードを図1のカードリーダー58にタッチすると、ICカードに対応づけられたプレーヤ情報が取得される。具体的には、ICカードの媒体IDがネットワークを介して不図示のサーバシステムに送られ、サーバシステムの記憶部(データベース)から、媒体IDに対応づけて記憶されているプレーヤ情報(ユーザ情報、個人情報)が読み出される。そして、読み出されたプレーヤ情報をネットワークを介して画像生成システム(ゲームシステム)が受信することで、プレーヤ情報が取得される。或いは、ICカード(広義には補助記憶装置)にプレーヤ情報そのものを記憶しておいてもよい。また、プレーヤが自ら入力しなくても、撮影装置によって取得することができる情報もある。例えば、「プレーヤがシートに座った時の基本的な姿勢における地面から視点までの高さ」といった情報は、プレーヤ本人にも正確には分からないことが多い。しかし、「シートポジションをプレイ前には毎回定位置に戻しておき、そこにプレーヤが初めて座って姿勢が安定したときの視点位置を取得する」、といった方法で、その情報をある程度正確に取得することができる。   First, player information such as the player's physique, sex, and age is acquired (step S31). This can be acquired, for example, when the player inputs player information using the operation unit 160 of FIG. Alternatively, the player information may be acquired using an IC card or the like as the auxiliary storage device 194. For example, when the player touches the IC card with the card reader 58 of FIG. 1, player information associated with the IC card is acquired. Specifically, the medium ID of the IC card is sent to a server system (not shown) via a network, and player information (user information, user information, and the like) stored in association with the medium ID from the storage unit (database) of the server system. Personal information) is read out. The read player information is received by the image generation system (game system) via the network, and the player information is acquired. Alternatively, the player information itself may be stored in an IC card (an auxiliary storage device in a broad sense). In addition, there is information that can be acquired by the photographing apparatus without the player inputting it himself. For example, information such as “the height from the ground to the viewpoint in the basic posture when the player sits on the seat” is often not accurately known to the player himself / herself. However, the information is acquired to a certain degree of accuracy by a method such as “return the seat position to a fixed position every time before playing, and acquire the viewpoint position when the player sits there for the first time and the posture is stable”. be able to.

そしてトラッキング視点がロスト状態であるか否かを判断し(ステップS32)、ロスト状態であると判断された場合には、可動機構60の動作情報等に基づいて、取得された複数の候補視点情報の中から、プレーヤ情報に対応する視点情報を選択する(ステップS33)。そして、選択された視点情報を、トラッキング視点のロスト状態時のプレーヤの視点情報として推定する(ステップS34)。   Then, it is determined whether or not the tracking viewpoint is in a lost state (step S32). If it is determined that the tracking viewpoint is in a lost state, a plurality of pieces of candidate viewpoint information acquired based on operation information of the movable mechanism 60 and the like are determined. Viewpoint information corresponding to the player information is selected (step S33). Then, the selected viewpoint information is estimated as the viewpoint information of the player when the tracking viewpoint is in the lost state (step S34).

例えば前述の図15(A)〜図15(C)のように可動機構60の動作情報に基づいて、ロスト状態時のプレーヤの視点情報を推定する場合に、図15(B)、図15(C)の視点情報(VP、VL)として、複数の候補視点情報を用意しておく。例えば身長が高い人用(体格が大きい人用)の視点情報と、身長が低い人用(体格が小さい人用)の視点情報を用意しておく。例えば身長が高い人では、視点位置VPが高くなり、身長が低い人では、視点位置VPが低くなる。   For example, when estimating the player's viewpoint information in the lost state based on the operation information of the movable mechanism 60 as shown in FIGS. 15 (A) to 15 (C) described above, FIGS. A plurality of candidate viewpoint information is prepared as viewpoint information (VP, VL) of C). For example, viewpoint information for a person with a high height (for a person with a large physique) and viewpoint information for a person with a short height (for a person with a small physique) are prepared. For example, the viewpoint position VP is high for a person who is tall, and the viewpoint position VP is low for a person who is short.

そして、プレーヤ情報の体格情報に基づいて、プレーヤの身長が高いと判断される場合には、例えば可動機構60の動作情報に対応づけられた候補視点情報の中から、身長が高い人用の視点情報を、トラッキング視点のロスト状態時の視点情報として選択する。一方、プレーヤ情報の体格情報に基づいて、プレーヤの身長が低いと判断される場合には、例えば可動機構60の動作情報に対応づけられた候補視点情報の中から、身長が低い人用の視点情報を、トラッキング視点のロスト状態時の視点情報として選択する。   When it is determined that the height of the player is high based on the physique information of the player information, for example, a viewpoint for a person with high height is selected from candidate viewpoint information associated with the operation information of the movable mechanism 60. Information is selected as viewpoint information when the tracking viewpoint is in a lost state. On the other hand, when it is determined that the height of the player is low based on the physique information of the player information, for example, a viewpoint for a person with a short height is selected from candidate viewpoint information associated with the operation information of the movable mechanism 60. Information is selected as viewpoint information when the tracking viewpoint is in a lost state.

このようにすれば、トラッキング視点のロスト状態時に、プレーヤの身長等の体格に応じた適切な視点情報を選択して画像を生成し、プレーヤに表示できるようになる。   In this way, when the tracking viewpoint is in a lost state, it is possible to select an appropriate viewpoint information corresponding to the physique such as the height of the player, generate an image, and display it on the player.

また図15(B)、図15(C)の視点情報(VP、VL)として、例えば男性用や大人用の視点情報と、女性用や子供用の視点情報を用意しておく。例えばシート10が図15(B)、図15(C)のように回転した場合に、男性や大人では、視線方向VLの変化が少ないことが予想され、女性や子供では、視線方向VLの変化が大きいことが予想される。   As viewpoint information (VP, VL) in FIGS. 15B and 15C, for example, viewpoint information for men and adults and viewpoint information for women and children are prepared. For example, when the seat 10 is rotated as shown in FIGS. 15B and 15C, it is expected that the change in the line-of-sight direction VL is small for men and adults, and the change in the line-of-sight direction VL is expected for women and children. Is expected to be large.

そして、プレーヤ情報の性別情報や年齢情報に基づいて、プレーヤが男性や大人であると判断される場合には、例えば可動機構60の動作情報に対応づけられた候補視点情報の中から、男性用や大人用の視点情報を、トラッキング視点のロスト状態時の視点情報として選択する。一方、プレーヤ情報の性別情報や年齢情報に基づいて、プレーヤが女性や子供であると判断される場合には、例えば可動機構60の動作情報に対応づけられた候補視点情報の中から、女性用や子供用の視点情報を、トラッキング視点のロスト状態時の視点情報として選択する。   Then, when it is determined that the player is a male or an adult based on the gender information or the age information of the player information, for example, from the candidate viewpoint information associated with the operation information of the movable mechanism 60, the male Or adult viewpoint information is selected as the viewpoint information when the tracking viewpoint is in a lost state. On the other hand, when it is determined that the player is a woman or a child based on the gender information or age information of the player information, for example, from among the candidate viewpoint information associated with the operation information of the movable mechanism 60, Viewpoint information for children and children is selected as viewpoint information when the tracking viewpoint is in a lost state.

例えば男性用や大人用の視点情報を用意する場合には、実際に男性や大人にシート10に座って貰い、シート10を回転させるなどの動作を可動機構60に行わせる。そして、その時に計測された視点情報を、可動機構60の動作情報に対応づけて、記憶部170に記憶しておけばよい。同様に、女性用や子供用の視点情報を用意する場合には、実際に女性や子供にシート10に座って貰い、シート10を回転させるなどの動作を可動機構60に行わせる。そして、その時に計測された視点情報を、可動機構60の動作情報に対応づけて、記憶部170に記憶しておけばよい。   For example, when preparing male or adult viewpoint information, the movable mechanism 60 is caused to perform operations such as actually sitting on the seat 10 by a male or adult and rotating the seat 10. Then, the viewpoint information measured at that time may be stored in the storage unit 170 in association with the operation information of the movable mechanism 60. Similarly, when preparing viewpoint information for women or children, the movable mechanism 60 is caused to perform operations such as actually sitting on the seat 10 by a woman or child and rotating the seat 10. Then, the viewpoint information measured at that time may be stored in the storage unit 170 in association with the operation information of the movable mechanism 60.

このようにすれば、トラッキング視点のロスト状態時に、プレーヤの性別や年齢に応じた適切な視点情報を選択して画像を生成し、プレーヤに表示できるようになる。   In this way, when the tracking viewpoint is in a lost state, it is possible to select appropriate viewpoint information according to the gender and age of the player, generate an image, and display it on the player.

なお、以上では、可動機構60の動作情報に基づき、複数の候補視点情報の中から視点情報を選択する場合について説明したが、本実施形態はこれに限定されない。例えば移動体の移動情報(位置、速度、加速度、角速度又は角加速度等)、プレーヤの操作情報、又はゲーム状況情報に基づき、複数の候補視点情報の中から、プレーヤ情報に対応する視点情報を選択することで、トラッキング視点のロスト状態時のプレーヤの視点情報を推定してもよい。例えば図10(A)〜図13で説明した手法で視点情報を選択する際に、更にプレーヤ情報を加味して視点情報を選択し、ロスト状態時のプレーヤの視点情報を推定してもよい。   In the above description, the case where the viewpoint information is selected from the plurality of candidate viewpoint information based on the operation information of the movable mechanism 60 has been described. However, the present embodiment is not limited to this. For example, based on movement information (position, velocity, acceleration, angular velocity, angular acceleration, etc.) of a moving body, player operation information, or game situation information, viewpoint information corresponding to player information is selected from a plurality of candidate viewpoint information Thus, the viewpoint information of the player when the tracking viewpoint is in the lost state may be estimated. For example, when the viewpoint information is selected by the method described with reference to FIGS. 10A to 13, the viewpoint information may be estimated in consideration of the player information, and the viewpoint information of the player in the lost state may be estimated.

2.6 物理シミュレーション処理の結果に基づく推定処理
本実施形態では、プレーヤの動作の物理シミュレーション処理の結果に基づいて、トラッキング視点のロスト状態時の視点情報の推定処理を行ってもよい。図17に、このような物理シミュレーション処理の結果に基づく視点情報の推定処理のフローチャートを示す。
2.6 Estimation Processing Based on Results of Physical Simulation Processing In this embodiment, viewpoint information estimation processing when the tracking viewpoint is in a lost state may be performed based on the results of physical simulation processing of player operations. FIG. 17 shows a flowchart of viewpoint information estimation processing based on the result of such physical simulation processing.

まず、プレーヤの操作情報を取得する(ステップS41)。そして、プレーヤの操作情報やゲーム状況情報に基づいて、可動機構60を動作させる(ステップS42)。例えば前述のように、ハンドル50等の操作情報に基づいて、可動機構60を動作させる。或いは、例えば路面状況等のゲーム状況に応じて可動機構60を動作させる。   First, player operation information is acquired (step S41). Then, the movable mechanism 60 is operated based on the player operation information and game situation information (step S42). For example, as described above, the movable mechanism 60 is operated based on operation information on the handle 50 and the like. Alternatively, the movable mechanism 60 is operated according to a game situation such as a road surface situation.

次に、可動機構60の動作情報等に基づいて、プレーヤのモデルオブジェクトの動作の物理シミュレーション処理を実行する(ステップS43)。例えば可動機構60の動作情報等に基づいて、プレーヤに作用する力の情報を特定し、その力の情報を用いた力学演算などの物理シミュレーション処理を実行する。   Next, a physical simulation process of the movement of the model object of the player is executed based on the movement information of the movable mechanism 60 (step S43). For example, information on the force acting on the player is specified based on the operation information of the movable mechanism 60 and the like, and a physical simulation process such as a dynamic calculation using the information on the force is executed.

そしてトラッキング視点がロスト状態であるか否かを判断し(ステップS44)、ロスト状態であると判断された場合には、物理シミュレーション処理に基づき求められたモデルオブジェクトの視点情報を、トラッキング視点のロスト状態時のプレーヤの視点情報として推定する(ステップS45)。例えば、ステップS43において、可動機構60の動作情報等に基づいて、プレーヤのモデルオブジェクトの動作の物理シミュレーション処理を行うことで、モデルオブジェクトの視点位置や視線方向などの視点情報が、随時、求められている。そして、トラッキング視点がロスト状態になったと判断された場合には、このモデルオブジェクトの視点情報を、プレーヤの視点情報であると推定して、トラッキング視点のロスト状態時の画像を生成する。   Then, it is determined whether or not the tracking viewpoint is in the lost state (step S44). If it is determined that the tracking viewpoint is in the lost state, the viewpoint information of the model object obtained based on the physical simulation process is used as the tracking viewpoint lost. Estimated as viewpoint information of the player at the time (step S45). For example, in step S43, viewpoint information such as the viewpoint position and the line-of-sight direction of the model object is obtained at any time by performing a physical simulation process of the movement of the model object of the player based on the movement information of the movable mechanism 60 and the like. ing. When it is determined that the tracking viewpoint is in the lost state, the viewpoint information of the model object is estimated to be the viewpoint information of the player, and an image in the lost state of the tracking viewpoint is generated.

例えば図18(A)に示すように、シート10をモデル化したシートオブジェクトSBに、プレーヤをモデル化したモデルオブジェクトMBが着座した状態で、物理シミュレーション処理を実行する。例えば可動機構60が動作することによりシート10が回転している場合には、図18(B)、図18(C)に示すように、シート10に対応するシートオブジェクトSBを、右回りや左回りに回転させる。そして、このようにシートオブジェクトSBが回転した時の、モデルオブジェクトMBの動作情報を求める物理シミュレーション処理を実行する。このようにしてモデルオブジェクトMBの動作情報を求めることで、シートオブジェクトSBが回転した時の、モデルオブジェクトMBの視点位置VPや視線方向VLを、モデルオブジェクトMBの視点情報として特定できる。この特定された視点情報を、トラッキング視点のロスト状態時のプレーヤの視点情報として推定する。   For example, as shown in FIG. 18A, the physical simulation process is executed in a state where the model object MB that models the player is seated on the sheet object SB that models the seat 10. For example, when the sheet 10 is rotated by the movement of the movable mechanism 60, the sheet object SB corresponding to the sheet 10 is turned clockwise or counterclockwise as shown in FIGS. Rotate around. Then, a physical simulation process for obtaining the motion information of the model object MB when the sheet object SB rotates in this way is executed. By obtaining the motion information of the model object MB in this way, the viewpoint position VP and the line-of-sight direction VL of the model object MB when the sheet object SB rotates can be specified as the viewpoint information of the model object MB. The identified viewpoint information is estimated as the viewpoint information of the player when the tracking viewpoint is in the lost state.

なお、このような物理シミュレーション処理を行う場合には、図16で説明したプレーヤ情報を用いることが望ましい。例えばプレーヤ情報の体格情報、性別情報又は年齢情報等に基づいて、複数の候補モデルオブジェクトの中から、物理シミュレーション処理に用いるプレーヤのモデルオブジェクトを選択する。そして、選択されたモデルオブジェクトを用いて物理シミュレーション処理を実行して、プレーヤの視点情報を求める。   When performing such a physical simulation process, it is desirable to use the player information described with reference to FIG. For example, based on the physique information, gender information or age information of the player information, a player model object used for the physical simulation process is selected from a plurality of candidate model objects. Then, a physical simulation process is executed using the selected model object, and the viewpoint information of the player is obtained.

このようにすれば、プレーヤの体格、性別、年齢等に応じた物理シミュレーション処理を実行できるため、トラッキング視点のロスト状態時においても、プレーヤの体格や性別や年齢に応じた適切な視点情報を選択して画像を生成し、プレーヤに表示できるようになる。   In this way, it is possible to execute physical simulation processing according to the player's physique, gender, age, etc., so even when the tracking viewpoint is lost, select appropriate viewpoint information according to the player's physique, gender, and age. Thus, an image can be generated and displayed on the player.

なお、以上では、可動機構60の動作情報に基づいて物理シミュレーション処理を行って、視点情報を求める場合について説明したが、本実施形態はこれに限定されない。例えば移動体の移動情報(位置、速度、加速度、角速度又は角加速度等)、プレーヤの操作情報、又はゲーム状況情報に基づいて、物理シミュレーション処理を行って、視点情報を求めるようにしてもよい。   In the above description, the case where the viewpoint information is obtained by performing the physical simulation process based on the operation information of the movable mechanism 60 has been described, but the present embodiment is not limited to this. For example, the viewpoint information may be obtained by performing physical simulation processing based on movement information (position, velocity, acceleration, angular velocity, angular acceleration, etc.) of the moving object, player operation information, or game situation information.

また、本実施形態の物理シミュレーション処理としては種々の処理を想定できる。例えばモデルオブジェクトを複数の部位(骨及び関節)で構成すると共に、可動機構60が動作することでモデルオブジェクトに作用する力ベクトルを求める。そして、求められた力ベクトルをモデルオブジェクトに作用させたことによる複数の部位(頭部、胸部、腰部、脚部、手部)の各部位の動きを求める力学演算を、物理シミュレーション処理として行う。そして、求められた頭部等の部位の動きに基づいて、モデルオブジェクトの視点位置や視線方向などの視点情報を求め、トラッキング視点のロスト状態時のプレーヤの視点情報として推定する。なお物理シミュレーション処理の手法については、例えば特開2009−140519号公報、特開2004−30502号公報、特開2009−37572号公報などに開示されている。例えば仮想人間のシミュレーション手法の一例としては、キャラクタを単一剛体モデルで近似して、この単一剛体モデルに外力が働いた時の力学演算を行う。また、多次元キーフレームアニメーションと呼ばれる手法により、多次元空間にキャラクタの動きを表すキーフレームを配置する。そして、キャラクタの単一剛体モデルの状態に応じて、多次元座標を決定する。更には、外力が働いた時に、姿勢を保とうとしたり、バランスを取ったりするような人間らしい挙動をも勘案して、最終的なキャラクタの姿勢・動きを決定する。   Various processes can be assumed as the physical simulation process of the present embodiment. For example, a model object is composed of a plurality of parts (bones and joints), and a force vector acting on the model object is obtained by operating the movable mechanism 60. Then, a dynamic calculation for obtaining the motion of each part of a plurality of parts (head, chest, waist, leg, hand) by applying the obtained force vector to the model object is performed as a physical simulation process. Then, viewpoint information such as the viewpoint position and line-of-sight direction of the model object is obtained based on the obtained movement of the part such as the head, and is estimated as the viewpoint information of the player when the tracking viewpoint is in the lost state. The physical simulation processing method is disclosed in, for example, Japanese Unexamined Patent Application Publication Nos. 2009-140519, 2004-30502, and 2009-37572. For example, as an example of a virtual human simulation method, a character is approximated by a single rigid model, and dynamic calculation is performed when an external force is applied to the single rigid model. In addition, key frames representing character movement are arranged in a multi-dimensional space by a technique called multi-dimensional key frame animation. Then, multidimensional coordinates are determined according to the state of the single rigid model of the character. Furthermore, the final posture / movement of the character is determined in consideration of human-like behaviors such as trying to maintain the posture or balancing when an external force is applied.

このように本実施形態に用いられる物理シミュレーション処理としては種々の処理を想定できる。   Thus, various processes can be assumed as the physical simulation process used in the present embodiment.

3.画像生成手法
次に本実施形態の手法が適用可能な種々の画像生成手法について説明する。
3. Image Generation Methods Next, various image generation methods to which the method of this embodiment can be applied will be described.

3.1 投影画像の生成
まず、本実施形態の画像生成システムにより生成される画像が、プロジェクション用スクリーンに投影される投影画像である場合について説明する。なお、以下では、プロジェクション用スクリーンが曲面形状のスクリーン(ドーム形状のスクリーン)である場合を主に例にとり説明するが、本実施形態はこれに限定されない。プロジェクション用スクリーンは、単一平面ではないスクリーンの全般を指すものである。例えばプロジェクション用スクリーンは、1つの曲面又は複数の面(平面、曲面)により構成されるスクリーンであればよい。即ち、当該スクリーンとしては、1つの曲面で構成されるスクリーン、複数の平面で構成されるスクリーン、曲面部分と平面部分とを含むスクリーンなどを想定できる。また、単一平面であるスクリーンの場合は、プロジェクション式ではないフラットパネルディスプレイと同様に、より単純な処理で済ませることができるが、もちろんそれであってもよい。
3.1 Generation of Projected Image First, a case where an image generated by the image generation system of the present embodiment is a projected image projected on a projection screen will be described. In the following, the case where the projection screen is a curved screen (dome-shaped screen) will be mainly described as an example, but the present embodiment is not limited to this. A projection screen refers to any screen that is not a single plane. For example, the projection screen may be a screen composed of one curved surface or a plurality of surfaces (plane, curved surface). That is, as the screen, a screen configured by one curved surface, a screen configured by a plurality of planes, a screen including a curved surface portion and a plane portion, and the like can be assumed. Further, in the case of a screen that is a single plane, it can be done by a simpler process as in the case of a flat panel display that is not a projection type.

3.1.1 ピクセル単位での歪み補正手法
まずプロジェクション用の投影画像の生成手法について説明する。例えばプロジェクション用スクリーンが、1つの曲面又は複数の面により構成されるスクリーンである場合に、本実施形態では、プロジェクション用スクリーンの形状情報に基づく歪み補正処理を行って、投影画像を生成する。以下では、投影画像の生成の際に行われる歪み補正手法の具体例について説明する。
3.1.1 Distortion Correction Method in Pixel Unit First, a method for generating a projection image for projection will be described. For example, when the projection screen is a screen composed of one curved surface or a plurality of surfaces, in this embodiment, a distortion correction process based on the shape information of the projection screen is performed to generate a projection image. Hereinafter, a specific example of a distortion correction method performed when generating a projection image will be described.

ドーム形状(曲面形状)のスクリーンに画像を投影する場合に、投影装置の位置とプレーヤ(観察者)の位置が離れていると、画像の歪みが目立ってしまう。そこで、この歪みを予め考慮に入れて、投影装置からの投影画像(投影装置の描画バッファに描く画像)を生成することで、プレーヤから見て歪みのない映像を提示することが可能になる。   When projecting an image onto a dome-shaped (curved surface) screen, if the position of the projection device and the position of the player (observer) are separated from each other, image distortion becomes conspicuous. Therefore, by taking this distortion into consideration in advance and generating a projection image from the projection apparatus (an image drawn in the drawing buffer of the projection apparatus), it is possible to present an image without distortion as viewed from the player.

この場合に、スクリーンが単一の平面であれば、歪みは線形(パースによる歪み)となるため、射影変換行列を1つ用いるだけで簡単に補正することが可能になる。   In this case, if the screen is a single plane, the distortion becomes linear (distortion due to the perspective), and thus correction can be easily performed by using only one projective transformation matrix.

しかし、単一平面ではないスクリーン(1つの曲面又は複数の面で構成されるスクリーン)である場合には、線形ではない歪みが加わるため、射影変換行列を1つ用いるだけという簡単な補正手法では、歪みを補正できず、画像の部分に応じて、細かく補正を行う必要がある。   However, in the case of a screen that is not a single plane (a screen composed of one curved surface or a plurality of surfaces), distortion that is not linear is added, so a simple correction method that uses only one projection transformation matrix is not possible. The distortion cannot be corrected, and it is necessary to perform fine correction according to the portion of the image.

このような歪み補正を実現する手法として、描画バッファのピクセル単位で歪み補正を行う手法と、3次元オブジェクトの頂点単位で歪み補正を行う手法が考えられる。まず、ピクセル単位での歪み補正手法について説明する。   As a technique for realizing such distortion correction, a technique for performing distortion correction in units of pixels of the drawing buffer and a technique for performing distortion correction in units of vertices of a three-dimensional object are conceivable. First, a distortion correction method for each pixel will be described.

描画バッファのピクセル単位での歪み補正手法では、図19や下記に示す(1)、(2)、(3)、(4)の処理を順に行う。
(1)描画バッファ(フレームバッファ)上のピクセルPX(XP,YP)が、投影装置のレンズを通して出射される光線RYを求める。
(2)その光線RYが、スクリーンSCと交差する交点PS(XS,YS,ZS)の位置を求める。例えばスクリーンSCが楕円面の方程式等の数式で表される場合には、直線RYを表す数式とスクリーンSCを表す数式を用いて交点PSを求める。このスクリーンSCを表す数式が、スクリーンSCの形状情報である。
(3)この交点PS(XS,YS,ZS)の色は、プレーヤ(観察者)がオブジェクト空間(仮想空間)を観察しているときの色である必要がある。そこで、プレーヤの視点に対応する仮想カメラVCの位置VPと、交点PS(XS,YS,ZS)の位置を結ぶ直線LVを求める。
(4)この直線LVを仮想カメラVCの視線としてオブジェクト空間の情報から、描画バッファ上の投影画像のピクセルの色を決定する。例えば、オブジェクト空間で最初に到達する3次元オブジェクトOB上の点PB(XB,YB,ZB)の位置を求め、それに応じて、描画バッファ上の投影画像のピクセルの色を決定する。
In the distortion correction method for each pixel of the drawing buffer, the processes (1), (2), (3), and (4) shown in FIG.
(1) The pixel PX (XP, YP) on the drawing buffer (frame buffer) obtains a light ray RY emitted through the lens of the projection device.
(2) The position of the intersection PS (XS, YS, ZS) where the ray RY intersects the screen SC is obtained. For example, when the screen SC is represented by an equation such as an elliptical equation, the intersection PS is obtained using an equation representing the straight line RY and an equation representing the screen SC. A mathematical expression representing the screen SC is shape information of the screen SC.
(3) The color of the intersection PS (XS, YS, ZS) needs to be a color when the player (observer) observes the object space (virtual space). Therefore, a straight line LV connecting the position VP of the virtual camera VC corresponding to the player's viewpoint and the position of the intersection PS (XS, YS, ZS) is obtained.
(4) Using the straight line LV as the line of sight of the virtual camera VC, the color of the pixel of the projected image on the drawing buffer is determined from the information in the object space. For example, the position of the point PB (XB, YB, ZB) on the three-dimensional object OB that reaches first in the object space is obtained, and the color of the pixel of the projection image on the drawing buffer is determined accordingly.

この場合に、ピクセル単位での歪み補正手法の改良手法では、上記の最後の(4)において、直線LVと3次元オブジェクトOBとの交点PB(XB,YB,ZB)の色を求める代わりに、あらかじめ描画しておいた平面(レンダーテクスチャ)と直線LVとの交点(レンダーテクスチャの座標で(U,V))の色を用いて、投影画像のピクセルの色を決定する。レンダーテクスチャは、予め、投影面になるべく近い平面(以下、代理平面と呼ぶ)を選んでおき、そこに通常の描画方法、すなわち、平面を投影面とする描画を行うことで作成できる。   In this case, in the improvement method of the distortion correction method in pixel units, instead of obtaining the color of the intersection PB (XB, YB, ZB) between the straight line LV and the three-dimensional object OB in the last (4), The color of the pixel of the projection image is determined by using the color of the intersection (render texture coordinates (U, V)) between the plane (render texture) drawn in advance and the straight line LV. A render texture can be created by selecting a plane as close as possible to the projection plane (hereinafter referred to as a proxy plane) in advance and performing a normal drawing method, that is, drawing with the plane as the projection plane.

図20に、このような代理平面PL1、PL2の一例を示す。このように代理平面は1枚とは限らず、この場合は2枚用いている。点PPが直線LVと代理平面PL1(PL2)との交点である。   FIG. 20 shows an example of such proxy planes PL1 and PL2. Thus, the number of proxy planes is not limited to one, and in this case, two are used. Point PP is the intersection of straight line LV and proxy plane PL1 (PL2).

レンダーテクスチャの参照位置は、視点や投影装置の位置及びスクリーンの位置や形状が変化しない限り、最初に1度だけ計算しておけばよい。そのデータを保持しておくための代表的な方法としては、描画バッファの1ピクセルごとに、レンダーテクスチャのどの位置(U,V)のピクセル値(テクセル値)を参照するかを、1枚のテクスチャとして保持しておく方法がある。このテクスチャを、「UVマップ」と呼ぶ。図21に、投影装置の描画バッファとUVマップとレンダーテクスチャの関係を示す。   The reference position of the render texture need only be calculated once, as long as the viewpoint, the position of the projection device, and the position and shape of the screen do not change. As a typical method for storing the data, for each pixel of the drawing buffer, a pixel value (texel value) at which position (U, V) of the render texture is referred to one sheet. There is a method to keep it as a texture. This texture is called a “UV map”. FIG. 21 shows the relationship among the drawing buffer, UV map, and render texture of the projection apparatus.

図21のレンダーテクスチャの対応点(UV座標)を、描画バッファ上の全ピクセルについて求めて保持しておくことは、大きなリソースを必要とする。その大きなリソースを用意する余裕がない場合には、スクリーンSC上に適当に配置された代表頂点について、描画バッファ上の対応点(XP,YP)と、レンダーテクスチャ上の対応点(U,V)を求め、それらをつないだ三角形ポリゴンによるメッシュを作っておく。そして、三角形ポリゴンを描画するときに、三角形ポリゴンの頂点に情報として記録された(U,V)座標を参照し、三角形ポリゴン内部の点についてはそれらから補間された(U,V)座標を用いるようにする。このようにすれば、大幅にリソースを節約することが可能になる。   Obtaining and storing the corresponding points (UV coordinates) of the render texture of FIG. 21 for all the pixels on the drawing buffer requires a large resource. If there is no room to prepare such a large resource, the corresponding point (XP, YP) on the drawing buffer and the corresponding point (U, V) on the render texture for the representative vertex appropriately arranged on the screen SC. And make a mesh with triangular polygons connecting them. When the triangle polygon is drawn, the (U, V) coordinates recorded as information at the vertices of the triangle polygon are referred to, and the (U, V) coordinates interpolated therefrom are used for the points inside the triangle polygon. Like that. In this way, resources can be saved significantly.

3.1.2 頂点単位での歪み補正手法
次に描画オブジェクトの頂点単位で歪み補正を行う手法について説明する。この手法では、オブジェクト空間内の3次元オブジェクトの頂点を、投影装置の描画バッファ上の点に変換する。具体的には図22や下記に示す(1)、(2)、(3)、(4)の処理を順に行う。これは図19の手法の処理を逆の順で行うことに相当する。
(1)オブジェクト空間内の3次元オブジェクトOBの頂点V(XV,YV,ZV)の位置と、プレーヤの視点に対応する仮想カメラVCの位置VPとを結ぶ直線LVを求める。
(2)求められた直線LVとスクリーンSCの交点PS(XS,YS,ZS)の位置を求める。例えばスクリーンSCが楕円面の方程式等の数式で表される場合には、直線LVを表す数式とスクリーンSCを表す数式を用いて交点PSを求める。このスクリーンSCを表す数式が、スクリーンSCの形状情報である。
(3)交点PS(XS,YS,ZS)の位置と投影装置PJの位置を結ぶ直線LRを求める。
(4)直線LRに対応する描画バッファ上の点PD(XD,YD)の位置を求める。この点PDは、3次元オブジェクトOBに対応する描画バッファ上の描画オブジェクトOBDの頂点に相当する。なお直線LRから点PDを求める際には、投影装置PJのレンズの特性や配置等の光学系の情報を用いる。
3.1.2 Distortion Correction Method for Each Vertex Next, a method for correcting distortion for each vertex of a drawing object will be described. In this method, the vertex of the three-dimensional object in the object space is converted into a point on the drawing buffer of the projection apparatus. Specifically, the processes (1), (2), (3), and (4) shown in FIG. This corresponds to performing the processing of the method of FIG. 19 in the reverse order.
(1) A straight line LV connecting the position of the vertex V (XV, YV, ZV) of the three-dimensional object OB in the object space and the position VP of the virtual camera VC corresponding to the viewpoint of the player is obtained.
(2) The position of the intersection PS (XS, YS, ZS) between the obtained straight line LV and the screen SC is obtained. For example, when the screen SC is represented by an equation such as an equation of an ellipsoid, the intersection PS is obtained using an equation representing the straight line LV and an equation representing the screen SC. A mathematical expression representing the screen SC is shape information of the screen SC.
(3) A straight line LR connecting the position of the intersection PS (XS, YS, ZS) and the position of the projection device PJ is obtained.
(4) The position of the point PD (XD, YD) on the drawing buffer corresponding to the straight line LR is obtained. This point PD corresponds to the vertex of the drawing object OBD on the drawing buffer corresponding to the three-dimensional object OB. When obtaining the point PD from the straight line LR, information on the optical system such as the lens characteristics and arrangement of the projection device PJ is used.

以後は、描画オブジェクトOBDの頂点と頂点を結んで色を塗るラスタライズ処理を行うことで、描画バッファ上に投影画像を生成できる。   Thereafter, a projection image can be generated on the drawing buffer by performing a rasterizing process for connecting the vertices of the drawing object OBD and painting colors.

なお、この場合に、以下のような手法を用いることが望ましい。即ち、オブジェクト空間内の3次元オブジェクトOBに対して、頂点分割数設定部で設定された頂点分割数で頂点分割処理を行う。そして頂点分割処理後の3次元オブジェクトOBの頂点位置と仮想カメラVCの位置とを結ぶ直線と、プロジェクション用のスクリーンSCとの交点位置を求める。そして、求められた交点位置に基づいて、3次元オブジェクトOBに対応する描画オブジェクトOBDについての、描画バッファでの頂点位置を求める。そして、求められた描画オブジェクトOBDの頂点位置に基づいて、描画オブジェクトOBDを描画バッファに描画する処理を行って、プロジェクション用の投影画像を生成する。このような手法を採用すれば、例えばオブジェクト空間内での直線が、描画バッファ上においても直線として描画されてしまい、結果として歪んだ画像が観察されてしまうような事態の発生を抑制できる。   In this case, it is desirable to use the following method. That is, vertex division processing is performed on the three-dimensional object OB in the object space with the vertex division number set by the vertex division number setting unit. Then, an intersection position between the straight line connecting the vertex position of the three-dimensional object OB after the vertex division process and the position of the virtual camera VC and the projection screen SC is obtained. Then, based on the obtained intersection position, the vertex position in the drawing buffer for the drawing object OBD corresponding to the three-dimensional object OB is obtained. Then, based on the obtained vertex position of the drawing object OBD, the drawing object OBD is drawn in the drawing buffer to generate a projection image for projection. By adopting such a method, for example, a straight line in the object space is drawn as a straight line on the drawing buffer, and as a result, a situation in which a distorted image is observed can be suppressed.

以上のようにプロジェクション用のスクリーンへの投影画像を生成するシステムでは、視点位置の設定が重要になる。例えば図19、図22にいて、視点VPの位置が正確に特定されていないと、歪み画像補正処理が不正確になってしまい、不自然な画像が生成されてしまう。   As described above, in a system that generates a projection image on a projection screen, setting the viewpoint position is important. For example, in FIGS. 19 and 22, if the position of the viewpoint VP is not accurately specified, the distorted image correction process becomes inaccurate, and an unnatural image is generated.

この点、比較例の手法では、図5(A)に示すような代表視点RVPを設定して、この代表視点RVPをプレーヤの視点と見なして、投影画像生成のために歪み補正処理を行っていた。   In this regard, in the method of the comparative example, a representative viewpoint RVP as shown in FIG. 5A is set, and the representative viewpoint RVP is regarded as the viewpoint of the player, and distortion correction processing is performed to generate a projection image. It was.

しかしながら、この比較例の手法においては、プレーヤの視点位置の変化が少ないことを前提にしている。そのため、例えば図3に示すような可動機構60を画像生成システムに設けると、可動機構60の動作により、現実世界でのプレーヤの視点の位置が変化してしまい、図5(A)の代表視点RVPの位置と一致しなくなってしまう。即ち図19、図21の歪み補正処理に使用する視点VPの位置と、現実世界でのプレーヤの視点が一致しなくなる。このため、例えば可動機構60が動作して、プレーヤの視点位置や視線方向が大きく変化する状況において、図5(A)のような代表視点RVPを用いた手法で投影画像を生成すると、不自然さや違和感が大きい画像が表示されてしまう。   However, the method of this comparative example is based on the premise that there is little change in the player's viewpoint position. Therefore, for example, when the movable mechanism 60 as shown in FIG. 3 is provided in the image generation system, the position of the player's viewpoint in the real world is changed by the operation of the movable mechanism 60, and the representative viewpoint in FIG. The position of RVP will not match. That is, the position of the viewpoint VP used for the distortion correction processing in FIGS. 19 and 21 does not match the viewpoint of the player in the real world. For this reason, for example, in a situation where the movable mechanism 60 operates and the viewpoint position and the line-of-sight direction of the player change greatly, it is unnatural if a projection image is generated by the technique using the representative viewpoint RVP as shown in FIG. An image with a large sense of discomfort is displayed.

そこで本実施形態では、図6(A)〜図7(B)に示すような視点トラッキングを行うことで、現実世界でのプレーヤの視点を捕捉し、視点トラッキングにより得られた視点を、図19、図20の視点VPに設定して、投影画像生成のための歪み補正処理を行っている。このとき、前述の3.1.1で示した、ピクセル単位での歪み補正手法の場合に必要となるUVマップは、視点位置の変化に合わせてリアルタイムに作成する。こうすることで、図5(A)の代表視点RVPを用いる手法に比べて、歪み補正処理に用いる視点と現実世界でのプレーヤの視点との乖離が少なくなり、より自然が画像をプレーヤに表示できるようになる。   Accordingly, in the present embodiment, viewpoint tracking as shown in FIGS. 6A to 7B is performed to capture the viewpoint of the player in the real world, and the viewpoint obtained by viewpoint tracking is changed to FIG. , Distortion correction processing for generating a projection image is performed by setting the viewpoint VP in FIG. At this time, the UV map required in the case of the distortion correction method in units of pixels shown in the above 3.1.1 is created in real time according to the change in the viewpoint position. By doing so, compared with the method using the representative viewpoint RVP in FIG. 5A, the difference between the viewpoint used for the distortion correction processing and the viewpoint of the player in the real world is reduced, and more natural images are displayed to the player. become able to.

ところが、視点トラッキング手法では、視点トラッキングが成功している場合には、適切な視点情報を取得でき、違和感の少ない画像を生成できるが、図8(B)、図8(C)等の状況の発生により、視点トラッキングが失敗して、トラッキング視点がロスト状態となった場合には、適切な視点情報を取得できないという問題がある。   However, in the viewpoint tracking method, when viewpoint tracking is successful, appropriate viewpoint information can be acquired and an image with less sense of incongruity can be generated. However, in the situation of FIGS. 8B and 8C, etc. When the viewpoint tracking fails due to the occurrence and the tracking viewpoint is in a lost state, there is a problem that appropriate viewpoint information cannot be acquired.

この点、本実施形態では、図9〜図18(C)で説明したように、トラッキング視点のロスト状態時に、視点履歴情報、移動体の移動情報、操作情報、可動機構の動作情報又はプレーヤ情報等の種々の情報を有効活用して、プレーヤの視点情報を推定する手法を採用している。従って、現実世界のプレーヤの視点位置とはかけ離れたような違和感のある画像が、プレーヤに表示されてしまうような事態を防止でき、より適切な画像を生成できる画像生成システムを提供できるようになる。   In this regard, in the present embodiment, as described with reference to FIGS. 9 to 18C, when the tracking viewpoint is in a lost state, viewpoint history information, movement information of the moving body, operation information, operation information of the movable mechanism, or player information A method for estimating the player's viewpoint information by effectively utilizing various information such as the above is employed. Therefore, it is possible to prevent a situation in which an uncomfortable image that is far from the viewpoint position of the real-world player is displayed on the player, and to provide an image generation system that can generate a more appropriate image. .

3.2 立体視画像、頭部装着型表示装置
本実施形態の手法は、立体視画像を生成するシステムにおいても有効である。具体的には、プレーヤの視点情報に基づいて、立体視用の第1視点画像と第2視点画像を生成する画像生成システムにおいても、本実施形態の手法を適用することで、適正な立体視画像を生成できるようになる。
3.2 Stereoscopic image, head-mounted display device The method of the present embodiment is also effective in a system that generates a stereoscopic image. Specifically, by applying the method of the present embodiment to an image generation system that generates a first viewpoint image and a second viewpoint image for stereoscopic viewing based on the viewpoint information of the player, appropriate stereoscopic viewing is achieved. An image can be generated.

なお本実施形態の手法は立体視用の投影画像の生成にも適用できる。例えば図23(A)〜図23(C)は、プロジェクション用のスクリーンSCに対して、立体視用の投影画像を生成する手法の説明図である。例えば図23(A)に示すように、左目用仮想カメラVCL(広義には第1視点用仮想カメラ)と右目用仮想カメラVCR(広義には第2視点用仮想カメラ)を用意する。そして、左目用仮想カメラVCL、右目用仮想カメラVCRのそれぞれを用いて、図19〜図22等で説明した手法により投影画像を生成することで、立体視用の投影画像を生成できる。   Note that the method of this embodiment can also be applied to the generation of a stereoscopic projection image. For example, FIG. 23A to FIG. 23C are explanatory diagrams of a method for generating a stereoscopic projection image on the projection screen SC. For example, as shown in FIG. 23A, a left-eye virtual camera VCL (first viewpoint virtual camera in a broad sense) and a right-eye virtual camera VCR (second viewpoint virtual camera in a broad sense) are prepared. Then, by using each of the left-eye virtual camera VCL and the right-eye virtual camera VCR to generate a projection image by the method described with reference to FIGS. 19 to 22 and the like, a stereoscopic projection image can be generated.

この場合に、左目用仮想カメラVCL、右目用仮想カメラVCRの位置は、視点トラッキング等により、プレーヤの左目および右目の位置を検出することが設定できる。なお、従来の方法(プレーヤの左目および右目の位置の検出を行うことができない場合)であっても、描画対象となる3次元オブジェクトの投影位置に応じて、プレーヤの視点位置はある程度推測できるので、それに合わせて左目用仮想カメラVCL、右目用仮想カメラVCRの位置を設定することもできていた。例えば、図23(B)、図23(C)に示すように、描画対象となる3次元オブジェクトの投影位置D1(もしくはD2)に応じて左目用仮想カメラVCL、右目用仮想カメラVCRの位置(視点位置)を変化させることで、疑似的にヘッドトラッキングのような効果を生み出すことができていたのだが、やはり可動機構60を画像生成システムに設ける等した場合には、可動機構60の動作によって現実世界でのプレーヤの視点の位置が大きく変化してしまい、立体視でない場合と同様に、不自然さや違和感が大きい画像が表示される結果となることがある。そこで、視点トラッキング等により、プレーヤの左目及び右目の位置を検出することで、従来よりも自然な立体視画像を呈示することが可能となる。   In this case, the positions of the left-eye virtual camera VCL and the right-eye virtual camera VCR can be set to detect the positions of the left eye and right eye of the player by viewpoint tracking or the like. Even in the conventional method (when the positions of the left eye and right eye of the player cannot be detected), the viewpoint position of the player can be estimated to some extent according to the projection position of the three-dimensional object to be rendered. Accordingly, the positions of the left-eye virtual camera VCL and the right-eye virtual camera VCR can be set accordingly. For example, as shown in FIGS. 23B and 23C, the positions of the left-eye virtual camera VCL and the right-eye virtual camera VCR according to the projection position D1 (or D2) of the three-dimensional object to be rendered ( By changing the (viewpoint position), an effect such as a head tracking could be created in a pseudo manner. However, when the movable mechanism 60 is provided in the image generation system, the operation of the movable mechanism 60 is also performed. The position of the player's viewpoint in the real world may change significantly, resulting in a display of an image that is unnatural or uncomfortable, as in the case of non-stereoscopic viewing. Therefore, by detecting the positions of the left eye and the right eye of the player by viewpoint tracking or the like, it is possible to present a stereoscopic image that is more natural than before.

このような立体視画像を生成するシステムにおいて、トラッキング視点のロスト状態が発生すると、破綻した立体視の画像が表示されるなどの不具合が生じるおそれがある。この点、本実施形態では、トラッキング視点のロスト状態時においても、各種の情報に基づいてプレーヤの視点情報が推定され、推定された視点情報に基づいて立体視画像が生成される。従って、破綻した立体視の画像が生成されるなどの事態を防止でき、立体視画像に好適な画像生成システムの提供が可能になる。   In such a system for generating a stereoscopic image, when a tracking viewpoint lost state occurs, there is a possibility that a failure such as displaying a broken stereoscopic image may occur. In this regard, in the present embodiment, even when the tracking viewpoint is in a lost state, the viewpoint information of the player is estimated based on various information, and a stereoscopic image is generated based on the estimated viewpoint information. Therefore, it is possible to prevent a situation in which a broken stereoscopic image is generated, and it is possible to provide an image generation system suitable for a stereoscopic image.

また本実施形態の手法は、頭部装着型表示装置(HMD)の表示画像の生成手法への適用にも有効である。   The method of the present embodiment is also effective for application to a display image generation method of a head-mounted display device (HMD).

例えば図24において、HMD200には、複数のLED231〜236が設けられている。LED231〜234は、プレーヤの前面側に設けられ、LED235や不図示のLED236は、プレーヤの背面側に設けられる。これらのLED231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的にはLED231〜236は、互いに異なる色の光を出射する。そして、プレーヤの前方側に設置される撮像部により、これらのLED231〜236の光を撮像する。即ち、撮像部の撮像画像には、これらのLED231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、プレーヤの頭部(HMD)の位置(3次元位置、動き)等が検出される。   For example, in FIG. 24, the HMD 200 is provided with a plurality of LEDs 231 to 236. The LEDs 231 to 234 are provided on the front side of the player, and the LED 235 and the LED 236 (not shown) are provided on the back side of the player. These LEDs 231 to 236 emit (emit) light in a visible light band, for example. Specifically, the LEDs 231 to 236 emit light of different colors. Then, the light of these LEDs 231 to 236 is imaged by an imaging unit installed on the front side of the player. That is, the spot light of these LEDs 231 to 236 appears in the captured image of the imaging unit. Then, by performing image processing of the captured image, the position (three-dimensional position, movement) of the player's head (HMD) is detected.

例えば撮像部として図6(A)に示すような撮像部40を用いる。撮像部40には、第1、第2のカメラ45、46が設けられており、これらの第1、第2のカメラ45、46の第1、第2の撮像画像を用いることで、プレーヤの頭部の奥行き方向での位置等が検出可能になる。また、HMD200に対して、不図示のモーションセンサーを設け、このモーションセンサーのモーション検出情報に基づいて、プレーヤの頭部の回転角度(視線方向)も検出可能になっている。従って、このようなHMD200を用いることで、プレーヤが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想3次元空間での画像(プレーヤの視点に対応する仮想カメラから見える画像)を、HMD200の表示部に表示することが可能になる。なお、LED231〜236として、可視光ではなく赤外線のLEDを用いてよい。また、例えばデプスカメラ等の測距センサーを用いるなどの他の手法で、プレーヤの頭部の位置や動き等を検出するようにしてもよい。   For example, an imaging unit 40 as shown in FIG. 6A is used as the imaging unit. The imaging unit 40 is provided with first and second cameras 45 and 46. By using the first and second captured images of the first and second cameras 45 and 46, the player's The position of the head in the depth direction can be detected. Further, a motion sensor (not shown) is provided for the HMD 200, and the rotation angle (gaze direction) of the player's head can be detected based on the motion detection information of the motion sensor. Therefore, by using such an HMD 200, regardless of the direction of all 360 degrees around the player, the corresponding image in the virtual three-dimensional space (the virtual corresponding to the player's viewpoint). The image that can be seen from the camera) can be displayed on the display unit of the HMD 200. In addition, you may use infrared LED instead of visible light as LED231-236. Further, the position and movement of the player's head may be detected by other methods such as using a distance measuring sensor such as a depth camera.

またHMD200には、ヘッドバンド260等が設けられており、プレーヤは、より良い装着感で安定的に頭部にHMD200を装着できるようになっている。また、HMD200には、不図示のヘッドフォン端子が設けられており、このヘッドフォン端子にヘッドフォン270を接続することで、例えば3次元音響(3次元オーディオ)の処理が施されたゲーム音を、プレーヤは聴くことが可能になる。そしてプレーヤは、図4の操作部160を操作したり、頭部の頷き動作や首振り動作を行うことで、操作情報を入力し、ゲームプレイを楽しむ。頷き動作や首振り動作は、HMD200のモーションセンサー等により検出できる。   The HMD 200 is provided with a headband 260 and the like so that the player can stably wear the HMD 200 on the head with a better wearing feeling. In addition, the HMD 200 is provided with a headphone terminal (not shown). By connecting a headphone 270 to the headphone terminal, the player can play game sound that has been subjected to, for example, three-dimensional sound (three-dimensional audio) processing. It becomes possible to listen. Then, the player inputs the operation information by operating the operation unit 160 of FIG. 4 or performing a head movement operation or a head swing operation, and enjoys game play. The whirling movement and the swinging movement can be detected by a motion sensor of the HMD 200 or the like.

このようなHMD200の画像の生成システムにおいても、プレーヤの視点トラッキングがロスト状態になる場合があり得る。即ち、何らかの状況の発生により、プレーヤの視点位置や視線方向を検出できなり、視点トラッキングがロスト状態になる場合がある。例えば図24のLED231〜236からの光を、撮像部が検出できない状況が発生したり、モーションセンサーの一時的な不具合により、プレーヤの頭部の回転角度に対応する視線方向を検出できなくなるおそれがある。   Even in such an image generation system of the HMD 200, the viewpoint tracking of the player may be lost. That is, the occurrence of some situation makes it impossible to detect the player's viewpoint position and line-of-sight direction, and viewpoint tracking may become lost. For example, there is a possibility that the imaging unit cannot detect the light from the LEDs 231 to 236 in FIG. 24, or the gaze direction corresponding to the rotation angle of the player's head cannot be detected due to a temporary malfunction of the motion sensor. is there.

このようなトラッキング視点のロスト状態が発生すると、HMD200の表示部に対して、誤ったトラッキング視点情報に基づく画像が表示されてしまい、プレーヤが違和感や不自然さを感じるが画像が表示されてしまうおそれがある。例えば、プレーヤは実際には正面方向を向いているのに、右方向や左方向を向いた時の画像がHMD200の表示部に表示されたり、オブジェクト空間内でのプレーヤの視点位置が、想定される視点位置とはかけ離れた位置に設定されてしまうなどの状況が発生するおそれがある。   When such a tracking viewpoint lost state occurs, an image based on incorrect tracking viewpoint information is displayed on the display unit of the HMD 200, and the player feels uncomfortable or unnatural, but displays an image. There is a fear. For example, although the player is actually facing the front direction, an image when facing the right direction or the left direction is displayed on the display unit of the HMD 200, or the viewpoint position of the player in the object space is assumed. There is a possibility that the situation is set such that the position is far from the viewpoint position.

この点、本実施形態では、このようなHMD200におけるトラッキング視点のロスト状態時においても、視点履歴情報、移動体の移動情報又は可動機構の動作情報等の種々の情報を有効活用して、プレーヤの視点情報を推定する手法を採用できる。従って、検出された視点方向や視線位置とはかけ離れたような違和感のある画像が、HMD200の表示部に表示されてしまうような事態を防止でき、より適切なHMD用の画像を生成できる画像生成システムの提供が可能になる。   In this regard, in this embodiment, even when the tracking viewpoint in the HMD 200 is lost, various information such as viewpoint history information, movement information of the moving body, or operation information of the movable mechanism can be effectively used to obtain the player's information. A method for estimating viewpoint information can be employed. Therefore, it is possible to prevent a situation in which an uncomfortable image that is far from the detected viewpoint direction or line-of-sight position is displayed on the display unit of the HMD 200, and to generate a more appropriate image for HMD The system can be provided.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、視点トラッキング手法、視点情報の推定手法、可動機構の動作制御手法、物理シミュレーション手法、投影画像の生成手法、立体視画像の生成手法、HMD用の画像の生成手法等も本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム等の種々の画像生成システムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. In addition, a viewpoint tracking method, a viewpoint information estimation method, a movable mechanism operation control method, a physical simulation method, a projection image generation method, a stereoscopic image generation method, an HMD image generation method, and the like are also described in this embodiment. However, the present invention is not limited thereto, and techniques equivalent to these are also included in the scope of the present invention. The present invention can be applied to various games. Further, the present invention can be applied to various image generation systems such as an arcade game system and a large attraction system in which a large number of players participate.

VP 視点位置、VL 視線方向、VPHT1〜VPHTN 視点履歴情報、
MV 移動体、CS コース、SC スクリーン、PJ 投影装置(プロジェクタ)、
VC 仮想カメラ、OB オブジェクト、OBD 描画オブジェクト、
10 シート、14 筺体フレーム、16 制御基板、20 スクリーン、
30 投影装置、40 撮像部、45、46 第1、第2のカメラ、
50 ハンドル、52 ブレーキペダル、54 アクセルペダル、
56 シフトレバー、58 カードリーダー、59 コイン投入口、
60 可動機構、62 基台、63、64、65、66 ヒンジ部、
73、74 電動シリンダ、75、76 支持部、
80 取り付け板、83、84 ヒンジ部、
100 処理部、102 ゲーム演算部、104 オブジェクト空間設定部、
106 移動体演算部、108 視点情報演算部、110 仮想カメラ制御部、
120 画像生成部、130 音生成部、160 操作部、170 記憶部、
172 オブジェクトデータ記憶部、176 描画バッファ、
178 コースデータ記憶部、179 マップデータ記憶部、180 情報記憶媒体、
190 表示部、192 音出力部、194 補助記憶装置、196 通信部、
200 HMD、231〜236 LED、260 ヘッドバンド、
270 ヘッドフォン
VP viewpoint position, VL line-of-sight direction, VPHT1 to VPHTN viewpoint history information,
MV mobile, CS course, SC screen, PJ projector (projector),
VC virtual camera, OB object, OBD drawing object,
10 seats, 14 housing frames, 16 control boards, 20 screens,
30 projection device, 40 imaging unit, 45, 46 first and second cameras,
50 steering wheel, 52 brake pedal, 54 accelerator pedal,
56 shift lever, 58 card reader, 59 coin slot,
60 movable mechanism, 62 base, 63, 64, 65, 66 hinge part,
73, 74 Electric cylinder, 75, 76 support part,
80 Mounting plate, 83, 84 Hinge part,
100 processing unit, 102 game calculation unit, 104 object space setting unit,
106 moving body calculation unit, 108 viewpoint information calculation unit, 110 virtual camera control unit,
120 image generation unit, 130 sound generation unit, 160 operation unit, 170 storage unit,
172 Object data storage unit, 176 drawing buffer,
178 Course data storage unit, 179 map data storage unit, 180 information storage medium,
190 display unit, 192 sound output unit, 194 auxiliary storage device, 196 communication unit,
200 HMD, 231 to 236 LED, 260 headband,
270 headphones

Claims (16)

オブジェクト空間の設定処理を行うオブジェクト空間設定部と、
プレーヤの視点トラッキングにより得られたトラッキング視点情報を、プレーヤの視点情報として設定する視点情報演算部と、
前記視点情報に基づいて、前記オブジェクト空間においてプレーヤの視点から見える画像を生成する画像生成部と、
を含み、
前記視点情報演算部は、
トラッキング視点がロスト状態になった場合に、プレーヤの前記視点情報の推定処理を行うことを特徴する画像生成システム。
An object space setting unit for performing object space setting processing;
A viewpoint information calculation unit that sets tracking viewpoint information obtained by the viewpoint tracking of the player as the viewpoint information of the player;
An image generation unit that generates an image that is visible from the viewpoint of the player in the object space based on the viewpoint information;
Including
The viewpoint information calculation unit includes:
An image generation system that performs estimation processing of the viewpoint information of a player when a tracking viewpoint is in a lost state.
請求項1において、
前記視点情報演算部は、
プレーヤを撮影した撮像画像により求められる前記トラッキング視点情報を、プレーヤの前記視点情報として設定することを特徴とする画像生成システム。
In claim 1,
The viewpoint information calculation unit includes:
An image generation system, wherein the tracking viewpoint information obtained from a captured image obtained by photographing a player is set as the viewpoint information of the player.
請求項1又は2において、
前記視点情報演算部は、
プレーヤの視点履歴情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行うことを特徴とする画像生成システム。
In claim 1 or 2,
The viewpoint information calculation unit includes:
An image generation system that performs estimation processing of the viewpoint information when the tracking viewpoint is in a lost state, based on viewpoint history information of a player.
請求項3において、
前記視点情報演算部は、
前記視点履歴情報と、プレーヤが操作する移動体の移動情報及びプレーヤの操作情報の少なくとも1つに基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行うことを特徴とする画像生成システム。
In claim 3,
The viewpoint information calculation unit includes:
The viewpoint information is estimated when the tracking viewpoint is lost based on at least one of the viewpoint history information, movement information of a moving object operated by the player, and operation information of the player. Generation system.
請求項3又は4において、
前記視点情報演算部は、
プレーヤが操作する移動体がコース又はマップを移動する場合に、過去に同じエリアに位置したときの前記視点履歴情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行うことを特徴とする画像生成システム。
In claim 3 or 4,
The viewpoint information calculation unit includes:
When the moving body operated by the player moves on a course or a map, the viewpoint information is estimated when the tracking viewpoint is lost based on the viewpoint history information when the player is located in the same area in the past. An image generation system characterized by the above.
請求項5において、
前記コースは周回コースであり、
前記視点情報演算部は、
プレーヤが操作する前記移動体が前記周回コースにおいて過去に同じエリアを通過したときの前記視点履歴情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行うことを特徴とする画像生成システム。
In claim 5,
The course is a circuit course,
The viewpoint information calculation unit includes:
The viewpoint information is estimated when the tracking viewpoint is in a lost state based on the viewpoint history information when the moving body operated by the player has passed through the same area in the past in the circuit course. Image generation system.
請求項1乃至6のいずれかにおいて、
可動機構を含み、
前記視点情報演算部は、
前記可動機構の動作情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 6.
Including a movable mechanism,
The viewpoint information calculation unit includes:
An image generation system that performs an estimation process of the viewpoint information when the tracking viewpoint is in a lost state based on operation information of the movable mechanism.
請求項7において、
前記視点情報演算部は、
プレーヤの操作情報又はゲーム状況情報に基づいて、前記可動機構の前記動作情報を求め、前記動作情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行うことを特徴とする画像生成システム。
In claim 7,
The viewpoint information calculation unit includes:
The movement information of the movable mechanism is obtained based on player operation information or game situation information, and the viewpoint information is estimated when the tracking viewpoint is lost based on the movement information. Image generation system.
請求項1乃至8のいずれかにおいて、
前記視点情報演算部は、
プレーヤの体格情報、性別情報及び年齢情報の少なくとも1つを含むプレーヤ情報に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 8.
The viewpoint information calculation unit includes:
An image generation system for performing estimation processing of the viewpoint information when the tracking viewpoint is in a lost state based on player information including at least one of physique information, gender information, and age information of the player.
請求項9において、
前記視点情報演算部は、
複数の候補視点情報の中から、前記プレーヤ情報に基づいて視点情報を選択する処理を、前記トラッキング視点のロスト状態時の前記視点情報の推定処理として行うことを特徴とする画像生成システム。
In claim 9,
The viewpoint information calculation unit includes:
An image generation system characterized in that a process of selecting viewpoint information from a plurality of candidate viewpoint information based on the player information is performed as an estimation process of the viewpoint information when the tracking viewpoint is in a lost state.
請求項1乃至10のいずれかにおいて、
前記視点情報演算部は、
プレーヤの動作の物理シミュレーション処理の結果に基づいて、前記トラッキング視点のロスト状態時の前記視点情報の推定処理を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 10.
The viewpoint information calculation unit includes:
An image generation system, wherein the viewpoint information is estimated when the tracking viewpoint is in a lost state based on a result of a physical simulation process of a player operation.
請求項1乃至11のいずれかにおいて、
前記画像生成部は、
1つの曲面又は複数の面により構成されるプロジェクション用スクリーンの形状情報と、プレーヤの前記視点情報とに基づいて、投影画像を生成することを特徴とする画像生成システム。
In any one of Claims 1 thru | or 11,
The image generation unit
An image generation system that generates a projection image based on shape information of a projection screen constituted by one curved surface or a plurality of surfaces and the viewpoint information of a player.
請求項12において、
前記画像生成部は、
描画バッファ上のピクセルが投影装置の光学系を通して出射される光線と前記プロジェクション用スクリーンとの交点位置と、プレーヤの視点位置とを結ぶ直線を、仮想カメラの視線として、前記描画バッファ上の前記ピクセルの色を決定することを特徴とする画像生成システム。
In claim 12,
The image generation unit
The pixel on the drawing buffer, with a line connecting the intersection position of the light beam emitted from the projection system optical system and the projection screen and the viewpoint position of the player as a virtual camera line of sight An image generation system characterized by determining a color.
請求項12において、
前記画像生成部は、
前記オブジェクト空間内のオブジェクトの頂点位置とプレーヤの視点位置を結ぶ直線と、前記プロジェクション用スクリーンとの交点位置に基づいて、前記オブジェクトに対応する描画オブジェクトについての描画バッファ上での頂点位置を求め、前記頂点位置に基づいて前記描画バッファに前記描画オブジェクトを描画することを特徴とする画像生成システム。
In claim 12,
The image generation unit
Based on the intersection position of the projection screen and the straight line connecting the vertex position of the object in the object space and the viewpoint position of the player, the vertex position on the drawing buffer for the drawing object corresponding to the object is obtained, An image generation system for drawing the drawing object in the drawing buffer based on the vertex position.
請求項1乃至14のいずれかにおいて、
前記画像生成部は、
プレーヤの前記視点情報に基づいて、立体視用の第1視点画像と第2視点画像を生成することを特徴とする画像生成システム。
In any one of Claims 1 thru | or 14.
The image generation unit
An image generation system for generating a first viewpoint image and a second viewpoint image for stereoscopic viewing based on the viewpoint information of the player.
オブジェクト空間の設定処理を行うオブジェクト空間設定部と、
プレーヤの視点トラッキングにより得られたトラッキング視点情報を、プレーヤの視点情報として設定する視点情報演算部と、
前記視点情報に基づいて、前記オブジェクト空間においてプレーヤの視点から見える画像を生成する画像生成部として、
コンピュータを機能させ、
前記視点情報演算部は、
トラッキング視点がロスト状態になった場合に、プレーヤの前記視点情報の推定処理を行うことを特徴するプログラム。
An object space setting unit for performing object space setting processing;
A viewpoint information calculation unit that sets tracking viewpoint information obtained by the viewpoint tracking of the player as the viewpoint information of the player;
As an image generation unit that generates an image that can be seen from the viewpoint of the player in the object space based on the viewpoint information,
Make the computer work,
The viewpoint information calculation unit includes:
A program for performing estimation processing of the viewpoint information of a player when a tracking viewpoint is in a lost state.
JP2015071109A 2015-03-31 2015-03-31 Image generation system and program Pending JP2016192029A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015071109A JP2016192029A (en) 2015-03-31 2015-03-31 Image generation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015071109A JP2016192029A (en) 2015-03-31 2015-03-31 Image generation system and program

Publications (1)

Publication Number Publication Date
JP2016192029A true JP2016192029A (en) 2016-11-10

Family

ID=57246809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015071109A Pending JP2016192029A (en) 2015-03-31 2015-03-31 Image generation system and program

Country Status (1)

Country Link
JP (1) JP2016192029A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230443A1 (en) * 2017-06-12 2018-12-20 株式会社バンダイナムコエンターテインメント Simulation system, image processing method, and information storage medium
JP2019070156A (en) * 2015-09-29 2019-05-09 積水化学工業株式会社 Polyolefin resin foamed sheet and adhesive tape
JP2019082879A (en) * 2017-10-31 2019-05-30 株式会社ソニー・インタラクティブエンタテインメント Attitude control system
US10506211B2 (en) 2017-03-16 2019-12-10 Square Enix Co., Ltd. Recording medium, image generation apparatus, and image generation method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019070156A (en) * 2015-09-29 2019-05-09 積水化学工業株式会社 Polyolefin resin foamed sheet and adhesive tape
US10506211B2 (en) 2017-03-16 2019-12-10 Square Enix Co., Ltd. Recording medium, image generation apparatus, and image generation method
WO2018230443A1 (en) * 2017-06-12 2018-12-20 株式会社バンダイナムコエンターテインメント Simulation system, image processing method, and information storage medium
JP2019000171A (en) * 2017-06-12 2019-01-10 株式会社バンダイナムコエンターテインメント Simulation system and program
GB2577464A (en) * 2017-06-12 2020-03-25 Bandai Namco Entertainment Inc Simulation system, image processing method, and information storage medium
JP2019082879A (en) * 2017-10-31 2019-05-30 株式会社ソニー・インタラクティブエンタテインメント Attitude control system

Similar Documents

Publication Publication Date Title
US11484790B2 (en) Reality vs virtual reality racing
CN109478345B (en) Simulation system, processing method, and information storage medium
US20210065432A1 (en) Method and system for generating an image of a subject in a scene
US9495799B2 (en) Image distortion correction system
JP2022530012A (en) Head-mounted display with pass-through image processing
JP6448196B2 (en) Image generation system and program
US20160246061A1 (en) Display
US11738270B2 (en) Simulation system, processing method, and information storage medium
US9106906B2 (en) Image generation system, image generation method, and information storage medium
CN104883554A (en) Virtual see-through instrument cluster with live video
JP2012058968A (en) Program, information storage medium and image generation system
JP2015198275A (en) Image creating system and program
JP2016192029A (en) Image generation system and program
US11187895B2 (en) Content generation apparatus and method
JP5620202B2 (en) Program, information storage medium, and image generation system
JP5649846B2 (en) Program and image generation system
JP2012223357A (en) Video game device and video game control method
JP7104539B2 (en) Simulation system and program
JP2023099494A (en) Data processing apparatus for virtual reality, data processing method, and computer software
JP2023059137A (en) Image composite device, image composite method, and program
JP6613099B2 (en) Program, computer and head-mounted display system for stereoscopic display of virtual reality space
WO2018173206A1 (en) Information processing device
WO2023242981A1 (en) Head-mounted display, head-mounted display system, and display method for head-mounted display
JP2018112885A (en) Program and image generation system
JP5701637B2 (en) Program and image generation system