JP2011215919A - Program, information storage medium and image generation system - Google Patents

Program, information storage medium and image generation system Download PDF

Info

Publication number
JP2011215919A
JP2011215919A JP2010083891A JP2010083891A JP2011215919A JP 2011215919 A JP2011215919 A JP 2011215919A JP 2010083891 A JP2010083891 A JP 2010083891A JP 2010083891 A JP2010083891 A JP 2010083891A JP 2011215919 A JP2011215919 A JP 2011215919A
Authority
JP
Japan
Prior art keywords
information
image
player
acquisition unit
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010083891A
Other languages
Japanese (ja)
Inventor
Tadatsugu Sakakibara
忠嗣 榊原
Kentaro Yamaguchi
兼太郎 山口
Taketoshi Inagaki
武俊 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2010083891A priority Critical patent/JP2011215919A/en
Publication of JP2011215919A publication Critical patent/JP2011215919A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program, an information storage medium, and an image generation system or the like, allowing generation of an image in which the movement, or the like, of a possessed object or a portion of a player is reflected.SOLUTION: The image generation system includes an image information acquisition part acquiring image information from an image sensor; an information acquisition part performing image processing based on the image information, and acquiring at least one piece of direction information, color information and shape information regarding the possessed object or the portion of the player as information for rendering; and an image generating portion performing rendering processing, based on the information for the rendering that is at least the one piece of the direction information, the color information and the shape information, and generating an image.

Description

本発明は、プログラム、情報記憶媒体及び画像生成システム等に関する。   The present invention relates to a program, an information storage medium, an image generation system, and the like.

近年、従来の操作ボタンや方向キーを備えたゲームコントローラに代わって、モーションセンサを内蔵するゲームコントローラを用いてゲーム操作が可能なゲーム装置が人気を博している。このような操作インターフェースを備えるゲーム装置によれば、プレーヤの直感的な操作入力が可能になり、ゲーム操作の簡素化等を図れる。このような直感的なインターフェースを可能にするゲーム装置の従来技術としては例えば特許文献1に開示される技術がある。   In recent years, game devices capable of performing game operations using a game controller with a built-in motion sensor have been gaining popularity in place of game controllers having conventional operation buttons and direction keys. According to the game device having such an operation interface, an intuitive operation input by the player is possible, and the game operation can be simplified. As a conventional technique of a game apparatus that enables such an intuitive interface, there is a technique disclosed in Patent Document 1, for example.

しかしながら、モーションセンサを内蔵するゲームコントローラでは、プレーヤの操作対象はゲームコントローラであり、プレーヤの任意の所持物や、プレーヤの手や体そのものを使ってゲーム操作を行うことはできない。このため、プレーヤの手の動き等がそのまま画面に反映されるような直感的なゲーム操作については実現できず、プレーヤの仮想現実感の向上が不十分であるという課題がある。   However, in a game controller with a built-in motion sensor, the operation target of the player is the game controller, and the game operation cannot be performed using any player's possession or the player's hand or body. For this reason, an intuitive game operation in which the movement of the player's hand or the like is directly reflected on the screen cannot be realized, and there is a problem that improvement of the player's virtual reality is insufficient.

特開2009−89629号公報JP 2009-89629 A

本発明の幾つかの態様によれば、プレーヤの所持物や部位の動きなどを反映させた画像を生成できるプログラム、情報記憶媒体、画像生成システム等を提供できる。   According to some aspects of the present invention, it is possible to provide a program, an information storage medium, an image generation system, and the like that can generate an image reflecting the player's belongings and the movement of a part.

本発明の一態様は、画像センサからの画像情報を取得する画像情報取得部と、前記画像情報に基づく画像処理を行って、プレーヤの所持物又は部位についての方向情報、色情報及び形状情報の少なくとも1つを、レンダリング用情報として取得する情報取得部と、前記方向情報、前記色情報及び前記形状情報の少なくとも1つである前記レンダリング用情報に基づくレンダリング処理を行って、画像を生成する画像生成部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   According to one aspect of the present invention, an image information acquisition unit that acquires image information from an image sensor and image processing based on the image information are performed, and direction information, color information, and shape information about a player's belongings or parts are stored. An information acquisition unit that acquires at least one as rendering information, and an image that generates an image by performing a rendering process based on the rendering information that is at least one of the direction information, the color information, and the shape information The present invention relates to an image generation system including a generation unit. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、画像センサからの画像情報に基づく画像処理により、プレーヤの所持物又は部位についての方向情報、色情報及び形状情報の少なくとも1つが、レンダリング用情報として取得される。そして、取得されたレンダリング用情報を用いて画像が生成される。このようにすれば、画像情報に基づく画像処理により取得されたプレーヤの所持物又は部位の方向情報、色情報又は形状情報を、レンダリング処理に反映させることが可能になり、プレーヤの所持物や部位の動きなどを反映させた画像を生成できるようになる。   According to one aspect of the present invention, at least one of direction information, color information, and shape information about an object or part of a player is acquired as rendering information by image processing based on image information from an image sensor. Then, an image is generated using the acquired rendering information. In this way, it becomes possible to reflect the direction information, color information, or shape information of the player's belongings or parts acquired by the image processing based on the image information in the rendering process. It is possible to generate an image reflecting the movement of the camera.

また本発明の一態様では、前記画像生成部は、前記レンダリング用情報に基づいて、オブジェクト空間に配置設定される光源の光源情報を設定し、前記光源情報が設定された前記光源を用いたレンダリング処理を行って、オブジェクト空間内において仮想カメラから見える画像を生成してもよい。   In one aspect of the present invention, the image generation unit sets light source information of a light source arranged and set in an object space based on the rendering information, and rendering using the light source in which the light source information is set Processing may be performed to generate an image visible from the virtual camera in the object space.

このようにすれば、プレーヤの所持物や部位の動きなどを反映させた光源をオブジェクト空間に出現させて画像を生成することが可能になり、従来にはない表示態様の画像の生成が可能になる。   In this way, it is possible to generate an image by causing a light source that reflects the player's belongings and the movement of the part to appear in the object space, and it is possible to generate an image with a display mode that has not existed before. Become.

また本発明の一態様では、前記プレーヤに対応するキャラクタの制御を行うキャラクタ制御部を含み(キャラクタ制御部としてとしてコンピュータを機能させ)、前記情報取得部は、前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、前記画像生成部は、取得された前記スケルトン情報と前記キャラクタの位置情報に基づいて、前記オブジェクト空間内での前記光源の配置位置を特定してもよい。   In one aspect of the present invention, a character control unit that controls a character corresponding to the player is included (a computer is functioned as the character control unit), and the information acquisition unit receives the image information from the image sensor. Based on the acquired skeleton information and the position information of the character, the image generation unit acquires skeleton information that identifies the movement of the player that can be seen from the image sensor, based on the acquired skeleton information and the position information of the character. The arrangement position of the light source may be specified.

このようにすれば、プレーヤのスケルトン情報を有効活用して、オブジェクト空間内での光源の配置位置を設定できるようになるため、処理の効率化等を図れる。   In this way, the arrangement position of the light source in the object space can be set by effectively utilizing the skeleton information of the player, so that the processing efficiency can be improved.

また本発明の一態様では、前記画像情報取得部は、前記画像センサからの前記画像情報として、各画素位置にデプス値が設定されたデプス情報を取得し、前記情報取得部は、前記デプス情報に基づいて、前記プレーヤの前記所持物又は前記部位の前記方向情報及び前記形状情報の少なくとも1つを前記レンダリング用情報として取得してもよい。   In one aspect of the present invention, the image information acquisition unit acquires depth information in which a depth value is set at each pixel position as the image information from the image sensor, and the information acquisition unit includes the depth information. Based on the above, at least one of the direction information and the shape information of the possessed item or the part of the player may be acquired as the rendering information.

このようにデプス情報を用いれば、プレーヤの所持物や部位の方向情報等のレンダリング用情報を、効率良く取得することが可能になる。   By using the depth information in this way, it is possible to efficiently obtain rendering information such as the player's belongings and part direction information.

また本発明の一態様では、前記情報取得部は、前記デプス情報に基づいて、前記レンダリング用情報の前記方向情報として複数の第1〜第Nの方向情報(Nは2以上の整数)を取得し、前記画像生成部は、前記レンダリング用情報である前記第1〜第Nの方向情報に基づくレンダリング処理を行って、画像を生成してもよい。   In the aspect of the invention, the information acquisition unit acquires a plurality of first to N-th direction information (N is an integer of 2 or more) as the direction information of the rendering information based on the depth information. The image generation unit may generate an image by performing a rendering process based on the first to Nth direction information that is the rendering information.

このようにすれば、プレーヤの所持物又は部位の第1〜第Nの方向情報を反映させたレンダリング処理を行って画像を生成できるため、多様な画像や演出効果の高い画像等の生成が可能になる。   In this way, an image can be generated by performing rendering processing reflecting the 1st to Nth direction information of the player's belongings or parts, so that it is possible to generate various images and images with high rendering effects. become.

また本発明の一態様では、前記画像生成部は、前記デプス情報に基づき取得された前記所持物又は前記部位の形状情報に基づいてレンダリング範囲を設定し、設定されたレンダリング範囲で前記レンダリング処理を行ってもよい。   In one aspect of the present invention, the image generation unit sets a rendering range based on shape information of the possessed object or the part acquired based on the depth information, and performs the rendering process in the set rendering range. You may go.

このようにすれば、プレーヤの所持物又は部位の形状情報を反映させたレンダリング範囲を設定して画像を生成できるため、多様な画像や演出効果の高い画像等の生成が可能になる。   In this way, an image can be generated by setting a rendering range that reflects the shape information of the belongings or parts of the player, so that it is possible to generate a variety of images and images with a high effect.

また本発明の一態様では、前記情報取得部は、前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、取得された前記スケルトン情報に基づいて、前記プレーヤの前記所持物又は前記部位についての前記方向情報を取得してもよい。   In one aspect of the present invention, the information acquisition unit acquires skeleton information that identifies an action of the player visible from the image sensor based on the image information from the image sensor, and the acquired skeleton information. The direction information about the possessed item or the part of the player may be acquired based on the information.

このようにすれば、プレーヤの所持物や部位の動きをスケルトン情報により検出して、所持物や部位の方向情報を取得できるようになり、スケルトン情報の有効活用を図れる。   In this way, it becomes possible to detect the movement of the player's belongings and parts based on the skeleton information and acquire the direction information of the belongings and parts, and the skeleton information can be effectively used.

また本発明の一態様では、前記情報取得部は、前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、取得された前記スケルトン情報に基づいて、前記レンダリング用情報の取得のための前記画像処理の処理領域を設定してもよい。   In one aspect of the present invention, the information acquisition unit acquires skeleton information that identifies an action of the player visible from the image sensor based on the image information from the image sensor, and the acquired skeleton information. The processing area of the image processing for acquiring the rendering information may be set based on the above.

このようにすれば、特定された処理領域において画像処理を行えば済むようになるため、画像処理の処理負荷を軽減でき、少ない処理負荷でレンダリング用情報を取得することが可能になる。   In this way, since it is only necessary to perform image processing in the specified processing region, it is possible to reduce the processing load of image processing, and it is possible to acquire rendering information with a small processing load.

また本発明の一態様では、オブジェクト空間内に配置設定される仮想カメラの制御を行う仮想カメラ制御部を含み(仮想カメラ制御部としてコンピュータを機能させ)、前記情報取得部は、前記プレーヤの前記所持物又は前記部位の位置情報を取得し、前記仮想カメラ制御部は、前記所持物又は前記部位の前記位置情報に基づいて、前記オブジェクト空間内に前記仮想カメラを配置設定し、前記画像生成部は、前記オブジェクト空間内において前記仮想カメラから見える画像を生成してもよい。   In one aspect of the present invention, a virtual camera control unit that controls a virtual camera arranged and set in the object space is included (a computer is caused to function as the virtual camera control unit), and the information acquisition unit includes the player The position information of the belongings or the part is acquired, and the virtual camera control unit sets the virtual camera in the object space based on the position information of the belongings or the part, and the image generation unit May generate an image visible from the virtual camera in the object space.

このようにすれば、プレーヤの所持物又は部位の位置情報に対応するオブジェクト空間内の位置に仮想カメラを配置設定して、オブジェクト空間内において仮想カメラから見える画像を生成できるようになる。従って、ヘッドトラッキングのような画像を簡素な処理で生成できるようになり、多様な画像や演出効果の高い画像等の生成が可能になる。   In this way, the virtual camera can be arranged and set at a position in the object space corresponding to the position information of the player's belongings or parts, and an image that can be seen from the virtual camera in the object space can be generated. Accordingly, an image such as head tracking can be generated by a simple process, and various images and images with high rendering effects can be generated.

また本発明の一態様では、前記仮想カメラ制御部は、前記所持物又は前記部位の前記位置情報に対応する位置に、前記仮想カメラを配置し、前記所持物又は前記部位の前記方向情報に対応する方向に、前記仮想カメラの方向を向ける制御を行ってもよい。   In one aspect of the present invention, the virtual camera control unit arranges the virtual camera at a position corresponding to the position information of the possession or the part, and corresponds to the direction information of the possession or the part. You may perform control which orient | assigns the direction of the said virtual camera to the direction to do.

このようにすれば、プレーヤの所持物又は部位の方向に対応する方向に仮想カメラの方向を向けることが可能になり、プレーヤの動きを、より反映させた画像の生成が可能になる。   In this way, the direction of the virtual camera can be directed in a direction corresponding to the direction of the player's belongings or parts, and an image that more reflects the movement of the player can be generated.

また本発明の一態様では、前記情報取得部は、前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーの動作を特定するスケルトン情報を取得し、取得された前記スケルトン情報に基づいて、前記所持物又は前記部位の前記位置情報を取得してもよい。   In one embodiment of the present invention, the information acquisition unit acquires skeleton information that identifies the play action visible from the image sensor based on the image information from the image sensor, and the acquired skeleton information. The position information of the belongings or the part may be acquired based on the information.

このようにすれば、スケルトン情報を有効活用して、プレーヤの所持物又は部位の位置情報を取得し、その位置情報に対応するオブジェクト空間内の位置に仮想カメラを配置設定できるようになる。   In this way, the position information of the player's belongings or parts can be acquired by effectively utilizing the skeleton information, and the virtual camera can be arranged and set at the position in the object space corresponding to the position information.

また本発明の他の態様は、画像センサからの画像情報を取得する画像情報取得部と、前記画像情報に基づく画像処理を行って、プレーヤの所持物又は部位についての方向情報及び形状情報の少なくとも1つを、ヒット演算用情報として取得する情報取得部と、取得された前記ヒット演算用情報に基づいてヒット演算処理を行うヒット演算部と、前記ヒット演算処理の結果に基づいて、画像を生成する画像生成部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   According to another aspect of the present invention, an image information acquisition unit that acquires image information from an image sensor, and image processing based on the image information are performed, so that at least direction information and shape information about a player's belongings or parts are included. An information acquisition unit that acquires one as hit calculation information, a hit calculation unit that performs hit calculation processing based on the acquired hit calculation information, and generates an image based on the result of the hit calculation processing And an image generation system including an image generation unit. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の他の態様によれば、画像センサからの画像情報に基づく画像処理により、プレーヤの所持物又は部位についての方向情報、色情報及び形状情報の少なくとも1つが、ヒット演算用情報として取得される。そして、取得されたヒット演算用情報を用いてヒット演算処理が行われ、そのヒット演算処理の結果に基づいて画像が生成される。このようにすれば、画像情報により取得されたプレーヤの所持物又は部位の方向情報、色情報又は形状情報をヒット演算処理に反映させることが可能になり、プレーヤの所持物や部位の動きなどを反映させた画像を生成できるようになる。   According to another aspect of the present invention, at least one of direction information, color information, and shape information about a player's belongings or parts is acquired as hit calculation information by image processing based on image information from an image sensor. The Then, hit calculation processing is performed using the acquired hit calculation information, and an image is generated based on the result of the hit calculation processing. In this way, it becomes possible to reflect the direction information, color information, or shape information of the player's possession or part acquired from the image information in the hit calculation process, and the movement of the player's possession or part etc. A reflected image can be generated.

また本発明の他の態様では、前記ヒット演算部は、前記ヒット演算用情報の前記方向情報により特定される軌道方向に基づいて、ターゲットオブジェクトに対する前記ヒット演算処理を行ってもよい。   In another aspect of the present invention, the hit calculation unit may perform the hit calculation process on the target object based on a trajectory direction specified by the direction information of the hit calculation information.

このようにすれば、ヒット演算用情報の方向情報により特定される軌道方向を用いて、ターゲットオブジェクトに弾等がヒットしたか否かを判定することが可能になる。   In this way, it is possible to determine whether or not a bullet or the like hits the target object using the trajectory direction specified by the direction information of the hit calculation information.

また本発明の他の態様では、前記画像情報取得部は、前記画像センサからの前記画像情報として、各画素位置にデプス値が設定されたデプス情報を取得し、前記情報取得部は、前記デプス情報に基づいて、前記プレーヤの前記所持物又は前記部位の前記方向情報及び前記形状情報の少なくとも1つを前記ヒット演算用情報として取得してもよい。   In another aspect of the present invention, the image information acquisition unit acquires depth information in which a depth value is set at each pixel position as the image information from the image sensor, and the information acquisition unit includes the depth information. Based on the information, at least one of the direction information and the shape information of the possessed item or the part of the player may be acquired as the hit calculation information.

このようにデプス情報を用いれば、プレーヤの所持物や部位の方向情報等のヒット演算用情報を、効率良く取得することが可能になる。   By using the depth information in this way, it is possible to efficiently acquire hit calculation information such as the player's belongings and the direction information of the part.

また本発明の他の態様では、前記情報取得部は、前記デプス情報に基づいて、前記ヒット演算用情報の前記方向情報として複数の第1〜第Nの方向情報(Nは2以上の整数)を取得し、前記ヒット演算部は、前記ヒット演算用情報である前記第1〜第Nの方向情報に基づいて、前記ヒット演算処理を行ってもよい。   Moreover, in another aspect of the present invention, the information acquisition unit includes a plurality of first to Nth direction information (N is an integer of 2 or more) as the direction information of the hit calculation information based on the depth information. The hit calculation unit may perform the hit calculation process based on the first to Nth direction information that is the hit calculation information.

このようにすれば、プレーヤの所持物又は部位の第1〜第Nの方向情報を反映させたヒット演算処理を行って画像を生成できるため、多様な画像や演出効果の高い画像等の生成が可能になる。   In this way, an image can be generated by performing hit calculation processing reflecting the 1st to Nth direction information of the player's belongings or parts, so that it is possible to generate various images and images with high rendering effects. It becomes possible.

また本発明の他の態様では、前記ヒット演算部は、前記デプス情報に基づき取得された前記所持物又は前記部位の形状情報に基づいてヒット範囲を設定し、設定されたヒット範囲に基づいて前記ヒット演算処理を行ってもよい。   In another aspect of the present invention, the hit calculation unit sets a hit range based on the possessed object acquired based on the depth information or the shape information of the part, and based on the set hit range, Hit calculation processing may be performed.

このようにすれば、プレーヤの所持物又は部位の形状情報を反映させたヒット範囲を設定してヒット演算処理を行い、画像を生成できるようになる。   In this way, it is possible to set the hit range reflecting the shape information of the belongings or parts of the player and perform hit calculation processing to generate an image.

また本発明の他の態様では、前記情報取得部は、前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、取得された前記スケルトン情報に基づいて、前記プレーヤの前記所持物又は前記部位についての前記方向情報を取得してもよい。   In another aspect of the present invention, the information acquisition unit acquires skeleton information that identifies the action of the player as seen from the image sensor based on the image information from the image sensor, and the acquired skeleton Based on the information, the direction information about the possessed item or the part of the player may be acquired.

このようにすれば、プレーヤの所持物や部位の動きをスケルトン情報により検出して、所持物や部位の方向情報を取得できるようになり、スケルトン情報の有効活用を図れる。   In this way, it becomes possible to detect the movement of the player's belongings and parts based on the skeleton information and acquire the direction information of the belongings and parts, and the skeleton information can be effectively used.

また本発明の他の態様では、前記情報取得部は、前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、取得された前記スケルトン情報に基づいて、前記ヒット演算用情報の取得のための前記画像処理の処理領域を設定してもよい。   In another aspect of the present invention, the information acquisition unit acquires skeleton information that identifies the action of the player as seen from the image sensor based on the image information from the image sensor, and the acquired skeleton Based on the information, a processing area for the image processing for obtaining the hit calculation information may be set.

このようにすれば、特定された処理領域において画像処理を行えば済むようになるため、画像処理の処理負荷を軽減でき、少ない処理負荷でヒット演算用情報を取得することが可能になる。   In this way, since it is only necessary to perform image processing in the specified processing region, it is possible to reduce the processing load of the image processing and to acquire hit calculation information with a small processing load.

また本発明の他の態様は、画像センサからの画像情報を取得する画像情報取得部と、前記画像情報に基づく画像処理を行って、プレーヤの所持物又は部位についての位置情報を取得する情報取得部と、オブジェクト空間内に配置設定される仮想カメラの制御を行う仮想カメラ制御部と画像生成部とを含み、前記仮想カメラ制御部は、前記所持物又は前記部位の前記位置情報に基づいて、前記オブジェクト空間内に前記仮想カメラを配置設定し、前記画像生成部は、前記オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   According to another aspect of the present invention, an image information acquisition unit that acquires image information from an image sensor, and information acquisition that acquires image information based on the image information and acquires position information about a player's belongings or parts. A virtual camera control unit that controls a virtual camera arranged and set in the object space, and an image generation unit, the virtual camera control unit is based on the position information of the possession or the part, The virtual camera is arranged and set in the object space, and the image generation unit is related to an image generation system that generates an image visible from the virtual camera in the object space. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の他の態様によれば、プレーヤの所持物又は部位の位置情報に対応するオブジェクト空間内の位置に仮想カメラを配置設定して、オブジェクト空間内において仮想カメラから見える画像を生成できるようになる。従って、ヘッドトラッキングのような画像を簡素な処理で生成できるようになり、多様な画像や演出効果の高い画像等の生成が可能になる。   According to another aspect of the present invention, the virtual camera is arranged and set at a position in the object space corresponding to the position information of the player's belongings or parts so that an image visible from the virtual camera can be generated in the object space. Become. Accordingly, an image such as head tracking can be generated by a simple process, and various images and images with high rendering effects can be generated.

本実施形態の画像生成システムの構成例。1 is a configuration example of an image generation system according to the present embodiment. 図2(A)、図2(B)は画像センサを用いたカラー画像情報、デプス情報の取得手法の説明図。2A and 2B are explanatory diagrams of a method for acquiring color image information and depth information using an image sensor. 図3(A)、図3(B)はプレーヤの所持物等の方向情報等をレンダリング用情報として取得する手法の説明図。FIGS. 3A and 3B are explanatory diagrams of a method for acquiring direction information and the like of the player's belongings as rendering information. 図4(A)、図4(B)は取得されたレンダリング用情報を用いたレンダリング処理の説明図。4A and 4B are explanatory diagrams of rendering processing using the acquired rendering information. 図5(A)、図5(B)はプレーヤの所持物等の形状情報、色情報をレンダリング処理に反映させる手法の説明図。FIGS. 5A and 5B are explanatory diagrams of a technique for reflecting shape information and color information of the player's belongings and the like in the rendering process. デプス情報に基づいてプレーヤのスケルトン情報を求める手法の説明図。Explanatory drawing of the method of calculating | requiring the skeleton information of a player based on depth information. プレーヤのスケルトン情報に基づいて光源の配置位置等を特定する手法の説明図。Explanatory drawing of the method of specifying the arrangement position etc. of a light source based on the skeleton information of a player. 図8(A)、図8(B)はレンダリング用情報を取得する他の手法の説明図。FIG. 8A and FIG. 8B are explanatory diagrams of another method for acquiring rendering information. 図9(A)、図9(B)はレンダリング用情報として複数の方向情報を取得する手法の説明図。FIGS. 9A and 9B are explanatory diagrams of a technique for acquiring a plurality of direction information as rendering information. 図10(A)、図10(B)はプレーヤのスケルトン情報を用いてプレーヤの所持物等の方向情報を取得する手法の説明図。FIG. 10A and FIG. 10B are explanatory diagrams of a method for acquiring direction information such as a player's belongings using the player's skeleton information. 図11(A)、図11(B)はプレーヤのスケルトン情報を用いて画像処理の処理領域を設定する手法の説明図。FIG. 11A and FIG. 11B are explanatory diagrams of a method for setting a processing area for image processing using skeleton information of a player. 図12(A)〜図12(C)はプレーヤの所持物等の位置情報に基づいて仮想カメラを配置設定する手法の説明図。12A to 12C are explanatory diagrams of a method for arranging and setting a virtual camera based on position information of a player's belongings and the like. 図13(A)、図13(B)はプレーヤの所持物等の方向情報等をヒット演算用情報として取得する手法の説明図。FIGS. 13A and 13B are explanatory diagrams of a method for acquiring direction information of the player's belongings and the like as hit calculation information. 本実施形態の処理を説明するフローチャート。The flowchart explaining the process of this embodiment. 本実施形態の処理を説明するフローチャート。The flowchart explaining the process of this embodiment. 本実施形態の処理を説明するフローチャート。The flowchart explaining the process of this embodiment. 本実施形態の処理を説明するフローチャート。The flowchart explaining the process of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲーム装置)のブロック図の例を示す。なお、本実施形態の画像生成システムの構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Configuration FIG. 1 shows an example of a block diagram of an image generation system (game device) of the present embodiment. Note that the configuration of the image generation system of the present embodiment is not limited to that shown in FIG. 1, and various modifications may be made such as omitting some of the components (each unit) or adding other components. .

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、方向指示キー、操作ボタン、アナログスティック、レバー、各種センサ(角速度センサ、加速度センサ等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。   The operation unit 160 is for a player to input operation data, and functions thereof are direction instruction keys, operation buttons, analog sticks, levers, various sensors (such as an angular velocity sensor and an acceleration sensor), a microphone, or a touch panel type. This can be realized with a display.

また操作部160は、例えばカラー画像センサやデプスセンサなどにより実現される画像センサを含む。なお操作部160の機能を画像センサだけで実現してもよい。   The operation unit 160 includes an image sensor realized by, for example, a color image sensor or a depth sensor. Note that the function of the operation unit 160 may be realized only by the image sensor.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like. Then, the game program and game data necessary for executing the game program are held in the storage unit 170.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、HDD(ハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   An information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions thereof by an optical disk (CD, DVD), HDD (hard disk drive), memory (ROM, etc.), and the like. realizable. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, a touch panel display, an HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。   The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card.

通信部196は、有線や無線のネットワークを介して外部(例えば他の画像生成システム、サーバ、ホスト装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (for example, another image generation system, a server, or a host device) via a wired or wireless network, and functions as a communication ASIC, a communication processor, or the like. It can be realized by hardware and communication firmware.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置194)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is obtained from an information storage medium of a server (host device) via an information storage medium 180 (or storage unit 170, auxiliary storage) via a network and communication unit 196. May be distributed to the device 194). Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs game processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), and programs.

処理部100は、画像情報取得部102、情報取得部104、ゲーム演算部108、ヒット演算部110、オブジェクト空間設定部112、キャラクタ制御部114、仮想カメラ制御部118、画像生成部120、音生成部130を含む。また情報取得部104はスケルトン情報取得部105を含み、キャラクタ制御部114は移動処理部115、モーション処理部116を含む。画像生成部120は光源設定部122を含む。なおこれらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes an image information acquisition unit 102, an information acquisition unit 104, a game calculation unit 108, a hit calculation unit 110, an object space setting unit 112, a character control unit 114, a virtual camera control unit 118, an image generation unit 120, and sound generation. Part 130. The information acquisition unit 104 includes a skeleton information acquisition unit 105, and the character control unit 114 includes a movement processing unit 115 and a motion processing unit 116. The image generation unit 120 includes a light source setting unit 122. Various modifications may be made such as omitting some of these components or adding other components.

画像情報取得部102は、画像センサからの画像情報を取得する。例えば画像センサにより撮像された画像の情報は、記憶部170の画像情報記憶部171に保存される。具体的には、画像センサのカラー画像センサにより撮像されたカラー画像の情報はカラー画像情報記憶部172に保存され、画像センサのデプスセンサにより撮像されたデプス画像の情報はデプス情報記憶部173に保存される。画像情報取得部102は、これらの画像情報を画像情報記憶部171から読み出すことで画像情報を取得する。   The image information acquisition unit 102 acquires image information from the image sensor. For example, information on an image captured by the image sensor is stored in the image information storage unit 171 of the storage unit 170. Specifically, information on the color image captured by the color image sensor of the image sensor is stored in the color image information storage unit 172, and information on the depth image captured by the depth sensor of the image sensor is stored in the depth information storage unit 173. Is done. The image information acquisition unit 102 reads the image information from the image information storage unit 171 to acquire the image information.

情報取得部104は、画像情報取得部102が取得した画像情報に基づいて、レンダリング用情報やヒット演算用情報を取得する。   The information acquisition unit 104 acquires rendering information and hit calculation information based on the image information acquired by the image information acquisition unit 102.

ゲーム演算部108はゲーム演算処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 108 performs game calculation processing. Here, as a game calculation, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a process for ending a game when a game end condition is satisfied and so on.

ヒット演算部110はヒット演算処理を行う。例えばヒットチェック処理やヒット演出処理などを行う。具体的には、弾等の軌道方向とターゲットオブジェクトのヒットチェックを行い、ヒットしたと判定された場合に、ヒットエフェクトを発生する処理などを行う。   The hit calculation unit 110 performs hit calculation processing. For example, hit check processing or hit effect processing is performed. Specifically, the orbital direction of the bullet or the like and the hit check of the target object are performed, and when it is determined that the hit has occurred, a process of generating a hit effect is performed.

オブジェクト空間設定部112は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行う。例えば、キャラクタ(人、動物、ロボット、車、船舶、飛行機等)、マップ(地形)、建物、コース(道路)、樹木、壁などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部175には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部112は、例えば各フレーム毎にこのオブジェクトデータを更新する処理などを行う。   The object space setting unit 112 performs an object space setting process in which a plurality of objects are arranged. For example, various objects (polygon, free-form surface or subdivision surface) representing display objects such as characters (people, animals, robots, cars, ships, airplanes, etc.), maps (terrain), buildings, courses (roads), trees, walls, etc. The object is configured to place and set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, the object data storage unit 175 of the storage unit 170 stores object data that is data such as the position, rotation angle, moving speed, and moving direction of the object (part object) in association with the object number. . The object space setting unit 112 performs a process of updating the object data for each frame, for example.

キャラクタ制御部114は、オブジェクト空間を移動(動作)するキャラクタの制御を行う。例えばキャラクタ制御部114が含む移動処理部115は、キャラクタ(モデルオブジェクト、移動オブジェクト)を移動させる処理を行う。例えば操作部160によりプレーヤが入力した操作情報や、プログラム(移動アルゴリズム)や、各種データなどに基づいて、キャラクタをオブジェクト空間内で移動させる。具体的には、キャラクタの移動情報(位置、回転角度、速度、或いは加速度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動処理やモーション処理や画像生成処理を行う時間の単位である。   The character control unit 114 controls a character that moves (moves) in the object space. For example, the movement processing unit 115 included in the character control unit 114 performs a process of moving a character (model object, moving object). For example, the character is moved in the object space based on operation information input by the player through the operation unit 160, a program (movement algorithm), various data, and the like. Specifically, a simulation process for sequentially obtaining character movement information (position, rotation angle, speed, or acceleration) every frame (for example, 1/60 second) is performed. Note that a frame is a unit of time for performing a movement process, a motion process, and an image generation process.

キャラクタ制御部114が含むモーション処理部116は、キャラクタにモーション(アニメーション)を行わせるモーション処理(モーション再生、モーション生成)を行う。このモーション処理は、キャラクタのモーションを、モーションデータ記憶部176に記憶されているモーションデータに基づいて再生することなどで実現できる。   The motion processing unit 116 included in the character control unit 114 performs motion processing (motion reproduction, motion generation) that causes the character to perform motion (animation). This motion processing can be realized by reproducing the motion of the character based on the motion data stored in the motion data storage unit 176.

具体的にはモーションデータ記憶部176には、キャラクタ(モデルオブジェクト)のスケルトンを構成する各骨(キャラクタを構成する各パーツオブジェクト)の位置又は回転角度(親の骨に対する子の骨の3軸周りの回転角度)等を含むモーションデータが記憶されている。またモデルデータ記憶部177は、キャラクタを表すモデルオブジェクトのモデルデータを記憶する。モーション処理部116は、このモーションデータをモーションデータ記憶部176から読み出し、読み出されたモーションデータに基づいてスケルトンを構成する各骨(パーツオブジェクト)を動かすことで(スケルトン形状を変形させることで)、キャラクタのモーションを再生する。   Specifically, the motion data storage unit 176 stores the position or rotation angle of each bone (each part object constituting the character) constituting the skeleton of the character (model object) around the three axes of the child bone relative to the parent bone. Motion data including the rotation angle). The model data storage unit 177 stores model data of a model object representing a character. The motion processing unit 116 reads this motion data from the motion data storage unit 176 and moves each bone (part object) constituting the skeleton based on the read motion data (by deforming the skeleton shape). Play the character's motion.

仮想カメラ制御部118は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 118 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

例えば仮想カメラによりキャラクタを後方から撮影する場合には、キャラクタの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動処理部115で得られたキャラクタの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when a character is photographed from behind using a virtual camera, the position or rotation angle (the direction of the virtual camera) of the virtual camera is controlled so that the virtual camera follows changes in the position or rotation of the character. In this case, the virtual camera can be controlled based on information such as the character position, rotation angle, or speed obtained by the movement processing unit 115. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera.

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ179(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、描画処理は頂点シェーダ処理やピクセルシェーダ処理により実現することができる。   The image generation unit 120 performs drawing processing based on the results of various processing (game processing and simulation processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Then, based on this drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 179 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that the rendering process can be realized by a vertex shader process or a pixel shader process.

画像生成部120が含む光源設定部122は、光源の設定処理を行う。例えば光源の光源方向や光源色や光源位置等の光源情報の設定処理を行う。この光源情報は光源情報記憶部178に保存される。   The light source setting unit 122 included in the image generation unit 120 performs light source setting processing. For example, light source information such as the light source direction, light source color, and light source position is set. The light source information is stored in the light source information storage unit 178.

なお、画像生成部120が、いわゆる立体視用の画像を生成するようにしてもよい。この場合には、基準となる仮想カメラの位置とカメラ間距離を用いて、左目用仮想カメラと右目用仮想カメラを配置設定する。そして画像生成部120が、オブジェクト空間内において左目用仮想カメラから見える左目用画像と、オブジェクト空間内において右目用仮想カメラから見える右目用画像を生成する。そしてこれらの左目用画像、右目用画像を用いて、眼分離眼鏡方式や、レンティキュラーレンズなどを用いた裸眼方式などにより、立体視を実現すればよい。   Note that the image generation unit 120 may generate a so-called stereoscopic image. In this case, the left-eye virtual camera and the right-eye virtual camera are arranged and set using the position of the reference virtual camera and the inter-camera distance. The image generation unit 120 generates a left-eye image that can be seen from the left-eye virtual camera in the object space and a right-eye image that can be seen from the right-eye virtual camera in the object space. Then, using these left-eye image and right-eye image, stereoscopic vision may be realized by an eye separation spectacle method, a naked eye method using a lenticular lens, or the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

そして本実施形態では画像情報取得部102が画像センサからの画像情報を取得すると、情報取得部104が、画像情報に基づく画像処理を行う。そしてプレーヤ(観者)の所持物又は部位についての方向情報、色情報及び形状情報の少なくとも1つを、レンダリング用情報として取得する。   In this embodiment, when the image information acquisition unit 102 acquires image information from the image sensor, the information acquisition unit 104 performs image processing based on the image information. Then, at least one of the direction information, the color information, and the shape information about the possession or part of the player (viewer) is acquired as rendering information.

ここで所持物はプレーヤが所持する現実世界の物体である。部位は、プレーヤの体の一部であり、手、足、腕、もも、頭部、胸等である。プレーヤの所持物又は部位の方向情報は、所持物又は部位の方向を表す情報であり、所持物又は部位の向く方向や所持物又は部位の面の法線方向などである。所持物又は部位の色情報は、所持物又は部位の色を表す情報である。所持物又は部位の形状情報は、所持物又は部位の形状を表す情報(形状を概略的に表す情報)であり、多角形、丸等の平面形状や、多面体、球、円柱、錐体等の立体形状などである。レンダリング用情報は、画像のレンダリング処理に使用する情報である。   Here, the possession is a real world object possessed by the player. The part is a part of the player's body, such as a hand, a leg, an arm, a thigh, a head, or a chest. The player's possession or part direction information is information indicating the direction of the possession or part, such as the direction of the possession or part or the normal direction of the surface of the possession or part. The color information of the belonging or part is information representing the color of the belonging or part. The shape information of the belonging or part is information representing the shape of the possession or part (information that schematically represents the shape), such as a planar shape such as a polygon or a circle, a polyhedron, a sphere, a cylinder, or a cone. Three-dimensional shape. The rendering information is information used for image rendering processing.

そして画像生成部は120は、これらの方向情報、色情報及び形状情報の少なくとも1つであるレンダリング用情報(シェーディング用情報)に基づくレンダリング処理(シェーディング処理)を行って、画像を生成する。例えば所持物又は部位の方向情報や色情報や形状情報をレンダリング処理のパラメータに設定してレンダリング処理を行い、例えばオブジェクト空間内において仮想カメラから見える画像を生成する。   The image generation unit 120 performs rendering processing (shading processing) based on rendering information (shading information) that is at least one of the direction information, color information, and shape information, and generates an image. For example, the rendering process is performed by setting the direction information, color information, and shape information of the belongings or parts as parameters of the rendering process, and for example, an image that can be seen from the virtual camera in the object space is generated.

具体的には画像生成部120は、レンダリング用情報に基づいて、オブジェクト空間に配置設定される光源の光源情報(光源属性情報)を設定する。例えば所持物又は部位の方向情報により光源方向を設定したり、色情報により光源色を設定したり、形状情報により光源形状を設定する。そして画像生成部120は、このようにして光源情報が設定された光源を用いたレンダリング処理を行って、オブジェクト空間内において仮想カメラから見える画像を生成する。例えば光源の光源情報とオブジェクトのポリゴン(プリミティブ面)の法線ベクトルに基づいてシェーディング処理を行い、画像を生成する。この場合に、ランバート(Lambert)、フォン(Phong)、ブリン(Blinn)などの種々の照明モデルを用いて、グーロー(Gouraud)シェーディング、フォン(Phong)シェーディングなどのシェーディング処理を行う。   Specifically, the image generation unit 120 sets light source information (light source attribute information) of a light source arranged and set in the object space based on the rendering information. For example, the direction of the light source is set based on the direction information of the belonging or part, the light source color is set based on the color information, and the light source shape is set based on the shape information. Then, the image generation unit 120 performs a rendering process using the light source in which the light source information is set in this way, and generates an image that can be seen from the virtual camera in the object space. For example, shading processing is performed based on the light source information of the light source and the normal vector of the polygon (primitive surface) of the object to generate an image. In this case, shading processing such as Gouraud shading and Phong shading is performed using various illumination models such as Lambert, Phong, and Blinn.

またキャラクタ制御部114は、プレーヤに対応するキャラクタの制御を行う。ここでキャラクタは、三人称視点の場合には実際に表示されるオブジェクトになるが、一人称視点の場合には、表示部190に表示されない仮想的なオブジェクトになる。   The character control unit 114 controls a character corresponding to the player. Here, the character becomes an object that is actually displayed in the third person viewpoint, but becomes a virtual object that is not displayed on the display unit 190 in the first person viewpoint.

そして情報取得部104は、画像センサからの画像情報に基づいてプレーヤのスケルトン情報を取得する。例えば情報取得部104のスケルトン情報取得部105が、デプス情報等の画像情報に基づく画像処理を行ってプレーヤのスケルトン情報を求める。求められたスケルトン情報はスケルトン情報記憶部174に保存される。   Then, the information acquisition unit 104 acquires the player's skeleton information based on the image information from the image sensor. For example, the skeleton information acquisition unit 105 of the information acquisition unit 104 performs image processing based on image information such as depth information and obtains skeleton information of the player. The obtained skeleton information is stored in the skeleton information storage unit 174.

ここでスケルトン情報は、例えば画像センサから見えるプレーヤの動作を特定する情報である。具体的には、このスケルトン情報は、プレーヤの複数の関節に対応する複数の関節位置情報を有し、各関節位置情報は3次元座標情報により構成される。各関節を結合するものが骨(ボーン)となり、複数の骨の結合によりスケルトンが構成される。   Here, the skeleton information is information for specifying, for example, the action of the player as seen from the image sensor. Specifically, this skeleton information has a plurality of joint position information corresponding to a plurality of joints of the player, and each joint position information is constituted by three-dimensional coordinate information. What connects each joint becomes a bone, and a skeleton is formed by connecting a plurality of bones.

このようにスケルトン情報が取得されると、画像生成部120は、取得されたスケルトン情報とキャラクタの位置情報に基づいて、オブジェクト空間内での光源の配置位置を特定する。例えばオブジェクト空間のワールド座標系でのキャラクタの位置情報(代表位置の情報)と、ローカル座標系でのスケルトンの関節位置情報(所持物又は部位に対応する関節の位置情報)に基づいて、光源の配置位置を特定する。   When the skeleton information is acquired in this way, the image generation unit 120 specifies the arrangement position of the light source in the object space based on the acquired skeleton information and the position information of the character. For example, based on the position information (representative position information) of the character in the world coordinate system of the object space and the joint position information of the skeleton in the local coordinate system (position information of the joint corresponding to the possession or part), Specify the location.

また画像情報取得部102は、画像センサからの画像情報としてデプス情報とカラー画像情報を取得する。このデプス情報は、例えば各画素位置にデプス値(奥行き値)が設定された画像情報である。そして情報取得部104は、取得されたデプス情報に基づいて、プレーヤの所持物又は部位の方向情報及び形状情報の少なくとも1つをレンダリング用情報として取得する。例えばデプス情報やカラー画像情報に基づいて、プレーヤの所持物や部位の方向や形状を判断して、レンダリング用情報として取得する。   The image information acquisition unit 102 acquires depth information and color image information as image information from the image sensor. This depth information is image information in which a depth value (depth value) is set at each pixel position, for example. Based on the acquired depth information, the information acquisition unit 104 acquires at least one of direction information and shape information of the belongings or parts of the player as rendering information. For example, the direction and shape of the player's belongings and parts are determined based on the depth information and color image information, and acquired as rendering information.

この場合に情報取得部104は、デプス情報に基づいて、レンダリング用情報の方向情報として複数の第1〜第Nの方向情報(Nは2以上の整数)を取得してもよい。例えばプレーヤの所持物や部位の方向情報として複数の方向情報を取得する。すると画像生成部120は、レンダリング用情報である第1〜第Nの方向情報に基づくレンダリング処理を行って、画像を生成する。即ち複数の方向情報を反映させたレンダリング処理を行って、表示部190に表示する画像を生成する。別の言い方をすれば画像生成部120は、デプス情報に基づいて取得された所持物又は部位の形状情報に基づいてレンダリング範囲を設定し、設定されたレンダリング範囲でレンダリング処理を行って、画像を生成する。光源によるレンダリング処理を例にとれば、所持物又は部位の形状情報により、レンダリング範囲である光源光の照射範囲を設定し、その照射範囲でレンダリング処理(シェーディング処理)を行う。   In this case, the information acquisition unit 104 may acquire a plurality of first to Nth direction information (N is an integer of 2 or more) as direction information of the rendering information based on the depth information. For example, a plurality of pieces of direction information are acquired as direction information of the player's belongings and parts. Then, the image generation unit 120 performs rendering processing based on the first to Nth direction information that is the rendering information, and generates an image. That is, a rendering process reflecting a plurality of direction information is performed, and an image to be displayed on the display unit 190 is generated. In other words, the image generation unit 120 sets the rendering range based on the possessed or part shape information acquired based on the depth information, performs the rendering process in the set rendering range, Generate. Taking a rendering process using a light source as an example, an irradiation range of light source light, which is a rendering range, is set based on the shape information of an object or part, and a rendering process (shading process) is performed in the irradiation range.

また情報取得部104は、画像センサからの画像情報に基づいてスケルトン情報を取得し、取得されたスケルトン情報に基づいて、プレーヤの所持物又は部位についての方向情報を取得してもよい。例えばスケルトンの手に対応する第1、第2の関節を結ぶ方向を、プレーヤの所持物又は部位についての方向情報として設定する。   Further, the information acquisition unit 104 may acquire skeleton information based on image information from the image sensor, and may acquire direction information about the player's belongings or parts based on the acquired skeleton information. For example, the direction connecting the first and second joints corresponding to the hand of the skeleton is set as direction information about the player's belongings or parts.

また情報取得部104は、取得されたスケルトン情報に基づいて、レンダリング用情報の取得のための画像処理の処理領域を設定してもよい。例えばスケルトン情報に基づいて、プレーヤの所持物又は部位の位置を特定し、特定された位置を含む所定サイズの領域(画面よりも小さな領域)を処理領域に設定する。そして情報取得部104は、設定された処理領域でのデプス情報やカラー画像情報を用いて画像処理を行って、プレーヤの所持物又は部位の方向情報や色情報や形状情報を取得する。   Further, the information acquisition unit 104 may set a processing area for image processing for acquiring rendering information based on the acquired skeleton information. For example, the position of the player's belongings or part is specified based on the skeleton information, and an area of a predetermined size (area smaller than the screen) including the specified position is set as the processing area. The information acquisition unit 104 performs image processing using the depth information and color image information in the set processing region, and acquires direction information, color information, and shape information of the player's belongings or parts.

また情報取得部104がプレーヤの所持物又は部位の位置情報を取得した場合に、仮想カメラ制御部118が、所持物又は部位の位置情報に基づいて、オブジェクト空間内に仮想カメラを配置設定してもよい。具体的には、プレーヤの所持物又は部位の位置情報に対応する位置に、仮想カメラを配置し、所持物又は部位の方向情報に対応する方向に、仮想カメラの方向(視線方向)を向ける制御を行う。或いは、仮想カメラの方向を、スクリーンの中心に向くように制御してもよい。そして画像生成部120が、オブジェクト空間内において仮想カメラから見える画像を生成する。このようにすることで、ヘッドトラッキングのような画像の生成が可能になる。この場合に情報取得部104は、例えばスケルトン情報に基づいて、プレーヤの所持物又は部位の位置情報を取得すればよい。   Further, when the information acquisition unit 104 acquires the position information of the possessed item or part of the player, the virtual camera control unit 118 sets the virtual camera in the object space based on the position information of the possessed item or part. Also good. Specifically, the virtual camera is arranged at a position corresponding to the position information of the player's belongings or part, and the direction of the virtual camera (gaze direction) is directed to the direction corresponding to the direction information of the possession or part. I do. Alternatively, the direction of the virtual camera may be controlled to face the center of the screen. Then, the image generation unit 120 generates an image that can be seen from the virtual camera in the object space. By doing so, it is possible to generate an image such as head tracking. In this case, the information acquisition unit 104 may acquire the position information of the player's belongings or parts based on, for example, skeleton information.

また情報取得部104は、画像センサからの画像情報に基づく画像処理を行って、プレーヤの所持物又は部位についての方向情報及び形状情報の少なくとも1つを、ヒット演算用情報として取得する。そしてヒット演算部110は、取得されたヒット演算用情報に基づいてヒット演算処理を行う。例えばプレーヤの所持物又は部位の方向や形状を反映させたヒット演算処理(ヒットチェック処理)を行う。具体的にはヒット演算用情報の方向情報により特定される軌道方向(ヒット方向)に基づいて、ターゲットオブジェクト(弾等の被ヒット物のヒットのターゲットになるオブジェクト)に対するヒット演算処理を行う。そして画像生成部120は、ヒット演算処理の結果に基づいて、画像を生成する。例えば弾等の被ヒット物の画像を生成したり、被ヒット物がターゲットオブジェクトにヒットした場合に、ヒットエフェクト演出用の画像を生成する。   Further, the information acquisition unit 104 performs image processing based on image information from the image sensor, and acquires at least one of direction information and shape information about the player's belongings or parts as hit calculation information. The hit calculation unit 110 performs hit calculation processing based on the acquired hit calculation information. For example, hit calculation processing (hit check processing) reflecting the direction and shape of the player's belongings or parts is performed. Specifically, based on the trajectory direction (hit direction) specified by the direction information of the hit calculation information, hit calculation processing is performed on the target object (an object that becomes a hit target of hit objects such as bullets). Then, the image generation unit 120 generates an image based on the result of the hit calculation process. For example, an image of a hit object such as a bullet is generated, or when a hit object hits a target object, an image for producing a hit effect is generated.

また情報取得部104は、画像情報取得部102が画像情報としてデプス情報を取得した場合に、取得されたデプス情報に基づいて、プレーヤの所持物又は部位の方向情報及び形状情報の少なくとも1つをヒット演算用情報として取得してもよい。例えばデプス情報やカラー画像情報に基づいて、プレーヤの所持物や部位の方向や形状を判断して、ヒット演算用情報として取得する。   Further, when the image information acquisition unit 102 acquires depth information as image information, the information acquisition unit 104 obtains at least one of direction information and shape information of the player's belongings or parts based on the acquired depth information. You may acquire as information for hit calculation. For example, based on depth information and color image information, the player's belongings and the direction and shape of the part are determined and acquired as hit calculation information.

そして情報取得部104が、デプス情報に基づいてヒット演算用情報の方向情報として複数の第1〜第Nの方向情報を取得すると、ヒット演算部110は、これらの第1〜第Nの方向情報に基づいて、ヒット演算処理を行う。即ち複数の方向情報を反映させたヒット演算処理を行って、表示部190に表示する画像を生成する。例えば複数の方向に弾等の被ヒット物を飛翔させて、ターゲットオブジェクトとのヒット演算処理を行う。別の言い方をすればヒット演算部110は、デプス情報に基づいて取得された所持物又は部位の形状情報に基づいてヒット範囲を設定し、設定されたヒット範囲に基づいてヒット演算処理を行う。例えば所持物又は部位の形状により設定されるヒット範囲内にターゲットオブジェクトが位置する場合に、弾等がターゲットオブジェクトにヒットしたと判定する。   When the information acquisition unit 104 acquires a plurality of first to Nth direction information as the direction information of the hit calculation information based on the depth information, the hit calculation unit 110 includes the first to Nth direction information. Based on the above, hit calculation processing is performed. That is, hit calculation processing reflecting a plurality of pieces of direction information is performed, and an image to be displayed on the display unit 190 is generated. For example, hit objects such as bullets fly in a plurality of directions, and hit calculation processing with the target object is performed. In other words, the hit calculation unit 110 sets a hit range based on the possessed or part shape information acquired based on the depth information, and performs hit calculation processing based on the set hit range. For example, when the target object is located within the hit range set by the shape of the belonging or part, it is determined that a bullet or the like has hit the target object.

なお、情報取得部104は、このヒット演算処理の場合にも、レンダリング処理の場合と同様に、スケルトン情報に基づいて、プレーヤの所持物又は部位についての方向情報を取得する。またスケルトン情報に基づいて、ヒット演算用情報の取得のための画像処理の処理領域を設定する。   In the hit calculation process, the information acquisition unit 104 acquires direction information about the player's belongings or parts based on the skeleton information as in the rendering process. Further, based on the skeleton information, a processing area for image processing for obtaining hit calculation information is set.

また情報取得部104が、画像情報に基づく画像処理を行って、プレーヤの所持物又は部位についての位置情報を取得した場合に、仮想カメラ制御部118は、取得された位置情報だけに基づいてオブジェクト空間内に仮想カメラを配置設定してもよい。この場合には仮想カメラの向く方向については、常に一定の方向に向けたり、画面中心に対して向けるように制御すればよい。   Further, when the information acquisition unit 104 performs image processing based on the image information and acquires position information about the possessed item or part of the player, the virtual camera control unit 118 uses the object information based only on the acquired position information. A virtual camera may be arranged and set in the space. In this case, the direction in which the virtual camera faces may be controlled so that it always faces in a certain direction or toward the center of the screen.

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。
2. Next, the method of this embodiment will be described in detail.

2.1 所持物の方向情報等に基づくレンダリング処理
一般的に、ゲーム装置では、ゲームコントローラのボタンやレバーを操作してゲーム操作を行う。またゲームコントローラにモーションセンサ(6軸センサ)を設け、プレーヤがゲームコントローラそのものを動かすことでゲーム操作を行うゲーム装置もある。
2.1 Rendering processing based on direction information of belongings Generally, game devices perform game operations by operating buttons and levers of a game controller. There is also a game apparatus in which a motion controller (six-axis sensor) is provided in the game controller, and a player performs a game operation by moving the game controller itself.

しかしながら、このような操作インターフェースのゲーム装置では、ゲーム操作にゲームコントローラが必要になり、プレーヤの手の動きなどのジェスチャをそのまま反映させるようなゲーム操作については実現できず、プレーヤの仮想現実感を今ひとつ向上できない。   However, such a game device with an operation interface requires a game controller for the game operation, and cannot implement a game operation that directly reflects a gesture such as a player's hand movement. I can not improve one more.

そこで本実施形態では、画像センサで撮像された画像情報に基づきプレーヤの操作入力を可能にする操作インターフェースを採用している。   Therefore, in this embodiment, an operation interface that allows a player to input an operation based on image information captured by the image sensor is employed.

例えば図2(A)では、表示部190に対応する位置に、デプスセンサ(赤外線センサ等)やカラー画像センサ(CCDやCMOSセンサなどのRGBセンサ)により実現される画像センサISEが設置されている。この画像センサISEは、例えばその撮像方向(光軸方向)が表示部190からプレーヤPLの方に向く方向になるように設置されており、表示部190側から見たプレーヤPLのカラー画像情報やデプス情報を撮像する。なお画像センサISEは、表示部190に内蔵されるものであってもよいし、外付け部品として用意されるものであってもよい。   For example, in FIG. 2A, an image sensor ISE realized by a depth sensor (infrared sensor or the like) or a color image sensor (RGB sensor such as a CCD or CMOS sensor) is installed at a position corresponding to the display unit 190. The image sensor ISE is installed so that, for example, its imaging direction (optical axis direction) is a direction from the display unit 190 toward the player PL, and color image information of the player PL viewed from the display unit 190 side, Image depth information. The image sensor ISE may be built in the display unit 190 or may be prepared as an external component.

そして図2(A)の画像センサISEを用いて、図2(B)に示すようなカラー画像情報とデプス情報を取得する。例えばカラー画像情報では、プレーヤPLやその周りの風景の色情報が得られる。一方、デプス情報では、プレーヤPLやその周りの風景のデプス値(奥行き値)が、例えばグレースケール値として得られる。例えばカラー画像情報は、その各画素位置にカラー値(RGB)が設定された画像情報であり、デプス情報は、その各画素位置にデプス値(奥行き値)が設定された画像情報である。なお、画像センサISEは、デプスセンサとカラー画像センサとが別々に設けられたセンサであってもよいし、デプスセンサとカラー画像センサとが複合的に組み合わせられたセンサであってもよい。   Then, using the image sensor ISE in FIG. 2A, color image information and depth information as shown in FIG. 2B are acquired. For example, with color image information, color information of the player PL and the surrounding landscape can be obtained. On the other hand, in the depth information, the depth values (depth values) of the player PL and the surrounding scenery are obtained as gray scale values, for example. For example, the color image information is image information in which a color value (RGB) is set at each pixel position, and the depth information is image information in which a depth value (depth value) is set at each pixel position. The image sensor ISE may be a sensor in which a depth sensor and a color image sensor are provided separately, or may be a sensor in which a depth sensor and a color image sensor are combined.

デプス情報の取得手法としては、公知に種々の手法を想定できる。例えば画像センサISE(デプスセンサ)から赤外線等の光を投射し、その投射光の反射強度や、投射光が戻ってくるまでの時間(Time Of Flight)を検出することで、デプス情報を取得し、画像センサISEの位置から見たプレーヤPLなどの物体のシェイプを検出する。具体的には、デプス情報は、例えば画像センサISEから近い物体では明るくなり、画像センサISEから遠い物体では暗くなるグレースケールデータとして表される。なおデプス情報の取得手法としては種々の変形実施が可能であり、例えばCMOSセンサなどの画像センサを用いて、カラー画像情報と同時にデプス情報(被写体までの距離情報)を取得するようにしてもよい。また超音波などを用いた測距センサなどによりデプス情報を取得してもよい。   Various methods can be assumed as publicly known depth information acquisition methods. For example, by projecting light such as infrared rays from an image sensor ISE (depth sensor), the depth information is obtained by detecting the reflection intensity of the projected light and the time (Time Of Flight) until the projected light returns, The shape of an object such as the player PL viewed from the position of the image sensor ISE is detected. Specifically, the depth information is expressed as grayscale data that becomes brighter for an object close to the image sensor ISE and darker for an object far from the image sensor ISE, for example. The depth information acquisition method can be variously modified. For example, an image sensor such as a CMOS sensor may be used to acquire depth information (distance information to the subject) simultaneously with color image information. . Further, the depth information may be acquired by a distance measuring sensor using ultrasonic waves or the like.

そして本実施形態では、画像センサISEからの画像情報に基づく画像処理を行って、プレーヤPLの所持物又は部位の方向情報、色情報又は形状情報等を、レンダリング用情報として取得する。   In the present embodiment, image processing based on image information from the image sensor ISE is performed, and direction information, color information, shape information, or the like of the possessed item or part of the player PL is acquired as rendering information.

例えば図3(A)ではプレーヤPLは板状(直方体、長方形)の所持物THを所持し、所持物THの面を表示部190側に向けている。この場合に本実施形態では、画像センサISEにより図3(B)に示すようなカラー画像情報やデプス情報などの画像情報が取得される。   For example, in FIG. 3A, the player PL has a plate-like (cuboid, rectangular) possession TH, and the surface of the possession TH faces the display unit 190 side. In this case, in this embodiment, image information such as color image information and depth information as shown in FIG. 3B is acquired by the image sensor ISE.

そして図3(B)のカラー画像情報に基づいて所持物TH(或いは部位)の色情報や形状情報を特定する。例えば図3(B)のカラー画像情報によれば、所持物THの色や所持物THの直方体形状や面の四角形状を特定できる。また画像のパースのかかり具合を見ることで所持物THの面の方向DTH(法線方向)を特定できる。   Then, based on the color image information of FIG. 3 (B), the color information and shape information of the belonging TH (or part) are specified. For example, according to the color image information of FIG. 3B, the color of the belonging TH, the rectangular parallelepiped shape of the possession TH, or the rectangular shape of the surface can be specified. Further, the direction DTH (normal direction) of the surface of the belonging TH can be specified by looking at how the image is parsed.

また図3(B)のデプス情報を用いても所持物TH(或いは部位)の方向情報(DTH)や形状情報(直方体、四角形)を特定できる。即ちデプス情報によれば、画像センサISEから見た場合のプレーヤPLや所持物THの3次元形状を抽出できる。従って、例えば所持物THの四角形の面の領域でのデプス情報(デプス値の傾き等)に基づいて、所持物THの面の向く方向DTH(法線方向)を特定できる。またデプス情報に基づいて所持物THの直方体形状や面の四角形状も特定できる。   Further, the direction information (DTH) and shape information (rectangular, rectangular) of the belonging TH (or part) can also be specified using the depth information of FIG. That is, according to the depth information, it is possible to extract the three-dimensional shapes of the player PL and the belongings TH when viewed from the image sensor ISE. Therefore, for example, the direction DTH (normal direction) in which the surface of the possession TH faces can be specified based on the depth information (such as the slope of the depth value) in the area of the rectangular surface of the possession TH. Moreover, the rectangular parallelepiped shape and the rectangular shape of the possession TH can be specified based on the depth information.

そして本実施形態では、このようにして特定された所持物TH等の方向情報、色情報又は形状情報をレンダリング用情報として、レンダリング処理を行う。なお、以下では、プレーヤPLの所持物THの方向情報、色情報又は形状情報を用いてレンダリング処理やヒット演算処理を行う場合について主に説明するが、プレーヤPLの手、足、腕又は頭部等の部位の方向情報、色情報又は形状情報を用いて、レンダリング処理やヒット演算処理を行ってもよい。   In this embodiment, the rendering process is performed using the direction information, color information, or shape information of the belonging TH specified in this way as rendering information. In the following description, the case where the rendering process and the hit calculation process are performed using the direction information, color information, or shape information of the belongings TH of the player PL will be mainly described. The rendering process and the hit calculation process may be performed using the direction information, color information, or shape information of the part.

例えば図4(A)において、キャラクタCHはプレーヤPLに対応するものであり、プレーヤPLの操作によりオブジェクト空間内を移動するオブジェクトである。このキャラクタCHは、三人称視点の場合にはその全身(或いは頭部を含む体の一部)が表示部190の画面SCに表示される。一方、一人称視点の場合には、キャラクタCHは画面SCに表示されない仮想的なオブジェクトになる。なお一人称視点の場合に、キャラクタCHの手などの一部だけを表示してもよい。即ち一人称視点は少なくともキャラクタCHの頭部が表示されない視点設定である。   For example, in FIG. 4A, the character CH corresponds to the player PL, and is an object that moves in the object space by the operation of the player PL. When the character CH is in the third person viewpoint, the whole body (or a part of the body including the head) is displayed on the screen SC of the display unit 190. On the other hand, in the first person viewpoint, the character CH is a virtual object that is not displayed on the screen SC. In the case of the first person viewpoint, only a part of the character CH's hand or the like may be displayed. That is, the first person viewpoint is a viewpoint setting in which at least the head of the character CH is not displayed.

そして図4(A)では、プレーヤPLの所持物THの対応する位置に光源LSが設定される。即ち図3(A)ではプレーヤPLは右手に所持物THを持っており、これに対応して図4(A)ではキャラクタCHの右手に懐中電灯のライト等の光源LSが配置設定される。そして図3(A)で取得された所持物THの方向DTHに対応する方向に、光源LSの光源方向DLSが設定される。そしてこの光源方向DLSで照射される光RYによりターゲットオブジェクトTOBのシェーディング処理が行われて、画像がレンダリングされる。これにより図4(B)に示すように、光源LSからの光RY等により陰影づけが施された画像が生成されて、表示部190に表示されるようになる。   In FIG. 4A, the light source LS is set at a position corresponding to the possessed item TH of the player PL. That is, in FIG. 3A, the player PL has the possession TH in the right hand, and correspondingly, in FIG. 4A, the light source LS such as a flashlight light is arranged and set in the right hand of the character CH. Then, the light source direction DLS of the light source LS is set in a direction corresponding to the direction DTH of the belongings TH acquired in FIG. Then, the shading process of the target object TOB is performed by the light RY irradiated in the light source direction DLS, and an image is rendered. As a result, as shown in FIG. 4B, an image shaded by the light RY from the light source LS or the like is generated and displayed on the display unit 190.

また本実施形態では、所持物THの色情報や形状情報が反映された画像を生成する。例えば図5(A)では、所持物THが円板形状であるため、光の照射面が円状の光源LSが設定されて、その光源LSに応じた光RYの画像や光RYによるシェーディング画像が生成される。また所持物THの色が赤であるため、光RYの色も赤になり、光RYが照射されるターゲットオブジェクトTOBの画像も、赤の光が照射された画像になる。   In the present embodiment, an image reflecting the color information and shape information of the belongings TH is generated. For example, in FIG. 5A, since the belonging TH has a disk shape, a light source LS having a circular light irradiation surface is set, and an image of the light RY corresponding to the light source LS or a shading image by the light RY. Is generated. Moreover, since the color of the possession TH is red, the color of the light RY is also red, and the image of the target object TOB irradiated with the light RY is also an image irradiated with red light.

一方、図5(B)では、所持物THが直方体形状であるため、光の照射面が長方形の光源LSが設定されて、その光源LSに応じた光RYの画像や光RYによるシェーディング画像が生成される。また所持物THの色が青であるため、光RYの色も青になり、光RYが照射されるターゲットオブジェクトTOBの画像も、青の光が照射された画像になる。   On the other hand, in FIG. 5B, since the belonging TH has a rectangular parallelepiped shape, a light source LS having a rectangular light irradiation surface is set, and an image of the light RY corresponding to the light source LS and a shading image by the light RY are displayed. Generated. Further, since the color of the possession TH is blue, the color of the light RY is also blue, and the image of the target object TOB irradiated with the light RY is also an image irradiated with blue light.

また本実施形態では図6に示すように、図3(B)のデプス情報等の画像情報に基づいて、プレーヤPLの動作を特定するためのスケルトン情報を取得する。図6ではスケルトン情報として、スケルトンの関節C0〜C19の位置情報(3次元座標)が取得されている。これらの関節C0〜C10は、画像センサISEに映るプレーヤPLの関節に対応するものである。なお画像センサISEにプレーヤPLの全身が映らない場合には、映った部分だけの関節の位置情報を有するスケルトン情報を生成すればよい。   In this embodiment, as shown in FIG. 6, skeleton information for specifying the operation of the player PL is acquired based on image information such as depth information shown in FIG. In FIG. 6, position information (three-dimensional coordinates) of the skeleton joints C0 to C19 is acquired as the skeleton information. These joints C0 to C10 correspond to the joints of the player PL reflected on the image sensor ISE. When the whole body of the player PL is not reflected on the image sensor ISE, skeleton information having position information on joints only for the reflected portion may be generated.

例えば図3(B)のデプス情報を用いれば、画像センサISE側から見たプレーヤPL等の3次元形状を特定できる。またカラー画像情報を組み合わせれば、顔画像認識などによりプレーヤPLの顔等の部位の領域も特定できる。そこで、これらの3次元形状の情報等に基づいて、プレーヤPLの各部位を推定し、各部位の関節位置を推定する。そして推定された関節位置に対応するデプス情報の画素位置の2次元座標と、画素位置に設定されたデプス情報に基づいて、スケルトンの関節位置の3次元座標情報を求め、図6に示すようなスケルトン情報を取得する。   For example, if the depth information in FIG. 3B is used, the three-dimensional shape of the player PL or the like viewed from the image sensor ISE side can be specified. Further, by combining color image information, a region of a part such as the face of the player PL can be specified by face image recognition or the like. Therefore, each part of the player PL is estimated based on the information on the three-dimensional shape and the joint position of each part is estimated. Then, based on the two-dimensional coordinates of the pixel position of the depth information corresponding to the estimated joint position and the depth information set to the pixel position, the three-dimensional coordinate information of the joint position of the skeleton is obtained, as shown in FIG. Get skeleton information.

このようなスケルトン情報を用いれば、プレーヤPLのジェスチャ等の動作をリアルタイムに特定することができ、従来にない操作インターフェース環境を実現できる。また、このスケルトン情報は、オブジェクト空間に配置されるキャラクタCHのモーションデータとの親和性が高い。従って、このスケルトン情報を例えばモーションデータとして利用して、オブジェクト空間においてキャラクタCHを動作させることも可能になる。   By using such skeleton information, the operation of the player PL gesture and the like can be specified in real time, and an unprecedented operation interface environment can be realized. Further, this skeleton information has a high affinity with the motion data of the character CH arranged in the object space. Accordingly, the character CH can be moved in the object space by using the skeleton information as, for example, motion data.

そして本実施形態では、このスケルトン情報を用いて、光源LSの配置位置を特定する。具体的には図7において、プレーヤPLに対応するキャラクタCHの位置情報PRF(代表位置情報)を求める。例えば本実施形態では、キャラクタCHの移動を指示するプレーヤPLの動作を画像センサISEにより検出したり、ゲームコントローラからの操作情報などに基づいて、オブジェクト空間内でキャラクタCHを移動させる演算を行う。この移動演算により、オブジェクト空間のワールド座標系でのキャラクタCHの位置情報PRFが逐次求められる。そして、このワールド座標系での位置情報PRFと、図6のように求められたスケルトン情報のローカル座標系での関節の位置情報に基づいて、プレーヤPLに対応するキャラクタCHの手などの位置を求めることができる。そして図7に示すように、この求められた手などの位置を光源LSの配置位置PLSに設定する。そしてPLSに配置された光源LSを用いてレンダリング処理(シェーディング処理)を行う。   In this embodiment, the arrangement position of the light source LS is specified using this skeleton information. Specifically, in FIG. 7, the position information PRF (representative position information) of the character CH corresponding to the player PL is obtained. For example, in the present embodiment, the movement of the player PL instructing the movement of the character CH is detected by the image sensor ISE, or the character CH is moved in the object space based on operation information from the game controller. By this movement calculation, the position information PRF of the character CH in the world coordinate system of the object space is sequentially obtained. Based on the position information PRF in the world coordinate system and the joint position information in the local coordinate system of the skeleton information obtained as shown in FIG. 6, the position of the hand of the character CH corresponding to the player PL is determined. Can be sought. Then, as shown in FIG. 7, the obtained position of the hand or the like is set as the arrangement position PLS of the light source LS. Then, rendering processing (shading processing) is performed using the light source LS arranged in the PLS.

このようにすれば、プレーヤの動作を特定するスケルトン情報を有効活用して、光源LSの配置位置PLSを特定できる。そして、あたかもプレーヤPLが持った所持物THの位置に光源LSが配置されて、その光源LSからの光により、プレーヤPLに対応するキャラクタCHの周囲が照らされているかのように見える画像を生成できるようになる。   In this way, the arrangement position PLS of the light source LS can be specified by effectively utilizing the skeleton information that specifies the operation of the player. Then, the light source LS is arranged at the position of the belonging TH held by the player PL, and an image is generated as if the surroundings of the character CH corresponding to the player PL are illuminated by the light from the light source LS. become able to.

なお、以上では、図3(B)に示すデプス情報を用いて、プレーヤPLの所持物や部位の方向情報、形状情報等を取得する手法について説明したが、本実施形態はこれに限定されない。例えばカラー画像情報だけを用いて、プレーヤの所持物や部位の方向情報等を取得してもよい。   In the above description, the method for acquiring the direction information, shape information, and the like of the belongings and parts of the player PL using the depth information shown in FIG. 3B has been described, but the present embodiment is not limited to this. For example, only the color image information may be used to acquire the player's belongings, part direction information, and the like.

例えば図8(A)では、プレーヤPLの所持物THとして特別な画像パターンが描かれた部材を用意する。図8(A)の所持物THでは、その面が4つの領域に分割され、各領域に対して異なった画像パターンが描かれている。そして、このような特別な画像パターンが描かれた所持物THをプレーヤPLが所持し、これを画像センサISEにより撮像することで、例えば図8(B)に示すようなカラー画像情報を得ることができる。そして、このカラー画像情報に基づいて、プレーヤの所持物THの方向情報を特定する。即ち、カラー画像情報での画像パターンの配置位置や、所持物THの画像のパースのかかり具合などに基づいて、所持物THの方向情報(面の向く方向)を特定すればよい。   For example, in FIG. 8A, a member on which a special image pattern is drawn is prepared as the possession TH of the player PL. In the belonging TH of FIG. 8A, the surface is divided into four areas, and different image patterns are drawn for the respective areas. Then, the player PL possesses the possessed item TH on which such a special image pattern is drawn, and images it with the image sensor ISE, for example, to obtain color image information as shown in FIG. 8B. Can do. Then, based on the color image information, the direction information of the player's belongings TH is specified. That is, the direction information (direction of the surface) of the belonging TH may be specified based on the arrangement position of the image pattern in the color image information, the degree of parsing of the image of the possession TH, and the like.

また本実施形態では、所持物TH等の方向情報として複数の方向情報(第1〜第Nの方向情報)を取得してもよい。   Moreover, in this embodiment, you may acquire several direction information (1st-Nth direction information) as direction information, such as belongings TH.

例えば図9(A)では、所持物THの方向情報として1つの方向DTHだけが取得されている。即ち所持物THの面の法線方向が方向DTHとして取得されている。   For example, in FIG. 9A, only one direction DTH is acquired as the direction information of the belonging TH. That is, the normal direction of the surface of the belonging TH is acquired as the direction DTH.

これに対して図9(B)では、所持物THの方向情報として複数の方向DTH1、DTH2、DTH3(第1〜第Nの方向情報)が取得されている。そして、このように所持物THの方向情報として複数の方向DTH1〜DTH3が取得された場合には、これらの複数の方向DTH1〜DTH3を用いてレンダリング処理を行えばよい。別の言い方をすれば、これらの複数の方向DTH1〜DTH3により設定されるレンダリング範囲RRDを用いて、レンダリング処理を行う。   On the other hand, in FIG. 9B, a plurality of directions DTH1, DTH2, and DTH3 (first to Nth direction information) are acquired as the direction information of the belonging TH. When a plurality of directions DTH1 to DTH3 are acquired as the direction information of the belonging TH in this way, the rendering process may be performed using the plurality of directions DTH1 to DTH3. In other words, the rendering process is performed using the rendering range RRD set by the plurality of directions DTH1 to DTH3.

例えば所持物THが、その形状を自在に変形できる部材により形成されていたとする。この場合に図9(A)の変形前の形状では、方向DTHに対応する1つの照射方向のスポットライト光を、図4(A)の光源LSから照射するようにする。   For example, it is assumed that the belonging TH is formed of a member that can freely deform its shape. In this case, in the shape before deformation in FIG. 9A, spotlight light in one irradiation direction corresponding to the direction DTH is emitted from the light source LS in FIG. 4A.

一方、図9(B)のように所持物THがプレーヤPLにより曲げられて変形すると、複数の方向DTH1〜DTH3に対応する範囲に拡散するような光を、図4(A)の光源LSから照射するようにする。   On the other hand, when the belonging TH is bent and deformed by the player PL as shown in FIG. 9B, light that diffuses in a range corresponding to a plurality of directions DTH1 to DTH3 is emitted from the light source LS in FIG. Try to irradiate.

このようにすれば、1つの所持物THを用いて、異なる照射形態の光をゲーム画像内に発生させることが可能になる。これにより、多様なゲーム演出が可能になり、ゲームの演出効果を向上できる。   If it does in this way, it will become possible to generate the light of a different irradiation form in a game picture using one possession TH. As a result, various game effects are possible, and the effects of the game effects can be improved.

そして図9(A)、図9(B)に示すような所持物THの形状変形をゲーム画像に反映させるためには、図3(B)に示すようなデプス情報を用いることが望ましい。即ち、デプス情報を用いれば、所持物THの奥行き方向の情報を得ることができるため、図9(A)、図9(B)に示すような形状変形を容易に認識できる。   In order to reflect the shape deformation of the belongings TH as shown in FIGS. 9A and 9B in the game image, it is desirable to use depth information as shown in FIG. That is, if the depth information is used, information in the depth direction of the belonging TH can be obtained, so that the shape deformation as shown in FIGS. 9A and 9B can be easily recognized.

例えば図9(A)の形状変形前においては、所持物THの方向情報として1つの方向DTHが得られ、この方向DTHに対応する光源方向のスポット光の画像を生成できる。一方、プレーヤが所持物THを曲げると、画像センサISEから見た時に、所持物THの面の各位置におけるデプス値に傾きが生じる。従って、このデプス情報を用いて、図9(B)に示すように複数の方向DTH1〜DTH3を取得できる。これにより、これらの複数の方向DTH1〜DTH3に対応する照射範囲(レンダリング範囲、シェーディング範囲)の光でレンダリング処理を行って、その照射範囲の光の画像や、その照射範囲の光で物体が陰影づけされた画像を生成できる。従って、プレーヤPLが所持物THを様々な形状に変形することで、ゲーム画像内の光の画像や照射位置の画像も様々に変化するようになり、演出効果の高いゲーム画像を生成できるようになる。   For example, before the shape deformation of FIG. 9A, one direction DTH is obtained as the direction information of the belonging TH, and an image of spot light in the light source direction corresponding to this direction DTH can be generated. On the other hand, when the player bends the belonging TH, the depth value at each position on the surface of the possession TH is inclined when viewed from the image sensor ISE. Therefore, a plurality of directions DTH1 to DTH3 can be acquired using this depth information as shown in FIG. 9B. As a result, the rendering process is performed with the light in the irradiation ranges (rendering range and shading range) corresponding to the plurality of directions DTH1 to DTH3, and the object is shaded by the image of the light in the irradiation range or the light in the irradiation range. Attached images can be generated. Therefore, when the player PL transforms the possession TH into various shapes, the light image and the irradiation position image in the game image also change variously, so that a game image with a high effect can be generated. Become.

また本実施形態では図6に示すように取得されたスケルトン情報に基づいて、プレーヤの所持物や部位についての方向情報を取得してもよい。   In the present embodiment, the direction information about the player's belongings and parts may be acquired based on the skeleton information acquired as shown in FIG.

例えば図10(A)では、プレーヤPLの動きがスケルトンSKの情報として取得されている。この場合には、プレーヤPLの手に対応する関節C6、C7等の位置に基づいて、所持物TH等の方向を特定し、その方向を光源方向DLSとして設定する。同様に図10(B)でも、プレーヤPLの手に対応する関節C6、C7等の位置に基づいて、所持物TH等の方向を特定し、その方向を光源方向DLSとして設定する。この場合に関節C6、C7の位置はスケルトン情報に基づいて取得できる。   For example, in FIG. 10A, the movement of the player PL is acquired as information on the skeleton SK. In this case, based on the positions of the joints C6, C7, etc. corresponding to the hand of the player PL, the direction of the belongings TH, etc. is specified, and the direction is set as the light source direction DLS. Similarly, in FIG. 10B, the direction of the belongings TH is specified based on the positions of the joints C6, C7, etc. corresponding to the hand of the player PL, and the direction is set as the light source direction DLS. In this case, the positions of the joints C6 and C7 can be acquired based on the skeleton information.

このようにすれば、プレーヤPLが手の向く方向を変えて、所持物THの向く方向を変化させると、その方向の変化は、スケルトン情報に基づき検出できる。即ちスケルトン情報の関節C6、C7等の位置に基づき検出できる。そして、所持物THの向く方向の変化に応じて、図10(A)、図10(B)に示すように光源方向DLSも変化するようになり、光源LSからの光RYの照射方向も変化するようになる。従って、プレーヤPLが手の向きを変えて所持物THの向く方向を変化させると、ゲーム画像内での光の方向も変化する。これにより、プレーヤPLは自身が所望する様々な方向を光で照らして見ることが可能になる。即ち、デプス情報を用いて取得されたスケルトン情報を有効活用して、これまでにないゲーム演出を実現できるようになる。   In this way, when the player PL changes the direction in which the hand faces and changes the direction in which the belonging TH faces, the change in the direction can be detected based on the skeleton information. That is, it can be detected based on the positions of the joints C6, C7, etc. in the skeleton information. Then, according to the change in the direction in which the belonging TH faces, the light source direction DLS also changes as shown in FIGS. 10A and 10B, and the irradiation direction of the light RY from the light source LS also changes. To come. Therefore, when the player PL changes the direction of the hand and changes the direction of the belonging TH, the direction of light in the game image also changes. Thus, the player PL can see various directions desired by the player PL with light. In other words, it is possible to effectively utilize the skeleton information acquired using the depth information, thereby realizing an unprecedented game effect.

また本実施形態では、図6に示すように取得されたスケルトン情報を用いて、画像処理の処理領域を特定してもよい。   In the present embodiment, a processing area for image processing may be specified using skeleton information acquired as shown in FIG.

例えば図11(A)では、スケルトン情報に基づいて、プレーヤPLの手に対応する関節C7等の位置を特定している。そして、特定されたC7等の位置を含む画像領域を、画像処理の処理領域RPCに設定し、設定された処理領域RPCでのデプス情報やカラー画像情報に対して画像処理を行う。即ち図3(A)、図3(B)において、プレーヤPLの所持物や部位の方向情報や色情報や形状情報を求める際に、設定された処理領域RPCでのカラー画像情報やデプス情報に対して画像処理を行う。   For example, in FIG. 11A, the position of the joint C7 or the like corresponding to the hand of the player PL is specified based on the skeleton information. Then, the image region including the specified position such as C7 is set as the image processing region RPC, and image processing is performed on the depth information and color image information in the set processing region RPC. That is, in FIG. 3 (A) and FIG. 3 (B), the color image information and depth information in the set processing region RPC are obtained when obtaining the direction information, color information, and shape information of the belongings and parts of the player PL. Then, image processing is performed.

このようにすれば、全ての領域において画像処理を行う必要がなくなり、画面サイズよりも小さな処理領域RPCにおいて画像処理を行えば済むようになる。従って、画像処理の処理負荷を軽減でき、少ない処理負荷で所持物や部位の方向情報等のレンダリング用情報を取得することが可能になる。   In this way, it is not necessary to perform image processing in all areas, and image processing can be performed in a processing area RPC smaller than the screen size. Therefore, it is possible to reduce the processing load of image processing, and it is possible to acquire rendering information such as belongings and part direction information with a small processing load.

以上の本実施形態の手法によれば、プレーヤが所持物を持って動かしたり、プレーヤが手などの部位を動かすと、その方向情報や色情報や形状情報が、レンダリング用情報として取得される。そして、そのレンダリング用情報を用いたレンダリング処理が行われて、プレーヤに表示される画像が生成される。従って、プレーヤの動きがゲーム画像に直感的に反映されるようになり、これまでにはないゲーム画像の生成が可能になる。   According to the method of the present embodiment described above, when the player moves with his belongings or moves a part such as a hand, the direction information, color information and shape information are acquired as rendering information. Then, a rendering process using the rendering information is performed, and an image to be displayed on the player is generated. Accordingly, the movement of the player is intuitively reflected in the game image, and a game image that has never been possible can be generated.

この場合に、プレーヤが自身の周りの適当な所持物を持って、動かせば、その所持物の形状や色等を反映した光源がオブジェクト空間内に設定され、その光源からの光の画像や、その光により物体を照らした画像が生成されるようになる。例えば図5(A)、図5(B)に示すように、所持物が赤の物体であれば赤の光の画像やその照射画像が生成され、青の物体であれば青の光の画像やその照射画像が生成される。従って、これまでのゲームでは実現できなかったゲーム演出等が可能になる。   In this case, if the player holds an appropriate belonging around him and moves it, a light source reflecting the shape and color of the belonging is set in the object space, and an image of light from the light source, An image in which an object is illuminated with the light is generated. For example, as shown in FIGS. 5A and 5B, if the object is a red object, a red light image or an irradiation image thereof is generated. If the object is a blue object, a blue light image is generated. And its irradiation image is generated. Accordingly, it is possible to produce a game effect that could not be realized in the conventional game.

また図6で説明したようなスケルトン情報を用いれば、図7に示すように光源の配置位置も容易に特定でき、図10(A)、図10(B)に示すように光源方向も容易に特定できる。更に図11(A)、図11(B)で説明したように、所持物の方向情報等を特定するための画像処理の処理領域を狭い領域に限定することができ、処理負荷を軽減できる。   If the skeleton information described with reference to FIG. 6 is used, the arrangement position of the light source can be easily specified as shown in FIG. 7, and the light source direction can be easily set as shown in FIGS. 10A and 10B. Can be identified. Furthermore, as described with reference to FIGS. 11A and 11B, the processing area of the image processing for specifying the direction information of the belongings can be limited to a narrow area, and the processing load can be reduced.

また本実施形態のようにデプス情報を用いて所持物の方向情報等を取得すれば、図9(A)、図9(B)に示すように、所持物や部位の形状が変化することで、光の照射範囲等も変化するようになり、多様なゲーム画像の生成が可能になる。   Moreover, if the direction information of the possession is acquired using the depth information as in the present embodiment, the shape of the possession or the part changes as shown in FIGS. 9A and 9B. In addition, the light irradiation range and the like are changed, and various game images can be generated.

2.2 所持物の位置情報等に基づく仮想カメラの配置
従来よりヘッドトラッキングと呼ばれる技術が知られている。このヘッドトラッキングでは、プレーヤの顔の向きや視線方向をセンサ等により検出し、プレーヤの向く方向に応じた画像を生成して表示部に表示する。
2.2 Arrangement of virtual camera based on position information of belongings A technique called head tracking has been known. In this head tracking, the direction of the player's face and the direction of the line of sight are detected by a sensor or the like, and an image corresponding to the direction that the player faces is generated and displayed on the display unit.

しかしながら、従来のヘッドトラッキング手法では、プレーヤは、顔の向きや視線方向を検出するための装置を頭部などに装着する必要があり、プレーヤにとって煩雑であった。また顔の向きを検出する装置も大がかりなものになってしまうという問題がある。   However, in the conventional head tracking method, it is necessary for the player to wear a device for detecting the direction of the face and the direction of the line of sight on the head, which is complicated for the player. Also, there is a problem that the device for detecting the orientation of the face becomes large-scale.

そこで本実施形態では、画像センサからの画像情報によりプレーヤの所持物や部位の位置を検出し、検出された位置に仮想カメラを配置して、ヘッドトラッキングに類似する画像を生成している。   Therefore, in this embodiment, the position of the player's belongings or parts is detected from the image information from the image sensor, and a virtual camera is arranged at the detected position to generate an image similar to head tracking.

例えば図12(A)において、画像センサISEからの画像情報に基づいて、プレーヤPLの所持物TH(又は手などの部位)の位置情報が取得される。図12(A)では、プレーヤは、例えばティッシュボックス等の所持物THをカメラと見なして構えている。   For example, in FIG. 12A, based on the image information from the image sensor ISE, the position information of the possessed item TH (or a part such as a hand) of the player PL is acquired. In FIG. 12A, the player holds the belonging TH such as a tissue box as a camera.

そして図12(B)に示すように、取得された所持物TH(又は部位)の位置情報に基づいて、オブジェクト空間内に仮想カメラVCが配置される。即ち、現実世界での所持物THの位置に対応するオブジェクト空間内の位置に、仮想カメラVCが配置される。そして、オブジェクト空間内において仮想カメラVCから見える画像が生成されて、表示部190に表示される。   Then, as shown in FIG. 12B, the virtual camera VC is arranged in the object space based on the acquired position information of the belonging TH (or part). That is, the virtual camera VC is arranged at a position in the object space corresponding to the position of the belonging TH in the real world. Then, an image that can be seen from the virtual camera VC in the object space is generated and displayed on the display unit 190.

このようにすれば図12(C)に示すように、プレーヤPLが身の回りの所持物THをカメラのように見立てて、表示部190の画面SCをのぞき込むことで、カメラから見える画像が表示されるようになる。従って、あたかもヘッドトラッキングのように、ゲーム空間内の自身が所望する場所をカメラを用いて覗くことで、その場所の画像が表示されるようになる。なお仮想カメラVCから見える画像については、表示部190のメイン画面に対してサブ画面を設けて、そのサブ画面に表示するようにしてもよい。   In this way, as shown in FIG. 12C, when the player PL looks at the personal belongings TH like a camera and looks into the screen SC of the display unit 190, an image visible from the camera is displayed. It becomes like this. Therefore, an image of the place is displayed by looking at the place desired by itself in the game space using a camera as in head tracking. Note that an image that can be viewed from the virtual camera VC may be displayed on a sub screen provided on the main screen of the display unit 190.

また仮想カメラVCの方向については、例えば常に仮想スクリーンに直交する方向に設定したり、仮想スクリーンの中心に向かう方向に設定してもよい。或いは所持物TH(又は部位)の向く方向を、前述のように画像センサISEからの画像情報に基づき検出し、検出された方向に対応する方向に仮想カメラVCの方向(視線方向)を設定してもよい。   Further, the direction of the virtual camera VC may be set, for example, always in a direction orthogonal to the virtual screen or in a direction toward the center of the virtual screen. Alternatively, the direction in which the belonging TH (or part) faces is detected based on the image information from the image sensor ISE as described above, and the direction (gaze direction) of the virtual camera VC is set in a direction corresponding to the detected direction. May be.

また所持物THの位置情報については、図6で説明したスケルトン情報に基づいて求めてもよい。具体的には図7で説明したように、キャラクタCHの位置PRFと、スケルトン情報に基づいて、キャラクタCHの手などの位置等を求めて、その位置に仮想カメラVCを配置する。このようにすれば、仮想カメラVCの配置位置を簡素な処理で求めることが可能になる。   Further, the position information of the belonging TH may be obtained based on the skeleton information described with reference to FIG. Specifically, as described with reference to FIG. 7, the position of the character CH's hand and the like are obtained based on the position PRF of the character CH and the skeleton information, and the virtual camera VC is arranged at that position. In this way, the arrangement position of the virtual camera VC can be obtained by a simple process.

2.3 所持物の方向情報等に基づくヒット演算処理
以上では、プレーヤの所持物又は部位の方向情報等をレンダリング用情報として、レンダリング処理を行う場合について説明したが、これらの方向情報等をヒット演算用情報として、ヒット演算処理を行ってもよい。
2.3 Hit calculation process based on direction information of belongings The above has described the case where rendering processing is performed using the direction information of the player's belongings or parts as rendering information. As the calculation information, hit calculation processing may be performed.

例えば図13(A)では、画像センサISEからの画像情報に基づく画像処理を行って、プレーヤPLの所持物TH(又は部位)についての方向情報及び形状情報の少なくとも1つが、ヒット演算用情報として取得される。例えば所持物THの方向DTHがヒット演算用情報として取得される。   For example, in FIG. 13A, image processing based on the image information from the image sensor ISE is performed, and at least one of the direction information and the shape information about the possessed item TH (or part) of the player PL is used as hit calculation information. To be acquired. For example, the direction DTH of the belongings TH is acquired as hit calculation information.

この場合に本実施形態では、このヒット演算用情報に基づいてヒット演算処理が行われる。例えば図13(B)では、プレーヤPLに対応するキャラクタCHがオブジェクト空間内で移動して、敵であるターゲットオブジェクトTOBと遭遇している。この時に図13(A)に示すようにプレーヤPLが所持物THをターゲットオブジェクトTOBの方向に向けると、図13(B)に示すように、所持物THに対応してキャラクタCHが所持する武器AOBから弾が発射されて、ターゲットオブジェクトTOBに発射される。即ち図13(A)の所持物THの方向DTHにより特定される軌道方向DHIで弾(拳銃や光線銃の弾)が発射される。そして、弾の軌道方向DHIとターゲットオブジェクトTOBとのヒットチェックを行うヒット演算処理が行われ、ヒット演算処理の結果に基づいて画像が生成される。具体的には、弾がターゲットオブジェクトTOBにヒットしたと判定されると、ターゲットオブジェクトTOBに弾がヒットしたことを表す演出画像が生成される。   In this case, in the present embodiment, hit calculation processing is performed based on the hit calculation information. For example, in FIG. 13B, the character CH corresponding to the player PL moves in the object space and encounters an enemy target object TOB. At this time, as shown in FIG. 13 (A), when the player PL points the possession TH in the direction of the target object TOB, as shown in FIG. 13 (B), the weapon possessed by the character CH corresponding to the possession TH. A bullet is fired from the AOB and fired at the target object TOB. That is, bullets (handguns and ray gun bullets) are fired in the trajectory direction DHI specified by the direction DTH of the possessed TH in FIG. Then, hit calculation processing for performing a hit check between the bullet trajectory direction DHI and the target object TOB is performed, and an image is generated based on the result of the hit calculation processing. Specifically, when it is determined that the bullet has hit the target object TOB, an effect image indicating that the bullet has hit the target object TOB is generated.

以上のようにすれば、プレーヤは、自身の周りの適当な所持物を持って、ターゲットオブジェクトの方向に向けることで、その所持物に対応する拳銃や光線銃などの武器から弾が発射されて、敵であるターゲットオブジェクトに命中するようになる。従って、直感的で分かりやすい操作インターフェース環境をプレーヤに提供できる。また、専用のゲームコントローラを用いなくても、図13(A)、図13(B)に示すようなシューティングゲームを実現することが可能になる。   In this way, the player can take appropriate possessions around him and point it in the direction of the target object so that bullets are fired from weapons such as handguns and ray guns that correspond to the possessions. , Hit the enemy target object. Therefore, an intuitive and easy-to-understand operation interface environment can be provided to the player. Further, it is possible to realize a shooting game as shown in FIGS. 13A and 13B without using a dedicated game controller.

また本実施形態によれば、プレーヤの所持物や部位の形状を反映させたヒット演算処理も実現できる。例えば所持物又は部位の各形状と各武器とを予め対応づけておく。そしてプレーヤの所持物又は部位の形状を、画像センサからの画像情報に基づいて形状認識する。そして、形状認識の結果に基づいて武器を選択し、選択された武器の画像をゲーム画像上に表示して、その武器からの弾をターゲットオブジェクトに対して発射する。例えば短い形状の所持物であれば、キャラクタに拳銃を所持させ、その拳銃から弾が発射する画像を生成する。一方、長い形状の所持物であれば、キャラクタにライフルを所持させ、そのライフから弾が発射する画像を生成する。このようにすれば、プレーヤが持つ所持物の形状に応じて、多様なゲーム画像が生成されるようになり、これまでにないゲーム演出を実現できるようになる。   In addition, according to the present embodiment, hit calculation processing reflecting the player's belongings and the shape of the part can also be realized. For example, each shape of the belongings or parts and each weapon are associated in advance. Then, the shape of the player's belonging or part is recognized based on the image information from the image sensor. Then, a weapon is selected based on the result of shape recognition, an image of the selected weapon is displayed on the game image, and a bullet from the weapon is fired onto the target object. For example, if the object has a short shape, the character is held by a handgun, and an image in which a bullet is fired from the handgun is generated. On the other hand, if the possession has a long shape, the character is caused to possess a rifle, and an image in which a bullet is fired from the life is generated. In this way, various game images can be generated according to the shape of the belongings possessed by the player, and an unprecedented game effect can be realized.

なお図13(A)、図13(B)に示すヒット演算手法においても、図3(B)の場合と同様に、画像センサからのデプス情報に基づいて、プレーヤの所持物又は部位の方向情報や形状情報をヒット演算用情報として取得することが望ましい。このようにすれば、所持物や部位の方向情報や形状情報を、より正確に効率良く特定することが可能になる。   In the hit calculation method shown in FIGS. 13A and 13B, as in the case of FIG. 3B, the direction information of the player's belongings or parts based on the depth information from the image sensor. It is desirable to acquire shape information as hit calculation information. In this way, it becomes possible to specify the direction information and shape information of the belongings and parts more accurately and efficiently.

また図9(A)、図9(B)の場合と同様に、画像センサからのデプス情報に基づいてヒット演算用情報の方向情報として複数の方向情報(第1〜第Nの方向情報)を取得し、これらの複数の方向情報に基づいて、ヒット演算処理を行ってもよい。別の言い方をすれば、デプス情報に基づき取得された所持物又は部位の形状情報に基づいてヒット範囲(図9(B)のRRD)を設定し、設定されたヒット範囲に基づいてヒット演算処理を行う。   Similarly to the cases of FIGS. 9A and 9B, a plurality of direction information (first to Nth direction information) is obtained as the direction information of the hit calculation information based on the depth information from the image sensor. The hit calculation processing may be performed based on the plurality of pieces of direction information obtained. In other words, a hit range (RRD in FIG. 9B) is set based on the possessed or part shape information acquired based on the depth information, and hit calculation processing is performed based on the set hit range. I do.

このようにすれば、所持物が図9(A)のような形状である場合には、例えば1つの方向に弾が発射され、図9(B)のような形状である場合には、複数の方向に弾が発射されるような画像を生成できる。或いは光線銃の場合には、所持物が図9(A)の形状の場合には、1本の細長い光線が発射され、図9(B)の形状の場合には、RRDのヒット範囲に広がるような光線が発射される画像を生成できる。   In this way, when the possession has a shape as shown in FIG. 9A, for example, a bullet is fired in one direction, and when it has a shape as shown in FIG. An image in which a bullet is fired in the direction of can be generated. Alternatively, in the case of a light gun, if the possession has the shape of FIG. 9 (A), one elongated light beam is emitted, and in the case of the shape of FIG. 9 (B), it extends to the RRD hit range. Such an image can be generated.

また図10(A)、図10(B)の場合と同様に、プレーヤのスケルトン情報を取得し、取得されたスケルトン情報に基づいて、プレーヤの所持物又は部位についての方向情報を取得してもよい。   Similarly to the case of FIGS. 10A and 10B, the player's skeleton information may be acquired, and the direction information about the player's belongings or parts may be acquired based on the acquired skeleton information. Good.

このようにすれば、例えばスケルトン情報の関節C6、C7が図10(A)のような位置であった場合には、下向きの方向DLSに弾が発射され、関節C6、C7が図10(B)のような位置であった場合には、上向きの方向DLSに弾が発射される画像を生成できる。従って、弾の軌道方向をスケルトン情報を用いた簡素な処理で特定できるようになり、処理を効率化できる。   In this way, for example, when the joints C6 and C7 of the skeleton information are in the positions as shown in FIG. 10A, bullets are fired in the downward direction DLS, and the joints C6 and C7 are shown in FIG. ), It is possible to generate an image in which a bullet is fired in the upward direction DLS. Accordingly, the trajectory direction of the bullet can be specified by a simple process using the skeleton information, and the process can be made efficient.

また図11(A)、図11(B)の場合と同様に、プレーヤのスケルトン情報を取得し、取得されたスケルトン情報に基づいて、ヒット演算用情報の取得のための画像処理の処理領域を設定してもよい。例えばプレーヤが所持物を持った場合に、スケルトン情報に基づいて、プレーヤの手の位置を含む処理領域を設定する。そして、設定された処理領域でのデプス情報やカラー画像情報に対して画像処理を行って、所持物(又は部位)の方向情報や形状情報を特定する。   Similarly to the cases of FIGS. 11A and 11B, the skeleton information of the player is acquired, and based on the acquired skeleton information, a processing area for image processing for acquiring hit calculation information is set. It may be set. For example, when the player has his belongings, a processing area including the position of the player's hand is set based on the skeleton information. Then, image processing is performed on the depth information and color image information in the set processing region, and direction information and shape information of the possessed item (or part) are specified.

このようにすれば、画像処理の処理領域を小さなサイズに限定できるため、処理負荷の軽減を図れる。   In this way, the processing area for image processing can be limited to a small size, so that the processing load can be reduced.

2.4 詳細な処理例
次に本実施形態の詳細な処理例について図14〜図17のフローチャートを用いて説明する。図14は、プレーヤの所持物の方向情報等をレンダリング用情報として画像を生成する処理のフローチャートである。
2.4 Detailed Processing Example Next, a detailed processing example of the present embodiment will be described with reference to the flowcharts of FIGS. FIG. 14 is a flowchart of a process for generating an image using the direction information of the player's belongings as rendering information.

まず、図3(A)、図3(B)で説明したように、画像センサにより、カラー画像情報、デプス情報等の画像情報を取得する(ステップS1)。そして、取得されたデプス情報等に基づき、プレーヤのスケルトン情報を求める(ステップS2)。   First, as described in FIGS. 3A and 3B, image information such as color image information and depth information is acquired by the image sensor (step S1). Then, based on the acquired depth information and the like, the player's skeleton information is obtained (step S2).

次に、図11(A)、図11(B)で説明したように、スケルトン情報に基づきプレーヤの所持物又は手などの部位の位置を特定し、特定された位置を含む画像領域を画像処理の処理領域に設定する(ステップS3)。そして、設定された処理領域でのデプス情報、カラー画像情報等に基づいて、プレーヤの所持物又は部位の方向情報、色情報、形状情報等を、レンダリング用情報として求める(ステップS4)。そして、求められたレンダリング用情報を用いてレンダリング処理を行って、表示部に表示する画像を生成する。   Next, as described with reference to FIGS. 11A and 11B, the position of the player's belongings or a part such as a hand is specified based on the skeleton information, and the image region including the specified position is subjected to image processing. (Step S3). Then, based on the depth information, color image information, and the like in the set processing region, direction information, color information, shape information, and the like of the player's belongings or parts are obtained as rendering information (step S4). Then, a rendering process is performed using the obtained rendering information to generate an image to be displayed on the display unit.

図15は、プレーヤの所持物の方向情報等により光源方向を設定して画像を生成する処理のフローチャートである。   FIG. 15 is a flowchart of processing for generating an image by setting the light source direction based on the direction information of the player's belongings.

図15のステップS11〜S14は図14のステップS1〜S4と同様であるため説明を省略する。ステップS14でレンダリング用情報を求めた後、図7で説明したようにキャラクタの位置情報とスケルトン情報に基づいて、光源の配置位置を設定する(ステップS15)。またプレーヤの所持物又は部位の方向情報に基づいて光源方向を設定し、所持物又は部位の色情報に基づいて、光源色を設定する(ステップS16、S17)。そして、光源情報が設定された光源を用いてレンダリング処理(シェーディング処理)を行って、画像を生成する(ステップS18)。これにより図4(B)に示すような画像の生成が可能になる。   Steps S11 to S14 in FIG. 15 are the same as steps S1 to S4 in FIG. After obtaining the rendering information in step S14, the arrangement position of the light source is set based on the character position information and skeleton information as described in FIG. 7 (step S15). The light source direction is set based on the direction information of the player's belonging or part, and the light source color is set based on the color information of the possession or part (steps S16 and S17). Then, rendering processing (shading processing) is performed using the light source for which the light source information is set, and an image is generated (step S18). As a result, an image as shown in FIG. 4B can be generated.

図16は、プレーヤの所持物の位置情報等に基づいて仮想カメラを設定して画像を生成する処理のフローチャートである。   FIG. 16 is a flowchart of processing for generating an image by setting a virtual camera based on the position information of the player's belongings.

図16のステップS21、S22は図14のステップS1、S2と同様であるため説明を省略する。ステップS22でスケルトン情報が求められた後、図12(A)で説明したように、スケルトン情報に基づき、プレーヤの所持物又は手などの部位の位置を特定する(ステップS23)。そして図12(B)で説明したように、特定された位置に対応するオブジェクト空間内の位置に仮想カメラを配置する(ステップS24)。そして、オブジェクト空間内において仮想カメラから見える画像を生成する(ステップS25)。これにより、ヘッドトラッキングのような画像を簡素な処理で生成できるようになる。   Steps S21 and S22 in FIG. 16 are the same as steps S1 and S2 in FIG. After the skeleton information is obtained in step S22, as described with reference to FIG. 12A, the position of the player's belongings or a part such as a hand is specified based on the skeleton information (step S23). Then, as described in FIG. 12B, the virtual camera is arranged at a position in the object space corresponding to the specified position (step S24). Then, an image that can be seen from the virtual camera in the object space is generated (step S25). As a result, an image such as head tracking can be generated by a simple process.

図17は、プレーヤの所持物の方向情報等に基づいてヒット演算処理を行って画像を生成する処理のフローチャートである。   FIG. 17 is a flowchart of processing for generating an image by performing hit calculation processing based on the direction information of the player's belongings.

図17のステップS31、S32、S33は図14のステップS1、S2、S3と同様であるため説明を省略する。ステップS33で画像処理の処理領域が設定された後、設定された処理領域でのデプス情報、カラー画像情報等に基づいて、図13(A)で説明したように、プレーヤの所持物又は部位の方向情報、形状情報等をヒット演算用情報として求める(ステップS34)。そして図13(B)で説明したように、プレーヤの所持物又は部位の方向情報に基づいて、弾の軌道方向を設定する(ステップS35)。   Steps S31, S32, and S33 in FIG. 17 are the same as steps S1, S2, and S3 in FIG. After the processing area of the image processing is set in step S33, based on the depth information, color image information, etc. in the set processing area, as described with reference to FIG. Direction information, shape information, and the like are obtained as hit calculation information (step S34). Then, as described with reference to FIG. 13B, the trajectory direction of the bullet is set based on the direction information of the player's belongings or parts (step S35).

次に、弾の軌道とターゲットオブジェクトとのヒット判定処理を行う(ステップS36)。そして、弾がターゲットオブジェクトにヒットしたか否かを判断し(ステップS37)、ヒットした場合にはヒット演出の画像を生成する(ステップS38)。   Next, a hit determination process between the trajectory of the bullet and the target object is performed (step S36). Then, it is determined whether or not the bullet has hit the target object (step S37). If the bullet hits, a hit effect image is generated (step S38).

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、プレーヤの所持物又は部位の方向情報等の取得手法、スケルトン情報の取得手法、レンダリング用情報に基づくレンダリング処理手法、ヒット演算用情報に基づくヒット演算処理手法、プレーヤの所持物又は部位の位置情報に基づく仮想カメラの設定手法等も本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Also, a method for acquiring direction information of a player's belongings or parts, a method for acquiring skeleton information, a rendering process based on rendering information, a hit calculation process based on hit calculation information, a position of a player's belongings or parts A method for setting a virtual camera based on information is not limited to that described in the present embodiment, and methods equivalent to these are also included in the scope of the present invention. The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.

ISE 画像センサ、PL プレーヤ、SC 画面、TH 所持物、
DTH、DTH1〜DTH3 所持物の方向、CH キャラクタ、
LS 光源、DLS 光源方向、RY 光線、TOB ターゲットオブジェクト、
SK スケルトン、C0〜C19 関節、RPC 処理領域、VC 仮想カメラ、
100 処理部、102 画像情報取得部、104 情報取得部、
105 スケルトン情報取得部、108 ゲーム演算部、110 ヒット演算部、
112 オブジェクト空間設定部、114 キャラクタ制御部、115 移動処理部、
116 モーション処理部、118 仮想カメラ制御部、120 画像生成部、
122 光源設定部、130 音生成部、160 操作部、
170 記憶部、171 画像情報記憶部、172 カラー画像情報記憶部、
173 デプス情報記憶部、174 スケルトン情報記憶部、
175 オブジェクトデータ記憶部、176 モーションデータ記憶部、
177 モデルデータ記憶部、178 光源情報記憶部、179 描画バッファ、
180 情報記憶媒体、190 表示部、192 音出力部、194 補助記憶装置、
196 通信部
ISE image sensor, PL player, SC screen, TH belongings,
DTH, DTH1 to DTH3 Direction of belongings, CH character,
LS light source, DLS light source direction, RY ray, TOB target object,
SK skeleton, C0-C19 joint, RPC processing area, VC virtual camera,
100 processing unit, 102 image information acquisition unit, 104 information acquisition unit,
105 skeleton information acquisition unit, 108 game calculation unit, 110 hit calculation unit,
112 object space setting unit, 114 character control unit, 115 movement processing unit,
116 motion processing unit, 118 virtual camera control unit, 120 image generation unit,
122 light source setting unit, 130 sound generation unit, 160 operation unit,
170 storage unit, 171 image information storage unit, 172 color image information storage unit,
173 depth information storage unit, 174 skeleton information storage unit,
175 Object data storage unit, 176 Motion data storage unit,
177 Model data storage unit, 178 Light source information storage unit, 179 Drawing buffer,
180 information storage medium, 190 display unit, 192 sound output unit, 194 auxiliary storage device,
196 Communication Department

Claims (23)

画像センサからの画像情報を取得する画像情報取得部と、
前記画像情報に基づく画像処理を行って、プレーヤの所持物又は部位についての方向情報、色情報及び形状情報の少なくとも1つを、レンダリング用情報として取得する情報取得部と、
前記方向情報、前記色情報及び前記形状情報の少なくとも1つである前記レンダリング用情報に基づくレンダリング処理を行って、画像を生成する画像生成部として、
コンピュータを機能させることを特徴とするプログラム。
An image information acquisition unit for acquiring image information from the image sensor;
An information acquisition unit that performs image processing based on the image information to acquire at least one of direction information, color information, and shape information about the player's belongings or parts as rendering information;
As an image generation unit that generates an image by performing a rendering process based on the rendering information that is at least one of the direction information, the color information, and the shape information,
A program characterized by causing a computer to function.
請求項1において、
前記画像生成部は、
前記レンダリング用情報に基づいて、オブジェクト空間に配置設定される光源の光源情報を設定し、前記光源情報が設定された前記光源を用いたレンダリング処理を行って、オブジェクト空間内において仮想カメラから見える画像を生成することを特徴とするプログラム。
In claim 1,
The image generation unit
Based on the rendering information, the light source information of the light source arranged and set in the object space is set, the rendering process using the light source in which the light source information is set is performed, and the image seen from the virtual camera in the object space A program characterized by generating
請求項2において、
前記プレーヤに対応するキャラクタの制御を行うキャラクタ制御部として、
コンピュータを機能させ、
前記情報取得部は、
前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、
前記画像生成部は、
取得された前記スケルトン情報と前記キャラクタの位置情報に基づいて、前記オブジェクト空間内での前記光源の配置位置を特定することを特徴とするプログラム。
In claim 2,
As a character control unit for controlling the character corresponding to the player,
Make the computer work,
The information acquisition unit
Based on the image information from the image sensor, obtain skeleton information that identifies the action of the player visible from the image sensor;
The image generation unit
A program for specifying an arrangement position of the light source in the object space based on the acquired skeleton information and position information of the character.
請求項1乃至3のいずれかにおいて、
前記画像情報取得部は、
前記画像センサからの前記画像情報として、各画素位置にデプス値が設定されたデプス情報を取得し、
前記情報取得部は、
前記デプス情報に基づいて、前記プレーヤの前記所持物又は前記部位の前記方向情報及び前記形状情報の少なくとも1つを前記レンダリング用情報として取得することを特徴とするプログラム。
In any one of Claims 1 thru | or 3,
The image information acquisition unit
As the image information from the image sensor, depth information in which a depth value is set at each pixel position is acquired,
The information acquisition unit
A program characterized in that, based on the depth information, at least one of the direction information and the shape information of the possessed item or the part of the player is acquired as the rendering information.
請求項4において、
前記情報取得部は、
前記デプス情報に基づいて、前記レンダリング用情報の前記方向情報として複数の第1〜第Nの方向情報(Nは2以上の整数)を取得し、
前記画像生成部は、
前記レンダリング用情報である前記第1〜第Nの方向情報に基づくレンダリング処理を行って、画像を生成することを特徴とするプログラム。
In claim 4,
The information acquisition unit
Based on the depth information, a plurality of first to Nth direction information (N is an integer of 2 or more) is acquired as the direction information of the rendering information,
The image generation unit
A program that performs rendering processing based on the first to Nth direction information that is the rendering information, and generates an image.
請求項4において、
前記画像生成部は、
前記デプス情報に基づき取得された前記所持物又は前記部位の形状情報に基づいてレンダリング範囲を設定し、設定されたレンダリング範囲で前記レンダリング処理を行うことを特徴とするプログラム。
In claim 4,
The image generation unit
A program that sets a rendering range based on shape information of the possessed item or the part acquired based on the depth information, and performs the rendering process in the set rendering range.
請求項1乃至6のいずれかにおいて、
前記情報取得部は、
前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、取得された前記スケルトン情報に基づいて、前記プレーヤの前記所持物又は前記部位についての前記方向情報を取得することを特徴とするプログラム。
In any one of Claims 1 thru | or 6.
The information acquisition unit
Based on the image information from the image sensor, skeleton information that identifies the action of the player visible from the image sensor is acquired, and based on the acquired skeleton information, the possession or the part of the player A program for acquiring the direction information.
請求項1乃至7のいずれかにおいて、
前記情報取得部は、
前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、取得された前記スケルトン情報に基づいて、前記レンダリング用情報の取得のための前記画像処理の処理領域を設定することを特徴とするプログラム。
In any one of Claims 1 thru | or 7,
The information acquisition unit
Based on the image information from the image sensor, obtains skeleton information that identifies the action of the player that is visible from the image sensor, and based on the obtained skeleton information, obtains the rendering information. A program characterized by setting a processing area for image processing.
請求項1乃至8のいずれかにおいて、
オブジェクト空間内に配置設定される仮想カメラの制御を行う仮想カメラ制御部として、
コンピュータを機能させ、
前記情報取得部は、
前記プレーヤの前記所持物又は前記部位の位置情報を取得し、
前記仮想カメラ制御部は、
前記所持物又は前記部位の前記位置情報に基づいて、前記オブジェクト空間内に前記仮想カメラを配置設定し、
前記画像生成部は、
前記オブジェクト空間内において前記仮想カメラから見える画像を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 8.
As a virtual camera control unit that controls virtual cameras placed and set in the object space,
Make the computer work,
The information acquisition unit
Obtaining position information of the possession or the part of the player;
The virtual camera control unit
Based on the position information of the belongings or the part, the virtual camera is arranged and set in the object space,
The image generation unit
A program for generating an image visible from the virtual camera in the object space.
請求項9において、
前記仮想カメラ制御部は、
前記所持物又は前記部位の前記位置情報に対応する位置に、前記仮想カメラを配置し、前記所持物又は前記部位の前記方向情報に対応する方向に、前記仮想カメラの方向を向ける制御を行うことを特徴とするプログラム。
In claim 9,
The virtual camera control unit
The virtual camera is arranged at a position corresponding to the position information of the possessed object or the part, and control is performed to direct the direction of the virtual camera in a direction corresponding to the direction information of the possessed object or the part. A program characterized by
請求項9又は10において、
前記情報取得部は、
前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、取得された前記スケルトン情報に基づいて、前記所持物又は前記部位の前記位置情報を取得することを特徴とするプログラム。
In claim 9 or 10,
The information acquisition unit
Based on the image information from the image sensor, obtains skeleton information that identifies the action of the player visible from the image sensor, and based on the obtained skeleton information, the position information of the belongings or the part The program characterized by acquiring.
画像センサからの画像情報を取得する画像情報取得部と、
前記画像情報に基づく画像処理を行って、プレーヤの所持物又は部位についての方向情報及び形状情報の少なくとも1つを、ヒット演算用情報として取得する情報取得部と、
取得された前記ヒット演算用情報に基づいてヒット演算処理を行うヒット演算部と、
前記ヒット演算処理の結果に基づいて、画像を生成する画像生成部として、
コンピュータを機能させることを特徴とするプログラム。
An image information acquisition unit for acquiring image information from the image sensor;
An information acquisition unit that performs image processing based on the image information, and acquires at least one of direction information and shape information about a player's possession or part as hit calculation information;
A hit calculation unit that performs a hit calculation process based on the obtained hit calculation information;
As an image generation unit that generates an image based on the result of the hit calculation process,
A program characterized by causing a computer to function.
請求項12において、
前記ヒット演算部は、
前記ヒット演算用情報の前記方向情報により特定される軌道方向に基づいて、ターゲットオブジェクトに対する前記ヒット演算処理を行うことを特徴とするプログラム。
In claim 12,
The hit calculation unit
A program for performing the hit calculation processing on a target object based on a trajectory direction specified by the direction information of the hit calculation information.
請求項12又は13において、
前記画像情報取得部は、
前記画像センサからの前記画像情報として、各画素位置にデプス値が設定されたデプス情報を取得し、
前記情報取得部は、
前記デプス情報に基づいて、前記プレーヤの前記所持物又は前記部位の前記方向情報及び前記形状情報の少なくとも1つを前記ヒット演算用情報として取得することを特徴とするプログラム。
In claim 12 or 13,
The image information acquisition unit
As the image information from the image sensor, depth information in which a depth value is set at each pixel position is acquired,
The information acquisition unit
A program characterized in that, based on the depth information, at least one of the direction information and the shape information of the possessed item or the part of the player is acquired as the hit calculation information.
請求項14において、
前記情報取得部は、
前記デプス情報に基づいて、前記ヒット演算用情報の前記方向情報として複数の第1〜第Nの方向情報(Nは2以上の整数)を取得し、
前記ヒット演算部は、
前記ヒット演算用情報である前記第1〜第Nの方向情報に基づいて、前記ヒット演算処理を行うことを特徴とするプログラム。
In claim 14,
The information acquisition unit
Based on the depth information, a plurality of first to N-th direction information (N is an integer of 2 or more) is acquired as the direction information of the hit calculation information,
The hit calculation unit
A program for performing the hit calculation processing based on the first to Nth direction information as the hit calculation information.
請求項14において、
前記ヒット演算部は、
前記デプス情報に基づき取得された前記所持物又は前記部位の形状情報に基づいてヒット範囲を設定し、設定されたヒット範囲に基づいて前記ヒット演算処理を行うことを特徴とするプログラム。
In claim 14,
The hit calculation unit
A program characterized in that a hit range is set based on shape information of the possessed item or the part acquired based on the depth information, and the hit calculation process is performed based on the set hit range.
請求項12乃至16のいずれかにおいて、
前記情報取得部は、
前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、取得された前記スケルトン情報に基づいて、前記プレーヤの前記所持物又は前記部位についての前記方向情報を取得することを特徴とするプログラム。
In any of claims 12 to 16,
The information acquisition unit
Based on the image information from the image sensor, skeleton information that identifies the action of the player visible from the image sensor is acquired, and based on the acquired skeleton information, the possession or the part of the player A program for acquiring the direction information.
請求項12乃至17のいずれかにおいて、
前記情報取得部は、
前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、取得された前記スケルトン情報に基づいて、前記ヒット演算用情報の取得のための前記画像処理の処理領域を設定することを特徴とするプログラム。
In any of claims 12 to 17,
The information acquisition unit
Based on the image information from the image sensor, acquires skeleton information that identifies the action of the player visible from the image sensor, and acquires the hit calculation information based on the acquired skeleton information. A program for setting a processing area for the image processing.
画像センサからの画像情報を取得する画像情報取得部と、
前記画像情報に基づく画像処理を行って、プレーヤの所持物又は部位についての位置情報を取得する情報取得部と、
オブジェクト空間内に配置設定される仮想カメラの制御を行う仮想カメラ制御部と、
画像生成部として、
コンピュータを機能させ、
前記仮想カメラ制御部は、
前記所持物又は前記部位の前記位置情報に基づいて、前記オブジェクト空間内に前記仮想カメラを配置設定し、
前記画像生成部は、
前記オブジェクト空間内において前記仮想カメラから見える画像を生成することを特徴とするプログラム。
An image information acquisition unit for acquiring image information from the image sensor;
An information acquisition unit that performs image processing based on the image information to acquire position information about a player's belongings or parts;
A virtual camera control unit for controlling a virtual camera arranged and set in the object space;
As an image generator,
Make the computer work,
The virtual camera control unit
Based on the position information of the belongings or the part, the virtual camera is arranged and set in the object space,
The image generation unit
A program for generating an image visible from the virtual camera in the object space.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至19のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 19 is stored. 画像センサからの画像情報を取得する画像情報取得部と、
前記画像情報に基づく画像処理を行って、プレーヤの所持物又は部位についての方向情報、色情報及び形状情報の少なくとも1つを、レンダリング用情報として取得する情報取得部と、
前記方向情報、前記色情報及び前記形状情報の少なくとも1つである前記レンダリング用情報に基づくレンダリング処理を行って、画像を生成する画像生成部と、
を含むことを特徴とする画像生成システム。
An image information acquisition unit for acquiring image information from the image sensor;
An information acquisition unit that performs image processing based on the image information to acquire at least one of direction information, color information, and shape information about the player's belongings or parts as rendering information;
An image generation unit configured to generate an image by performing a rendering process based on the rendering information that is at least one of the direction information, the color information, and the shape information;
An image generation system comprising:
画像センサからの画像情報を取得する画像情報取得部と、
前記画像情報に基づく画像処理を行って、プレーヤの所持物又は部位についての方向情報及び形状情報の少なくとも1つを、ヒット演算用情報として取得する情報取得部と、
取得された前記ヒット演算用情報に基づいてヒット演算処理を行うヒット演算部と、
前記ヒット演算処理の結果に基づいて、画像を生成する画像生成部と、
を含むことを特徴とする画像生成システム。
An image information acquisition unit for acquiring image information from the image sensor;
An information acquisition unit that performs image processing based on the image information, and acquires at least one of direction information and shape information about a player's possession or part as hit calculation information;
A hit calculation unit that performs a hit calculation process based on the obtained hit calculation information;
An image generation unit that generates an image based on the result of the hit calculation process;
An image generation system comprising:
画像センサからの画像情報を取得する画像情報取得部と、
前記画像情報に基づく画像処理を行って、プレーヤの所持物又は部位についての位置情報を取得する情報取得部と、
オブジェクト空間内に配置設定される仮想カメラの制御を行う仮想カメラ制御部と、
画像生成部とを含み、
前記仮想カメラ制御部は、
前記所持物又は前記部位の前記位置情報に基づいて、前記オブジェクト空間内に前記仮想カメラを配置設定し、
前記画像生成部は、
前記オブジェクト空間内において前記仮想カメラから見える画像を生成することを特徴とする画像生成システム。
An image information acquisition unit for acquiring image information from the image sensor;
An information acquisition unit that performs image processing based on the image information to acquire position information about a player's belongings or parts;
A virtual camera control unit for controlling a virtual camera arranged and set in the object space;
An image generation unit,
The virtual camera control unit
Based on the position information of the belongings or the part, the virtual camera is arranged and set in the object space,
The image generation unit
An image generation system generating an image visible from the virtual camera in the object space.
JP2010083891A 2010-03-31 2010-03-31 Program, information storage medium and image generation system Pending JP2011215919A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010083891A JP2011215919A (en) 2010-03-31 2010-03-31 Program, information storage medium and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010083891A JP2011215919A (en) 2010-03-31 2010-03-31 Program, information storage medium and image generation system

Publications (1)

Publication Number Publication Date
JP2011215919A true JP2011215919A (en) 2011-10-27

Family

ID=44945577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010083891A Pending JP2011215919A (en) 2010-03-31 2010-03-31 Program, information storage medium and image generation system

Country Status (1)

Country Link
JP (1) JP2011215919A (en)

Similar Documents

Publication Publication Date Title
JP5300777B2 (en) Program and image generation system
US11014000B2 (en) Simulation system, processing method, and information storage medium
US9779633B2 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
JP5390115B2 (en) Program, game system
JP6448196B2 (en) Image generation system and program
GB2578695A (en) Mixed reality gaming system
JP5891125B2 (en) Video processing apparatus, video processing method, and video processing system
JP6438207B2 (en) Image generation system and program
JP5149337B2 (en) Program, information storage medium, and image generation system
US20110305398A1 (en) Image generation system, shape recognition method, and information storage medium
WO2015048890A1 (en) System and method for augmented reality and virtual reality applications
JP2017138915A (en) Image generation system and program
JP2015156131A (en) Information processing apparatus and information processing method
JP7323751B2 (en) game system and program
JP6161749B2 (en) Video processing apparatus, video processing method, and video processing system
JP2020107251A (en) Image generation system and program
JP2012215934A (en) Program, information storage medium, terminal, and server
KR101076263B1 (en) Tangible Simulator Based Large-scale Interactive Game System And Method Thereof
JP2018171320A (en) Simulation system and program
WO2013111119A1 (en) Simulating interaction with a three-dimensional environment
JP2019175322A (en) Simulation system and program
JP6918189B2 (en) Simulation system and program
JP2011215919A (en) Program, information storage medium and image generation system
JP2011096017A (en) Program, information storage medium and terminal
JP2011255114A (en) Program, information storage medium, and image generation system