JP2017138915A - Image generation system and program - Google Patents

Image generation system and program Download PDF

Info

Publication number
JP2017138915A
JP2017138915A JP2016021041A JP2016021041A JP2017138915A JP 2017138915 A JP2017138915 A JP 2017138915A JP 2016021041 A JP2016021041 A JP 2016021041A JP 2016021041 A JP2016021041 A JP 2016021041A JP 2017138915 A JP2017138915 A JP 2017138915A
Authority
JP
Japan
Prior art keywords
character
skeleton
motion
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016021041A
Other languages
Japanese (ja)
Inventor
規雄 江頭
Norio Egashira
規雄 江頭
謙一 長嶋
Kenichi Nagashima
謙一 長嶋
真之 永谷
Masayuki Nagatani
真之 永谷
哲雄 高屋敷
Tetsuo Takayashiki
哲雄 高屋敷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2016021041A priority Critical patent/JP2017138915A/en
Publication of JP2017138915A publication Critical patent/JP2017138915A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image generation system, a program and the like which can suppress generation of an improper character image due to incorrectness of skeleton recognition with skeleton information.SOLUTION: An image generation system includes: a subject information acquisition unit which acquires skeleton information on a subject on the basis of sensor information from a sensor; a character processing unit which performs processing for making a character move on the basis of the skeleton information on the subject; and an image generation unit which generates an image of the character. The character processing unit performs correction processing on the motion of the character on the basis of the skeleton information when it is determined that incorrectness occurs in skeleton recognition of the subject with the skeleton information.SELECTED DRAWING: Figure 24

Description

本発明は、画像生成システム及びプログラム等に関する。   The present invention relates to an image generation system, a program, and the like.

従来より、スケルトン情報を用いたモーション再生によりキャラクタを動作させるゲームの画像生成システムが知られている。このような画像生成システムの従来技術としては例えば特許文献1に開示される技術が知られている。また、プレーヤの動きを特定するスケルトン情報をリアルタイムにキャプチャし、キャプチャされたスケルトン情報を用いて、ゲーム処理を行うようなシステムについても提案されている。   2. Description of the Related Art Conventionally, a game image generation system that moves a character by motion reproduction using skeleton information is known. As a conventional technique of such an image generation system, for example, a technique disclosed in Patent Document 1 is known. There has also been proposed a system that captures skeleton information that identifies a player's movement in real time, and performs game processing using the captured skeleton information.

特開2008−301987号公報JP 2008-301987

例えば、プレーヤの動きを表すスケルトン情報をリアルタイムに取得すれば、このスケルトン情報を用いることで、プレーヤの動きに応じて動作するキャラクタを表示することができる。しかしながら、スケルトン情報によるプレーヤの骨格認識には不正が生じる場合がある。このように骨格認識に不正がある状態で、キャラクタを動作させると、キャラクタが意図しない動作をしてしまい、不適切な画像が生成されてしまうおそれがある。   For example, if skeleton information representing the movement of the player is acquired in real time, a character that moves according to the movement of the player can be displayed by using the skeleton information. However, the player's skeleton recognition based on the skeleton information may be illegal. In this way, if the character is moved in a state where the skeletal recognition is illegal, the character may perform an unintended operation and an inappropriate image may be generated.

本発明の幾つかの態様によれば、スケルトン情報による骨格認識の不正を原因とする不適切なキャラクタ画像の生成を抑制できる画像生成システム及びプログラム等を提供できる。   According to some aspects of the present invention, it is possible to provide an image generation system, a program, and the like that can suppress generation of an inappropriate character image caused by skeletal recognition fraud based on skeleton information.

本発明の一態様は、センサからのセンサ情報に基づいて、被写体のスケルトン情報を取得する被写体情報取得部と、前記被写体の前記スケルトン情報に基づいてキャラクタを動作させる処理を行うキャラクタ処理部と、前記キャラクタの画像を生成する画像生成部と、を含み、前記キャラクタ処理部は、前記スケルトン情報による前記被写体の骨格認識に不正が発生すると判断される場合に、前記スケルトン情報に基づく前記キャラクタの動作の補正処理を行う画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   One aspect of the present invention is a subject information acquisition unit that acquires skeleton information of a subject based on sensor information from a sensor, a character processing unit that performs a process of operating a character based on the skeleton information of the subject, An image generation unit configured to generate an image of the character, wherein the character processing unit is configured to perform an action of the character based on the skeleton information when it is determined that an illegality occurs in the skeleton recognition of the subject based on the skeleton information. The present invention relates to an image generation system that performs the correction process. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様では、被写体のスケルトン情報が取得され、スケルトン情報に基づいてキャラクタを動作させる処理が行われる。即ち、スケルトン情報を用いることで、被写体の動きに応じたキャラクタの動作を実現する。そして、このスケルトン情報による被写体の骨格認識に不正が発生すると判断されると、スケルトン情報に基づくキャラクタの動作の補正処理が実行される。例えば骨格認識が不正となるスケルトン情報に基づいてキャラクタを動作させると、キャラクタの動作が不適切な動作になってしまう事態が生じる。この点、本発明の一態様では、骨格認識に不正が発生すると判断されると、キャラクタの動作の補正処理が行われるため、このような事態の発生を抑制できる。従って、スケルトン情報による骨格認識の不正を原因とする不適切なキャラクタ画像の生成を抑制できる画像生成システム等の提供が可能になる。   In one aspect of the present invention, skeleton information of a subject is acquired, and a process of moving a character based on the skeleton information is performed. That is, by using the skeleton information, a character motion corresponding to the movement of the subject is realized. If it is determined that the skeleton recognition of the subject based on the skeleton information is incorrect, the character motion correction process based on the skeleton information is executed. For example, if a character is moved based on skeleton information that makes skeletal recognition incorrect, there will be a situation in which the character moves inappropriately. In this regard, according to one aspect of the present invention, when it is determined that an illegality occurs in the skeleton recognition, the character motion correction process is performed, so that the occurrence of such a situation can be suppressed. Therefore, it is possible to provide an image generation system or the like that can suppress generation of an inappropriate character image due to skeletal recognition fraud based on skeleton information.

また本発明の一態様では、前記キャラクタ処理部は、前記被写体の前記骨格認識に不正が発生すると判断される場合に、前記スケルトン情報に基づくスケルトンモーションと前記キャラクタの基準モーションとのモーションブレンドを、前記補正処理として行ってもよい。   In one aspect of the present invention, the character processing unit performs a motion blend of the skeleton motion based on the skeleton information and the reference motion of the character when it is determined that an illegality occurs in the skeleton recognition of the subject. The correction processing may be performed.

このようなモーションブレンドを行えば、骨格認識に不正が発生するような場合にも、スケルトンモーションに対して基準モーションがモーションブレンドされることで、骨格認識の不正を原因とする不適切なキャラクタ画像の生成を抑制できるようになる。   Even if the skeletal recognition is fraudulent if such motion blending is performed, the reference motion is blended with the skeleton motion, resulting in an inappropriate character image caused by the skeletal recognition fraud. Generation can be suppressed.

また本発明の一態様では、前記キャラクタ処理部は、前記被写体の前記骨格認識において不正が発生すると判断される骨についてのみ、前記モーションブレンドを行ってもよい。   In one aspect of the present invention, the character processing unit may perform the motion blend only on bones that are determined to be fraudulent in the skeleton recognition of the subject.

このようすれば、スケルトンの全ての骨についてモーションブレンドを行う場合に比べて、処理負荷を低減できるようになる。   In this way, the processing load can be reduced compared to the case where motion blending is performed on all bones of the skeleton.

また本発明の一態様では、前記キャラクタ処理部は、前記スケルトンモーションのブレンド率と前記基準モーションのブレンド率を時間経過に応じて変化させてもよい。   In the aspect of the invention, the character processing unit may change the blend rate of the skeleton motion and the blend rate of the reference motion as time elapses.

このようにすれば、スケルトンモーションから基準モーションへと時間経過に伴い徐々に変化するようなモーションブレンドを実現でき、より自然に見えるキャラクタの動作画像を生成できるようになる。   In this way, it is possible to realize a motion blend that gradually changes over time from a skeleton motion to a reference motion, and to generate a motion image of a character that looks more natural.

また本発明の一態様では、前記キャラクタ処理部は、前記被写体の前記骨格認識に不正が発生すると判断される場合に、前記スケルトン情報に基づくスケルトンモーションを、所与のモーションに差し替えるモーション差し替えを、前記補正処理として行ってもよい。   In one aspect of the present invention, the character processing unit performs a motion replacement that replaces a skeleton motion based on the skeleton information with a given motion when it is determined that an illegality occurs in the skeleton recognition of the subject. The correction processing may be performed.

このようなモーション差し替えを行えば、骨格認識に不正が発生するような場合にも、スケルトンモーションを所与のモーションに差し替えることで、骨格認識の不正を原因とする不適切なキャラクタ画像の生成を抑制できるようになる。   If this kind of motion replacement is performed, even if skeleton recognition is fraudulent, replacing the skeleton motion with a given motion will generate inappropriate character images due to skeletal recognition fraud. It becomes possible to suppress.

また本発明の一態様では、前記キャラクタ処理部は、前記被写体の前記骨格認識において不正が発生すると判断される骨に対して、前記補正処理を行ってもよい。   In one aspect of the present invention, the character processing unit may perform the correction process on a bone that is determined to be fraudulent in the skeleton recognition of the subject.

このようにすれば、骨格認識において不正が発生すると判断される骨の補正処理を行って、適正なキャラクタ画像を生成できるようになる。   In this way, it is possible to generate a proper character image by performing a bone correction process in which it is determined that fraud occurs in skeleton recognition.

また本発明の一態様では、前記キャラクタ処理部は、前記被写体の前記スケルトン情報からスケルトンの右肩位置と左肩位置を取得し、前記右肩位置と前記左肩位置を結ぶ線の角度に基づいて、前記被写体の左腕又は右腕の一方の腕の骨に不正が発生すると判断される場合に、前記一方の腕の骨に対する前記補正処理を行ってもよい。   In one aspect of the present invention, the character processing unit acquires a right shoulder position and a left shoulder position of the skeleton from the skeleton information of the subject, and based on an angle of a line connecting the right shoulder position and the left shoulder position, When it is determined that an irregularity occurs in the bone of one of the left arm and the right arm of the subject, the correction processing may be performed on the bone of the one arm.

このようにすれば、右肩位置と左肩位置を結ぶ線の角度に基づいて、被写体の一方の腕の骨に不正が発生することを予測して、当該一方の腕の骨についての補正処理を実行できるようになる。   In this way, based on the angle of the line connecting the right shoulder position and the left shoulder position, it is predicted that fraud will occur in the bone of one arm of the subject, and the correction process for the bone of the one arm is performed. It becomes possible to execute.

また本発明の一態様では、前記キャラクタ処理部は、不正と判断された前記一方の腕の骨について、前記スケルトン情報に基づくスケルトンモーションと、前記キャラクタの基準モーションとのモーションブレンドを行ってもよい。   In the aspect of the invention, the character processing unit may perform a motion blend of the skeleton motion based on the skeleton information and the reference motion of the character for the bone of the one arm that is determined to be illegal. .

このようにすれば、不正と判断された一方の腕についての補正処理を、スケルトンモーションと基準モーションのモーションブレンドにより実現できるようになる。   In this way, the correction process for one arm that is determined to be illegal can be realized by the motion blend of the skeleton motion and the reference motion.

また本発明の一態様では、前記キャラクタ処理部は、前記センサからの前記被写体の距離に基づいて、前記スケルトン情報の足の骨に不正が発生すると判断される場合に、前記足の骨についての前記補正処理を行ってもよい。   In the aspect of the present invention, the character processing unit may be configured to perform an operation on the foot bone when it is determined that an injustice occurs in the foot bone of the skeleton information based on the distance of the subject from the sensor. The correction process may be performed.

このようにすれば、センサからの被写体の距離に基づいて、足の骨に不正が発生することを予測して、足の骨についての補正処理を実行できるようになる。   In this way, it is possible to predict the occurrence of fraud in the foot bone based on the distance of the subject from the sensor and to perform correction processing on the foot bone.

また本発明の一態様では、前記キャラクタ処理部は、前記足の骨に不正が発生すると判断される場合に、前記スケルトン情報の前記足の骨を、所与の基準骨に差し替えてもよい。   In the aspect of the invention, the character processing unit may replace the foot bone in the skeleton information with a given reference bone when it is determined that an injustice occurs in the foot bone.

このようにすれば、骨格認識において不正があると判断される足の骨を、基準骨に差し替えることで、キャラクタのモーションを適正なモーションに補正できるようになる。   In this way, the motion of the character can be corrected to an appropriate motion by replacing the bone of the foot that is determined to be illegal in the skeleton recognition with the reference bone.

また本発明の一態様では、ゲーム処理を行うゲーム処理部を含み(ゲーム処理部としてコンピュータを機能させ)、前記ゲーム処理部は、前記被写体の前記骨格認識に不正が発生すると判断される場合に、前記骨格認識の不正発生時用に用意されたゲームイベントを発生してもよい。   According to another aspect of the present invention, the game processing unit includes a game processing unit that performs game processing (the computer is caused to function as the game processing unit), and the game processing unit is configured to determine that fraud occurs in the skeleton recognition of the subject. A game event prepared for the occurrence of the skeleton recognition fraud may be generated.

このようにすれば、骨格認識に不正が発生すると判断される場合に、例えば骨格認識の不正を原因とする不適切なキャラクタ画像が生成されるのを回避させるようなゲームイベントを発生できるようになる。   In this way, when it is determined that fraud occurs in skeleton recognition, for example, a game event can be generated that avoids generation of an inappropriate character image due to fraud in skeleton recognition, for example. Become.

また本発明の一態様では、ゲーム処理を行うゲーム処理部を含み(ゲーム処理部としてコンピュータを機能させ)、前記キャラクタ処理部は、前記キャラクタの動作の前記補正処理として、ゲーム状況に応じた前記補正処理を行ってもよい。   According to another aspect of the present invention, the game processing unit includes a game processing unit that performs a game process (a computer is caused to function as the game processing unit), and the character processing unit performs the correction process of the character action according to a game situation. Correction processing may be performed.

このようにすれば、骨格認識の不正発生時用の補正処理として、ゲーム状況を反映させた補正処理を実行できるようになり、スムーズなゲーム進行等を実現できるようになる。   In this way, the correction process reflecting the game situation can be executed as the correction process for the occurrence of skeleton recognition fraud, and smooth game progress and the like can be realized.

また本発明の一態様では、前記キャラクタ処理部は、前記補正処理の期間中においては、前記補正処理後の前記キャラクタの動作に基づいて、前記キャラクタについての判定処理を行ってもよい。   In the aspect of the invention, the character processing unit may perform the determination process for the character based on the action of the character after the correction process during the correction process.

このようにすれば、補正処理の期間中において、キャラクタについての適正な判定処理を実行できるようになる。   In this way, it is possible to execute an appropriate determination process for the character during the correction process.

本実施形態の画像生成システムの構成例。1 is a configuration example of an image generation system according to the present embodiment. 本実施形態の画像生成システムの業務用ゲーム装置への適用例。An application example of the image generation system of the present embodiment to a game machine for business use. 図3(A)、図3(B)は本実施形態の画像生成システムの家庭用ゲーム装置、パーソナルコンピュータへの適用例。3A and 3B show application examples of the image generation system of the present embodiment to a home game device and a personal computer. 図4(A)、図4(B)は深度情報、ボディーインデックス情報の例。4A and 4B show examples of depth information and body index information. スケルトン情報の説明図。Explanatory drawing of skeleton information. キャラクタの画像とプレーヤの顔画像の画像合成手法の説明図。Explanatory drawing of the image-synthesis method of a character image and a player's face image. 図7(A)はプレーヤの撮像画像の例、図7(B)はキャラクタと顔画像の合成画像の例。FIG. 7A shows an example of a captured image of a player, and FIG. 7B shows an example of a combined image of a character and a face image. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. プレーヤの動きに応じてキャラクタを動作させる手法の説明図。Explanatory drawing of the method of moving a character according to a player's motion. スケルトン情報を用いてキャラクタを動作させる手法の説明図。Explanatory drawing of the method of operating a character using skeleton information. モデルオブジェクトのレンダリング処理の説明図。Explanatory drawing of the rendering process of a model object. 図12(A)〜図12(C)はスケルトン情報による骨格認識の不正を原因とする不具合の発生の一例の説明図。FIG. 12A to FIG. 12C are diagrams illustrating an example of the occurrence of a malfunction caused by skeletal recognition fraud based on skeleton information. 図13(A)、図13(B)は骨格認識の不正を原因とする不具合の発生の他の例の説明図。FIG. 13A and FIG. 13B are explanatory diagrams of another example of the occurrence of a failure caused by skeleton recognition fraud. 図14(A)、図14(B)も骨格認識の不正を原因とする不具合の発生の発生の他の例の説明図。FIG. 14A and FIG. 14B are also explanatory diagrams of another example of the occurrence of a malfunction caused by skeleton recognition fraud. モーションブレンドによる本実施形態の補正処理の説明図。Explanatory drawing of the correction process of this embodiment by motion blend. モーション差し替えによる本実施形態の補正処理の説明図。Explanatory drawing of the correction process of this embodiment by motion replacement. 図17(A)〜図17(D)は両肩を結ぶ線の角度を用いた骨格認識の不正の発生の判断手法の説明図。FIG. 17A to FIG. 17D are explanatory diagrams of a method for determining the occurrence of skeleton recognition fraud using the angle of a line connecting both shoulders. 時間経過に基づくモーションブレンド手法の説明図。Explanatory drawing of the motion blend method based on time passage. 図19(A)、図19(B)はセンサーからの距離を用いた骨格認識の不正の発生の判断手法の説明図。FIGS. 19A and 19B are explanatory diagrams of a technique for determining the occurrence of fraud in skeleton recognition using the distance from the sensor. 骨格認識の不正発生時用のゲームイベントを発生する処理のフローチャート。The flowchart of the process which generate | occur | produces the game event for the time of fraud of skeleton recognition. 図21(A)〜図21(C)は本実施形態の変形例の説明図。FIG. 21A to FIG. 21C are explanatory diagrams of modified examples of the present embodiment. 本実施形態の変形例の説明図。Explanatory drawing of the modification of this embodiment. 図23(A)、図23(B)も本実施形態の変形例の説明図。FIG. 23A and FIG. 23B are also explanatory diagrams of a modified example of the present embodiment. 本実施形態の詳細な処理例を示すフローチャート。The flowchart which shows the detailed process example of this embodiment. 本実施形態の詳細な処理例を示すフローチャート。The flowchart which shows the detailed process example of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.画像生成システム
図1に本実施形態の画像生成システム(画像生成装置、ゲームシステム、ゲーム装置)の構成例を示す。画像生成システムは、処理部100、操作部160、センサ162、記憶部170、表示部190、音出力部192、I/F部194、通信部196、印刷部198を含む。なお本実施形態の画像生成システムの構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Image Generation System FIG. 1 shows a configuration example of an image generation system (image generation apparatus, game system, game apparatus) of the present embodiment. The image generation system includes a processing unit 100, an operation unit 160, a sensor 162, a storage unit 170, a display unit 190, a sound output unit 192, an I / F unit 194, a communication unit 196, and a printing unit 198. Note that the configuration of the image generation system of the present embodiment is not limited to that shown in FIG. 1, and various modifications may be made such as omitting some of the components (each unit) or adding other components.

処理部100は、操作部160からの操作情報や、センサ162からのセンサ情報や、プログラムなどに基づいて、入力処理、演算処理、出力処理などの各種の処理を行う。   The processing unit 100 performs various processes such as an input process, an arithmetic process, and an output process based on operation information from the operation unit 160, sensor information from the sensor 162, a program, and the like.

処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリーにより実現できる。プロセッサは、例えば各部の機能が個別のハードウエアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Processing Unit)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。メモリー(記憶部170)は、SRAM、DRAM等の半導体メモリーであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリーはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。   Each processing (each function) of this embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware. The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Processing Unit) can be used. The processor may be an ASIC hardware circuit. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD) or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and the processing (function) of each unit of the processing unit 100 is realized by executing the instructions by the processor. The instruction here may be an instruction set constituting a program, or an instruction for instructing an operation to the hardware circuit of the processor.

処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。入力処理部102は、各種の情報の入力処理を行う。例えば入力処理部102は、操作部160により入力されたプレーヤの操作情報を受け付ける処理を、入力処理として行う。例えば操作部160で検出された操作情報を取得する処理を行う。また入力処理部102は、センサ162からのセンサ情報を取得する処理を、入力処理として行う。また入力処理部102は、記憶部170から情報を読み出す処理を、入力処理として行う。例えば読み出しコマンドで指定された情報を、記憶部170から読み出す処理を行う。また入力処理部102は、通信部196を介して情報を受信する処理を、入力処理として行う。例えば画像生成システムの外部装置(他の画像生成システム、サーバシステム等)からネットワークを介して情報を受信する処理を行う。受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。   The processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140. The input processing unit 102 performs various types of information input processing. For example, the input processing unit 102 performs a process of receiving player operation information input by the operation unit 160 as an input process. For example, a process of acquiring operation information detected by the operation unit 160 is performed. Further, the input processing unit 102 performs a process of acquiring sensor information from the sensor 162 as an input process. The input processing unit 102 performs a process of reading information from the storage unit 170 as an input process. For example, a process of reading information specified by the read command from the storage unit 170 is performed. Further, the input processing unit 102 performs processing for receiving information via the communication unit 196 as input processing. For example, a process of receiving information from an external device (another image generation system, server system, etc.) of the image generation system via a network is performed. The reception process is a process of instructing the communication unit 196 to receive information, acquiring information received by the communication unit 196, and writing the information in the storage unit 170.

演算処理部110は、各種の演算処理を行う。例えば演算処理部110は、ゲーム処理、オブジェクト空間設定処理、キャラクタ処理、ゲーム成績演算処理、仮想カメラ制御処理、画像生成処理、或いは音生成処理などの演算処理を行う。この演算処理部110は、ゲーム処理部111、オブジェクト空間設定部112、キャラクタ処理部113、被写体情報取得部114、ゲーム成績演算部118、仮想カメラ制御部119、画像生成部120、音生成部130、印刷処理部132を含む。   The arithmetic processing unit 110 performs various arithmetic processes. For example, the arithmetic processing unit 110 performs arithmetic processing such as game processing, object space setting processing, character processing, game results calculation processing, virtual camera control processing, image generation processing, or sound generation processing. The arithmetic processing unit 110 includes a game processing unit 111, an object space setting unit 112, a character processing unit 113, a subject information acquisition unit 114, a game result calculation unit 118, a virtual camera control unit 119, an image generation unit 120, and a sound generation unit 130. The print processing unit 132 is included.

ゲーム処理は、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などである。このゲーム処理はゲーム処理部111(ゲーム処理のプログラムモジュール)により実行される。   The game process includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, or a process for ending a game when a game end condition is satisfied. This game processing is executed by the game processing unit 111 (game processing program module).

オブジェクト空間設定処理は、オブジェクト空間に複数のオブジェクトを配置設定する処理である。このオブジェクト空間設定処理はオブジェクト空間設定部112(オブジェクト空間設定処理のプログラムモジュール)により実行される。例えばオブジェクト空間設定部112は、ゲームに登場するキャラクタ(人、ロボット、動物、怪物、飛行機、船舶、戦闘機、戦車、戦艦、車等)、マップ(地形)、建物、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を、オブジェクト空間に配置設定する。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部112は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。   The object space setting process is a process for arranging and setting a plurality of objects in the object space. This object space setting process is executed by the object space setting unit 112 (a program module for the object space setting process). For example, the object space setting unit 112 includes characters (people, robots, animals, monsters, airplanes, ships, fighters, tanks, battleships, cars, etc.), maps (terrain), buildings, courses (roads), trees that appear in the game. Various objects representing objects such as walls and water surfaces (objects composed of primitive surfaces such as polygons, free-form surfaces or subdivision surfaces) are arranged and set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Place the object. Specifically, the object information storage unit 172 of the storage unit 170 stores object information that is information such as the position, rotation angle, movement speed, and movement direction of the object (part object) in association with the object number. . The object space setting unit 112 performs processing for updating the object information for each frame, for example.

キャラクタ処理(移動体演算処理)は、キャラクタ(移動体)について行われる各種の演算処理である。例えばキャラクタ処理は、キャラクタ(ゲームに登場する表示物)をオブジェクト空間(仮想3次元空間、3次元ゲーム空間)で移動させるための処理や、キャラクタを動作させるための処理である。このキャラクタ処理はキャラクタ処理部113(キャラクタ処理のプログラムモジュール)により実行される。例えばキャラクタ処理部113は、操作部160によりプレーヤが入力した操作情報や、センサ162からのセンサ情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、キャラクタ(モデルオブジェクト)をオブジェクト空間内で移動させたり、キャラクタを動作(モーション、アニメーション)させる制御処理を行う。具体的には、キャラクタの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、キャラクタの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   Character processing (moving body calculation processing) is various calculation processing performed on a character (moving body). For example, the character processing is processing for moving a character (display object appearing in a game) in an object space (virtual three-dimensional space, three-dimensional game space) or processing for moving the character. This character processing is executed by the character processing unit 113 (character processing program module). For example, the character processing unit 113 uses a character (model) based on operation information input by the player through the operation unit 160, sensor information from the sensor 162, a program (movement / motion algorithm), various data (motion data), and the like. Control processing for moving the object) in the object space and moving the character (motion, animation) is performed. Specifically, a simulation process for sequentially obtaining character movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) every frame (for example, 1/60 second). I do. The frame is a unit of time for performing character movement / motion processing (simulation processing) and image generation processing.

ゲーム成績演算処理は、プレーヤのゲームでの成績を演算する処理である。例えばゲーム成績演算処理は、プレーヤがゲームで獲得するポイントや得点を演算する処理や、ゲーム内通貨、メダル又はチケットなどのゲーム成果を演算する処理である。このゲーム成績演算処理はゲーム成績演算部118(ゲーム成績演算処理のプログラムモジュール)により実行される。   The game score calculation process is a process of calculating the player's game score. For example, the game score calculation process is a process for calculating points and points that the player acquires in the game, and a process for calculating game results such as in-game currency, medals or tickets. This game score calculation processing is executed by the game score calculation unit 118 (program module for game score calculation processing).

仮想カメラ制御処理は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)を制御する処理である。この仮想カメラ制御処理は仮想カメラ制御部119(仮想カメラ制御処理のプログラムモジュール)により実行される。具体的には仮想カメラ制御部119は、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control process is a process for controlling a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. This virtual camera control process is executed by the virtual camera control unit 119 (virtual camera control process program module). Specifically, the virtual camera control unit 119 controls processing (viewpoint position, line-of-sight direction or image) for controlling the position (X, Y, Z) or rotation angle (rotation angle around the X, Y, Z axes) of the virtual camera. Process to control corners).

画像生成処理は、表示部190に表示される画像(ゲーム画像)や、印刷部198により印刷される画像を生成するための処理であり、各種の画像合成処理や画像エフェクト処理などを含むことができる。音生成処理は、音出力部192により出力されるBGM、効果音又は音声等の音(ゲーム音)を生成するための処理であり、各種の音合成処理やサウンドエフェクト処理などを含むことができる。これらの画像生成処理、音生成処理は、画像生成部120、音生成部130(画像生成処理、音生成処理のプログラムモジュール)により実行される。   The image generation processing is processing for generating an image (game image) displayed on the display unit 190 and an image printed by the printing unit 198, and may include various image composition processing and image effect processing. it can. The sound generation process is a process for generating a sound (game sound) such as BGM, sound effect, or sound output from the sound output unit 192, and can include various sound synthesis processes, sound effect processes, and the like. . These image generation processing and sound generation processing are executed by the image generation unit 120 and the sound generation unit 130 (program modules for image generation processing and sound generation processing).

例えば画像生成部120は、処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において所与の視点(仮想カメラ)から見える画像が生成される。なお、画像生成部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現してもよい。   For example, the image generation unit 120 performs drawing processing based on the results of various processing (game processing and simulation processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. Thereby, an image that is visible from a given viewpoint (virtual camera) in the object space is generated. Note that the drawing processing performed by the image generation unit 120 may be realized by vertex shader processing, pixel shader processing, or the like.

出力処理部140は、各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理を、出力処理として行う。例えば、書き込みコマンドで指定された情報を、記憶部170に書き込む処理を行う。また出力処理部140は、生成された画像の情報を表示部190に出力したり、生成された音の情報を音出力部192に出力する処理を、出力処理として行う。また出力処理部140は、通信部196を介して情報を送信する処理を、出力処理として行う。例えば画像生成システムの外部装置(他の画像生成システム、サーバシステム等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。また出力処理部140は、印刷媒体に印刷される画像を印刷部198に転送する処理を、出力処理として行う。   The output processing unit 140 performs various types of information output processing. For example, the output processing unit 140 performs a process of writing information in the storage unit 170 as an output process. For example, a process of writing information specified by the write command to the storage unit 170 is performed. Further, the output processing unit 140 performs a process of outputting the generated image information to the display unit 190 and outputting the generated sound information to the sound output unit 192 as an output process. The output processing unit 140 performs a process of transmitting information via the communication unit 196 as an output process. For example, processing for transmitting information to an external device (another image generation system, server system, etc.) of the image generation system via a network is performed. The transmission process is a process of instructing the communication unit 196 to transmit information, or instructing the communication unit 196 to transmit information. Further, the output processing unit 140 performs processing for transferring an image to be printed on the print medium to the printing unit 198 as output processing.

操作部160(操作デバイス)は、プレーヤ(ユーザ)が操作情報を入力するためのものであり、その機能は、方向指示キー、操作ボタン、アナログスティック、レバー、各種センサ(角速度センサ、加速度センサ等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。   The operation unit 160 (operation device) is used by a player (user) to input operation information, and functions thereof are direction instruction keys, operation buttons, analog sticks, levers, various sensors (angular velocity sensor, acceleration sensor, etc.). ), A microphone or a touch panel display.

センサ162は、被写体情報を取得するためのセンサ情報を検出する。センサ162は例えばカラーセンサ164(カラーカメラ)、デプスセンサ166(デプスカメラ)を含むことができる。   The sensor 162 detects sensor information for acquiring subject information. The sensor 162 can include, for example, a color sensor 164 (color camera) and a depth sensor 166 (depth camera).

記憶部170(メモリー)は、処理部100や通信部196などのワーク領域となるもので、その機能はRAMやSSDやHDDなどにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170は、オブジェクト情報記憶部172、描画バッファ178を含む。   The storage unit 170 (memory) serves as a work area for the processing unit 100, the communication unit 196, and the like, and its functions can be realized by a RAM, SSD, HDD, or the like. Then, the game program and game data necessary for executing the game program are held in the storage unit 170. The storage unit 170 includes an object information storage unit 172 and a drawing buffer 178.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。この情報記憶媒体180に、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶できる。   An information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), memory (ROM, etc.), etc. Can be realized. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. A program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment on the information storage medium 180 (a program for causing the computer to execute processing of each unit). I can remember.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、或いはHMDなどにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, an HMD, or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリーカード)、USBメモリー、或いは磁気カードなどにより実現できる。   The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC for I / F processing or the like. The portable information storage medium 195 is for a user to save various types of information, and is a storage device that retains storage of such information even when power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、ネットワークを介して外部装置(他の画像生成システム、サーバシステム等)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with an external device (another image generation system, server system, etc.) via a network, and functions thereof include hardware such as a communication ASIC or a communication processor, This can be realized by communication firmware.

印刷部198は、例えばプリント用紙やシール紙などの印刷媒体に画像を印刷する。この印刷部198は、例えば印刷用ヘッド、印刷媒体の送り機構などにより実現できる。具体的には、処理部100の印刷処理部132(印刷処理のプログラムモジュール)が、印刷対象画像を選択するための処理を行い、選択された印刷対象画像の印刷を、印刷部198に指示する。これにより、印刷対象画像が印刷された印刷物が、後述する図2の払い出し口152から払い出されるようになる。印刷対象画像は、例えばゲーム中のプレーヤのキャラクタの様子を撮影した画像や、プレーヤのキャラクタと他のキャラクタとで一緒に撮る記念写真の画像などである。   The printing unit 198 prints an image on a print medium such as print paper or sticker paper. The printing unit 198 can be realized by, for example, a printing head, a printing medium feeding mechanism, or the like. Specifically, the print processing unit 132 (print processing program module) of the processing unit 100 performs processing for selecting a print target image, and instructs the printing unit 198 to print the selected print target image. . Thereby, the printed matter on which the print target image is printed is paid out from a payout port 152 in FIG. 2 described later. The print target image is, for example, an image obtained by photographing the player's character during the game, or a commemorative photo image taken together with the player's character and another character.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバシステム(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバシステムによる情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is transferred from the information storage medium included in the server system (host device) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. You may distribute. Use of the information storage medium by such a server system can also be included in the scope of the present invention.

図2、図3(A)、図3(B)は本実施形態の画像生成システムが適用されるハードウェア装置の例を示す図である。   2, 3 </ b> A, and 3 </ b> B are diagrams illustrating examples of hardware devices to which the image generation system of the present embodiment is applied.

図2は本実施形態の画像生成システムが適用された業務用ゲーム装置の例である。この業務用ゲーム装置は、操作ボタン、方向指示ボタンにより実現される操作部160や、カラーセンサ164、デプスセンサ166を有するセンサ162や、LCD、CRTなどにより実現される表示部190や、スピーカにより実現される音出力部192や、コイン投入口150や、写真などの印刷物の払い出し口152を備えている。プレーヤPLは、表示部190に表示されるゲーム画像を見ながら、ゲームをプレイするための各種の動作を行う。プレーヤPLの動き(手足のなどの部位の動きや位置の移動)は、センサ162により検出される。そして検出結果に応じたゲーム処理が行われ、ゲーム処理に基づくゲーム画像が表示部190に表示される。   FIG. 2 is an example of an arcade game apparatus to which the image generation system of this embodiment is applied. This arcade game device is realized by an operation unit 160 realized by operation buttons and direction instruction buttons, a sensor 162 having a color sensor 164 and a depth sensor 166, a display unit 190 realized by an LCD, a CRT, and the like, and a speaker. A sound output unit 192, a coin insertion port 150, and a payout port 152 for printed matter such as photographs. The player PL performs various operations for playing the game while viewing the game image displayed on the display unit 190. The movement of the player PL (movement of a part such as a limb or movement of position) is detected by the sensor 162. A game process corresponding to the detection result is performed, and a game image based on the game process is displayed on the display unit 190.

本実施形態の画像生成システムが適用されるハードウェア装置は、図2のような業務用ゲーム装置には限定されず、例えば図3(A)に示す家庭用ゲーム装置や、図3(B)に示すパーソナルコンピュータ(情報処理装置)などの種々のハードウェア装置に適用可能である。図3(A)では、カラーセンサ164やデプスセンサ166を有するセンサ162(センサ装置)を家庭用ゲーム装置の本体装置に接続し、当該センサ162を、例えば表示部であるテレビの近くに配置する。そしてセンサ162によりプレーヤの動作を検出することで、家庭用ゲーム装置の本体装置が、種々のゲーム処理を実行し、テレビの画面にゲーム画像を表示する。図3(B)では、センサ162をパーソナルコンピュータの本体装置に接続し、センサ162によりプレーヤの動作を検出し、ゲーム処理の結果に基づくゲーム画像を、表示部である液晶ディスプレイに表示する。   The hardware device to which the image generation system of the present embodiment is applied is not limited to the arcade game device as shown in FIG. 2, for example, a home game device shown in FIG. 3A or FIG. The present invention can be applied to various hardware devices such as a personal computer (information processing device) shown in FIG. In FIG. 3A, a sensor 162 (sensor device) having a color sensor 164 and a depth sensor 166 is connected to a main body device of a consumer game device, and the sensor 162 is disposed, for example, near a television which is a display unit. Then, by detecting the operation of the player by the sensor 162, the main device of the consumer game device executes various game processes and displays a game image on the television screen. In FIG. 3B, the sensor 162 is connected to the main unit of the personal computer, the operation of the player is detected by the sensor 162, and a game image based on the result of the game processing is displayed on a liquid crystal display as a display unit.

そして本実施形態の画像生成システム(画像生成装置、ゲーム装置、ゲームシステム)は、図1に示すように、キャラクタ処理部113と被写体情報取得部114と画像生成部120を含む。被写体情報取得部114は、センサ162からのセンサ情報に基づいて、被写体のスケルトン情報(広義には動き情報)を取得する。このスケルトン情報に基づいて、被写体の動きが特定される。被写体は例えば図2に示すプレーヤPLである。被写体は人間以外の動物などであってもよい。キャラクタ処理部113は、スケルトン情報に基づいてキャラクタを動作させる処理を行い、画像生成部120が当該キャラクタの画像を生成する。例えばスケルトン情報に基づくモーション再生によりキャラクタを動作させる。   The image generation system (image generation device, game device, game system) of the present embodiment includes a character processing unit 113, a subject information acquisition unit 114, and an image generation unit 120, as shown in FIG. The subject information acquisition unit 114 acquires skeleton information (movement information in a broad sense) of the subject based on the sensor information from the sensor 162. Based on this skeleton information, the movement of the subject is specified. The subject is, for example, the player PL shown in FIG. The subject may be an animal other than a human. The character processing unit 113 performs processing for moving the character based on the skeleton information, and the image generation unit 120 generates an image of the character. For example, the character is moved by motion reproduction based on skeleton information.

そしてキャラクタ処理部113は、スケルトン情報による被写体の骨格認識に不正が発生すると判断される場合に、スケルトン情報に基づくキャラクタの動作の補正処理を行う。   The character processing unit 113 corrects the movement of the character based on the skeleton information when it is determined that the skeleton recognition of the subject based on the skeleton information is illegal.

本実施形態では、被写体をセンシングするセンサ162からのセンサ情報に基づいて、被写体の骨格認識が行われて被写体のスケルトン情報が取得されるが、このスケルトン情報による骨格認識には不正が発生する場合がある。このような骨格認識の不正が発生すると、スケルトン情報に基づくキャラクタの動作が不適切になってしまい、不適切で不自然な画像が生成されてしまう。   In this embodiment, based on sensor information from the sensor 162 that senses the subject, skeleton recognition of the subject is performed and skeleton information of the subject is acquired. However, if skeleton recognition based on this skeleton information is illegal. There is. When such skeletal recognition fraud occurs, the character's movement based on the skeleton information becomes inappropriate, and an inappropriate and unnatural image is generated.

この点、本実施形態では、被写体の骨格認識に不正が発生すると判断される場合には、スケルトン情報に基づくキャラクタの動作に対して補正処理が行われる。例えば、キャラクタの動作が不適切にならないようにする補正処理が行われる。例えば、骨格認識の不正がキャラクタの動作に及ぼす影響を低減又は除去する補正処理が行われる。このようにすれば、被写体の骨格認識に不正が発生した場合にも、キャラクタの動作が不適切にならないようにする補正処理が行われることで、生成される画像が不適切な画像になってしまう事態を抑制できる。なお、被写体の骨格認識に不正が発生すると判断される場合とは、実際に骨格認識に不正が発生した場合であってもよいし、骨格認識に不正が発生することが予測(予想、推測)される場合であってもよい。   In this regard, in the present embodiment, when it is determined that an illegality occurs in the skeleton recognition of the subject, correction processing is performed on the character motion based on the skeleton information. For example, correction processing is performed to prevent the character's movement from becoming inappropriate. For example, correction processing is performed to reduce or eliminate the influence of skeletal recognition fraud on the character motion. In this way, even if an irregularity occurs in the skeleton recognition of the subject, the generated image becomes an inappropriate image by performing a correction process that prevents the character's movement from becoming inappropriate. Can be suppressed. Note that the case where it is determined that an illegality occurs in the skeleton recognition of the subject may be a case where an illegality actually occurs in the skeleton recognition, or it is predicted that an illegality occurs in the skeletal recognition (prediction, guess) It may be the case.

キャラクタ処理部113(モーション処理部)は、被写体の骨格認識に不正が発生すると判断される場合に、例えばスケルトン情報に基づくスケルトンモーションとキャラクタの基準モーションとのモーションブレンドを、補正処理として行う。例えばスケルトン情報に基づくスケルトンモーションのデータと、予め用意される基準モーションのデータを、所与のブレンド率でモーションブレンドする処理が行われる。基準モーションのデータは、記憶部170のモーションデータ記憶部174に記憶されている。基準モーションは例えばキャラクタの基準姿勢(基本姿勢)を規定するモーションである。モーションのデータは、例えばスケルトンを構成する骨の位置(関節位置)や骨の回転角度などのデータを含むことができる。   The character processing unit 113 (motion processing unit) performs, for example, a motion blend of a skeleton motion based on skeleton information and a character's reference motion as a correction process when it is determined that the subject's skeleton recognition is illegal. For example, skeleton motion data based on skeleton information and a reference motion data prepared in advance are subjected to motion blending at a given blend rate. The reference motion data is stored in the motion data storage unit 174 of the storage unit 170. The reference motion is a motion that defines the reference posture (basic posture) of the character, for example. The motion data can include, for example, data such as the position (joint position) of the bone constituting the skeleton and the rotation angle of the bone.

例えば第1のモーションをMAとし、第2のモーションをMBとし、各々のブレンド率α、βとし、モーションブレンド後のモーションをMTとしたとする。この場合に、第1のモーションMAと第2のモーションMBのモーションブレンドは、MT=α×MA+β×MBというようなブレンド演算により実現できる。ここで例えばα=1−βというような関係式が成り立つ。モーションブレンドの対象となるデータは、例えば骨の位置(関節位置)や骨の回転角度を表すデータであり、例えば骨のローカルマトリクスなどであってもよい。   For example, suppose that the first motion is MA, the second motion is MB, the blend ratios α and β are each, and the motion after the motion blend is MT. In this case, the motion blend of the first motion MA and the second motion MB can be realized by a blend operation such as MT = α × MA + β × MB. Here, a relational expression such as α = 1−β holds. The data to be subjected to motion blending is, for example, data representing a bone position (joint position) and a bone rotation angle, and may be, for example, a bone local matrix.

またキャラクタ処理部113は、被写体の骨格認識において不正が発生すると判断される骨についてのみ、モーションブレンドを行ってもよい。例えばスケルトンモーションを構成する複数の骨のうち、骨格認識において不正が発生すると判断される骨についてのみ、基準モーションに含まれる基準骨とのモーションブレンドを行う。こうすることで、モーションブレンドの処理負荷や処理データ量を低減できる。   Further, the character processing unit 113 may perform motion blending only on bones that are determined to be fraudulent in skeleton recognition of the subject. For example, the motion blending with the reference bone included in the reference motion is performed only for the bones that are determined to be illegal in the skeleton recognition among the plurality of bones constituting the skeleton motion. By doing so, it is possible to reduce the processing load and processing data amount of motion blending.

またキャラクタ処理部113は、スケルトンモーションのブレンド率と基準モーションのブレンド率を、例えば時間経過に応じて変化させる。例えばスケルトンモーションのブレンド率をαS、基準モーションのブレンド率をαFとする。この場合に、骨格認識に不正が発生すると判断されるタイミングから、時間経過に伴い、例えばスケルトンモーションのブレンド率αSを小さくすると共に、基準モーションのブレンド率αFを大きくする。こうすることで、時間経過に伴いスケルトンモーションから基準モーションに徐々に変化するようなモーションブレンドを実現できる。   Further, the character processing unit 113 changes the blend rate of the skeleton motion and the blend rate of the reference motion, for example, according to the passage of time. For example, the blend rate of the skeleton motion is αS, and the blend rate of the reference motion is αF. In this case, for example, the skeleton motion blend rate αS is decreased and the reference motion blend rate αF is increased with the passage of time from the timing at which the skeleton recognition is determined to be fraudulent. By doing so, it is possible to realize a motion blend that gradually changes from a skeleton motion to a reference motion over time.

またキャラクタ処理部113は、被写体の骨格認識に不正が発生すると判断される場合に、スケルトン情報に基づくスケルトンモーションを、所与のモーションに差し替えるモーション差し替えを、補正処理として行ってもよい。即ち、骨格認識に不正が発生すると判断される場合に、スケルトンモーションを、予め用意されたモーションに差し替えて、キャラクタのモーション処理を行う。モーション差し替えの差し替え先となるモーションのデータは、モーションデータ記憶部174に記憶されている。この差し替え先のモーションは、キャラクタの姿勢を変化させない固定姿勢のモーションであってもよいし、キャラクタの姿勢を動的に変化させるモーション(時系列のモーション)であってもよい。   Further, the character processing unit 113 may perform a motion replacement for replacing the skeleton motion based on the skeleton information with a given motion as the correction processing when it is determined that the skeleton recognition of the subject is illegal. That is, when it is determined that the skeleton recognition is illegal, the skeleton motion is replaced with a motion prepared in advance, and the motion processing of the character is performed. The motion data that is the replacement destination of the motion replacement is stored in the motion data storage unit 174. This replacement motion may be a fixed posture motion that does not change the character's posture, or may be a motion (time-series motion) that dynamically changes the character's posture.

またキャラクタ処理部113は、被写体の骨格認識において不正が発生すると判断される骨に対して、補正処理を行う。例えば、キャラクタのスケルトンの全ての骨に対して補正処理を行うのではなく、骨格認識において不正が発生すると判断される骨に対して補正処理を行う。こうすることで、補正処理の処理負荷や処理データ量を低減できる。   In addition, the character processing unit 113 performs a correction process on a bone that is determined to be illegal in skeleton recognition of the subject. For example, the correction process is not performed on all the bones of the character's skeleton, but the correction process is performed on the bones that are determined to be illegal in the skeleton recognition. By doing so, it is possible to reduce the processing load and processing data amount of the correction processing.

またキャラクタ処理部113は、被写体のスケルトン情報からスケルトンの右肩位置と左肩位置を取得する。そして右肩位置と左肩位置を結ぶ線の角度に基づいて、被写体の左腕又は右腕の一方の腕の骨(広義には所定部位の骨)に不正が発生すると判断される場合に、一方の腕の骨に対する補正処理を行う。即ち、右肩位置と左肩位置を結ぶ線の角度に基づいて、一方の腕の骨について骨格認識に不正が発生すると予想される場合に、当該一方の腕の骨が不正な骨にならないようにする補正処理を行う。具体的にはキャラクタ処理部113は、不正と判断された一方の腕の骨について、スケルトン情報に基づくスケルトンモーションと、キャラクタの基準モーションとのモーションブレンドを行う。例えば不正と判断された一方の腕の骨に対してのみ、モーションブレンドを行う。なお、当該一方の骨の腕を所与の基準骨に差し替えるモーション差し替えを行う変形実施も可能である。   In addition, the character processing unit 113 acquires the right shoulder position and the left shoulder position of the skeleton from the skeleton information of the subject. Then, based on the angle of the line connecting the right shoulder position and the left shoulder position, when it is determined that an irregularity occurs in the bone of one arm of the left arm or the right arm of the subject (a bone of a predetermined part in a broad sense), one arm Correction processing is performed on the bone. In other words, when it is expected that the skeleton recognition of a bone of one arm is incorrect based on the angle of the line connecting the right shoulder position and the left shoulder position, the bone of the one arm should not be an illegal bone. Correction processing is performed. Specifically, the character processing unit 113 performs a motion blend of the skeleton motion based on the skeleton information and the reference motion of the character with respect to the bone of one arm that is determined to be illegal. For example, motion blending is performed only on the bone of one arm that is determined to be illegal. Note that it is possible to perform a modification in which motion replacement is performed to replace the arm of the one bone with a given reference bone.

またキャラクタ処理部113は、センサ162からの被写体の距離に基づいて、スケルトン情報の足の骨(広義には所定部位の骨)に不正が発生すると判断される場合に、足の骨についての補正処理を行う。即ち、センサ162からの被写体の距離に基づいて、スケルトン情報の足の骨に不正が発生すると判断される場合に、当該足の骨が不正にならないようにする補正処理を行う。具体的にはキャラクタ処理部113は、足の骨に不正が発生すると判断される場合に、スケルトン情報の足の骨を、所与の基準骨に差し替えるモーション差し替えを行う。なお、この際にモーションブレンド処理を行う変形実施も可能である。   Further, the character processing unit 113 corrects the foot bone when it is determined based on the distance of the subject from the sensor 162 that an injustice occurs in the foot bone of the skeleton information (a bone of a predetermined portion in a broad sense). Process. That is, based on the distance of the subject from the sensor 162, when it is determined that an irregularity occurs in the bone of the skeleton information, a correction process is performed to prevent the leg bone from becoming illegal. Specifically, the character processing unit 113 performs motion replacement that replaces the foot bone of the skeleton information with a given reference bone when it is determined that an injustice occurs in the foot bone. In this case, it is possible to perform a modification in which the motion blend process is performed.

また本実施形態の画像生成システムは、ゲーム処理を行うゲーム処理部111を含む。そしてゲーム処理部111は、被写体の骨格認識に不正が発生すると判断される場合に、骨格認識の不正発生時用に用意されたゲームイベントを発生する。例えば補正処理が必要になった場合に、このような補正処理が行われることを回避する動作を促すようなゲームイベントを発生する。例えばプレーヤが所与の動作を行った場合に、骨格認識に不正が発生する場合には、このような動作をプレーヤが行わないようにするゲームイベントを発生する。   The image generation system according to the present embodiment includes a game processing unit 111 that performs game processing. The game processing unit 111 generates a game event prepared for the occurrence of skeleton recognition fraud when it is determined that the skeleton recognition of the subject is fraudulent. For example, when a correction process becomes necessary, a game event is generated that prompts an operation to avoid such a correction process. For example, when a player performs a given action, if an illegality occurs in the skeleton recognition, a game event that prevents the player from performing such an action is generated.

また本実施形態では、キャラクタ処理部111は、キャラクタの動作の補正処理として、ゲーム状況に応じた補正処理を行う。例えばゲーム状況に応じて補正処理の内容を異ならせる。例えば、骨格認識の不正発生時用のキャラクタの動作の補正処理として、モーション差し替えを行う場合には、ゲーム状況に応じたモーション差し替えを行う。例えばキャラクタが攻撃モーションを行っている場合には、骨格認識の不正発生時用の差し替え先モーションを、攻撃用の補正モーションの中から選択する。例えばスケルトン情報に基づくスケルトンモーションから、攻撃用の補正モーションに差し替える。キャラクタが防御モーションを行っている場合には、骨格認識の不正発生時用の差し替え先モーションを、防御用の補正モーションの中から選択する。例えばスケルトンモーションから、防御用の補正モーションに差し替える。ゲーム中に技が選択されている場合には、骨格認識の不正発生時用の差し替え先モーションとして、その技に対応する補正モーションを選択する。例えばスケルトンモーションから、その技に対応する補正モーションに差し替える。   In the present embodiment, the character processing unit 111 performs a correction process according to the game situation as a correction process for the character motion. For example, the content of the correction process is varied depending on the game situation. For example, when motion replacement is performed as the character motion correction processing for when skeleton recognition fraud occurs, motion replacement according to the game situation is performed. For example, when the character is performing an attack motion, a replacement motion for when a skeleton recognition fraud occurs is selected from the correction motions for attack. For example, the skeleton motion based on the skeleton information is replaced with a correction motion for attack. If the character is performing a defensive motion, a replacement motion for when a skeleton recognition fraud occurs is selected from the defensive correction motion. For example, a skeleton motion is replaced with a defensive correction motion. When a technique is selected during the game, a correction motion corresponding to the technique is selected as a replacement destination motion for when a skeleton recognition fraud occurs. For example, the skeleton motion is replaced with a correction motion corresponding to the technique.

またキャラクタ処理部113は、補正処理の期間中においては、補正処理後のキャラクタの動作に基づいて、キャラクタについての判定処理を行ってもよい。例えば補正処理後のキャラクタの動作(モーション)に基づいて、ゲーム進行上の所定の判定処理を行う。即ち、ゲーム進行のために、ゲーム処理において所定の判定処理が必要な場合に、補正処理の期間中においては、補正処理前のキャラクタのモーションではなく、補正処理後のキャラクタのモーションに基づいて、当該判定処理を行う。こうすることで、骨格認識に不正がない状態で、当該判定処理を実行できるようになる。   In addition, during the correction process, the character processing unit 113 may perform a determination process for the character based on the action of the character after the correction process. For example, based on the motion (motion) of the character after the correction process, a predetermined determination process for the progress of the game is performed. That is, when a predetermined determination process is required in the game process for the progress of the game, during the period of the correction process, based on the motion of the character after the correction process, not the character motion before the correction process, The determination process is performed. By doing so, the determination process can be executed in a state where the skeleton recognition is not illegal.

なおキャラクタは、複数のオブジェクトで構成され、オブジェクト空間内に配置されるモデルオブジェクトである。例えば複数の3次元のオブジェクト(パーツオブジェクト)により構成される3次元のモデルオブジェクトである。各オブジェクトは例えば複数のポリゴン(広義にはプリミティブ面)により構成される。   The character is a model object that is composed of a plurality of objects and is arranged in the object space. For example, it is a three-dimensional model object composed of a plurality of three-dimensional objects (part objects). Each object is composed of, for example, a plurality of polygons (primitive surfaces in a broad sense).

この場合に画像生成部120は、オブジェクト空間において、被写体(プレーヤ等)の位置に対応する位置に配置されるモデルオブジェクトのレンダリング処理を行って、キャラクタの画像を生成する。例えば被写体情報取得部114により取得されたスケルトン情報(被写体情報)に基づいて、被写体の位置を特定し、オブジェクト空間内において、特定された被写体の位置に対応する位置に、キャラクタであるモデルオブジェクトが配置される。そして、当該モデルオブジェクトのレンダリング処理が行われて、仮想カメラから見えるキャラクタの画像が生成される。この場合に画像生成部120は、モデルオブジェクトのレンダリング処理を、照明モデルに基づいて行って、キャラクタの画像を生成する。このようにすれば、キャラクタの画像として、照明モデルの光源による陰影づけが施された画像を生成できるようになる。   In this case, the image generation unit 120 performs rendering processing of the model object arranged at a position corresponding to the position of the subject (player or the like) in the object space, and generates a character image. For example, the position of the subject is specified based on the skeleton information (subject information) acquired by the subject information acquisition unit 114, and the model object that is the character is located at a position corresponding to the specified position of the subject in the object space. Be placed. Then, the rendering process of the model object is performed, and an image of the character that can be seen from the virtual camera is generated. In this case, the image generation unit 120 performs rendering processing of the model object based on the illumination model, and generates an image of the character. In this way, an image that is shaded by the light source of the illumination model can be generated as the character image.

また画像生成部120は、被写体の撮像画像に含まれる被写体の所定部位の部位画像と、キャラクタの画像の合成処理を行って、合成画像を生成してもよい。撮像画像は、例えばセンサ162が有するカラーセンサ164(カラーカメラ)により撮影される画像(RGB画像等のカラー画像)である。このカラーセンサ164とデプスセンサ166は別々に設けられていてもよい。例えばカラーセンサ164によって撮影された撮像画像から、被写体の所定部位の部位画像(例えば顔画像)が切り出され、切り出された部位画像が、キャラクタの画像に合成された合成画像が生成される。例えばキャラクタの所定部位に対応する部分に対して、被写体の部位画像が合成される。例えば、被写体の全体が映る撮像画像から、顔の部分を切り取ることで、所定部位である顔の部位画像である顔画像が取得される。撮像画像での顔の位置は、被写体情報取得部114により取得されたスケルトン情報(被写体情報)に基づき特定できる。   Further, the image generation unit 120 may generate a composite image by performing a combination process of a part image of a predetermined part of the subject included in the captured image of the subject and the character image. The captured image is, for example, an image (color image such as an RGB image) captured by a color sensor 164 (color camera) included in the sensor 162. The color sensor 164 and the depth sensor 166 may be provided separately. For example, a part image (for example, a face image) of a predetermined part of the subject is cut out from a captured image photographed by the color sensor 164, and a composite image is generated by combining the cut out part image with the character image. For example, a part image of the subject is synthesized with a part corresponding to a predetermined part of the character. For example, a face image that is a part image of a face that is a predetermined part is acquired by cutting out a face part from a captured image that shows the entire subject. The position of the face in the captured image can be specified based on the skeleton information (subject information) acquired by the subject information acquisition unit 114.

2.本実施形態の手法
次に本実施形態の手法について詳細に説明する。なお以下では、プレーヤの動きに応じてキャラクタを動作させるゲームに本実施形態の手法を適用した場合について説明するが、本実施形態の手法はこれに限定されず、様々なゲーム(RPGゲーム、音楽ゲーム、戦闘ゲーム、コミュニケーションゲーム、ロボットゲーム、カードゲーム、スポーツゲーム、或いはアクションゲーム等)に適用可能である。
2. Next, the method of this embodiment will be described in detail. In the following, the case where the method of the present embodiment is applied to a game in which a character moves according to the movement of the player will be described. However, the method of the present embodiment is not limited to this, and various games (RPG games, music Game, battle game, communication game, robot game, card game, sports game, action game, etc.).

2.1 ゲームの説明
まず本実施形態の画像生成システムにより実現されるゲームの例について説明する。本実施形態では図2のセンサ162によりプレーヤPL(広義には被写体)の動きを検出し、検出された動きを反映させたゲーム処理を行って、ゲーム画像を生成している。
2.1 Description of Game First, an example of a game realized by the image generation system of this embodiment will be described. In the present embodiment, the movement of the player PL (subject in a broad sense) is detected by the sensor 162 in FIG. 2, and a game process that reflects the detected movement is performed to generate a game image.

図2に示すように、センサ162(画像センサ)は、例えばその撮像方向(光軸方向)がプレーヤPL(ユーザ、操作者)の方に向くように設置されている。例えばセンサ162の撮像方向は、小さな子供についてもその全体を撮像できるように、水平面に対して俯角方向に設定されている。なお図2ではセンサ162は表示部190の横に設置されているが、設置位置はこれに限定されず、任意の位置(例えば表示部190の下部、上部等)に設置できる。   As shown in FIG. 2, the sensor 162 (image sensor) is installed so that the imaging direction (optical axis direction) faces the player PL (user, operator), for example. For example, the imaging direction of the sensor 162 is set in the depression direction with respect to the horizontal plane so that the entire child can be imaged. In FIG. 2, the sensor 162 is installed beside the display unit 190, but the installation position is not limited to this, and can be installed at an arbitrary position (for example, a lower part or an upper part of the display unit 190).

センサ162はカラーセンサ164とデプスセンサ166を含む。カラーセンサ164はカラー画像(RGB画像)を撮像するものであり、CMOSセンサやCCDなどにより実現できる。デプスセンサ166では、赤外線等の光を投射し、その投射光の反射強度や、投射光が戻ってくるまでの時間を検出することで、深度情報(デプス情報)が取得される。例えばデプスセンサ166は、赤外線を投光する赤外プロジェクタと、赤外線カメラにより構成できる。そして例えばTOF(Time Of Flight)方式により深度情報を取得する。深度情報は、その各画素位置に深度値(奥行き値)が設定され情報である。深度情報では、プレーヤやその周りの風景の深度値(奥行き値)が、例えばグレースケール値として設定される。   The sensor 162 includes a color sensor 164 and a depth sensor 166. The color sensor 164 captures a color image (RGB image) and can be realized by a CMOS sensor, a CCD, or the like. The depth sensor 166 projects light such as infrared rays and detects depth of reflection information (depth information) by detecting the reflection intensity of the projected light and the time until the projected light returns. For example, the depth sensor 166 can be configured by an infrared projector that projects infrared rays and an infrared camera. For example, depth information is acquired by a TOF (Time Of Flight) method. The depth information is information in which a depth value (depth value) is set at each pixel position. In the depth information, the depth value (depth value) of the player and the surrounding landscape is set as, for example, a gray scale value.

なお、センサ162は、カラーセンサ164とデプスセンサ166とが別々に設けられたセンサであってもよいし、カラーセンサ164とデプスセンサ166とが複合的に組み合わせられたセンサであってもよい。またデプスセンサ166はTOF方式以外の方式(例えばライトコーディング)のセンサであってもよい。また深度情報の取得手法としては種々の変形実施が可能であり、例えば超音波などを用いた測距センサなどにより深度情報を取得してもよい。   The sensor 162 may be a sensor in which the color sensor 164 and the depth sensor 166 are separately provided, or may be a sensor in which the color sensor 164 and the depth sensor 166 are combined. The depth sensor 166 may be a sensor other than the TOF method (for example, light coding). Various methods for obtaining depth information can be used. For example, depth information may be obtained by a distance measuring sensor using ultrasonic waves.

図4(A)、図4(B)は、各々、センサ162に基づき取得される深度情報、ボディーインデックス情報の例である。図4(A)は深度情報を概念的に示すものであり、この深度情報は、センサ162から見たプレーヤ等の被写体の距離を表す情報である。図4(B)のボディーインデックス情報は、人物領域を表す情報である。このボディーインデックス情報によりプレーヤのボディーの位置や形状を特定できる。   4A and 4B are examples of depth information and body index information acquired based on the sensor 162, respectively. FIG. 4A conceptually shows depth information, and this depth information is information representing the distance of a subject such as a player viewed from the sensor 162. The body index information in FIG. 4B is information representing a person area. The position and shape of the player's body can be specified by this body index information.

図5は、センサ162からのセンサ情報に基づき取得されるスケルトン情報の例である。図5ではスケルトン情報として、スケルトンを構成する骨の位置情報(3次元座標)が、関節(部位)C0〜C20の位置情報として取得されている。C0、C1、C2、C3、C4、C5、C6は、各々、腰、背骨、肩中央、右肩、左肩、首、頭に対応する。C7、C8、C9、C10、C11、C12は、各々、右肘、右手首、右手、左肘、左手首、左手に対応する。C13、C14、C15、C16、C17、C18、C19、C20は、各々、右腰、左腰、右膝、右かかと、右足、左膝、左かかと、左足に相当する。スケルトンを構成する各骨は、センサ162に映るプレーヤの各部位に対応するものとなる。例えば被写体情報取得部114は、センサ162からのセンサ情報(カラー画像情報、深度情報)に基づいて、プレーヤの3次元形状を特定する。そして3次元形状の情報や画像の動きベクトル(オプティカルフロー)などを用いて、プレーヤの各部位を推定し、各部位の関節の位置を推定する。そして推定された関節位置に対応する、深度情報での画素位置の2次元座標と、当該画素位置に設定された深度値に基づいて、スケルトンの関節の位置の3次元座標情報を求め、図5に示すようなスケルトン情報を取得する。取得されたスケルトン情報を用いることで、プレーヤの動き(手足などの部位の動きや位置の移動)を特定できるようになる。これにより、プレーヤの動きに応じてキャラクタを動作させることが可能になる。例えば図2においてプレーヤPLが手足を動かした場合に、これに連動して、表示部190に表示されるキャラクタ(プレーヤキャラクタ)の手足を動かすことが可能になる。またプレーヤPLが前後左右に移動すると、これに連動して、オブジェクト空間内でキャラクタを前後左右に移動させることが可能になる。   FIG. 5 is an example of skeleton information acquired based on sensor information from the sensor 162. In FIG. 5, position information (three-dimensional coordinates) of bones constituting the skeleton is acquired as position information of the joints (parts) C0 to C20 as the skeleton information. C0, C1, C2, C3, C4, C5, and C6 correspond to the waist, spine, center of shoulder, right shoulder, left shoulder, neck, and head, respectively. C7, C8, C9, C10, C11, and C12 correspond to the right elbow, right wrist, right hand, left elbow, left wrist, and left hand, respectively. C13, C14, C15, C16, C17, C18, C19, and C20 respectively correspond to the right hip, left hip, right knee, right heel, right foot, left knee, left heel, and left foot. Each bone constituting the skeleton corresponds to each part of the player reflected on the sensor 162. For example, the subject information acquisition unit 114 specifies the three-dimensional shape of the player based on sensor information (color image information and depth information) from the sensor 162. Then, using the information of the three-dimensional shape, the motion vector (optical flow) of the image, and the like, each part of the player is estimated, and the joint position of each part is estimated. Then, based on the two-dimensional coordinates of the pixel position in the depth information corresponding to the estimated joint position and the depth value set in the pixel position, the three-dimensional coordinate information of the position of the skeleton joint is obtained, and FIG. Acquire skeleton information as shown in. By using the acquired skeleton information, it is possible to specify the movement of the player (movement of a part such as a limb or movement of a position). This makes it possible to move the character according to the movement of the player. For example, when the player PL moves the limb in FIG. 2, the limb of the character (player character) displayed on the display unit 190 can be moved in conjunction with the movement. Further, when the player PL moves back and forth and right and left, the character can be moved back and forth and right and left in the object space in conjunction with the movement.

また本実施形態では、センサ162のカラーセンサ164によりプレーヤPLを撮影することで得られた撮像画像と、キャラクタ(プレーヤキャラクタ)の画像の合成画像を生成している。具体的には撮像画像から切り出された顔画像(広義には被写体画像、部位画像)と、キャラクタの画像の合成画像を生成する。   In this embodiment, a composite image of a captured image obtained by photographing the player PL by the color sensor 164 of the sensor 162 and an image of a character (player character) is generated. Specifically, a composite image of a face image (subject image, part image in a broad sense) cut out from a captured image and a character image is generated.

例えば図6では、キャラクタCHP(衣装)のモデルオブジェクトが用意されており、ポリゴンSCI(ビルボードポリゴン、スクリーン)には、撮像画像から切り出されたプレーヤPLの顔画像IMFが表示されている。キャラクタCHPのモデルオブジェクトは、顔(頭部)以外の複数の部位のオブジェクトで構成されており、綺麗な衣装を着たキャラクタとなっている。   For example, in FIG. 6, a model object of a character CHP (costume) is prepared, and the face image IMF of the player PL cut out from the captured image is displayed on the polygon SCI (billboard polygon, screen). The model object of the character CHP is composed of objects of a plurality of parts other than the face (head), and is a character wearing a beautiful costume.

そして図6では、仮想カメラVCの視点位置とキャラクタCHPの顔の位置を結ぶ線の延長線上に、ポリゴンSCIの顔画像IMFが表示されている。仮想カメラVC、キャラクタCHP、ポリゴンSCIの顔画像IMFを、このような配置関係に設定することで、キャラクタCHPの顔の部分にプレーヤの顔画像IMFが合成された画像を生成できるようになる。   In FIG. 6, a polygon SCI face image IMF is displayed on the extended line connecting the viewpoint position of the virtual camera VC and the face position of the character CHP. By setting the face image IMF of the virtual camera VC, the character CHP, and the polygon SCI in such an arrangement relationship, an image in which the face image IMF of the player is combined with the face portion of the character CHP can be generated.

なおキャラクタCHPに対する顔画像IMFの画像合成手法は、図6に示す手法には限定されない。例えばキャラクタCHPの顔(所定部位)を構成するオブジェクトに対して、顔画像IMF(被写体画像、部位画像)のテクスチャをマッピングするなどの種々の画像合成手法を採用できる。   Note that the image synthesis method of the face image IMF for the character CHP is not limited to the method shown in FIG. For example, various image synthesis methods such as mapping the texture of the face image IMF (subject image, part image) to the object constituting the face (predetermined part) of the character CHP can be adopted.

例えば図7(A)は、センサ162のカラーセンサ164により撮像されたプレーヤPLの撮像画像の例である。この撮像画像からプレーヤPLの顔画像IMFを切り出し(トリミングし)、図6の画像合成手法によりキャラクタCHPの画像と合成することで、図7(B)に示すような合成画像を生成できる。図7(B)では、顔の部分がプレーヤPLの顔画像IMFとなっており、顔以外の部分がCG画像であるキャラクタCHPの画像になっている。これによりプレーヤPLは、自分の分身であるキャラクタCHPに対して、童話やアニメの世界の主人公が着ているような衣装を着せて、ゲームをプレイできるため、ゲームの面白味やプレーヤの熱中度を向上できる。   For example, FIG. 7A shows an example of a captured image of the player PL captured by the color sensor 164 of the sensor 162. A face image IMF of the player PL is cut out (trimmed) from the captured image and synthesized with the image of the character CHP by the image synthesis method of FIG. 6, thereby generating a composite image as shown in FIG. In FIG. 7B, the face part is the face image IMF of the player PL, and the part other than the face is an image of the character CHP that is a CG image. As a result, the player PL can play the game with the character CHP as his character, wearing a costume that is worn by the main characters of the fairy tales and anime, so that the fun of the game and the enthusiasm of the player can be improved. It can be improved.

図8は、本実施形態の画像生成システムにより生成されて、図2の表示部190に表示されるゲーム画像の例である。プレーヤPLの顔画像IMFが合成されたキャラクタCHPは、例えばその手に魔法の杖STを持っている。そして図2のプレーヤPLが腕を動かすと、この腕の動きがセンサ162により検出されて、図5のスケルトン情報として、腕の骨が動いているスケルトンの情報が取得される。これにより、図8に示すゲーム画像上のキャラクタCHPの腕が動くようになり、魔法の杖STで、敵キャラクタEN1、EN2、EN3をヒットして攻撃できるようになる。そして敵を倒した数やボーナスポイントの獲得などによって、プレーヤのゲーム成績が演算される。   FIG. 8 is an example of a game image generated by the image generation system of the present embodiment and displayed on the display unit 190 of FIG. The character CHP combined with the face image IMF of the player PL has, for example, a magic wand ST in its hand. When the player PL in FIG. 2 moves the arm, the movement of the arm is detected by the sensor 162, and information on the skeleton in which the bone of the arm is moving is acquired as the skeleton information in FIG. As a result, the arm of the character CHP on the game image shown in FIG. 8 moves, and the enemy character EN1, EN2, EN3 can be hit and attacked with the magic wand ST. The player's game results are calculated based on the number of defeated enemies and the acquisition of bonus points.

このように本実施形態の手法によれば、プレーヤPLは、童話やアニメの主人公の衣装を、自分の分身であるキャラクタCHPに着せて、あたかもその主人公になったかのように感じながら、図8のようなゲームをプレイできるようになる。従って、子供などのプレーヤPLが熱中できる面白味のあるゲームの実現が可能になる。   As described above, according to the method of the present embodiment, the player PL puts the costumes of the main characters of fairy tales and anime on the character CHP, which is his own character, and feels as if he is the main character, as shown in FIG. You will be able to play games like this. Therefore, it is possible to realize an interesting game that the player PL such as a child can enjoy.

2.2 プレーヤの動きに応じたキャラクタの動作
本実施形態では、スケルトン情報を用いることで、プレーヤの動きに応じたキャラクタの動作を実現している。例えば図9において表示部190に表示されるキャラクタCHPは、複数のオブジェクトにより構成されるモデルオブジェクトとなっている。例えばポリゴン等のプリミティブ面で構成された3次元のCGオブジェクトでキャラクタCHPの画像が生成される。また図9に示すように、キャラクタCHPの画像として、当該モデルオブジェクトの顔の位置にプレーヤPL(被写体)の顔画像IMFが表示される画像が生成される。このようなキャラクタCHPと顔画像IMFの合成キャラクタ画像は、例えば図6で説明した画像合成手法により生成できる。
2.2 Character Action According to Player Movement In this embodiment, the character action according to the player movement is realized by using skeleton information. For example, the character CHP displayed on the display unit 190 in FIG. 9 is a model object composed of a plurality of objects. For example, an image of the character CHP is generated with a three-dimensional CG object composed of a primitive surface such as a polygon. As shown in FIG. 9, an image in which the face image IMF of the player PL (subject) is displayed at the face position of the model object is generated as an image of the character CHP. Such a combined character image of the character CHP and the face image IMF can be generated by, for example, the image combining method described with reference to FIG.

なお、図9では、キャラクタCHPに顔画像IMFを合成する場合について示しているが、本実施形態はこれに限定されるものでなく、顔画像IMFの合成は必須ではない。   Although FIG. 9 shows a case where the face image IMF is synthesized with the character CHP, the present embodiment is not limited to this, and the synthesis of the face image IMF is not essential.

本実施形態では、図9に示すようにプレーヤPL(被写体)が動いた場合に、このプレーヤPLの動きに連動して、表示部190に表示されるキャラクタCHPが動作する。例えばプレーヤPLが右に動いた場合に、それに応じて、表示部190に表示されるキャラクタCHPも右に動く。同様にプレーヤPLが左に動いた場合に、それに応じて、表示部190に表示されるキャラクタCHPも左に動く。   In this embodiment, when the player PL (subject) moves as shown in FIG. 9, the character CHP displayed on the display unit 190 operates in conjunction with the movement of the player PL. For example, when the player PL moves to the right, the character CHP displayed on the display unit 190 also moves to the right accordingly. Similarly, when the player PL moves to the left, the character CHP displayed on the display unit 190 also moves to the left accordingly.

具体的には本実施形態では、図5で説明したスケルトン情報を用いてキャラクタCHPの動作を制御している。例えばスケルトン情報に基づくモーションデータにより、キャラクタCHPのモーション再生を行って、キャラクタCHPを動作させる。   Specifically, in this embodiment, the movement of the character CHP is controlled using the skeleton information described with reference to FIG. For example, the motion of the character CHP is reproduced by the motion data based on the skeleton information, and the character CHP is operated.

図10はスケルトンを概念的に説明する図である。キャラクタCHPを動作させるスケルトンは、キャラクタCHPの位置に配置設定される3次元形状の骨格であり、SKは、このスケルトンをスクリーンSCSに投影したものを表している。スケルトンは、図5で説明したように複数の関節で構成されており、各関節の位置は3次元座標で表される。スケルトンは、図9のプレーヤPLの動きに連動して、その骨が動く。そして、スケルトンの骨が動くと、これに連動して、キャラクタCHPの当該骨に対応する部位も動くことになる。例えばプレーヤPLが腕を動かすと、これに連動して、スケルトンの腕の骨が動き、キャラクタCHPの腕も動くことになる。またプレーヤPLが足を動かすと、これに連動して、スケルトンの足の骨が動き、キャラクタCHPの足も動くことになる。またプレーヤPLが頭部を動かすと、これに連動して、スケルトンの頭部の骨が動き、キャラクタCHPの頭部も動くことになる。なお図10では、例えば仮想カメラVCの視点位置にセンサ162が配置され、仮想カメラVCの視線方向にセンサ162の撮像方向が向いているものとして想定されている。   FIG. 10 is a diagram conceptually illustrating the skeleton. The skeleton for moving the character CHP is a three-dimensional skeleton arranged and set at the position of the character CHP, and SK represents a projection of the skeleton on the screen SCS. As described with reference to FIG. 5, the skeleton is composed of a plurality of joints, and the position of each joint is represented by three-dimensional coordinates. The bone of the skeleton moves in conjunction with the movement of the player PL in FIG. When the bone of the skeleton moves, the part corresponding to the bone of the character CHP also moves in conjunction with this movement. For example, when the player PL moves his / her arm, the bone of the skeleton's arm moves and the arm of the character CHP moves accordingly. When the player PL moves his / her foot, the skeleton's foot bones move in conjunction with this, and the character CHP's feet also move. When the player PL moves his / her head, the skeleton's head bone moves and the character CHP's head moves accordingly. In FIG. 10, for example, it is assumed that the sensor 162 is disposed at the viewpoint position of the virtual camera VC, and the imaging direction of the sensor 162 is oriented in the line-of-sight direction of the virtual camera VC.

このように本実施形態では、プレーヤPLの動きに連動してキャラクタCHPが動作する。このため、キャラクタCHPが、自身の本当の分身であるかのような感覚をプレーヤに与えることができる。   Thus, in this embodiment, the character CHP operates in conjunction with the movement of the player PL. For this reason, it is possible to give the player a feeling as if the character CHP is his true alternation.

また本実施形態では、キャラクタCHPとして、複数のオブジェクトにより構成されるモデルオブジェクトを用いる。そして、オブジェクト空間(3次元仮想空間)において、プレーヤPL(被写体)の位置に対応する位置に配置される当該モデルオブジェクトのレンダリング処理を行うことで、キャラクタCHPの画像を生成する。例えば図11において、キャラクタCHPは、オブジェクト空間内において、図9でのプレーヤPLの位置に対応する位置に配置される。例えばプレーヤPLが前後左右に移動すると、キャラクタCHPもオブジェクト空間内において前後左右に移動することになる。   In this embodiment, a model object composed of a plurality of objects is used as the character CHP. Then, an image of the character CHP is generated by performing rendering processing of the model object arranged at a position corresponding to the position of the player PL (subject) in the object space (three-dimensional virtual space). For example, in FIG. 11, the character CHP is arranged at a position corresponding to the position of the player PL in FIG. 9 in the object space. For example, when the player PL moves forward / backward / left / right, the character CHP also moves forward / backward / left / right in the object space.

そして、モデルオブジェクトであるキャラクタCHPのレンダリング処理は、図11に示すように光源LSを用いた照明モデルに基づいて行われる。具体的には、照明モデルに基づくライティング処理(シェーディング処理)が行われる。このライティング処理は、光源LSの情報(光源ベクトル、光源色、明るさ、光源タイプ等)や、仮想カメラVCの視線ベクトルや、キャラクタCHPを構成するオブジェクトの法線ベクトルや、オブジェクトのマテリアル(色、材質)などを用いて行われる。なお照明モデルとしては、アンビエント光とディフューズ光だけを考慮したランバードの拡散照明モデルや、アンビエント光、ディフューズ光に加えてスペキュラ光も考慮するフォンの照明モデルやブリン・フォンの照明モデルなどがある。   And the rendering process of the character CHP which is a model object is performed based on the illumination model using the light source LS as shown in FIG. Specifically, lighting processing (shading processing) based on the illumination model is performed. This lighting processing includes information on the light source LS (light source vector, light source color, brightness, light source type, etc.), a line-of-sight vector of the virtual camera VC, a normal vector of an object constituting the character CHP, and an object material (color). , Material) and the like. Illumination models include the Lumbard diffuse lighting model that considers only ambient light and diffuse light, the phone lighting model that considers specular light in addition to ambient light and diffuse light, and the Bling phone lighting model. is there.

このように照明モデルに基づくライティング処理を行うことで、キャラクタCHPに対して光源LSによる適切な陰影づけがついたリアルで高品質な画像を生成できるようになる。例えばスポットライトの光源を用いてライティング処理を行えば、スポットライトにより照らされているように見えるキャラクタCHP(衣装)の画像を生成できるようになり、プレーヤの仮想現実感等を向上できる。   By performing the lighting process based on the illumination model in this way, it is possible to generate a real and high-quality image in which the character CHP is appropriately shaded by the light source LS. For example, if lighting processing is performed using a spotlight light source, an image of a character CHP (costume) that appears to be illuminated by the spotlight can be generated, and the virtual reality of the player can be improved.

2.3 キャラクタの動作の補正処理
以上のように本実施形態では、センサ162により取得されたプレーヤPLのスケルトン情報を用いることで、プレーヤPLの動きに応じたキャラクタCHPの動作を実現している。
2.3 Character Movement Correction Processing As described above, in this embodiment, the action of the character CHP according to the movement of the player PL is realized by using the skeleton information of the player PL acquired by the sensor 162. .

しかしながら、スケルトン情報は、センサ162によりプレーヤPLをセンシングすることで取得されるものであるため、スケルトン情報による骨格認識には不正(誤り)がある場合がある。例えば図12(A)〜図12(C)はスケルトン情報による骨格認識の不正を原因とする不具合の発生の一例を説明する図である。   However, since the skeleton information is acquired by sensing the player PL by the sensor 162, there are cases where the skeleton recognition based on the skeleton information is incorrect (error). For example, FIG. 12 (A) to FIG. 12 (C) are diagrams for explaining an example of the occurrence of a malfunction caused by skeletal recognition fraud based on skeleton information.

図12(A)ではセンサ162に対してプレーヤPLが正対しており、腕AMR、AMLがセンサ162の撮像範囲(センシング範囲)に入っている。このため、腕AMR、AMLについての骨格認識を適正に行うことができる。また図12(B)では、センサ162に正対していたプレーヤPLが時計回りに回転しているが、この場合にも腕AMR、AMLがセンサ162の撮像範囲に入っている。このため、腕AMR、AMLについての骨格認識を適正に行うことができる。   In FIG. 12A, the player PL faces the sensor 162, and the arms AMR and AML are within the imaging range (sensing range) of the sensor 162. For this reason, the skeleton recognition about arm AMR and AML can be performed appropriately. In FIG. 12B, the player PL facing the sensor 162 is rotating clockwise. In this case, the arms AMR and AML are also in the imaging range of the sensor 162. For this reason, the skeleton recognition about arm AMR and AML can be performed appropriately.

一方、図12(C)では、プレーヤPLがセンサ162に対して真横を向いている。このため、腕AMLについては撮像範囲に入るが、腕AMRについては撮像範囲に入らなくなる。即ち腕AMRが、プレーヤPLの胴体に隠れてしまい、センサ162から見えなくなってしまう。従って、図12(C)の状態でセンサ162からのセンサ情報に基づき取得されたスケルトン情報には、その骨格認識に不正(誤り)がある可能性が極めて高い。従って、このような不正のあるスケルトン情報を用いて、図9のようにキャラクタCHPを動作させようとすると、キャラクタCHPの動作が誤った動きになり、生成される画像が不適切で不自然な画像になってしまう。例えばキャラクタCHPの腕(AMRに対応する腕)があり得ない方向に折れ曲がったりするなど、あたかも骨が壊れてしまったかのように見える画像が生成されてしまう。   On the other hand, in FIG. 12C, the player PL is facing sideways with respect to the sensor 162. For this reason, the arm AML enters the imaging range, but the arm AMR does not enter the imaging range. That is, the arm AMR is hidden behind the body of the player PL and cannot be seen from the sensor 162. Therefore, the skeleton information acquired based on the sensor information from the sensor 162 in the state of FIG. 12C has a very high possibility that the skeleton recognition is incorrect (error). Therefore, if the character CHP is operated as shown in FIG. 9 using such illegal skeleton information, the character CHP moves in an incorrect manner, and the generated image is inappropriate and unnatural. It becomes an image. For example, an image that looks as if the bone has been broken is generated, such as bending the arm of the character CHP (an arm corresponding to the AMR) in a direction where there is no possibility.

図13(A)〜図14(B)はスケルトン情報による骨格認識の不正を原因とする不具合の発生の他の例を説明する図である。   FIG. 13A to FIG. 14B are diagrams for explaining another example of the occurrence of a malfunction caused by skeleton recognition fraud based on skeleton information.

図13(A)では、プレーヤPLはセンサ162から遠い距離に位置している。そしてプレーヤPLは、面SAを有する移動エリアAR(プレイエリア)において自在に移動することができ、図13(B)では、センサ162から遠い距離に位置していたプレーヤPLが、センサ162の方に近づいている。即ち、図9においてプレーヤPLは、前方方向に移動しており、センサ162や表示部190に近づいている。   In FIG. 13A, the player PL is located at a distance far from the sensor 162. The player PL can freely move in the moving area AR (play area) having the surface SA. In FIG. 13B, the player PL that is located at a distance far from the sensor 162 is closer to the sensor 162. Is approaching. That is, in FIG. 9, the player PL is moving in the forward direction and is approaching the sensor 162 and the display unit 190.

図14(A)は、図13(A)のようにプレーヤPLがセンサ162から遠い距離に位置している場合でのセンサ162(カラーセンサ164)の撮像画像の例である。図14(A)ではプレーヤPLの全体が撮像範囲に入っている。   FIG. 14A shows an example of a captured image of the sensor 162 (color sensor 164) when the player PL is located at a distance far from the sensor 162 as shown in FIG. In FIG. 14A, the entire player PL is in the imaging range.

一方、図14(B)は、図13(B)のようにプレーヤPLがセンサ162に接近した場合でのセンサ162の撮像画像の例である。図14(B)では、プレーヤPLが接近することで、センサ162の撮像範囲(センシング範囲)にプレーヤPLが収まらなくなっており、足の部分が撮像画像に入らなくなっている。従って、図14(B)のような状態で、センサ162からのセンサ情報(撮像画像、深度情報等)に基づきスケルトン情報を取得しても、当該スケルトン情報において、プレーヤPLの足の部分の骨格認識は不正なものになっている。従って、当該スケルトン情報に基づいて、図9のようにキャラクタCHPを動作させた場合に、キャラクタCHPの動作が誤った動きになり、生成される画像が不適切で不自然な画像になってしまう。例えばキャラクタCHPの足の方向があり得ない方向に曲がるなど、あたかも骨が壊れてしまったかのように見える画像が生成されてしまう。   On the other hand, FIG. 14B is an example of a captured image of the sensor 162 when the player PL approaches the sensor 162 as shown in FIG. In FIG. 14B, when the player PL approaches, the player PL does not fit in the imaging range (sensing range) of the sensor 162, and the foot portion does not enter the captured image. 14B, even if skeleton information is acquired based on sensor information (captured image, depth information, etc.) from the sensor 162 in the state shown in FIG. Recognition is fraudulent. Therefore, when the character CHP is moved as shown in FIG. 9 based on the skeleton information, the character CHP moves incorrectly, and the generated image becomes an inappropriate and unnatural image. . For example, an image that looks as if the bone has been broken is generated, such as turning in the direction in which the foot of the character CHP is impossible.

このような不具合の発生を防止するために、本実施形態では、スケルトン情報によるプレーヤPL(被写体)の骨格認識に不正が発生すると判断(予測、推測)される場合に、スケルトン情報に基づくキャラクタCHPの動作の補正処理を行う。例えばキャラクタCHPのモーションの補正処理を行う。   In order to prevent the occurrence of such a problem, in the present embodiment, when it is determined (predicted or inferred) that the skeleton recognition of the player PL (subject) based on the skeleton information will occur, the character CHP based on the skeleton information. The process of correcting the operation is performed. For example, the motion correction process for the character CHP is performed.

具体的には、補正処理としてモーションブレンドを行う。例えばプレーヤPLの骨格認識に不正が発生すると判断される場合に、スケルトン情報に基づくスケルトンモーションと、キャラクタの基準モーションとのモーションブレンドを行う。   Specifically, motion blending is performed as correction processing. For example, when it is determined that an illegality occurs in the skeleton recognition of the player PL, the motion blend of the skeleton motion based on the skeleton information and the reference motion of the character is performed.

図15はモーションブレンドについての説明図である。図15においてスケルトンモーションMSは、スケルトン情報に基づくモーションである。即ち、センサ情報により取得されたスケルトン情報による骨格認識により規定されるキャラクタCHPのモーションである。例えばスケルトンモーションMSは、スケルトン情報が含む骨の位置(関節位置)や骨の回転角度等により規定されるキャラクタCHPのモーション(姿勢)である。   FIG. 15 is an explanatory diagram of motion blending. In FIG. 15, a skeleton motion MS is a motion based on skeleton information. That is, the motion of the character CHP defined by the skeleton recognition based on the skeleton information acquired from the sensor information. For example, the skeleton motion MS is a motion (posture) of the character CHP defined by a bone position (joint position), a bone rotation angle, and the like included in the skeleton information.

一方、基準モーションMFは、キャラクタCHPの基準となるモーション(基準姿勢)として予め用意されているものである。この基準モーションMFのデータは、図1のモーションデータ記憶部174に記憶されており、基準姿勢での骨の位置(関節位置)や骨の回転角度などを含むデータである。この基準モーションMFをキャラクタCHPに適用することで、キャラクタCHPの姿勢は、基本的な立ち姿勢になる。   On the other hand, the reference motion MF is prepared in advance as a motion (reference posture) serving as a reference for the character CHP. The data of the reference motion MF is stored in the motion data storage unit 174 in FIG. 1 and includes data such as the bone position (joint position) and the bone rotation angle in the reference posture. By applying this reference motion MF to the character CHP, the posture of the character CHP becomes a basic standing posture.

そして図15に示すように本実施形態では、プレーヤPLの骨格認識に不正が発生すると判断される場合に、スケルトンモーションMSと基準モーションMFのモーションブレンドを行い、得られたモーションMTによりキャラクタCHPを動作させる。例えばスケルトンモーションMSの腕の骨BSR、BSLと、基準モーションの腕の骨BFR、BFLのモーションブレンドを行うことで、モーションMTの腕の骨BR、BLを位置や回転角度を求める。   As shown in FIG. 15, in this embodiment, when it is determined that an illegality occurs in the skeleton recognition of the player PL, the motion blend of the skeleton motion MS and the reference motion MF is performed, and the character CHP is converted by the obtained motion MT. Make it work. For example, by performing a motion blend of the bones BSR and BSL of the arms of the skeleton motion MS and the bones BFR and BFL of the arms of the reference motion, the positions and rotation angles of the bones BR and BL of the motion MT are obtained.

このようなモーションブレンドを行えば、スケルトンモーションMSに不正な骨があった場合にも、適正な骨より構成される基準モーションMFがモーションブレンドされることで、スケルトンモーションMSの不正な骨による悪影響を低減できる。   If such motion blending is performed, even if there is an illegal bone in the skeleton motion MS, the reference motion MF composed of the appropriate bones is motion blended, so that the skeleton motion MS has an adverse effect due to the incorrect bone. Can be reduced.

例えば図12(C)では、プレーヤPLの腕AMRに対応するスケルトンモーションMSの腕の骨に不正が生じる。この点、本実施形態のモーションブレンドによる補正処理を行えば、このスケルトンモーションMSの不正な腕の骨に対して、基準モーションMFの適正な腕の骨(基準骨)がブレンドされるようになり、スケルトンモーションMSの不正な骨による悪影響を低減できる。例えばスケルトンモーションMSでの腕の骨が、不適切な方向に折れ曲がっていた場合にも、基準モーションMFの適正な腕の骨がブレンドされることで、不適切な方向への腕の骨の折れ曲がりを適正できる。この結果、キャラクタCHPの画像が不適切になったり、不自然になってしまう事態を抑制できる。   For example, in FIG. 12C, an irregularity occurs in the bone of the arm of the skeleton motion MS corresponding to the arm AMR of the player PL. In this regard, if the correction processing by the motion blend of this embodiment is performed, the appropriate arm bone (reference bone) of the reference motion MF is blended with the illegal arm bone of the skeleton motion MS. The adverse effects of the skeleton motion MS caused by unauthorized bones can be reduced. For example, even if the arm bone in the skeleton motion MS is bent in an inappropriate direction, the appropriate arm bone in the reference motion MF is blended, so that the arm bone is bent in an inappropriate direction. Can be appropriate. As a result, the situation in which the image of the character CHP becomes inappropriate or unnatural can be suppressed.

また図14(B)では、プレーヤPLの足が撮像範囲に入らないことで、この足に対応するスケルトンモーションMSの足(脚)の骨に不正が生じる。この点、本実施形態のモーションブレンドによる補正処理を行えば、このスケルトンモーションMSの不正な足の骨に対して、基準モーションMFの適正な足の骨がブレンドされるようになり、スケルトンモーションMSの不正な骨による悪影響を低減できる。例えばスケルトンモーションMSでの足の骨が、不適切な方向に折れ曲がっていた場合にも、基準モーションMFの適正な足の骨がブレンドされることで、不適切な方向への骨の折れ曲がりを適正できる。この結果、キャラクタCHPの画像が不適切になったり、不自然になってしまう事態を抑制できる。   Further, in FIG. 14B, the player PL's foot does not enter the imaging range, so that the skeleton motion MS corresponding to this foot has an injustice in the bone of the foot (leg). In this regard, if the correction process by the motion blend of this embodiment is performed, the leg bones of the reference motion MF are blended with the illegal leg bones of the skeleton motion MS, and the skeleton motion MS is blended. The adverse effects of incorrect bones can be reduced. For example, even if the bone of the foot in the skeleton motion MS is bent in an inappropriate direction, the bone of the appropriate foot in the reference motion MF is blended, so that the bone is bent in the incorrect direction. it can. As a result, the situation in which the image of the character CHP becomes inappropriate or unnatural can be suppressed.

またモーションブレンドの手法によれば、プレーヤPLをセンシングしたセンサ情報に基づくスケルトンモーションMSの影響を、ブレンド後のモーションMTに反映できる。従って、プレーヤPLの動きも反映させた補正処理を実現できるという効果がある。そして後述するように、モーションブレンドを行う場合には、図15のスケルトンモーションMSのブレンド率と基準モーションMFのブレンド率を時間経過に応じて変化させることが望ましい。このようにすれば、キャラクタCHPの姿勢を、スケルトンモーションMSによる姿勢から、基準モーションMFによる姿勢に時間経過に伴い徐々に変化させることが可能になり、より自然に見えるキャラクタの動作画像を生成できるようになる。   Further, according to the motion blending method, the influence of the skeleton motion MS based on the sensor information sensed by the player PL can be reflected in the blended motion MT. Accordingly, there is an effect that it is possible to realize a correction process that reflects the movement of the player PL. As will be described later, when motion blending is performed, it is desirable to change the blend rate of the skeleton motion MS and the blend rate of the reference motion MF in FIG. 15 as time elapses. In this way, the posture of the character CHP can be gradually changed from the posture based on the skeleton motion MS to the posture based on the reference motion MF as time elapses, and a motion image of the character that looks more natural can be generated. It becomes like this.

なお本実施形態では、プレーヤPLの骨格認識において不正が発生すると判断される骨に対して、補正処理を行う。具体的には、図15のモーションブレンドを行う場合に、骨格認識において不正が発生すると判断される骨についてのみ、モーションブレンドを行う。即ち、キャラクタCHPのスケルトンの全体である全ての骨についてモーションブレンドを行うのではなく、不正となる骨に対してのみモーションブレンドを行う。例えば不正となった骨の位置(関節位置)や回転角度についてのみブレンド処理を行う。例えば図12(C)の場合には、腕AMRに対応する骨に対してのみ、モーションブレンドを行う。図14(B)の場合には足に対応する骨に対してのみ、モーションブレンドを行う。このようにすれば、スケルトンの全体についてモーションブレンドを行う場合に比べて、処理負荷を大幅に低減できるようになる。   In the present embodiment, correction processing is performed on bones that are determined to be fraudulent in player PL's skeleton recognition. Specifically, when performing the motion blend in FIG. 15, the motion blend is performed only for bones that are determined to be illegal in skeleton recognition. That is, motion blending is not performed on all bones that are the entire skeleton of the character CHP, but motion blending is performed only on illegal bones. For example, the blend process is performed only for the position (joint position) and the rotation angle of the bone that has become illegal. For example, in the case of FIG. 12C, motion blending is performed only on the bone corresponding to the arm AMR. In the case of FIG. 14B, motion blending is performed only on the bone corresponding to the foot. In this way, the processing load can be greatly reduced compared to the case where motion blending is performed on the entire skeleton.

また本実施形態では、プレーヤPL(被写体)の骨格認識に不正が発生すると判断される場合に、スケルトン情報に基づくスケルトンモーションを、所与のモーションに差し替えるモーション差し替えを、補正処理として行ってもよい。   In the present embodiment, when it is determined that the skeleton recognition of the player PL (subject) is incorrect, the motion replacement that replaces the skeleton motion based on the skeleton information with the given motion may be performed as the correction processing. .

例えば図16において、骨格認識に不正が発生すると判断される場合に、スケルトンモーションMSを、基準モーションMFに差し替える。モーションの差し替え先となる基準モーションMFのデータは、図1のモーションデータ記憶部174に記憶されている。骨格認識に不正が発生すると判断される場合には、この基準モーションMFのデータをモーションデータ記憶部174から読み出して、モーション差し替えの処理を行う。   For example, in FIG. 16, when it is determined that the skeleton recognition is illegal, the skeleton motion MS is replaced with the reference motion MF. Data of the reference motion MF, which is a motion replacement destination, is stored in the motion data storage unit 174 in FIG. When it is determined that the skeleton recognition is illegal, the data of the reference motion MF is read from the motion data storage unit 174 and the motion replacement process is performed.

例えば図16では、スケルトンモーションMSの足の骨BSR2、BSL2が不正となっている。即ち図14(B)のようにプレーヤPLの足の部分がセンサ162の撮像範囲に入っていない場合には、センサ162によっては足を検出できないため、センサ情報によって取得されたスケルトン情報による骨格認識において、足の骨に不正が発生する。例えばスケルトン情報が各骨の信頼度情報を含む場合に、足の骨についての信頼度が非常に低い値になる。即ち、プレーヤPLのスケルトン情報を求める際に、図14(B)のようにプレーヤPLの足を検出できない場合には、推定処理により足の骨の位置や回転角度を特定することになる。そして図14(B)では足を検出できていないため、足の骨の推定処理の信頼度が非常に低いことが、スケルトン情報が含む信頼度情報により知らされる。この場合に信頼度が低い足の骨の情報を用いて、キャラクタCHPのモーション(姿勢)を決定すると、図16のスケルトンモーションMSのように、足の骨BSR2、BSL2が不自然な方向に曲がったような姿勢になってしまい、生成される画像が不適切な画像になってしまう。   For example, in FIG. 16, the bones BSR2 and BSL2 of the leg of the skeleton motion MS are illegal. That is, as shown in FIG. 14B, when the foot portion of the player PL is not within the imaging range of the sensor 162, the foot cannot be detected by the sensor 162, and thus the skeleton recognition based on the skeleton information obtained from the sensor information. Injustice occurs in the foot bones. For example, when the skeleton information includes the reliability information of each bone, the reliability of the foot bone becomes a very low value. In other words, when the player PL's skeleton information is obtained and the player's PL foot cannot be detected as shown in FIG. 14B, the position and rotation angle of the foot bone are specified by the estimation process. In FIG. 14B, since the foot is not detected, it is notified by the reliability information included in the skeleton information that the reliability of the foot bone estimation process is very low. In this case, when the motion (posture) of the character CHP is determined using information on the bone of the foot with low reliability, the bones BSR2 and BSL2 of the foot are bent in an unnatural direction as in the skeleton motion MS of FIG. The resulting image becomes an inappropriate image.

この点、図16では、スケルトンモーションMSから基準モーションMFにモーション差し替えが行われる。これにより、曲がった方向の骨BSR2、BLS2が、真っ直ぐな骨BFR2、BFL2に差し替えられるようになる。即ち基準モーションMFに基づく適正な骨BFR2、BFL2に置き換わる。従って、足が不自然な方向に曲がってみるような不適切な画像が生成されてしまうのを抑制できる。   In this regard, in FIG. 16, motion replacement is performed from the skeleton motion MS to the reference motion MF. Thereby, the bones BSR2 and BLS2 in the bent direction are replaced with straight bones BFR2 and BFL2. That is, the appropriate bones BFR2 and BFL2 based on the reference motion MF are replaced. Therefore, it is possible to suppress the generation of an inappropriate image in which the foot is bent in an unnatural direction.

2.4 補正処理の具体例
次に、本実施形態の補正処理の具体例について説明する。図17(A)〜図17(D)は、図12(A)〜図12(C)で説明した不具合の発生を防止する補正処理の具体例を示す図である。
2.4 Specific Example of Correction Processing Next, a specific example of correction processing according to the present embodiment will be described. FIGS. 17A to 17D are diagrams illustrating specific examples of correction processing for preventing the occurrence of the problem described with reference to FIGS. 12A to 12C.

まず図17(A)に示すように、図5で説明したスケルトン情報から、スケルトンの右肩位置C3と左肩位置C4を取得し、右肩位置C3と左肩位置C4を結ぶ線LSを求める。そして、この線LSの角度θに基づいて、プレーヤPLの左腕又は右腕の一方の腕の骨に不正が発生するか否かを判断する。   First, as shown in FIG. 17A, the right shoulder position C3 and the left shoulder position C4 of the skeleton are acquired from the skeleton information described in FIG. 5, and a line LS connecting the right shoulder position C3 and the left shoulder position C4 is obtained. Then, based on the angle θ of the line LS, it is determined whether or not fraud occurs in the bone of one of the left arm and the right arm of the player PL.

例えば図17(B)〜図17(D)では、角度θは、線LSと仮想カメラVCの視線方向DVとのなす角度になっている。ここで、センサ162は、オブジェクト空間において仮想カメラVCの位置に配置設定されているものと想定されている。   For example, in FIGS. 17B to 17D, the angle θ is an angle formed by the line LS and the visual line direction DV of the virtual camera VC. Here, the sensor 162 is assumed to be arranged and set at the position of the virtual camera VC in the object space.

そして図17(B)では、図12(A)に示すように、センサ162に対してプレーヤPLが正面方向を向いて正対しているため、角度θ=90度となっている。この場合には図12(A)のように、センサ162によりプレーヤPLの両腕が適正に検出されていると考えられる。従って、スケルトン情報による骨格認識には不正が発生していないと判断する。   In FIG. 17B, as shown in FIG. 12A, since the player PL faces the sensor 162 in the front direction, the angle θ is 90 degrees. In this case, it is considered that both arms of the player PL are properly detected by the sensor 162 as shown in FIG. Therefore, it is determined that there is no fraud in the skeleton recognition based on the skeleton information.

図17(C)では、図12(B)のようにプレーヤPLが時計回りに回転しており、線LSと視線方向DVのなす角度θは、90度よりも大きくなっている。この場合にも、図12(B)に示すように、センサ162によりプレーヤPLの両腕が適正に検出されていると考えられる。従って、骨格認識に不正が発生していないと判断する。   In FIG. 17C, the player PL rotates clockwise as shown in FIG. 12B, and the angle θ formed by the line LS and the line-of-sight direction DV is greater than 90 degrees. Also in this case, it is considered that both arms of the player PL are properly detected by the sensor 162, as shown in FIG. Therefore, it is determined that there is no fraud in skeleton recognition.

一方、図17(D)では、図17(C)に対して、プレーヤPLが更に回転しており、角度θが更に大きくなっている。例えばθ≧90度+60度=150度になっている。この場合には、例えば図12(C)のようにプレーヤPLが真横を向いた場合と同様に、プレーヤPLの一方の腕(例えば右腕)が、例えば胴体等に隠れて、センサ162により適正に検出されてないと考えられる。従って、骨格認識に不正が発生していると判断(予測、推測)する。そして、一方の腕(右腕)の骨に対する補正処理を行う。具体的には、図15で説明したように、不正と判断された一方の腕(右腕)の骨について、スケルトン情報に基づくスケルトンモーションMSと、基準モーションMFとのモーションブレンドを行う。より具体的には、骨格認識において不正が発生すると判断される一方の腕の骨についてのみ、モーションブレンドを行う。   On the other hand, in FIG. 17D, the player PL is further rotated with respect to FIG. 17C, and the angle θ is further increased. For example, θ ≧ 90 degrees + 60 degrees = 150 degrees. In this case, for example, as shown in FIG. 12C, one arm (for example, the right arm) of the player PL is hidden by, for example, the torso, etc. It is thought that it was not detected. Therefore, it is determined (predicted, guessed) that fraud has occurred in the skeleton recognition. Then, correction processing is performed on the bone of one arm (right arm). Specifically, as described with reference to FIG. 15, the motion blend of the skeleton motion MS based on the skeleton information and the reference motion MF is performed on the bone of one arm (right arm) determined to be illegal. More specifically, motion blending is performed only on the bones of one arm that are determined to be illegal in skeleton recognition.

このようにすれば、プレーヤPLが回転することで、一方の腕がプレーヤPLの胴体等に隠れてしまい、骨格認識に不正が発生すると予測される場合に、当該一方の腕の骨に対して補正処理が行われるようになる。例えば当該一方の腕の骨について、基準モーションMFの骨(基準骨)とのモーションブレンドが行われるようになる。従って、プレーヤPLが回転等して一方の腕が胴体等に隠れるような事態が生じた場合にも、表示部190には、適正なモーションで動作するキャラクタCHPが表示されるようになり、生成されるゲーム画像が不適切で不自然な画像になってしまう事態を抑制できる。   In this way, when the player PL rotates and one arm is hidden behind the player PL's body and the like, and it is predicted that the skeleton recognition will be fraudulent, Correction processing is performed. For example, motion blending with the bone (reference bone) of the reference motion MF is performed on the bone of the one arm. Accordingly, even when the player PL is rotated or the like and one arm is hidden behind the torso or the like, the character CHP that operates in an appropriate motion is displayed on the display unit 190 and generated. It is possible to suppress a situation in which the game image to be played becomes an inappropriate and unnatural image.

なお、スケルトンモーションMSと基準モーションMFのモーションブレンドを行う場合には、スケルトンモーションMSのブレンド率と基準モーションMFのブレンド率を時間経過に応じて変化させることが望ましい。   In addition, when performing the motion blend of the skeleton motion MS and the reference motion MF, it is desirable to change the blend rate of the skeleton motion MS and the blend rate of the reference motion MF with time.

例えば図18ではタイミングt1において、スケルトン情報による骨格認識に不正が発生すると判断されている。例えば図17(D)のように角度θが所定角度以上(例えば150度以上)になっており、骨格認識に不正が発生すると予測されている。この場合には、スケルトンモーションMS(MS1、MS2、MS3、MS4・・・)と基準モーションMF(MF1、MF2、MF3、MF4・・・・)のモーションブレンドを行うと共に、スケルトンモーションMSのブレンド率αSと、基準モーションMFのブレンド率αFを、タイミングt1からの時間経過に伴い変化させる。例えばスケルトンモーションMSのブレンド率αSについては、タイミングt1からの時間経過に伴い徐々に小さくする。一方、基準モーションMFのブレンド率αFについては、タイミングt1からの時間経過に伴い徐々に大きくする。これにより、各タイミングt1、t2、t3、t4・・・でのキャラクタのモーションMT(MT1、MT2、MT3、MT4・・・)を生成できるようになる。   For example, in FIG. 18, it is determined that the skeleton recognition based on the skeleton information is illegal at the timing t1. For example, as shown in FIG. 17D, the angle θ is equal to or greater than a predetermined angle (for example, 150 degrees or more), and it is predicted that an illegality occurs in the skeleton recognition. In this case, the motion blend of the skeleton motion MS (MS1, MS2, MS3, MS4...) And the reference motion MF (MF1, MF2, MF3, MF4...) Is performed, and the blend rate of the skeleton motion MS. αS and the blend rate αF of the reference motion MF are changed with the passage of time from the timing t1. For example, the blend rate αS of the skeleton motion MS is gradually decreased as time elapses from the timing t1. On the other hand, the blend rate αF of the reference motion MF is gradually increased as time elapses from the timing t1. This makes it possible to generate a character motion MT (MT1, MT2, MT3, MT4...) At each timing t1, t2, t3, t4.

このようにすれば、タイミングt1では、スケルトンモーションMSのブレンドの割合が最も大きい一方で、基準モーションMFのブレンドの割合が最も小さくなる。そしてタイミングt1からの時間経過に伴い、スケルトンモーションMSのブレンドの割合が徐々に小さくなると共に、基準モーションMFのブレンドの割合が徐々に大きくなるようなモーションブレンドが行われるようになる。従って、プレーヤPLの動きに基づくスケルトンモーションMSから、キャラクタCHPの基準姿勢に基づく基準モーションMFへと、キャラクタCHPの姿勢を徐々に変化させることが可能になる。従って、プレーヤPLの動きを、ある程度反映させながら、骨格認識の不正を原因とする不具合の発生を抑制できるモーションブレンドを実現できる。   In this way, at the timing t1, the blend ratio of the skeleton motion MS is the largest, while the blend ratio of the reference motion MF is the smallest. As the time elapses from the timing t1, the blend ratio of the skeleton motion MS is gradually decreased, and the motion blend is performed so that the blend ratio of the reference motion MF is gradually increased. Therefore, the posture of the character CHP can be gradually changed from the skeleton motion MS based on the motion of the player PL to the reference motion MF based on the reference posture of the character CHP. Therefore, it is possible to realize a motion blend that can suppress the occurrence of problems caused by skeleton recognition fraud while reflecting the movement of the player PL to some extent.

また本実施形態では、センサ162からのプレーヤPLの距離に基づいて、スケルトン情報の足の骨に不正が発生すると判断される場合に、当該足の骨についての補正処理を行う。具体的には図16で説明したように、足の骨に不正が発生すると判断される場合に、スケルトン情報の足の骨BSR2、BSL2を、基準骨BFR2、BFL2に差し替える。   Further, in the present embodiment, when it is determined that an irregularity occurs in the foot bone of the skeleton information based on the distance of the player PL from the sensor 162, correction processing is performed on the foot bone. Specifically, as described with reference to FIG. 16, when it is determined that an injustice occurs in the bone of the foot, the bones BSR2 and BSL2 of the skeleton information are replaced with the reference bones BFR2 and BFL2.

例えば図19(A)では、センサ162からのプレーヤPLの距離が遠い(所定距離よりも長い)と判断される。この場合には、プレーヤPLの動きを検出することで得られたスケルトン情報によるスケルトンモーションMSを用いて、キャラクタCHPを動作させる。これによりプレーヤPLの動きに応じたキャラクタCHPの動作を実現できる。   For example, in FIG. 19A, it is determined that the player PL is far from the sensor 162 (longer than a predetermined distance). In this case, the character CHP is operated using the skeleton motion MS based on the skeleton information obtained by detecting the movement of the player PL. Thereby, the movement of the character CHP according to the movement of the player PL can be realized.

一方、図19(B)では、プレーヤPLがセンサ162の方に近づいており、センサ162からのプレーヤPLの距離が近い(所定距離よりも短い)と判断される。この場合に、スケルトン情報に基づくスケルトンモーションMSを、所与のモーションに差し替えるモーション差し替えを行う。具体的には図16に示すように、スケルトンモーションMSの骨BSR2、BSL2を、基準モーションMFの骨BFR2、BFL2(基準骨)に差し替える。   On the other hand, in FIG. 19B, the player PL is approaching the sensor 162, and it is determined that the distance of the player PL from the sensor 162 is short (shorter than the predetermined distance). In this case, motion replacement is performed to replace the skeleton motion MS based on the skeleton information with a given motion. Specifically, as shown in FIG. 16, the bones BSR2 and BSL2 of the skeleton motion MS are replaced with the bones BFR2 and BFL2 (reference bones) of the reference motion MF.

このようにすれば、図19(B)のようにプレーヤPLがセンサ162に接近することで、図14(B)のようにプレーヤPLの足が撮像範囲に入らなくなって、足の位置を検出できないような場合に、キャラクタCHPの足が想定外の方向に向くような不具合の発生を抑制できる。即ち、図16のように基準モーションMFの真っ直ぐな骨BFR2、BFL2(地面に対して垂直方向の骨)に差し替えることで、キャラクタCHPの画像が不適切で不自然な画像になってしまう事態を抑制できるようになる。   In this way, when the player PL approaches the sensor 162 as shown in FIG. 19B, the player PL's foot does not enter the imaging range as shown in FIG. 14B, and the position of the foot is detected. In such a case, it is possible to suppress the occurrence of a problem such that the character CHP's feet turn in an unexpected direction. That is, by replacing the straight bones BFR2 and BFL2 (bones perpendicular to the ground) of the reference motion MF as shown in FIG. 16, the image of the character CHP becomes an inappropriate and unnatural image. It becomes possible to suppress.

2.5 変形例
次に本実施形態の種々の変形例を説明する。例えば図15、図16では、スケルトン情報による骨格認識に不正が発生すると判断される場合に、モーションブレンドやモーション差し替えによる補正処理を行っているが、本実施形態はこれに限定されない。
2.5 Modifications Next, various modifications of the present embodiment will be described. For example, in FIGS. 15 and 16, when it is determined that the skeleton recognition based on the skeleton information is illegal, correction processing by motion blending or motion replacement is performed, but the present embodiment is not limited to this.

例えばプレーヤの骨格認識に不正が発生すると判断される場合に、骨格認識の不正発生時用に用意されたゲームイベントを発生する手法を採用してもよい。図20はこの手法の処理を説明するフローチャートである。   For example, when it is determined that an illegality occurs in the player's skeleton recognition, a method of generating a game event prepared for the occurrence of an illegal skeleton recognition may be employed. FIG. 20 is a flowchart for explaining the processing of this method.

まずプレーヤのスケルトン情報を取得する(ステップS1)。そしてスケルトン情報による骨格認識に不正が発生するか否かを判断する(ステップS2)。例えば図17(A)〜図17(D)、図19(A)、図19(B)で説明した手法により、骨格認識に不正が発生するか否かを判断(予測)する。そして、不正が発生すると判断された場合に、骨格認識の不正発生時用のゲームイベントを発生する(ステップS3)。このゲームイベントの情報(ゲーム処理情報)は、図1の記憶部170に記憶されている。   First, the player's skeleton information is acquired (step S1). Then, it is determined whether or not fraud occurs in the skeleton recognition based on the skeleton information (step S2). For example, it is determined (predicted) whether fraud occurs in the skeleton recognition by the method described with reference to FIGS. 17 (A) to 17 (D), 19 (A), and 19 (B). When it is determined that fraud occurs, a game event for occurrence of fraud in skeleton recognition is generated (step S3). Information of this game event (game processing information) is stored in the storage unit 170 of FIG.

例えば図12(A)〜図12(C)に示すようにプレーヤPLが体を回転させることで、骨格認識の不正が発生する場合を想定する。この場合には、例えばプレーヤPLの体がある程度回転したことが検出された場合に、プレーヤPLの体の回転を停止させたり、元に戻させるようなゲームイベントを発生させる。例えば、プレーヤPLが体を回転させずに、表示部190に正対した姿勢をとることを促す誘導表示を行う。例えば誘導表示用のキャラクタを表示部190に表示したり、誘導表示の文字情報やアイコン情報等を表示部190に表示する。   For example, as shown in FIGS. 12 (A) to 12 (C), it is assumed that the player PL rotates his / her body, thereby causing skeleton recognition fraud. In this case, for example, when it is detected that the body of the player PL has rotated to some extent, a game event is generated that stops or returns the body of the player PL. For example, the guidance display that prompts the player PL to take a posture facing the display unit 190 without rotating the body is performed. For example, a character for guidance display is displayed on the display unit 190, or character information or icon information for guidance display is displayed on the display unit 190.

また図13(B)、図14(B)のように、プレーヤPLがセンサ162に接近することで、プレーヤPLの足等の部位が検出できなくなることで、骨格認識の不正が発生する場合を想定する。この場合には、プレーヤPLの接近移動を停止させるようなゲームイベントを発生させる。例えば、プレーヤPLが接近せずに立ち止まったり、後方に移動することを促す誘導表示を行う。例えば誘導表示用のキャラクタを表示部190に表示したり、誘導表示の文字情報やアイコン情報等を表示部190に表示する。   In addition, as shown in FIGS. 13B and 14B, when the player PL approaches the sensor 162 and the parts such as the legs of the player PL cannot be detected, skeleton recognition fraud occurs. Suppose. In this case, a game event that stops the approaching movement of the player PL is generated. For example, a guidance display that prompts the player PL to stop without approaching or move backward is performed. For example, a character for guidance display is displayed on the display unit 190, or character information or icon information for guidance display is displayed on the display unit 190.

また図21(A)〜図21(C)は、キャラクタCHPが特殊技を繰り出すモーションの例である。この特殊技は、例えば「ア」、「イ」、「ウ」、「エ」、「オー」のかけ声と共に繰り出される技であり、図21(A)が「ア」、「イ」、図21(B)が「ウ」、「エ」、図21(C)が「オー」のタイミングに相当する。   FIGS. 21A to 21C are examples of motions in which the character CHP delivers a special technique. This special technique is, for example, a technique that is played out with a shout of “A”, “I”, “U”, “D”, “O”. FIG. 21A shows “A”, “I”, FIG. (B) corresponds to the timing of “U” and “D”, and FIG. 21 (C) corresponds to the timing of “O”.

この場合に、まず、当該「アイウエオー」の特殊技の動きをプレーヤPLが行うことを指示する指示画面が、図2の表示部190に表示される。すると、この指示画面のタイミングから、プレーヤPLは図21(A)〜図21(C)のモーションに対応する技動作を行う。即ち、図21(A)のような正面向きの姿勢から、図21(B)のように体を回転させ、最後の「オー」のタイミングで両手を前に突き出す。   In this case, first, an instruction screen instructing the player PL to perform the movement of the special technique “Ieweo” is displayed on the display unit 190 of FIG. Then, from the timing of this instruction screen, the player PL performs a technical action corresponding to the motions of FIGS. 21 (A) to 21 (C). That is, from the front-facing posture as shown in FIG. 21A, the body is rotated as shown in FIG. 21B, and both hands are projected forward at the timing of the last “O”.

画像生成システムは、上記の指示画面の指示タイミングで、プレーヤPLが上述した技動作を開始したか否かを判断し、所定の技期間内(例えば3秒〜6秒)の間に、プレーヤPLが当該技動作を完了したか否かを判断する。   The image generation system determines whether or not the player PL has started the above-described technique operation at the instruction timing on the instruction screen, and within a predetermined technique period (for example, 3 to 6 seconds), the player PL Determines whether or not the technique operation has been completed.

ここで、例えば図21(B)のようにプレーヤPLが体を大きく回転させた場合には、図12(C)、図17(D)等で説明したように、適正な骨格認識が出来なくなってしまう。この場合に、図17(A)〜図17(D)で説明した角度θが所定角度になるまでは、プレーヤPLの動きを検出することで取得されたスケルトン情報に基づくスケルトンモーションで、キャラクタCHPを動作させる。そして、角度θが所定角度を超えた場合には、当該スケルトンモーションから、「アイウエオー」の特殊技用に用意された特殊技モーションに切り替えるモーション補正処理を行って、キャラクタCHPを動作させる。これにより骨格認識の不正を原因とするモーション破壊を抑制できる。そして、上述した技期間内(3秒〜6秒)において、図21(A)〜図21(C)に対応する技動作を、プレーヤPLが行っていると、スケルトン情報等に基づき判断される間は、当該モーション補正処理を継続して実行する。   Here, for example, when the player PL greatly rotates the body as shown in FIG. 21B, proper skeleton recognition cannot be performed as described in FIGS. 12C and 17D. End up. In this case, until the angle θ described in FIGS. 17A to 17D reaches a predetermined angle, the character CHP is a skeleton motion based on the skeleton information acquired by detecting the motion of the player PL. To work. When the angle θ exceeds the predetermined angle, the character CHP is operated by performing a motion correction process for switching from the skeleton motion to the special technique motion prepared for the special technique of “Ieweo”. As a result, motion destruction caused by skeleton recognition fraud can be suppressed. Then, if the player PL is performing a technique operation corresponding to FIGS. 21A to 21C within the technique period (3 to 6 seconds) described above, it is determined based on the skeleton information or the like. During this time, the motion correction process is continued.

そして、当該技期間内において、プレーヤPLが図21(C)に対応する技動作を適正に行った場合には、特殊技が成立したとして、キャラクタCHPが特殊攻撃(ビームの発射等)を行うゲーム演出処理を行う。   Then, if the player PL appropriately performs the technique action corresponding to FIG. 21C within the technique period, the character CHP makes a special attack (beam emission or the like), assuming that the special technique is established. Game effect processing is performed.

この場合に、図21(C)に示すように両手を突き出す動作の判定処理については、図4(A)等で説明した深度情報を用いることで実現できる。例えば図21(C)のタイミングで、両手を突き出したと判断されるような深度情報が検出された場合には、特殊技の最後の「オー」の動作にプレーヤPLが成功したと判断する。また図21(A)〜図21(C)の一連の技動作では、プレーヤPLの腰の位置についても、スケルトン情報に基づいて検出する。そして、プレーヤPLが、腰を低くして技動作を行っていることが検出された場合には、適正な技動作を行っていると判断する。   In this case, as shown in FIG. 21C, the determination process of the action of sticking out both hands can be realized by using the depth information described with reference to FIG. For example, if depth information is detected at the timing of FIG. 21C so that it is determined that both hands have been pushed out, it is determined that the player PL has succeeded in the last “O” action of the special technique. 21A to 21C, the waist position of the player PL is also detected based on the skeleton information. Then, when it is detected that the player PL is performing a technique operation with a lower back, it is determined that the player PL is performing an appropriate technique operation.

このように図21(A)〜図21(C)では、キャラクタの動作の補正処理として、ゲーム状況に応じた補正処理を行っている。即ち、図21(A)〜図21(C)は、キャラクタCHPの技(「アイウエオー」の特殊技)が選択されているゲーム状況であるため、骨格認識に不正が発生していると判断される場合に、選択されている技に対応する補正モーションへのモーション差し替えが行われている。つまり図21(B)のようにキャラクタCHPの上半身が回転して腕が見えなくなるような状況において、スケルトン情報に基づくスケルトンモーションから、技に対応する補正モーションへのモーション差し替えが行われている。なお、キャラクタCHPが攻撃モーションを行っている場合には、スケルトンモーションから、予め用意されている攻撃用の補正モーションに差し替えればよい。またキャラクタCHPが防御モーションを行っている場合には、スケルトンモーションから、予め用意されている防御用の補正モーションに差し替えればよい。   As described above, in FIGS. 21A to 21C, the correction process according to the game situation is performed as the correction process of the character motion. That is, FIGS. 21 (A) to 21 (C) are game situations in which the technique of the character CHP (the special technique of “Ieweo”) is selected, and therefore it is determined that fraud has occurred in the skeleton recognition. In the case of a motion, the motion is replaced with a correction motion corresponding to the selected technique. That is, in the situation where the upper body of the character CHP rotates and the arm cannot be seen as shown in FIG. 21B, the motion replacement from the skeleton motion based on the skeleton information to the correction motion corresponding to the technique is performed. Note that when the character CHP is performing an attack motion, the skeleton motion may be replaced with a prepared correction motion for attack. When the character CHP is performing a defensive motion, the skeleton motion may be replaced with a preparatory corrected motion for defensive.

また本実施形態では、キャラクタの動作(モーション)の補正処理の期間中においては、補正処理後のキャラクタの動作に基づいて、キャラクタについての判定処理を行う。例えば補正処理後のモーションに基づいて、ゲーム進行上の種々の判定処理を実行する。   In the present embodiment, during the character motion (motion) correction process, the character determination process is performed based on the character motion after the correction process. For example, based on the motion after the correction process, various determination processes in the game progress are executed.

例えば本実施形態では、プレーヤのキャラクタと他のキャラクタとで一緒に撮る記念写真の撮影モードが用意されている。この撮影モードで撮影された画像は、図1の印刷部198により印刷媒体に印刷されて、払い出し口152から払い出される。   For example, in the present embodiment, a commemorative photo shooting mode is prepared in which a player character and another character are taken together. An image photographed in this photographing mode is printed on a print medium by the printing unit 198 in FIG.

このような撮影モードの画像において、例えば図22のC1に示すように、プレーヤのキャラクタCHPとキャラクタCHとが重なってしまうと、記念写真の構図としては好ましくなく、記念写真の価値が低下してしまう。   In an image in such a shooting mode, for example, as shown by C1 in FIG. 22, if the player character CHP and the character CH overlap, it is not preferable as a commemorative photo composition, and the value of the commemorative photo is reduced. End up.

そこで本実施形態では、図22のC1において、キャラクタCHPとキャラクタCHとが重なっているか否かを判定する重なり判定処理を行う。そして重なっていると判定された場合には、図22のC2に示すように、キャラクタCHPとキャラクタCHが重ならないようにする再配置処理を行う。具体的には、オブジェクト空間内でのキャラクタCHPの位置を例えば左側に移動する再配置処理を行って、表示画面上においてキャラクタCHPとキャラクタCHが重ならないようにする。なお、キャラクタCHPとキャラクタCHの両方を、互いに遠ざけるように移動したり、キャラクタCHの方を移動させることも可能である。図22に示すようにキャラクタ同士の重なりを検出して、両者が重ならないように再配置処理を行うことで、適切な構図の画像を生成できるようになる。   Therefore, in the present embodiment, an overlap determination process is performed to determine whether or not the character CHP and the character CH overlap in C1 of FIG. If it is determined that the characters overlap, a rearrangement process is performed so that the character CHP and the character CH do not overlap, as indicated by C2 in FIG. Specifically, a rearrangement process for moving the position of the character CHP in the object space to the left side, for example, is performed so that the character CHP and the character CH do not overlap on the display screen. Note that it is possible to move both the character CHP and the character CH away from each other, or to move the character CH. As shown in FIG. 22, by detecting the overlap between characters and performing a rearrangement process so that they do not overlap, an image with an appropriate composition can be generated.

このような再配置処理のためのキャラクタCHP、CHの重なり判定処理を行う場合に、補正処理後のキャラクタCHPの動作に基づいて、当該重なり判定処理を実行する。   When performing the overlap determination process of characters CHP and CH for such a rearrangement process, the overlap determination process is executed based on the action of the character CHP after the correction process.

例えば図23(A)の補正処理期間は、図15、図16で説明したようなキャラクタCHPの動作の補正処理が行われる期間である。この補正処理期間においては、補正処理後のモーションで判定処理を行う。例えばモーションブレンド後のモーションや、モーション差し替え後のモーションを用いて、例えば図22で説明した重なり判定処理を行う。   For example, the correction process period of FIG. 23A is a period during which the correction process of the motion of the character CHP as described with reference to FIGS. 15 and 16 is performed. In this correction process period, the determination process is performed with the motion after the correction process. For example, the overlap determination process described in FIG. 22 is performed using the motion after motion blending or the motion after motion replacement.

例えば図23(B)では、プレーヤPLが体を回転したことにより、キャラクタCHPが腕AMLの骨については、骨格認識が出来ない状態(不正な状態)になっている。この場合には、図15、図16で説明したような補正処理を行う。例えば腕AMLの骨についてのモーションブレンドやモーション差し替えを行う。そして、この補正処理後の骨AMLに基づいて、図22で説明した重なり判定処理を行う。例えばキャラクタCHPの腕AMLがキャラクタCHと重なっていないかを判定する。このようにすれば、補正処理により補正された後の適切なキャラクタの動作で、重なり判定処理を実現できるため、より適正な重なり判定処理を実現できるようになる。   For example, in FIG. 23B, the player PL rotates his / her body, so that the bone with the character CHP of the arm AML is in a state in which skeleton recognition cannot be performed (an illegal state). In this case, the correction process described with reference to FIGS. 15 and 16 is performed. For example, motion blending and motion replacement for the bones of the arm AML are performed. Then, based on the bone AML after the correction process, the overlap determination process described in FIG. 22 is performed. For example, it is determined whether or not the arm AML of the character CHP overlaps the character CH. In this way, since the overlap determination process can be realized by the action of the appropriate character after being corrected by the correction process, a more appropriate overlap determination process can be realized.

3.詳細な処理
次に本実施形態の詳細な処理例について、図24、図25のフローチャートを用いて説明する。
3. Detailed Processing Next, a detailed processing example of this embodiment will be described with reference to the flowcharts of FIGS.

図24では、まず、プレーヤのスケルトン情報を取得する(ステップS1)。そして図17(A)〜図17(D)で説明したように、右肩位置C3と左肩位置C4を結ぶ線LSの角度が、腕の骨が不正になる角度になったか否かを判断する(ステップS12)。例えば図17(D)のような角度θになった場合に、腕の骨が不正になる角度になったと判断する。そして不正になる角度になった場合には、不正と判断される骨について、モーションブレンド期間が終了するまで、スケルトンモーションMSと基準モーションMFのモーションブレンドを行う(ステップS13、S14)。例えば図15で説明したようなモーションブレンドの処理を行う。この際に図18で説明したように、スケルトンモーションMSのブレンド率αSと、基準モーションMFのブレンド率αFを、時間経過に伴い変化させる処理を、モーションブレンド期間が終了するまで行う。   In FIG. 24, first, the player's skeleton information is acquired (step S1). Then, as described with reference to FIGS. 17A to 17D, it is determined whether or not the angle of the line LS connecting the right shoulder position C3 and the left shoulder position C4 has become an angle at which the arm bone becomes illegal. (Step S12). For example, when the angle θ as shown in FIG. 17D is reached, it is determined that the angle at which the bone of the arm is illegal is obtained. When the angle becomes illegal, the bone blending determined to be illegal is subjected to the motion blend of the skeleton motion MS and the reference motion MF until the motion blend period ends (steps S13 and S14). For example, the motion blending process described with reference to FIG. 15 is performed. At this time, as described with reference to FIG. 18, the process of changing the blend rate αS of the skeleton motion MS and the blend rate αF of the reference motion MF with the passage of time is performed until the motion blend period ends.

図25では、まず、センサ162から見たプレーヤPLの深度情報を取得し、センサ162からのプレーヤPLの距離を求める(ステップS21)。   In FIG. 25, first, the depth information of the player PL viewed from the sensor 162 is acquired, and the distance of the player PL from the sensor 162 is obtained (step S21).

次に、図19(A)、図19(B)で説明したように、センサ162からのプレーヤPLの距離が、足の骨が不正になる距離になったか否かを判断する(ステップS22)。即ち図14(B)のように、プレーヤPLの足をセンサ162により検出できないような距離になったかを判断する。そして、そのような距離になった場合には、図16で説明したように、スケルトンモーションMSの足の骨BSR2、BSL2を、基準モーションMFの基準骨BFR2、BFL2に差し替えるモーション差し替えを行う(ステップS23)。   Next, as described with reference to FIGS. 19A and 19B, it is determined whether or not the distance of the player PL from the sensor 162 is a distance at which the bones of the foot become illegal (step S22). . That is, as shown in FIG. 14B, it is determined whether the distance is such that the foot of the player PL cannot be detected by the sensor 162. When such distance is reached, as described with reference to FIG. 16, motion replacement is performed to replace the bones BSR2 and BSL2 of the foot of the skeleton motion MS with the reference bones BFR2 and BFL2 of the reference motion MF (steps). S23).

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(被写体、所定部位の骨、動き情報等)と共に記載された用語(プレーヤ、腕・足の骨、スケルトン情報等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、スケルトン情報の取得処理、キャラクタの動作処理、画像の生成処理、キャラクタの動作の補正処理、モーションブレンド処理、モーション差し替え処理等も、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or the drawings, terms (players, bones of arms and legs, skeleton information, etc.) described at least once together with different terms (subject, bones of a predetermined part, movement information, etc.) in a broader sense or synonymous The different terms can be used anywhere in the specification or drawings. In addition, the skeleton information acquisition process, the character motion process, the image generation process, the character motion correction process, the motion blend process, the motion replacement process, and the like are not limited to those described in this embodiment, and are equivalent to these. Such techniques are also included in the scope of the present invention.

PL プレーヤ(被写体)、CHP キャラクタ、IMF 顔画像(部位画像)、
MS スケルトンモーション、MF 基準モーション、
MT モーションブレンド後のモーション、
BSR、BSL、BFR、BFL、BR、BL 腕の骨、
BSR2、BSL2、BFR2、BFL2 足の骨、
C3 右肩位置、C4 左肩位置、LS 線、θ 角度、
100 処理部、102 入力処理部、110 演算処理部、111 ゲーム処理部、
112 オブジェクト空間設定部、113 キャラクタ処理部、
114 被写体情報取得部、118 ゲーム成績演算部、
119 仮想カメラ制御部、120 画像生成部、130 音生成部、
132 印刷処理部、140 出力処理部、150 払い出し口、152 コイン投入口、
160 操作部、162 センサ、164 カラーセンサ、166 デプスセンサ、
170 記憶部、172 オブジェクト情報記憶部、174 モーションデータ記憶部、
178 描画バッファ、180 情報記憶媒体、190 表示部、192 音出力部、
194 I/F部、195 携帯型情報記憶媒体、196 通信部、198 印刷部
PL player (subject), CHP character, IMF face image (part image),
MS skeleton motion, MF standard motion,
Motion after MT motion blending,
BSR, BSL, BFR, BFL, BR, BL Arm bone,
BSR2, BSL2, BFR2, BFL2 Foot bones,
C3 right shoulder position, C4 left shoulder position, LS line, θ angle,
100 processing units, 102 input processing units, 110 arithmetic processing units, 111 game processing units,
112 object space setting unit, 113 character processing unit,
114 subject information acquisition unit, 118 game score calculation unit,
119 Virtual camera control unit, 120 image generation unit, 130 sound generation unit,
132 print processing unit, 140 output processing unit, 150 payout slot, 152 coin insertion slot,
160 operation unit, 162 sensor, 164 color sensor, 166 depth sensor,
170 storage unit, 172 object information storage unit, 174 motion data storage unit,
178 Drawing buffer, 180 information storage medium, 190 display unit, 192 sound output unit,
194 I / F unit, 195 portable information storage medium, 196 communication unit, 198 printing unit

Claims (14)

センサからのセンサ情報に基づいて、被写体のスケルトン情報を取得する被写体情報取得部と、
前記被写体の前記スケルトン情報に基づいてキャラクタを動作させる処理を行うキャラクタ処理部と、
前記キャラクタの画像を生成する画像生成部と、
を含み、
前記キャラクタ処理部は、
前記スケルトン情報による前記被写体の骨格認識に不正が発生すると判断される場合に、前記スケルトン情報に基づく前記キャラクタの動作の補正処理を行うことを特徴とする画像生成システム。
A subject information acquisition unit that acquires skeleton information of a subject based on sensor information from the sensor;
A character processing unit that performs processing for moving a character based on the skeleton information of the subject;
An image generator for generating an image of the character;
Including
The character processing unit
An image generation system that performs correction processing of the action of the character based on the skeleton information when it is determined that an illegality occurs in the skeleton recognition of the subject based on the skeleton information.
請求項1において、
前記キャラクタ処理部は、
前記被写体の前記骨格認識に不正が発生すると判断される場合に、前記スケルトン情報に基づくスケルトンモーションと前記キャラクタの基準モーションとのモーションブレンドを、前記補正処理として行うことを特徴とする画像生成システム。
In claim 1,
The character processing unit
An image generation system characterized in that, when it is determined that an illegality occurs in the skeleton recognition of the subject, a motion blend of a skeleton motion based on the skeleton information and a reference motion of the character is performed as the correction processing.
請求項2において、
前記キャラクタ処理部は、
前記被写体の前記骨格認識において不正が発生すると判断される骨についてのみ、前記モーションブレンドを行うことを特徴とする画像生成システム。
In claim 2,
The character processing unit
The image generation system characterized in that the motion blending is performed only on a bone that is determined to be illegal in the skeleton recognition of the subject.
請求項2又は3において、
前記キャラクタ処理部は、
前記スケルトンモーションのブレンド率と前記基準モーションのブレンド率を時間経過に応じて変化させることを特徴とする画像生成システム。
In claim 2 or 3,
The character processing unit
An image generation system, wherein the blend rate of the skeleton motion and the blend rate of the reference motion are changed over time.
請求項1において、
前記キャラクタ処理部は、
前記被写体の前記骨格認識に不正が発生すると判断される場合に、前記スケルトン情報に基づくスケルトンモーションを、所与のモーションに差し替えるモーション差し替えを、前記補正処理として行うことを特徴とする画像生成システム。
In claim 1,
The character processing unit
An image generation system characterized by performing, as the correction processing, motion replacement that replaces a skeleton motion based on the skeleton information with a given motion when it is determined that an illegality occurs in the skeleton recognition of the subject.
請求項1乃至5のいずれかにおいて、
前記キャラクタ処理部は、
前記被写体の前記骨格認識において不正が発生すると判断される骨に対して、前記補正処理を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 5,
The character processing unit
An image generation system, wherein the correction processing is performed on a bone that is determined to be fraudulent in the skeleton recognition of the subject.
請求項1乃至6のいずれかにおいて、
前記キャラクタ処理部は、
前記被写体の前記スケルトン情報からスケルトンの右肩位置と左肩位置を取得し、前記右肩位置と前記左肩位置を結ぶ線の角度に基づいて、前記被写体の左腕又は右腕の一方の腕の骨に不正が発生すると判断される場合に、前記一方の腕の骨に対する前記補正処理を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 6.
The character processing unit
The right shoulder position and the left shoulder position of the skeleton are obtained from the skeleton information of the subject, and based on the angle of the line connecting the right shoulder position and the left shoulder position, the bone of one of the left arm and the right arm of the subject is illegal. The image generation system according to claim 1, wherein the correction processing is performed on the bone of the one arm when it is determined that the image is generated.
請求項7において、
前記キャラクタ処理部は、
不正と判断された前記一方の腕の骨について、前記スケルトン情報に基づくスケルトンモーションと、前記キャラクタの基準モーションとのモーションブレンドを行うことを特徴とする画像生成システム。
In claim 7,
The character processing unit
An image generation system characterized by performing a motion blend of a skeleton motion based on the skeleton information and a reference motion of the character for the bone of the one arm that is determined to be illegal.
請求項1乃至8のいずれかにおいて、
前記キャラクタ処理部は、
前記センサからの前記被写体の距離に基づいて、前記スケルトン情報の足の骨に不正が発生すると判断される場合に、前記足の骨についての前記補正処理を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 8.
The character processing unit
An image generation system that performs the correction processing on the foot bone when it is determined that fraud occurs in the foot bone of the skeleton information based on the distance of the subject from the sensor.
請求項9において、
前記キャラクタ処理部は、
前記足の骨に不正が発生すると判断される場合に、前記スケルトン情報の前記足の骨を、所与の基準骨に差し替えることを特徴とする画像生成システム。
In claim 9,
The character processing unit
An image generating system, wherein, when it is determined that an injustice occurs in the foot bone, the foot bone of the skeleton information is replaced with a given reference bone.
請求項1乃至10のいずれかにおいて、
ゲーム処理を行うゲーム処理部を含み、
前記ゲーム処理部は、
前記被写体の前記骨格認識に不正が発生すると判断される場合に、前記骨格認識の不正発生時用に用意されたゲームイベントを発生することを特徴とする画像生成システム。
In any one of Claims 1 thru | or 10.
Including a game processing unit for performing game processing;
The game processing unit
An image generation system characterized by generating a game event prepared for occurrence of fraud in the skeleton recognition when it is determined that fraud occurs in the skeleton recognition of the subject.
請求項1乃至11のいずれかにおいて、
ゲーム処理を行うゲーム処理部を含み、
前記キャラクタ処理部は、
前記キャラクタの動作の前記補正処理として、ゲーム状況に応じた前記補正処理を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 11,
Including a game processing unit for performing game processing;
The character processing unit
An image generation system that performs the correction process according to a game situation as the correction process of the action of the character.
請求項1乃至12のいずれかにおいて、
前記キャラクタ処理部は、
前記補正処理の期間中においては、前記補正処理後の前記キャラクタの動作に基づいて、前記キャラクタについての判定処理を行うことを特徴とする画像生成システム。
In any one of Claims 1 to 12,
The character processing unit
During the period of the correction process, the image generation system is characterized in that a determination process for the character is performed based on the movement of the character after the correction process.
センサからのセンサ情報に基づいて、被写体のスケルトン情報を取得する被写体情報取得部と、
前記被写体の前記スケルトン情報に基づいてキャラクタを動作させる処理を行うキャラクタ処理部と、
前記キャラクタの画像を生成する画像生成部として、
コンピュータを機能させ、
前記キャラクタ処理部は、
前記スケルトン情報による前記被写体の骨格認識に不正が発生すると判断される場合に、前記スケルトン情報に基づく前記キャラクタの動作の補正処理を行うことを特徴とするプログラム。
A subject information acquisition unit that acquires skeleton information of a subject based on sensor information from the sensor;
A character processing unit that performs processing for moving a character based on the skeleton information of the subject;
As an image generation unit for generating an image of the character,
Make the computer work,
The character processing unit
A program for performing correction processing of the action of the character based on the skeleton information when it is determined that an illegality occurs in the skeleton recognition of the subject based on the skeleton information.
JP2016021041A 2016-02-05 2016-02-05 Image generation system and program Pending JP2017138915A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016021041A JP2017138915A (en) 2016-02-05 2016-02-05 Image generation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016021041A JP2017138915A (en) 2016-02-05 2016-02-05 Image generation system and program

Publications (1)

Publication Number Publication Date
JP2017138915A true JP2017138915A (en) 2017-08-10

Family

ID=59566395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016021041A Pending JP2017138915A (en) 2016-02-05 2016-02-05 Image generation system and program

Country Status (1)

Country Link
JP (1) JP2017138915A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102118937B1 (en) * 2018-12-05 2020-06-04 주식회사 스탠스 Apparatus for Service of 3D Data and Driving Method Thereof, and Computer Readable Recording Medium
JP2021005181A (en) * 2019-06-26 2021-01-14 グリー株式会社 Information processing system, information processing method and computer program
JP2021089763A (en) * 2021-02-15 2021-06-10 グリー株式会社 Information processing system, information processing method, and computer program
JP2021524113A (en) * 2019-01-18 2021-09-09 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. Image processing methods and equipment, imaging equipment, and storage media
JP2021197695A (en) * 2020-06-17 2021-12-27 Kddi株式会社 Information terminal device, remote communication support method, and program
KR20220110453A (en) * 2020-01-03 2022-08-08 네이버 주식회사 Method and apparatus for generating data for estimating 3 dimensional pose of object included in input image, and prediction model for estimating 3 dimensional pose of object
WO2023277043A1 (en) * 2021-06-29 2023-01-05 株式会社 Preferred Networks Information processing device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102118937B1 (en) * 2018-12-05 2020-06-04 주식회사 스탠스 Apparatus for Service of 3D Data and Driving Method Thereof, and Computer Readable Recording Medium
US11468612B2 (en) 2019-01-18 2022-10-11 Beijing Sensetime Technology Development Co., Ltd. Controlling display of a model based on captured images and determined information
US11741629B2 (en) 2019-01-18 2023-08-29 Beijing Sensetime Technology Development Co., Ltd. Controlling display of model derived from captured image
JP2021524113A (en) * 2019-01-18 2021-09-09 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. Image processing methods and equipment, imaging equipment, and storage media
JP2021525431A (en) * 2019-01-18 2021-09-24 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. Image processing methods and devices, image devices and storage media
JP7061694B2 (en) 2019-01-18 2022-04-28 北京市商▲湯▼科技▲開▼▲發▼有限公司 Image processing methods and equipment, imaging equipment, and storage media
US11538207B2 (en) 2019-01-18 2022-12-27 Beijing Sensetime Technology Development Co., Ltd. Image processing method and apparatus, image device, and storage medium
JP2021005181A (en) * 2019-06-26 2021-01-14 グリー株式会社 Information processing system, information processing method and computer program
US11610331B2 (en) 2020-01-03 2023-03-21 Line Corporation Method and apparatus for generating data for estimating three-dimensional (3D) pose of object included in input image, and prediction model for estimating 3D pose of object
KR20220110453A (en) * 2020-01-03 2022-08-08 네이버 주식회사 Method and apparatus for generating data for estimating 3 dimensional pose of object included in input image, and prediction model for estimating 3 dimensional pose of object
KR102562378B1 (en) * 2020-01-03 2023-08-02 네이버 주식회사 Method and apparatus for generating data for estimating 3 dimensional pose of object included in input image, and prediction model for estimating 3 dimensional pose of object
JP2021197695A (en) * 2020-06-17 2021-12-27 Kddi株式会社 Information terminal device, remote communication support method, and program
JP7280223B2 (en) 2020-06-17 2023-05-23 Kddi株式会社 Information terminal device, remote communication support method and program
JP7118189B2 (en) 2021-02-15 2022-08-15 グリー株式会社 Information processing system, information processing method and computer program
JP2021089763A (en) * 2021-02-15 2021-06-10 グリー株式会社 Information processing system, information processing method, and computer program
WO2023277043A1 (en) * 2021-06-29 2023-01-05 株式会社 Preferred Networks Information processing device

Similar Documents

Publication Publication Date Title
JP6362634B2 (en) Image generation system, game device, and program
JP2017138915A (en) Image generation system and program
JP6370820B2 (en) Image generation system, game device, and program.
US7088366B2 (en) Image generation method, program, and information storage medium
JP4668655B2 (en) Program, information storage medium, and image generation system
JP2010033298A (en) Program, information storage medium, and image generation system
JP2019152899A (en) Simulation system and program
JP6732463B2 (en) Image generation system and program
JP7418956B2 (en) Image generation system and program
JP2024003191A (en) Game system, game device, and program
US6890261B2 (en) Game system, program and image generation method
JP2006252426A (en) Program, information storage medium, and image generation system
JP2010055131A (en) Program, information storage medium, and image generation system
JP2009201854A5 (en)
JP2005209217A (en) Game system and information storage medium
JP2011095935A (en) Program, information storage medium, and image generation system
JP4786389B2 (en) Program, information storage medium, and image generation system
JP2010134798A (en) Program, information storage medium, game device, and game system
JP2003175274A (en) Game system and information memory medium
JP2006263321A (en) Program, information storage medium, and image generation system
JP7412613B1 (en) Information processing systems and programs
JP7412617B1 (en) Information processing systems and programs
JP7354466B1 (en) Information processing systems and programs
JP7335695B2 (en) Image generation system and program
JP2006252291A (en) Program, information storage medium and image generation system