JP6362634B2 - Image generation system, game device, and program - Google Patents

Image generation system, game device, and program Download PDF

Info

Publication number
JP6362634B2
JP6362634B2 JP2016021038A JP2016021038A JP6362634B2 JP 6362634 B2 JP6362634 B2 JP 6362634B2 JP 2016021038 A JP2016021038 A JP 2016021038A JP 2016021038 A JP2016021038 A JP 2016021038A JP 6362634 B2 JP6362634 B2 JP 6362634B2
Authority
JP
Japan
Prior art keywords
character
image
subject
game
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016021038A
Other languages
Japanese (ja)
Other versions
JP2017138912A (en
Inventor
規雄 江頭
規雄 江頭
謙一 長嶋
謙一 長嶋
真之 永谷
真之 永谷
哲雄 高屋敷
哲雄 高屋敷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Bandai Namco Entertainment Inc filed Critical Namco Ltd
Priority to JP2016021038A priority Critical patent/JP6362634B2/en
Priority to CN201710064485.4A priority patent/CN107045711B/en
Publication of JP2017138912A publication Critical patent/JP2017138912A/en
Application granted granted Critical
Publication of JP6362634B2 publication Critical patent/JP6362634B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T3/14

Description

本発明は、画像生成システム、ゲーム装置及びプログラム等に関する。 The present invention relates to an image generation system , a game device, a program, and the like.

従来より、プレーヤなどの被写体を撮影し、撮像画像をゲームのキャラクタなどに反映させるタイプの画像生成システムが知られている。このような画像生成システムの従来技術としては、例えば特許文献1に開示される技術がある。この従来技術では、撮像部からの実像と、グラフィックス記憶部からのグラフィックス画像とが合成されたキャラクタを形成し、形成されたキャラクタを表示部の画面に表示する。   2. Description of the Related Art Conventionally, an image generation system of a type that captures a subject such as a player and reflects a captured image on a game character or the like is known. As a conventional technique of such an image generation system, for example, there is a technique disclosed in Patent Document 1. In this prior art, a character is formed by combining a real image from the imaging unit and a graphics image from the graphics storage unit, and the formed character is displayed on the screen of the display unit.

特開平7−192143号公報JP-A-7-192143

この従来技術によれば、プレーヤの撮像画像が合成されたキャラクタを画面に表示して、ゲームを楽しむことができる。しかしながら、プレーヤの撮像画像が合成されたキャラクタと、それ以外のキャラクタの配置関係の問題については、何ら考慮されていなかった。   According to this prior art, it is possible to enjoy a game by displaying on the screen a character synthesized with a captured image of the player. However, no consideration has been given to the problem of the arrangement relationship between the character synthesized with the player's captured image and other characters.

本発明の幾つかの態様によれば、被写体画像又は被写体画像に連なる被写体キャラクタと、キャラクタとが適切に配置された合成画像を生成できる画像生成システム及びプログラム等を提供できる。   According to some aspects of the present invention, it is possible to provide an image generation system, a program, and the like that can generate a composite image in which a subject image or a subject character connected to the subject image and a character are appropriately arranged.

本発明の一態様は、被写体の撮像画像を取得する入力処理部と、重なり判定処理を行う重なり判定部と、キャラクタの画像を含む合成対象画像に対して、前記被写体の前記撮像画像から切り出された被写体画像が合成された合成画像を生成する画像生成部と、を含み、前記重なり判定部は、前記キャラクタと、前記被写体画像又は前記被写体画像に連なる被写体キャラクタとの重なり判定処理を行い、前記画像生成部は、前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重なっていると判定された場合には、前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重ならないようにする再配置処理を行って、前記合成画像を生成する画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   According to one aspect of the present invention, an input processing unit that acquires a captured image of a subject, an overlap determination unit that performs an overlap determination process, and a synthesis target image including a character image are cut out from the captured image of the subject. An image generation unit that generates a composite image obtained by combining the subject images, and the overlap determination unit performs an overlap determination process between the character and the subject image or a subject character connected to the subject image, When it is determined that the character and the subject image or the subject character overlap each other, the image generation unit performs a rearrangement process so that the character and the subject image or the subject character do not overlap each other. And an image generation system for generating the composite image. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様では、キャラクタの画像を含む合成対象画像に対して、被写体画像が合成された画像が生成される。この場合に、キャラクタと被写体画像又は被写体キャラクタの重なり判定が行われ、両者が重なっていると判定された場合には、キャラクタと被写体画像又は被写体キャラクタとが重ならないようにする再配置処理が行われる。このような再配置処理を行うことで、被写体画像又は被写体画像に連なる被写体キャラクタと、キャラクタとが適切に配置された合成画像を生成できるようになる。   In one aspect of the present invention, an image in which a subject image is combined with a combining target image including a character image is generated. In this case, an overlap determination between the character and the subject image or the subject character is performed, and when it is determined that they overlap, a relocation process is performed so that the character does not overlap the subject image or the subject character. Is called. By performing such rearrangement processing, it is possible to generate a composite image in which a subject image or a subject character connected to the subject image and a character are appropriately arranged.

また本発明の一態様では、前記被写体画像は前記被写体の顔画像であり、前記重なり判定部は、前記キャラクタと、前記被写体の前記顔画像との重なり判定処理を行い、前記画像生成部は、前記キャラクタと前記被写体の前記顔画像とが重なっていると判定された場合には、前記キャラクタと前記被写体の前記顔画像とが重ならないようにする前記再配置処理を行って、前記合成画像を生成してもよい。   In the aspect of the invention, the subject image is a face image of the subject, the overlap determination unit performs an overlap determination process between the character and the face image of the subject, and the image generation unit includes: If it is determined that the character and the face image of the subject overlap, the rearrangement process is performed so that the character and the face image of the subject do not overlap, and the composite image is It may be generated.

このようにすれば、キャラクタの画像を含む合成対象画像に対して、被写体の顔画像が合成された画像が生成される場合に、キャラクタと被写体の顔画像とが重ならないようにする再配置処理が行われるようになる。これにより、キャラクタと被写体の顔画像が不適切な構図になってしまう合成画像が生成されるのを抑制できる。   In this way, when an image in which the face image of the subject is combined with the composition target image including the character image is generated, the rearrangement processing is performed so that the character and the face image of the subject do not overlap. Will be done. Accordingly, it is possible to suppress the generation of a composite image in which the character and the subject's face image have an inappropriate composition.

また本発明の一態様では、前記被写体キャラクタは、複数のオブジェクトにより構成されるモデルオブジェクトであり、前記画像生成部は、前記被写体キャラクタの画像として、前記モデルオブジェクトの所定部位の位置に前記被写体画像が表示される画像を生成してもよい。   In one aspect of the present invention, the subject character is a model object composed of a plurality of objects, and the image generation unit is configured to display the subject image at a predetermined position of the model object as an image of the subject character. An image in which is displayed may be generated.

このようにすれば、被写体キャラクタの所定部位の部分には被写体画像が表示され、それ以外の部分にはモデルオブジェクトの画像が表示される被写体キャラクタの画像を生成できるようになる。   In this way, it is possible to generate a subject character image in which a subject image is displayed in a predetermined portion of the subject character and a model object image is displayed in the other portion.

また本発明の一態様では、前記画像生成部は、前記被写体の動きに応じて、前記合成対象画像での前記被写体画像の合成位置が変化する前記合成画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate the synthesized image in which a synthesis position of the subject image in the synthesis target image changes according to the movement of the subject.

このようにすれば、被写体が動くことで、被写体画像の合成位置が変化して、キャラクタと被写体画像が重なるおそれがある場合にも、再配置処理が行われることで、このような事態の発生を防止できる。   In this way, when the subject moves, the composition position of the subject image changes, and there is a possibility that the character and the subject image overlap each other. Can be prevented.

また本発明の一態様では、前記被写体キャラクタは、複数のオブジェクトにより構成されるモデルオブジェクトであり、前記画像生成部は、オブジェクト空間において、前記被写体の位置に対応する位置に配置される前記モデルオブジェクトのレンダリング処理を行って、前記被写体キャラクタの画像を生成してもよい。   In the aspect of the invention, the subject character is a model object including a plurality of objects, and the image generation unit is arranged in the object space at a position corresponding to the position of the subject. The subject character image may be generated by performing the rendering process.

このようにすれば、被写体キャラクタの画像として、オブジェクト空間に配置されてレンダリングされたモデルオブジェクトの画像を表示できるようになるため、より高品質な合成画像の生成が可能になる。   In this way, a model object image arranged and rendered in the object space can be displayed as an image of the subject character, so that a higher quality composite image can be generated.

また本発明の一態様では、前記画像生成部は、前記再配置処理が行われた場合には、前記オブジェクト空間において再配置位置に配置された前記モデルオブジェクトのレンダリング処理を照明モデルに基づいて行って、前記被写体キャラクタの画像を生成してもよい。   In the aspect of the invention, when the rearrangement process is performed, the image generation unit performs the rendering process of the model object arranged at the rearrangement position in the object space based on the illumination model. Then, an image of the subject character may be generated.

このようにすれば、被写体キャラクタの画像として、再配置位置での陰影づけが適切に施されたモデルオブジェクトの画像を生成することが可能になる。   In this way, it is possible to generate an image of a model object that is appropriately shaded at the rearrangement position as the image of the subject character.

また本発明の一態様では、センサからのセンサ情報に基づいて、前記被写体のスケルトン情報を取得する被写体情報取得部と、前記被写体の前記スケルトン情報に基づいて前記被写体キャラクタを動作させる処理を行うキャラクタ処理部とを含み(被写体情報取得部、キャラクタ処理部としてコンピュータを機能させ)、前記画像生成部は、前記オブジェクト空間での、前記被写体キャラクタである前記モデルオブジェクトの配置位置、前記モデルオブジェクトの形状、及び前記モデルオブジェクトを構成するオブジェクトの配置位置の少なくとも1つを用いて、前記再配置処理を行ってもよい。   In one embodiment of the present invention, a subject information acquisition unit that acquires skeleton information of the subject based on sensor information from a sensor, and a character that performs processing for moving the subject character based on the skeleton information of the subject A processing unit (a subject information acquisition unit and a character processing unit that function as a computer), and the image generation unit includes an arrangement position of the model object that is the subject character in the object space, and a shape of the model object The rearrangement process may be performed using at least one of the arrangement positions of the objects constituting the model object.

このようにすれば、センサ情報に基づき取得されたスケルトン情報に基づいて、被写体の動きを特定し、当該被写体の動きに応じて動作する被写体キャラクタの画像を生成できるようになる。そして、この被写体キャラクタであるモデルオブジェクトが、オブジェクト空間内に配置される場合に、当該モデルオブジェクトの配置位置、形状、或いは当該モデルオブジェクトを構成するオブジェクトの配置位置を用いて、再配置処理が行われるようになり、スケルトン情報を有効利用した再配置処理を実現できる。   In this way, it is possible to identify the movement of the subject based on the skeleton information acquired based on the sensor information and generate an image of the subject character that moves according to the movement of the subject. Then, when the model object that is the subject character is placed in the object space, the rearrangement process is performed using the placement position and shape of the model object or the placement positions of the objects constituting the model object. As a result, relocation processing that effectively uses the skeleton information can be realized.

また本発明の一態様では、前記画像生成部は、前記再配置処理による再配置態様が異なる複数の前記合成画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate a plurality of the composite images having different rearrangement modes by the rearrangement process.

このようにすれば、再配置処理による合成画像に対してプレーヤが感じる不自然感を低減したり、選択候補となる画像のバラエティー度を増すことなどが可能になる。   In this way, it is possible to reduce the unnatural feeling that the player feels with respect to the composite image obtained by the rearrangement process, increase the variety of the images that are selection candidates, and the like.

また本発明の一態様では、複数の前記合成画像の中から選択された画像を、印刷媒体に印刷するための処理を行う印刷処理部を含んでもよい(印刷処理部としてコンピュータを機能させてもよい)。   Further, according to one aspect of the present invention, the image processing apparatus may include a print processing unit that performs processing for printing an image selected from the plurality of composite images on a print medium (even if a computer functions as the print processing unit). Good).

このようにすれば、様々の再配置態様の合成画像の中から選択された画像を、印刷媒体に印刷してプレーヤに提供できるようになる。   In this way, an image selected from the composite images in various rearrangement modes can be printed on the print medium and provided to the player.

また本発明の一態様では、前記画像生成部は、前記再配置処理の際に、前記キャラクタ、前記被写体キャラクタ及び前記被写体画像の少なくとも1つについてのサイズの変更処理を行ってもよい。   In the aspect of the invention, the image generation unit may perform a size change process on at least one of the character, the subject character, and the subject image during the rearrangement process.

このようにすれば、再配置処理後の合成画像における構図のバランスを、キャラクタ、被写体キャラクタ、或いは被写体画像のサイズの変更処理により、適切に調整できるようになる。   In this way, the balance of the composition in the composite image after the rearrangement process can be appropriately adjusted by the process of changing the size of the character, the subject character, or the subject image.

また本発明の一態様では、前記画像生成部は、前記被写体キャラクタ又は前記被写体画像のサイズに応じて、前記キャラクタのサイズを変更してもよい。   In the aspect of the invention, the image generation unit may change the size of the character according to the size of the subject character or the subject image.

このようにすれば、例えば被写体キャラクタ又は被写体画像のサイズが原因で、合成画像の構図のバランスが悪くなる場合にも、キャラクタのサイズの変更処理を行うことで、これを解消できるようになる。   In this way, even when the composition balance of the composite image is deteriorated due to, for example, the size of the subject character or the subject image, this can be solved by performing the character size changing process.

また本発明の一態様では、前記画像生成部は、前記キャラクタのサイズに応じて、前記被写体キャラクタ及び前記被写体画像の少なくとも一方のサイズを変更してもよい。   In the aspect of the invention, the image generation unit may change the size of at least one of the subject character and the subject image according to the size of the character.

このようにすれば、例えばキャラクタのサイズが原因で、合成画像の構図のバランスが悪くなる場合にも、被写体キャラクタ又は被写体画像のサイズの変更処理を行うことで、これを解消できるようになる。   In this way, even when the composition balance of the composite image is deteriorated due to the size of the character, for example, this can be solved by performing the process of changing the size of the subject character or the subject image.

また本発明の一態様では、前記画像生成部は、前記キャラクタのサイズに応じて、前記被写体キャラクタ及び前記被写体画像のサイズを変更する場合に、前記被写体キャラクタのサイズ変化率と前記被写体画像のサイズ変化率を異ならせてもよい。   In the aspect of the invention, the image generation unit may change the size change rate of the subject character and the size of the subject image when changing the size of the subject character and the subject image according to the size of the character. The rate of change may be different.

このようにすれば、被写体キャラクタ及び被写体画像のサイズが変更されることで、両者のサイズのバランスが悪くなる場合にも、被写体キャラクタのサイズ変化率と被写体画像のサイズ変化率を異ならせることで、これを解消できるようになる。   In this way, even when the size of the subject character and the subject image is changed and the size balance between the two becomes worse, the size change rate of the subject character is different from the size change rate of the subject image. , This will be solved.

また本発明の一態様では、前記画像生成部は、前記再配置処理の際に、前記キャラクタ、前記被写体キャラクタ及び前記被写体画像の少なくとも1つについての色情報の変更処理を行ってもよい。   In the aspect of the invention, the image generation unit may perform color information change processing for at least one of the character, the subject character, and the subject image during the rearrangement processing.

このようにすれば、再配置処理後の合成画像において、キャラクタ、被写体キャラクタ、或いは被写体画像の色情報を調整することが可能になり、より高品質な合成画像の提供が可能になる。   In this way, the color information of the character, the subject character, or the subject image can be adjusted in the composite image after the rearrangement process, and a higher-quality composite image can be provided.

また本発明の一態様では、前記画像生成部は、前記キャラクタと前記被写体キャラクタの関連度合いに応じた前記色情報の変更処理を行ってもよい。   In the aspect of the invention, the image generation unit may perform the color information changing process according to the degree of association between the character and the subject character.

このようにすれば、再配置処理後の合成画像において、キャラクタと被写体キャラクタの関連度合いに応じた適切な色情報の調整が可能になる。   In this way, in the composite image after the rearrangement process, appropriate color information can be adjusted according to the degree of association between the character and the subject character.

また本発明の一態様では、前記画像生成部は、前記再配置処理の際に、前記キャラクタと前記被写体キャラクタの間の境界領域、又は前記キャラクタと前記被写体画像の間の境界領域に対して、デコレーション処理を行ってもよい。   In one aspect of the present invention, the image generation unit may perform a boundary region between the character and the subject character or a boundary region between the character and the subject image during the rearrangement process. Decoration processing may be performed.

このようにすれば、再配置処理後のキャラクタと被写体キャラクタ又は被写体画像との間の境界領域を馴染ませて、目立たないようにすることなどが可能になる。   In this way, it becomes possible to adjust the boundary area between the character after the rearrangement processing and the subject character or the subject image so as not to stand out.

また本発明の一態様では、被写体キャラクタ及び前記キャラクタは、複数のオブジェクトにより構成されるモデルオブジェクトであり、前記画像生成部は、オブジェクト空間に配置される前記モデルオブジェクトである前記被写体キャラクタと前記キャラクタとの間に、仮想カメラから見て重なりがあると判定された場合に、前記オブジェクト空間での前記被写体キャラクタ及び前記キャラクタの少なくとも一方についての、位置及び方向の少なくとも一方を変更する前記再配置処理を行ってもよい。   In one aspect of the present invention, the subject character and the character are model objects configured by a plurality of objects, and the image generation unit is configured to include the subject character and the character that are the model objects arranged in an object space. The rearrangement process of changing at least one of the position and the direction of at least one of the subject character and the character in the object space when it is determined that there is an overlap with the virtual camera May be performed.

このようにすれば、被写体キャラクタとキャラクタが、オブジェクト空間に配置されるモデルオブジェクトである場合に、被写体キャラクタやキャラクタの位置や方向を変更することで、仮想カメラから見た被写体キャラクタとキャラクタの重なりを抑制する再配置処理を実現できるようになる。   In this way, when the subject character and the character are model objects arranged in the object space, the subject character and the character overlap as seen from the virtual camera by changing the position and direction of the subject character and the character. Can be realized.

また本発明の一態様では、ゲーム処理を行うゲーム処理部を含み(ゲーム処理部としてコンピュータを機能させ)、前記画像生成部は、前記ゲーム処理によるゲーム中に、前記被写体キャラクタと前記キャラクタの間に前記仮想カメラから見て重なりがあると判定された場合に、前記オブジェクト空間での前記被写体キャラクタ及び前記キャラクタの少なくとも一方についての、位置及び方向の少なくとも一方を変更する前記再配置処理を行ってもよい。   In one embodiment of the present invention, a game processing unit that performs a game process is included (a computer is caused to function as the game processing unit), and the image generation unit is configured to perform a game process between the subject character and the character during the game process. And performing the rearrangement process for changing at least one of the position and direction of at least one of the subject character and the character in the object space when it is determined that there is an overlap when viewed from the virtual camera. Also good.

このようにすれば、ゲーム中において、被写体キャラクタやキャラクタの位置や方向を変更することで、仮想カメラから見た被写体キャラクタとキャラクタの重なりを抑制する再配置処理を行って、ゲーム中での仮想カメラから見た画像を生成できるようになる。   In this way, in the game, by changing the position and direction of the subject character and the character, the rearrangement process is performed to suppress the overlap between the subject character and the character viewed from the virtual camera. An image viewed from the camera can be generated.

また本発明の一態様では、前記画像生成部は、第1の視点位置に設定された前記仮想カメラから見て、前記被写体キャラクタと前記キャラクタの間に重なりがあると判定された場合に、前記仮想カメラの位置を前記第1の視点位置とは異なる第2の視点位置に変更すると共に、前記被写体キャラクタ及び前記キャラクタの方向を変更する前記再配置処理を行ってもよい。   In one aspect of the present invention, when the image generation unit determines that there is an overlap between the subject character and the character when viewed from the virtual camera set at the first viewpoint position, While changing the position of the virtual camera to a second viewpoint position different from the first viewpoint position, the rearrangement process for changing the direction of the subject character and the character may be performed.

このようにすれば、第1の視点位置の仮想カメラから見た場合に、被写体キャラクタとキャラクタが重なっている場合にも、仮想カメラの位置を第2の視点位置に変更して、被写体キャラクタとキャラクタの方向(向く方向)を変更することで、両者が重ならないように見える画像を生成できるようになる。   In this way, when viewed from the virtual camera at the first viewpoint position, even if the subject character and the character overlap, the virtual camera position is changed to the second viewpoint position, and the subject character and By changing the direction of the character (the direction in which it faces), it becomes possible to generate an image that does not appear to overlap.

本実施形態の画像生成システムの構成例。1 is a configuration example of an image generation system according to the present embodiment. 本実施形態の画像生成システムの業務用ゲーム装置への適用例。An application example of the image generation system of the present embodiment to a game machine for business use. 図3(A)、図3(B)は本実施形態の画像生成システムの家庭用ゲーム装置、パーソナルコンピュータへの適用例。3A and 3B show application examples of the image generation system of the present embodiment to a home game device and a personal computer. 図4(A)、図4(B)は深度情報、ボディーインデックス情報の例。4A and 4B show examples of depth information and body index information. スケルトン情報の説明図。Explanatory drawing of skeleton information. キャラクタの画像とプレーヤの顔画像の画像合成手法の説明図。Explanatory drawing of the image-synthesis method of a character image and a player's face image. 図7(A)はプレーヤの撮像画像の例、図7(B)はキャラクタと顔画像の合成画像の例。FIG. 7A shows an example of a captured image of a player, and FIG. 7B shows an example of a combined image of a character and a face image. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. 図9(A)、図9(B)はプレーヤの顔画像とキャラクタの重なりの問題の説明図。FIG. 9A and FIG. 9B are explanatory diagrams of the problem of overlap between the player's face image and the character. 本実施形態の再配置手法の説明図。Explanatory drawing of the rearrangement method of this embodiment. 図11(A)、図11(B)は種々のキャラクタの顔のエリアの設定例。FIGS. 11A and 11B show examples of setting the facial areas of various characters. 本実施形態の再配置手法の他の例の説明図。Explanatory drawing of the other example of the rearrangement method of this embodiment. プレーヤの動きに応じてキャラクタを動作させる手法の説明図。Explanatory drawing of the method of moving a character according to a player's motion. スケルトン情報を用いてキャラクタを動作させる手法の説明図。Explanatory drawing of the method of operating a character using skeleton information. モデルオブジェクトのレンダリング処理の説明図。Explanatory drawing of the rendering process of a model object. モデルオブジェクト情報の例。An example of model object information. 再配置態様が異なる複数の合成画像を生成する手法の説明図。Explanatory drawing of the method of producing | generating the some synthesized image from which a rearrangement aspect differs. 図18(A)、図18(B)はプレーヤキャラクタのサイズに応じてキャラクタのサイズを変更する手法の説明図。18A and 18B are explanatory diagrams of a method for changing the character size in accordance with the player character size. 図19(A)、図19(B)はキャラクタのサイズに応じてプレーヤキャラクタのサイズを変更する手法の説明図。FIGS. 19A and 19B are explanatory diagrams of a technique for changing the size of the player character in accordance with the size of the character. 図20(A)はサイズ変更率の例、図20(B)はプレーヤキャラクタとキャラクタを関連づけるテーブルの例。FIG. 20A shows an example of a size change rate, and FIG. 20B shows an example of a table that associates player characters with characters. プレーヤキャラクタ、キャラクタ又は顔画像の色情報を変更する手法の説明図。Explanatory drawing of the method of changing the color information of a player character, a character, or a face image. 境界領域でのデコレーション処理の説明図。Explanatory drawing of the decoration process in a border area. 本実施形態の変形例の説明図。Explanatory drawing of the modification of this embodiment. 図24(A)、図24(B)も本実施形態の変形例の説明図。FIG. 24A and FIG. 24B are also explanatory diagrams of modifications of the present embodiment. 図25(A)、図25(B)も本実施形態の変形例の説明図。FIG. 25A and FIG. 25B are also explanatory diagrams of a modified example of the present embodiment. 本実施形態の詳細な処理例を示すフローチャート。The flowchart which shows the detailed process example of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.画像生成システム
図1に本実施形態の画像生成システム(画像生成装置、ゲームシステム、ゲーム装置)の構成例を示す。画像生成システムは、処理部100、操作部160、センサ162、記憶部170、表示部190、音出力部192、I/F部194、通信部196、印刷部198を含む。なお本実施形態の画像生成システムの構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Image Generation System FIG. 1 shows a configuration example of an image generation system (image generation apparatus, game system, game apparatus) of the present embodiment. The image generation system includes a processing unit 100, an operation unit 160, a sensor 162, a storage unit 170, a display unit 190, a sound output unit 192, an I / F unit 194, a communication unit 196, and a printing unit 198. Note that the configuration of the image generation system of the present embodiment is not limited to that shown in FIG. 1, and various modifications may be made such as omitting some of the components (each unit) or adding other components.

処理部100は、操作部160からの操作情報や、センサ162からのセンサ情報や、プログラムなどに基づいて、入力処理、演算処理、出力処理などの各種の処理を行う。   The processing unit 100 performs various processes such as an input process, an arithmetic process, and an output process based on operation information from the operation unit 160, sensor information from the sensor 162, a program, and the like.

処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリーにより実現できる。プロセッサは、例えば各部の機能が個別のハードウエアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Processing Unit)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。メモリー(記憶部170)は、SRAM、DRAM等の半導体メモリーであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリーはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。   Each processing (each function) of this embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware. The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Processing Unit) can be used. The processor may be an ASIC hardware circuit. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD) or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and the processing (function) of each unit of the processing unit 100 is realized by executing the instructions by the processor. The instruction here may be an instruction set constituting a program, or an instruction for instructing an operation to the hardware circuit of the processor.

処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。入力処理部102は、各種の情報の入力処理を行う。例えば入力処理部102は、操作部160により入力されたプレーヤの操作情報を受け付ける処理を、入力処理として行う。例えば操作部160で検出された操作情報を取得する処理を行う。また入力処理部102は、センサ162からのセンサ情報を取得する処理を、入力処理として行う。また入力処理部102は、記憶部170から情報を読み出す処理を、入力処理として行う。例えば読み出しコマンドで指定された情報を、記憶部170から読み出す処理を行う。また入力処理部102は、通信部196を介して情報を受信する処理を、入力処理として行う。例えば画像生成システムの外部装置(他の画像生成システム、サーバシステム等)からネットワークを介して情報を受信する処理を行う。受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。   The processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140. The input processing unit 102 performs various types of information input processing. For example, the input processing unit 102 performs a process of receiving player operation information input by the operation unit 160 as an input process. For example, a process of acquiring operation information detected by the operation unit 160 is performed. Further, the input processing unit 102 performs a process of acquiring sensor information from the sensor 162 as an input process. The input processing unit 102 performs a process of reading information from the storage unit 170 as an input process. For example, a process of reading information specified by the read command from the storage unit 170 is performed. Further, the input processing unit 102 performs processing for receiving information via the communication unit 196 as input processing. For example, processing for receiving information from an external device (another image generation system, server system, etc.) of the image generation system via the network is performed. The reception process is a process of instructing the communication unit 196 to receive information, acquiring information received by the communication unit 196, and writing the information in the storage unit 170.

演算処理部110は、各種の演算処理を行う。例えば演算処理部110は、ゲーム処理、オブジェクト空間設定処理、キャラクタ処理、ゲーム成績演算処理、仮想カメラ制御処理、画像生成処理、或いは音生成処理などの演算処理を行う。この演算処理部110は、ゲーム処理部111、オブジェクト空間設定部112、キャラクタ処理部113、被写体情報取得部114、重なり判定部115、ゲーム成績演算部118、仮想カメラ制御部119、画像生成部120、音生成部130、印刷処理部132を含む。   The arithmetic processing unit 110 performs various arithmetic processes. For example, the arithmetic processing unit 110 performs arithmetic processing such as game processing, object space setting processing, character processing, game results calculation processing, virtual camera control processing, image generation processing, or sound generation processing. The calculation processing unit 110 includes a game processing unit 111, an object space setting unit 112, a character processing unit 113, a subject information acquisition unit 114, an overlap determination unit 115, a game score calculation unit 118, a virtual camera control unit 119, and an image generation unit 120. A sound generation unit 130 and a print processing unit 132.

ゲーム処理は、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などである。このゲーム処理はゲーム処理部111(ゲーム処理のプログラムモジュール)により実行される。   The game process includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, or a process for ending a game when a game end condition is satisfied. This game processing is executed by the game processing unit 111 (game processing program module).

オブジェクト空間設定処理は、オブジェクト空間に複数のオブジェクトを配置設定する処理である。このオブジェクト空間設定処理はオブジェクト空間設定部112(オブジェクト空間設定処理のプログラムモジュール)により実行される。例えばオブジェクト空間設定部112は、ゲームに登場するキャラクタ(人、ロボット、動物、怪物、飛行機、船舶、戦闘機、戦車、戦艦、車等)、マップ(地形)、建物、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を、オブジェクト空間に配置設定する。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部112は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。   The object space setting process is a process for arranging and setting a plurality of objects in the object space. This object space setting process is executed by the object space setting unit 112 (a program module for the object space setting process). For example, the object space setting unit 112 includes characters (people, robots, animals, monsters, airplanes, ships, fighters, tanks, battleships, cars, etc.), maps (terrain), buildings, courses (roads), trees that appear in the game. Various objects representing objects such as walls and water surfaces (objects composed of primitive surfaces such as polygons, free-form surfaces or subdivision surfaces) are arranged and set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, the object information storage unit 172 of the storage unit 170 stores object information that is information such as the position, rotation angle, movement speed, and movement direction of the object (part object) in association with the object number. . The object space setting unit 112 performs processing for updating the object information for each frame, for example.

キャラクタ処理(移動体演算処理)は、キャラクタ(移動体)について行われる各種の演算処理である。例えばキャラクタ処理は、キャラクタ(ゲームに登場する表示物)をオブジェクト空間(仮想3次元空間、3次元ゲーム空間)で移動させるための処理や、キャラクタを動作させるための処理である。このキャラクタ処理はキャラクタ処理部113(キャラクタ処理のプログラムモジュール)により実行される。例えばキャラクタ処理部113は、操作部160によりプレーヤが入力した操作情報や、センサ162からのセンサ情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、キャラクタ(モデルオブジェクト)をオブジェクト空間内で移動させたり、キャラクタを動作(モーション、アニメーション)させる制御処理を行う。具体的には、キャラクタの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、キャラクタの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   Character processing (moving body calculation processing) is various calculation processing performed on a character (moving body). For example, the character processing is processing for moving a character (display object appearing in a game) in an object space (virtual three-dimensional space, three-dimensional game space) or processing for moving the character. This character processing is executed by the character processing unit 113 (character processing program module). For example, the character processing unit 113 uses a character (model) based on operation information input by the player through the operation unit 160, sensor information from the sensor 162, a program (movement / motion algorithm), various data (motion data), and the like. Control processing for moving the object) in the object space and moving the character (motion, animation) is performed. Specifically, a simulation process for sequentially obtaining character movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) every frame (for example, 1/60 second). I do. The frame is a unit of time for performing character movement / motion processing (simulation processing) and image generation processing.

ゲーム成績演算処理は、プレーヤのゲームでの成績を演算する処理である。例えばゲーム成績演算処理は、プレーヤがゲームで獲得するポイントや得点を演算する処理や、ゲーム内通貨、メダル又はチケットなどのゲーム成果を演算する処理である。このゲーム成績演算処理はゲーム成績演算部118(ゲーム成績演算処理のプログラムモジュール)により実行される。   The game score calculation process is a process of calculating the player's game score. For example, the game score calculation process is a process for calculating points and points that the player acquires in the game, and a process for calculating game results such as in-game currency, medals or tickets. This game score calculation processing is executed by the game score calculation unit 118 (program module for game score calculation processing).

仮想カメラ制御処理は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)を制御する処理である。この仮想カメラ制御処理は仮想カメラ制御部119(仮想カメラ制御処理のプログラムモジュール)により実行される。具体的には仮想カメラ制御部119は、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control process is a process for controlling a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. This virtual camera control process is executed by the virtual camera control unit 119 (virtual camera control process program module). Specifically, the virtual camera control unit 119 controls processing (viewpoint position, line-of-sight direction or image) for controlling the position (X, Y, Z) or rotation angle (rotation angle around the X, Y, Z axes) of the virtual camera. Process to control corners).

画像生成処理は、表示部190に表示される画像(ゲーム画像)や、印刷部198により印刷される画像を生成するための処理であり、各種の画像合成処理や画像エフェクト処理などを含むことができる。音生成処理は、音出力部192により出力されるBGM、効果音又は音声等の音(ゲーム音)を生成するための処理であり、各種の音合成処理やサウンドエフェクト処理などを含むことができる。これらの画像生成処理、音生成処理は、画像生成部120、音生成部130(画像生成処理、音生成処理のプログラムモジュール)により実行される。   The image generation processing is processing for generating an image (game image) displayed on the display unit 190 and an image printed by the printing unit 198, and may include various image composition processing and image effect processing. it can. The sound generation process is a process for generating a sound (game sound) such as BGM, sound effect, or sound output from the sound output unit 192, and can include various sound synthesis processes, sound effect processes, and the like. . These image generation processing and sound generation processing are executed by the image generation unit 120 and the sound generation unit 130 (program modules for image generation processing and sound generation processing).

例えば画像生成部120は、処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において所与の視点(仮想カメラ)から見える画像が生成される。なお、画像生成部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現してもよい。   For example, the image generation unit 120 performs drawing processing based on the results of various processing (game processing and simulation processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. Thereby, an image that is visible from a given viewpoint (virtual camera) in the object space is generated. Note that the drawing processing performed by the image generation unit 120 may be realized by vertex shader processing, pixel shader processing, or the like.

出力処理部140は、各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理を、出力処理として行う。例えば、書き込みコマンドで指定された情報を、記憶部170に書き込む処理を行う。また出力処理部140は、生成された画像の情報を表示部190に出力したり、生成された音の情報を音出力部192に出力する処理を、出力処理として行う。また出力処理部140は、通信部196を介して情報を送信する処理を、出力処理として行う。例えば画像生成システムの外部装置(他の画像生成システム、サーバシステム等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。また出力処理部140は、印刷媒体に印刷される画像を印刷部198に転送する処理を、出力処理として行う。   The output processing unit 140 performs various types of information output processing. For example, the output processing unit 140 performs a process of writing information in the storage unit 170 as an output process. For example, a process of writing information specified by the write command to the storage unit 170 is performed. Further, the output processing unit 140 performs a process of outputting the generated image information to the display unit 190 and outputting the generated sound information to the sound output unit 192 as an output process. The output processing unit 140 performs a process of transmitting information via the communication unit 196 as an output process. For example, processing for transmitting information to an external device (another image generation system, server system, etc.) of the image generation system via a network is performed. The transmission process is a process of instructing the communication unit 196 to transmit information, or instructing the communication unit 196 to transmit information. Further, the output processing unit 140 performs processing for transferring an image to be printed on the print medium to the printing unit 198 as output processing.

操作部160(操作デバイス)は、プレーヤ(ユーザ)が操作情報を入力するためのものであり、その機能は、方向指示キー、操作ボタン、アナログスティック、レバー、各種センサ(角速度センサ、加速度センサ等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。   The operation unit 160 (operation device) is used by a player (user) to input operation information, and functions thereof are direction instruction keys, operation buttons, analog sticks, levers, various sensors (angular velocity sensor, acceleration sensor, etc.). ), A microphone or a touch panel display.

センサ162は、被写体情報を取得するためのセンサ情報を検出する。センサ162は例えばカラーセンサ164(カラーカメラ)、デプスセンサ166(デプスカメラ)を含むことができる。   The sensor 162 detects sensor information for acquiring subject information. The sensor 162 can include, for example, a color sensor 164 (color camera) and a depth sensor 166 (depth camera).

記憶部170(メモリー)は、処理部100や通信部196などのワーク領域となるもので、その機能はRAMやSSDやHDDなどにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170は、オブジェクト情報記憶部172、描画バッファ178を含む。   The storage unit 170 (memory) serves as a work area for the processing unit 100, the communication unit 196, and the like, and its functions can be realized by a RAM, an SSD, an HDD, or the like. Then, the game program and game data necessary for executing the game program are held in the storage unit 170. The storage unit 170 includes an object information storage unit 172 and a drawing buffer 178.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。この情報記憶媒体180に、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶できる。   An information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), memory (ROM, etc.), etc. Can be realized. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. A program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment on the information storage medium 180 (a program for causing the computer to execute processing of each unit). I can remember.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、或いはHMDなどにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, an HMD, or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリーカード)、USBメモリー、或いは磁気カードなどにより実現できる。   The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC for I / F processing or the like. The portable information storage medium 195 is for a user to save various types of information, and is a storage device that retains storage of such information even when power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、ネットワークを介して外部装置(他の画像生成システム、サーバシステム等)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with an external device (another image generation system, server system, etc.) via a network, and functions thereof include hardware such as a communication ASIC or a communication processor, This can be realized by communication firmware.

印刷部198は、例えばプリント用紙やシール紙などの印刷媒体に画像を印刷する。この印刷部198は、例えば印刷用ヘッド、印刷媒体の送り機構などにより実現できる。具体的には、処理部100の印刷処理部132(印刷処理のプログラムモジュール)が、印刷対象画像を選択するための処理を行い、選択された印刷対象画像の印刷を、印刷部198に指示する。これにより、印刷対象画像が印刷された印刷物が、後述する図2の払い出し口152から払い出されるようになる。印刷対象画像は、例えばゲーム中のプレーヤのキャラクタの様子を撮影した画像や、プレーヤのキャラクタと他のキャラクタとで一緒に撮る記念写真の画像などである。   The printing unit 198 prints an image on a print medium such as print paper or sticker paper. The printing unit 198 can be realized by, for example, a printing head, a printing medium feeding mechanism, or the like. Specifically, the print processing unit 132 (print processing program module) of the processing unit 100 performs processing for selecting a print target image, and instructs the printing unit 198 to print the selected print target image. . Thereby, the printed matter on which the print target image is printed is paid out from a payout port 152 in FIG. 2 described later. The print target image is, for example, an image obtained by photographing the player's character during the game, or a commemorative photo image taken together with the player's character and another character.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバシステム(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバシステムによる情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is transferred from the information storage medium included in the server system (host device) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. You may distribute. Use of the information storage medium by such a server system can also be included in the scope of the present invention.

図2、図3(A)、図3(B)は本実施形態の画像生成システムが適用されるハードウェア装置の例を示す図である。   2, 3 </ b> A, and 3 </ b> B are diagrams illustrating examples of hardware devices to which the image generation system of the present embodiment is applied.

図2は本実施形態の画像生成システムが適用された業務用ゲーム装置の例である。この業務用ゲーム装置は、操作ボタン、方向指示ボタンにより実現される操作部160や、カラーセンサ164、デプスセンサ166を有するセンサ162や、LCD、CRTなどにより実現される表示部190や、スピーカにより実現される音出力部192や、コイン投入口150や、写真などの印刷物の払い出し口152を備えている。プレーヤPLは、表示部190に表示されるゲーム画像を見ながら、ゲームをプレイするための各種の動作を行う。プレーヤPLの動き(手足のなどの部位の動きや位置の移動)は、センサ162により検出される。そして検出結果に応じたゲーム処理が行われ、ゲーム処理に基づくゲーム画像が表示部190に表示される。   FIG. 2 is an example of an arcade game apparatus to which the image generation system of this embodiment is applied. This arcade game device is realized by an operation unit 160 realized by operation buttons and direction instruction buttons, a sensor 162 having a color sensor 164 and a depth sensor 166, a display unit 190 realized by an LCD, a CRT, and the like, and a speaker. A sound output unit 192, a coin insertion port 150, and a payout port 152 for printed matter such as photographs. The player PL performs various operations for playing the game while viewing the game image displayed on the display unit 190. The movement of the player PL (movement of a part such as a limb or movement of position) is detected by the sensor 162. A game process corresponding to the detection result is performed, and a game image based on the game process is displayed on the display unit 190.

本実施形態の画像生成システムが適用されるハードウェア装置は、図2のような業務用ゲーム装置には限定されず、例えば図3(A)に示す家庭用ゲーム装置や、図3(B)に示すパーソナルコンピュータ(情報処理装置)などの種々のハードウェア装置に適用可能である。図3(A)では、カラーセンサ164やデプスセンサ166を有するセンサ162(センサ装置)を家庭用ゲーム装置の本体装置に接続し、当該センサ162を、例えば表示部であるテレビの近くに配置する。そしてセンサ162によりプレーヤの動作を検出することで、家庭用ゲーム装置の本体装置が、種々のゲーム処理を実行し、テレビの画面にゲーム画像を表示する。図3(B)では、センサ162をパーソナルコンピュータの本体装置に接続し、センサ162によりプレーヤの動作を検出し、ゲーム処理の結果に基づくゲーム画像を、表示部である液晶ディスプレイに表示する。   The hardware device to which the image generation system of the present embodiment is applied is not limited to the arcade game device as shown in FIG. 2, for example, a home game device shown in FIG. 3A or FIG. The present invention can be applied to various hardware devices such as a personal computer (information processing device) shown in FIG. In FIG. 3A, a sensor 162 (sensor device) having a color sensor 164 and a depth sensor 166 is connected to a main body device of a consumer game device, and the sensor 162 is disposed, for example, near a television which is a display unit. Then, by detecting the operation of the player by the sensor 162, the main device of the consumer game device executes various game processes and displays a game image on the television screen. In FIG. 3B, the sensor 162 is connected to the main unit of the personal computer, the operation of the player is detected by the sensor 162, and a game image based on the result of the game processing is displayed on a liquid crystal display as a display unit.

そして本実施形態の画像生成システム(画像生成装置、ゲーム装置、ゲームシステム)は、図1に示すように、被写体の撮像画像を取得する入力処理部102と、重なり判定処理を行う重なり判定部115と、キャラクタの画像を含む合成対象画像に対して、被写体の撮像画像から切り出された被写体画像が合成された合成画像を生成する画像生成部120を含む。   As shown in FIG. 1, the image generation system (image generation device, game device, game system) of the present embodiment includes an input processing unit 102 that acquires a captured image of a subject, and an overlap determination unit 115 that performs an overlap determination process. And an image generation unit 120 that generates a composite image in which a subject image cut out from a captured image of the subject is combined with a composition target image including a character image.

被写体は例えば図2に示すプレーヤPLである。被写体は人間以外の動物であってもよいし、動物以外の物であってもよい。撮像画像は、例えばセンサ162が有するカラーセンサ164(カラーカメラ)により撮影される画像(RGB画像等のカラー画像)である。このカラーセンサ164とデプスセンサ166は別々に設けられていてもよい。合成対象画像には、キャラクタの画像や背景の画像が表示されている。カラーセンサ164によって撮影された撮像画像から、プレーヤなどの被写体が映っている部分が切り出され、切り出された被写体画像が、合成対象画像(仮想空間画像)に合成される。   The subject is, for example, the player PL shown in FIG. The subject may be an animal other than a human or an object other than an animal. The captured image is, for example, an image (color image such as an RGB image) captured by a color sensor 164 (color camera) included in the sensor 162. The color sensor 164 and the depth sensor 166 may be provided separately. In the compositing target image, a character image and a background image are displayed. A portion in which a subject such as a player is captured is cut out from the captured image taken by the color sensor 164, and the cut out subject image is combined with a synthesis target image (virtual space image).

重なり判定部115(重なり判定処理のプログラムモジュール)は、キャラクタと、被写体画像又は被写体画像に連なる被写体キャラクタとの重なり判定処理を行う。即ち、合成対象画像に表示されるキャラクタと、被写体画像又は被写体キャラクタとの重なり判定処理を行う。例えばキャラクタ(キャラクタの一部)と、被写体画像又は被写体キャラクタとの間に重なりがないかを判定する。   The overlap determination unit 115 (overlap determination process program module) performs an overlap determination process between a character and a subject image or a subject character connected to the subject image. That is, an overlap determination process between the character displayed in the compositing target image and the subject image or the subject character is performed. For example, it is determined whether there is an overlap between the character (a part of the character) and the subject image or the subject character.

被写体キャラクタは例えばプレーヤキャラクタである。例えば被写体キャラクタの所定部位(例えば顔)に対応する部分に、撮像画像から切り出された被写体画像(例えば顔画像)が合成される場合に、被写体画像と被写体キャラクタは連なって表示されることになる。例えば被写体画像と、被写体画像に連なる被写体キャラクタの画像とにより、合成キャラクタ画像が形成される。   The subject character is, for example, a player character. For example, when a subject image (for example, a face image) cut out from a captured image is combined with a portion corresponding to a predetermined part (for example, a face) of the subject character, the subject image and the subject character are displayed together. . For example, a composite character image is formed by a subject image and a subject character image connected to the subject image.

そして画像生成部120は、キャラクタと被写体画像又は被写体キャラクタとが重なっていると判定された場合には、キャラクタと被写体画像又は被写体キャラクタとが重ならないようにする再配置処理を行って、合成画像を生成する。例えば被写体画像、被写体キャラクタを、キャラクタから離れるように移動する再配置処理を行って、キャラクタ、被写体画像、被写体キャラクタが表示される合成画像を生成する。なお再配置処理の際に、被写体画像、被写体キャラクタではなく、キャラクタの方を移動させたり、被写体画像、被写体キャラクタと、キャラクタの両方を移動させてもよい。   Then, when it is determined that the character and the subject image or the subject character overlap, the image generation unit 120 performs a rearrangement process so that the character and the subject image or the subject character do not overlap each other, and the composite image Is generated. For example, a rearrangement process for moving the subject image and the subject character away from the character is performed to generate a composite image in which the character, the subject image, and the subject character are displayed. In the rearrangement process, the character may be moved instead of the subject image or the subject character, or both the subject image, the subject character, and the character may be moved.

被写体画像は、例えば被写体の顔画像である。例えば被写体の全体が映る撮像画像から、顔の部分を切り取ることで、被写体画像である顔画像が取得される。そして重なり判定部115は、キャラクタの顔と、被写体の顔画像との重なり判定処理を行う。例えばキャラクタの顔を内包するように設定された顔エリアと、被写体の顔画像を内包するように設定された顔画像エリアの間に重なりがないかを判定する。   The subject image is, for example, a face image of the subject. For example, a face image that is a subject image is acquired by cutting out a face portion from a captured image that shows the entire subject. The overlap determination unit 115 performs an overlap determination process between the character's face and the subject's face image. For example, it is determined whether or not there is an overlap between the face area set to include the face of the character and the face image area set to include the face image of the subject.

そして画像生成部120は、キャラクタと被写体の顔画像とが重なっていると判定された場合には、キャラクタと被写体の顔画像とが重ならないようにする再配置処理を行って、合成画像を生成する。例えば顔画像(被写体キャラクタ)を、キャラクタから離れるように移動する再配置処理を行って、キャラクタ、顔画像、被写体キャラクタが映る合成画像を生成する。   Then, when it is determined that the character and the face image of the subject overlap, the image generation unit 120 performs a rearrangement process so that the character and the face image of the subject do not overlap, and generates a composite image To do. For example, a rearrangement process for moving the face image (subject character) away from the character is performed to generate a composite image in which the character, the face image, and the subject character are reflected.

なお、被写体の顔画像との重なり判定の対象となるものは、例えばキャラクタの部位であり、更に具体的には例えばキャラクタの顔である。例えばキャラクタの顔等の部位と被写体の顔画像とが重なっていると判定された場合に、キャラクタの当該部位と被写体の顔画像とが重ならないようにする再配置処理を行えばよい。この場合に、キャラクタの部位は、顔には限定されず、キャラクタの手、足又は胴体などの部位であってもよい。また再配置処理の際に、顔画像(被写体キャラクタ)ではなく、キャラクタの方を移動させたり、顔画像と、キャラクタの両方を移動させてもよい。また被写体画像は、被写体の顔以外の部位(例えば手、足、指、髪等)の画像であってもよいし、被写体が持つ物体の画像などであってもよい。   Note that the target of the overlap determination with the face image of the subject is, for example, a character part, and more specifically, for example, the character face. For example, when it is determined that a part such as the character's face and the face image of the subject overlap, the rearrangement process may be performed so that the part of the character and the face image of the subject do not overlap. In this case, the part of the character is not limited to the face, and may be a part of the character's hand, foot, or torso. In the rearrangement process, not the face image (subject character) but the character may be moved, or both the face image and the character may be moved. The subject image may be an image of a part other than the subject's face (for example, hands, feet, fingers, hair, etc.), or an image of an object held by the subject.

被写体キャラクタは、例えば複数のオブジェクトにより構成されるモデルオブジェクトである。例えば複数の3次元のオブジェクト(パーツオブジェクト)により構成される3次元のモデルオブジェクトである。各オブジェクトは例えば複数のポリゴン(広義にはプリミティブ面)により構成される。   The subject character is a model object composed of a plurality of objects, for example. For example, it is a three-dimensional model object composed of a plurality of three-dimensional objects (part objects). Each object is composed of, for example, a plurality of polygons (primitive surfaces in a broad sense).

この場合に画像生成部120は、被写体キャラクタの画像として、モデルオブジェクトの所定部位(例えば顔、手又は足等)の位置に被写体の顔画像が表示される画像を生成する。例えばモデルオブジェクトは、複数の部位オブジェクトにより構成され、所定部位の部分に、撮像画像から切り出された被写体画像(部位画像)が合成されて表示される。この場合に、顔等の所定部位の位置は、例えば被写体情報取得部114(被写体情報取得処理のプログラムモジュール)により取得された被写体情報であるスケルトン情報(広義には動き情報)などにより特定できる。   In this case, the image generation unit 120 generates an image in which the face image of the subject is displayed at the position of a predetermined part (for example, face, hand, or foot) of the model object as the image of the subject character. For example, the model object is composed of a plurality of part objects, and a subject image (partial image) cut out from the captured image is combined and displayed on a predetermined part. In this case, the position of a predetermined part such as a face can be specified by, for example, skeleton information (movement information in a broad sense) that is subject information acquired by the subject information acquisition unit 114 (a program module for subject information acquisition processing).

また画像生成部120は、被写体の動き(部位の動きや位置の移動等)に応じて、合成対象画像での被写体画像の合成位置が変化する合成画像を生成する。例えば被写体情報取得部114は、センサ162からのセンサ情報に基づいて、被写体の動きを特定するための被写体情報を取得する。例えば被写体情報であるスケルトン情報を取得する。このスケルトン情報に基づいて、被写体の動きが特定され、画像生成部120は、被写体の動きに応じて、被写体画像の合成位置が変化する合成画像を生成する。例えば被写体画像が顔画像である場合に、被写体の顔の位置が特定され、その顔の位置に対応する場所に顔画像が合成される。   Further, the image generation unit 120 generates a composite image in which the composition position of the subject image in the composition target image changes according to the motion of the subject (part movement, position movement, etc.). For example, the subject information acquisition unit 114 acquires subject information for specifying the motion of the subject based on the sensor information from the sensor 162. For example, skeleton information that is subject information is acquired. Based on the skeleton information, the movement of the subject is specified, and the image generation unit 120 generates a composite image in which the composite position of the subject image changes according to the movement of the subject. For example, when the subject image is a face image, the position of the subject's face is specified, and the face image is synthesized at a location corresponding to the face position.

また被写体キャラクタがモデルオブジェクトである場合に、画像生成部120は、オブジェクト空間において、被写体の位置に対応する位置に配置されるモデルオブジェクトのレンダリング処理を行って、被写体キャラクタの画像を生成する。例えば被写体情報取得部114により取得された被写体情報に基づいて、被写体の位置を特定し、オブジェクト空間内において、特定された被写体の位置に対応する位置に、被写体キャラクタであるモデルオブジェクトが配置される。そして、当該モデルオブジェクトのレンダリング処理が行われて、仮想カメラから見える被写体キャラクタの画像が生成される。   When the subject character is a model object, the image generation unit 120 performs rendering processing of the model object arranged at a position corresponding to the position of the subject in the object space, and generates an image of the subject character. For example, the position of the subject is specified based on the subject information acquired by the subject information acquisition unit 114, and the model object that is the subject character is arranged at a position corresponding to the specified position of the subject in the object space. . Then, the rendering process of the model object is performed, and an image of the subject character that can be seen from the virtual camera is generated.

そして画像生成部120は、上述の再配置処理が行われた場合には、オブジェクト空間において再配置位置に配置されたモデルオブジェクトのレンダリング処理を照明モデルに基づいて行って、被写体キャラクタの画像を生成してもよい。このようにすれば、再配置処理により、オブジェクト空間内でのモデルオブジェクトの位置が移動した場合に、移動後の再配置位置において、照明モデルに基づくモデルオブジェクトのレンダリング処理が行われるようになる。従って、被写体キャラクタの画像として、再配置位置での陰影づけが施されたモデルオブジェクトの画像を生成できるようになる。   Then, when the above-described rearrangement processing is performed, the image generation unit 120 performs rendering processing of the model object disposed at the rearrangement position in the object space based on the illumination model, and generates an image of the subject character May be. In this way, when the position of the model object in the object space is moved by the rearrangement process, the model object rendering process based on the illumination model is performed at the rearranged position after the movement. Therefore, an image of the model object that has been shaded at the rearrangement position can be generated as the image of the subject character.

また本実施形態では、被写体情報取得部114が、センサ162からのセンサ情報に基づいて、被写体のスケルトン情報(広義には被写体情報)を取得する。またキャラクタ処理部113が、被写体のスケルトン情報に基づいて被写体キャラクタを動作させる処理を行う。これにより、被写体の動き(部位の動きや位置の移動等)に応じて、被写体キャラクタが動作するようになる。そして画像生成部120は、オブジェクト空間での、被写体キャラクタであるモデルオブジェクトの配置位置、モデルオブジェクトの形状、及びモデルオブジェクトを構成するオブジェクトの配置位置の少なくとも1つを用いて、再配置処理を行う。   In the present embodiment, the subject information acquisition unit 114 acquires skeleton information of the subject (subject information in a broad sense) based on the sensor information from the sensor 162. Further, the character processing unit 113 performs processing for moving the subject character based on the skeleton information of the subject. As a result, the subject character moves according to the movement of the subject (part movement, position movement, etc.). Then, the image generation unit 120 performs the rearrangement process using at least one of the arrangement position of the model object that is the subject character, the shape of the model object, and the arrangement position of the objects constituting the model object in the object space. .

即ち、オブジェクト空間において、被写体キャラクタであるモデルオブジェクトは、被写体のスケルトン情報に基づき動作する。つまり、被写体の動きに応じて、オブジェクト空間内のモデルオブジェクトが動作する。そして、このようにオブジェクト空間内で動作するモデルオブジェクトの配置位置、形状、或いはそれを構成するオブジェクトの配置位置を用いて、キャラクタと、被写体画像又は被写体キャラクタとが重ならないようにする再配置処理が行われる。例えば、このような重なりが生じないように、被写体キャラクタであるモデルオブジェクトの配置位置や形状が変更されたり、モデルオブジェクトを構成するオブジェクト(例えば頭部のオブジェクト)が変更される。このようにすれば、被写体キャラクタを動作させるためのスケルトン情報を有効活用して、本実施形態の再配置処理を実現できるようになる。   That is, in the object space, the model object that is the subject character operates based on the skeleton information of the subject. That is, the model object in the object space operates according to the movement of the subject. Then, using the arrangement position and shape of the model object operating in the object space or the arrangement positions of the objects constituting the object, the rearrangement processing is performed so that the character and the subject image or the subject character do not overlap each other. Is done. For example, the arrangement position and shape of the model object that is the subject character are changed, or the objects that constitute the model object (for example, the head object) are changed so that such overlapping does not occur. In this way, the skeleton information for moving the subject character can be effectively used to realize the rearrangement processing of the present embodiment.

また画像生成部120は、再配置処理による再配置態様が異なる複数の合成画像を生成する。例えば本実施形態では、キャラクタと被写体画像又は被写体キャラクタとが重ならないようにする再配置処理が行われて、合成画像が生成される。再配置態様が異なる複数の合成画像は、このような再配置後のキャラクタ、被写体画像、被写体キャラクタの位置関係が異なる合成画像である。例えば第1の合成画像では、再配置後のキャラクタ、被写体画像、被写体キャラクタの位置関係は、第1の位置関係になっており、第2の合成画像では、再配置後のキャラクタ、被写体画像、被写体キャラクタの位置関係は、第1の位置関係とは異なる第2の位置関係になっている。   Further, the image generation unit 120 generates a plurality of composite images having different rearrangement modes by the rearrangement process. For example, in the present embodiment, a rearrangement process is performed so as to prevent the character and the subject image or the subject character from overlapping, and a composite image is generated. The plurality of composite images having different rearrangement modes are composite images having different positional relationships among the rearranged character, subject image, and subject character. For example, in the first composite image, the positional relationship between the rearranged character, the subject image, and the subject character is the first positional relationship, and in the second composite image, the rearranged character, the subject image, The positional relationship of the subject character is a second positional relationship different from the first positional relationship.

そして印刷処理部132は、複数の合成画像の中から選択された画像を、印刷媒体に印刷するための処理を行う。これらの複数の合成画像は、再配置処理の態様が異なる合成画像であってもよいし、再配置処理の態様が同じ合成画像であってもよい。例えば印刷処理部132は、複数の合成画像を、印刷候補画像として選択画面に表示するための処理や、選択された合成画像の印刷を印刷部198に指示する処理などを行う。   Then, the print processing unit 132 performs processing for printing an image selected from the plurality of composite images on a print medium. The plurality of composite images may be composite images having different aspects of the rearrangement process, or may be composite images having the same aspect of the rearrangement process. For example, the print processing unit 132 performs processing for displaying a plurality of composite images on the selection screen as print candidate images, processing for instructing the printing unit 198 to print the selected composite image, and the like.

例えば再配置態様が異なる複数の合成画像が表示部190に表示され、これらの複数の合成画像の中から、プレーヤが所望の合成画像を選択したとする。すると、印刷処理部132が印刷部198に対して、選択された合成画像を、印刷媒体に印刷することを指示し、印刷部198が、例えばプリント用紙やシール紙などの印刷媒体に合成画像を印刷する。これにより、合成画像が印刷された印刷物が、図2の払い出し口152から払い出されるようになる。   For example, it is assumed that a plurality of composite images having different rearrangement modes are displayed on the display unit 190, and the player selects a desired composite image from the plurality of composite images. Then, the print processing unit 132 instructs the print unit 198 to print the selected composite image on a print medium, and the print unit 198 displays the composite image on a print medium such as print paper or sticker paper. Print. As a result, the printed matter on which the composite image is printed is paid out from the payout port 152 in FIG.

なお、生成された複数の合成画像を、例えば通信部196を介してサーバ等に送信するようにしてもよい。そしてこれらの複数の画像を、プレーヤが有するスマートフォン、タブレットPCなどの情報端末の表示部に表示し、この情報端末の表示部の画面において、プレーヤが所望する合成画像を選択できるようにしてもよい。   Note that the plurality of generated composite images may be transmitted to a server or the like via the communication unit 196, for example. The plurality of images may be displayed on a display unit of an information terminal such as a smartphone or tablet PC included in the player so that the player can select a desired composite image on the screen of the display unit of the information terminal. .

また画像生成部120は、再配置処理の際に、キャラクタ、被写体キャラクタ及び被写体画像の少なくとも1つについてのサイズの変更処理を行ってよい。例えばキャラクタ、被写体キャラクタ、或いは被写体画像のサイズを、オリジナル(デフォルト)のサイズから変更する。   Further, the image generation unit 120 may perform a size change process on at least one of the character, the subject character, and the subject image during the rearrangement process. For example, the size of the character, subject character, or subject image is changed from the original (default) size.

具体的には画像生成部120は、被写体キャラクタ又は被写体画像のサイズに応じて、キャラクタのサイズを変更する。例えば被写体であるプレーヤが子供である場合には、大人である場合に比べて、被写体キャラクタや被写体画像のサイズが小さくなる。この場合には、小さくなった被写体キャラクタや被写体画像のサイズに連動させて、一緒に映るキャラクタのサイズも小さくする。また被写体であるプレーヤが、図2のセンサ162(カラーセンサ164)に近づくと、被写体キャラクタの画像と被写体画像からなる合成キャラクタ画像のサイズが大きくなる。この場合には、大きくなった合成キャラクタ画像のサイズに連動させて、一緒に映るキャラクタのサイズも大きくする。   Specifically, the image generation unit 120 changes the size of the character according to the size of the subject character or the subject image. For example, when the player who is the subject is a child, the size of the subject character and the subject image is smaller than when the player is an adult. In this case, in conjunction with the size of the subject character or subject image that has become smaller, the size of the character that appears together is also reduced. When the player, who is the subject, approaches the sensor 162 (color sensor 164) in FIG. 2, the size of the composite character image composed of the subject character image and the subject image increases. In this case, the size of the character shown together is also increased in conjunction with the size of the increased composite character image.

また画像生成部120は、キャラクタのサイズに応じて、被写体キャラクタ及び被写体画像の少なくとも一方のサイズを変更してもよい。例えば、合成画像に一緒に映るキャラクタとして、サイズが異なる複数のキャラクタが用意されていたとする。この場合に、サイズが大きい第1のキャラクタが一緒に映る合成画像を生成する場合には、被写体キャラクタや被写体画像のサイズを大きくする。一方、サイズが小さい第2のキャラクタが一緒に映る合成画像を生成する場合には、被写体キャラクタや被写体画像のサイズを小さくする。   The image generation unit 120 may change the size of at least one of the subject character and the subject image according to the size of the character. For example, it is assumed that a plurality of characters having different sizes are prepared as characters appearing together in the composite image. In this case, when generating a composite image in which the first character having a large size is displayed together, the size of the subject character or the subject image is increased. On the other hand, when generating a composite image in which a second character with a small size is displayed together, the size of the subject character or subject image is reduced.

また画像生成部120は、キャラクタのサイズに応じて、被写体キャラクタ及び被写体画像のサイズを変更する場合に、被写体キャラクタのサイズ変化率と被写体画像のサイズ変化率を異ならせてもよい。例えばキャラクタのサイズに応じて、被写体キャラクタ及び被写体画像のサイズを変更した場合に、同じサイズ変化率でサイズを変更すると、見た目のバランスが悪くなる場合がある。この場合には、被写体キャラクタのサイズ変化率と被写体画像のサイズ変化率を異ならせることで、見た目のバランスの悪化を抑制する。   The image generation unit 120 may change the size change rate of the subject character and the size change rate of the subject image when changing the size of the subject character and the subject image according to the size of the character. For example, when the size of the subject character and the subject image is changed according to the size of the character, if the size is changed at the same size change rate, the visual balance may be deteriorated. In this case, the deterioration of the balance of appearance is suppressed by making the size change rate of the subject character different from the size change rate of the subject image.

また画像生成部120は、再配置処理の際に、キャラクタ、被写体キャラクタ及び被写体画像の少なくとも1つについての色情報の変更処理を行ってもよい。例えば再配置処理により、キャラクタと、被写体キャラクタや被写体画像との位置関係が変更された場合に、オリジナルの色情報では、見た目のバランスが悪くなる場合がある。この場合には色情報変更処理により、キャラクタや被写体キャラクタや被写体画像の色合いを変更することで、見た目のバランスの悪化を抑制する。この色情報の変更は、色味の変更であってもよいし、明るさ(輝度)の変更であってもよい。或いは、テクスチャの変更により色情報の変更処理を実現してもよい。   Further, the image generation unit 120 may perform color information change processing on at least one of the character, the subject character, and the subject image during the rearrangement processing. For example, when the positional relationship between the character and the subject character or subject image is changed by the rearrangement process, the original color information may have a poor visual balance. In this case, the color balance is changed by changing the color of the character, the subject character, or the subject image by the color information changing process. This change in color information may be a change in color or a change in brightness (luminance). Alternatively, the color information changing process may be realized by changing the texture.

また画像生成部120は、キャラクタと被写体キャラクタの関連度合いに応じた色情報の変更処理を行ってもよい。例えばキャラクタと被写体キャラクタの関連度合いが高い場合には、キャラクタと被写体キャラクタが異なった色合いや明るさになるように、色情報の変更処理を行う。例えばキャラクタが着る衣装と被写体キャラクタが着る衣装が同一又は類似している場合には、キャラクタと被写体キャラクタの関連度合いが高いと判断され、両者の色合いや明るさが異なって見えるように、色情報の変更処理が行われる。   The image generation unit 120 may perform color information change processing according to the degree of association between the character and the subject character. For example, when the degree of association between the character and the subject character is high, color information changing processing is performed so that the character and the subject character have different shades and brightness. For example, when the costume worn by the character and the costume worn by the subject character are the same or similar, it is determined that the degree of association between the character and the subject character is high, and the color information is displayed so that the color and brightness of the character appear different. The change process is performed.

また画像生成部120は、再配置処理の際に、キャラクタと被写体キャラクタの間の境界領域、又はキャラクタと被写体画像の間の境界領域に対して、デコレーション処理を行ってもよい。このようにすれば再配置処理後において、キャラクタと被写体キャラクタの間の境界領域や、キャラクタと被写体画像の間の境界領域が、デコレーション処理により馴染んで、目立たなくなるようにすることが可能になる。なおデコレーション処理としては、例えば境界領域にデコレーション用の表示物(オブジェクト)を配置したり、境界領域に対して種々の画像エフェクトを施す処理などが考えられる。   Further, the image generation unit 120 may perform a decoration process on the boundary region between the character and the subject character or the boundary region between the character and the subject image during the rearrangement processing. In this way, after the rearrangement process, the boundary area between the character and the subject character and the boundary area between the character and the subject image become familiar with the decoration process and can be made inconspicuous. As the decoration process, for example, a display object (object) for decoration is arranged in the boundary area, and various image effects are applied to the boundary area.

また本実施形態では、被写体キャラクタ及びキャラクタの両方が、複数のオブジェクトにより構成されるモデルオブジェクトであってもよい。そして、オブジェクト空間に配置されるモデルオブジェクトである被写体キャラクタとキャラクタとの間に、仮想カメラから見て重なりがあると判定されたとする。この場合に画像生成部120は、オブジェクト空間での被写体キャラクタ及びキャラクタの少なくとも一方についての、位置及び方向(例えば向く方向)の少なくとも一方を変更する再配置処理を行う。例えば被写体キャラクタの位置及び方向の少なくとも一方を変更したり、キャラクタの位置及び方向の少なくとも一方を変更したり、被写体キャラクタ及びキャラクタの両方についての位置及び方向の少なくとも一方を変更する再配置処理を行う。   In the present embodiment, both the subject character and the character may be model objects composed of a plurality of objects. Then, it is determined that there is an overlap as seen from the virtual camera between the subject character and the character that are model objects arranged in the object space. In this case, the image generation unit 120 performs a rearrangement process of changing at least one of the position and direction (for example, the direction in which the character is directed) in at least one of the subject character and the character in the object space. For example, rearrangement processing is performed to change at least one of the position and direction of the subject character, change at least one of the position and direction of the character, or change at least one of the position and direction of both the subject character and the character. .

またゲーム処理部111は、プレーヤがゲームをプレイするためのゲーム処理を行う。そしてゲーム処理によるゲーム中に、被写体キャラクタとキャラクタの間に仮想カメラから見て重なりがあると判定されたとする。この場合に画像生成部120は、オブジェクト空間での被写体キャラクタ及びキャラクタの少なくとも一方についての、位置及び方向の少なくとも一方を変更する再配置処理を行う。このようなゲーム中での再配置処理後の生成画像は、例えば印刷部198により印刷媒体に印刷されて、払い出し口152から払い出されることになる。或いは当該生成画像の情報を、通信部196を介してサーバ等に送信してもよい。   The game processing unit 111 performs a game process for the player to play the game. Then, it is determined that there is an overlap between the subject character and the character when viewed from the virtual camera during the game processing. In this case, the image generation unit 120 performs a rearrangement process for changing at least one of the position and direction of at least one of the subject character and the character in the object space. The generated image after the rearrangement processing in the game is printed on a print medium by the printing unit 198 and is paid out from the payout port 152, for example. Alternatively, the generated image information may be transmitted to a server or the like via the communication unit 196.

また、第1の視点位置に設定された仮想カメラから見て、被写体キャラクタとキャラクタの間に重なりがあると判定されたとする。この場合に画像生成部120は、仮想カメラの位置を第1の視点位置とは異なる第2の視点位置に変更すると共に、被写体キャラクタ及びキャラクタの方向を変更する再配置処理を行う。このようにすれば、第1の視点位置の仮想カメラから見て被写体キャラクタとキャラクタが重なっている場合にも、仮想カメラの位置を第2の視点位置に変更すると共に被写体キャラクタ及びキャラクタの方向(向く方向)を変更することで、被写体キャラクタとキャラクタが重ならないように見える画像(重なりが抑制された画像)を生成できるようになる。   Further, it is assumed that it is determined that there is an overlap between the subject character and the character when viewed from the virtual camera set at the first viewpoint position. In this case, the image generation unit 120 changes the position of the virtual camera to a second viewpoint position different from the first viewpoint position, and performs a rearrangement process for changing the subject character and the direction of the character. In this way, even when the subject character and the character overlap each other when viewed from the virtual camera at the first viewpoint position, the position of the virtual camera is changed to the second viewpoint position and the direction of the subject character and character ( By changing the (facing direction), it is possible to generate an image that does not overlap the subject character and the character (an image in which the overlap is suppressed).

2.本実施形態の手法
次に本実施形態の手法について詳細に説明する。なお以下では、プレーヤの動きに応じてキャラクタを動作させるゲームに本実施形態の手法を適用した場合について説明するが、本実施形態の手法はこれに限定されず、様々なゲーム(RPGゲーム、音楽ゲーム、戦闘ゲーム、コミュニケーションゲーム、ロボットゲーム、カードゲーム、スポーツゲーム、或いはアクションゲーム等)に適用可能である。
2. Next, the method of this embodiment will be described in detail. In the following, the case where the method of the present embodiment is applied to a game in which a character moves according to the movement of the player will be described. However, the method of the present embodiment is not limited to this, and various games (RPG games, music Game, battle game, communication game, robot game, card game, sports game, action game, etc.).

2.1 ゲームの説明
まず本実施形態の画像生成システムにより実現されるゲームの例について説明する。本実施形態では図2のセンサ162によりプレーヤPL(広義には被写体)の動きを検出し、検出された動きを反映させたゲーム処理を行って、ゲーム画像を生成している。
2.1 Description of Game First, an example of a game realized by the image generation system of this embodiment will be described. In the present embodiment, the movement of the player PL (subject in a broad sense) is detected by the sensor 162 in FIG. 2, and a game process that reflects the detected movement is performed to generate a game image.

図2に示すように、センサ162(画像センサ)は、例えばその撮像方向(光軸方向)がプレーヤPL(ユーザ、操作者)の方に向くように設置されている。例えばセンサ162の撮像方向は、小さな子供についてもその全体を撮像できるように、水平面に対して俯角方向に設定されている。なお図2ではセンサ162は表示部190の横に設置されているが、設置位置はこれに限定されず、任意の位置(例えば表示部190の下部、上部等)に設置できる。   As shown in FIG. 2, the sensor 162 (image sensor) is installed so that the imaging direction (optical axis direction) faces the player PL (user, operator), for example. For example, the imaging direction of the sensor 162 is set in the depression direction with respect to the horizontal plane so that the entire child can be imaged. In FIG. 2, the sensor 162 is installed beside the display unit 190, but the installation position is not limited to this, and can be installed at an arbitrary position (for example, a lower part or an upper part of the display unit 190).

センサ162はカラーセンサ164とデプスセンサ166を含む。カラーセンサ164はカラー画像(RGB画像)を撮像するものであり、CMOSセンサやCCDなどにより実現できる。デプスセンサ166では、赤外線等の光を投射し、その投射光の反射強度や、投射光が戻ってくるまでの時間を検出することで、深度情報(デプス情報)が取得される。例えばデプスセンサ166は、赤外線を投光する赤外プロジェクタと、赤外線カメラにより構成できる。そして例えばTOF(Time Of Flight)方式により深度情報を取得する。深度情報は、その各画素位置に深度値(奥行き値)が設定され情報である。深度情報では、プレーヤやその周りの風景の深度値(奥行き値)が、例えばグレースケール値として設定される。   The sensor 162 includes a color sensor 164 and a depth sensor 166. The color sensor 164 captures a color image (RGB image) and can be realized by a CMOS sensor, a CCD, or the like. The depth sensor 166 projects light such as infrared rays and detects depth of reflection information (depth information) by detecting the reflection intensity of the projected light and the time until the projected light returns. For example, the depth sensor 166 can be configured by an infrared projector that projects infrared rays and an infrared camera. For example, depth information is acquired by a TOF (Time Of Flight) method. The depth information is information in which a depth value (depth value) is set at each pixel position. In the depth information, the depth value (depth value) of the player and the surrounding landscape is set as, for example, a gray scale value.

なお、センサ162は、カラーセンサ164とデプスセンサ166とが別々に設けられたセンサであってもよいし、カラーセンサ164とデプスセンサ166とが複合的に組み合わせられたセンサであってもよい。またデプスセンサ166はTOF方式以外の方式(例えばライトコーディング)のセンサであってもよい。また深度情報の取得手法としては種々の変形実施が可能であり、例えば超音波などを用いた測距センサなどにより深度情報を取得してもよい。   The sensor 162 may be a sensor in which the color sensor 164 and the depth sensor 166 are separately provided, or may be a sensor in which the color sensor 164 and the depth sensor 166 are combined. The depth sensor 166 may be a sensor other than the TOF method (for example, light coding). Various methods for obtaining depth information can be used. For example, depth information may be obtained by a distance measuring sensor using ultrasonic waves.

図4(A)、図4(B)は、各々、センサ162に基づき取得される深度情報、ボディーインデックス情報の例である。図4(A)は深度情報を概念的に示すものであり、この深度情報は、センサ162から見たプレーヤ等の被写体の距離を表す情報である。図4(B)のボディーインデックス情報は、人物領域を表す情報である。このボディーインデックス情報によりプレーヤのボディーの位置や形状を特定できる。   4A and 4B are examples of depth information and body index information acquired based on the sensor 162, respectively. FIG. 4A conceptually shows depth information, and this depth information is information representing the distance of a subject such as a player viewed from the sensor 162. The body index information in FIG. 4B is information representing a person area. The position and shape of the player's body can be specified by this body index information.

図5は、センサ162からのセンサ情報に基づき取得されるスケルトン情報の例である。図5ではスケルトン情報として、スケルトンを構成する骨の位置情報(3次元座標)が、関節(部位)C0〜C20の位置情報として取得されている。C0、C1、C2、C3、C4、C5、C6は、各々、腰、背骨、肩中央、右肩、左肩、首、頭に対応する。C7、C8、C9、C10、C11、C12は、各々、右肘、右手首、右手、左肘、左手首、左手に対応する。C13、C14、C15、C16、C17、C18、C19、C20は、各々、右腰、左腰、右膝、右かかと、右足、左膝、左かかと、左足に相当する。スケルトンを構成する各骨は、センサ162に映るプレーヤの各部位に対応するものとなる。例えば被写体情報取得部114は、センサ162からのセンサ情報(カラー画像情報、深度情報)に基づいて、プレーヤの3次元形状を特定する。そして3次元形状の情報や画像の動きベクトル(オプティカルフロー)などを用いて、プレーヤの各部位を推定し、各部位の関節の位置を推定する。そして推定された関節位置に対応する、深度情報での画素位置の2次元座標と、当該画素位置に設定された深度値に基づいて、スケルトンの関節の位置の3次元座標情報を求め、図5に示すようなスケルトン情報を取得する。取得されたスケルトン情報を用いることで、プレーヤの動き(手足などの部位の動きや位置の移動)を特定できるようになる。これにより、プレーヤの動きに応じてキャラクタを動作させることが可能になる。例えば図2においてプレーヤPLが手足を動かした場合に、これに連動して、表示部190に表示されるキャラクタ(プレーヤキャラクタ)の手足を動かすことが可能になる。またプレーヤPLが前後左右に移動すると、これに連動して、オブジェクト空間内でキャラクタを前後左右に移動させることが可能になる。   FIG. 5 is an example of skeleton information acquired based on sensor information from the sensor 162. In FIG. 5, position information (three-dimensional coordinates) of bones constituting the skeleton is acquired as position information of the joints (parts) C0 to C20 as the skeleton information. C0, C1, C2, C3, C4, C5, and C6 correspond to the waist, spine, center of shoulder, right shoulder, left shoulder, neck, and head, respectively. C7, C8, C9, C10, C11, and C12 correspond to the right elbow, right wrist, right hand, left elbow, left wrist, and left hand, respectively. C13, C14, C15, C16, C17, C18, C19, and C20 respectively correspond to the right hip, left hip, right knee, right heel, right foot, left knee, left heel, and left foot. Each bone constituting the skeleton corresponds to each part of the player reflected on the sensor 162. For example, the subject information acquisition unit 114 specifies the three-dimensional shape of the player based on sensor information (color image information and depth information) from the sensor 162. Then, using the information of the three-dimensional shape, the motion vector (optical flow) of the image, and the like, each part of the player is estimated, and the joint position of each part is estimated. Then, based on the two-dimensional coordinates of the pixel position in the depth information corresponding to the estimated joint position and the depth value set in the pixel position, the three-dimensional coordinate information of the position of the skeleton joint is obtained, and FIG. Acquire skeleton information as shown in. By using the acquired skeleton information, it is possible to specify the movement of the player (movement of a part such as a limb or movement of a position). This makes it possible to move the character according to the movement of the player. For example, when the player PL moves the limb in FIG. 2, the limb of the character (player character) displayed on the display unit 190 can be moved in conjunction with the movement. Further, when the player PL moves back and forth and right and left, the character can be moved back and forth and right and left in the object space in conjunction with the movement.

また本実施形態では、センサ162のカラーセンサ164によりプレーヤPLを撮影することで得られた撮像画像と、キャラクタ(プレーヤキャラクタ)の画像の合成画像を生成している。具体的には撮像画像から切り出された顔画像(広義には被写体画像、部位画像)と、キャラクタの画像の合成画像を生成する。   In this embodiment, a composite image of a captured image obtained by photographing the player PL by the color sensor 164 of the sensor 162 and an image of a character (player character) is generated. Specifically, a composite image of a face image (subject image, part image in a broad sense) cut out from a captured image and a character image is generated.

例えば図6では、キャラクタCHP(衣装)のモデルオブジェクトが用意されており、ポリゴンSCI(ビルボードポリゴン、スクリーン)には、撮像画像から切り出されたプレーヤPLの顔画像IMFが表示されている。キャラクタCHPのモデルオブジェクトは、顔(頭部)以外の複数の部位のオブジェクトで構成されており、綺麗な衣装を着たキャラクタとなっている。   For example, in FIG. 6, a model object of a character CHP (costume) is prepared, and the face image IMF of the player PL cut out from the captured image is displayed on the polygon SCI (billboard polygon, screen). The model object of the character CHP is composed of objects of a plurality of parts other than the face (head), and is a character wearing a beautiful costume.

そして図6では、仮想カメラVCの視点位置とキャラクタCHPの顔の位置を結ぶ線の延長線上に、ポリゴンSCIの顔画像IMFが表示されている。仮想カメラVC、キャラクタCHP、ポリゴンSCIの顔画像IMFを、このような配置関係に設定することで、キャラクタCHPの顔の部分にプレーヤの顔画像IMFが合成された画像を生成できるようになる。   In FIG. 6, a polygon SCI face image IMF is displayed on the extended line connecting the viewpoint position of the virtual camera VC and the face position of the character CHP. By setting the face image IMF of the virtual camera VC, the character CHP, and the polygon SCI in such an arrangement relationship, an image in which the face image IMF of the player is combined with the face portion of the character CHP can be generated.

なおキャラクタCHPに対する顔画像IMFの画像合成手法は、図6に示す手法には限定されない。例えばキャラクタCHPの顔(所定部位)を構成するオブジェクトに対して、顔画像IMF(被写体画像、部位画像)のテクスチャをマッピングするなどの種々の画像合成手法を採用できる。   Note that the image synthesis method of the face image IMF for the character CHP is not limited to the method shown in FIG. For example, various image synthesis methods such as mapping the texture of the face image IMF (subject image, part image) to the object constituting the face (predetermined part) of the character CHP can be adopted.

例えば図7(A)は、センサ162のカラーセンサ164により撮像されたプレーヤPLの撮像画像の例である。この撮像画像からプレーヤPLの顔画像IMFを切り出し(トリミングし)、図6の画像合成手法によりキャラクタCHPの画像と合成することで、図7(B)に示すような合成画像を生成できる。図7(B)では、顔の部分がプレーヤPLの顔画像IMFとなっており、顔以外の部分がCG画像であるキャラクタCHPの画像になっている。これによりプレーヤPLは、自分の分身であるキャラクタCHPに対して、童話やアニメの世界の主人公が着ているような衣装を着せて、ゲームをプレイできるため、ゲームの面白味やプレーヤの熱中度を向上できる。   For example, FIG. 7A shows an example of a captured image of the player PL captured by the color sensor 164 of the sensor 162. A face image IMF of the player PL is cut out (trimmed) from the captured image and synthesized with the image of the character CHP by the image synthesis method of FIG. 6, thereby generating a composite image as shown in FIG. In FIG. 7B, the face part is the face image IMF of the player PL, and the part other than the face is an image of the character CHP that is a CG image. As a result, the player PL can play the game with the character CHP as his character, wearing a costume that is worn by the main characters of the fairy tales and anime, so that the fun of the game and the enthusiasm of the player can be improved. It can be improved.

図8は、本実施形態の画像生成システムにより生成されて、図2の表示部190に表示されるゲーム画像の例である。プレーヤPLの顔画像IMFが合成されたキャラクタCHPは、例えばその手に魔法の杖STを持っている。そして図2のプレーヤPLが腕を動かすと、この腕の動きがセンサ162により検出されて、図5のスケルトン情報として、腕の骨が動いているスケルトンの情報が取得される。これにより、図8に示すゲーム画像上のキャラクタCHPの腕が動くようになり、魔法の杖STで、敵キャラクタEN1、EN2、EN3をヒットして攻撃できるようになる。そして敵を倒した数やボーナスポイントの獲得などによって、プレーヤのゲーム成績が演算される。   FIG. 8 is an example of a game image generated by the image generation system of the present embodiment and displayed on the display unit 190 of FIG. The character CHP combined with the face image IMF of the player PL has, for example, a magic wand ST in its hand. When the player PL in FIG. 2 moves the arm, the movement of the arm is detected by the sensor 162, and information on the skeleton in which the bone of the arm is moving is acquired as the skeleton information in FIG. As a result, the arm of the character CHP on the game image shown in FIG. 8 moves, and the enemy character EN1, EN2, EN3 can be hit and attacked with the magic wand ST. The player's game results are calculated based on the number of defeated enemies and the acquisition of bonus points.

このように本実施形態の手法によれば、プレーヤPLは、童話やアニメの主人公の衣装を、自分の分身であるキャラクタCHPに着せて、あたかもその主人公になったかのように感じながら、図8のようなゲームをプレイできるようになる。従って、子供などのプレーヤPLが熱中できる面白味のあるゲームの実現が可能になる。   As described above, according to the method of the present embodiment, the player PL puts the costumes of the main characters of fairy tales and anime on the character CHP, which is his own character, and feels as if he is the main character, as shown in FIG. You will be able to play games like this. Therefore, it is possible to realize an interesting game that the player PL such as a child can enjoy.

2.2 再配置処理
本実施形態では、図8のようなゲーム中におけるプレーヤのキャラクタCHPの様子が映った画像や、キャラクタCHPと他のキャラクタとで一緒に撮る記念写真の撮影モードでの画像が、印刷媒体に印刷されて、図2の払い出し口152から出力される。
2.2 Rearrangement Processing In this embodiment, an image showing the state of the player character CHP in the game as shown in FIG. 8, or an image in the commemorative photo shooting mode taken together with the character CHP and another character. Is printed on the print medium and output from the payout port 152 of FIG.

図9(A)、図9(B)は、記念写真の撮影モードにおいて、表示部190に表示される画像の例である。例えば図9(A)、図9(B)では、プレーヤの顔画像が合成されたプレーヤのキャラクタCHP(広義には被写体キャラクタ)と一緒に、キャラクタCHが表示されている。プレーヤに対しては、撮影時にキャラクタCHの左側に立つことが指示される。そして撮影モードへの移行後、所定時間が経過したタイミングで、シャッター(仮想カメラのシャッター)が切られ、そのタイミングでのプレーヤのキャラクタCHPとキャラクタCHの合成画像が、印刷対象画像になる。この撮影モードにおいても、図2のセンサ162により、プレーヤの動きが検出されており、プレーヤが左右等に動くと、キャラクタCHPも左右等に動くことになる。   FIGS. 9A and 9B are examples of images displayed on the display unit 190 in the commemorative photo shooting mode. For example, in FIGS. 9A and 9B, the character CH is displayed together with the player character CHP (subject character in a broad sense) in which the player's face image is synthesized. The player is instructed to stand on the left side of the character CH at the time of shooting. Then, after the transition to the shooting mode, the shutter (the shutter of the virtual camera) is released at the timing when a predetermined time has elapsed, and the composite image of the character CHP and the character CH of the player at that timing becomes the print target image. Also in this shooting mode, the movement of the player is detected by the sensor 162 in FIG. 2, and when the player moves to the left and right, the character CHP also moves to the left and right.

そして図9(A)では、プレーヤの顔画像IMFとキャラクタCHの顔FCは重なっていないが、図9(B)では、顔画像IMFと顔FCが重なっている。この重なりは、例えば顔画像IMFのエリアAFPと、キャラクタCHの顔FCのエリアAFCが重なったか否かで判定できる。   In FIG. 9A, the face image IMF of the player and the face FC of the character CH do not overlap, but in FIG. 9B, the face image IMF and the face FC overlap. This overlap can be determined, for example, by whether or not the area AFP of the face image IMF and the area AFC of the face FC of the character CH overlap.

例えば本実施形態のゲームは、子供等を対象としたゲームになっている。このため、撮影時にキャラクタCHの左側に立つことを指示したとしても、子供が動いてしまい、図9(B)のように顔画像IMFと顔FCが重なった状態で、シャッターが切られる状況が発生してしまう。図9(B)の画像では、一緒に映るキャラクタCHの顔FCが、プレーヤの顔画像IMFに隠れてしまい、見えにくくなっている。このため、記念写真の構図としては好ましくなく、記念写真の価値が低下してしまう。   For example, the game of this embodiment is a game for children and the like. For this reason, even if it is instructed to stand on the left side of the character CH at the time of shooting, the child moves and the shutter is released in a state where the face image IMF and the face FC overlap as shown in FIG. Will occur. In the image of FIG. 9B, the face FC of the character CH shown together is hidden behind the player's face image IMF, making it difficult to see. For this reason, the composition of the commemorative photo is not preferable, and the value of the commemorative photo is reduced.

そこで本実施形態では、このような重なりが発生した場合に、キャラクタCHP(顔画像IMF)の立ち位置を調整する再配置処理を行うことで、このような重なりの問題を解決している。   Therefore, in the present embodiment, when such an overlap occurs, the rearrangement process for adjusting the standing position of the character CHP (face image IMF) is performed to solve such an overlap problem.

図10は本実施形態の手法を説明する図である。図10に示すように、プレーヤのキャラクタCHPの顔画像IMFのエリアAFPと、キャラクタCHの顔FCのエリアAFCが設定されている。   FIG. 10 is a diagram for explaining the method of this embodiment. As shown in FIG. 10, an area AFP of the face image IMF of the player character CHP and an area AFC of the face FC of the character CH are set.

顔画像IMFのエリアAFPは、例えば図5のスケルトン情報での顔の位置(C6)に基づいて設定できる。例えばスケルトン情報での顔の位置(C6)を基準にして、所与のサイズのエリアAFP(枠)を設定する。例えばエリアAFPのサイズは、図5のスケルトン情報等により特定されるプレーヤの骨格のサイズを基準に設定できる。例えばプレーヤが大人であれば、エリアAFPのサイズは大きくなり、プレーヤが子供であれば小さくなる。例えば本実施形態では、スケルトン情報等で特定されるプレーヤの骨格のサイズに基づいて、キャラクタCHP(衣装)のサイズを設定する手法を採用しているが、これと同様の手法により、エリアAFPのサイズを設定すればよい。例えばエリアAFPは、顔画像IMFを内包するようなサイズのエリアであることが望ましい。なお図10ではエリアAFPは矩形形状となっているが、円形形状等の他の形状であってもよい。   The area AFP of the face image IMF can be set based on, for example, the face position (C6) in the skeleton information of FIG. For example, an area AFP (frame) of a given size is set with reference to the face position (C6) in the skeleton information. For example, the size of the area AFP can be set based on the size of the skeleton of the player specified by the skeleton information shown in FIG. For example, if the player is an adult, the size of the area AFP increases, and if the player is a child, the size decreases. For example, in the present embodiment, a method of setting the size of the character CHP (costume) based on the size of the skeleton of the player specified by the skeleton information or the like is adopted. Just set the size. For example, the area AFP is desirably an area having a size that includes the face image IMF. In FIG. 10, the area AFP has a rectangular shape, but may have another shape such as a circular shape.

キャラクタCHのエリアAFCは、キャラクタCHの顔FCを内包するような広めのサイズに設定される。例えばキャラクタCHが2次元の画像(2次元の絵)である場合には、その画像ごとに適切なエリアAFCの位置及びサイズを設定すればよい。例えば図11(A)、図11(B)は、図10とは異なるキャラクタCHA、CHBの画像の例である。このようにエリアAFCの位置及びサイズは、各キャラクタCHA、CHBの画像ごとに設定される。例えば図11(B)のキャラクタCHBは、図10のキャラクタCHに比べて身長が低いため、エリアAFCが低い位置に設定されている。例えば顔のサイズが大きいキャラクタであれば、それに応じてエリアAFCのサイズも大きくすればよい。このエリアAFCの形状も、矩形形状には限定されず、円形形状等の他の形状であってもよい。   The area AFC of the character CH is set to a large size that includes the face FC of the character CH. For example, when the character CH is a two-dimensional image (two-dimensional picture), an appropriate position and size of the area AFC may be set for each image. For example, FIGS. 11A and 11B are examples of images of characters CHA and CHB different from those in FIG. Thus, the position and size of the area AFC are set for each image of the characters CHA and CHB. For example, the character CHB in FIG. 11B has a lower height than the character CH in FIG. 10, and thus the area AFC is set to a lower position. For example, if the character has a large face size, the size of the area AFC may be increased accordingly. The shape of the area AFC is not limited to a rectangular shape, and may be another shape such as a circular shape.

なお図10のキャラクタCHとして、キャラクタCHPと同様に、3次元のモデルオブジェクトで構成されるキャラクタを用いてもよい。即ち、複数のオブジェクトで構成されるモデルオブジェクトのレンダリング処理を行うことで、キャラクタCHの画像を生成する。この場合にはエリアAFCの位置やサイズは、キャラクタCHを実現するモデルオブジェクトのオブジェクト空間内での位置やモデルオブジェクトの形状に基づいて設定すればよい。   Note that, as the character CH in FIG. 10, a character constituted by a three-dimensional model object may be used as in the character CHP. That is, an image of the character CH is generated by performing rendering processing of a model object composed of a plurality of objects. In this case, the position and size of the area AFC may be set based on the position of the model object that realizes the character CH in the object space and the shape of the model object.

本実施形態ではセンサ162によりプレーヤの動きを検出し、プレーヤの動きに応じてキャラクタCHPを動作させている。従って、プレーヤが動くと、それに連動してキャラクタCHPも動き、顔画像IMFの位置も、図10の合成画像上で上下左右に移動することになる。このため図10のB1に示すように、顔画像IMFとキャラクタCHの顔FCが衝突(ヒット)して重なってしまう事態が発生してしまう。このような事態が発生すると、キャラクタCHPとキャラクタCHの構図がおかしくなってしまい、生成された合成画像を印刷した場合に、質の低い写真が印刷されてしまう。   In the present embodiment, the movement of the player is detected by the sensor 162, and the character CHP is moved according to the movement of the player. Therefore, when the player moves, the character CHP moves in conjunction with it, and the position of the face image IMF also moves up, down, left, and right on the composite image in FIG. For this reason, as shown in B1 of FIG. 10, a situation occurs in which the face image IMF and the face FC of the character CH collide (hit) and overlap. When such a situation occurs, the composition of the character CHP and the character CH becomes strange, and a low-quality photograph is printed when the generated composite image is printed.

そこで本実施形態では、このような顔の重なりが発生したと判定された場合に、図10のB2に示すような再配置処理を行っている。例えば図10のA1に示すように、キャラクタCHP及び顔画像IMFからなる合成キャラクタ画像を左側に移動する。即ちキャラクタCHから離れる方向に、合成キャラクタ画像を移動する。例えば図10では、顔画像IMFのエリアAFPの右辺の座標(X座標)が、キャラクタCHの顔FCのエリアAFCの左辺の座標(X座標)に一致するように、キャラクタCHP及び画像IMFの合成キャラクタ画像を移動する。即ち、キャラクタCHの顔FCにより、顔画像IMFが左側に押し出されるように移動する、再配置処理を行う。   Therefore, in this embodiment, when it is determined that such face overlap has occurred, a rearrangement process as shown in B2 of FIG. 10 is performed. For example, as shown in A1 of FIG. 10, the composite character image composed of the character CHP and the face image IMF is moved to the left side. That is, the composite character image is moved in a direction away from the character CH. For example, in FIG. 10, the character CHP and the image IMF are combined so that the right side coordinate (X coordinate) of the area AFP of the face image IMF matches the left side coordinate (X coordinate) of the area AFC of the face FC of the character CH. Move the character image. That is, a rearrangement process is performed in which the face image IMF is moved to the left by the face FC of the character CH.

こうすることで、プレーヤの顔画像IMFとキャラクタCHの顔FCが重なってしまう事態を回避することができ、より適正な構図の合成画像を生成できるようになる。従って、再配置処理後の合成画像を写真として印刷することで、プレーヤが納得の行く記念写真の印刷物を、プレーヤに提供できるようになる。   By doing so, it is possible to avoid a situation in which the face image IMF of the player and the face FC of the character CH overlap, and a composite image having a more appropriate composition can be generated. Therefore, by printing the composite image after the rearrangement process as a photograph, it becomes possible to provide the player with a printed commemorative photograph that the player is satisfied with.

なお本実施形態の再配置処理は、図10に示す手法には限定されず、種々の変形実施が可能である。例えば図10では合成キャラクタ画像(CHP、IMF)の方を移動させたが、合成キャラクタ画像(CHP、IMF)とキャラクタCHの両方を、互いに遠ざけるように移動させたり、キャラクタCHの方を移動させることで、再配置処理を実現してもよい。また図10では、プレーヤの顔画像IMFとキャラクタCHの顔FCが重ならないようにする再配置処理を行っているが、本実施形態はこれに限定されない。例えば両者の顔以外の部位(例えば手や足)が重ならないようにする再配置処理を行ってもよい。   In addition, the rearrangement process of this embodiment is not limited to the method shown in FIG. 10, and various deformation | transformation implementation is possible. For example, although the composite character image (CHP, IMF) is moved in FIG. 10, both the composite character image (CHP, IMF) and the character CH are moved away from each other, or the character CH is moved. Thus, the rearrangement process may be realized. In FIG. 10, rearrangement processing is performed so that the face image IMF of the player and the face FC of the character CH do not overlap, but the present embodiment is not limited to this. For example, a rearrangement process may be performed so that parts (for example, hands and feet) other than both faces do not overlap.

また図12に示すように、キャラクタCHP(合成キャラクタ画像)とキャラクタCHが重ならないようにする再配置処理を行ってもよい。例えば図12では、キャラクタCHPを内包するエリアACHPと、キャラクタCHを内包するエリアACHが設定されている。そして図12のC1では、エリアACHPとエリアACHが重なっており、キャラクタCHPとキャラクタCHが重なっていると判定されている。この場合に図12ではC2に示すように、キャラクタCHPとキャラクタCHが重ならないようにする再配置処理が行われている。即ち、エリアACHPとエリアACHが重ならないように、キャラクタCHPを例えば左側に移動している。なお、キャラクタCHPとキャラクタCHの両方を、互いに遠ざけるように移動したり、キャラクタCHの方を移動させることも可能である。図12に示すようにキャラクタ同士の重なりを検出して、両者が重ならないように再配置処理を行うことで、適切な構図の合成画像を生成することが可能になる。   Further, as shown in FIG. 12, a rearrangement process may be performed so that the character CHP (composite character image) and the character CH do not overlap. For example, in FIG. 12, an area ACHP that includes the character CHP and an area ACH that includes the character CH are set. In C1 of FIG. 12, it is determined that the area ACHP and the area ACH overlap, and the character CHP and the character CH overlap. In this case, as shown by C2 in FIG. 12, a rearrangement process is performed so that the character CHP and the character CH do not overlap. That is, the character CHP is moved to the left side, for example, so that the area ACHP and the area ACH do not overlap. Note that it is possible to move both the character CHP and the character CH away from each other, or to move the character CH. As shown in FIG. 12, it is possible to generate a composite image with an appropriate composition by detecting an overlap between characters and performing a rearrangement process so that they do not overlap.

以上のように本実施形態では、キャラクタCHの画像を含む合成対象画像(背景画像などを含む仮想空間画像)に対して、プレーヤ(被写体)の撮像画像から切り出された顔画像IMF(被写体画像)が合成された合成画像が生成される。そして、キャラクタCHと、顔画像IMF(被写体画像)又は顔画像IMFに連なるキャラクタCHP(被写体キャラクタ)との重なり判定処理が行われる。例えばキャラクタCHと合成キャラクタ画像(CHP、IMF)の重なり判定処理が行われる。具体的には、図10では、キャラクタCH(顔FC)と顔画像IMFとの重なり判定処理が行われ、図12では、キャラクタCHとキャラクタCHP(被写体キャラクタ)の重なり判定処理が行われている。   As described above, in the present embodiment, the face image IMF (subject image) cut out from the captured image of the player (subject) with respect to the compositing target image (virtual space image including the background image) including the character CH image. A combined image is generated by combining. Then, an overlap determination process is performed between the character CH and the face image IMF (subject image) or the character CHP (subject character) connected to the face image IMF. For example, an overlap determination process between the character CH and the composite character image (CHP, IMF) is performed. Specifically, in FIG. 10, an overlap determination process between the character CH (face FC) and the face image IMF is performed, and in FIG. 12, an overlap determination process between the character CH and the character CHP (subject character) is performed. .

そして、キャラクタCHと、顔画像IMF(被写体画像)又はキャラクタCHP(被写体キャラクタ)とが重なっていると判定された場合には、キャラクタCHと顔画像IMF又はキャラクタCHPとが重ならないようにする再配置処理が行われて、合成画像が生成される。   If it is determined that the character CH and the face image IMF (subject image) or character CHP (subject character) overlap, the character CH and the face image IMF or character CHP are not overlapped. An arrangement process is performed to generate a composite image.

より具体的には、被写体画像がプレーヤ(被写体)の顔画像IMFである場合には、図10に示すように、キャラクタCH(例えば顔FC)と、プレーヤの顔画像IMFとの重なり判定処理が行われる。そしてキャラクタCH(顔FC)と顔画像IMFとが重なっていると判定された場合には、キャラクタCH(顔FC)と顔画像IMFとが重ならないようにする再配置処理が行われて、合成画像が生成される。これによりキャラクタCH、CHPの顔等が重ならず並んで表示される合成画像を、記念写真として撮影して、印刷物としてプレーヤに提供できるようになる。   More specifically, when the subject image is the face image IMF of the player (subject), as shown in FIG. 10, an overlap determination process between the character CH (for example, face FC) and the player's face image IMF is performed. Done. When it is determined that the character CH (face FC) and the face image IMF are overlapped, a rearrangement process is performed so that the character CH (face FC) and the face image IMF do not overlap each other. An image is generated. As a result, a composite image in which the faces of the characters CH and CHP are displayed side by side without being overlapped can be taken as a commemorative photo and provided to the player as a printed matter.

また本実施形態では、例えば図13において表示部190に表示されるキャラクタCHP(被写体キャラクタ)は、複数のオブジェクトにより構成されるモデルオブジェクトとなっている。即ち、ポリゴン等のプリミティブ面で構成された3次元のCGオブジェクトでキャラクタCHPの画像が生成される。そして図13に示すように、キャラクタCHPの画像として、当該モデルオブジェクトの顔の位置にプレーヤPL(被写体)の顔画像IMFが表示される画像が生成される。このようなキャラクタCHPと顔画像IMFの合成キャラクタ画像は、例えば図6で説明した画像合成手法により生成できる。   In this embodiment, for example, a character CHP (subject character) displayed on the display unit 190 in FIG. 13 is a model object composed of a plurality of objects. That is, an image of the character CHP is generated with a three-dimensional CG object composed of a primitive surface such as a polygon. As shown in FIG. 13, an image in which the face image IMF of the player PL (subject) is displayed at the face position of the model object is generated as the image of the character CHP. Such a combined character image of the character CHP and the face image IMF can be generated by, for example, the image combining method described with reference to FIG.

そして図13に示すようにプレーヤPL(被写体)が動いた場合に、プレーヤPLの動きに応じて、合成対象画像での顔画像IMF(被写体画像)の合成位置が変化する合成画像を生成されて、表示部190に表示される。即ち、プレーヤPLが右に動いて、その顔が右に移動した場合には、それに応じて、表示部190に表示される顔画像IMFも右側に移動する。同様にプレーヤPLが左に動いて、その顔が左に移動した場合には、それに応じて、顔画像IMFも左側に移動する。   As shown in FIG. 13, when the player PL (subject) moves, a composite image is generated in which the composite position of the face image IMF (subject image) in the compositing target image changes according to the movement of the player PL. Are displayed on the display unit 190. That is, when the player PL moves to the right and the face moves to the right, the face image IMF displayed on the display unit 190 also moves to the right accordingly. Similarly, when the player PL moves to the left and the face moves to the left, the face image IMF also moves to the left accordingly.

具体的には本実施形態では、図5で説明したスケルトン情報を用いてキャラクタCHPの動作を制御している。例えばスケルトン情報に基づくモーションデータにより、キャラクタCHPのモーション再生を行って、キャラクタCHPを動作させる。   Specifically, in this embodiment, the movement of the character CHP is controlled using the skeleton information described with reference to FIG. For example, the motion of the character CHP is reproduced by the motion data based on the skeleton information, and the character CHP is operated.

図14はスケルトンを概念的に説明する図である。キャラクタCHPを動作させるスケルトンは、キャラクタCHPの位置に配置設定される3次元形状の骨格であり、SKは、このスケルトンをスクリーンSCSに投影したものを表している。スケルトンは、図5で説明したように複数の関節で構成されており、各関節の位置は3次元座標で表される。スケルトンは、図13のプレーヤPLの動きに連動して、その骨が動く。そして、スケルトンの骨が動くと、これに連動して、キャラクタCHPの当該骨に対応する部位も動くことになる。例えばプレーヤPLが腕を動かすと、これに連動して、スケルトンの腕の骨が動き、キャラクタCHPの腕も動くことになる。またプレーヤPLが足を動かすと、これに連動して、スケルトンの足の骨が動き、キャラクタCHPの足も動くことになる。またプレーヤPLが頭部を動かすと、これに連動して、スケルトンの頭部の骨が動き、キャラクタCHPの頭部も動くことになる。なお図14では、例えば仮想カメラVCの視点位置にセンサ162が配置され、仮想カメラVCの視線方向にセンサ162の撮像方向が向いているものとして想定されている。   FIG. 14 is a diagram for conceptually explaining the skeleton. The skeleton for moving the character CHP is a three-dimensional skeleton arranged and set at the position of the character CHP, and SK represents a projection of the skeleton on the screen SCS. As described with reference to FIG. 5, the skeleton is composed of a plurality of joints, and the position of each joint is represented by three-dimensional coordinates. The bone of the skeleton moves in conjunction with the movement of the player PL in FIG. When the bone of the skeleton moves, the part corresponding to the bone of the character CHP also moves in conjunction with this movement. For example, when the player PL moves his / her arm, the bone of the skeleton's arm moves and the arm of the character CHP moves accordingly. When the player PL moves his / her foot, the skeleton's foot bones move in conjunction with this, and the character CHP's feet also move. When the player PL moves his / her head, the skeleton's head bone moves and the character CHP's head moves accordingly. In FIG. 14, for example, it is assumed that the sensor 162 is disposed at the viewpoint position of the virtual camera VC, and the imaging direction of the sensor 162 is oriented in the line-of-sight direction of the virtual camera VC.

このように本実施形態では、プレーヤPLの動きに連動してキャラクタCHPが動作する。従って、プレーヤPLが頭部を動かすと、表示部190に表示される顔画像IMFも、これに連動して動くため、図9(B)に示すように、顔画像IMFと、合成対象画像に表示されるキャラクタCHの顔FCとが重なってしまう事態が生じ得る。本実施形態では、このような場合にも図10に示すような再配置処理が行われるため、このような事態の発生を回避して、適正な構図の合成画像をプレーヤに提供できるようになる。   Thus, in this embodiment, the character CHP operates in conjunction with the movement of the player PL. Accordingly, when the player PL moves his / her head, the face image IMF displayed on the display unit 190 also moves in conjunction with this, and therefore, as shown in FIG. 9B, the face image IMF and the compositing target image are displayed. A situation may occur in which the face FC of the displayed character CH overlaps. In this embodiment, the rearrangement process as shown in FIG. 10 is also performed in such a case, so that such a situation can be avoided and a composite image with an appropriate composition can be provided to the player. .

また本実施形態では、キャラクタCHPは、複数のオブジェクトにより構成されるモデルオブジェクトであり、オブジェクト空間(3次元仮想空間)において、プレーヤPL(被写体)の位置に対応する位置に配置される当該モデルオブジェクトのレンダリング処理を行うことで、キャラクタCHP(被写体キャラクタ)の画像が生成される。例えば図15において、キャラクタCHPは、オブジェクト空間内において、図13でのプレーヤPLの位置に対応する位置に配置される。例えばプレーヤPLが前後左右に移動すると、キャラクタCHPもオブジェクト空間内において前後左右に移動することになる。   In the present embodiment, the character CHP is a model object composed of a plurality of objects, and the model object arranged at a position corresponding to the position of the player PL (subject) in the object space (three-dimensional virtual space). By performing this rendering process, an image of the character CHP (subject character) is generated. For example, in FIG. 15, the character CHP is arranged at a position corresponding to the position of the player PL in FIG. 13 in the object space. For example, when the player PL moves forward / backward / left / right, the character CHP also moves forward / backward / left / right in the object space.

そして、モデルオブジェクトであるキャラクタCHPのレンダリング処理は、図15に示すように光源LSを用いた照明モデルに基づいて行われる。具体的には、照明モデルに基づくライティング処理(シェーディング処理)が行われる。このライティング処理は、光源LSの情報(光源ベクトル、光源色、明るさ、光源タイプ等)や、仮想カメラVCの視線ベクトルや、キャラクタCHPを構成するオブジェクトの法線ベクトルや、オブジェクトのマテリアル(色、材質)などを用いて行われる。なお照明モデルとしては、アンビエント光とディフューズ光だけを考慮したランバードの拡散照明モデルや、アンビエント光、ディフューズ光に加えてスペキュラ光も考慮するフォンの照明モデルやブリン・フォンの照明モデルなどがある。   And the rendering process of the character CHP which is a model object is performed based on the illumination model using the light source LS as shown in FIG. Specifically, lighting processing (shading processing) based on the illumination model is performed. This lighting processing includes information on the light source LS (light source vector, light source color, brightness, light source type, etc.), a line-of-sight vector of the virtual camera VC, a normal vector of an object constituting the character CHP, and an object material (color). , Material) and the like. Illumination models include the Lumbard diffuse lighting model that considers only ambient light and diffuse light, the phone lighting model that considers specular light in addition to ambient light and diffuse light, and the Bling phone lighting model. is there.

このように照明モデルに基づくライティング処理を行うことで、キャラクタCHPに対して光源LSによる適切な陰影づけがついたリアルで高品質な画像を生成できるようになる。例えばスポットライトの光源を用いてライティング処理を行えば、スポットライトにより照らされているように見えるキャラクタCHP(衣装)の画像を生成できるようになり、プレーヤの仮想現実感等を向上できる。   By performing the lighting process based on the illumination model in this way, it is possible to generate a real and high-quality image in which the character CHP is appropriately shaded by the light source LS. For example, if lighting processing is performed using a spotlight light source, an image of a character CHP (costume) that appears to be illuminated by the spotlight can be generated, and the virtual reality of the player can be improved.

ここで図10の再配置処理を実現する手法としては、例えば2次元的な再配置処理である第1の手法と、3次元的な再配置処理である第2の手法を想定できる。   Here, as a technique for realizing the rearrangement process of FIG. 10, for example, a first technique that is a two-dimensional rearrangement process and a second technique that is a three-dimensional rearrangement process can be assumed.

例えば第1の手法では、キャラクタCHが表示される2次元画像と、キャラクタCHPと顔画像IMFが合成された2次元画像の相対的な位置関係を変更することで、図10の再配置処理を実現する。例えば第1のレイヤーに、キャラクタCHの2次元画像を設定し、第2のレイヤーに、キャラクタCHPと顔画像IMFが合成された2次元画像を設定する。そしてキャラクタCHの顔FCと顔画像IMFの重なりが検出された場合には、第1のレイヤーに対して第2のレイヤーを相対的にずらすことで、図10の再配置処理を実現する。例えば図10において、キャラクタCHPと顔画像IMFの合成画像が設定された第2のレイヤーを、左側にずらすことで、再配置処理を実現する。この第1の手法によれば、図10の再配置処理を、処理負荷の少ない処理で実現できるという利点がある。   For example, in the first method, the rearrangement process of FIG. 10 is performed by changing the relative positional relationship between the two-dimensional image in which the character CH is displayed and the two-dimensional image in which the character CHP and the face image IMF are combined. Realize. For example, a two-dimensional image of the character CH is set in the first layer, and a two-dimensional image obtained by combining the character CHP and the face image IMF is set in the second layer. If an overlap between the face FC of the character CH and the face image IMF is detected, the rearrangement process of FIG. 10 is realized by relatively shifting the second layer with respect to the first layer. For example, in FIG. 10, the rearrangement process is realized by shifting the second layer in which the composite image of the character CHP and the face image IMF is set to the left side. According to this first method, there is an advantage that the rearrangement process of FIG. 10 can be realized by a process with a small processing load.

一方、第2の手法では、例えばオブジェクト空間内でのキャラクタCHP等の位置を変更することで、図10の再配置処理を実現する。例えば図16は、キャラクタCHPのモデルオブジェクト情報の例である。このモデルオブジェクト情報は、オブジェクト空間内でのモデルオブジェクトの位置の情報や方向の情報を含む。またモデルオブジェクトを構成する複数のオブジェクトOB1、OB2、OB3・・・の情報を含む。そして第2の手法では、図16のモデルオブジェクト情報に含まれるモデルオブジェクトの位置を変更することで、図10の再配置処理を実現する。この第2の手法では、例えばキャラクタCHについても、複数のオブジェクトで構成されるモデルオブジェクトにより、その画像を生成することが望ましい。この場合には、オブジェクト空間内での、キャラクタCHPのモデルオブジェクトとキャラクタCHのモデルオブジェクトの相対的な位置関係を変更することで、図10の再配置処理を実現できる。   On the other hand, in the second method, for example, the rearrangement process of FIG. 10 is realized by changing the position of the character CHP or the like in the object space. For example, FIG. 16 is an example of model object information of the character CHP. The model object information includes information on the position and direction of the model object in the object space. It also includes information on a plurality of objects OB1, OB2, OB3. In the second method, the rearrangement process of FIG. 10 is realized by changing the position of the model object included in the model object information of FIG. In the second method, for example, it is desirable to generate an image of the character CH using a model object composed of a plurality of objects. In this case, the rearrangement process of FIG. 10 can be realized by changing the relative positional relationship between the model object of the character CHP and the model object of the character CH in the object space.

例えば上述の第1の手法のように2次元画像の状態で再配置処理を行って、キャラクタCHPの位置を移動すると、再配置処理後でのキャラクタCHPの陰影づけが、不適切な陰影づけになってしまうおそれがある。例えば図10において、キャラクタCHの上方に対応する位置に、スポットライトの光源が配置されていたとする。この場合に再配置処理が行われる前である図10のB1の状態において、当該スポットライトが上方からキャラクタCHPを照らす陰影づけが行われたレンダリング画像が、キャラクタCHPの画像として生成されることになる。ところが、図10のB2に示すように再配置処理が行われると、実際にはキャラクタCHPの上方にはスポットライトは存在しないのに、再配置処理後においても、あたかも上方からスポットライトで照らされたかのような陰影づけが施されたキャラクタCHPの画像が表示されてしまう。従って、陰影づけに矛盾が生じ、プレーヤが不自然さを感じるおそれがある。   For example, when the rearrangement process is performed in the state of the two-dimensional image as in the first method described above and the position of the character CHP is moved, the shading of the character CHP after the rearrangement process becomes an inappropriate shading. There is a risk of becoming. For example, in FIG. 10, it is assumed that the light source of the spotlight is arranged at a position corresponding to the upper side of the character CH. In this case, in the state of B1 in FIG. 10 before the rearrangement process is performed, a rendering image in which the spotlight is shaded to illuminate the character CHP from above is generated as an image of the character CHP. Become. However, when the rearrangement process is performed as shown in B2 of FIG. 10, there is actually no spotlight above the character CHP, but even after the rearrangement process, the spotlight is illuminated from above. An image of the character CHP to which shading is applied is displayed. Therefore, there is a contradiction in shading, and the player may feel unnaturalness.

この点、第2の手法では、再配置処理が行われた場合にも、オブジェクト空間において再配置位置に配置されたキャラクタCHPのモデルオブジェクトのレンダリング処理が、照明モデルに基づいて行われて、キャラクタCHP(被写体キャラクタ)の画像が生成される。従って、上述のような陰影づけの矛盾が生じる事態を回避でき、より自然でリアルな画像を生成できるという利点がある。なお本実施形態の再配置処理は、印刷用の写真の画像を合成する際の再配置処理には限定されず、例えばゲームプレイ中のリアルタイムな再配置処理であってもよい。   In this regard, in the second method, even when the rearrangement process is performed, the rendering process of the model object of the character CHP arranged at the rearrangement position in the object space is performed based on the illumination model, and the character An image of CHP (subject character) is generated. Therefore, there is an advantage that it is possible to avoid a situation in which the above-described shading contradiction occurs and to generate a more natural and realistic image. Note that the rearrangement process of the present embodiment is not limited to the rearrangement process when compositing a photographic image for printing, and may be a realtime rearrangement process during game play, for example.

なお、本実施形態では、図14等で説明したように、センサ162からのセンサ情報に基づいて、プレーヤPLのスケルトン情報を取得し、このスケルトン情報に基づいてキャラクタCHPを動作させる。これにより、プレーヤPLの動きに応じて、モデルオブジェクトであるキャラクタCHPを動作させることが可能になる。そして、オブジェクト空間での、当該モデルオブジェクト(キャラクタCHP)の配置位置、モデルオブジェクトの形状、或いはモデルオブジェクトを構成するオブジェクトの配置位置を用いて、図10の再配置処理を行う。   In the present embodiment, as described with reference to FIG. 14 and the like, the skeleton information of the player PL is acquired based on the sensor information from the sensor 162, and the character CHP is operated based on the skeleton information. Thereby, the character CHP that is the model object can be operated in accordance with the movement of the player PL. Then, the rearrangement process of FIG. 10 is performed using the arrangement position of the model object (character CHP), the shape of the model object, or the arrangement positions of the objects constituting the model object in the object space.

例えば図10の再配置処理を行う場合に、キャラクタCH(例えば3次元のモデルオブジェクトのキャラクタ)と重ならないように、オブジェクト空間での、モデルオブジェクト(キャラクタCHP)の配置位置をずらしたり、モデルオブジェクトの形状を変更する。或いは、キャラクタCHと重ならないように、モデルオブジェクトを構成するオブジェクト(例えば頭部、手、足等の部位オブジェクト)の位置を変更する。例えば図10において、キャラクタCHPのモデルオブジェクトの頭部のオブジェクトを、A1の方向にずらす再配置処理を行う。このようにすれば、スケルトン情報を用いることで、プレーヤPLの動きに応じてモデルオブジェクト(キャラクタCHP)を動作させることが可能なシステムにおいて、図10に示す再配置処理を行うことが可能になり、スケルトン情報を用いる画像生成システムに好適な再配置処理を実現できるようになる。   For example, when the rearrangement process of FIG. 10 is performed, the arrangement position of the model object (character CHP) in the object space is shifted so as not to overlap with the character CH (for example, a three-dimensional model object character), or the model object Change the shape. Alternatively, the position of an object constituting the model object (for example, a part object such as a head, a hand, or a foot) is changed so as not to overlap with the character CH. For example, in FIG. 10, a rearrangement process for shifting the head object of the model object of the character CHP in the direction of A1 is performed. In this way, by using the skeleton information, the rearrangement process shown in FIG. 10 can be performed in the system that can move the model object (character CHP) according to the movement of the player PL. Thus, a rearrangement process suitable for an image generation system using skeleton information can be realized.

2.3 合成画像の生成
さて、本実施形態によるキャラクタCHPとキャラクタCHの合成画像の生成手法としては、種々の手法が考えられる。
2.3 Generation of Composite Image Various methods are conceivable as a method for generating a composite image of the character CHP and the character CH according to the present embodiment.

例えば本実施形態では、再配置処理による再配置態様が異なる複数の合成画像を生成してもよい。そして、複数の合成画像の中からプレーヤにより選択された画像を、印刷媒体に印刷する処理を行うようにする。一例としては、再配置態様が異なる複数の合成画像の中から選択された画像を印刷する。或いは、複数の合成画像の中から選択された画像を図2の通信部196によりインターネット等に送信して、当該画像をサーバにより管理し、例えばスマートフォン、タブレットPC、パーソナルコンピュータ等の情報端末の表示部に表示する。   For example, in the present embodiment, a plurality of composite images having different rearrangement modes by the rearrangement process may be generated. Then, a process of printing an image selected by the player from a plurality of composite images on a print medium is performed. As an example, an image selected from a plurality of composite images having different rearrangement modes is printed. Alternatively, an image selected from a plurality of composite images is transmitted to the Internet or the like by the communication unit 196 in FIG. 2, and the image is managed by a server. For example, a display of an information terminal such as a smartphone, a tablet PC, or a personal computer is displayed. To display.

例えば図17のD1、D2、D3に示す合成画像では、キャラクタCHPとキャラクタCHの再配置態様が、互いに異なっている。例えば図10では、キャラクタCH(FC)から左方向側にキャラクタCHPを移動する再配置が行われている。これに対して図17のD1、D2では、左斜め下方向側にキャラクタCHPを移動する再配置処理が行われ、D3では、右斜め下方向側にキャラクタCHPを移動する再配置処理が行われており、再配置態様が異なる合成画像になっている。プレーヤが、これらの複数の合成画像の中から所望の合成画像を選択すると、選択された合成画像が記念写真として印刷されるようになる。   For example, in the composite image shown in D1, D2, and D3 in FIG. 17, the rearrangement modes of the character CHP and the character CH are different from each other. For example, in FIG. 10, rearrangement for moving the character CHP from the character CH (FC) to the left side is performed. On the other hand, in D1 and D2 in FIG. 17, a rearrangement process for moving the character CHP in the diagonally downward left direction is performed, and in D3, a rearrangement process in which the character CHP is moved in the diagonally downward right side is performed. And are rearranged composite images. When the player selects a desired composite image from the plurality of composite images, the selected composite image is printed as a commemorative photo.

例えば図10に示すような再配置処理を行うと、表示部190の前に居るプレーヤの実際の位置と、キャラクタCHPの位置が対応しなくなってしまうため、プレーヤが不自然さを感じるおそれがある。   For example, when the rearrangement process as shown in FIG. 10 is performed, the actual position of the player in front of the display unit 190 and the position of the character CHP do not correspond to each other, so that the player may feel unnaturalness. .

この点、図17のように再配置態様が異なる複数の合成画像をプレーヤに表示すれば、プレーヤが感じる不自然感を低減することが可能になる。また図17のように再配置態様が異なる複数の合成画像を表示すれば、印刷対象となる候補画像のバラエティー度を増すことができ、プレーヤの選択対象の範囲を広めることも可能になる。   In this regard, if a plurality of composite images having different rearrangement modes as shown in FIG. 17 are displayed on the player, the unnatural feeling felt by the player can be reduced. If a plurality of composite images having different rearrangement modes as shown in FIG. 17 are displayed, the variety of candidate images to be printed can be increased, and the range of selection targets of the player can be widened.

また本実施形態では、再配置処理の際に、キャラクタCH、キャラクタCHP(被写体キャラクタ)、及び顔画像IMF(被写体画像)の少なくとも1つについてのサイズの変更処理を行うようにしてもよい。例えばキャラクタCHPや顔画像IMFのサイズに応じて、キャラクタCHのサイズを変更する。   In the present embodiment, the size changing process for at least one of the character CH, the character CHP (subject character), and the face image IMF (subject image) may be performed during the rearrangement process. For example, the size of the character CH is changed according to the size of the character CHP or the face image IMF.

例えば図18(A)では、身長が高い第1のプレーヤがゲームをプレイしており、第1のプレーヤの高い身長に合わせて、キャラクタCHPのサイズが大きくなっている。図18(A)の顔画像IMFは、この第1のプレーヤを撮影することで得られた顔画像である。一方、図18(B)では、身長が低い第2のプレーヤがゲームをプレイしており、第2のプレーヤの低い身長に合わせて、キャラクタCHPのサイズが小さくなっている。図18(B)の顔画像IMF2は、この第2のプレーヤを撮影することで得られた顔画像である。   For example, in FIG. 18A, the first player with a high height is playing a game, and the size of the character CHP is increased in accordance with the height of the first player. A face image IMF in FIG. 18A is a face image obtained by photographing the first player. On the other hand, in FIG. 18B, the second player with a short height is playing the game, and the size of the character CHP is reduced in accordance with the low height of the second player. A face image IMF2 in FIG. 18B is a face image obtained by photographing the second player.

即ち、本実施形態ではセンサ162によりプレーヤの骨格を認識することで、図5に示すようなスケルトン情報を取得する。そして、取得されたスケルトンの大きさに応じて、キャラクタCHPのサイズを設定する。こうすれば、画面に表示されるキャラクタCHPのサイズが、プレーヤの体格に連動するようになり、プレーヤの仮想現実感を向上できる。即ち、背の高いプレーヤでは、対応するキャラクタCHPの背も高くなり、背の低いプレーヤでは、対応するキャラクタCHPの背も低くなるため、あたかも自分が童話やアニメのキャラクタCHPに変身して、ゲームを行っているという仮想現実感を与えることができる。   That is, in this embodiment, the skeleton information as shown in FIG. 5 is acquired by recognizing the player's skeleton by the sensor 162. Then, the size of the character CHP is set according to the size of the acquired skeleton. In this way, the size of the character CHP displayed on the screen is linked to the player's physique, and the virtual reality of the player can be improved. That is, in a tall player, the corresponding character CHP is tall, and in a short player, the corresponding character CHP is also short. Can give the virtual reality that

そして、このようにキャラクタCHPのサイズが変化した場合に、それに連動して、一緒に映るキャラクタCHについてもそのサイズを変更することが、記念写真の構図として好ましい。例えば図18(A)では背の高いキャラクタCHPに対応して、キャラクタCHの背も高くなるように表示され、図18(B)では背の低いキャラクタCHPに対応して、キャラクタCHの背も低くなるように表示される。従って、キャラクタCHPとキャラクタCHが並んだ時の構図の見栄えが、より好ましい見栄えになり、記念写真に好適な画像を印刷して、プレーヤに提供できるようになる。   Then, when the size of the character CHP changes in this way, it is preferable as a commemorative photo composition to change the size of the character CH shown together in association with it. For example, in FIG. 18A, the character CH is displayed so as to be tall corresponding to the tall character CHP, and in FIG. 18B, the character CH is also displayed corresponding to the short character CHP. Displayed to be lower. Accordingly, the appearance of the composition when the character CHP and the character CH are lined up is more preferable, and an image suitable for a commemorative photo can be printed and provided to the player.

なお、プレーヤの身長などが異なる場合に、顔画像についても、キャラクタCHPのサイズに合わせて調整してもよい。例えば図18(A)のようにキャラクタCHPのサイズが大きい場合には、それに合わせて、第1のプレーヤの顔画像IMFのサイズも大きくする。一方、図18(B)のようにキャラクタCHPのサイズが小さい場合には、それに合わせて、第2のプレーヤの顔画像IMF2のサイズも小さくする。こうすることで、キャラクタCHPと顔画像IMF、IMF2からなる合成キャラクタ画像の見栄えのバランスについても、向上できるようになる。   Note that when the height of the player is different, the face image may be adjusted according to the size of the character CHP. For example, when the size of the character CHP is large as shown in FIG. 18A, the size of the face image IMF of the first player is also increased accordingly. On the other hand, when the size of the character CHP is small as shown in FIG. 18B, the size of the face image IMF2 of the second player is also reduced accordingly. By doing so, it is possible to improve the balance of the appearance of the composite character image composed of the character CHP and the face images IMF and IMF2.

また本実施形態では、キャラクタCHのサイズに応じて、キャラクタCHPや顔画像IMFのサイズを変更してもよい。   In the present embodiment, the size of the character CHP or the face image IMF may be changed according to the size of the character CH.

例えば図19(A)では、記念写真に一緒に写るキャラクタCHは背の高いキャラクタになっている。この場合には、この背の高いキャラクタCHに合わせて、プレーヤのキャラクタCHPのサイズを大きくする。一方、図19(B)では、記念写真に一緒に写るキャラクタCHBは背の低いキャラクタになっている。この場合には、この背の低いキャラクタCHBに合わせて、プレーヤのキャラクタCHPのサイズを小さくする。   For example, in FIG. 19A, the character CH shown together in the commemorative photo is a tall character. In this case, the size of the player character CHP is increased in accordance with the tall character CH. On the other hand, in FIG. 19 (B), the characters CHB appearing together in the commemorative photo are short characters. In this case, the size of the player character CHP is reduced in accordance with the short character CHB.

このようにすれば、図19(A)のようにキャラクタCHPとキャラクタCHが並んだ時の構図の見栄えや、図19(B)のようにキャラクタCHPとキャラクタCHBが並んだ時の構図の見栄えが、より好ましい見栄えになり、記念写真に好適な画像を印刷して、プレーヤに提供できるようになる。即ち、記念写真に一緒に写るキャラクタとして、プレーヤが、いずれのキャラクタを選択した場合にも、見栄えの良い構図の記念写真を撮影できるようになる。   In this way, the appearance of the composition when the character CHP and the character CH are arranged as shown in FIG. 19A, or the appearance of the composition when the character CHP and the character CHB are arranged as shown in FIG. 19B. However, the image looks more preferable, and an image suitable for a commemorative photo can be printed and provided to the player. In other words, the player can take a commemorative photo with a good-looking composition, regardless of which character is selected by the player as a character to be taken together in the commemorative photo.

なお、図19(A)、図19(B)のようにキャラクタCHのサイズに応じて、キャラクタCHP及び顔画像IMFのサイズを変更する場合に、キャラクタCHPのサイズ変化率と、顔画像IMFのサイズ変化率を異ならせることが望ましい。例えば図20(A)において、顔画像IMFのサイズ変化率はSRFに設定されており、キャラクタCHPのサイズ変化率はSRCに設定されている。この場合にサイズ変化率SRF、SRCの値を異ならせる。   Note that when the sizes of the character CHP and the face image IMF are changed according to the size of the character CH as shown in FIGS. 19A and 19B, the size change rate of the character CHP and the face image IMF It is desirable to vary the size change rate. For example, in FIG. 20A, the size change rate of the face image IMF is set to SRF, and the size change rate of the character CHP is set to SRC. In this case, the size change rates SRF and SRC are made different.

例えば図19(A)、図19(B)のように、キャラクタCH、CHBのサイズに合わせて、プレーヤのキャラクタCHPのサイズを変更した場合に、キャラクタCHPのサイズ変化率SRCと顔画像IMFのサイズ変化率SRFを、同じ値にしてしまうと、見た目のバランスが不自然になる場合がある。例えば図19(A)において、キャラクタCHPのボディー部分に対して、顔画像IMFが大きくなりすぎて、不自然に見えたり、図19(B)において、キャラクタCHPのボディー部分に対して、顔画像IMFが小さくなりすぎて、不自然に見えたりするなどの事態が生じるおそれがある。   For example, as shown in FIGS. 19A and 19B, when the size of the character CHP of the player is changed in accordance with the sizes of the characters CH and CHB, the size change rate SRC of the character CHP and the face image IMF If the size change rate SRF is set to the same value, the apparent balance may become unnatural. For example, in FIG. 19A, the face image IMF becomes too large for the body portion of the character CHP and looks unnatural, or in FIG. 19B, the face image for the body portion of the character CHP. There is a possibility that the IMF becomes too small and looks unnatural.

この点、図20(A)のように、キャラクタCHのサイズ変化率SRCと、顔画像IMFのサイズ変化率SRFを別々に設定できるようにすれば、上記のように不自然な見た目になるといった事態の発生を、効果的に防止できる。   In this regard, as shown in FIG. 20A, if the size change rate SRC of the character CH and the size change rate SRF of the face image IMF can be set separately, the unnatural appearance will occur as described above. The occurrence of a situation can be effectively prevented.

また本実施形態では、再配置処理の際に、キャラクタCH、キャラクタCHP(被写体キャラクタ)及び顔画像IMF(被写体画像)の少なくとも1つについての色情報の変更処理を行ってもよい。例えば図21のA1に示すように、顔画像IMFとキャラクタCHの顔FCが重なるのを防止する再配置処理を行った際に、キャラクタCH、キャラクタCHP、或いは顔画像IMFの色情報を変更する。例えばキャラクタCHとプレーヤのキャラクタCHPの関連度合いに応じた色情報の変更処理を行う。   In the present embodiment, color information change processing for at least one of the character CH, the character CHP (subject character), and the face image IMF (subject image) may be performed during the rearrangement processing. For example, as shown in A1 of FIG. 21, the color information of the character CH, the character CHP, or the face image IMF is changed when the rearrangement process for preventing the face image IMF and the face FC of the character CH from overlapping each other is performed. . For example, the color information is changed according to the degree of association between the character CH and the player character CHP.

例えば、キャラクタCHとキャラクタCHPの関連度合いが高く、キャラクタCHが着る衣装の形と、キャラクタCHPが着る衣装の形が、同じような形であったとする。この場合には、再配置後における両者の衣装の違いを目立たせるために、キャラクタCHの衣装の色合いや、キャラクタCHPの衣装の色合いを変更する。例えば2つの衣装の色が異なった色になるように、色情報の変更処理を行う。   For example, it is assumed that the degree of association between the character CH and the character CHP is high, and the shape of the costume worn by the character CH and the shape of the costume worn by the character CHP are similar. In this case, in order to make the difference between the costumes after the rearrangement stand out, the color of the costume of the character CH and the color of the costume of the character CHP are changed. For example, the color information is changed so that the colors of the two costumes are different.

一方、キャラクタCHとキャラクタCHPの関連度合いが低く、キャラクタCHが着る衣装の色や形と、キャラクタCHPが着る衣装の色や形が、全く異なる色や形であったとする。この場合には、キャラクタCHとキャラクタCHPの境界領域において、両者の衣装の色等を馴染ませるような色情報の変更処理を行う。例えば両者の境界領域において色のグラディエーション処理を行ったり、色の明るさ調整を行う。こうすることで、再配置処理後に並んで映るキャラクタCHとキャラクタCHPの合成画像の見栄えや品質を、向上できる。なおキャラクタCHとプレーヤのキャラクタCHPの関連度合いは、例えば図20(B)に示すようなキャラクタ間の関連度合いを表すテーブルデータなどに基づいて、判断すればよい。   On the other hand, it is assumed that the degree of association between the character CH and the character CHP is low, and the color and shape of the costume worn by the character CH and the color and shape of the costume worn by the character CHP are completely different colors and shapes. In this case, color information changing processing is performed in the boundary region between the character CH and the character CHP so as to adjust the colors of the costumes of the character CH and the character CHP. For example, color gradient processing is performed in the boundary region between the two, and color brightness adjustment is performed. By doing so, it is possible to improve the appearance and quality of the combined image of the character CH and the character CHP that are displayed side by side after the rearrangement process. Note that the degree of association between the character CH and the player character CHP may be determined based on, for example, table data representing the degree of association between characters as shown in FIG.

また本実施形態では、再配置処理の際に、キャラクタCHとプレーヤのキャラクタCHPの間の境界領域、又はキャラクタCHと顔画像IMFの間の境界領域に対して、デコレーション処理を行ってもよい。   In the present embodiment, in the rearrangement process, the decoration process may be performed on the boundary region between the character CH and the player character CHP or the boundary region between the character CH and the face image IMF.

例えば図22では、キャラクタCHとキャラクタCHPの間や、キャラクタCHと顔画像IMFの間の境界領域に対して、花やハートマークの表示物を配置するデコレーション処理が行われている。このようなデコレーション処理を行うことで、再配置処理後のキャラクタCHとキャラクタCHPや顔画像IMFとの間の境界領域を馴染ませて、目立たないようにすることが可能になり、より高品質の合成画像をプレーヤに提供できるようになる。なおデコレーション処理に使用される表示物(オブジェクト)は、プレーヤが所有しているアイテムの表示物であってもよいし、キャラクタCHやキャラクタCHPに関連づけて付随しているような表示物であってもよい。またデコレーション処理として、キャラクタCHとキャラクタCHPや顔画像IMFとの間の境界領域に対して、明るさ等を変化させる画像エフェクト処理を行うようにしてもよい。このように本実施形態のデコレーション処理としては、種々の処理を想定できる。   For example, in FIG. 22, a decoration process is performed in which a display object such as a flower or a heart mark is arranged between the character CH and the character CHP or between the character CH and the face image IMF. By performing such a decoration process, it becomes possible to adjust the boundary area between the character CH after the rearrangement process and the character CHP or the face image IMF so that the boundary area is not noticeable. The composite image can be provided to the player. The display object (object) used for the decoration process may be an item display object owned by the player, or a display object associated with the character CH or the character CHP. Also good. Further, as a decoration process, an image effect process for changing brightness or the like may be performed on a boundary area between the character CH and the character CHP or the face image IMF. Thus, various processes can be assumed as the decoration process of the present embodiment.

2.4 変形例
次に本実施形態の種々の変形例を説明する。例えば図23において、キャラクタCHP(被写体キャラクタ)及びキャラクタCHの両方が、複数のオブジェクトで構成されるモデルオブジェクトとなっている。そして図23のE1では、図24(A)に示すように、オブジェクト空間に配置されるモデルオブジェクトであるキャラクタCHPとキャラクタCHとの間に、仮想カメラVCから見て重なりがあると判定されている。即ち仮想カメラVCから見た画像において、キャラクタCHPとキャラクタCHが重なって見える。このような重なりが検出された場合に、本実施形態では、キャラクタCHP及びキャラクタCHの少なくとも一方についての、位置及び方向の少なくとも一方を変更する再配置処理を行う。ここで位置は、キャラクタCHP、キャラクタCHの配置位置(代表位置)であり、方向は、例えばキャラクタCHP、キャラクタCHが向く方向である。
2.4 Modifications Next, various modifications of the present embodiment will be described. For example, in FIG. 23, both the character CHP (subject character) and the character CH are model objects composed of a plurality of objects. Then, in E1 of FIG. 23, as shown in FIG. 24A, it is determined that there is an overlap between the character CHP and the character CH, which are model objects arranged in the object space, as viewed from the virtual camera VC. Yes. That is, the character CHP and the character CH appear to overlap in the image viewed from the virtual camera VC. In the present embodiment, when such an overlap is detected, a rearrangement process is performed in which at least one of the position and direction of at least one of the character CHP and the character CH is changed. Here, the position is the character CHP and the arrangement position (representative position) of the character CH, and the direction is the direction in which the character CHP and the character CH are facing, for example.

例えば図23のE2では、図24(B)に示すように、オブジェクト空間でのキャラクタCHPの位置を変更する再配置処理が行われている。具体的には図24(B)のF1に示すように、キャラクタCHPの位置を左方向に移動して、キャラクタCHとの距離を離している。これにより図23のE2に示すように、仮想カメラVCから見て、キャラクタCHPとキャラクタCHが重ならないように見える画像を生成できる。   For example, in E2 of FIG. 23, as shown in FIG. 24B, rearrangement processing for changing the position of the character CHP in the object space is performed. Specifically, as indicated by F1 in FIG. 24B, the position of the character CHP is moved leftward to increase the distance from the character CH. As a result, as shown at E2 in FIG. 23, it is possible to generate an image that looks like the character CHP and the character CH do not overlap each other when viewed from the virtual camera VC.

なお再配置処理の際に、キャラクタCHの方の位置を変更したり、キャラクタCHPとキャラクタCHの両方の位置を変更してもよい。或いはキャラクタCHPやキャラクタCHの方向を変更することで、再配置処理を実現してもよい。   In the rearrangement process, the position of the character CH may be changed, or the positions of both the character CHP and the character CH may be changed. Alternatively, the rearrangement process may be realized by changing the direction of the character CHP or the character CH.

例えば図25(A)では、第1の視点位置に設定された仮想カメラVCから見て、キャラクタCHPとキャラクタCHの間に重なりがあると判定されている。即ち、キャラクタCHPとキャラクタCHが前後に所定距離だけずれていても、第1の視点位置に設定された仮想カメラVCから見ると、キャラクタCHPとキャラクタCHは重なって見えることになる。   For example, in FIG. 25A, it is determined that there is an overlap between the character CHP and the character CH when viewed from the virtual camera VC set at the first viewpoint position. That is, even if the character CHP and the character CH are shifted by a predetermined distance back and forth, the character CHP and the character CH appear to overlap each other when viewed from the virtual camera VC set at the first viewpoint position.

この場合には、図25(B)に示すように、仮想カメラの位置を第1の視点位置とは異なる第2の視点位置に変更する。例えば図25(A)ではキャラクタCHP、CHの正面方向の第1の視点位置に仮想カメラVCが配置されていたが、図25(B)ではG1に示すように、横方向(右方向)の第2の視点位置に仮想カメラVCの位置が変更されている。更に図25(B)ではG2、G3に示すように、キャラクタCHP、CHの方向についても変更されている。即ち、G1に示す仮想カメラVCの方を向くように、キャラクタCHP、CHの向きを、G2、G3に示すように回転させる。こうすることで、図25(A)では仮想カメラVCから見て重なっていたキャラクタCHP、CHが、図25(B)のG1に示す仮想カメラVCでは、キャラクタCHP、CHが重なって見えないようになり、両者の重なりを抑制する再配置処理を実現できるようになる。このように再配置処理は、キャラクタCHP、CHの方向を変更することによっても実現できる。   In this case, as shown in FIG. 25B, the position of the virtual camera is changed to a second viewpoint position different from the first viewpoint position. For example, in FIG. 25A, the virtual camera VC is arranged at the first viewpoint position in the front direction of the characters CHP and CH. However, in FIG. The position of the virtual camera VC is changed to the second viewpoint position. Further, in FIG. 25B, as indicated by G2 and G3, the directions of the characters CHP and CH are also changed. That is, the directions of the characters CHP and CH are rotated as indicated by G2 and G3 so as to face the virtual camera VC indicated by G1. By doing so, the characters CHP and CH overlapped when viewed from the virtual camera VC in FIG. 25A cannot be seen with the virtual camera VC indicated by G1 in FIG. Thus, a rearrangement process that suppresses the overlap between the two can be realized. In this way, the rearrangement process can also be realized by changing the directions of the characters CHP and CH.

また本実施形態では図8で説明したように、プレーヤがゲームをプレイするためのゲーム処理が行われる。そして図23〜図25(B)で説明した再配置処理は、ゲーム処理によるゲーム中に行われるものであってもよい。例えば、ゲーム処理によるゲーム中に、キャラクタCHPとキャラクタCHの間に仮想カメラから見て重なりがあると判定された場合に、図23〜図25(B)に示すように、オブジェクト空間でのキャラクタCHP及びキャラクタCHの少なくとも一方についての、位置及び方向の少なくとも一方を変更する再配置処理を行う。   In the present embodiment, as described with reference to FIG. 8, a game process for the player to play the game is performed. The rearrangement process described with reference to FIGS. 23 to 25B may be performed during the game process. For example, when it is determined that there is an overlap between the character CHP and the character CH when viewed from the virtual camera during the game processing, the character in the object space is displayed as shown in FIGS. A rearrangement process for changing at least one of the position and direction of at least one of the CHP and the character CH is performed.

例えば本実施形態では、ゲーム中での任意のタイミングにおいて、プレーヤがキャラクタCHPを用いてプレイする様子を自動撮影し、自動撮影された画像を後で表示できるようにしている。具体的には、自動撮影された画像を、図17に示すように、記念撮影モードでの画像と共に、印刷候補画像として表示部190に表示する。そして、プレーヤが、このゲーム中の自動撮影の画像を選択すると、当該画像が印刷媒体に印刷されて払い出し口152から払い出されることになる。これにより、プレーヤは、自身のゲームプレイでの様子を後で振り返って見ることが可能になる。   For example, in the present embodiment, at an arbitrary timing in the game, the player is automatically photographed using the character CHP, and the automatically photographed image can be displayed later. Specifically, as shown in FIG. 17, the automatically shot image is displayed on the display unit 190 as a print candidate image together with the image in the commemorative shooting mode. When the player selects an image for automatic shooting during the game, the image is printed on a print medium and paid out from the payout port 152. Thereby, the player can look back at his / her own game play later.

そして、このようなゲーム中の自動撮影の画像を生成する際に、図23〜図25(B)で説明した再配置処理を行う。このようにすれば、キャラクタCHPとキャラクタCHが重ならないようにする再配置処理が自動的に行われて、ゲーム中の自動撮影の画像が生成されるようになり、適切な構図の自動撮影画像をプレーヤに提供できるようになる。   Then, the rearrangement process described with reference to FIGS. 23 to 25B is performed when such an automatically shot image during the game is generated. In this way, the rearrangement process is performed automatically so that the character CHP and the character CH do not overlap, and an automatically shot image during the game is generated, and an automatically shot image with an appropriate composition is generated. Can be provided to the player.

また、キャラクタCHPとキャラクタCHの部位ごとの重なり度合いの程度などに応じて、再配置処理を制御してもよい。例えば再配置処理の際のずらし量などを制御する。例えばキャラクタCHPとキャラクタCHが、手、足、頭部(顔)の三カ所で重なっている場合には、再配置処理の際のずらし量を大きくし、例えばキャラクタCHP等の位置を大きくずらす。一方、手と足は重なっているが、頭部(顔)は重なっていない場合には、再配置処理の際のずらし量を小さくする。或いは、キャラクタCHPとキャラクタCHの重なり量(例えば重なり面積)を演算し、重なり量が大きい場合には、再配置処理の際のずらし量を大きくし、重なり量が小さい場合には、再配置処理の際のずらし量を小さくしてもよい。   Further, the rearrangement process may be controlled in accordance with the degree of overlap of each part of the character CHP and the character CH. For example, the shift amount during the rearrangement process is controlled. For example, when the character CHP and the character CH are overlapped at three locations of the hand, the foot, and the head (face), the shift amount during the rearrangement process is increased, and the position of the character CHP or the like is largely shifted, for example. On the other hand, if the hand and foot overlap but the head (face) does not overlap, the shift amount during the rearrangement process is reduced. Alternatively, the amount of overlap (for example, the overlap area) between the character CHP and the character CH is calculated, and when the amount of overlap is large, the shift amount during the rearrangement process is increased, and when the amount of overlap is small, the rearrangement process is performed. In this case, the shift amount may be reduced.

3.詳細な処理
次に本実施形態の詳細な処理例について図26のフローチャートを用いて説明する。
3. Detailed Processing Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG.

まず、プレーヤの撮像画像から顔画像を切り出す(ステップS1)。例えば図5で説明したスケルトン情報等を用いて、カラー画像である撮像画像におけるプレーヤの顔画像IMFの位置を特定し、その位置を中心とする所与のサイズのエリアをトリミングすることで、顔画像IMFを切り出す。   First, a face image is cut out from the captured image of the player (step S1). For example, the position of the player's face image IMF in the captured image, which is a color image, is identified using the skeleton information described with reference to FIG. 5, and an area of a given size centered on the position is trimmed. Cut out the image IMF.

次に、レンダリングされたプレーヤキャラクタの画像と顔画像の合成処理を行う(ステップS2)。例えば図15で説明したように、プレーヤキャラクタCHPについては、照明モデルを用いたレンダリング処理により、その画像を生成する。そして例えば図6で説明した画像合成手法などにより、プレーヤキャラクタCHPの画像と顔画像IMFの合成処理を行う。   Next, a rendering process of the rendered player character image and the face image is performed (step S2). For example, as described with reference to FIG. 15, an image of the player character CHP is generated by rendering processing using an illumination model. Then, for example, the image of the player character CHP and the face image IMF are combined by the image combining method described with reference to FIG.

次に、スケルトン情報等に基づいて、プレーヤキャラクタに合成されるプレーヤの顔画像のエリアを設定する(ステップS3)。例えば図5、図14で説明したスケルトン情報に基づいて、プレーヤキャラクタCHPに合成される顔画像IMFの位置を特定し、図10に示すように顔画像IMFのエリアAFPを設定する。   Next, based on the skeleton information and the like, an area of the player's face image to be combined with the player character is set (step S3). For example, the position of the face image IMF synthesized with the player character CHP is specified based on the skeleton information described with reference to FIGS. 5 and 14, and the area AFP of the face image IMF is set as shown in FIG.

次に、顔画像のエリアとキャラクタの顔のエリアに重なりがあるか否かを判定する(ステップS4)。そして重なりがある場合には、プレーヤキャラクタ(顔画像)の再配置処理を行い、この際に、プレーヤキャラクタ(顔画像)やキャラクタのサイズや色情報の変更処理を実行する(ステップS5)。即ち、図10のB1に示すように、顔画像IMFのエリアAFPとキャラクタCHの顔FCのエリアAFCに重なりがあった場合には、図10のB2、A1に示すように、プレーヤキャラクタCHPの再配置処理を行う。そして、この際に、図18(A)〜図22で説明したように、プレーヤキャラクタCHP(IMF)やキャラクタCHのサイズや色情報の変更処理を実行する。   Next, it is determined whether or not there is an overlap between the face image area and the character face area (step S4). If there is an overlap, the player character (face image) rearrangement process is performed, and at this time, the player character (face image), character size and color information change process is executed (step S5). That is, as shown in B1 of FIG. 10, when there is an overlap between the area AFP of the face image IMF and the area AFC of the face FC of the character CH, as shown in B2 and A1 of FIG. Perform relocation processing. At this time, as described with reference to FIGS. 18A to 22, the player character CHP (IMF) and the size and color information of the character CH are changed.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(被写体、被写体キャラクタ、被写体画像等)と共に記載された用語(プレーヤ、プレーヤキャラクタ、顔画像等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、画像合成処理、重なり判定処理、再配置処理、レンダリング処理、被写体の動きの特定処理、サイズや色情報の変更処理等も、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term (player, player character, face image, etc.) described together with a different term (subject, subject character, subject image, etc.) in a broader sense or the same meaning at least once in the specification or drawing It can be replaced by the different terms at any point. Further, the image composition process, the overlap determination process, the rearrangement process, the rendering process, the subject movement specifying process, the size and color information changing process, and the like are not limited to those described in the present embodiment, and are equivalent to these. Techniques are also included in the scope of the present invention.

PL プレーヤ(被写体)、CHP キャラクタ(被写体キャラクタ)、
IMF 顔画像(被写体画像)、CH、CHA、CHB キャラクタ、FC 顔、
AFP、AFC、ACHP、ACH エリア、SC スケルトン、
100 処理部、102 入力処理部、110 演算処理部、111 ゲーム処理部、
112 オブジェクト空間設定部、113 キャラクタ処理部、
114 被写体情報取得部、115 重なり判定部、118 ゲーム成績演算部、
119 仮想カメラ制御部、120 画像生成部、130 音生成部、
132 印刷処理部、140 出力処理部、150 払い出し口、152 コイン投入口、
160 操作部、162 センサ、164 カラーセンサ、166 デプスセンサ、
170 記憶部、172 オブジェクト情報記憶部、178 描画バッファ、
180 情報記憶媒体、190 表示部、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、198 印刷部
PL player (subject), CHP character (subject character),
IMF face image (subject image), CH, CHA, CHB character, FC face,
AFP, AFC, ACHP, ACH area, SC skeleton,
100 processing units, 102 input processing units, 110 arithmetic processing units, 111 game processing units,
112 object space setting unit, 113 character processing unit,
114 subject information acquisition unit, 115 overlap determination unit, 118 game score calculation unit,
119 Virtual camera control unit, 120 image generation unit, 130 sound generation unit,
132 print processing unit, 140 output processing unit, 150 payout slot, 152 coin insertion slot,
160 operation unit, 162 sensor, 164 color sensor, 166 depth sensor,
170 storage unit, 172 object information storage unit, 178 drawing buffer,
180 information storage medium, 190 display unit, 192 sound output unit, 194 I / F unit,
195 Portable information storage medium, 196 communication section, 198 printing section

Claims (19)

被写体の撮像画像を取得する入力処理部と、
センサからのセンサ情報に基づいて、被写体の動きを特定するための被写体情報を取得する被写体情報取得部と、
重なり判定処理を行う重なり判定部と、
キャラクタの画像を含む合成対象画像に対して、前記被写体の前記撮像画像から切り出された被写体画像が合成された合成画像を生成する画像生成部と、
を含み、
前記画像生成部は、
前記被写体情報により特定される前記被写体の動きに応じて、前記合成対象画像での前記被写体画像の合成位置が変化する前記合成画像を生成し、
前記重なり判定部は、
前記キャラクタと、前記被写体画像又は前記被写体画像に連なる被写体キャラクタとの重なり判定処理を行い、
前記画像生成部は、
前記被写体が動くことによって前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重なっていると判定された場合には、前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重ならないようにする再配置処理を行って、前記合成画像を生成することを特徴とする画像生成システム。
An input processing unit for acquiring a captured image of a subject;
A subject information acquisition unit that acquires subject information for specifying the movement of the subject based on sensor information from the sensor;
An overlap determination unit that performs an overlap determination process;
An image generation unit that generates a composite image in which a subject image cut out from the captured image of the subject is combined with a synthesis target image including a character image;
Including
The image generation unit
Generating the synthesized image in which the synthesis position of the subject image in the synthesis target image changes according to the movement of the subject specified by the subject information;
The overlap determination unit
Performing an overlap determination process between the character and the subject image or a subject character connected to the subject image;
The image generation unit
When it is determined that the character and the subject image or the subject character overlap due to the movement of the subject , a rearrangement process is performed so that the character and the subject image or the subject character do not overlap. And generating the composite image.
請求項において、
前記被写体キャラクタ及び前記キャラクタは、複数のオブジェクトにより構成されるモデルオブジェクトであり、
前記画像生成部は、
オブジェクト空間に配置される前記モデルオブジェクトである前記被写体キャラクタと前記キャラクタとの間に、仮想カメラから見て重なりがあると判定された場合に、前記オブジェクト空間での前記被写体キャラクタ及び前記キャラクタの少なくとも一方についての、位置及び方向の少なくとも一方を変更する前記再配置処理を行うことを特徴とする画像生成システム。
In claim 1 ,
The subject character and the character are model objects composed of a plurality of objects,
The image generation unit
When it is determined that there is an overlap when viewed from a virtual camera between the subject character and the character that is the model object arranged in the object space, at least the subject character and the character in the object space An image generation system that performs the rearrangement process of changing at least one of a position and a direction for one.
請求項において、
ゲーム処理を行うゲーム処理部を含み、
前記画像生成部は、
前記ゲーム処理によるゲーム中に、前記被写体キャラクタと前記キャラクタの間に前記仮想カメラから見て重なりがあると判定された場合に、前記オブジェクト空間での前記被写体キャラクタ及び前記キャラクタの少なくとも一方についての、位置及び方向の少なくとも一方を変更する前記再配置処理を行うことを特徴とする画像生成システム。
In claim 2 ,
Including a game processing unit for performing game processing;
The image generation unit
During the game by the game process, when it is determined that there is an overlap between the subject character and the character when viewed from the virtual camera, at least one of the subject character and the character in the object space, An image generation system that performs the rearrangement process of changing at least one of a position and a direction.
請求項2又は3において、
前記画像生成部は、
第1の視点位置に設定された前記仮想カメラから見て、前記被写体キャラクタと前記キャラクタの間に重なりがあると判定された場合に、前記仮想カメラの位置を前記第1の視点位置とは異なる第2の視点位置に変更すると共に、前記被写体キャラクタ及び前記キャラクタの方向を変更する前記再配置処理を行うことを特徴とする画像生成システム。
In claim 2 or 3 ,
The image generation unit
When it is determined that there is an overlap between the subject character and the character when viewed from the virtual camera set at the first viewpoint position, the position of the virtual camera is different from the first viewpoint position. An image generation system characterized by performing the rearrangement process of changing the subject character and the direction of the character while changing to a second viewpoint position.
ゲーム処理を行うゲーム処理部と、
前記ゲーム処理によるゲーム中における被写体の撮像画像を取得する入力処理部と、
重なり判定処理を行う重なり判定部と、
前記ゲームに登場するキャラクタの画像を含む合成対象画像に対して、前記ゲーム中における前記被写体の前記撮像画像から切り出された被写体画像が合成された合成画像を生成する画像生成部と、
通信部と、
を含み、
前記重なり判定部は、
前記キャラクタと、前記被写体画像又は前記被写体画像に連なる被写体キャラクタとの重なり判定処理を行い、
前記画像生成部は、
前記ゲーム中において前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重なっていると判定された場合には、前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重ならないようにする再配置処理を行って、前記合成画像を生成し、
前記通信部は、
前記再配置処理が行われた前記合成画像をサーバに送信して、情報端末の表示部に表示させることを特徴とする画像生成システム。
A game processing unit for performing game processing;
An input processing unit for acquiring a captured image of a subject in the game by the game process;
An overlap determination unit that performs an overlap determination process;
An image generation unit that generates a composite image in which a subject image cut out from the captured image of the subject in the game is combined with a synthesis target image including an image of a character appearing in the game ;
A communication department;
Including
The overlap determination unit
Performing an overlap determination process between the character and the subject image or a subject character connected to the subject image;
The image generation unit
When it is determined that the character and the subject image or the subject character overlap in the game, a relocation process is performed so that the character and the subject image or the subject character do not overlap. Generate the composite image ;
The communication unit is
An image generation system , wherein the composite image subjected to the rearrangement process is transmitted to a server and displayed on a display unit of an information terminal .
ゲーム処理を行うゲーム処理部と、
前記ゲーム処理によるゲーム中における被写体の撮像画像を取得する入力処理部と、
重なり判定処理を行う重なり判定部と、
前記ゲームに登場するキャラクタの画像を含む合成対象画像に対して、前記ゲーム中における前記被写体の前記撮像画像から切り出された被写体画像が合成された合成画像を生成する画像生成部と、
印刷部と、
を含み、
前記重なり判定部は、
前記キャラクタと、前記被写体画像又は前記被写体画像に連なる被写体キャラクタとの重なり判定処理を行い、
前記画像生成部は、
前記ゲーム中において前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重なっていると判定された場合には、前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重ならないようにする再配置処理を行って、前記再配置処理による再配置態様が異なる複数の前記合成画像を複数の印刷候補画像として生成し、
前記印刷部は、
前記複数の印刷候補画像の中から選択された画像を印刷媒体に印刷することを特徴とする画像生成システム。
A game processing unit for performing game processing;
An input processing unit for acquiring a captured image of a subject in the game by the game process;
An overlap determination unit that performs an overlap determination process;
An image generation unit that generates a composite image in which a subject image cut out from the captured image of the subject in the game is combined with a synthesis target image including an image of a character appearing in the game ;
A printing section;
Including
The overlap determination unit
Performing an overlap determination process between the character and the subject image or a subject character connected to the subject image;
The image generation unit
When it is determined that the character and the subject image or the subject character overlap in the game, a relocation process is performed so that the character and the subject image or the subject character do not overlap. , Generating a plurality of composite images having different rearrangement modes by the rearrangement process as a plurality of print candidate images ,
The printing unit
An image generation system, wherein an image selected from the plurality of print candidate images is printed on a print medium .
請求項5又は6において、
センサからのセンサ情報に基づいて、被写体の動きを特定するための被写体情報を取得する被写体情報取得部を含み、
前記画像生成部は、
前記被写体情報により特定される前記被写体の動きに応じて、前記合成対象画像での前記被写体画像の合成位置が変化する前記合成画像を生成することを特徴とする画像生成システム。
In claim 5 or 6 ,
A subject information acquisition unit that acquires subject information for specifying the movement of the subject based on sensor information from the sensor;
The image generation unit
An image generation system that generates the composite image in which a composite position of the subject image in the composition target image changes according to the movement of the subject specified by the subject information .
請求項1、2、3、4又は7において、
前記被写体キャラクタは、複数のオブジェクトにより構成されるモデルオブジェクトであり、
前記画像生成部は、
オブジェクト空間において、前記被写体の位置に対応する位置に配置される前記モデルオブジェクトのレンダリング処理を行って、前記被写体キャラクタの画像を生成することを特徴とする画像生成システム。
In claim 1, 2, 3, 4 or 7 ,
The subject character is a model object composed of a plurality of objects,
The image generation unit
An image generation system characterized by generating an image of the subject character by performing rendering processing of the model object arranged at a position corresponding to the position of the subject in an object space.
請求項において、
キャラクタ処理部を含み、
前記被写体情報取得部は、
前記センサからの前記センサ情報に基づいて、前記被写体のスケルトン情報を取得し、
前記キャラクタ処理部は、
前記被写体の前記スケルトン情報に基づいて前記被写体キャラクタを動作させる処理を行い、
前記画像生成部は、
前記オブジェクト空間での、前記被写体キャラクタである前記モデルオブジェクトの配置位置、前記モデルオブジェクトの形状、及び前記モデルオブジェクトを構成するオブジェクトの配置位置の少なくとも1つを用いて、前記再配置処理を行うことを特徴とする画像生成システム。
In claim 8 ,
Including a character processing section,
The subject information acquisition unit
Based on the sensor information from the sensor, it acquires skeleton information of the object,
The character processing unit
There line processing for operating the object character based on the skeleton information of the subject,
The image generation unit
Performing the rearrangement process using at least one of an arrangement position of the model object as the subject character in the object space, a shape of the model object, and an arrangement position of the objects constituting the model object. An image generation system characterized by the above.
請求項8又は9において、
前記画像生成部は、
前記再配置処理が行われた場合には、前記オブジェクト空間において再配置位置に配置された前記モデルオブジェクトのレンダリング処理を照明モデルに基づいて行って、前記被写体キャラクタの画像を生成することを特徴とする画像生成システム。
In claim 8 or 9 ,
The image generation unit
When the rearrangement processing is performed, rendering of the model object disposed at the rearrangement position in the object space is performed based on an illumination model, and an image of the subject character is generated. Image generation system.
請求項1乃至10のいずれかにおいて、
前記被写体画像は前記被写体の顔画像であり、
前記重なり判定部は、
前記キャラクタと、前記被写体の前記顔画像との重なり判定処理を行い、
前記画像生成部は、
前記キャラクタと前記被写体の前記顔画像とが重なっていると判定された場合には、前記キャラクタと前記被写体の前記顔画像とが重ならないようにする前記再配置処理を行って、前記合成画像を生成することを特徴とする画像生成システム。
In any one of Claims 1 thru | or 10 .
The subject image is a face image of the subject;
The overlap determination unit
Perform an overlap determination process between the character and the face image of the subject,
The image generation unit
If it is determined that the character and the face image of the subject overlap, the rearrangement process is performed so that the character and the face image of the subject do not overlap, and the composite image is An image generation system characterized by generating.
請求項1乃至11のいずれかにおいて、
前記画像生成部は、
前記再配置処理の際に、前記キャラクタ、前記被写体キャラクタ及び前記被写体画像の少なくとも1つについてのサイズの変更処理を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 11 ,
The image generation unit
In the rearrangement process, a size change process is performed on at least one of the character, the subject character, and the subject image.
請求項1乃至12のいずれかにおいて、
前記画像生成部は、
前記再配置処理の際に、前記キャラクタ、前記被写体キャラクタ及び前記被写体画像の少なくとも1つについての色情報の変更処理を行うことを特徴とする画像生成システム。
In any one of Claims 1 to 12 ,
The image generation unit
An image generation system that performs color information change processing on at least one of the character, the subject character, and the subject image during the rearrangement processing.
請求項13において、
前記画像生成部は、
前記キャラクタと前記被写体キャラクタの関連度合いに応じた前記色情報の変更処理を行うことを特徴とする画像生成システム。
In claim 13 ,
The image generation unit
An image generation system that performs a change process of the color information in accordance with a degree of association between the character and the subject character.
請求項1乃至14のいずれかにおいて、
前記画像生成部は、
前記再配置処理の際に、前記キャラクタと前記被写体キャラクタの間の境界領域、又は前記キャラクタと前記被写体画像の間の境界領域に対して、デコレーション処理を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 14 .
The image generation unit
In the rearrangement process, an image generation system that performs a decoration process on a boundary region between the character and the subject character or a boundary region between the character and the subject image.
請求項1乃至15のいずれかに記載の画像生成システムと、An image generation system according to any one of claims 1 to 15,
前記合成画像を表示する表示部と、  A display unit for displaying the composite image;
前記被写体であるプレーヤの操作情報を入力するための操作部と、  An operation unit for inputting operation information of the player as the subject;
を含むことを特徴とするゲーム装置。  A game apparatus comprising:
被写体の撮像画像を取得する入力処理部と、
センサからのセンサ情報に基づいて、被写体の動きを特定するための被写体情報を取得する被写体情報取得部と、
重なり判定処理を行う重なり判定部と、
キャラクタの画像を含む合成対象画像に対して、前記被写体の前記撮像画像から切り出された被写体画像が合成された合成画像を生成する画像生成部として、
コンピュータを機能させ、
前記画像生成部は、
前記被写体情報により特定される前記被写体の動きに応じて、前記合成対象画像での前記被写体画像の合成位置が変化する前記合成画像を生成し、
前記重なり判定部は、
前記キャラクタと、前記被写体画像又は前記被写体画像に連なる被写体キャラクタとの重なり判定処理を行い、
前記画像生成部は、
前記被写体が動くことによって前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重なっていると判定された場合には、前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重ならないようにする再配置処理を行って、前記合成画像を生成することを特徴とするプログラム。
An input processing unit for acquiring a captured image of a subject;
A subject information acquisition unit that acquires subject information for specifying the movement of the subject based on sensor information from the sensor;
An overlap determination unit that performs an overlap determination process;
As an image generation unit that generates a composite image in which a subject image cut out from the captured image of the subject is combined with a synthesis target image including a character image,
Make the computer work,
The image generation unit
Generating the synthesized image in which the synthesis position of the subject image in the synthesis target image changes according to the movement of the subject specified by the subject information;
The overlap determination unit
Performing an overlap determination process between the character and the subject image or a subject character connected to the subject image;
The image generation unit
When it is determined that the character and the subject image or the subject character overlap due to the movement of the subject , a rearrangement process is performed so that the character and the subject image or the subject character do not overlap. And generating the composite image.
ゲーム処理を行うゲーム処理部と、
前記ゲーム処理によるゲーム中における被写体の撮像画像を取得する入力処理部と、
重なり判定処理を行う重なり判定部と、
前記ゲームに登場するキャラクタの画像を含む合成対象画像に対して、前記ゲーム中における前記被写体の前記撮像画像から切り出された被写体画像が合成された合成画像を生成する画像生成部と、
通信部として、
コンピュータを機能させ、
前記重なり判定部は、
前記キャラクタと、前記被写体画像又は前記被写体画像に連なる被写体キャラクタとの重なり判定処理を行い、
前記画像生成部は、
前記ゲーム中において前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重なっていると判定された場合には、前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重ならないようにする再配置処理を行って、前記合成画像を生成し、
前記通信部は、
前記再配置処理が行われた前記合成画像をサーバに送信して、情報端末の表示部に表示させることを特徴とするプログラム。
A game processing unit for performing game processing;
An input processing unit for acquiring a captured image of a subject in the game by the game process;
An overlap determination unit that performs an overlap determination process;
An image generation unit that generates a composite image in which a subject image cut out from the captured image of the subject in the game is combined with a synthesis target image including an image of a character appearing in the game ;
As a communication department
Make the computer work,
The overlap determination unit
Performing an overlap determination process between the character and the subject image or a subject character connected to the subject image;
The image generation unit
When it is determined that the character and the subject image or the subject character overlap in the game, a relocation process is performed so that the character and the subject image or the subject character do not overlap. Generate the composite image ;
The communication unit is
A program characterized in that the composite image subjected to the rearrangement process is transmitted to a server and displayed on a display unit of an information terminal .
ゲーム処理を行うゲーム処理部と、
前記ゲーム処理によるゲーム中における被写体の撮像画像を取得する入力処理部と、
重なり判定処理を行う重なり判定部と、
前記ゲームに登場するキャラクタの画像を含む合成対象画像に対して、前記ゲーム中における前記被写体の前記撮像画像から切り出された被写体画像が合成された合成画像を生成する画像生成部と、
印刷部として、
コンピュータを機能させ、
前記重なり判定部は、
前記キャラクタと、前記被写体画像又は前記被写体画像に連なる被写体キャラクタとの重なり判定処理を行い、
前記画像生成部は、
前記ゲーム中において前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重なっていると判定された場合には、前記キャラクタと前記被写体画像又は前記被写体キャラクタとが重ならないようにする再配置処理を行って、前記再配置処理による再配置態様が異なる複数の前記合成画像を複数の印刷候補画像として生成し、
前記印刷部は、
前記複数の印刷候補画像の中から選択された画像を印刷媒体に印刷することを特徴とするプログラム。
A game processing unit for performing game processing;
An input processing unit for acquiring a captured image of a subject in the game by the game process;
An overlap determination unit that performs an overlap determination process;
An image generation unit that generates a composite image in which a subject image cut out from the captured image of the subject in the game is combined with a synthesis target image including an image of a character appearing in the game ;
As a printing department,
Make the computer work,
The overlap determination unit
Performing an overlap determination process between the character and the subject image or a subject character connected to the subject image;
The image generation unit
When it is determined that the character and the subject image or the subject character overlap in the game, a relocation process is performed so that the character and the subject image or the subject character do not overlap. , Generating a plurality of composite images having different rearrangement modes by the rearrangement process as a plurality of print candidate images ,
The printing unit
A program for printing an image selected from the plurality of print candidate images on a print medium .
JP2016021038A 2016-02-05 2016-02-05 Image generation system, game device, and program Active JP6362634B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016021038A JP6362634B2 (en) 2016-02-05 2016-02-05 Image generation system, game device, and program
CN201710064485.4A CN107045711B (en) 2016-02-05 2017-02-04 Image generation system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016021038A JP6362634B2 (en) 2016-02-05 2016-02-05 Image generation system, game device, and program

Publications (2)

Publication Number Publication Date
JP2017138912A JP2017138912A (en) 2017-08-10
JP6362634B2 true JP6362634B2 (en) 2018-07-25

Family

ID=59543334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016021038A Active JP6362634B2 (en) 2016-02-05 2016-02-05 Image generation system, game device, and program

Country Status (2)

Country Link
JP (1) JP6362634B2 (en)
CN (1) CN107045711B (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102009426B1 (en) * 2017-12-08 2019-10-21 네이버웹툰 주식회사 Method and apparatus for providing contents controlled or synthesized in accordance with an interaction of user
JP7214092B2 (en) * 2018-05-31 2023-01-30 有限会社エムツー Image control device and its program
JP7196487B2 (en) * 2018-09-19 2022-12-27 大日本印刷株式会社 Content creation device
US10846917B2 (en) * 2019-01-03 2020-11-24 Microsoft Technology Licensing, Llc Iterating different camera representations in three-dimensional model
JP7060544B6 (en) 2019-04-26 2022-05-23 塁 佐藤 Exercise equipment
CN110264396B (en) * 2019-06-27 2022-11-18 杨骥 Video face replacement method, system and computer readable storage medium
JPWO2020262261A1 (en) * 2019-06-28 2020-12-30
JP7293991B2 (en) * 2019-08-28 2023-06-20 大日本印刷株式会社 Server, playback device, content playback system, content playback method, and program
CN115668301A (en) * 2020-07-13 2023-01-31 索尼集团公司 Information processing apparatus, information processing method, and information processing system

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2985879B1 (en) * 1998-06-30 1999-12-06 オムロン株式会社 People image processing device
JP2000262738A (en) * 1999-03-18 2000-09-26 Namco Ltd Game device and information storing medium
JP2002224355A (en) * 2001-02-05 2002-08-13 Aruze Corp Game machine, method of displaying image on screen of game machine, storage medium, and server
JP4054585B2 (en) * 2002-02-18 2008-02-27 キヤノン株式会社 Information processing apparatus and method
JP2005025703A (en) * 2003-07-04 2005-01-27 Sony Corp Method and device for processing image, and image processing program
JP2006198136A (en) * 2005-01-20 2006-08-03 Aruze Corp Game apparatus
US7668446B2 (en) * 2005-06-30 2010-02-23 Kabushiki Kaisha Sega Automatic photo studio
JP4163718B2 (en) * 2006-02-28 2008-10-08 株式会社コナミデジタルエンタテインメント Object display device, object arrangement method, and program
JP4264663B2 (en) * 2006-11-21 2009-05-20 ソニー株式会社 Imaging apparatus, image processing apparatus, image processing method therefor, and program causing computer to execute the method
JP4990840B2 (en) * 2008-05-27 2012-08-01 株式会社メイクソフトウェア Image editing apparatus and photography game machine using the same
JP5440244B2 (en) * 2010-02-24 2014-03-12 大日本印刷株式会社 Video information presentation device
JP5300777B2 (en) * 2010-03-31 2013-09-25 株式会社バンダイナムコゲームス Program and image generation system
JP5055402B2 (en) * 2010-05-17 2012-10-24 株式会社エヌ・ティ・ティ・ドコモ Object display device, object display system, and object display method
JP2011250131A (en) * 2010-05-27 2011-12-08 Panasonic Corp Photographic device
JP6192264B2 (en) * 2012-07-18 2017-09-06 株式会社バンダイ Portable terminal device, terminal program, augmented reality system, and clothing
JP6103526B2 (en) * 2013-03-15 2017-03-29 オリンパス株式会社 Imaging device, image display device, and display control method for image display device
JP2015041126A (en) * 2013-08-20 2015-03-02 株式会社ソニー・コンピュータエンタテインメント Information processing device and information processing method
JP6341646B2 (en) * 2013-10-17 2018-06-13 セーレン株式会社 Try-on support device and method
JP6247505B2 (en) * 2013-11-11 2017-12-13 株式会社バンダイナムコエンターテインメント Game system
JP6460625B2 (en) * 2013-11-11 2019-01-30 株式会社バンダイナムコエンターテインメント Game system
JP6292872B2 (en) * 2013-12-27 2018-03-14 キヤノン株式会社 Image processing apparatus, image processing method, and program
CN104748746B (en) * 2013-12-29 2017-11-03 刘进 Intelligent machine attitude determination and virtual reality loaming method
CN105100625B (en) * 2015-08-27 2018-06-12 华南理工大学 A kind of character image auxiliary shooting method and system based on image aesthetics

Also Published As

Publication number Publication date
JP2017138912A (en) 2017-08-10
CN107045711B (en) 2023-08-11
CN107045711A (en) 2017-08-15

Similar Documents

Publication Publication Date Title
JP6362634B2 (en) Image generation system, game device, and program
JP6370820B2 (en) Image generation system, game device, and program.
JP4668655B2 (en) Program, information storage medium, and image generation system
JP2017138915A (en) Image generation system and program
US20090244064A1 (en) Program, information storage medium, and image generation system
JP5469516B2 (en) Image display program, image display system, image display method, and image display apparatus
JP2019152899A (en) Simulation system and program
JP7418956B2 (en) Image generation system and program
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP6732463B2 (en) Image generation system and program
JP2008027064A (en) Program, information recording medium, and image forming system
JP7104539B2 (en) Simulation system and program
JP3413383B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2010029397A (en) Program, information storage medium and image generation system
JP2020204856A (en) Image generation system and program
JP2006252426A (en) Program, information storage medium, and image generation system
WO2021002353A1 (en) Game system, processing method, and information storage medium
JP4229317B2 (en) Image generation system, program, and information storage medium
JP4786389B2 (en) Program, information storage medium, and image generation system
JP2010134798A (en) Program, information storage medium, game device, and game system
JP2011095935A (en) Program, information storage medium, and image generation system
JP2003175274A (en) Game system and information memory medium
JP7335695B2 (en) Image generation system and program
WO2022107688A1 (en) Image generating device, image generating method, and program
JP4409709B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180626

R150 Certificate of patent or registration of utility model

Ref document number: 6362634

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250