JP7418956B2 - Image generation system and program - Google Patents

Image generation system and program Download PDF

Info

Publication number
JP7418956B2
JP7418956B2 JP2018248126A JP2018248126A JP7418956B2 JP 7418956 B2 JP7418956 B2 JP 7418956B2 JP 2018248126 A JP2018248126 A JP 2018248126A JP 2018248126 A JP2018248126 A JP 2018248126A JP 7418956 B2 JP7418956 B2 JP 7418956B2
Authority
JP
Japan
Prior art keywords
image
primitive
texture
group
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018248126A
Other languages
Japanese (ja)
Other versions
JP2020107251A (en
Inventor
佳之 高子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Original Assignee
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.), Namco Ltd filed Critical Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Priority to JP2018248126A priority Critical patent/JP7418956B2/en
Publication of JP2020107251A publication Critical patent/JP2020107251A/en
Application granted granted Critical
Publication of JP7418956B2 publication Critical patent/JP7418956B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像生成システム及びプログラム等に関する。 The present invention relates to an image generation system, a program, and the like.

近年、撮影画像から3次元モデルを生成するフォトグラメトリ(Photogrammetry)と呼ばれる技術が脚光を浴びている。フォトグラメトリでは、例えば現実世界の物体である対象物を複数の撮影方向から撮影して得られた2次元の撮影画像に基づいて、解析処理を行い、対象物の形状、寸法等を求める。そして求められた形状、寸法等に基づいて、仮想空間に配置可能な3次元モデルを生成する。フォトグラメトリは3Dスキャンとも呼ばれる。3Dスキャンの従来技術としては例えば特許文献1に開示される技術がある。また複数の撮影方向から対象物を撮影する撮影システムの従来技術としては特許文献2に開示される技術がある。 In recent years, a technology called photogrammetry that generates three-dimensional models from captured images has been in the spotlight. In photogrammetry, for example, an analysis process is performed based on two-dimensional photographed images obtained by photographing an object, which is an object in the real world, from a plurality of photographing directions, to determine the shape, dimensions, etc. of the object. Then, based on the determined shape, dimensions, etc., a three-dimensional model that can be placed in virtual space is generated. Photogrammetry is also called 3D scanning. As a conventional technique of 3D scanning, for example, there is a technique disclosed in Patent Document 1. Furthermore, as a conventional technology of a photographing system that photographs an object from a plurality of photographing directions, there is a technique disclosed in Patent Document 2.

特開2017-130008号公報JP 2017-130008 Publication 特開2013-152332号公報Japanese Patent Application Publication No. 2013-152332

3Dスキャンでは、カメラなどの撮影部により撮影した撮影画像を用いるが、撮影画像の解像度には限界がある。このため、対象物である被写体が精細な形状を有していた場合に、この精細な形状を忠実に再現した3次元モデルを生成することは困難である。また対象物の撮影画像に基づく解析処理は、コンピュータの処理負荷が非常に重いため、例えば対象物を撮影した後、短時間で、対象物に対応する3次元モデルの表示物を、仮想的な3次元空間である仮想空間に出現させることは難しい。 In 3D scanning, a photographed image photographed by a photographing unit such as a camera is used, but there is a limit to the resolution of the photographed image. For this reason, when an object to be photographed has a fine shape, it is difficult to generate a three-dimensional model that faithfully reproduces this fine shape. In addition, analysis processing based on photographed images of a target object requires a very heavy processing load on the computer, so for example, after photographing the target object, a three-dimensional model display corresponding to the target object can be created in a short period of time. It is difficult to make it appear in virtual space, which is a three-dimensional space.

本開示によれば、対象物に対応する表示物を、対象物の形状等を忠実に表現しながら仮想空間に出現させることができる画像生成システム及びプログラム等を提供できる。 According to the present disclosure, it is possible to provide an image generation system, a program, and the like that can make a display object corresponding to a target object appear in a virtual space while faithfully expressing the shape of the target object.

本発明の一態様は、撮影部により対象物を複数の撮影方向から撮影することで得られる撮影画像群を取得する取得部と、取得された前記撮影画像群を記憶する記憶部と、移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、前記プリミティブの前記移動制御情報に応じて前記撮影画像群から選択された撮影画像に基づいて、前記プリミティブにマッピングするテクスチャを生成するテクスチャ生成部と、前記移動制御情報に応じて変化する前記テクスチャを、前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、を含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 One aspect of the present invention includes an acquisition unit that acquires a group of photographed images obtained by photographing an object from a plurality of photographing directions by a photographing unit, a storage unit that stores the acquired group of photographed images, and a movement control unit. a movement processing unit that performs a process of moving a primitive in a virtual space based on the information; and a texture that is mapped to the primitive based on a photographed image selected from the group of photographed images according to the movement control information of the primitive. a texture generation unit that generates a texture, and an image generation unit that maps the texture that changes according to the movement control information onto the primitive to generate a virtual space image that can be seen from a virtual camera in the virtual space. Related to the generation system. The present invention also relates to a program that causes a computer to function as each of the above sections, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、対象物を複数の撮影方向から撮影することで撮影画像群が取得され、この撮影画像群から、プリミティブの移動制御情報に応じた撮影画像が選択される。そして選択された撮影画像に基づき生成されたテクスチャが、移動制御情報に基づき移動するプリミティブにマッピングされる。これにより、移動制御情報に応じて変化するテクスチャが、プリミティブにマッピングされて、仮想空間において仮想カメラから見える仮想空間画像が生成されるようになる。従って、プリミティブの移動制御状態に対応したテクスチャの画像がプリミティブにマッピングされて、対象物に対応する表示物の画像を含む仮想空間画像を生成できるようになる。これにより、対象物に対応する表示物を、対象物の形状等を忠実に表現しながら仮想空間に出現させることができる画像生成システム等の提供が可能になる。 According to one aspect of the present invention, a group of photographed images is obtained by photographing an object from a plurality of photographing directions, and a photographed image according to movement control information of a primitive is selected from this group of photographed images. The texture generated based on the selected captured image is then mapped onto the primitive that moves based on the movement control information. As a result, the texture that changes according to the movement control information is mapped onto the primitive, and a virtual space image that can be seen from the virtual camera in the virtual space is generated. Therefore, a texture image corresponding to the movement control state of the primitive is mapped onto the primitive, and a virtual space image including an image of the display object corresponding to the target object can be generated. This makes it possible to provide an image generation system or the like that can make a display object corresponding to a target object appear in a virtual space while faithfully expressing the shape of the target object.

また本発明の一態様では、前記移動処理部は、前記プリミティブと前記仮想カメラの位置関係が固定された状態で、前記プリミティブ及び前記仮想カメラを前記移動制御情報に応じて移動させる処理を行ってもよい。 Further, in one aspect of the present invention, the movement processing unit performs a process of moving the primitive and the virtual camera according to the movement control information while the positional relationship between the primitive and the virtual camera is fixed. Good too.

このようにすれば、プリミティブにテクスチャがマッピングされることにより表示される表示物の画像として、擬似的に3次元画像に見える画像を生成できるようになる。 In this way, it becomes possible to generate an image that appears to be a three-dimensional image in a pseudo manner as an image of the displayed object by mapping the texture to the primitive.

また本発明の一態様では、前記撮影部は、前記対象物と、前記対象物の背景を撮影し、前記テクスチャ生成部は、前記撮影画像の各ピクセルの色が、前記背景の色に対応する色か否かを判断して、前記背景の色に対応する色のピクセルであると判断された場合には、前記背景の色に対応する色のピクセルを透明にする処理を行うことで、前記テクスチャを生成してもよい。 Further, in one aspect of the present invention, the photographing unit photographs the target object and the background of the target, and the texture generating unit determines that the color of each pixel of the photographed image corresponds to the color of the background. If it is determined that the pixel is a color that corresponds to the color of the background, processing is performed to make the pixel of the color that corresponds to the background color transparent. Textures may also be generated.

このようにすれば、背景の部分に、仮想空間の他のオブジェクトが表示された適切な仮想空間画像を、簡素で処理負荷が少ない処理により生成できるようになる。 In this way, an appropriate virtual space image in which other objects in the virtual space are displayed in the background can be generated by simple processing with low processing load.

また本発明の一態様では、前記テクスチャ生成部は、前記撮影画像群により構成される動画のシーク制御を前記移動制御情報に基づいて行うことで、前記撮影画像群から前記撮影画像を選択し、選択された前記撮影画像に基づいて前記テクスチャを生成してもよい。 Further, in one aspect of the present invention, the texture generation unit selects the photographed image from the group of photographed images by performing seek control of a moving image composed of the group of photographed images based on the movement control information, The texture may be generated based on the selected captured image.

このようにすれば、撮影画像群により構成される動画のシーク制御を有効活用して、プリミティブの移動制御情報に対応した適切な撮影画像を選択してテクスチャを生成し、プリミティブにマッピングできるようになる。 In this way, by effectively utilizing the seek control of a video composed of a group of captured images, it is possible to select an appropriate captured image corresponding to the movement control information of the primitive, generate a texture, and map it to the primitive. Become.

また本発明の一態様では、前記撮影画像群は、前記対象物に対する前記撮影部の撮影方向の変化が180度以上の撮影方向範囲となる画像群であってもよい。 Further, in one aspect of the present invention, the group of photographed images may be a group of images in which a change in the photographing direction of the photographing unit with respect to the target object is within a photographing direction range of 180 degrees or more.

このようにすれば、プリミティブが様々な方向に移動した場合にも、これに対応した適切な撮影画像に基づくテクスチャを生成して、プリミティブにマッピングできるようになる。 In this way, even if the primitive moves in various directions, a corresponding texture based on an appropriate photographed image can be generated and mapped to the primitive.

また本発明の一態様では、前記移動処理部は、前記移動制御情報に応じて前記プリミティブに対する相対的位置関係が変化する第2のプリミティブの移動処理を行い、前記画像生成部は、前記テクスチャがマッピングされた前記プリミティブの画像と、前記第2のプリミティブの画像とを含む画像を、前記仮想空間画像として生成してもよい。 Further, in one aspect of the present invention, the movement processing unit performs movement processing of a second primitive in which a relative positional relationship with respect to the primitive changes according to the movement control information, and the image generation unit An image including an image of the mapped primitive and an image of the second primitive may be generated as the virtual space image.

このようにすれば、現実世界の対象物には無いものについて画像を、第2のプリミティブの画像を用いて表示できるようになる。 In this way, an image of an object that does not exist in the real world can be displayed using the image of the second primitive.

また本発明の一態様では、前記移動処理部は、前記対象物の分析結果に基づき設定される前記第2のプリミティブの初期配置位置から、前記プリミティブを基準に前記第2のプリミティブを移動させる処理を行ってもよい。 Further, in one aspect of the present invention, the movement processing unit performs a process of moving the second primitive from an initial placement position of the second primitive set based on the analysis result of the target object, using the primitive as a reference. You may do so.

このようにすれば、対象物の分析結果に応じた適切な初期配置位置に第2のプリミティブを配置し、移動制御情報に応じてプリミティブが移動した場合に、その移動に連動した適切な位置に、第2のプリミティブによる画像を表示できるようになる。 In this way, the second primitive can be placed at an appropriate initial placement position according to the analysis result of the target object, and when the primitive moves according to the movement control information, it can be placed at an appropriate position linked to the movement. , it becomes possible to display an image based on the second primitive.

また本発明の一態様では、前記画像生成部は、前記第2のプリミティブの隠面消去処理を、前記移動制御情報に応じて行ってもよい。 Further, in one aspect of the present invention, the image generation unit may perform hidden surface removal processing on the second primitive in accordance with the movement control information.

このように第2のプリミティブの隠面消去処理を行うことで、第2のプリミティブによる画像が仮想カメラから見て非表示になり、適切な仮想空間画像を生成できるようになる。 By performing the hidden surface removal process on the second primitive in this manner, the image formed by the second primitive becomes hidden from the virtual camera, making it possible to generate an appropriate virtual space image.

また本発明の一態様では、前記第2のプリミティブの画像は、エフェクト画像であってもよい。 Further, in one aspect of the present invention, the image of the second primitive may be an effect image.

このようにすれば、現実世界の対象物には無いエフェクトについての画像を、第2のプリミティブを用いて表示できるようになる。 In this way, an image with an effect that does not exist on objects in the real world can be displayed using the second primitive.

また本発明の一態様では、前記画像生成部は、前記仮想空間画像として、前記プリミティブの画像と、前記仮想空間に設定される複数のオブジェクトの画像とを含む画像を生成し、生成された前記仮想空間画像に対してポストエフェクト処理を行ってもよい。 Further, in one aspect of the present invention, the image generation unit generates, as the virtual space image, an image including an image of the primitive and images of a plurality of objects set in the virtual space, and Post-effect processing may be performed on the virtual space image.

このようなポストエフェクト処理を行うことで、撮影画像群の撮影画像に基づき生成されるキャラクタの画像が、周囲の仮想空間に対して違和感なく溶け込んで見えるような仮想空間画像を生成できるようになる。 By performing such post-effect processing, it becomes possible to generate a virtual space image in which the character image generated based on the captured images of the captured image group blends seamlessly into the surrounding virtual space. .

また本発明の一態様では、前記取得部は、他の表示物に対応する他の対象物を複数の撮影方向から撮影することで得られる他の表示物用の撮影画像群を取得し、前記テクスチャ生成部は、他の表示物用の移動制御情報に応じて前記他の表示物用の撮影画像群から選択された撮影画像に基づいて、他の表示物用のテクスチャを生成し、前記画像生成部は、前記他の表示物用の移動制御情報に応じて変化する前記他の表示物用のテクスチャを、他の表示物用のプリミティブにマッピングして、前記仮想空間画像を生成してもよい。 Further, in one aspect of the present invention, the acquisition unit acquires a group of photographed images for the other display object obtained by photographing the other target object corresponding to the other display object from a plurality of photographing directions, and The texture generation unit generates a texture for another display object based on a photographed image selected from a group of photographed images for the other display object according to movement control information for the other display object, and generates a texture for the other display object. The generation unit may generate the virtual space image by mapping a texture for the other display object that changes according to movement control information for the other display object onto a primitive for the other display object. good.

このようにすれば、対象物に対応する表示物と同様に、他の表示物についても、あたかも他の表示物に対応する他の対象物が仮想空間に出現したかのように見える仮想空間画像を生成できるようになる。 In this way, in the same way as the display object corresponding to the target object, the virtual space image that looks as if the other display object corresponding to the other display object has appeared in the virtual space. will be able to generate.

また本発明の一態様では、前記画像生成部は、前記プリミティブの周囲にパーティクルが表示される画像を、前記仮想空間画像として生成してもよい。 Further, in one aspect of the present invention, the image generation unit may generate an image in which particles are displayed around the primitive as the virtual space image.

このようなパーティクルを表示すれば、プリミティブが仮想空間内を移動したときに、周囲に存在するパーティクルが要因となって、3次元の空間感が創出されるようになる。 By displaying such particles, when the primitive moves in the virtual space, the surrounding particles become a factor, creating a three-dimensional spatial feeling.

また本発明の一態様では、前記撮影部と、前記対象物が配置される配置部と、前記配置部に配置された前記対象物に対する前記撮影部の撮影方向を変化させるための回転移動を行う回転移動機構と、を含んでもよい。 Further, in one aspect of the present invention, rotational movement is performed for changing the photographing direction of the photographing section, the placement section where the object is placed, and the photographing direction of the photographing section with respect to the object placed in the placement section. A rotational movement mechanism may also be included.

このような配置部と回転移動機構を設けることで、対象物に対する撮影部の撮影方向が所定角度以上の撮影方向範囲となる撮影画像群を取得できるようになる。 By providing such an arrangement section and rotational movement mechanism, it becomes possible to obtain a group of photographed images in which the photographing direction of the photographing section with respect to the object falls within a photographing direction range of a predetermined angle or more.

また本発明の一態様では、前記対象物を空中に浮遊させた状態で支持する支持部を含んでもよい。 Further, one aspect of the present invention may include a support portion that supports the object while floating in the air.

このようにすれば、対象物に対応する表示物とし、空中に浮遊した状態の表示物を仮想空間に出現させることが可能になる。 In this way, it becomes possible to make a display object that corresponds to the target object and appear floating in the air in the virtual space.

本実施形態の画像生成システムの構成例を示すブロック図。FIG. 1 is a block diagram showing a configuration example of an image generation system according to the present embodiment. 図2(A)、図2(B)は撮影画像に基づく仮想空間画像の生成手法の説明図。FIG. 2(A) and FIG. 2(B) are explanatory diagrams of a method of generating a virtual space image based on a captured image. 図3(A)、図3(B)は対象物を複数の撮影方向から撮影した撮影画像を取得する手法の説明図。FIGS. 3(A) and 3(B) are explanatory diagrams of a method for acquiring photographed images of a target object taken from a plurality of photographing directions. 図4(A)、図4(B)は撮影画像からテクスチャを生成する手法の説明図。FIG. 4(A) and FIG. 4(B) are explanatory diagrams of a method of generating texture from a photographed image. プリミティブと仮想カメラの関係についての説明図。An explanatory diagram of the relationship between primitives and virtual cameras. 移動制御情報に応じて変化するテクスチャのマッピング手法の説明図。FIG. 4 is an explanatory diagram of a texture mapping method that changes according to movement control information. エフェクト画像の生成手法の説明図。An explanatory diagram of an effect image generation method. 撮影画像群に基づく仮想空間画像の生成処理のフローチャート。5 is a flowchart of virtual space image generation processing based on a group of photographed images. 360度の撮影方向範囲で対象物を撮影する手法の説明図。An explanatory diagram of a method of photographing an object in a 360-degree photographing direction range. 撮影画像群から移動制御情報に応じた撮影画像を選択する手法の説明図。FIG. 3 is an explanatory diagram of a method for selecting a photographed image according to movement control information from a group of photographed images. 図11(A)~図11(C)はプリミティブと仮想カメラを位置関係が固定された状態で移動する手法の説明図。FIGS. 11(A) to 11(C) are explanatory diagrams of a method of moving a primitive and a virtual camera with their positional relationship fixed. 背景の色に対応する色のピクセルを透明にする処理のフローチャート。A flowchart of the process of making pixels of a color corresponding to the background color transparent. 図13(A)~図13(C)はエフェクト画像用のプリミティブを用いたエフェクト画像の生成手法の説明図。FIGS. 13(A) to 13(C) are explanatory diagrams of a method of generating an effect image using primitives for an effect image. エフェクト画像用のプリミティブの初期配置位置の設定手法の説明図。FIG. 7 is an explanatory diagram of a method for setting the initial placement position of a primitive for an effect image. 仮想空間画像に対するポストエフェクト処理の説明図。FIG. 3 is an explanatory diagram of post-effect processing for a virtual space image. 他の対象物に対応する他の表示物の画像の生成手法の説明図。FIG. 7 is an explanatory diagram of a method of generating an image of another display object corresponding to another target object. プリミティブの周囲にパーティクルを配置する手法の説明図。An explanatory diagram of a method for arranging particles around primitives. 撮影部、配置部、回転移動機構を設けた画像生成システムの構成例。A configuration example of an image generation system including an imaging section, a placement section, and a rotational movement mechanism. 対象物を空中に浮遊させた状態で支持する支持部の例。An example of a support part that supports an object while it is suspended in the air. 第1、第2の撮影画像群に基づく仮想空間画像の生成処理のフローチャート。5 is a flowchart of virtual space image generation processing based on the first and second photographed image groups. 図21(A)、図21(B)はポーズを変化させた対象物を撮影することで第2の撮影画像群を取得する手法の説明図。FIG. 21(A) and FIG. 21(B) are explanatory diagrams of a method of acquiring a second group of photographed images by photographing an object whose pose is changed. 図22(A)、図22(B)は付随物を付加した対象物又は形状変形した対象物を撮影することで第2の撮影画像群を取得する手法の説明図。FIGS. 22(A) and 22(B) are explanatory diagrams of a method of acquiring a second group of photographed images by photographing an object to which accompanying objects have been added or an object whose shape has been deformed. 第1の撮影画像群を加工することで第2の撮影画像群を取得する手法の説明図。FIG. 3 is an explanatory diagram of a method of acquiring a second group of captured images by processing a first group of captured images. プレーヤの操作入力情報に応じて第1、第2の撮影画像群の一方の撮影画像群を選択して、仮想空間画像を生成する手法の説明図。FIG. 7 is an explanatory diagram of a method for generating a virtual space image by selecting one of the first and second photographed image groups according to operation input information of the player. 対象物の分析結果とプレーヤの操作入力情報に応じて第1、第2の撮影画像群の一方の撮影画像群を選択して、仮想空間画像を生成する処理のフローチャート。12 is a flowchart of a process of selecting one of the first and second photographed image groups according to the analysis result of the target object and the player's operation input information to generate a virtual space image. 第1、第2の撮影画像群の一方の撮影画像群から移動制御情報に応じて選択された撮影画像に基づいてテクスチャを生成する手法の説明図。FIG. 7 is an explanatory diagram of a method of generating a texture based on a photographed image selected from one of the first and second photographed image groups according to movement control information. 図27(A)、図27(B)は第1、第2の撮影画像群の撮影画像を合成してテクスチャを生成する手法の説明図。27(A) and 27(B) are explanatory diagrams of a method of generating a texture by combining captured images of the first and second captured image groups. 対象物の分析結果に基づきゲームパラメータを設定してゲーム処理を実行する処理のフローチャート。5 is a flowchart of processing for setting game parameters and executing game processing based on the analysis results of the target object. 第1の撮影画像群と異なる第2の撮影画像群を記憶部に保存する処理のフローチャート。7 is a flowchart of processing for storing a second group of captured images different from the first group of captured images in a storage unit. 第1、第2の撮影画像群からテクスチャを生成する際における撮影画像の編集処理の説明図。FIG. 7 is an explanatory diagram of editing processing of photographed images when generating a texture from the first and second photographed image groups.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲の記載内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、必須構成要件であるとは限らない。 This embodiment will be described below. Note that this embodiment described below does not unduly limit the contents described in the claims. Furthermore, not all of the configurations described in this embodiment are essential configuration requirements.

1.画像生成システム
図1は、本実施形態の画像生成システム(画像生成装置、ゲーム装置、端末装置)の構成例を示すブロック図である。なお、本実施形態の画像生成システムは図1の構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Image Generation System FIG. 1 is a block diagram showing a configuration example of an image generation system (image generation device, game device, terminal device) of this embodiment. Note that the image generation system of this embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of its components or adding other components are possible.

操作部160は、プレーヤ(ユーザ)が種々の操作入力情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、レバー又はタッチパネル型ディスプレイ等により実現できる。 The operation unit 160 is used by the player (user) to input various operation input information (input information). The operation unit 160 can be realized by, for example, an operation button, a direction key, a joystick, a lever, a touch panel display, or the like.

撮影部162は、対象物の撮影を行うものであり、CCDやCMOSセンサなどの画像センサと、フォーカスレンズ等により構成される光学系などにより実現される。撮影部162としては、例えばデジタルカメラやビデオカメラなどのカメラを用いることができる。対象物(physical object)は、例えば現実世界の物体であり、撮影部162の被写体である。 The photographing unit 162 photographs the object, and is realized by an optical system including an image sensor such as a CCD or a CMOS sensor, and a focus lens. As the photographing unit 162, for example, a camera such as a digital camera or a video camera can be used. The physical object is, for example, an object in the real world, and is a subject of the photographing unit 162.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。プログラムや、プログラムの実行に必要なデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(hard disk drive)、SSD(Solid State Drive)、又は光ディスク装置などにより実現できる。記憶部170は、撮影画像情報記憶部176、仮想空間情報記憶部177、描画バッファ178を含む。撮影画像情報記憶部176は、撮影部162により撮影された撮影画像の情報を記憶する。例えば撮影画像群の情報を記憶する。仮想空間情報記憶部177は、3次元のオブジェクト空間である仮想空間についての情報を記憶する。例えば仮想空間に配置されるオブジェクトの情報などを記憶する。描画バッファ178は、フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファである。 The storage unit 170 stores various information. The storage unit 170 functions as a work area for the processing unit 100, the communication unit 196, and the like. Programs and data necessary for executing the programs are held in this storage unit 170. The functions of the storage unit 170 can be realized by semiconductor memory (DRAM, VRAM), HDD (hard disk drive), SSD (Solid State Drive), optical disk device, or the like. The storage unit 170 includes a photographed image information storage unit 176, a virtual space information storage unit 177, and a drawing buffer 178. The photographed image information storage section 176 stores information about photographed images photographed by the photographing section 162. For example, information about a group of photographed images is stored. The virtual space information storage unit 177 stores information about a virtual space that is a three-dimensional object space. For example, it stores information about objects placed in virtual space. The drawing buffer 178 is a buffer such as a frame buffer or a work buffer that can store image information in units of pixels.

情報記憶媒体180は、コンピュータにより読み取り可能な媒体であり、プログラムやデータなどを格納するものである。情報記憶媒体180は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。 The information storage medium 180 is a computer-readable medium that stores programs, data, and the like. The information storage medium 180 can be realized by an optical disk (DVD, BD, CD), an HDD, a semiconductor memory (ROM), or the like. The processing unit 100 performs various processes of this embodiment based on programs (data) stored in the information storage medium 180. That is, the information storage medium 180 contains a program (a program for causing the computer to execute the processing of each part) for making a computer (a device including an input device, a processing part, a storage part, and an output part) function as each part of this embodiment. is memorized.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(Head Mounted Display)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ又はヘッドホン等により実現できる。 The display unit 190 outputs the image generated according to the present embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, a touch panel display, an HMD (Head Mounted Display), or the like. The sound output unit 192 outputs the sound generated according to this embodiment, and its function can be realized by a speaker, headphones, or the like.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、プレーヤが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。 The I/F (interface) section 194 performs interface processing with the portable information storage medium 195, and its function can be realized by an ASIC for I/F processing. The portable information storage medium 195 is used by the player to store various types of information, and is a storage device that retains the storage of this information even when power is cut off. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。 The communication unit 196 communicates with the outside (other devices) via a wired or wireless network, and its function is based on hardware such as a communication ASIC or communication processor, and communication firmware. This can be achieved by

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(或いは記憶部170)に配信してもよい。このようなサーバによる情報記憶媒体の使用も本実施形態の範囲内に含めることができる。 Note that the program (data) for making the computer function as each part of this embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. You may. The use of information storage media by such servers may also be included within the scope of this embodiment.

処理部100(プロセッサ)は、操作部160からの操作入力情報やプログラムなどに基づいて、ゲーム処理、編集処理、取得処理、分析処理、移動処理、テクスチャ生成処理、画像生成処理、或いは音生成処理などを行う。 The processing unit 100 (processor) performs game processing, editing processing, acquisition processing, analysis processing, movement processing, texture generation processing, image generation processing, or sound generation processing based on operation input information and programs from the operation unit 160. etc.

処理部100の各部が行う本実施形態の各処理はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。 Each process of this embodiment performed by each part of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of this embodiment can be realized by a processor that operates based on information such as a program, and a memory that stores information such as a program. For example, the functions of each part of the processor may be realized by separate hardware, or the functions of each part may be realized by integrated hardware. For example, a processor includes hardware, and the hardware can include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal. For example, a processor can be configured with one or more circuit devices (eg, an IC) mounted on a circuit board, or one or more circuit elements (eg, a resistor, a capacitor, etc.). The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to a CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. Further, the processor may be a hardware circuit based on an ASIC. Further, the processor may include an amplifier circuit, a filter circuit, etc. that process analog signals. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk drive (HDD), or an optical storage device such as an optical disk device. For example, the memory stores computer-readable instructions, and when the instructions are executed by the processor, the processing of each section of the processing section 100 is realized. The instructions here may be an instruction set that constitutes a program, or instructions that instruct a hardware circuit of a processor to operate.

処理部100は、ゲーム処理部106、編集処理部108、取得部110、分析部111、移動処理部112、テクスチャ生成部114、画像生成部120、音生成部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。 The processing section 100 includes a game processing section 106 , an editing processing section 108 , an acquisition section 110 , an analysis section 111 , a movement processing section 112 , a texture generation section 114 , an image generation section 120 , and a sound generation section 130 . As described above, each process of this embodiment executed by each of these units can be realized by a processor (or a processor and a memory). Note that various modifications such as omitting some of these components (each part) or adding other components are possible.

ゲーム処理部106はプレーヤがゲームをプレイするための種々のゲーム処理を行う。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。 The game processing unit 106 performs various game processing for the player to play the game. The game processing includes, for example, processing to start the game when game start conditions are met, processing to progress the started game, processing to end the game when game end conditions are met, or calculation of game results. processing, etc.

編集処理部108は撮影画像をプレーヤが編集するための編集処理を行う。取得部110は、撮影部162により撮影された撮影画像の取得処理を行う。例えば撮影部162から撮影画像の情報を受信したり読み出したりする処理を行う。分析部111は、対象物に対する分析処理を行う。例えば対象物の撮影画像に基づいて対象物のシルエット分析などの分析処理を行う。 The editing processing unit 108 performs editing processing for the player to edit the captured image. The acquisition unit 110 performs a process of acquiring a photographed image photographed by the photographing unit 162. For example, it performs a process of receiving and reading out information about a photographed image from the photographing unit 162. The analysis unit 111 performs analysis processing on the target object. For example, analysis processing such as silhouette analysis of the object is performed based on the photographed image of the object.

移動処理部112は、仮想空間においてプリミティブ等のオブジェクトを移動させる処理を行う。例えば本実施形態では、複数のオブジェクトが配置される仮想空間(オブジェクト空間)の設定処理が行われる。例えば、移動体(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブで構成されるオブジェクト)を仮想空間に配置設定する処理が行われる。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)が決定され、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトが配置される。具体的には、記憶部170の仮想空間情報記憶部177には、仮想空間情報として、仮想空間でのオブジェクトの位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報が、オブジェクト番号に対応づけて記憶される。この仮想空間情報であるオブジェクト情報を、例えば各フレーム毎に更新する処理などが行われる。そして移動処理部112は、このように設定された仮想空間において、プリミティブ等のオブジェクトを移動させる処理を行う。例えばプリミティブ等のオブジェクトの情報を更新する処理を行う。またオブジェクトを動作させるモーション処理など行う。 The movement processing unit 112 performs processing to move objects such as primitives in virtual space. For example, in this embodiment, a process for setting a virtual space (object space) in which a plurality of objects are arranged is performed. For example, various types of objects representing moving objects (people, robots, cars, trains, airplanes, ships, monsters, animals, etc.), maps (terrain), buildings, spectator seats, courses (roads), trees, walls, water surfaces, etc. A process of arranging and setting an object (an object composed of primitives such as a polygon, a free-form surface, or a subdivision surface) in a virtual space is performed. In other words, the position and rotation angle (synonymous with orientation and direction) of the object in the world coordinate system are determined, and the position (X, Y, Z) and rotation angle (rotation angle around the X, Y, Z axes) are The object is placed. Specifically, the virtual space information storage unit 177 of the storage unit 170 stores object information, which is information such as the position, rotation angle, moving speed, and moving direction of an object in the virtual space, as virtual space information, including object numbers. are stored in association with. For example, a process of updating object information, which is virtual space information, for each frame is performed. The movement processing unit 112 then performs a process of moving objects such as primitives in the virtual space set in this way. For example, it performs processing to update information on objects such as primitives. It also performs motion processing to make objects move.

テクスチャ生成部114は、プリミティブにマッピングするテクスチャの生成処理を行う。例えば取得部110により取得された撮影画像に基づいてテクスチャを生成する処理を行う。 The texture generation unit 114 performs a process of generating a texture to be mapped to a primitive. For example, processing is performed to generate a texture based on the captured image acquired by the acquisition unit 110.

画像生成部120は、画像の生成処理を行う。例えば処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178に描画する。これにより、仮想空間において仮想カメラから見える仮想空間画像が生成される。なお画像生成部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。 The image generation unit 120 performs image generation processing. For example, a drawing process is performed based on the results of various processes performed by the processing unit 100, thereby generating an image and displaying it on the display unit 190. Specifically, geometry processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed, and based on the processing results, drawing data (positions of vertices of primitive surfaces) (coordinates, texture coordinates, color data, normal vectors, α values, etc.) are created. Then, based on this drawing data (primitive surface data), the object (one or more primitive surfaces) after perspective transformation (after geometry processing) is drawn in the drawing buffer 178. As a result, a virtual space image visible from the virtual camera in the virtual space is generated. Note that the drawing process performed by the image generation unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音の生成処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などを生成し、音出力部192に出力させる。 The sound generation unit 130 performs sound generation processing based on the results of various processes performed by the processing unit 100. Specifically, music (music, BGM), sound effects, voices, etc. are generated and output to the sound output unit 192.

そして本実施形態の画像生成システムは、図1に示すように、取得部110と記憶部170と移動処理部112とテクスチャ生成部114と画像生成部120を含む。 The image generation system of this embodiment includes an acquisition section 110, a storage section 170, a movement processing section 112, a texture generation section 114, and an image generation section 120, as shown in FIG.

取得部110は、撮影部162により対象物を複数の撮影方向から撮影することで得られる撮影画像群を取得する。撮影画像群は、例えばデジタルカメラにより撮影された複数の静止画であってもよいし、デジタルカメラやビデオカメラにより撮影された動画を構成する複数の画像であってもよい。この場合には撮影画像群は例えばMPEG等により符号化された動画を構成する画像群になる。即ち撮影画像群はMPEG等のムービー映像であってもよい。なお本実施形態の画像生成システムは撮影部162を有していなくてもよく、この場合には、取得部110は、I/F部194や通信部196を介して撮影画像を取得する。 The acquisition unit 110 acquires a group of photographed images obtained by photographing the object from a plurality of photographing directions using the photographing unit 162. The photographed image group may be, for example, a plurality of still images photographed by a digital camera, or a plurality of images constituting a moving image photographed by a digital camera or a video camera. In this case, the photographed image group is, for example, an image group constituting a moving image encoded by MPEG or the like. That is, the photographed image group may be a movie video such as MPEG. Note that the image generation system of this embodiment may not include the photographing section 162; in this case, the acquisition section 110 acquires a photographed image via the I/F section 194 and the communication section 196.

記憶部170は、取得された撮影画像群を記憶する。例えば取得部110が撮影画像群を取得すると、取得された撮影画像群の情報が記憶部170に保存されて記憶される。具体的には記憶部170の撮影画像情報記憶部176が撮影画像群の情報を記憶する。 The storage unit 170 stores the acquired photographed image group. For example, when the acquisition unit 110 acquires a group of photographed images, information on the acquired group of photographed images is saved and stored in the storage unit 170. Specifically, the photographed image information storage section 176 of the storage section 170 stores information on a group of photographed images.

移動処理部112は、移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う。例えば移動制御情報に基づいて、仮想空間においてプリミティブを並進移動させたり回転移動させる処理を行う。移動制御情報は、プリミティブの移動制御を行うための情報である。移動制御情報としては、例えば操作部160などを用いてプレーヤにより入力される操作入力情報を用いることができる。或いはプリミティブの一連の移動を制御する移動制御情報を記憶部170に記憶しておき、記憶された移動制御情報を記憶部170から読み出すことで、プリミティブの移動制御を行うようにしてもよい。このようにすれば、移動制御情報に応じてプリミティブが自動的に移動するような移動制御を実現できる。これにより、例えば対象物に対応する表示物(例えば魚や動物等)の観賞を可能にするような画像生成システムなどを実現できる。 The movement processing unit 112 performs a process of moving the primitive in the virtual space based on the movement control information. For example, based on the movement control information, processing is performed to translate or rotate the primitive in the virtual space. The movement control information is information for controlling movement of primitives. As the movement control information, operation input information input by the player using, for example, the operation unit 160 can be used. Alternatively, movement control information for controlling a series of movements of primitives may be stored in the storage unit 170, and the movement of the primitives may be controlled by reading the stored movement control information from the storage unit 170. In this way, it is possible to realize movement control in which the primitive automatically moves according to the movement control information. As a result, it is possible to realize, for example, an image generation system that allows viewing of a display object (for example, a fish, an animal, etc.) corresponding to the target object.

テクスチャ生成部114は、プリミティブの移動制御情報に応じて撮影画像群(第1、第2の撮影画像群の一方の撮影画像群)から選択された撮影画像に基づいて、プリミティブにマッピングするテクスチャを生成する処理を行う。例えばプリミティブの移動制御情報に基づいて、撮影画像群(第1、第2の撮影画像群の一方の撮影画像群)から当該移動制御情報に対応する撮影画像を記憶部170から読み出す。そしてテクスチャ生成部114は、読み出された撮影画像に基づいてテクスチャを生成する。例えば対象物を撮影した撮影画像のうち、対象物の映る部分をテクスチャの画像として生成する。具体的には、撮影画像のうちの背景の画像の部分を透明にし、対象物の画像の部分を切り抜いて、テクスチャを生成する。当該テクスチャをプリミティブにマッピングすることで、対象物に対応する表示物の画像を表示できるようになる。ここでプリミティブは、例えばプリミティブ面であり、例えばポリゴンである。具体的にはプリミティブは、仮想カメラに対して正対して配置されるビルボードポリゴンである。なおプリミティブは、自由曲面やサブディビジョンサーフェイスなどであってもよい。 The texture generation unit 114 generates a texture to be mapped to the primitive based on the captured image selected from the captured image group (one of the first and second captured image groups) according to the movement control information of the primitive. Perform the process to generate. For example, based on the movement control information of the primitive, a photographed image corresponding to the movement control information is read from the storage unit 170 from the photographed image group (one of the first and second photographed image groups). The texture generation unit 114 then generates a texture based on the read captured image. For example, in a photographed image of a target object, a portion of the target object is generated as a texture image. Specifically, the texture is generated by making the background image part of the photographed image transparent and cutting out the object image part. By mapping the texture to a primitive, it becomes possible to display an image of a display object corresponding to the target object. Here, the primitive is, for example, a primitive surface, such as a polygon. Specifically, the primitive is a billboard polygon placed directly facing the virtual camera. Note that the primitive may be a free-form surface, a subdivision surface, or the like.

画像生成部120は、移動制御情報に応じて変化するテクスチャを、プリミティブにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成する。例えば移動制御情報に応じて撮影画像群から選択された撮影画像に基づくテクスチャを、プリミティブにマッピングすることで、プリミティブにマッピングされるテクスチャが、プリミティブの移動制御情報に応じて変化するようになる。即ち対象物を複数の撮影方向から撮影することで得られた撮影画像群の中から、プリミティブの移動制御状態に適合した撮影画像を選択し、選択された撮影画像に基づき生成されたテクスチャを、プリミティブにマッピングする。このようにすることで、プリミティブの移動制御の状態に応じたテクスチャの画像がプリミティブにマッピングされて、対象物に対応する表示物が表示された仮想空間画像を生成できるようになる。 The image generation unit 120 maps a texture that changes according to movement control information onto a primitive to generate a virtual space image that can be seen from a virtual camera in a virtual space. For example, by mapping a texture based on a photographed image selected from a group of photographed images according to movement control information onto a primitive, the texture mapped onto the primitive changes according to the movement control information of the primitive. That is, from among a group of captured images obtained by photographing an object from a plurality of photographing directions, a captured image that matches the movement control state of the primitive is selected, and a texture generated based on the selected captured image is Map to primitives. By doing so, a texture image corresponding to the movement control state of the primitive is mapped onto the primitive, and a virtual space image in which a display object corresponding to the target object is displayed can be generated.

また移動処理部112は、プリミティブと仮想カメラの位置関係が固定された状態で、プリミティブ及び仮想カメラを移動制御情報に応じて移動させる処理を行う。例えばプリミティブと仮想カメラとの距離が一定距離になるようにプリミティブと仮想カメラの位置関係を固定する。一例としては、プリミティブが仮想カメラと正対し、且つ、プリミティブと仮想カメラとの距離が一定距離になるようにプリミティブと仮想カメラの位置関係を固定する。プリミティブが仮想カメラに正対する状態は、例えば仮想カメラの視線方向がプリミティブの面に直交する状態である。そして移動処理部112は、このようにプリミティブと仮想カメラの位置関係が固定された状態で、プリミティブ及び仮想カメラを一体にして移動させる処理を行う。例えば仮想空間において上、下、左又は右に並進移動させる移動制御情報である場合には、移動処理部112は、プリミティブ及び仮想カメラを上、下、左又は右に並進移動させる処理を行う。或いは、仮想空間においてX軸、Y軸又はZ軸回りに回転移動させる移動制御情報である場合には、移動処理部112は、プリミティブ及び仮想カメラをX軸、Y軸又はZ軸回りに回転移動させる処理を行う。 Furthermore, the movement processing unit 112 performs a process of moving the primitive and the virtual camera according to the movement control information while the positional relationship between the primitive and the virtual camera is fixed. For example, the positional relationship between the primitive and the virtual camera is fixed so that the distance between the primitive and the virtual camera is a constant distance. For example, the positional relationship between the primitive and the virtual camera is fixed so that the primitive faces the virtual camera and the distance between the primitive and the virtual camera is a constant distance. The state in which the primitive directly faces the virtual camera is, for example, a state in which the viewing direction of the virtual camera is orthogonal to the surface of the primitive. Then, the movement processing unit 112 performs a process of moving the primitive and the virtual camera together, with the positional relationship between the primitive and the virtual camera being fixed in this manner. For example, if the movement control information is to translate upward, downward, left, or right in the virtual space, the movement processing unit 112 performs processing to translate the primitive and the virtual camera upward, downward, left, or right. Alternatively, if the movement control information is rotational movement around the X-axis, Y-axis, or Z-axis in the virtual space, the movement processing unit 112 rotates the primitive and the virtual camera around the X-axis, Y-axis, or Z-axis. Perform the processing to

また撮影部162は、対象物と、対象物の背景を撮影する。撮影部162は画像生成システムが有するものであってもよいし、画像生成システムとは別個に設けられるものであってもよい。テクスチャ生成部114は、撮影画像の各ピクセルの色が、背景の色に対応する色か否かを判断する。そして背景の色に対応する色のピクセルであると判断された場合には、背景の色に対応する色のピクセルを透明にする処理を行うことで、テクスチャを生成する。例えばテクスチャ生成部114は、撮影画像の各ピクセル毎に、各ピクセルの色が背景に対応する色か否かを判断する。例えば撮影部162により対象物を撮影する際に、背景の色が緑又は青等の所定色に設定される。例えば対象物の色とは異なる所定色に、背景の色が設定される。例えば対象物が複数の色を有する場合には、これらの複数の色のいずれとも異なる所定色に、背景の色が設定される。例えば撮影時において対象物の周囲に配置される背景物が所定色に設定される。背景の色は、対象物の色と補色の関係の色に設定されていることが望ましい。そしてテクスチャ生成部114は、処理対象となるピクセルが、背景に対応する色(例えば緑又は青等)のピクセルであると判断された場合には、当該ピクセルを透明にする処理を行う。例えば半透明処理であるα合成において、当該ピクセルのα値を0に設定することで、当該ピクセルを透明なピクセルにする。なお以上のようなピクセル毎の処理はピクセルシェーダなどにより実現できる。 Further, the photographing unit 162 photographs the target object and the background of the target object. The imaging unit 162 may be included in the image generation system, or may be provided separately from the image generation system. The texture generation unit 114 determines whether the color of each pixel of the photographed image corresponds to the color of the background. If it is determined that the pixel has a color corresponding to the background color, a texture is generated by making the pixel of the color corresponding to the background transparent. For example, the texture generation unit 114 determines, for each pixel of the photographed image, whether the color of each pixel corresponds to the background. For example, when the photographing unit 162 photographs an object, the background color is set to a predetermined color such as green or blue. For example, the background color is set to a predetermined color different from the color of the object. For example, if the object has multiple colors, the background color is set to a predetermined color different from any of the multiple colors. For example, when photographing, a background object placed around an object is set to a predetermined color. It is desirable that the background color be set to a color that is complementary to the color of the object. When the texture generation unit 114 determines that the pixel to be processed is a pixel of a color corresponding to the background (for example, green or blue), the texture generation unit 114 performs processing to make the pixel transparent. For example, in alpha compositing, which is semi-transparent processing, by setting the alpha value of the pixel to 0, the pixel becomes a transparent pixel. Note that the above-described processing for each pixel can be realized using a pixel shader or the like.

またテクスチャ生成部114は、撮影画像群により構成される動画のシーク制御を移動制御情報に基づいて行うことで、撮影画像群から撮影画像を選択し、選択された撮影画像に基づいてテクスチャを生成する。例えば撮影画像群の動画(ムービー)の早送りや巻き戻しのシーク制御を行い、移動制御情報に対応する撮影画像をシークして選択する。そして選択された撮影画像に基づいてテクスチャを生成する。このようにして生成されたテクスチャが、移動制御情報に応じて並進移動や回転移動するプリミティブにマッピングされる。 Furthermore, the texture generation unit 114 selects a captured image from the captured image group and generates a texture based on the selected captured image by performing seek control of the moving image composed of the captured image group based on the movement control information. do. For example, seek control is performed to fast forward or rewind a moving image (movie) of a group of photographed images, and a photographed image corresponding to movement control information is sought and selected. A texture is then generated based on the selected photographed image. The texture generated in this way is mapped to a primitive that moves translationally or rotationally according to the movement control information.

また撮影画像群(第1、第2の撮影画像群)は、対象物に対する撮影部162の撮影方向の変化が180度以上の撮影方向範囲となる画像群である。望ましくは後述の図9に示すように、撮影画像群は、対象物に対する撮影部162の撮影方向の変化が360度の撮影方向範囲となる画像群である。例えば撮影部162の撮影方向は対象物の方に向いており、対象物を注視する方向に撮影方向が設定されている。撮影方向範囲は、対象物を注視した状態で撮影方向の角度が0度~βと変化する範囲である。そして本実施形態ではβが180度以上に設定されており、望ましくは図9に示すようにβ=360度になっている。 Further, the photographed image group (the first and second photographed image groups) is a group of images in which the photographing direction of the photographing unit 162 relative to the object changes within a photographing direction range of 180 degrees or more. Preferably, as shown in FIG. 9, which will be described later, the photographed image group is a group of images in which the photographing direction of the photographing unit 162 with respect to the object changes within a photographing direction range of 360 degrees. For example, the photographing direction of the photographing unit 162 is directed toward the target object, and the photographing direction is set in the direction in which the target object is gazed. The photographing direction range is a range in which the angle of the photographing direction changes from 0 degrees to β while gazing at the object. In this embodiment, β is set to 180 degrees or more, and preferably β=360 degrees as shown in FIG.

また移動処理部112は、移動制御情報に応じてプリミティブに対する相対的位置関係が変化する第2のプリミティブの移動処理を行う。例えばプリミティブを基準にして第2のプリミティブを回転移動するなどの移動処理を行う。そして画像生成部120は、テクスチャがマッピングされたプリミティブの画像と、第2のプリミティブの画像とを含む画像を、仮想空間画像として生成する。例えばプリミティブは、対象物に対応する表示物の画像を表示するためのものであり、当該プリミティブには、対象物の撮影画像に基づくテクスチャがマッピングされる。一方、第2のプリミティブは、例えば対象物に対応する表示物の付随物の画像を表示するためのものである。付随物は、例えば表示物のエフェクト、所持品、装飾品、装備品、武器又は防具などの表示物であり、第2のプリミティブの画像は、表示物のエフェクト、所持品、装飾品、装備品、武器又は防具などの画像になる。第2のプリミティブは、例えばビルボードポリゴン等のポリゴンであってもよいし、自由曲面やサブディビジョンサーフェイスなどであってもよい。或いは第2のプリミティブは、表示物の付随物を表す3次元オブジェクトを構成するものであってもよい。このような第2のプリミティブを用いれば、現実世界の対象物には無いエフェクト、所持品、装飾品、装備品、武器又は防具等の画像を、対象物に対応する表示物に付加して表示できるようになる。 The movement processing unit 112 also performs movement processing of the second primitive in which the relative positional relationship with respect to the primitive changes according to the movement control information. For example, a movement process such as rotationally moving the second primitive based on the primitive is performed. The image generation unit 120 then generates, as a virtual space image, an image that includes the image of the primitive to which the texture has been mapped and the image of the second primitive. For example, the primitive is for displaying an image of a display object corresponding to the target object, and a texture based on a photographed image of the target object is mapped to the primitive. On the other hand, the second primitive is for displaying, for example, an image of an accompanying object of the display object corresponding to the target object. The accompanying object is, for example, an effect of the displayed object, an item in your possession, an accessory, an equipment, a weapon, or an armor, and the image of the second primitive is an effect of the object, an item in your possession, an accessory, an equipment, etc. , images of weapons, armor, etc. The second primitive may be a polygon such as a billboard polygon, a free-form surface, a subdivision surface, or the like. Alternatively, the second primitive may constitute a three-dimensional object representing an appendage of the display object. By using such a second primitive, images of effects, belongings, accessories, equipment, weapons, armor, etc. that do not exist on objects in the real world can be added to the display objects corresponding to the objects and displayed. become able to.

また移動処理部112は、対象物の分析結果に基づき設定される第2のプリミティブの初期配置位置から、プリミティブを基準に第2のプリミティブを移動させる処理を行う。例えば初期配置位置からプリミティブを基準に第2のプリミティブを移動させる処理を、移動制御情報に基づいて行う。例えば分析部111が、現実世界の物体である対象物の分析処理を行う。例えば分析部111は、対象物のシルエット分析等の分析処理を行って、対象物の種類や形状等を特定する。そして移動処理部112は、対象物の種類や形状等に応じた初期配置位置に、第2のプリミティブを配置し、当該初期配置位置から、プリミティブを基準に第2のプリミティブを回転移動したり並進移動させる処理を行う。例えば対象物が第1の種類や第1の形状である場合には、第1の初期配置位置に第2のプリミティブを配置して移動処理を行い、対象物が第2の種類や第2の形状である場合には、第2の初期配置位置に第2のプリミティブを配置して移動処理を行う。 Furthermore, the movement processing unit 112 performs a process of moving the second primitive from the initial placement position of the second primitive set based on the analysis result of the target object, using the primitive as a reference. For example, a process of moving a second primitive from an initial placement position with reference to the primitive is performed based on the movement control information. For example, the analysis unit 111 performs analysis processing on a target that is an object in the real world. For example, the analysis unit 111 performs analysis processing such as silhouette analysis of the object to identify the type, shape, etc. of the object. The movement processing unit 112 then arranges the second primitive at an initial arrangement position according to the type and shape of the object, and rotates or translates the second primitive from the initial arrangement position with respect to the primitive. Perform the moving process. For example, if the object is of the first type or shape, the second primitive is placed at the first initial placement position and the movement process is performed, and the object is of the second type or shape. If it is a shape, the second primitive is placed at the second initial placement position and the movement process is performed.

また画像生成部120は、第2のプリミティブの隠面消去処理を、移動制御情報に応じて行う。即ち第2のプリミティブは、移動制御情報に応じてプリミティブに対する相対的位置関係が変化するように回転移動したり、並進移動する。そしてプリミティブにより表される表示物に対して、第2のプリミティブにより表される付随物が、仮想カメラから見て隠れる位置に来たと移動制御情報に基づき判断された場合に、第2のプリミティブの隠面消去処理を行う。そしてあたかも、プリミティブにより表される表示物によって、第2のプリミティブにより表される付随物が隠れて見えるようにする隠面消去処理を行う。このようにすることで表示物とその付随物の画像を矛盾なく表示することが可能になる。 The image generation unit 120 also performs hidden surface removal processing on the second primitive in accordance with the movement control information. That is, the second primitive rotates or translates in accordance with the movement control information so that the relative positional relationship with respect to the primitive changes. Then, when it is determined based on the movement control information that the accompanying object represented by the second primitive has reached a position where it is hidden from the virtual camera with respect to the display object represented by the primitive, the second primitive Perform hidden surface removal processing. Then, hidden surface removal processing is performed to make the accompanying object represented by the second primitive appear hidden by the display object represented by the primitive. By doing so, it becomes possible to display images of the display object and its accompanying objects without contradiction.

また第2のプリミティブの画像は、例えばエフェクト画像である。例えば第2のプリミティブの画像は、光、炎、煙、噴射、点滅、爆発、武器攻撃又は魔法攻撃などを表す特殊なグラフィックであるエフェクト(ゲームエフェクト)の画像である。このように第2のプリミティブの画像としてエフェクトの画像を用いれば、現実世界の対象物では発生できないエフェクトを、ゲーム空間である仮想空間内において発生できるようになる。 Further, the second primitive image is, for example, an effect image. For example, the second primitive image is an image of an effect (game effect) that is a special graphic representing light, flame, smoke, jetting, flashing, explosion, weapon attack, magic attack, or the like. By using the effect image as the second primitive image in this way, it becomes possible to generate effects that cannot be generated on objects in the real world in the virtual space that is the game space.

また画像生成部120は、仮想空間画像として、プリミティブの画像と、仮想空間に設定される複数のオブジェクトの画像とを含む画像を生成する。そして生成された仮想空間画像に対してポストエフェクト処理を行う。例えばぼかし処理、明るさの調整処理又は色相の調整処理などのポストエフェクト処理を行う。具体的には画像生成部120は、他のオブジェクトが表示される仮想空間画像に対して、プリミティブにより表される表示物が違和感なく表示されるようにするポストエフェクト処理を行う。例えばプリミティブにより表される表示物の輪郭をぼかすようなポストエフェクト処理を行って、表示物と仮想空間画像の境界である輪郭が目立たなくなるようにする。また表示物の明るさと、周囲の仮想空間画像の明るさに差があった場合に、画像生成部120は、この差を小さくするようなポストエフェクト処理を行う。例えばプリミティブにマッピングされるテクスチャは、現実世界において対象物を撮影することで得られる撮影画像に基づき生成されている。このため、撮影環境に応じてテクスチャの画像の明るさも変動し、表示物の画像の明るさと、表示物の周囲の仮想空間画像の明るさとの間に差が生じてしまうが、この明るさの差を低減するようなポストエフェクト処理を画像生成部120が行う。 The image generation unit 120 also generates, as a virtual space image, an image that includes an image of a primitive and images of a plurality of objects set in the virtual space. Post-effect processing is then performed on the generated virtual space image. For example, post-effect processing such as blur processing, brightness adjustment processing, or hue adjustment processing is performed. Specifically, the image generation unit 120 performs post-effect processing on the virtual space image in which other objects are displayed so that the display object represented by the primitive is displayed without any discomfort. For example, post-effect processing is performed to blur the outline of a display object represented by a primitive, so that the outline that is the boundary between the display object and the virtual space image becomes less noticeable. Furthermore, if there is a difference between the brightness of the displayed object and the brightness of the surrounding virtual space image, the image generation unit 120 performs post-effect processing to reduce this difference. For example, a texture mapped to a primitive is generated based on a photographed image obtained by photographing an object in the real world. For this reason, the brightness of the texture image changes depending on the shooting environment, resulting in a difference between the brightness of the image of the displayed object and the brightness of the virtual space image around the displayed object. The image generation unit 120 performs post-effect processing to reduce the difference.

また取得部110は、他の表示物に対応する他の対象物を複数の撮影方向から撮影することで得られる他の表示物用の撮影画像群を取得する。即ち、プリミティブに対応する表示物とは異なる他の表示物に対応する他の対象物を撮影した他の表示物用の撮影画像群を取得する。例えばプリミティブにより表される表示物がキャラクタであった場合に、他の表示物は、例えば当該キャラクタと戦う敵キャラクタなどである。そしてテクスチャ生成部114は、他の表示物用の移動制御情報に応じて他の表示物用の撮影画像群から選択された撮影画像に基づいて、他の表示物用のテクスチャを生成する。そして画像生成部120は、他の表示物用の移動制御情報に応じて変化する他の表示物用のテクスチャを、他の表示物用のプリミティブにマッピングして、仮想空間画像を生成する。例えば移動処理部112は、他の表示物用の移動制御情報に応じて、他の表示物用のプリミティブを仮想空間において移動させる処理を行う。そして、このように移動する他の表示物用のプリミティブに対して、他の表示物用の移動制御情報に応じて変化する他の表示物用のテクスチャをマッピングする。これにより、例えば敵キャラクタなどの他の表示物のリアルな画像を、少ない処理負荷で生成することが可能になる。 The acquisition unit 110 also acquires a group of photographed images for other display objects obtained by photographing other objects corresponding to the other display objects from a plurality of photographing directions. That is, a group of photographed images for other display objects, which are images of other objects corresponding to other display objects different from the display object corresponding to the primitive, is obtained. For example, when a display object represented by a primitive is a character, other display objects may be, for example, an enemy character that fights with the character. The texture generation unit 114 then generates a texture for another display object based on a photographed image selected from a group of photographed images for another display object according to movement control information for another display object. The image generation unit 120 then maps the texture for the other display object that changes according to the movement control information for the other display object onto the primitive for the other display object to generate a virtual space image. For example, the movement processing unit 112 performs a process of moving a primitive for another display object in the virtual space in accordance with movement control information for another display object. Then, to the primitive for the other display object that moves in this way, a texture for the other display object that changes according to the movement control information for the other display object is mapped. This makes it possible to generate realistic images of other display objects, such as enemy characters, with less processing load.

また画像生成部120は、プリミティブの周囲にパーティクルが表示される画像を、仮想空間画像として生成する。例えば仮想空間において、プリミティブの周囲にパーティクルが配置されるようにパーティクルを発生して、仮想空間画像を生成する。例えば画像生成部120は、パーティクルを発生させるエフェクト処理(ポストエフェクト処理)を行う。このようにプリミティブの周囲にパーティクルが存在することで、プリミティブに対応する表示物が、仮想空間内において違和感なく移動する仮想空間画像を生成できるようになる。 The image generation unit 120 also generates an image in which particles are displayed around the primitive as a virtual space image. For example, in virtual space, particles are generated so that they are arranged around primitives to generate a virtual space image. For example, the image generation unit 120 performs effect processing (post-effect processing) to generate particles. The presence of particles around the primitive in this manner makes it possible to generate a virtual space image in which a display object corresponding to the primitive moves within the virtual space without causing any discomfort.

また本実施形態の画像生成システムは、後述の図18に示すように、カメラ等の撮影部162と、対象物POBが配置される配置部10(載置部)と、回転移動機構12を含むことができる。回転移動機構12は、配置部10に配置された対象物POBに対する撮影部162の撮影方向を変化させるための回転移動を行う機構である。図18では、モーターなどの駆動部により実現される回転移動機構12により、ターンテーブルのように配置部10を回転させることにより、対象物POBに対する撮影部162の撮影方向を変化させている。このような配置部10と回転移動機構12を設けることで、対象物POBに対する撮影部162の撮影方向が所定角度以上の撮影方向範囲となる撮影画像群を取得できるようになる。 Further, as shown in FIG. 18, which will be described later, the image generation system of this embodiment includes a photographing unit 162 such as a camera, a placement unit 10 (placement unit) in which the object POB is placed, and a rotational movement mechanism 12. be able to. The rotational movement mechanism 12 is a mechanism that performs rotational movement to change the photographing direction of the photographing section 162 with respect to the object POB placed in the placement section 10. In FIG. 18, the rotational movement mechanism 12 realized by a drive unit such as a motor rotates the placement unit 10 like a turntable, thereby changing the imaging direction of the imaging unit 162 with respect to the object POB. By providing such an arrangement section 10 and rotational movement mechanism 12, it becomes possible to obtain a group of photographed images in which the photographing direction of the photographing section 162 with respect to the object POB falls within a photographing direction range of a predetermined angle or more.

また本実施形態の画像生成システムは、対象物を空中に浮遊させた状態で支持する支持部を含んでもよい。例えば後述の図19に示すように、支持部16により対象物POBを支持することで、対象物POBを空中に浮遊させた状態で撮影部162により撮影できるようにする。例えば対象物POBの脚部等が配置部10から離れた状態で、対象物POBを支持部16により支持して、撮影部162により対象物POBを複数の撮影方向から撮影して撮影画像群を取得するようにする。このようにすることで、例えばアニメなどにおいて飛行可能なキャラクタとして登場するロボットなどのプラモデルを対象物POBとして撮影して、仮想空間に登場させることが可能になる。 Further, the image generation system of this embodiment may include a support section that supports the object while floating in the air. For example, as shown in FIG. 19, which will be described later, by supporting the object POB with the support section 16, the object POB can be photographed by the photographing section 162 while floating in the air. For example, with the legs of the object POB separated from the arrangement section 10, the object POB is supported by the support section 16, and the photographing section 162 photographs the object POB from a plurality of photographing directions to create a group of photographed images. Let's get it. In this way, for example, a plastic model such as a robot that appears as a flying character in an anime or the like can be photographed as an object POB and made to appear in a virtual space.

また取得部110は、第1の撮影画像群と第2の撮影画像群を取得する。なお取得する撮影画像群は2つに限定されず、3つ以上の撮影画像群を取得してもよい。即ち取得部110は、第1~第Kの撮影画像群(Kは2以上の整数)を取得できる。第1の撮影画像群は、撮影部162により対象物を複数の撮影方向から撮影することで得られる撮影画像群である。一方、第2の撮影画像群は、ポーズを変化させた対象物、付随物を付加した対象物又は形状変形させた対象物を複数の撮影方向から撮影することで得られる画像群である。例えば第1の撮影画像群における対象物のポーズ(姿勢)を変化させた対象物(第2の対象物)を、撮影部162により複数の撮影方向から撮影することで第2の撮影画像群を取得する。或いは、第1の撮影画像群における対象物に対して、武器、防具、装備品、装飾品又は所持品などの付随物を付加(装備、所持)した対象物(第2の対象物)を、撮影部162により複数の撮影方向から撮影することで第2の撮影画像群を取得する。或いは、第1の撮影画像群における対象物を形状変形させた対象物(第2の対象物)を、撮影部162により複数の撮影方向から撮影することで第2の撮影画像群を取得する。例えば異なる形状に対象物が変形する変身状態に設定して、複数の撮影方向から撮影して、第2の撮影画像群を取得する。或いは、第1の撮影画像群を加工した画像群を第2の撮影画像群として取得してもよい。例えば第1の撮影画像群の縮小拡大などのサイズ変更の加工処理を行ったり、第1の撮影画像群に対してぼかし処理などの画像エフェクト処理の加工処理を行ったり、第1の撮影画像群の色、明るさ又はコントラストを変更する加工処理を行ったり、或いは第1の撮影画像群の左右反転、上下反転又は回転などの加工処理を行ったりすることで、第2の撮影画像群を取得する。そして記憶部170(撮影画像情報記憶部176)は、このようにして取得された第1、第2の撮影画像群を記憶し、移動処理部112は、仮想空間においてプリミティブを移動させる処理を行う。そしてテクスチャ生成部114は、第1、第2の撮影画像群から、プリミティブにマッピングするテクスチャを生成し、画像生成部120は、生成されたテクスチャを、プリミティブにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成する。例えばテクスチャ生成部114は、第1、第2の撮影画像群から、所定手順の処理により得られた撮影画像に基づいて、テクスチャを生成する。そして画像生成部120は、所定手順の処理により得られた撮影画像に基づくテクスチャを、仮想空間内で移動するプリミティブにマッピングすることで、対象物に対応する表示物が表示された仮想空間画像を生成する。 The acquisition unit 110 also acquires a first group of captured images and a second group of captured images. Note that the number of captured image groups to be acquired is not limited to two, and three or more captured image groups may be acquired. That is, the acquisition unit 110 can acquire the first to Kth photographed image groups (K is an integer of 2 or more). The first group of photographed images is a group of photographed images obtained by photographing the object from a plurality of photographing directions by the photographing unit 162. On the other hand, the second group of photographed images is a group of images obtained by photographing an object with a changed pose, an object with an accompanying object added, or a target whose shape has been deformed from a plurality of photographing directions. For example, by photographing an object (second object) whose pose (posture) of the object in the first photographed image group has been changed by the photographing unit 162 from a plurality of photographing directions, the second photographed image group is obtained. get. Alternatively, an object (second object) in which incidental items such as weapons, armor, equipment, accessories, or belongings are added (equipped or possessed) to the object in the first photographed image group, A second group of photographed images is obtained by photographing from a plurality of photographing directions by the photographing unit 162. Alternatively, the second group of photographed images is obtained by photographing an object (second object) obtained by deforming the object in the first group of photographed images from a plurality of photographing directions using the photographing unit 162. For example, the object is set to a transformation state in which it transforms into different shapes, and images are taken from a plurality of photographing directions to obtain a second group of photographed images. Alternatively, a group of images obtained by processing the first group of captured images may be acquired as the second group of captured images. For example, the first group of captured images may be processed to change the size such as reduction or enlargement, or the first group of captured images may be subjected to image effect processing such as blurring, or the first group of captured images may be A second group of photographed images is obtained by performing processing to change the color, brightness, or contrast of the first group of photographed images, or by performing processing such as horizontally flipping, vertically flipping, or rotating the first group of photographed images. do. The storage unit 170 (captured image information storage unit 176) stores the first and second captured image groups acquired in this manner, and the movement processing unit 112 performs processing to move the primitive in the virtual space. . Then, the texture generation unit 114 generates a texture to be mapped to the primitive from the first and second captured image groups, and the image generation unit 120 maps the generated texture to the primitive to create a virtual camera in the virtual space. Generate a virtual space image that can be seen from For example, the texture generation unit 114 generates a texture based on a photographed image obtained by processing a predetermined procedure from the first and second photographed image groups. Then, the image generation unit 120 creates a virtual space image in which a display object corresponding to the target object is displayed by mapping the texture based on the photographed image obtained by processing a predetermined procedure onto a primitive that moves within the virtual space. generate.

またテクスチャ生成部114は、プレーヤの操作入力情報に応じて、第1、第2の撮影画像群の一方の撮影画像群を選択する。そして選択された一方の撮影画像群の撮影画像に基づいて、テクスチャを生成する。例えばプレーヤが操作部160を用いて入力した操作入力情報を取得し、この操作入力情報に基づいて、第1、第2の撮影画像群の一方の撮影画像群を選択する。例えば操作入力情報に基づいてプレーヤが第1の操作を行ったと判断された場合には、第1の撮影画像群を選択し、第1の撮影画像群の撮影画像に基づいて、プリミティブにマッピングされるテクスチャを生成する。一方、プレーヤが第2の操作を行ったと判断された場合には、第2の撮影画像群を選択し、第2の撮影画像群の撮影画像に基づいて、プリミティブにマッピングされるテクスチャを生成する。このようにすれば、第1、第2の撮影画像群のうち、プレーヤの操作入力情報に対応した撮影画像群から撮影画像を選択して、テクスチャを生成し、対象物に対応する表示物を表示するためのプリミティブにマッピングできるようになる。従って、プレーヤの操作入力情報に応じた適切な撮影画像がマッピングされた表示物を、仮想空間に登場させることが可能になる。 The texture generation unit 114 also selects one of the first and second photographed image groups in accordance with the player's operation input information. Then, a texture is generated based on the photographed images of one of the selected photographed image groups. For example, operation input information input by the player using the operation unit 160 is acquired, and one of the first and second photographed image groups is selected based on this operation input information. For example, if it is determined that the player has performed the first operation based on the operation input information, the first group of captured images is selected, and the map is mapped to the primitive based on the captured images of the first group of captured images. Generate a texture. On the other hand, if it is determined that the player has performed the second operation, a second group of captured images is selected, and a texture to be mapped to the primitive is generated based on the captured images of the second group of captured images. . In this way, a photographed image is selected from among the first and second photographed image groups corresponding to the player's operation input information, a texture is generated, and a display object corresponding to the target object is generated. It can be mapped to primitives for display. Therefore, it is possible to cause a display object to appear in the virtual space, to which a photographed image appropriate according to the player's operation input information is mapped.

またテクスチャ生成部114は、対象物の分析結果と、プレーヤの操作入力情報に応じて、第1、第2の撮影画像群の一方の撮影画像群を選択し、選択された一方の撮影画像群の撮影画像に基づいて、テクスチャを生成する。例えば分析部111は、対象物のシルエット分析等の分析処理を行って、対象物の種類や形状等を特定する。そしてテクスチャ生成部114は、対象物の分析結果である対象物の種類や形状等と、プレーヤの操作入力情報とに基づいて、第1、第2の撮影画像群の一方の撮影画像群を選択する。例えば、分析処理により、対象物が第1の種類又は第1の形状であることが分析され、操作入力情報に基づいてプレーヤが第1の操作を行ったと判断された場合には、第1の撮影画像群を選択し、第1の撮影画像群の撮影画像に基づいて、プリミティブにマッピングされるテクスチャを生成する。一方、分析処理により、対象物が第2の種類又は第2の形状であることが分析され、操作入力情報に基づいてプレーヤが第2の操作を行ったと判断された場合には、第2の撮影画像群を選択し、第2の撮影画像群の撮影画像に基づいて、プリミティブにマッピングされるテクスチャを生成する。このようにすることで、対象物の分析結果とプレーヤの操作入力情報の両方に応じた適切な撮影画像がマッピングされた表示物を、仮想空間に登場させることが可能になる。 The texture generation unit 114 also selects one of the first and second photographed image groups according to the analysis result of the object and the player's operation input information, and selects one of the selected photographed image groups. A texture is generated based on the captured image. For example, the analysis unit 111 performs analysis processing such as silhouette analysis of the object to identify the type, shape, etc. of the object. Then, the texture generation unit 114 selects one of the first and second photographed image groups based on the type and shape of the object, which is the analysis result of the object, and the player's operation input information. do. For example, if the analysis process analyzes that the object is of the first type or the first shape, and it is determined that the player has performed the first operation based on the operation input information, then the first A group of captured images is selected, and a texture to be mapped to the primitive is generated based on the captured images of the first group of captured images. On the other hand, if the analysis process analyzes that the object is of the second type or shape, and it is determined that the player has performed the second operation based on the operation input information, then the second A group of captured images is selected, and a texture to be mapped to the primitive is generated based on the captured images of the second group of captured images. By doing so, it becomes possible to cause a display object to appear in the virtual space, on which an appropriate captured image is mapped according to both the analysis result of the target object and the player's operation input information.

またテクスチャ生成部114は、第1の撮影画像群の撮影画像と第2の撮影画像群の撮影画像を合成することで、テクスチャを生成する。例えば第1、第2の撮影画像群の撮影画像のα合成などの合成処理を行うことで、合成画像を生成し、合成画像に基づいてテクスチャを生成し、表示物に対応するプリミティブにマッピングする。例えば第1の撮影画像群の撮影画像に基づくテクスチャをプリミティブにマッピングした後、第1、第2の撮影画像群の撮影画像の合成画像に基づくテクスチャをプリミティブにマッピングする。そして、その後に、第2の撮影画像群の撮影画像に基づくテクスチャをプリミティブにマッピングする。このようにすれば、第1の撮影画像群の撮影画像に基づく表示物の画像から、第2の撮影画像群の撮影画像に基づく表示物の画像へとスムーズに切り替えることができ、擬似的なモーション補間処理などを実現することが可能になる。 The texture generation unit 114 also generates a texture by combining the captured images of the first captured image group and the captured images of the second captured image group. For example, a composite image is generated by performing a composition process such as α composition of the captured images of the first and second captured image groups, a texture is generated based on the composite image, and it is mapped to a primitive corresponding to the display object. . For example, after mapping a texture based on a captured image of a first captured image group onto a primitive, a texture based on a composite image of captured images of the first and second captured image groups is mapped onto a primitive. After that, textures based on the captured images of the second captured image group are mapped onto the primitives. In this way, it is possible to smoothly switch from the image of the displayed object based on the photographed images of the first photographed image group to the image of the displayed object based on the photographed images of the second photographed image group. It becomes possible to implement motion interpolation processing, etc.

またゲーム処理部106は、対象物の分析結果に基づいて、プレーヤがプレイするゲームのゲームパラメータを設定し、設定されたゲームパラメータに基づいてゲーム処理を行う。例えば対象物の分析結果に基づいて、対象物の種類や形状等が特定される。そして対象物の種類や形状等に基づいて、対象物に対応するキャラクタ等の表示物のゲームパラメータが設定される。例えば攻撃力、守備力、耐久力、移動能力、走行能力、特殊能力、特殊スキル、ヒットポイント、マジックポイント又はレベル等のゲームパラメータが設定される。そして設定されたゲームパラメータに基づいて、キャラクタ等の表示物が登場するゲームの処理が行われる。例えばゲームの開始処理、ゲームの進行処理、ゲームの終了処理又はゲーム成績の演算処理などが行われる。 Furthermore, the game processing unit 106 sets game parameters for the game played by the player based on the analysis result of the object, and performs game processing based on the set game parameters. For example, the type, shape, etc. of the object are specified based on the analysis results of the object. Then, based on the type, shape, etc. of the object, game parameters of a display object such as a character corresponding to the object are set. For example, game parameters such as attack power, defense power, durability, movement ability, running ability, special ability, special skill, hit points, magic points, or level are set. Based on the set game parameters, a game in which a display object such as a character appears is processed. For example, a game start process, a game progress process, a game end process, a game score calculation process, etc. are performed.

また取得部110は、第1の撮影画像群を受け付けた後、第2の撮影画像群を受け付けた場合に、第2の撮影画像群が第1の撮影画像群と異なる撮影画像群か否かを判断する。そして異なる撮影画像群と判断された場合に、第2の撮影画像群を記憶部170に記憶する。即ち、第2の撮影画像群を受け付けた場合に、第2の撮影画像群が、過去に撮影した第1の撮影画像群と異なる撮影群か否かを判断する。そして取得部110は、第2の撮影画像群が、第1の撮影画像群とは異なる撮影画像群である場合に、当該第2の撮影画像群を記憶部170に記憶して保存する。例えば第2の撮影画像群に映る対象物が、ポーズを変化させた対象物、付随物を付加した対象物、或いは形状変形した対象物である場合には、第2の撮影像群が第1の撮影画像群とは異なる撮影画像群であると判断されるようになる。第3の撮影画像群を受け付けた場合にも、第3の撮影画像群が第1の撮影画像群や第2の撮影画像群と異なる撮影画像群か否かを判断し、異なる撮影画像群である場合に、第3の撮影画像群を記憶部170に記憶して保存する。異なる撮影画像群か否かは、例えば撮影画像に映る対象物の形状又は色などに基づいて判断できる。 Further, when receiving the second group of captured images after receiving the first group of captured images, the acquisition unit 110 determines whether the second group of captured images is a different group of captured images from the first group of captured images. to judge. If it is determined that they are different groups of captured images, the second group of captured images is stored in the storage unit 170. That is, when the second group of captured images is received, it is determined whether the second group of captured images is a different group of captured images from the first group of captured images that were captured in the past. Then, when the second group of captured images is a different group of captured images from the first group of captured images, the acquisition unit 110 stores and saves the second group of captured images in the storage unit 170. For example, if the object shown in the second group of captured images is an object whose pose has been changed, an object has been added with an accompanying object, or an object whose shape has been deformed, the second group of captured images may be different from the first group of captured images. It is determined that the captured image group is different from the captured image group of . Even when a third group of captured images is received, it is determined whether the third group of captured images is a different group of captured images from the first group of captured images or the second group of captured images, In some cases, the third captured image group is stored and saved in the storage unit 170. Whether the captured images are different groups can be determined based on, for example, the shape or color of the object appearing in the captured images.

また編集処理部108は、第1、第2の撮影画像群からテクスチャを生成する際に撮影画像に対するプレーヤの編集を受け付ける編集処理を行う。例えば本実施形態では第1、第2の撮影画像群の撮影画像に基づいてテクスチャが生成されるが、当該テクスチャを生成する際に、撮影画像に対するプレーヤの編集を可能にする。例えば撮影画像を修正する編集や、撮影画像にマーク、アイコンなどの付加表示物を付加する編集や、撮影画像を変形するなどの編集を、プレーヤが行えるようにする。そして編集後の撮影画像に基づくテクスチャを生成して、仮想空間を移動するプリミティブにマッピングする。 In addition, the editing processing unit 108 performs editing processing to accept editing by the player on the photographed images when generating textures from the first and second photographed image groups. For example, in this embodiment, a texture is generated based on the captured images of the first and second captured image groups, and when the texture is generated, the player can edit the captured images. For example, the player can perform editing such as correcting a photographed image, adding additional display objects such as marks and icons to the photographed image, and transforming the photographed image. A texture is then generated based on the edited captured image and mapped onto a primitive that moves in virtual space.

2.本実施形態の手法
次に本実施形態の手法について詳細に説明する。
2. Method of this embodiment Next, the method of this embodiment will be described in detail.

2.1 概要
まず、本実施形態の手法の概要について説明する。従来より、フォトグラメトリと呼ばれる手法が知られており、このフォトグラメトリでは、現実世界の対象物を複数の撮影方向から撮影した撮影画像に基づいて3Dスキャンを行って、仮想空間に配置可能な3次元モデルを生成する。しかしながら、3Dスキャンでは、撮影画像の解像度に限界があるため、対象物が精細な形状を有していた場合に、この精細な形状を忠実に再現した3次元モデルを生成することは困難である。また3Dスキャンにより3次元モデルを生成する処理は、コンピュータの処理負荷が非常に重いため、対象物を撮影した後、短時間で、対象物に対応する3次元モデルの表示物を仮想空間に出現させることが難しいという問題もある。
2.1 Overview First, an overview of the method of this embodiment will be explained. A method called photogrammetry has been known for some time, and with this photogrammetry, objects in the real world are scanned in 3D based on images taken from multiple shooting directions, and can be placed in virtual space. Generate a 3D model. However, in 3D scanning, there is a limit to the resolution of captured images, so if the object has a detailed shape, it is difficult to generate a 3D model that faithfully reproduces this detailed shape. . In addition, the process of generating a 3D model by 3D scanning requires a very heavy processing load on the computer, so after photographing the object, a 3D model corresponding to the object appears in virtual space in a short period of time. There is also the problem that it is difficult to do so.

そこで本実施形態では、対象物の撮影画像に基づき3Dスキャンの解析処理を行うのではなく、対象物の撮影画像を用いてテクスチャを生成する。そして撮影画像に基づき生成されたテクスチャを仮想空間のプリミティブにマッピングすることで、対象物に対応する表示物が表示される仮想空間画像を生成する。具体的には移動制御情報に基づいて、ポリゴン等で実現されるプリミティブを仮想空間内で移動させる。移動制御情報としては、例えばプレーヤの操作入力情報を用いることができる。或いは予め決められた軌道に沿ってプリミティブを移動させるような移動制御情報であってもよい。そして、プリミティブの移動制御に用いる移動制御情報を用いて、対象物を撮影した複数の撮影画像の中から適切な撮影画像を選択する。そして選択された撮影画像に基づき生成されたテクスチャを、移動制御情報に基づき移動するプリミティブに対してマッピングして、仮想空間において仮想カメラから見える画像である仮想空間画像を生成する。即ち、プリミティブにテクスチャをマッピングすることで、対象物に対応するキャラクタ等の表示物の画像を生成し、この表示物の画像を含む仮想空間画像を生成する。このようにすることで、3Dスキャンのような負荷の重い処理を行うことなく、対象物の形状が忠実に再現された表示物の画像を含む仮想空間画像を生成できるようになる。 Therefore, in this embodiment, instead of performing 3D scan analysis processing based on the photographed image of the target object, a texture is generated using the photographed image of the target object. Then, by mapping the texture generated based on the photographed image onto a primitive in the virtual space, a virtual space image in which a display object corresponding to the target object is displayed is generated. Specifically, a primitive realized by a polygon or the like is moved within the virtual space based on the movement control information. As the movement control information, for example, player operation input information can be used. Alternatively, it may be movement control information that moves a primitive along a predetermined trajectory. Then, using the movement control information used to control the movement of the primitive, an appropriate photographed image is selected from among the plurality of photographed images of the object. The texture generated based on the selected photographed image is then mapped onto the primitive that moves based on the movement control information to generate a virtual space image that is an image visible from the virtual camera in the virtual space. That is, by mapping the texture to the primitive, an image of a displayed object such as a character corresponding to the target object is generated, and a virtual space image including the image of this displayed object is generated. By doing so, it becomes possible to generate a virtual space image including an image of a display object in which the shape of the object is faithfully reproduced, without performing heavy processing such as 3D scanning.

具体的には図2(A)に示すように本実施形態では、撮影部162により対象物POBを複数の撮影方向から撮影する。図2(A)では、対象物POBは、ロボットのプラモデルである。この対象物POBを、ターンテーブルである配置部10に配置し、モーター等により実現される回転移動機構12を用いて配置部10を回転させる。例えば30~60秒程度の撮影時間において、配置部10を360度、回転させる。また対象物POBの背景として、グリーンバックやブルーバック等の単色の背景部20が配置されている。このようにすることで、例えば後述の図9のように360度の撮影方向範囲で撮影部162により対象物POBを撮影できるようになり、対象物POBを360度の撮影方向範囲で撮影した画像を得ることができる。具体的には撮影部162によりムービー撮影を行うことで、360度の撮影方向範囲で撮影した動画(ムービー)である撮影画像群を得ることができる。 Specifically, as shown in FIG. 2A, in this embodiment, the photographing unit 162 photographs the object POB from a plurality of photographing directions. In FIG. 2(A), the object POB is a plastic model of a robot. This object POB is placed on a placement section 10 that is a turntable, and the placement section 10 is rotated using a rotational movement mechanism 12 realized by a motor or the like. For example, the arrangement section 10 is rotated 360 degrees during a photographing time of about 30 to 60 seconds. Further, as a background of the object POB, a monochromatic background portion 20 such as a green screen or a blue screen is arranged. By doing so, the object POB can be photographed by the photographing unit 162 in a 360-degree photographing direction range, for example as shown in FIG. can be obtained. Specifically, by photographing a movie using the photographing unit 162, a group of photographed images, which are moving images (movies) photographed in a 360-degree photographing direction range, can be obtained.

そして本実施形態では、このような撮影の終了後、図2(B)に示すようにワンアクションの短い時間で、対象物POBに対応するキャラクタCH(広義には表示物)を、仮想空間に登場させて、このキャラクタCHを用いたゲームをプレーヤがプレイできるようにする。例えば図2(B)では、3次元のオブジェクト空間である仮想空間に、岩等の3次元のオブジェクトOB1、OB2、OB3が配置され、敵ロボットである敵キャラクタCHEも出現している。プレーヤはゲームコントローラー等の操作部160を操作することで、キャラクタCHをA1、A2に示すように動かすことができる。またロボットであるキャラクタCHの画像には、補助装置であるバーニアの噴射炎VNの画像も表示されている。 In this embodiment, after such photographing is completed, the character CH (displayed object in a broad sense) corresponding to the object POB is placed in the virtual space in a short time of one action, as shown in FIG. 2(B). The character CH is made to appear so that the player can play a game using this character CH. For example, in FIG. 2B, three-dimensional objects OB1, OB2, and OB3 such as rocks are arranged in a virtual space that is a three-dimensional object space, and an enemy character CHE, which is an enemy robot, also appears. The player can move the character CH as shown in A1 and A2 by operating the operation unit 160 such as a game controller. Further, in the image of the character CH, which is a robot, an image of a vernier injection flame VN, which is an auxiliary device, is also displayed.

なお以下では対象物がロボットのプラモデルである場合を主に例にとり説明するが、本実施形態はこれに限定されない。対象物は例えば戦艦等の艦船、戦闘機等の飛行機、戦車、車又は怪獣等のプラモデル、模型であってもよい。また対象物は、プラモデル、模型には限定されず、現実世界に実在する物体であればよい。例えば対象物としては、人形、フィギュアや、車、バイク又は自動車などの現実世界の乗り物や、家電、文房具、時計などの日常品や、彫刻、絵などの美術品や、ビル、橋などの建造物などの種々の物体(被写体)を想定できる。 Note that although the following explanation will mainly be based on an example in which the object is a plastic model of a robot, the present embodiment is not limited to this. The object may be, for example, a plastic model or model of a ship such as a battleship, an airplane such as a fighter jet, a tank, a car, or a monster. Further, the object is not limited to a plastic model or a model, and may be any object that exists in the real world. For example, objects include dolls, figurines, real-world vehicles such as cars, motorcycles, and automobiles, everyday items such as household appliances, stationery, and watches, works of art such as sculptures and paintings, and constructions such as buildings and bridges. Various objects (subjects) such as objects can be assumed.

次に本実施形態の画像生成手法について図3(A)~図7を用いて詳細に説明する。まず図3(A)に示すように、ターンテーブルである配置部10に対象物POBを配置する。そして30~60秒の撮影時間で、B1、B2に示すように配置部10を360度だけ回転させながら、グリーンバック等の背景部20を背景として、撮影部162により対象物POBを撮影する。そして撮影部162の例えばムービー撮影により得られた動画のデータが処理装置200に取り込まれる。この動画が、撮影部162により対象物POBを複数の撮影方向から撮影することで得られる撮影画像群に対応する。 Next, the image generation method of this embodiment will be explained in detail using FIGS. 3(A) to 7. First, as shown in FIG. 3(A), the object POB is placed on the placement section 10, which is a turntable. Then, in a photographing time of 30 to 60 seconds, the object POB is photographed by the photographing section 162 with the background section 20 such as a green screen as the background while rotating the placement section 10 by 360 degrees as shown in B1 and B2. Then, moving image data obtained by, for example, movie shooting by the shooting unit 162 is taken into the processing device 200. This moving image corresponds to a group of photographed images obtained by photographing the object POB from a plurality of photographing directions by the photographing unit 162.

なお、図3(A)では、本実施形態の画像生成システムを実現する処理装置200がPC(パーソナルコンピュータ)である場合の例が示されているが、本実施形態はこれに限定されない。画像生成システムを実現する処理装置200は、後述の図18に示すような業務用のゲーム装置であってもよいし、家庭用のゲーム装置などの他の形態の装置であってもよい。例えば処理装置200は、スマートフォン、タブレットPCなどの携帯型通信端末であってもよい。この場合には撮影部162は携帯型通信端末の内蔵カメラなどにより実現できる。 Note that although FIG. 3A shows an example in which the processing device 200 that implements the image generation system of this embodiment is a PC (personal computer), this embodiment is not limited to this. The processing device 200 that implements the image generation system may be a commercial game device as shown in FIG. 18, which will be described later, or may be another type of device such as a home game device. For example, the processing device 200 may be a portable communication terminal such as a smartphone or a tablet PC. In this case, the photographing unit 162 can be realized by a built-in camera of a portable communication terminal.

撮影部162の撮影により取得された動画である撮影画像群は、処理装置200の記憶部170に記憶される。例えば記憶部170の指定フォルダーに、例えば360度の撮影方向範囲での撮影画像群となる動画のデータが自動保存される。図3(B)は、撮影画像群(動画)に含まれる撮影画像IMの例である。この撮影画像IMは、図3(A)において対象物POBの背中側である後方側を、撮影部162より撮影した際の撮影画像である。撮影画像IMには、対象物POBの画像が映っていると共に、図3(A)の背景部20による背景BGの画像が映っている。背景BGは、例えばグリーンバックやブルーバックなどの単色背景である。なお図3(A)では撮影部162により対象物POBのムービー撮影を行うことで、撮影画像群を取得しているが、例えば撮影部162の撮影方向を変えながら、対象物POBのコマ撮り撮影を行うことで、撮影画像群を取得してもよい。 A group of photographed images, which are moving images acquired by photographing by the photographing section 162, are stored in the storage section 170 of the processing device 200. For example, data of a moving image, which is a group of images shot in a 360-degree shooting direction range, is automatically saved in a designated folder of the storage unit 170, for example. FIG. 3(B) is an example of a photographed image IM included in the photographed image group (moving image). This photographed image IM is a photographed image when the rear side, which is the back side of the object POB, is photographed by the photographing unit 162 in FIG. 3(A). The photographed image IM includes an image of the object POB and an image of the background BG formed by the background section 20 in FIG. 3(A). The background BG is, for example, a monochromatic background such as a green background or a blue background. Note that in FIG. 3A, a group of photographed images is acquired by performing movie shooting of the object POB by the photographing unit 162, but for example, while changing the photographing direction of the photographing unit 162, the photographing image group is acquired by taking a time-lapse photograph of the object POB. A group of captured images may be obtained by performing the following steps.

そして本実施形態では図4(A)に示すように、図3(B)の撮影画像IMに基づき生成されたテクスチャTEXが、プリミティブPMにマッピングされる。この場合に図4(B)に示すように、図3(B)の背景BGがリアルタイムで透過処理されて、対象物POBに対応するキャラクタCHだけが表示されるテクスチャTEXが、プリミティブPMにマッピングされる。即ち図4(B)に模式的に示されるように、テクスチャTEXのピクセルのうち、背景BGに対応するピクセルについては透明に設定され、キャラクタCHに対応するピクセルだけが切り抜かれたテクスチャTEXが生成される。キャラクタCHは、対象物POBに対応してゲームに登場する表示物である。キャラクタCHの画像は、図3(A)、図3(B)で説明した撮影画像IMに基づく画像であるため、3Dスキャンを用いる場合に比べて、対象物POBの精細な形状が忠実に再現された画像になる。 In this embodiment, as shown in FIG. 4(A), the texture TEX generated based on the photographed image IM of FIG. 3(B) is mapped onto the primitive PM. In this case, as shown in FIG. 4(B), the background BG in FIG. 3(B) is transparently processed in real time, and the texture TEX in which only the character CH corresponding to the object POB is displayed is mapped to the primitive PM. be done. That is, as schematically shown in FIG. 4(B), among the pixels of the texture TEX, pixels corresponding to the background BG are set to be transparent, and a texture TEX is generated in which only the pixels corresponding to the character CH are cut out. be done. The character CH is a display object that appears in the game corresponding to the object POB. Since the image of the character CH is an image based on the photographed image IM explained in FIGS. 3(A) and 3(B), the detailed shape of the object POB is more faithfully reproduced than when using 3D scanning. The image will be

またプリミティブPMは、3次元のオブジェクト空間である仮想空間に配置設定されており、この仮想空間には、岩を表すオブジェクトOB1、OB2、OB3などの種々のオブジェクトが配置設定されている。そして本実施形態では、このプリミティブPMが、移動制御情報に応じて仮想空間において移動する。具体的にはプレーヤが操作部160を用いて入力した操作入力情報を、移動制御情報として、プリミティブPMが仮想空間において回転移動したり、並進移動する。或いはプリミティブPMを自動移動させる移動制御情報に基づいて、プリミティブPMが仮想空間において回転移動したり、並進移動してもよい。そして後述するように、図3(A)、図3(B)で撮影された動画の撮影画像群の中から、移動制御情報に応じて選択された撮影画像に基づいてテクスチャTEXが生成され、生成されたテクスチャTEXがプリミティブPMにマッピングされる。これにより、移動制御情報に応じて変化するテクスチャTEXを、プリミティブPMにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成できるようになる。そして本実施形態によれば、ロボットのプラモデルなどの対象物POBが、ゲーム空間である仮想空間に、そのままの形で出現するようになる。従って、プレーヤは、自身が所有するプラモデルなどの対象物POBが、あたかも仮想空間に本当に出現したかのような仮想現実を感じることが可能になり、これまでにないタイプの画像生成システムの実現が可能になる。 Furthermore, the primitive PM is placed in a virtual space that is a three-dimensional object space, and various objects such as objects OB1, OB2, and OB3 representing rocks are placed in this virtual space. In this embodiment, this primitive PM moves in the virtual space according to the movement control information. Specifically, the primitive PM rotates or translates in the virtual space using operation input information input by the player using the operation unit 160 as movement control information. Alternatively, the primitive PM may be rotated or translated in the virtual space based on movement control information that automatically moves the primitive PM. Then, as described later, a texture TEX is generated based on the captured image selected according to the movement control information from among the captured images of the moving image captured in FIGS. 3(A) and 3(B), The generated texture TEX is mapped onto the primitive PM. This makes it possible to map the texture TEX that changes according to the movement control information onto the primitive PM to generate a virtual space image that can be seen from a virtual camera in the virtual space. According to the present embodiment, the object POB, such as a plastic model of a robot, appears in the virtual space, which is the game space, in its original form. Therefore, players can experience virtual reality as if the object POB, such as a plastic model, that they own actually appears in the virtual space, making it possible to realize an unprecedented type of image generation system. It becomes possible.

図5は、仮想空間でのプリミティブPMと仮想カメラVCの関係を示す図である。仮想空間には、岩を表すオブジェクトOB1~OB3や、敵ロボットである敵キャラクタCHEなどが配置されている。VMは、仮想カメラVCのビューボリュームであり、仮想カメラVCの表示範囲(描画範囲)に相当する。 FIG. 5 is a diagram showing the relationship between primitive PM and virtual camera VC in virtual space. Objects OB1 to OB3 representing rocks, an enemy character CHE which is an enemy robot, and the like are arranged in the virtual space. VM is the view volume of the virtual camera VC, and corresponds to the display range (drawing range) of the virtual camera VC.

図5に示すように本実施形態では、プリミティブPMと仮想カメラVCの位置関係が固定されている。例えばプリミティブPMと仮想カメラVCの位置関係が固定され状態で、プリミティブPM及び仮想カメラVCを移動制御情報に応じて移動させる。例えばプリミティブPMと仮想カメラVCとを結ぶレールRLを移動制御情報に応じて移動させる。具体的には図5では、プリミティブPMとしてビルボードのポリゴンを用いている。例えばプリミティブPMと仮想カメラVCとの間の距離は一定であり、プリミティブPMは仮想カメラVCに正対するように配置される。例えば、プリミティブPMと仮想カメラVCとの間の距離が一定となり、且つ、仮想カメラVCの視線方向VLとプリミティブPMの面が直交するようにプリミティブPMが配置される。このようにすれば、プリミティブPMを3次元の仮想空間に配置した場合にも、プレーヤから見てプリミティブPMが平面に見えないようにする演出が可能になり、あたかも3次元の表示物であるキャラクタCHが仮想空間で存在しているかのように見える仮想現実感をプレーヤに与えることが可能になる。 As shown in FIG. 5, in this embodiment, the positional relationship between the primitive PM and the virtual camera VC is fixed. For example, while the positional relationship between the primitive PM and the virtual camera VC is fixed, the primitive PM and the virtual camera VC are moved according to movement control information. For example, the rail RL connecting the primitive PM and the virtual camera VC is moved according to the movement control information. Specifically, in FIG. 5, a billboard polygon is used as the primitive PM. For example, the distance between the primitive PM and the virtual camera VC is constant, and the primitive PM is arranged to directly face the virtual camera VC. For example, the primitive PM is arranged such that the distance between the primitive PM and the virtual camera VC is constant, and the viewing direction VL of the virtual camera VC and the surface of the primitive PM are perpendicular to each other. In this way, even when the primitive PM is placed in a three-dimensional virtual space, it is possible to create an effect that prevents the primitive PM from looking flat from the player's perspective, making it appear as if the character is a three-dimensional display object. It becomes possible to provide the player with a virtual reality feeling in which the CH appears to exist in a virtual space.

また本実施形態では図6に示すように、プリミティブPMにマッピングするテクスチャTEXの画像をプリミティブPMの移動制御情報に応じて変化させている。具体的には操作部160へのプレーヤの操作入力に合わせて、仮想カメラVCとプリミティブPMの位置関係を固定しながら、仮想カメラVCの位置を支点(回転中心)として、C1、C2、C3、C4に示すようにプリミティブPMを回転移動する。即ち仮想カメラVCとプリミティブPMを結ぶレールRLを、仮想カメラVCの位置を支点として回転させる。また並進移動の場合には、仮想カメラVCとプリミティブPMを一体として並進移動させる。即ち仮想カメラVCとプリミティブPMを結ぶレールRLを並進移動させる。例えば左方向を指示する操作入力が行われた場合には、仮想カメラVCの位置を支点としてC1に示す方向にプリミティブPMを回転移動させる。右方向を指示する操作入力が行われた場合には、仮想カメラVCの位置を支点としてC2に示す方向にプリミティブPMを回転移動させる。同様に、下方向、上方向を指示する操作入力が行われた場合には、仮想カメラVCの位置を支点として、各々、C3、C4に示す方向にプリミティブPMを回転移動させる。このようにすることで、移動制御情報である操作入力情報に応じたプリミティブPMの移動処理が実現される。 Further, in this embodiment, as shown in FIG. 6, the texture TEX image mapped to the primitive PM is changed according to the movement control information of the primitive PM. Specifically, in accordance with the player's operation input to the operation unit 160, while fixing the positional relationship between the virtual camera VC and the primitive PM, using the position of the virtual camera VC as a fulcrum (rotation center), C1, C2, C3, The primitive PM is rotated as shown in C4. That is, the rail RL connecting the virtual camera VC and the primitive PM is rotated using the position of the virtual camera VC as a fulcrum. In the case of translational movement, the virtual camera VC and the primitive PM are translated as one unit. That is, the rail RL connecting the virtual camera VC and the primitive PM is translated. For example, when an operation input instructing the left direction is performed, the primitive PM is rotationally moved in the direction shown by C1 using the position of the virtual camera VC as a fulcrum. When an operation input instructing the right direction is performed, the primitive PM is rotationally moved in the direction shown by C2 using the position of the virtual camera VC as a fulcrum. Similarly, when an operation input indicating a downward direction or an upward direction is performed, the primitive PM is rotationally moved in the directions shown in C3 and C4, respectively, using the position of the virtual camera VC as a fulcrum. By doing so, movement processing of the primitive PM is realized in accordance with operation input information that is movement control information.

そしてこのようなプリミティブPMの移動に連動して、プリミティブPMにマッピングされるテクスチャTEXを変化させる。具体的には、図3(A)、図3(B)のようにムービー撮影された360度の撮影方向範囲での対象物POBの動画を、プリミティブPMの移動に連動して再生することで、プリミティブPMの移動に連動して、プリミティブPMにマッピングされるテクスチャTEXを変化させる。例えばプレーヤが左方向を指示する操作入力を行うことで、図6のC1に示すように仮想カメラVCの位置を支点としてプリミティブPMを回転移動させる場合には、この回転移動に合わせて、図6の再生方向DRに示すように動画再生を行う。例えば図6のD1に示すような後方側からの対象物POB(キャラクタCH)の撮影画像から、D2に示すような左後方側からの対象物POBの撮影画像に変化するというような動画再生を行う。更にD3に示すような左前方側からの対象物POBの撮影画像に変化させ、D4に示すような前方側からの対象物POBの撮影画像に変化するというような動画再生を行う。D1、D2、D3、D4に示す撮影画像が本実施形態の撮影画像群になる。このようにすれば、2次元の撮影画像によるテクスチャTEXを用いながらも、あたかも3次元の表示物であるキャラクタCHが仮想空間で回転移動しているかのように見える仮想空間画像を生成できるようになる。 In conjunction with such movement of the primitive PM, the texture TEX mapped to the primitive PM is changed. Specifically, by playing back a video of the object POB in a 360-degree shooting direction range as shown in Figures 3(A) and 3(B) in conjunction with the movement of the primitive PM. , changes the texture TEX mapped to the primitive PM in conjunction with the movement of the primitive PM. For example, when the player performs an operation input instructing the left direction to rotate the primitive PM using the position of the virtual camera VC as a fulcrum as shown in C1 of FIG. The video is played back as shown in the playback direction DR. For example, video playback may be performed in which the image of the object POB (character CH) taken from the rear side as shown in D1 in FIG. 6 changes to the image taken of the object POB from the rear left side as shown in D2. conduct. Furthermore, moving image playback is performed such that the image is changed to an image taken of the object POB from the front left side as shown in D3, and the image is changed to an image taken of the object POB from the front side as shown in D4. The photographed images shown in D1, D2, D3, and D4 constitute a group of photographed images of this embodiment. In this way, it is possible to generate a virtual space image that looks as if the character CH, which is a three-dimensional display object, is rotating and moving in the virtual space, while using texture TEX based on a two-dimensional photographed image. Become.

また本実施形態では図7に示すように、例えばバーニアの噴射炎VNやビーム砲が発射するビームBMなどの3Dのエフェクト表現を実現するエフェクト処理も行っている。本実施形態では、このようなエフェクト処理を実現するために、後述の図13(A)~図13(C)で説明するように、移動制御情報に応じてプリミティブPMに対する相対的位置関係が変化するプリミティブPMV、PMBを用意する。プリミティブPMV、PMBは第2のプリミティブであり、例えばポリゴンである。プリミティブPMVには噴射炎VNを表す画像(テクスチャ)が描かれ、プリミティブPMBにはビームBMを表す画像(テクスチャ)が描かれている。そしてプリミティブPMを移動させる移動制御情報(操作入力情報)に応じて、図7のE1、E2に示すようにプリミティブPMに対するプリミティブPMV、PMBの相対的位置関係を変化させる。そしてテクスチャTEXがマッピングされたプリミティブPMの画像と、プリミティブPMV、PMB(第2のプリミティブ)の画像とを含む画像を、仮想空間画像として生成する。 Further, in this embodiment, as shown in FIG. 7, effect processing is also performed to realize a 3D effect representation of, for example, the injection flame VN of a vernier or the beam BM fired by a beam cannon. In this embodiment, in order to realize such effect processing, the relative positional relationship with respect to the primitive PM changes according to the movement control information, as will be explained later in FIGS. 13(A) to 13(C). Prepare primitives PMV and PMB. Primitives PMV and PMB are second primitives, for example polygons. An image (texture) representing the injection flame VN is drawn on the primitive PMV, and an image (texture) representing the beam BM is drawn on the primitive PMB. Then, in accordance with the movement control information (operation input information) for moving the primitive PM, the relative positional relationship of the primitives PMV and PMB with respect to the primitive PM is changed as shown in E1 and E2 of FIG. Then, an image including an image of the primitive PM to which the texture TEX has been mapped, and images of the primitives PMV and PMB (second primitive) is generated as a virtual space image.

例えばプリミティブPMが回転移動した場合に、それに連動させて噴射炎VN用のプリミティブPMVを図7のE1に示すように回転移動させる。即ち図7のF1に示すように、テクスチャTEXに描かれるキャラクタCHのバーニアの補助装置から、噴射炎VNが噴射して見えるように、噴射炎VNが描かれるプリミティブPMVを回転移動させる。またプリミティブPMが回転移動した場合に、それに連動させてビームBM用のプリミティブPMBを図7のE2に示すように回転移動させる。即ち図7のF2に示すように、テクスチャTEXに描かれるキャラクタCHのビーム砲からビームBMが発射して見えるように、ビームBMが描かれるプリミティブPMBを回転移動させる。 For example, when the primitive PM rotates, the primitive PMV for the injection flame VN is rotated in conjunction with the rotation as shown in E1 of FIG. That is, as shown in F1 of FIG. 7, the primitive PMV on which the injection flame VN is drawn is rotated so that the injection flame VN appears to be ejected from the vernier auxiliary device of the character CH drawn on the texture TEX. Furthermore, when the primitive PM rotates, the primitive PMB for the beam BM is rotated in conjunction with the rotation as shown in E2 of FIG. That is, as shown in F2 of FIG. 7, the primitive PMB on which the beam BM is drawn is rotated and moved so that the beam BM appears to be fired from the beam cannon of the character CH drawn on the texture TEX.

このように本実施形態では、噴射炎VNの噴射やビームBMの発射などを表現するプリミティブPMV、PMBを、図6のD1~D4に示すような動画の再生に連動して移動させている。これにより噴射炎VNやビームBMなどのエフェクト表現をリアルに実現できる。また後述するように、仮想カメラVCの位置からのプリミティブPMV、PMBの描画順番についてもコントロールすることで、2次元のモデルでありながら、3次元のモデルのような見た目と、ゲームプレイを実現している。即ち本実施形態では図3(A)、図3(B)に示すように、プラモデルなどの対象物POBの撮影画像に基づいて、対象物POBに対応するキャラクタCHの画像を含む仮想空間画像を生成しているが、噴射炎VNやビームBMについては、現実世界の対象物POBでは表現できない。そこで噴射炎VNやビームBMについては、プリミティブPMに対する相対的位置関係が変化するプリミティブPMV、PMB(第2のプリミティブ)を用いて表現する。そして図6のD1~D4に示すようなキャラクタCHの動画再生に矛盾しないように、プリミティブPMに対するプリミティブPMV、PMBの相対的位置関係を変化させる。これにより現実世界の対象物POBでは表現できない噴射炎VNやビームBMのエフェクト表現を実現できるようになる。 In this manner, in this embodiment, the primitives PMV and PMB that express the injection of the injection flame VN, the emission of the beam BM, etc. are moved in conjunction with the playback of the moving image as shown in D1 to D4 in FIG. This makes it possible to realistically express effects such as injection flame VN and beam BM. In addition, as will be described later, by controlling the drawing order of primitive PMV and PMB from the position of the virtual camera VC, it is possible to realize the appearance and gameplay of a 3D model, even though it is a 2D model. ing. That is, in this embodiment, as shown in FIGS. 3A and 3B, a virtual space image including an image of the character CH corresponding to the object POB is created based on a photographed image of the object POB such as a plastic model. However, the injection flame VN and beam BM cannot be expressed by the object POB in the real world. Therefore, the injection flame VN and beam BM are expressed using primitives PMV and PMB (second primitives) whose relative positional relationship with respect to the primitive PM changes. Then, the relative positional relationship of the primitives PMV and PMB with respect to the primitive PM is changed so as not to contradict the video playback of the character CH as shown in D1 to D4 in FIG. This makes it possible to express effects of the injection flame VN and beam BM that cannot be expressed using the object POB in the real world.

2.2 移動制御情報に応じたテクスチャのマッピング
次に本実施形態の手法の詳細について説明する。図8は撮影画像群に基づく仮想空間画像の生成処理のフローチャートである。まず対象物POBを複数の撮影方向から撮影することで得られる撮影画像群を取得する(ステップS1)。例えば図3(A)のように撮影部162でムービー撮影することで、対象物POBを撮影した動画である撮影画像群を取得して、処理装置200に取り込む。そして取得した撮影画像群を記憶部170に記憶する(ステップS2)。即ち処理装置200のメモリに、動画である撮影画像群のデータを記憶して保存する。次にプリミティブPMの移動制御情報に応じて選択された撮影画像に基づいて、テクスチャTEXを生成する(ステップS3)。例えば移動制御情報(操作入力情報)に基づいて、図6のD1~D4のような撮影画像群の中から対応する撮影画像を選択し、図4(A)、図4(B)で説明したようなテクスチャTEXを生成する。そして移動制御情報に応じて変化するテクスチャTEXを、移動制御情報に応じて移動するプリミティブPMにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成する(ステップS4)。例えば図6のC1~C4に示すように、移動制御情報(操作入力情報)に応じて、仮想カメラVCの位置を支点としてプリミティブPMが回転移動したり、仮想カメラVCとプリミティブPMが一体となって並進移動する。そして、このようなプリミティブPMの移動に連動して変化するテクスチャTEXをプリミティブPMにマッピングする。例えば図6のC1に示すようにプリミティブPMが仮想カメラVCの位置を支点(回転中心)として左方向に回転移動した場合には、図6のD1~D4に示すような撮影画像群の中から、プリミティブPMの回転角度に応じた撮影画像が選択されて、選択された撮影画像に基づくテクスチャTEXがプリミティブPMにマッピングされる。これにより2次元の撮影画像を用いながらも、対象物POBに対応する3次元モデルのキャラクタCHが仮想空間内において移動しているように見えるリアルな仮想空間画像を生成できるようになる。
2.2 Texture Mapping According to Movement Control Information Next, details of the method of this embodiment will be described. FIG. 8 is a flowchart of virtual space image generation processing based on a group of captured images. First, a group of photographed images obtained by photographing the object POB from a plurality of photographing directions is acquired (step S1). For example, by shooting a movie with the shooting unit 162 as shown in FIG. The acquired photographed image group is then stored in the storage unit 170 (step S2). That is, data of a group of captured images, which are moving images, is stored and saved in the memory of the processing device 200. Next, a texture TEX is generated based on the photographed image selected according to the movement control information of the primitive PM (step S3). For example, based on movement control information (operation input information), a corresponding photographed image is selected from a group of photographed images such as D1 to D4 in FIG. Generate a texture TEX like this. Then, the texture TEX that changes according to the movement control information is mapped onto the primitive PM that moves according to the movement control information to generate a virtual space image that can be seen from the virtual camera in the virtual space (step S4). For example, as shown in C1 to C4 in FIG. 6, depending on the movement control information (operation input information), the primitive PM rotates around the position of the virtual camera VC as a fulcrum, or the virtual camera VC and the primitive PM move as a unit. to move in translation. Then, the texture TEX that changes in conjunction with the movement of the primitive PM is mapped onto the primitive PM. For example, when the primitive PM rotates to the left with the position of the virtual camera VC as a fulcrum (rotation center) as shown in C1 of FIG. , a captured image corresponding to the rotation angle of the primitive PM is selected, and a texture TEX based on the selected captured image is mapped onto the primitive PM. This makes it possible to generate a realistic virtual space image in which the three-dimensional model character CH corresponding to the object POB appears to be moving within the virtual space, even though a two-dimensional captured image is used.

また本実施形態では、撮影画像群(第1、第2の撮影画像群)は、対象物POBに対する撮影部162の撮影方向の変化が180度以上の撮影方向範囲となる画像群になっている。例えば図9では、対象物POBに対する撮影方向DCMの変化が360度となる撮影方向範囲RDRで、撮影部162により対象物POBが撮影されている。例えば図9では、対象物POBの後方を撮影しているときの撮影部162の撮影方向DCMの角度が0度になっており、対象物POBの左側を撮影しているときの撮影方向DCMの角度が90度になっている。また対象物POBの前方を撮影しているときの撮影方向DCMの角度が180度になっており、対象物POBの右側を撮影しているときの撮影方向DCMの角度が270度になっている。図9の撮影方向範囲RDRは、撮影部162の撮影方向DCMが0度から360度まで変化する範囲となっている。但し、例えば撮影方向DCMの変化が0~90度及び360度~270度となるような180度の撮影方向範囲RDRに設定してもよいし、撮影方向範囲RDRを180度~360度の撮影方向範囲に設定してもよい。 Further, in this embodiment, the photographed image group (the first and second photographed image groups) is a group of images in which the change in the photographing direction of the photographing unit 162 with respect to the object POB is within a photographing direction range of 180 degrees or more. . For example, in FIG. 9, the object POB is photographed by the photographing unit 162 in the photographing direction range RDR in which the change in photographing direction DCM with respect to the object POB is 360 degrees. For example, in FIG. 9, the angle of the photographing direction DCM of the photographing unit 162 is 0 degrees when photographing the rear of the object POB, and the angle of the photographing direction DCM when photographing the left side of the object POB is 0 degrees. The angle is 90 degrees. Also, the angle of the photographing direction DCM when photographing the front of the object POB is 180 degrees, and the angle of the photographing direction DCM when photographing the right side of the object POB is 270 degrees. . The photographing direction range RDR in FIG. 9 is a range in which the photographing direction DCM of the photographing section 162 changes from 0 degrees to 360 degrees. However, for example, the shooting direction range RDR may be set to 180 degrees such that the change in shooting direction DCM is 0 to 90 degrees and 360 degrees to 270 degrees, or the shooting direction range RDR may be set to 180 degrees to 360 degrees. It may be set in the direction range.

このように対象物POBに対する撮影部162の撮影方向の変化が180度以上の撮影方向範囲となる撮影画像群を用いることで、プリミティブPMが様々な方向に回転移動等した場合にも、これに対応した適切な撮影画像に基づくテクスチャを生成してプリミティブPMにマッピングできるようになる。 In this way, by using a group of photographed images in which the photographing direction of the photographing unit 162 with respect to the object POB changes within a photographing direction range of 180 degrees or more, even when the primitive PM rotates or moves in various directions, it is possible to It becomes possible to generate a texture based on an appropriate corresponding photographed image and map it to the primitive PM.

なお図3(A)、図9では、例えば対象物POBの主軸に沿った鉛直方向を回転軸として撮影方向DCMを回転させた場合について示しているが、本実施形態はこれに限定されない。例えば対象物POBの主軸に直交する方向である水平方向を回転軸として撮影方向DCMを回転させながら対象物POBを撮影することで、撮影画像群を取得してもよい。このようにすれば例えば図6のC3やC4の方向にプリミティブPMを回転移動させる場合にも、当該回転移動に応じた適切な撮影画像に基づくテクスチャTEXをプリミティブPMにマッピングできるようになる。また図3(A)では対象物POBの方を回転させることで、図9に示すような撮影方向範囲RDRでの撮影画像群を取得しているが、撮影部162の方を対象物POBを中心として回転させることで、撮影方向範囲RDRでの撮影画像群を取得してもよい。即ち対象物POBを注視するような撮影方向DCMで、対象物POBを中心とする円上で撮影部162を移動させる。 Note that although FIGS. 3A and 9 show the case where the photographing direction DCM is rotated, for example, with the vertical direction along the main axis of the object POB as the rotation axis, the present embodiment is not limited to this. For example, a group of photographed images may be acquired by photographing the object POB while rotating the photographing direction DCM with the horizontal direction, which is a direction perpendicular to the main axis of the object POB, as the rotation axis. In this way, even when rotating the primitive PM in the direction of C3 or C4 in FIG. 6, for example, it becomes possible to map the texture TEX based on an appropriate captured image according to the rotational movement onto the primitive PM. Furthermore, in FIG. 3A, by rotating the object POB, a group of photographed images in the photographing direction range RDR as shown in FIG. By rotating around the center, a group of photographed images in the photographing direction range RDR may be acquired. That is, the imaging unit 162 is moved on a circle centered on the object POB in the imaging direction DCM such that the object POB is watched.

また図9のように複数の撮影方向で撮影する場合に、撮影方向の数、即ち撮影画像群の画像数はできる限り多いことが望ましい。例えば1秒間の画像のフレーム数をp(例えばp=30、60等)とした場合に、撮影方向の数に相当する撮影画像群の画像数は、p以上であることが望ましい。即ち、少なくともp個の撮影方向で対象物POBを撮影し、少なくともp個の撮影画像を含む撮影画像群を取得する。このようにすれば、少なくとも1秒間の間は、スムーズで適切なテクスチャの動画を再生して、プリミティブPMにマッピングできるようになる。 Further, when photographing is performed in a plurality of photographing directions as shown in FIG. 9, it is desirable that the number of photographing directions, that is, the number of images in the photographed image group, be as large as possible. For example, when the number of frames of images per second is p (for example, p=30, 60, etc.), it is desirable that the number of images in the photographed image group corresponding to the number of photographing directions is p or more. That is, the object POB is photographed in at least p photographing directions, and a photographed image group including at least p photographed images is obtained. In this way, a moving image with a smooth and appropriate texture can be played for at least one second and mapped to the primitive PM.

また本実施形態では、プリミティブPMの移動制御情報に応じて撮影画像群(第1、第2の撮影画像群)から選択された撮影画像に基づいて、プリミティブPMにマッピングするテクスチャを生成している。具体的には、例えば撮影画像群により構成される動画のシーク制御を移動制御情報に基づいて行うことで、撮影画像群から撮影画像を選択し、選択された撮影画像に基づいてテクスチャを生成する。 Furthermore, in the present embodiment, a texture to be mapped to the primitive PM is generated based on a captured image selected from a captured image group (first and second captured image groups) according to movement control information of the primitive PM. . Specifically, for example, a captured image is selected from the captured image group by performing seek control of a video composed of a group of captured images based on movement control information, and a texture is generated based on the selected captured image. .

例えば図10では撮影画像IM1~IMjが撮影画像群であり、この撮影画像群から、プリミティブPMの移動制御情報に応じて選択された撮影画像IMiに基づきテクスチャが生成されて、プリミティブPMにマッピングされる。ここでi、jは1≦i≦jとなる整数である。例えばjは撮影画像群の画像数であり、前述のように1秒間の画像のフレーム数をpとした場合に、j≧pであることが望ましい。 For example, in FIG. 10, the captured images IM1 to IMj are a captured image group, and from this captured image group, a texture is generated based on the captured image IMi selected according to the movement control information of the primitive PM, and is mapped to the primitive PM. Ru. Here, i and j are integers satisfying 1≦i≦j. For example, j is the number of images in the photographed image group, and it is desirable that j≧p, where p is the number of frames of images per second as described above.

そして図10では、IM1~IMjの撮影画像群により構成される動画のシーク制御が移動制御情報に基づいて行われる。例えば巻き戻しのシーク制御の場合には、図10の方向DS1へのシーク制御が行われて、IM1~IMjの撮影画像群の中から移動制御情報に応じた撮影画像が選択される。一方、早送りのシーク制御の場合には、方向DS2へのシーク制御が行われて、IM1~IMjの撮影画像群の中から移動制御情報に応じた撮影画像が選択される。例えば撮影画像IM1~IMjに対してシーク番号SN1~SNjが対応づけられていたとする。この場合に、例えばプリミティブPMの移動制御情報に応じて、シーク番号SN1~SNjのいずれかが選択され、選択されたシーク番号に対応づけられた撮影画像が選択されて、テクスチャが生成され、プリミティブPMにマッピングされる。例えば移動制御情報によりシーク番号SNiが選択された場合には、シーク番号SNiに対応づけられた撮影画像IMiが選択されて、テクスチャが生成され、プリミティブPMにマッピングされるようになる。このようにすれば、撮影画像群により構成される動画のシーク制御を有効活用して、プリミティブPMの移動制御情報に対応した適切な撮影画像を選択してテクスチャを生成し、プリミティブPMにマッピングできるようになる。 In FIG. 10, seek control of a moving image composed of a group of photographed images IM1 to IMj is performed based on movement control information. For example, in the case of rewinding seek control, seek control is performed in the direction DS1 in FIG. 10, and a photographed image according to the movement control information is selected from the photographed image group IM1 to IMj. On the other hand, in the case of fast-forward seek control, seek control is performed in the direction DS2, and a photographed image according to the movement control information is selected from the photographed image group IM1 to IMj. For example, assume that seek numbers SN1 to SNj are associated with photographed images IM1 to IMj. In this case, for example, one of the seek numbers SN1 to SNj is selected according to the movement control information of the primitive PM, a captured image associated with the selected seek number is selected, a texture is generated, and the primitive Mapped to PM. For example, when seek number SNi is selected based on the movement control information, captured image IMi associated with seek number SNi is selected, texture is generated, and mapped to primitive PM. In this way, it is possible to effectively utilize the seek control of a video composed of a group of captured images, select an appropriate captured image corresponding to the movement control information of the primitive PM, generate a texture, and map it to the primitive PM. It becomes like this.

また本実施形態では、プリミティブPMと仮想カメラVCの位置関係が固定された状態で、プリミティブPM及び仮想カメラVCを移動制御情報に応じて移動させる処理を行う。例えば図11(A)~図11(C)では、プリミティブPMに対してキャラクタCHの画像が描かれたテクスチャがマッピングされている。 Further, in this embodiment, processing is performed to move the primitive PM and the virtual camera VC in accordance with movement control information while the positional relationship between the primitive PM and the virtual camera VC is fixed. For example, in FIGS. 11A to 11C, a texture depicting an image of a character CH is mapped to a primitive PM.

なおキャラクタCHの画像は実際には2次元の画像であるが、図11(A)~図11(C)では、説明を理解しやすくするために、キャラクタCHの向く方向が分かるように模式的に記載している。以下の説明でも同様である。 The image of the character CH is actually a two-dimensional image, but in order to make the explanation easier to understand, the image of the character CH is shown schematically in order to make it easier to understand. It is described in The same applies to the following explanation.

図11(A)~図11(C)では、仮想カメラVCとプリミティブPMの間の距離は一定となっており、固定されている。即ち仮想カメラVCの視点位置PSとプリミティブPMの面との間の距離は一定になっている。またプリミティブPMは仮想カメラVCに正対するように配置されており、仮想カメラVCの視線方向VLがプリミティブPMの面に直交するように、プリミティブPMが配置されている。このように本実施形態では、プリミティブPMと仮想カメラVCの位置関係が固定された状態で、プリミティブPM及び仮想カメラVCを仮想空間において移動させる。例えばプリミティブPMとしてビルボードポリゴンを用いる。このようにすることで、プリミティブPMにテクスチャがマッピングされることにより表示されるキャラクタCH等の表示物の画像として、擬似的に3次元画像に見える画像を生成できるようになる。 In FIGS. 11A to 11C, the distance between the virtual camera VC and the primitive PM is constant and fixed. That is, the distance between the viewpoint position PS of the virtual camera VC and the surface of the primitive PM is constant. Moreover, the primitive PM is arranged so as to directly face the virtual camera VC, and the primitive PM is arranged so that the viewing direction VL of the virtual camera VC is orthogonal to the surface of the primitive PM. As described above, in this embodiment, the primitive PM and the virtual camera VC are moved in the virtual space while the positional relationship between the primitive PM and the virtual camera VC is fixed. For example, a billboard polygon is used as the primitive PM. By doing so, it becomes possible to generate an image that looks like a three-dimensional image in a pseudo manner as an image of a display object such as a character CH that is displayed by mapping the texture to the primitive PM.

そして図6のC1に示すように、例えば左方向を指示するプレーヤの操作入力が行われた場合には、図11(A)から図11(B)に示すように、仮想カメラVCの視点位置PSを支点(回転中心)としてプリミティブPMが左回りに回転移動する。このときに仮想カメラVCとプリミティブPMの間の距離は一定になっており、仮想カメラVCの視線方向VLはプリミティブPMの面に直交した状態になっている。このようにプリミティブPMと仮想カメラVCの位置関係が固定された状態で、プリミティブPM及び仮想カメラVCが、図6のC1に示すような左方向を指示する移動制御情報に基づいて、回転移動している。このときにプリミティブPMにマッピングされるキャラクタCHの画像は、図6のD2に示すように、左回り(反時計回り)に向きが変わるようにキャラクタCHを回転した画像になる。例えばキャラクタCHの画像は、キャラクタCHに対応する対象物POBを左後方側から見た画像になる。このようにすれば、プレーヤが左方向の操作指示を行った場合には、左回りに向きを変えたキャラクタCHの画像が、仮想空間画像として表示されるようになり、左方向の操作指示による移動制御情報に応じた適切なキャラクタCHの画像を表示することが可能になる。 As shown in C1 of FIG. 6, for example, when the player inputs an operation to instruct the left direction, the viewpoint position of the virtual camera VC is changed as shown in FIGS. 11(A) to 11(B). The primitive PM rotates counterclockwise using PS as a fulcrum (rotation center). At this time, the distance between the virtual camera VC and the primitive PM is constant, and the viewing direction VL of the virtual camera VC is perpendicular to the surface of the primitive PM. With the positional relationship between the primitive PM and the virtual camera VC fixed in this manner, the primitive PM and the virtual camera VC rotate and move based on the movement control information indicating the left direction as shown in C1 of FIG. ing. The image of the character CH mapped onto the primitive PM at this time is an image obtained by rotating the character CH so that the direction changes counterclockwise, as shown in D2 in FIG. For example, the image of the character CH is an image of the object POB corresponding to the character CH viewed from the left rear side. In this way, when the player issues an operation instruction to the left, an image of the character CH that has turned counterclockwise will be displayed as a virtual space image. It becomes possible to display an appropriate image of the character CH according to the movement control information.

また図6のC2に示すように、例えば右方向を指示するプレーヤの操作入力が行われた場合には、図11(A)から図11(C)に示すように、仮想カメラVCの視点位置PSを支点としてプリミティブPMが右回りに回転移動する。このときに仮想カメラVCとプリミティブPMの間の距離は一定になっており、仮想カメラVCの視線方向VLはプリミティブPMの面に直交した状態になっている。このようにプリミティブPMと仮想カメラVCの位置関係が固定された状態で、プリミティブPM及び仮想カメラVCが、図6のC2に示すような右方向を指示する移動制御情報に基づいて、回転移動している。このときにプリミティブPMにマッピングされるキャラクタCHの画像は、右回り(時計回り)に向きが変わるようにキャラクタCHを回転した画像になる。例えばキャラクタCHの画像は、キャラクタCHに対応する対象物POBを右後方から見た画像になる。このようにすれば、プレーヤが右方向の操作指示を行った場合には、右回りに向きを変えたキャラクタCHの画像が、仮想空間画像として表示されるようになり、右方向の操作指示による移動制御情報に応じた適切なキャラクタCHの画像を表示することが可能になる。 In addition, as shown in C2 of FIG. 6, when the player inputs an operation to direct the right direction, for example, the viewpoint position of the virtual camera VC is changed as shown in FIGS. 11(A) to 11(C). The primitive PM rotates clockwise using the PS as a fulcrum. At this time, the distance between the virtual camera VC and the primitive PM is constant, and the viewing direction VL of the virtual camera VC is perpendicular to the surface of the primitive PM. With the positional relationship between the primitive PM and the virtual camera VC fixed in this manner, the primitive PM and the virtual camera VC rotate and move based on the movement control information indicating the right direction as shown in C2 of FIG. ing. The image of the character CH mapped onto the primitive PM at this time is an image obtained by rotating the character CH so that the direction changes clockwise. For example, the image of the character CH is an image of the object POB corresponding to the character CH viewed from the right rear. In this way, when the player issues an operation instruction to the right, an image of the character CH that has turned clockwise will be displayed as a virtual space image. It becomes possible to display an appropriate image of the character CH according to the movement control information.

また本実施形態では図3(A)、図3(B)に示すように、撮影部162は、対象物POBと、対象物POBの背景BGを撮影する。例えば図3(A)の背景部20を撮影することで、図3(B)に示すように単色の背景BGが撮影されるようになる。そして撮影画像の各ピクセルの色が、背景の色に対応する色か否かを判断する。そして背景の色に対応する色のピクセルであると判断された場合には、背景の色に対応する色のピクセルを透明にする処理を行うことで、テクスチャを生成する。 Further, in this embodiment, as shown in FIGS. 3A and 3B, the photographing unit 162 photographs the object POB and the background BG of the object POB. For example, by photographing the background portion 20 in FIG. 3(A), a monochromatic background BG is photographed as shown in FIG. 3(B). Then, it is determined whether the color of each pixel in the photographed image corresponds to the color of the background. If it is determined that the pixel has a color corresponding to the background color, a texture is generated by making the pixel of the color corresponding to the background transparent.

図12に、背景の色に対応する色のピクセルを透明にする処理のフローチャートを示す。図12の処理は例えばピクセルシェーダにより実現できる。まず処理対象ピクセルの色を判断する(ステップS11)。そして処理対象ピクセルの色は背景の色に対応する色か否かを判断する(ステップS12)。例えばグリーンバックの場合には、処理対象ピクセルの色が緑である場合に、背景の色に対応する色であると判断される。ブルーバックの場合には、処理対象ピクセルの色が青である場合に、背景の色に対応する色であると判断される。そして処理対象ピクセルの色が背景の色に対応する色であると判断された場合には、処理対象ピクセルが透明に設定される(ステップS13)。α合成処理を例にとれば、処理対象ピクセルの色が背景の色に対応する色であると判断された場合には、当該処理対象ピクセルのα値がゼロに設定される。そして撮影画像の全てのピクセルを処理したか否かを判断し(ステップS14)、全てのピクセルを処理していない場合には、処理対象ピクセルを次のピクセルに設定して(ステップS15)、ステップS11に戻る。一方、撮影画像の全てのピクセルを処理した場合には、処理を終了する。 FIG. 12 shows a flowchart of the process of making pixels of a color corresponding to the background color transparent. The processing in FIG. 12 can be realized by, for example, a pixel shader. First, the color of the pixel to be processed is determined (step S11). Then, it is determined whether the color of the pixel to be processed corresponds to the color of the background (step S12). For example, in the case of a green screen, if the color of the pixel to be processed is green, it is determined that the color corresponds to the background color. In the case of a blue background, if the color of the pixel to be processed is blue, it is determined that the color corresponds to the background color. If it is determined that the color of the pixel to be processed corresponds to the color of the background, the pixel to be processed is set to be transparent (step S13). Taking α compositing processing as an example, when it is determined that the color of the pixel to be processed corresponds to the color of the background, the α value of the pixel to be processed is set to zero. Then, it is determined whether all pixels of the photographed image have been processed (step S14), and if all pixels have not been processed, the next pixel is set as the pixel to be processed (step S15), and step Return to S11. On the other hand, if all pixels of the photographed image have been processed, the processing ends.

図12に示すような処理を行うことで、図3(B)に示すような撮影画像IMから図4(B)に示すようなテクスチャTEXを生成できるようになる。これにより背景BGの部分に、仮想空間の他のオブジェクトが表示された適切な仮想空間画像を生成できるようになる。また図12に示す処理は、シェーダのプログラムによるピクセルシェーダにより実現でき、処理負荷が軽い簡素な処理で実現できる。従って図2(A)、図2(B)に示すように対象物POBを撮影してからワンアクションで、当該対象物POBに対応するキャラクタCH等の表示物を仮想空間に登場させる処理を、容易に実現することが可能になる。 By performing the processing as shown in FIG. 12, it becomes possible to generate a texture TEX as shown in FIG. 4(B) from the captured image IM as shown in FIG. 3(B). This makes it possible to generate an appropriate virtual space image in which other objects in the virtual space are displayed in the background BG. Further, the processing shown in FIG. 12 can be realized by a pixel shader based on a shader program, and can be realized by simple processing with a light processing load. Therefore, as shown in FIGS. 2(A) and 2(B), after photographing the object POB, with one action, a display object such as a character CH corresponding to the object POB appears in the virtual space. This can be easily realized.

なお背景色は固定色である必要はなく、背景色を可変に設定できるようにしてもよい。例えば対象物POBの色に応じて、背景色を可変に設定する。例えば対象物POBに存在しない色に、背景色を設定したり、対象物POBの色の補色を背景色に設定する。具体的には図2(A)、図2(B)において、色を可変に設定できる背景部20を用いる。例えばプロジェクターにより、背景色となる所定色の光を投影することで、背景部20の色を可変に設定する。或いは背景部20として、曲面表示装置などの表示装置を用い、背景色となる所定色の画面を表示することで、背景部20の色を可変に設定する。このようにすることで、種々の対象物POBに応じた適切な色に背景色を設定できるようになる。 Note that the background color does not need to be a fixed color, and may be set variably. For example, the background color is variably set depending on the color of the object POB. For example, the background color may be set to a color that does not exist in the object POB, or a complementary color to the color of the object POB may be set as the background color. Specifically, in FIGS. 2(A) and 2(B), a background portion 20 whose color can be variably set is used. For example, the color of the background portion 20 is variably set by projecting light of a predetermined color as the background color using a projector. Alternatively, the color of the background section 20 can be variably set by using a display device such as a curved display device as the background section 20 and displaying a screen of a predetermined color as the background color. By doing so, the background color can be set to an appropriate color according to various objects POB.

また本実施形態では、移動制御情報に応じてプリミティブに対する相対的位置関係が変化する第2のプリミティブの移動処理を行う。そしてテクスチャがマッピングされたプリミティブの画像と、第2のプリミティブの画像とを含む画像を、仮想空間画像として生成する。 Further, in this embodiment, a movement process of the second primitive is performed in which the relative positional relationship with respect to the primitive changes according to the movement control information. Then, an image including the image of the primitive to which the texture has been mapped and the image of the second primitive is generated as a virtual space image.

例えば図13(A)では、第2のプリミティブとしてプリミティブPMV、PMBが、プリミティブPMの位置を基準に配置されている。図7で説明したように、プリミティブPMVはバーニアの噴射炎VNの画像を表示するためのプリミティブであり、プリミティブPMBはビーム砲が発射するビームBMの画像を表示するためのプリミティブである。なお噴射炎VNやビームBMの画像を3次元のオブジェクトを用いて生成してもよく、この場合にはプリミティブPMV、PMBは当該オブジェクトを構成するポリゴン等になる。 For example, in FIG. 13A, primitives PMV and PMB are arranged as second primitives based on the position of primitive PM. As explained in FIG. 7, the primitive PMV is a primitive for displaying an image of the vernier injection flame VN, and the primitive PMB is a primitive for displaying an image of the beam BM fired by the beam cannon. Note that the images of the injection flame VN and beam BM may be generated using three-dimensional objects, and in this case, the primitives PMV and PMB are polygons and the like that constitute the objects.

そして図13(A)~図13(C)では、図11(A)~図11(C)で説明したように、移動制御情報に応じてプリミティブPMを移動する処理が行われている。またプリミティブPMにマッピングされるキャラクタCHの画像(テクスチャ)も、移動制御情報に応じた適切な撮影画像を用いて生成される。そして図13(A)~図13(C)では、移動制御情報に応じてプリミティブPMに対する相対的位置関係が変化するように、プリミティブPMV、PMBの移動処理が行われる。 In FIGS. 13A to 13C, the process of moving the primitive PM according to the movement control information is performed as described in FIGS. 11A to 11C. Furthermore, the image (texture) of the character CH to be mapped to the primitive PM is also generated using an appropriate captured image according to the movement control information. In FIGS. 13A to 13C, the movement processing of the primitives PMV and PMB is performed so that the relative positional relationship with respect to the primitive PM changes according to the movement control information.

例えば図13(A)では、仮想カメラVCの視線方向VLの方向にキャラクタCHが向いている画像が、プリミティブPMにマッピングされている。具体的には、図9の撮影方向DCMが0度の場合のように、対象物POBを真後ろから撮影した撮影画像に基づき生成されたテクスチャが、キャラクタCHの画像としてプリミティブPMにマッピングされている。この場合には、キャラクタCHの真後ろの位置に、噴射炎VN用のプリミティブPMVが配置される。またキャラクタCHは例えば右手にビーム砲を持っているため、キャラクタCHの右前方向に、ビームBM用のプリミティブPMBが配置される。これにより図7に示すように、補助装置であるバーニアの位置から噴射炎VNが噴射されると共に、ビーム砲の位置からビームBMが発射される適切な仮想空間画像を生成できるようになる。 For example, in FIG. 13A, an image in which the character CH is facing in the line-of-sight direction VL of the virtual camera VC is mapped to the primitive PM. Specifically, as in the case where the photographing direction DCM is 0 degrees in FIG. 9, a texture generated based on a photographed image taken from directly behind the object POB is mapped to the primitive PM as an image of the character CH. . In this case, a primitive PMV for the injection flame VN is placed directly behind the character CH. Furthermore, since the character CH has a beam cannon in his right hand, for example, a primitive PMB for the beam BM is arranged in the front right direction of the character CH. As a result, as shown in FIG. 7, it becomes possible to generate an appropriate virtual space image in which the injection flame VN is injected from the position of the vernier, which is an auxiliary device, and the beam BM is ejected from the position of the beam cannon.

一方、図13(B)では、図6のC1に示すように、プレーヤにより左方向への操作指示が行われており、これにより、仮想カメラVCの位置を支点として、左回り(反時計回り)にプリミティブPMが回転移動している。このようなプリミティブPMの回転移動に伴い、プリミティブPMにマッピングされるキャラクタCHの画像も、図6のD2に示すように左回りに向きを変えた画像になる。そしてこのようにキャラクタCHの画像が左回りに向きを変えた画像になるのに連動するように、プリミティブPMに対するプリミティブPMV、PMBの相対的位置関係も変化する。即ち、左回りに向きを変えたキャラクタCHの後方にプリミティブPMVが位置するように、プリミティブPMに対するプリミティブPMVの相対的位置関係を変化させる。具体的には、プリミティブPMを基準として左回りに、プリミティブPMVを回転移動させる。また左回りに向きを変えたキャラクタCHの右前方向にプリミティブPMBが位置するように、プリミティブPMに対するプリミティブPMBの相対的位置関係を変化させる。具体的には、プリミティブPMを基準として左回りに、プリミティブPMBを回転移動させる。このようにすることで、バーニアの位置から噴射炎VNが噴射される共に、ビーム砲の位置からビームBMが発射される適切な仮想空間画像を生成できるようになる。 On the other hand, in FIG. 13(B), as shown in C1 of FIG. 6, the player has given an operation instruction to the left, which causes the player to rotate counterclockwise (counterclockwise) with the position of the virtual camera VC as a fulcrum. ), the primitive PM is rotating. With such rotational movement of the primitive PM, the image of the character CH mapped to the primitive PM also becomes an image whose direction has changed counterclockwise, as shown in D2 in FIG. The relative positional relationship of the primitives PMV and PMB with respect to the primitive PM also changes in conjunction with the image of the character CH changing its direction counterclockwise. That is, the relative positional relationship of the primitive PMV with respect to the primitive PM is changed so that the primitive PMV is located behind the character CH which has turned counterclockwise. Specifically, the primitive PMV is rotated counterclockwise with respect to the primitive PM. Further, the relative positional relationship of the primitive PMB with respect to the primitive PM is changed so that the primitive PMB is located in the front right direction of the character CH which has turned counterclockwise. Specifically, the primitive PMB is rotated counterclockwise with respect to the primitive PM. By doing so, it becomes possible to generate an appropriate virtual space image in which the injection flame VN is injected from the vernier position and the beam BM is ejected from the beam cannon position.

また図13(C)では、図6のC2に示すように、プレーヤにより右方向への操作指示が行われており、これにより、仮想カメラVCの位置を支点として、右回り(時計回り)にプリミティブPMが回転移動している。このようなプリミティブPMの回転移動に伴い、プリミティブPMにマッピングされるキャラクタCHの画像も、右回りに向きを変えた画像になる。そしてこのようにキャラクタCHの画像が右回りに向きを変えた画像になるのに連動するように、プリミティブPMに対するプリミティブPMV、PMBの相対的位置関係も変化する。即ち、右回りに向きを変えたキャラクタCHの後方にプリミティブPMVが位置するように、プリミティブPMを基準として右回りに、プリミティブPMVを回転移動させる。また右回りに向きを変えたキャラクタCHの右前方向にプリミティブPMBが位置するように、プリミティブPMを基準として右回りに、プリミティブPMBを回転移動させる。このようにすることで、バーニアの位置から噴射炎VNが噴射される共に、ビーム砲の位置からビームBMが発射される適切な仮想空間画像を生成できるようになる。 In addition, in FIG. 13(C), as shown in C2 of FIG. 6, the player gives an operation instruction to the right, which causes the player to rotate clockwise around the position of the virtual camera VC as a fulcrum. Primitive PM is rotating and moving. With such rotational movement of the primitive PM, the image of the character CH mapped to the primitive PM also becomes an image whose direction has changed clockwise. The relative positional relationship of the primitives PMV and PMB with respect to the primitive PM also changes in conjunction with the image of the character CH turning clockwise. That is, the primitive PMV is rotated clockwise with respect to the primitive PM as a reference so that the primitive PMV is located behind the character CH whose direction has changed clockwise. Furthermore, the primitive PMB is rotated clockwise with respect to the primitive PM as a reference so that the primitive PMB is positioned in the front right direction of the character CH whose direction has changed clockwise. By doing so, it becomes possible to generate an appropriate virtual space image in which the injection flame VN is injected from the vernier position and the beam BM is ejected from the beam cannon position.

また本実施形態では、第2のプリミティブの隠面消去処理を、移動制御情報に応じて行う。例えば図13(B)では、ビームBMの画像は、仮想カメラVCから見てキャラクタCHに隠れて非表示になるべき画像になっている。例えば図13(A)のような位置関係においては、ビームBMの画像はキャラクタCHによって隠れずに表示されるべき画像になっている。しかしながら図13(B)のようなプリミティブPMの回転移動が行われて、プリミティブPMを基準にして左回りにプリミティブPMBが回転移動すると、プリミティブPMBのビームBMの画像は、キャラクタCHにより隠れて非表示になるべき画像になる。従って、この場合にはビームBM用のプリミティブPMBを隠面消去する処理を行う。このようにプリミティブPMBの隠面消去処理を行うことで、ビームBMの画像が仮想カメラVCから見て非表示になり、適切な仮想空間画像を生成できるようになる。即ち、通常ならば、仮想カメラVCから見たプリミティブPM、PMV、PMBの前後関係(奥行き値)を判断して隠面消去処理が行われる。この点、本実施形態では、プリミティブPMにマッピングされるキャラクタCHとビームBMや噴射炎VNとの前後関係を、移動制御情報に基づき判断して、隠面消去処理を行う。このようにすることで、適切な隠面消去が行われた仮想空間画像を生成できるようになる。 Furthermore, in this embodiment, hidden surface removal processing for the second primitive is performed in accordance with movement control information. For example, in FIG. 13B, the image of the beam BM is an image that should be hidden behind the character CH when viewed from the virtual camera VC. For example, in the positional relationship as shown in FIG. 13(A), the image of the beam BM is an image that should be displayed without being hidden by the character CH. However, when the primitive PM is rotated as shown in FIG. 13(B) and the primitive PMB is rotated counterclockwise with respect to the primitive PM, the image of the beam BM of the primitive PMB is hidden by the character CH and becomes invisible. The image becomes the image that should be displayed. Therefore, in this case, hidden surface elimination processing is performed on the primitive PMB for the beam BM. By performing hidden surface removal processing on the primitive PMB in this manner, the image of the beam BM is hidden from view from the virtual camera VC, making it possible to generate an appropriate virtual space image. That is, normally, hidden surface removal processing is performed by determining the context (depth value) of the primitives PM, PMV, and PMB as seen from the virtual camera VC. In this regard, in the present embodiment, the hidden surface removal process is performed by determining the front-and-back relationship between the character CH mapped to the primitive PM, the beam BM, and the injection flame VN based on movement control information. By doing so, it becomes possible to generate a virtual space image in which hidden surfaces have been appropriately removed.

また本実施形態では対象物POBの分析結果に基づき設定される第2のプリミティブの初期配置位置から、プリミティブPMを基準に第2のプリミティブを移動させる処理を行う。例えば図14では、対象物POBのシルエット分析等の分析処理を行うことで、バーニアの噴射炎VNの噴射位置やビームBMの発射位置を特定する。即ち対象物POBの種類や形状に応じて、噴射炎VNの噴射位置やビームBMの発射位置は異なる。そこで、対象物POBの撮影画像に基づくシルエット分析等の分析処理を行うことで、対象物POBの種類や形状を特定して、噴射炎VNの噴射位置やビームBMの発射位置を特定する。そして図14に示すように、特定された噴射炎VNの噴射位置を、噴射炎VN用のプリミティブPMVの初期配置位置PI1に設定する。また、特定されたビームBMの発射位置を、ビームBM用のプリミティブPMBの初期配置位置PI2に設定する。そして、これらの初期配置位置PI1、PI2から、図13(A)~図13(C)に示すように、プリミティブPMVを基準にプリミティブPMV、PMBを移動させる処理を行う。即ちPI1、PI2を初期配置位置として、プリミティブPMVを基準にプリミティブPMV、PMBを回転移動させる。このようにすれば、対象物POBの分析結果に応じた適切な初期配置位置PI1、PI2にプリミティブPMV、PMBを配置し、移動制御情報に応じてプリミティブPMが移動した場合に、その移動に連動した適切な位置に噴射炎VNの画像やビームBMの画像を表示できるようになる。 Further, in the present embodiment, processing is performed to move the second primitive from the initial placement position of the second primitive set based on the analysis result of the target object POB, using the primitive PM as a reference. For example, in FIG. 14, the injection position of the vernier injection flame VN and the emission position of the beam BM are specified by performing analysis processing such as silhouette analysis of the object POB. That is, the injection position of the injection flame VN and the emission position of the beam BM differ depending on the type and shape of the object POB. Therefore, by performing analysis processing such as silhouette analysis based on the photographed image of the object POB, the type and shape of the object POB are specified, and the injection position of the injection flame VN and the emission position of the beam BM are specified. Then, as shown in FIG. 14, the injection position of the identified injection flame VN is set to the initial arrangement position PI1 of the primitive PMV for the injection flame VN. Further, the identified beam BM emission position is set to the initial arrangement position PI2 of the primitive PMB for the beam BM. Then, from these initial placement positions PI1 and PI2, as shown in FIGS. 13A to 13C, processing is performed to move the primitives PMV and PMB based on the primitive PMV. That is, with PI1 and PI2 as initial placement positions, the primitives PMV and PMB are rotationally moved with respect to the primitive PMV. In this way, the primitives PMV and PMB are placed at the appropriate initial placement positions PI1 and PI2 according to the analysis results of the target object POB, and when the primitive PM moves according to the movement control information, the primitives are linked to the movement. The image of the injection flame VN and the image of the beam BM can be displayed at appropriate positions.

なお対象物POBにおいて、噴射炎VNの噴射位置やビームBMの発射位置にマーカを取り付けて、対象物POBの分析処理において、このマーカの認識処理を行うことで、第2のプリミティブの初期配置位置を決定してもよい。即ち、マーカの認識処理の結果に基づいて、噴射炎VN用のプリミティブPMVの初期配置位置PI1やビームBM用のプリミティブPMBの初期配置位置PI2に決定する。 In addition, by attaching a marker to the injection position of the injection flame VN and the firing position of the beam BM in the target object POB, and performing recognition processing of this marker in the analysis process of the target object POB, the initial placement position of the second primitive can be determined. may be determined. That is, based on the result of the marker recognition process, the initial arrangement position PI1 of the primitive PMV for the injection flame VN and the initial arrangement position PI2 of the primitive PMB for the beam BM are determined.

また本実施形態では、プリミティブPMV、PMBの画像である噴射炎VN、ビームBMの画像は、エフェクト画像である。即ち本実施形態では対象物POBを撮影部162により実写することで、テクスチャを生成して、対象物POBに対応するキャラクタCHの画像を表示しているが、噴射炎VNやビームBMなどのエフェクトの画像は、撮影部162による実写によっては撮影できない。そこで本実施形態では、噴射炎VNやビームBMなどのエフェクトの画像については、プリミティブPMに対して相対的に配置されたプリミティブPMV、PMBを用いて生成するようにしている。このようにすれば、撮影部162による実写によっては撮影できないエフェクトの画像を、対象物POBに対応するキャラクタCHの画像に付随して表示できるようになる。 Furthermore, in this embodiment, the images of the injection flame VN and beam BM, which are images of the primitives PMV and PMB, are effect images. That is, in this embodiment, the object POB is actually photographed by the photographing unit 162 to generate a texture and display the image of the character CH corresponding to the object POB, but effects such as the injection flame VN and the beam BM are The image cannot be photographed by actual photographing by the photographing unit 162. Therefore, in this embodiment, images of effects such as the injection flame VN and the beam BM are generated using primitives PMV and PMB that are arranged relatively to the primitive PM. In this way, it becomes possible to display an effect image that cannot be photographed by actual photography by the photographing unit 162 along with the image of the character CH corresponding to the object POB.

また本実施形態では、仮想空間画像として、プリミティブの画像と、仮想空間に設定される複数のオブジェクトの画像とを含む画像を生成し、生成された仮想空間画像に対してポストエフェクト処理を行う。例えば図15では、仮想空間画像として、プリミティブPMの画像であるキャラクタCHの画像と、仮想空間に設定される岩のオブジェクトOB1、OB2、OB3や敵キャラクタCHEのオブジェクトの画像を含む画像が生成されている。そして、このように生成された仮想空間画像に対してポストエフェクト処理を行う。例えば、ぼかし処理、明るさの調整処理又は色相の調整処理などのポストエフェクト処理を行う。例えば、他のオブジェクトOB1、OB2、OB3等が表示される仮想空間画像に対して、プリミティブPMにより表されるキャラクタCHの画像が違和感なく表示されるようにするポストエフェクト処理を行う。例えばプリミティブPMにより表されるキャラクタCHの輪郭をぼかすようなポストエフェクト処理を行って、キャラクタCHと仮想空間画像の境界である輪郭が目立たなくなるようにする。またキャラクタCHの画像の明るさと、周囲の仮想空間画像の明るさに差があった場合に、この差を小さくするようなポストエフェクト処理を行う。このようにすることで、撮影画像に基づき生成されるキャラクタCHの画像が、周囲の仮想空間に対して違和感なく溶け込んで見えるような高品質でリアルな仮想空間画像を生成できるようになる。 Further, in this embodiment, an image including a primitive image and images of a plurality of objects set in the virtual space is generated as a virtual space image, and post-effect processing is performed on the generated virtual space image. For example, in FIG. 15, an image is generated that includes an image of the character CH, which is an image of the primitive PM, and images of rock objects OB1, OB2, OB3 set in the virtual space, and objects of the enemy character CHE, as the virtual space image. ing. Post-effect processing is then performed on the virtual space image generated in this way. For example, post-effect processing such as blur processing, brightness adjustment processing, or hue adjustment processing is performed. For example, post-effect processing is performed on the virtual space image in which other objects OB1, OB2, OB3, etc. are displayed so that the image of the character CH represented by the primitive PM is displayed without any discomfort. For example, post-effect processing is performed to blur the outline of the character CH represented by the primitive PM, so that the outline that is the boundary between the character CH and the virtual space image becomes less noticeable. Furthermore, if there is a difference between the brightness of the image of the character CH and the brightness of the surrounding virtual space image, post-effect processing is performed to reduce this difference. By doing so, it becomes possible to generate a high-quality, realistic virtual space image in which the image of the character CH generated based on the photographed image blends seamlessly into the surrounding virtual space.

また本実施形態では、他の表示物に対応する他の対象物を複数の撮影方向から撮影することで得られる他の表示物用の撮影画像群を取得する。そして他の表示物用の移動制御情報に応じて、他の表示物用の撮影画像群から選択された撮影画像に基づいて、他の表示物用のテクスチャを生成する。そして他の表示物用の移動制御情報に応じて変化する他の表示物用のテクスチャを、他の表示物用のプリミティブにマッピングして、仮想空間画像を生成する。ここで他の表示物は、例えば敵キャラクタである。 Further, in this embodiment, a group of photographed images for another display object obtained by photographing another target object corresponding to the other display object from a plurality of photographing directions is acquired. Then, in accordance with the movement control information for the other display object, a texture for the other display object is generated based on a photographed image selected from a group of photographed images for the other display object. Then, a virtual space image is generated by mapping the texture for another display object that changes according to the movement control information for the other display object onto the primitive for the other display object. Here, the other display object is, for example, an enemy character.

例えば図16では、他の表示物である敵キャラクタCHE1、CHE2の画像を含む仮想空間画像を生成している。この場合には敵キャラクタCHE1、CHE2に対応する対象物を複数の撮影方向から撮影することで得られる撮影画像群を取得する。例えば図3(A)、図3(B)と同様の手法により、敵キャラクタCHE1、CHE2に対応する敵ロボットのプラモデルを複数の撮影方向から撮影することで、敵キャラクタCHE1、CHE2用(他の表示物用)の撮影画像群を取得する。そして敵キャラクタCHE1、CHE2用の移動制御情報に応じて、敵キャラクタCHE1、CHE2用の撮影画像群から選択された撮影画像に基づいて、敵キャラクタCHE1、CHE2用のテクスチャTEXE1、TEXE2を生成する。即ち、敵キャラクタCHE1、CHE2は、敵キャラクタCHE1、CHE2用の移動制御情報に基づいて仮想空間内を移動する。この敵キャラクタCHE1、CHE2用の移動制御情報に基づいて、敵キャラクタCHE1、CHE2用の撮影画像群から撮影画像を選択して、敵キャラクタCHE1、CHE2用のテクスチャTEXE1、TEXE2を生成する。このようにすることで、プレーヤのキャラクタCHの場合と同様に、移動制御情報を反映させたテクスチャTEXE1、TEXE2を生成できるようになる。そして図16に示すように、生成されたテクスチャTEXE1、TEXE2を、敵キャラクタCHE1、CHE2用のプリミティブPME1、PME2にマッピングすることで、仮想空間画像を生成する。 For example, in FIG. 16, a virtual space image is generated that includes images of enemy characters CHE1 and CHE2, which are other display objects. In this case, a group of photographed images obtained by photographing objects corresponding to the enemy characters CHE1 and CHE2 from a plurality of photographing directions is obtained. For example, by photographing plastic models of enemy robots corresponding to enemy characters CHE1 and CHE2 from multiple photographing directions using a method similar to that shown in FIGS. Obtain a group of captured images (for display objects). Then, textures TEXE1 and TEXE2 for the enemy characters CHE1 and CHE2 are generated based on the photographed images selected from the group of photographed images for the enemy characters CHE1 and CHE2 in accordance with the movement control information for the enemy characters CHE1 and CHE2. That is, the enemy characters CHE1 and CHE2 move within the virtual space based on the movement control information for the enemy characters CHE1 and CHE2. Based on the movement control information for the enemy characters CHE1 and CHE2, a photographed image is selected from a group of photographed images for the enemy characters CHE1 and CHE2, and textures TEXE1 and TEXE2 for the enemy characters CHE1 and CHE2 are generated. By doing this, it becomes possible to generate textures TEXE1 and TEXE2 that reflect movement control information, as in the case of the player's character CH. Then, as shown in FIG. 16, a virtual space image is generated by mapping the generated textures TEXE1 and TEXE2 onto primitives PME1 and PME2 for enemy characters CHE1 and CHE2.

このようにすれば、敵キャラクタCHE1、CHE2についても、キャラクタCHの場合と同様に、敵キャラクタCHE1、CHE2に対応する対象物である敵ロボットのプラモデルを、仮想空間内に出現させるような演出が可能になる。これにより、プレーヤのロボットのプラモデルと敵ロボットのプラモデルとが仮想空間において対戦するというような、これまでにないゲームを実現できる。また敵キャラクタCHE1、CHE2の画像についても、敵キャラクタCHE1、CHE2用の移動制御情報を反映させた画像にすることができ、よりリアルな画像の生成が可能になる。例えば図16では、敵キャラクタCHE1については、プリミティブPME1を基準に右前方を向くような画像が生成され、キャラクタCHの方を向いている敵キャラクタCHE1の画像が、仮想空間画像として生成されるようになる。また敵キャラクタCHE2については、プリミティブPME2を基準に左前方を向くような画像が生成され、キャラクタCHの方を向いている敵キャラクタCHE2の画像が、仮想空間画像として生成されるようになる。これによりプレーヤの仮想現実感の向上等を図れる。 In this way, for the enemy characters CHE1 and CHE2, as in the case of the character CH, an effect can be created in which the plastic model of the enemy robot, which is the object corresponding to the enemy characters CHE1 and CHE2, appears in the virtual space. It becomes possible. This makes it possible to realize an unprecedented game in which the plastic model of the player's robot and the plastic model of the enemy robot compete against each other in virtual space. Further, the images of the enemy characters CHE1 and CHE2 can also be made to reflect the movement control information for the enemy characters CHE1 and CHE2, making it possible to generate more realistic images. For example, in FIG. 16, for the enemy character CHE1, an image is generated in which the enemy character CHE1 faces to the right forward based on the primitive PME1, and an image of the enemy character CHE1 facing toward the character CH is generated as a virtual space image. become. Furthermore, for the enemy character CHE2, an image is generated that looks to the left front with reference to the primitive PME2, and an image of the enemy character CHE2 facing the character CH is generated as a virtual space image. This makes it possible to improve the player's sense of virtual reality.

また本実施形態では、プリミティブPMの周囲にパーティクルが表示される画像を、仮想空間画像として生成する。例えば図17では、キャラクタCHの画像がマッピングされるプリミティブPMの周囲にパーティクルPTを発生させている。パーティクルPTの表示処理は、運動する粒子により構成される事象を表現するための処理であり、例えば物理シミュレーションによりパーティクルPTの移動等を制御する。例えばパーティクルPTの発生時の初速や重さ、重力や空気抵抗などの環境条件を設定することで、より精密なパーティクル制御を実現できる。一例としては、パーティクルPTの頂点座標を管理するバッファを記憶部170に設け、再帰的にシェーダ計算を行うことで、パーティクルPTの挙動を制御する。 Further, in this embodiment, an image in which particles are displayed around the primitive PM is generated as a virtual space image. For example, in FIG. 17, particles PT are generated around the primitive PM to which the image of the character CH is mapped. The particle PT display process is a process for expressing an event made up of moving particles, and for example, the movement of the particles PT is controlled by physical simulation. For example, more precise particle control can be achieved by setting environmental conditions such as initial velocity, weight, gravity, and air resistance when particles PT are generated. For example, a buffer for managing the vertex coordinates of particles PT is provided in the storage unit 170, and the behavior of particles PT is controlled by recursively performing shader calculations.

即ち、本実施形態では対象物POBの2次元の撮影画像を用いて、擬似的に3次元画像に見えるキャラクタCHの画像を生成している。一方、仮想空間の他のオブジェクトについては3次元モデルにより表現されている。このため、何ら工夫を行わないと、擬似的な3次元画像であるキャラクタCHの画像と、3次元モデルである他のオブジェクトの画像との間に違和感が生じてしまい、プレーヤの仮想現実感を損ねるおそれがある。この点、図17に示すようにキャラクタCHの画像がマッピングされるプリミティブPMの周囲にパーティクルPTを発生すれば、プリミティブPMが仮想空間内を移動したときに、周囲に存在するパーティクルPTが要因となって、3次元の空間感を創出できる。これにより、あたかも3次元モデルのキャラクタCHが、3次元の仮想空間を移動しているかのような仮想現実感を、プレーヤに与えることが可能になる。 That is, in this embodiment, a two-dimensional captured image of the object POB is used to generate an image of the character CH that appears to be a pseudo three-dimensional image. On the other hand, other objects in the virtual space are represented by three-dimensional models. Therefore, unless some measures are taken, a sense of incongruity will occur between the image of the character CH, which is a pseudo three-dimensional image, and the image of other objects, which are three-dimensional models, and the player's sense of virtual reality will be affected. There is a risk of damage. In this regard, if particles PT are generated around the primitive PM to which the image of the character CH is mapped as shown in FIG. This creates a three-dimensional sense of space. This makes it possible to provide the player with a virtual reality feeling as if the three-dimensional model character CH is moving in a three-dimensional virtual space.

図18に本実施形態の画像生成システムの業務用のゲーム装置210への適用例を示す。図18の画像生成システムでは、本体装置である業務用のゲーム装置210に加えて、撮影部162と、対象物POBが配置される配置部10と、回転移動機構12とが設けられている。具体的には図18の画像生成システムでは、撮影用筐体220が設けられており、この撮影用筐体220に、撮影部162と配置部10と回転移動機構12が設けられている。また撮影用筐体220には背景部20も設けられている。回転移動機構12は、配置部10に配置された対象物POBに対する撮影部162の撮影方向を変化させるための回転移動を行う機構である。図18では回転移動機構12が配置部10を回転させることで、対象物POBに対する撮影部162の撮影方向を変化させている。ゲーム装置210(本体側筐体)と撮影用筐体220は、例えば有線又は無線により通信接続されており、例えば回転移動機構12による配置部10の回転を、ゲーム装置210により制御できるようになっている。 FIG. 18 shows an example of application of the image generation system of this embodiment to a commercial game device 210. The image generation system shown in FIG. 18 is provided with a photographing section 162, a placement section 10 in which the object POB is placed, and a rotational movement mechanism 12 in addition to a business game device 210 as a main device. Specifically, the image generation system shown in FIG. 18 is provided with a photographing casing 220, and this photographing casing 220 is provided with the photographing section 162, the arrangement section 10, and the rotational movement mechanism 12. The photographing casing 220 is also provided with a background section 20. The rotational movement mechanism 12 is a mechanism that performs rotational movement to change the photographing direction of the photographing section 162 with respect to the object POB placed in the placement section 10. In FIG. 18, the rotational movement mechanism 12 rotates the arrangement section 10, thereby changing the direction in which the imaging section 162 takes pictures of the object POB. The game device 210 (main body side casing) and the photographing casing 220 are connected to each other by wire or wirelessly, for example, so that the game device 210 can control the rotation of the arrangement section 10 by the rotational movement mechanism 12, for example. ing.

図18の画像生成システムでは、プレーヤは、まず撮影用筐体220の配置部10に、プレーヤが撮影を希望するロボットのプラモデルなどの対象物POBを配置する。そしてゲーム装置210においてプレーヤが例えば撮影を指示する操作を行うと、回転移動機構12が配置部10を回転させ、撮影部162が、図9に示すように360度の撮影方向範囲での対象物POBの撮影を行う。そして、撮影により得られた動画(撮影画像群)のデータは、ゲーム装置210に転送され、ゲーム装置210の記憶部170に保存される。そして図2(A)、図2(B)に示すように、プレーヤは、対象物POBの撮影からワンアクションで、対象物POBに対応するキャラクタCHが仮想空間に登場するゲームを、プレイできるようになる。これにより、プレーヤは、自身が所有するプラモデル等の対象物POBに対応するキャラクタCHを仮想空間に登場させて、キャラクタCHを用いたゲームを楽しむことが可能になり、これまでにないゲームの実現が可能になる。 In the image generation system of FIG. 18, the player first places an object POB, such as a plastic model of a robot, which the player desires to photograph, in the placement section 10 of the photographing casing 220. When the player performs an operation instructing photography on the game device 210, the rotation movement mechanism 12 rotates the arrangement section 10, and the photographing section 162 captures the object in a 360-degree photographing direction range, as shown in FIG. Photograph the POB. Then, the data of the moving image (shot image group) obtained by shooting is transferred to the game device 210 and stored in the storage unit 170 of the game device 210. As shown in FIGS. 2(A) and 2(B), the player can play a game in which a character CH corresponding to the object POB appears in the virtual space with one action from photographing the object POB. become. As a result, players will be able to have a character CH that corresponds to an object POB such as a plastic model that they own appear in the virtual space and enjoy a game using the character CH, realizing an unprecedented game. becomes possible.

また図19に示すように、対象物POBを空中に浮遊させた状態で支持する支持部16を設けることが望ましい。図19では、棒状の支持部16の一端が配置部10に取り付けられている。そしてロボットのプラモデルである対象物POBの臀部に穴部が設けられており、この穴部に対して、棒状の支持部16の他端を差し込むことで、対象物POBを空中に浮遊させた状態で支持できる。このようにすれば、対象物POBに対応するキャラクタCHとして、空中に浮遊した状態のポーズのキャラクタCHを出現させることが可能になり、プレーヤの多様な要望に応えることが可能になる。 Further, as shown in FIG. 19, it is desirable to provide a support section 16 that supports the object POB while floating in the air. In FIG. 19 , one end of a rod-shaped support portion 16 is attached to the placement portion 10 . A hole is provided in the buttocks of the object POB, which is a plastic model of the robot, and by inserting the other end of the rod-shaped support 16 into this hole, the object POB is suspended in the air. It can be supported by In this way, it becomes possible to make a character CH in a floating pose appear as the character CH corresponding to the object POB, and it becomes possible to meet the various demands of the players.

なお図19では棒状の支持部16の他端を、対象物POBの臀部の穴部に差し込むことで、対象物POBを空中に浮遊させた状態で支持しているが、本実施形態の支持手法はこれには限定されない。例えばピアノ線などの細くて透明な線状部材により、対象物POBを宙づりにすることで、対象物POBを空中に浮遊させた状態で支持するようにしてもよい。或いは、対象物POBの頭部に穴部を設け、支持部16の他端を、この頭部の穴部に差し込むことで、逆さまの状態で対象物POBを空中に浮遊させて支持するようにしてもよい。この場合には、取得された撮影画像群の撮影画像の上下反転処理を行えばよい。 Note that in FIG. 19, the other end of the rod-shaped support portion 16 is inserted into the hole in the buttock of the object POB to support the object POB in a suspended state, but the support method of this embodiment is not limited to this. For example, the object POB may be suspended in the air by a thin transparent linear member such as a piano wire, so that the object POB is supported while floating in the air. Alternatively, by providing a hole in the head of the object POB and inserting the other end of the support section 16 into the hole in the head, the object POB can be suspended and supported in the upside down state. You can. In this case, it is sufficient to vertically invert the photographed images of the acquired photographic image group.

2.3 第1、第2の撮影画像群からのテクスチャの生成
以上では、撮影画像群が1つである場合について主に説明した。以下では、第1、第2の撮影画像群などの複数の撮影画像群の撮影画像に基づいて、テクスチャを生成して、プリミティブPMにマッピングし、仮想空間画像を生成する手法について説明する。図20は、第1、第2の撮影画像群に基づく仮想空間画像の生成処理のフローチャートである。
2.3 Generation of Texture from First and Second Groups of Photographed Images Above, the case where there is only one group of photographed images has been mainly described. Below, a method of generating a texture based on captured images of a plurality of captured image groups such as the first and second captured image groups, mapping it to a primitive PM, and generating a virtual space image will be described. FIG. 20 is a flowchart of virtual space image generation processing based on the first and second photographed image groups.

まず、撮影部162により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群を取得する(ステップS21)。即ち図3(A)、図3(B)で説明した撮影手法により、第1の撮影画像群(第1の動画)を取得する。次に、ポーズを変化させた対象物、付随物を付加した対象物又は形状変形させた対象物を複数の撮影方向から撮影することで得られる第2の撮影画像群を取得する(ステップS22)。例えば後述の図21(A)、図21(B)に示すように、第1の撮影画像群における対象物のポーズを変化させた対象物POBを、複数の撮影方向(360度の撮影方向範囲)から撮影することで、第2の撮影画像群(第2の動画)を取得する。或いは図22(A)に示すように、第1の撮影画像群における対象物に対してキャノン砲CNのような武器や、防具等の付随物を付加した対象物POBを、複数の撮影方向から撮影することで、第2の撮影画像群を取得する。或いは図22(B)に示すように、第1の撮影画像群における対象物を形状変形させた対象物POBを、複数の撮影方向から撮影することで、第2の撮影画像群を取得する。或いは図23に示すように、第1の撮影画像群を加工することで第2の撮影画像群を取得する。そして、このようにして取得した第1、第2の撮影画像群を記憶部170に記憶して保存する(ステップS23)。 First, a first group of photographed images obtained by photographing the object from a plurality of photographing directions is obtained by the photographing unit 162 (step S21). That is, a first group of photographed images (first moving image) is acquired by the photographing method explained with reference to FIGS. 3(A) and 3(B). Next, a second group of photographed images is obtained by photographing the object with a changed pose, the object with an accompanying object added, or the object with a deformed shape from a plurality of photographing directions (step S22). . For example, as shown in FIGS. 21(A) and 21(B), which will be described later, the object POB in which the pose of the object in the first photographed image group has been changed is ) to obtain a second group of captured images (second moving image). Alternatively, as shown in FIG. 22(A), the object POB in which a weapon such as a cannon CN or an accessory such as armor is added to the object in the first photographed image group is captured from multiple photographing directions. By photographing, a second group of photographed images is acquired. Alternatively, as shown in FIG. 22(B), a second group of photographed images is obtained by photographing the object POB, which is a shape-deformed object in the first group of photographed images, from a plurality of photographing directions. Alternatively, as shown in FIG. 23, a second group of captured images is obtained by processing the first group of captured images. Then, the first and second photographed image groups acquired in this way are stored and saved in the storage unit 170 (step S23).

次に第1、第2の撮影画像群から、プリミティブにマッピングするテクスチャを生成する(ステップS24)。例えば図4(A)、図4(B)、図12等で説明した手法により、第1、第2の撮影画像群の撮影画像に基づいてテクスチャを生成する。そして、生成されたテクスチャをプリミティブにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成する(ステップS25)。例えば仮想空間においてプリミティブを移動させる処理を行い、第1、第2の撮影画像群から生成されたテクスチャを、仮想空間において移動するプリミティブにマッピングすることで、プリミティブにテクスチャがマッピングされた画像を含む仮想空間画像を生成する。 Next, a texture to be mapped to the primitive is generated from the first and second photographed image groups (step S24). For example, a texture is generated based on the captured images of the first and second captured image groups using the method described in FIGS. 4(A), 4(B), FIG. 12, etc. Then, the generated texture is mapped onto a primitive to generate a virtual space image that can be seen from the virtual camera in the virtual space (step S25). For example, by performing processing to move a primitive in virtual space and mapping the texture generated from the first and second captured image groups to the primitive moving in virtual space, the image includes an image in which the texture is mapped to the primitive. Generate a virtual space image.

このようにすれば、第1の撮影画像群のみならず、第2の撮影画像群を用いて、テクスチャを生成し、生成されたテクスチャがマッピングされたプリミティブの画像を含む仮想空間画像を生成できるようになる。例えば対象物の撮影画像だけではなく、ポーズを変化させた対象物の撮影画像、付随物を付加した対象物の撮影画像、形状変形させた対象物の撮影画像、或いは対象物の撮影画像を加工した撮影画像に基づいて、テクスチャを生成し、当該テクスチャがマッピングされたプリミティブの画像を含む仮想空間画像を生成できるようになる。従って、対象物に対応する表示物を仮想空間に出現させることができると共に、様々な態様の対象物の撮影画像による仮想空間画像を生成することが可能になる。 In this way, a texture can be generated using not only the first group of captured images but also the second group of captured images, and a virtual space image including an image of a primitive to which the generated texture is mapped can be generated. It becomes like this. For example, you can process not only a photographed image of the object, but also a photographed image of the object with a changed pose, a photographed image of the object with appendages added, a photographed image of the object with deformed shape, or a photographed image of the target. A texture is generated based on the photographed image, and a virtual space image including an image of a primitive to which the texture is mapped can be generated. Therefore, it is possible to make a display object corresponding to the target object appear in the virtual space, and it is also possible to generate virtual space images based on captured images of the target object in various forms.

例えば図21(A)は対象物POBの一例である。この対象物POBは、ロボットのプラモデルであり、配置部10に配置されている。そして回転移動機構12により配置部10を回転させることで、複数の撮影方向で撮影された対象物POBの撮影画像群を取得できる。図3(B)で説明したように、この撮影画像群の撮影画像は、対象物POBが映ると共に、背景部20による背景BGが映る画像になる。 For example, FIG. 21(A) is an example of the object POB. This object POB is a plastic model of a robot, and is placed in the placement section 10. By rotating the arrangement unit 10 using the rotational movement mechanism 12, a group of photographed images of the object POB photographed in a plurality of photographing directions can be obtained. As explained with reference to FIG. 3B, the captured images of this captured image group are images in which the object POB is reflected and the background BG formed by the background section 20 is reflected.

そして図21(B)では、ポーズを変化させた対象物POBが配置部10に配置されている。即ち図21(B)の対象物POBは、図21(A)とは異なったポーズをとっている。図21(B)の対象物POBは、図21(A)の対象物POB自体の関節等を曲げてポーズを変えたものであってもよいし、図21(A)の対象物POBとは別個にプレーヤが用意した対象物(第2の対象物)であってもよい。例えば図21(A)に示すような基本ポーズの対象物POBを配置部10に配置して、複数の撮影方向から撮影することで、第1の撮影画像群が取得される。また図21(B)に示すような所定ポーズの対象物POBを配置部10に配置して、複数の撮影方向から撮影することで、第2の撮影画像群が取得される。更にポーズを変化させて異ならせた対象物POBを撮影することで、第3、第4の撮影画像群というように3つ以上の撮影画像群を取得してもよい。 In FIG. 21(B), the object POB whose pose has been changed is placed in the placement unit 10. That is, the object POB in FIG. 21(B) is in a different pose from that in FIG. 21(A). The object POB in FIG. 21(B) may be the object POB in FIG. 21(A) whose pose is changed by bending the joints, etc., or the object POB in FIG. 21(A) may be different from the object POB in FIG. It may be an object (second object) prepared separately by the player. For example, a first group of captured images is obtained by arranging an object POB in a basic pose as shown in FIG. 21(A) in the placement unit 10 and photographing it from a plurality of photographing directions. Further, a second group of photographed images is obtained by arranging the object POB in a predetermined pose as shown in FIG. 21(B) in the arrangement section 10 and photographing it from a plurality of photographing directions. Furthermore, three or more photographed image groups, such as a third and fourth photographed image group, may be obtained by photographing the object POB with different poses.

また図22(A)では、付随物であるキャノン砲CNを付加した対象物POBが配置部10に配置されている。即ち図22(A)の対象物POBは、図21(A)にはないキャノン砲CNが付加されている。図22(A)の対象物POBは、図21(A)の対象物POB自体にキャノン砲CN等の付随物を付加したものであってもよいし、図21(A)の対象物POBとは別個にプレーヤが用意した付随物付きの対象物(第2の対象物)であってもよい。例えば図21(A)に示すようなキャノン砲CNを有しない対象物POBを配置部10に配置して、複数の撮影方向から撮影することで、第1の撮影画像群が取得される。また図22(A)に示すようなキャノン砲CNを装備した対象物POBを配置部10に配置して、複数の撮影方向から撮影することで、第2の撮影画像群が取得される。更に異なる付随物を付加した対象物POBを撮影することで、第3、第4の撮影画像群というように3つ以上の撮影画像群を取得してもよい。なお対象物POBに付加される付随物はキャノン砲CNには限定されず、キャノン砲CN以外の武器や、防具、装備品(武器、防具以外の装備品)、装飾品(アクセサリー、飾り等)、又は所持品(バッグ、時計等)などであってもよい。 Further, in FIG. 22(A), an object POB to which an accompanying cannon CN is added is placed in the placement section 10. That is, the object POB in FIG. 22(A) has a cannon CN added thereto, which is not present in FIG. 21(A). The object POB in FIG. 22(A) may be the object POB in FIG. 21(A) with an accompanying object such as a cannon CN added, or the object POB in FIG. 21(A) may be the same as the object POB in FIG. 21(A). may be an object (second object) with an accompanying object prepared separately by the player. For example, a first group of photographed images is obtained by arranging an object POB without a cannon CN as shown in FIG. 21(A) in the arrangement section 10 and photographing it from a plurality of photographing directions. Further, a second group of photographed images is obtained by placing an object POB equipped with a cannon CN as shown in FIG. 22(A) in the placement section 10 and photographing from a plurality of photographing directions. Furthermore, by photographing the object POB to which different accompanying objects are added, three or more photographed image groups, such as a third and fourth photographed image group, may be obtained. Incidental items added to the object POB are not limited to the cannon CN, but include weapons other than the cannon CN, armor, equipment (equipment other than weapons and armor), and accessories (accessories, decorations, etc.) , or personal belongings (bags, watches, etc.).

また図22(B)では、変身等により形状変形した対象物POBが配置部10に配置されている。即ち図22(B)の対象物POBは、図21(A)とは異なる形状に形状変形したものになっている。例えば地上用のロボットから、飛行機形状のロボットに形状変形している。図22(B)の対象物POBは、図21(A)の対象物POB自体のパーツ等を変更して形状変形させたものであってもよいし、図21(A)の対象物POBとは別個にプレーヤが用意した対象物(第2の対象物)であってもよい。例えば図21(A)に示すような通常タイプの対象物POBを配置部10に配置して、複数の撮影方向から撮影することで、第1の撮影画像群が取得される。また図22(B)に示すような特殊な形状に形状変形した対象物POBを配置部10に配置して、複数の撮影方向から撮影することで、第2の撮影画像群が取得される。更に異なる第3、第4の形状に形状変形した対象物POBを撮影することで、第3、第4の撮影画像群というように3つ以上の撮影画像群を取得してもよい。 Further, in FIG. 22(B), an object POB whose shape has been deformed due to transformation or the like is placed in the placement section 10. That is, the object POB in FIG. 22(B) has been deformed into a shape different from that in FIG. 21(A). For example, the robot's shape has changed from a ground robot to an airplane-shaped robot. The object POB in FIG. 22(B) may be the object POB in FIG. 21(A) whose shape is deformed by changing parts etc., or the object POB in FIG. 21(A) may be the same as the object POB in FIG. may be an object (second object) prepared separately by the player. For example, a first group of photographed images is obtained by arranging a normal type object POB as shown in FIG. 21(A) in the arrangement section 10 and photographing it from a plurality of photographing directions. Further, a second group of photographed images is obtained by arranging the object POB, which has been deformed into a special shape as shown in FIG. 22(B), in the arrangement section 10 and photographing it from a plurality of photographing directions. Furthermore, three or more photographed image groups, such as the third and fourth photographed image groups, may be acquired by photographing the object POB that has been deformed into third and fourth different shapes.

また図23では、第1の撮影画像群の加工を行うことで第2の撮影画像群を取得している。例えば第1の撮影画像群の撮影画像に映るキャラクタ等の表示物が水平方向に引き延ばされるようなサイズ変更の拡大処理を行うことで、第2の撮影画像群が取得されている。例えば第1の撮影画像群の撮影画像に映るキャラクタ等の表示物の表示態様と、第2の撮影画像群の撮影画像に映るキャラクタ等の表示物の表示態様とを、異ならせるような加工処理が行われている。或いは第1の撮影画像群に対してぼかし処理などの画像エフェクト処理の加工処理を行ったり、第1の撮影画像群の色、明るさ又はコントラストを変更する加工処理を行ったり、或いは第1の撮影画像群の左右反転、上下反転又は回転などの加工処理を行ったりすることで、第2の撮影画像群を取得してもよい。或いは、敵からの攻撃によりキャラクタ等の表示物が破壊されるように見える加工処理を行って、第2の撮影画像群を取得してもよい。 Further, in FIG. 23, a second group of captured images is obtained by processing the first group of captured images. For example, the second group of photographed images is obtained by performing an enlargement process to change the size of a display object such as a character appearing in the photographed images of the first group of photographed images so as to be stretched in the horizontal direction. For example, processing that makes the display mode of objects such as characters that appear in the captured images of the first captured image group different from the display mode of displayed objects such as characters that appear in the captured images of the second captured image group. is being carried out. Alternatively, the first group of captured images may be subjected to image effect processing such as blurring, or the first group of captured images may be processed to change the color, brightness, or contrast of the first group of captured images. The second group of photographed images may be obtained by performing processing such as horizontally flipping, vertically flipping, or rotating the photographed image group. Alternatively, the second group of photographed images may be obtained by processing a display object such as a character so that it appears to be destroyed by an attack from an enemy.

また本実施形態では、図24に示すように、プレーヤの操作入力情報に応じて、第1、第2の撮影画像群の一方の撮影画像群を選択する。例えばプレーヤが第1の操作入力を行ったと判断された場合には、第1、第2の撮影画像群のうちの第1の撮影画像群を選択する。一方、プレーヤが第2の操作入力を行ったと判断された場合には、第1、第2の撮影画像群のうちの第2の撮影画像群を選択する。そして選択された一方の撮影画像群の撮影画像に基づいて、テクスチャを生成し、生成されたテクスチャをプリミティブにマッピングすることで、仮想カメラから見える仮想空間画像を生成する。このようにすれば、プレーヤの操作入力情報に応じた適切な撮影画像群を選択し、選択された撮影画像群の撮影画像に基づくテクスチャがマッピングされた画像を、対象物に対応する表示物の画像として生成できるようになる。 Further, in this embodiment, as shown in FIG. 24, one of the first and second photographed image groups is selected in accordance with the player's operation input information. For example, if it is determined that the player has made the first operation input, the first group of captured images from the first and second groups of captured images is selected. On the other hand, if it is determined that the player has made the second operation input, the second group of captured images is selected from the first and second groups of captured images. Then, a texture is generated based on the captured images of one of the selected captured image groups, and the generated texture is mapped to a primitive to generate a virtual space image that can be seen from the virtual camera. In this way, an appropriate group of captured images is selected according to the player's operation input information, and an image mapped with a texture based on the captured images of the selected group of captured images is transferred to the displayed object corresponding to the target object. It can be generated as an image.

例えばプレーヤが、キャラクタを移動させるなどの通常の操作入力(第1の操作入力)を行っている場合には、図21(A)に示すような通常ポーズの対象物POBを撮影することにより得られた第1の撮影画像群を選択する。一方、プレーヤが、武器により敵を攻撃する操作入力(第2の操作入力)を行った場合には、図21(B)に示すような武器により攻撃するポーズの対象物POBを撮影することにより得られた第2の撮影画像群を選択する。これにより、武器により攻撃するポーズのキャラクタの画像を含む仮想空間画像を生成できるようになる。或いは、プレーヤがキャノン砲CNを装着する操作入力(第2の操作入力)を行った場合には、図22(A)に示すようなキャノン砲CNを装着した対象物POBを撮影することにより得られた第2の撮影画像群を選択する。これにより、キャノン砲CNを装備したキャラクタの画像を含む仮想空間画像を生成できるようになる。或いは、プレーヤが特殊形状に形状変形(変身)する操作入力(第2の操作入力)を行った場合には、図22(B)に示すような特殊形状に形状変形した対象物POBを撮影することにより得られた第2の撮影画像群を選択する。これにより、特殊形状に変形したキャラクタの画像を含む仮想空間画像を生成できるようになる。 For example, when the player is performing a normal operation input (first operation input) such as moving the character, the player can obtain an advantage by photographing the object POB in a normal pose as shown in FIG. 21(A). The first photographed image group is selected. On the other hand, when the player performs an operation input to attack an enemy with a weapon (second operation input), by photographing the object POB in a pose to attack with a weapon as shown in FIG. 21(B), The obtained second photographed image group is selected. This makes it possible to generate a virtual space image that includes an image of a character in a pose of attacking with a weapon. Alternatively, if the player performs an operation input to attach the cannon CN (second operation input), the player can obtain the desired result by photographing the object POB equipped with the cannon CN as shown in FIG. 22(A). The second captured image group is selected. This makes it possible to generate a virtual space image that includes an image of a character equipped with a cannon CN. Alternatively, if the player performs an operation input (second operation input) that transforms (transforms) into a special shape, the object POB transformed into a special shape as shown in FIG. 22(B) is photographed. The second photographed image group obtained by this method is selected. This makes it possible to generate a virtual space image that includes an image of a character transformed into a special shape.

また本実施形態では、対象物の分析結果と、プレーヤの操作入力情報に応じて、第1、第2の撮影画像群の一方の撮影画像群を選択し、選択された一方の撮影画像群の撮影画像に基づいて、テクスチャを生成する。このようにすれば、プレーヤの操作入力情報のみならず、対象物の分析結果に応じた適切な撮影画像群を選択し、選択された撮影画像群の撮影画像に基づくテクスチャがマッピングされた画像を、対象物に対応する表示物の画像として生成できるようになる。図25はこのような手法による仮想空間画像の生成処理を説明するフローチャートである。 Furthermore, in this embodiment, one of the first and second photographed image groups is selected according to the analysis result of the object and the operation input information of the player, and the selected one of the photographed image groups is Generate a texture based on the captured image. In this way, an appropriate group of photographed images is selected according to not only the player's operation input information but also the analysis results of the object, and an image to which textures based on the photographed images of the selected group of photographed images are mapped is created. , it becomes possible to generate an image of a display object corresponding to the target object. FIG. 25 is a flowchart illustrating virtual space image generation processing using such a method.

まず撮影画像等に基づく対象物の分析処理を行う(ステップS31)。例えば対象物のシルエット分析等を行って、対象物の種類や形状を特定する。またプレーヤの操作入力情報を判断する(ステップS32)。例えば操作部160を用いてプレーヤが入力した操作入力情報に基づいて、プレーヤがどのような操作入力を行ったかを判断する。そして対象物の分析結果と、プレーヤの操作入力情報に応じて、第1、第2の撮影画像群の一方の撮影画像群を選択する(ステップS33)。例えば対象物の分析結果に基づいて、対象物の種類を特定し、プレーヤが、その種類の対象物について用意された特定の操作入力を行ったかを判断する。そして、選択された一方の撮影画像群の撮影画像に基づいて、テクスチャを生成し、生成されたテクスチャをマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成する(ステップS34、S35)。 First, an analysis process of the object is performed based on the photographed image etc. (step S31). For example, the type and shape of the object is identified by analyzing the silhouette of the object. Also, the player's operation input information is determined (step S32). For example, based on the operation input information input by the player using the operation unit 160, it is determined what kind of operation input the player has made. Then, one of the first and second photographed image groups is selected according to the analysis result of the object and the player's operation input information (step S33). For example, the type of the object is specified based on the analysis result of the object, and it is determined whether the player has performed a specific operation input prepared for that type of object. Then, a texture is generated based on the captured images of one of the selected captured image groups, and the generated texture is mapped to generate a virtual space image that can be seen from the virtual camera in the virtual space (steps S34, S35). .

例えば対象物が、ロボットのプラモデルである場合には、複数種類のロボットのプラモデルが存在するため、シルエット分析等により、どの種類のロボットのプラモデルを撮影したのかを特定する。そして、第1の種類のロボットのプラモデルである場合には、プレーヤが第1の操作入力を行ったときに、対応するキャラクタが特殊技を繰り出すようなゲームの設定になっていたとする。この場合には、撮影画像に基づく分析処理により、対象物であるロボットのプラモデルが第1の種類であることが特定され、且つ、プレーヤが第1の操作入力を行った場合に、特殊技を繰り出すときに使用される第2の撮影画像群を選択する。そして第2の撮影画像群の撮影画像に基づき生成されたテクスチャを、プリミティブにマッピングして、仮想空間画像を生成する。このようにすることで、第1の種類のロボットのプラモデルに対応するキャラクタが特殊技を繰り出す画像が生成されるようになり、仮想現実感の向上等を図れるようになる。 For example, if the object is a plastic model of a robot, since there are multiple types of plastic models of robots, it is determined by silhouette analysis etc. which type of plastic model of the robot was photographed. In the case of a plastic model of the first type of robot, it is assumed that the game is set such that when the player performs the first operation input, the corresponding character performs a special technique. In this case, the analysis process based on the photographed image identifies that the plastic model of the robot that is the object is of the first type, and when the player performs the first operation input, the special technique is executed. Select the second group of photographed images to be used when unrolling. The texture generated based on the captured images of the second captured image group is then mapped onto the primitive to generate a virtual space image. By doing so, an image in which a character corresponding to the plastic model of the first type of robot performs a special technique can be generated, and the sense of virtual reality can be improved.

また本実施形態では、移動制御情報に基づいて仮想空間においてプリミティブを移動させる処理を行う。そして図26に示すように、第1、第2の撮影画像群の一方の撮影画像群から移動制御情報に応じて選択された撮影画像に基づいて、テクスチャを生成する。そして移動制御情報に応じて変化するテクスチャを、プリミティブにマッピングして、仮想空間画像を生成する。このようにすれば、図3(A)~図11(C)で説明した手法により仮想空間画像を生成することが可能になり、移動制御情報に応じたキャラクタ等の表示物の適切な画像を生成できるようになる。 Furthermore, in this embodiment, processing for moving primitives in virtual space is performed based on movement control information. Then, as shown in FIG. 26, a texture is generated based on a photographed image selected from one of the first and second photographed image groups according to the movement control information. The texture that changes according to the movement control information is then mapped onto the primitive to generate a virtual space image. In this way, it becomes possible to generate a virtual space image using the method explained in FIGS. be able to generate.

また本実施形態では、第1の撮影画像群の撮影画像と第2の撮影画像群の撮影画像を合成することで、テクスチャを生成する。 Furthermore, in the present embodiment, a texture is generated by combining the captured images of the first captured image group and the captured images of the second captured image group.

例えば図27(A)では、第1の撮影画像群である撮影画像IMX1~IMXjと、第2の撮影画像群である撮影画像IMY1~IMYjが取得されている。そして第1の撮影画像群の撮影画像IMXiと、第2の撮影画像群の撮影画像IMYiの合成を行うことで、合成画像IMXYを生成する。例えばα合成などの合成処理を行って、合成画像IMXYを生成する。そして合成画像IMXYに基づいてテクスチャを生成して、プリミティブにマッピングする。これにより、プリミティブの画像を含む仮想空間画像が生成される。このようにすれば、第1の撮影画像群の撮影画像と第2の撮影画像群の撮影画像の両方が反映させたテクスチャを生成し、生成されたテクスチャがマッピングされた画像を、対象物に対応する表示物の画像として生成できるようになる。 For example, in FIG. 27A, captured images IMX1 to IMXj, which are a first group of captured images, and captured images IMY1 to IMYj, which are a second group of captured images, are acquired. Then, the captured image IMXi of the first captured image group and the captured image IMYi of the second captured image group are combined to generate a composite image IMXY. For example, a composition process such as α composition is performed to generate a composite image IMXY. A texture is then generated based on the composite image IMXY and mapped onto the primitive. As a result, a virtual space image including an image of the primitive is generated. In this way, a texture that reflects both the captured images of the first captured image group and the captured images of the second captured image group is generated, and the image to which the generated texture is mapped is applied to the object. It becomes possible to generate an image of the corresponding display object.

例えば図27(B)において、第1の撮影画像群が、対象物が第1のポーズである場合の撮影画像群であり、第2の撮影画像群が、対象物が第2のポーズである場合の撮影画像群であったとする。第1のポーズは例えば図21(A)に示すようなポーズであり、第2のポーズは例えば図21(B)に示すようなポーズである。そして図24、図25で説明したように、プレーヤの操作入力情報などに基づいて、第1の撮影画像群に基づくテクスチャによるキャラクタの画像の生成から、第2の撮影画像群に基づくテクスチャによるキャラクタの画像の生成に切り替える処理を行ったとする。このようにすることで、第1のポーズのキャラクタの画像が表示される仮想空間画像から、第2のポーズのキャラクタの画像が表示される仮想空間画像に切り替える処理が可能になる。例えば図21(A)のポーズのキャラクタの画像が表示される仮想空間画像から、図21(B)のポーズのキャラクタの画像が表示される仮想空間画像に切り替える処理が可能になる。この場合に、当該切り替え処理の切り替え期間において、第1、第2の撮影画像群の撮影画像の合成画像IMXYに基づくテクスチャを生成して、プリミティブにマッピングする。このようにすれば、第1のポーズと第2のポーズを補間するようなポーズのキャラクタの画像を、切り替え期間において表示できるようになる。例えば図21(A)のポーズと図21(B)のポーズを補間するような中間ポーズのキャラクタの画像を、切り替え期間において表示できるようになる。これによりモーション補間のような処理が可能になり、キャラクタのポーズのスムーズな切り替え処理を実現できるようになる。 For example, in FIG. 27(B), a first group of captured images is a group of captured images when the object is in the first pose, and a second group of captured images is a group of captured images when the object is in the second pose. Assume that the image group is a group of captured images for the case. The first pose is, for example, the pose shown in FIG. 21(A), and the second pose is, for example, the pose shown in FIG. 21(B). As explained in FIGS. 24 and 25, based on the player's operation input information, etc., a character image is generated with a texture based on the first group of captured images, and a character image with a texture based on the second group of captured images is generated. Suppose that we perform processing to switch to image generation. By doing so, it becomes possible to perform a process of switching from a virtual space image in which an image of the character in the first pose is displayed to a virtual space image in which an image of the character in the second pose is displayed. For example, it becomes possible to perform a process of switching from a virtual space image in which an image of a character in the pose of FIG. 21(A) is displayed to a virtual space image in which an image of the character in the pose of FIG. 21(B) is displayed. In this case, during the switching period of the switching process, a texture based on the composite image IMXY of the captured images of the first and second captured image groups is generated and mapped to the primitive. In this way, an image of the character in a pose that interpolates the first pose and the second pose can be displayed during the switching period. For example, an image of a character in an intermediate pose, such as interpolating the pose of FIG. 21(A) and the pose of FIG. 21(B), can be displayed during the switching period. This enables processing such as motion interpolation, and enables smooth switching of character poses.

なお、図21(A)のような対象物POBを撮影することによる第1の撮影画像群の撮影画像と、図21(A)のような形状変形した対象物POBを撮影することによる第2の撮影画像群の撮影画像の合成画像を用いて、図27(B)のような切り替え処理を行ってもよい。このようにすれば、キャラクタがスムーズに形状変形するような仮想空間画像を生成できるようになる。 Note that the first captured image group is captured by capturing the object POB as shown in FIG. 21(A), and the second captured image is captured by capturing the object POB whose shape is deformed as shown in FIG. A switching process as shown in FIG. 27(B) may be performed using a composite image of the photographed images of the photographed image group. In this way, it becomes possible to generate a virtual space image in which the shape of the character changes smoothly.

また本実施形態では、対象物の分析結果に基づいて、プレーヤがプレイするゲームのゲームパラメータを設定し、設定されたゲームパラメータに基づいてゲーム処理を行う。図28に、このような処理を行う場合のフローチャートを示す。 Further, in this embodiment, game parameters of a game played by a player are set based on the analysis result of the object, and game processing is performed based on the set game parameters. FIG. 28 shows a flowchart for performing such processing.

まず撮影画像等に基づく対象物の分析処理を行う(ステップS41)。例えば対象物のシルエット分析等を行って、対象物の種類や形状を特定する。そして対象物の分析結果に基づいて、プレーヤがプレイするゲームのゲームパラメータを設定する(ステップS42)。例えば対象物に対応するキャラクタ等の攻撃力、守備力、耐久力、移動能力、走行能力、特殊能力、特殊スキル、ヒットポイント、マジックポイント又はレベル等のゲームパラメータを設定する。例えばゲームパラメータの基本値である初期パラメータ値を設定する。そして設定されたゲームパラメータに基づいて、ゲーム処理を実行する(ステップS43)。例えば、設定されたゲームパラメータに基づいて、キャラクタ等が登場するゲームの処理が行われる。例えばゲームの開始処理、ゲームの進行処理、ゲームの終了処理又はゲーム成績の演算処理などが行われる。 First, an analysis process of the object is performed based on the photographed image and the like (step S41). For example, the type and shape of the object is identified by analyzing the silhouette of the object. Then, based on the analysis result of the object, game parameters of the game played by the player are set (step S42). For example, game parameters such as attack power, defense power, durability, movement ability, running ability, special ability, special skill, hit point, magic point, level, etc. of a character corresponding to the object are set. For example, initial parameter values, which are basic values of game parameters, are set. Then, game processing is executed based on the set game parameters (step S43). For example, a game in which a character or the like appears is processed based on the set game parameters. For example, a game start process, a game progress process, a game end process, a game score calculation process, etc. are performed.

このようにすれば、対象物の撮影画像に基づくキャラクタ等の表示物を表示できると共に、対象物の分析結果に基づいて、キャラクタ等の表示物が登場するゲームの処理に用いられるゲームパラメータを設定できるようになる。これにより対象物に対応する表示物が仮想空間に登場するゲームを実現できると共に、当該ゲームの処理のゲームパラメータについても、対象物の分析結果である対象物の種類等に基づき設定できるようになるため、これまでにない面白味のあるゲームを実現できるようになる。 In this way, it is possible to display a display object such as a character based on a photographed image of the target object, and to set game parameters used for processing a game in which a display object such as a character appears based on the analysis result of the target object. become able to. This makes it possible to create a game in which a display object corresponding to an object appears in virtual space, and also allows game parameters for the game's processing to be set based on the type of object, etc., which is the analysis result of the object. This makes it possible to create games that are more interesting than ever before.

なお、対象物のシルエット分析等の分析結果のみならず、プレーヤ情報に基づいて、ゲームパラメータを設定してもよい。例えばプレーヤの個人情報などに基づいて、初期値として設定されるゲームパラメータの値を変化させる。 Note that game parameters may be set based not only on analysis results such as silhouette analysis of objects but also on player information. For example, the values of game parameters set as initial values are changed based on the player's personal information.

また本実施形態では、第1の撮影画像群を受け付けた後、第2の撮影画像群を受け付けた場合に、第2の撮影画像群が第1の撮影画像群と異なる撮影画像群か否かを判断する。そして、異なる撮影画像群と判断された場合に、第2の撮影画像群を記憶部170に記憶する。例えば撮影部162により対象物を撮影した場合に、撮影された第2の撮影画像群(第2の動画)が、過去に撮影された第1の撮影画像群(第1の動画)と異なる撮影画像群(動画)か否かを判断する。そして異なる撮影画像群であることを条件に、撮影された第2の撮影画像群(第2の動画)を記憶部170に保存する。例えば第2の撮影画像群が、第1の撮影画像群と同じ対象物を撮影した撮影画像群である場合には、記憶部170に保存しないようにする。図29は、このような撮影画像群の保存処理を説明するフローチャートである。 Furthermore, in the present embodiment, when a second group of captured images is received after receiving the first group of captured images, it is determined whether the second group of captured images is a different group of captured images from the first group of captured images. to judge. Then, when it is determined that the captured images are different groups, the second captured image group is stored in the storage unit 170. For example, when an object is photographed by the photographing unit 162, the second photographed image group (second moving image) is a different photographic image from the first photographed image group (first moving image) photographed in the past. Determine whether it is an image group (video). Then, the second captured image group (second moving image) is stored in the storage unit 170, provided that the captured images are different groups. For example, if the second group of captured images is a group of captured images of the same object as the first group of captured images, it is not stored in the storage unit 170. FIG. 29 is a flowchart illustrating the storage process of such a group of photographed images.

まず第1の撮影画像群を受け付けて、記憶部170に記憶して保存する(ステップS51)。そして第2の撮影画像群が受け付けられたか否かを判断する(ステップS52)。例えば撮影部162による撮影により第2の撮影画像群が取得されて受け付けられたか否かを判断する。そして第2の撮影画像群が受け付けられた場合に、第2の撮影画像群は第1の撮影画像群と異なる撮影画像群か否かを判断する(ステップS53)。そして第2の撮影画像群が第1の撮影画像群と異なる撮影画像群であると判断された場合に、第2の撮影画像群を記憶部170に記憶して保存する(ステップS54)。 First, a first group of captured images is received and stored in the storage unit 170 (step S51). Then, it is determined whether the second group of photographed images has been accepted (step S52). For example, it is determined whether a second group of photographed images has been acquired and accepted by photographing by the photographing unit 162. When the second group of captured images is accepted, it is determined whether the second group of captured images is a different group of captured images from the first group of captured images (step S53). If it is determined that the second group of captured images is different from the first group of captured images, the second group of captured images is stored in the storage unit 170 (step S54).

以上のような処理を行えば、同じような撮影画像群(動画)が記憶部170に対して無駄に保存されてしまう事態を防止できる。一方、第2の撮影画像群に映る対象物が、第1の撮影画像群の対象物のポーズを変化させた対象物、付随物を付加した対象物、或いは形状変形した対象物である場合には、第2の撮影像群が第1の撮影画像群とは異なる撮影画像群であると判断される。このようにすることで、図20に示すように、第1、第2の撮影画像群から適切なテクスチャを生成して、プリミティブにマッピングし、対象物に対応する表示物が表示された仮想空間画像を生成できるようになる。 By performing the above-described processing, it is possible to prevent a situation in which a group of similar photographed images (moving images) is wasted in the storage unit 170. On the other hand, if the object appearing in the second group of captured images is an object whose pose has been changed from that of the object in the first group of captured images, an object to which an incidental object has been added, or an object whose shape has been deformed, It is determined that the second group of captured images is a different group of captured images from the first group of captured images. By doing this, as shown in FIG. 20, an appropriate texture is generated from the first and second photographed image groups and mapped to the primitive, and a virtual space in which a display object corresponding to the target object is displayed. It will be possible to generate images.

また本実施形態では、第1、第2の撮影画像群からテクスチャを生成する際に、撮影画像に対するプレーヤの編集を受け付ける。即ちプレーヤによる撮影画像に対する編集を可能にする編集処理を行う。例えば図30に示すように第1、第2の撮影画像群から選択された撮影画像に対するプレーヤの編集を受け付ける。例えば撮影画像を修正する編集や、撮影画像にマーク、アイコンなどの付加表示物を付加する編集や、撮影画像を変形するなどの編集を、プレーヤが行われるようにする。そして編集後の撮影画像に基づいて、テクスチャを生成し、生成されたテクスチャをプリミティブにマッピングすることで、プリミティブの画像を含む仮想空間画像を生成する。 Furthermore, in this embodiment, when generating textures from the first and second groups of captured images, editing by the player on the captured images is accepted. That is, editing processing is performed to enable the player to edit the captured image. For example, as shown in FIG. 30, editing by the player is accepted for a photographed image selected from the first and second photographed image groups. For example, the player can perform editing such as correcting a photographed image, adding additional display objects such as marks and icons to the photographed image, and transforming the photographed image. Then, a texture is generated based on the edited photographic image, and the generated texture is mapped to a primitive, thereby generating a virtual space image including an image of the primitive.

このようにすれば、対象物の撮影画像そのものを用いるのではなく、プレーヤが所望の編集を行った後の撮影画像を用いて、テクスチャを生成し、当該テクスチャがマッピングされたプリミティブの画像を表示できるようになる。これにより、プリミティブの画像により、対象物に対応するキャラクタ等の表示物の画像を表示する場合に、修正された撮影画像に基づいて表示物の画像を表示したり、マーク、アイコンなどの付加表示物が付加された表示物の画像を表示できるようになる。 In this way, instead of using the captured image of the object itself, the texture is generated using the captured image after the player has performed the desired editing, and the image of the primitive to which the texture is mapped is displayed. become able to. As a result, when displaying an image of a display object such as a character corresponding to a target object using a primitive image, the display object image can be displayed based on the corrected captured image, or additional display of marks, icons, etc. It becomes possible to display an image of a display object to which objects are added.

また本実施形態では、撮影部162による対象物の撮影と、対象物に対応するキャラクタ等を用いたゲームのプレイに対して、共通のポイントを消費するようにしてもよい。即ち、対象物の撮影に必要なコストと、ゲームプレイに必要なコストを共通化する。例えば、プレーヤがゲームプレイにより獲得したポイントを消費することで、対象物の撮影を許可するようにする。例えばゲームプレイを有料にして、プレーヤは、実通貨や、ゲーム内通貨などの仮想通貨を支払ってゲームをプレイする。そして、ゲームにおいてプレーヤがポイントを獲得すると、獲得したポイントの消費を条件にして、撮影部162による対象物の撮影を許可するようにする。例えば、プレーヤが初めてゲームプレイを行う際には、プレーヤが所持するプラモデルなどの対象物についての1回の撮影を許可する。そしてプレーヤは、撮影した対象物に対応するキャラクタ等が登場するゲームをプレイする。そして、このゲームにおいてプレーヤがポイントを獲得し、ポイントが一定値以上に達すると、プレーヤによる次の撮影を許可する。これによりプレーヤは、例えば図21(B)に示すようなポーズを異ならせたプラモデル(広義には対象物)や、図22(A)に示すような武器を装備させたプラモデルや、図22(B)に示すような形状変形したプラモデルを撮影できるようになる。そしてこれらのプラモデルに対応するキャラクタをゲームに登場させて、ゲームをプレイできるようになるため、繰り返しゲームプレイしても飽きが来にくいゲームを実現できるようになる。 Further, in the present embodiment, common points may be consumed for photographing an object by the photographing unit 162 and for playing a game using a character or the like corresponding to the object. That is, the cost necessary for photographing the object and the cost necessary for playing the game are made common. For example, the player may be allowed to photograph the object by consuming points earned through game play. For example, game play is charged, and players pay real currency or virtual currency such as in-game currency to play the game. When the player obtains points in the game, the photographing unit 162 is permitted to photograph the object on the condition that the acquired points are consumed. For example, when a player plays a game for the first time, the player is allowed to take one shot of an object such as a plastic model that the player owns. The player then plays a game in which a character or the like corresponding to the photographed object appears. In this game, the player obtains points, and when the points reach a certain value or more, the player is allowed to take another picture. As a result, the player can, for example, create a plastic model (object in a broad sense) with different poses as shown in FIG. 21(B), a plastic model equipped with a weapon as shown in FIG. 22(A), or a plastic model equipped with a weapon as shown in FIG. It becomes possible to photograph a plastic model whose shape has been deformed as shown in B). Since characters corresponding to these plastic models can appear in the game and the game can be played, it is possible to create a game that does not get boring even when played over and over again.

また本実施形態では、撮影画像からテクスチャを生成する際に種々の補正処理や修正処理を行ってもよい。例えばAI(Artificial Intelligence)などの機械学習を利用して、撮影画像からテクスチャを生成するようにしてもよい。例えばプレーヤが対象物を撮影することで取得された撮影画像を記憶部170に記憶して蓄積し、蓄積された撮影画像に基づいてAIなどの機械学習を行ってもよい。そして機械学習により生成された学習済みモデルを用いて、撮影画像に対する補正処理や修正処理などを行って、テクスチャを生成し、生成されたテクスチャをプリミティブにマッピングするようにしてもよい。 Furthermore, in this embodiment, various correction processes and modification processes may be performed when generating textures from captured images. For example, textures may be generated from captured images using machine learning such as AI (Artificial Intelligence). For example, captured images obtained by a player photographing an object may be stored and accumulated in the storage unit 170, and machine learning such as AI may be performed based on the accumulated captured images. The learned model generated by machine learning may then be used to perform correction processing or correction processing on the photographed image to generate a texture, and the generated texture may be mapped to a primitive.

なお、上記のように本実施形態について詳細に説明したが、本開示の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(対象物、表示物等)と共に記載された用語(プラモデル、キャラクタ等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また撮影画像群の取得処理、プリミティブの移動処理、テクスチャの生成処理、仮想空間画像の生成処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本開示の範囲に含まれる。 Although the present embodiment has been described in detail as above, those skilled in the art will easily understand that many modifications can be made without substantively departing from the novelty and effects of the present disclosure. Therefore, all such modifications are intended to be included within the scope of the present disclosure. For example, in the specification or drawings, a term (plastic model, character, etc.) that is described at least once together with a different term with a broader meaning or the same meaning (object, display object, etc.) is not used anywhere in the specification or drawings. Can be replaced with a different term. Furthermore, the processing for acquiring a group of captured images, the processing for moving primitives, the processing for generating textures, the processing for generating virtual space images, etc. are not limited to those described in this embodiment. Included in the scope of disclosure.

POB 対象物、PM、PMV、PMB、PME1、PME2 プリミティブ、
TEX、TEXE1、TEXE2 テクスチャ、PT パーティクル、
CH キャラクタ、CHE、CHE1、CHE2 敵キャラクタ、CN キャノン砲、
OB1~OB3 オブジェクト、IM 撮影画像、BG 背景、
RDR 撮影方向範囲、VC 仮想カメラ、VL 視線方向、
PS 視点位置、RL レール、VM ビューボリューム、
VN 噴射炎、BM ビーム、DCM 撮影方向、
10 配置部、12 回転移動機構、16 支持部、20 背景部、
100 処理部、106 ゲーム処理部、108 編集処理部、110 取得部、
111 分析部、112 移動処理部、114 テクスチャ生成部、
120 画像生成部、130 音生成部、160 操作部、162 撮影部、
170 記憶部、176 撮影画像情報記憶部、177 仮想空間情報記憶部、
178 描画バッファ、180 情報記憶媒体、190 表示部、192 音出力部、
194 I/F部、195 携帯型情報記憶媒体、196 通信部、
200 処理装置、210 ゲーム装置、220 撮影用筐体
POB object, PM, PMV, PMB, PME1, PME2 primitive,
TEX, TEXE1, TEXE2 texture, PT particle,
CH character, CHE, CHE1, CHE2 enemy character, CN cannon,
OB1~OB3 Object, IM photographed image, BG background,
RDR shooting direction range, VC virtual camera, VL line of sight direction,
PS viewpoint position, RL rail, VM view volume,
VN injection flame, BM beam, DCM shooting direction,
10 arrangement part, 12 rotation movement mechanism, 16 support part, 20 background part,
100 processing unit, 106 game processing unit, 108 editing processing unit, 110 acquisition unit,
111 analysis section, 112 movement processing section, 114 texture generation section,
120 image generation section, 130 sound generation section, 160 operation section, 162 photographing section,
170 storage unit, 176 photographed image information storage unit, 177 virtual space information storage unit,
178 drawing buffer, 180 information storage medium, 190 display unit, 192 sound output unit,
194 I/F section, 195 portable information storage medium, 196 communication section,
200 processing device, 210 game device, 220 photographing casing

Claims (15)

撮影部により対象物を複数の撮影方向から撮影することで得られる撮影画像群を取得する取得部と、
取得された前記撮影画像群を記憶する記憶部と、
移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記プリミティブの前記移動制御情報に基づいて前記撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記プリミティブにマッピングするテクスチャとして生成するテクスチャ生成部と、
前記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、
を含み、
前記移動処理部は、
前記プリミティブと前記仮想カメラの位置関係が固定された状態で、前記プリミティブ及び前記仮想カメラを前記移動制御情報に応じて移動させる処理を行うことを特徴とする画像生成システム。
an acquisition unit that acquires a group of photographed images obtained by photographing the object from a plurality of photographing directions by the photographing unit;
a storage unit that stores the acquired photographic image group;
a movement processing unit that performs processing to move the primitive in the virtual space based on the movement control information;
A photographed image that is a two-dimensional image is selected from the group of photographed images based on the movement control information of the primitive, and an image of the object appearing in the selected photographed image is generated as a texture to be mapped to the primitive. A texture generation section;
By mapping the texture generated by the captured image selected based on the movement control information to the primitive, the texture that changes according to the movement control information is mapped to the primitive, and the texture is created in the virtual space. an image generation unit that generates a virtual space image visible from the virtual camera;
including;
The movement processing section
An image generation system characterized by performing a process of moving the primitive and the virtual camera according to the movement control information while the positional relationship between the primitive and the virtual camera is fixed.
請求項1において、
前記移動処理部は、
前記プリミティブが前記仮想カメラに正対し、且つ、前記プリミティブと前記仮想カメラとの距離が一定距離になるように前記プリミティブと前記仮想カメラの位置関係を固定することを特徴とする画像生成システム。
In claim 1,
The movement processing section
An image generation system characterized in that the positional relationship between the primitive and the virtual camera is fixed so that the primitive faces the virtual camera and the distance between the primitive and the virtual camera is a constant distance.
請求項1又は2において、
前記移動処理部は、
前記移動制御情報に基づいて、前記プリミティブと前記仮想カメラの位置関係を固定しながら前記仮想カメラの位置を回転中心として前記プリミティブを回転移動させる、又は前記プリミティブと前記仮想カメラの位置関係を固定しながら前記プリミティブ及び前記仮想カメラを一体として並進移動させることを特徴とする画像生成システム。
In claim 1 or 2,
The movement processing section
Based on the movement control information, the primitive is rotationally moved about the position of the virtual camera while fixing the positional relationship between the primitive and the virtual camera, or the positional relationship between the primitive and the virtual camera is fixed. An image generation system characterized in that the primitive and the virtual camera are translated as one unit.
撮影部により対象物を複数の撮影方向から撮影することで得られる撮影画像群を取得する取得部と、
取得された前記撮影画像群を記憶する記憶部と、
移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記プリミティブの前記移動制御情報に基づいて前記撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記プリミティブにマッピングするテクスチャとして生成するテクスチャ生成部と、
前記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、
を含み、
前記移動処理部は、
前記移動制御情報に応じて前記プリミティブに対する相対的位置関係が変化する第2のプリミティブの移動処理を行い、
前記画像生成部は、
前記テクスチャがマッピングされた前記プリミティブの画像と、前記第2のプリミティブの画像とを含む画像を、前記仮想空間画像として生成することを特徴とする画像生成システム。
an acquisition unit that acquires a group of photographed images obtained by photographing the object from a plurality of photographing directions by the photographing unit;
a storage unit that stores the acquired photographic image group;
a movement processing unit that performs processing to move the primitive in the virtual space based on the movement control information;
A photographed image that is a two-dimensional image is selected from the group of photographed images based on the movement control information of the primitive, and an image of the object appearing in the selected photographed image is generated as a texture to be mapped to the primitive. A texture generation section;
By mapping the texture generated by the captured image selected based on the movement control information to the primitive, the texture that changes according to the movement control information is mapped to the primitive, and the texture is created in the virtual space. an image generation unit that generates a virtual space image visible from the virtual camera;
including;
The movement processing section
performing movement processing of a second primitive whose relative positional relationship with respect to the primitive changes according to the movement control information;
The image generation unit includes:
An image generation system characterized in that an image including an image of the primitive to which the texture is mapped and an image of the second primitive is generated as the virtual space image.
請求項4において、
前記移動処理部は、
前記対象物の分析結果に基づき設定される前記第2のプリミティブの初期配置位置から、前記プリミティブを基準に前記第2のプリミティブを移動させる処理を行うことを特徴とする画像生成システム。
In claim 4,
The movement processing section
An image generation system characterized by performing a process of moving the second primitive based on the primitive from an initial arrangement position of the second primitive that is set based on an analysis result of the target object.
請求項4又は5において、
前記画像生成部は、
前記第2のプリミティブの隠面消去処理を、前記移動制御情報に応じて行うことを特徴とする画像生成システム。
In claim 4 or 5,
The image generation unit includes:
An image generation system characterized in that hidden surface removal processing of the second primitive is performed in accordance with the movement control information.
請求項4乃至6のいずれかにおいて、
前記第2のプリミティブの画像は、エフェクト画像であることを特徴とする画像生成システム。
In any one of claims 4 to 6,
An image generation system characterized in that the image of the second primitive is an effect image.
請求項4乃至7のいずれかにおいて、
前記移動処理部は、
前記プリミティブが前記仮想カメラの位置を回転中心として左回りに回転移動した場合には、前記プリミティブを基準として前記プリミティブに対して左回りに前記第2プリミティブを回転移動し、前記プリミティブが前記仮想カメラの位置を回転中心として右回りに回転移動した場合には、前記プリミティブを基準として前記プリミティブに対して右回りに前記第2プリミティブを回転移動することを特徴とする画像生成システム。
In any one of claims 4 to 7,
The movement processing section
When the primitive rotates counterclockwise around the position of the virtual camera, the second primitive rotates counterclockwise with respect to the primitive with the primitive as a reference, and the primitive rotates counterclockwise with respect to the primitive. An image generation system characterized in that, when the camera position is rotated clockwise around the rotation center, the second primitive is rotated clockwise relative to the primitive with the primitive as a reference.
請求項1乃至8のいずれかにおいて、
前記テクスチャ生成部は、
前記撮影画像群により構成される動画のシーク制御を前記移動制御情報に基づいて行うことで、前記撮影画像群から前記撮影画像を選択し、選択された前記撮影画像に基づいて前記テクスチャを生成することを特徴とする画像生成システム。
In any one of claims 1 to 8,
The texture generation unit is
By performing seek control of the moving image constituted by the group of captured images based on the movement control information, the captured image is selected from the group of captured images, and the texture is generated based on the selected captured image. An image generation system characterized by:
請求項1乃至9のいずれかにおいて、
前記撮影画像群は、前記対象物に対する前記撮影部の撮影方向の変化が180度以上の撮影方向範囲となる画像群であることを特徴とする画像生成システム。
In any one of claims 1 to 9,
The image generation system is characterized in that the group of photographed images is a group of images in which a change in the photographing direction of the photographing unit with respect to the object is within a photographing direction range of 180 degrees or more.
請求項1乃至10のいずれかにおいて、
前記取得部は、
他の表示物に対応する他の対象物を複数の撮影方向から撮影することで得られる他の表示物用の撮影画像群を取得し、
前記テクスチャ生成部は、
他の表示物用の移動制御情報に応じて前記他の表示物用の撮影画像群から選択された撮影画像に基づいて、他の表示物用のテクスチャを生成し、
前記画像生成部は、
前記他の表示物用の移動制御情報に応じて変化する前記他の表示物用のテクスチャを、他の表示物用のプリミティブにマッピングして、前記仮想空間画像を生成することを特徴とする画像生成システム。
In any one of claims 1 to 10,
The acquisition unit includes:
Obtaining a group of photographed images for other display objects obtained by photographing other objects corresponding to the other display objects from a plurality of photographing directions,
The texture generation section includes:
Generating a texture for another display object based on a photographed image selected from a group of photographed images for the other display object in accordance with movement control information for the other display object;
The image generation unit includes:
An image characterized in that the virtual space image is generated by mapping a texture for the other display object that changes according to movement control information for the other display object onto a primitive for the other display object. generation system.
請求項1乃至11のいずれかにおいて、
前記画像生成部は、
前記プリミティブの周囲にパーティクルが表示される画像を、前記仮想空間画像として生成することを特徴とする画像生成システム。
In any one of claims 1 to 11,
The image generation unit includes:
An image generation system characterized in that an image in which particles are displayed around the primitive is generated as the virtual space image.
撮影部と、
対象物が配置される配置部と、
前記配置部に配置された前記対象物に対する前記撮影部の撮影方向を変化させるための回転移動を行う回転移動機構と、
前記対象物を空中に浮遊させた状態で支持する支持部と、
前記撮影部により前記対象物を複数の撮影方向から撮影することで得られる撮影画像群を取得する取得部と、
取得された前記撮影画像群を記憶する記憶部と、
移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記プリミティブの前記移動制御情報に応じて前記撮影画像群から選択された撮影画像に基づいて、前記プリミティブにマッピングするテクスチャを生成するテクスチャ生成部と、
前記移動制御情報に応じて変化する前記テクスチャを、前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、
を含むことを特徴とする画像生成システム。
Photography department and
a placement section where the object is placed;
a rotational movement mechanism that performs a rotational movement for changing the imaging direction of the imaging unit with respect to the object placed in the placement unit;
a support part that supports the object while floating in the air;
an acquisition unit that acquires a group of photographed images obtained by photographing the object from a plurality of photographing directions by the photographing unit;
a storage unit that stores the acquired photographic image group;
a movement processing unit that performs processing to move the primitive in the virtual space based on the movement control information;
a texture generation unit that generates a texture to be mapped to the primitive based on a captured image selected from the captured image group according to the movement control information of the primitive;
an image generation unit that maps the texture that changes according to the movement control information onto the primitive to generate a virtual space image visible from a virtual camera in the virtual space;
An image generation system comprising:
撮影部により対象物を複数の撮影方向から撮影することで得られる撮影画像群を取得する取得部と、
取得された前記撮影画像群を記憶する記憶部と、
移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記プリミティブの前記移動制御情報に基づいて前記撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記プリミティブにマッピングするテクスチャとして生成するテクスチャ生成部と、
前記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部として、
コンピュータを機能させ、
前記移動処理部は、
前記プリミティブと前記仮想カメラの位置関係が固定された状態で、前記プリミティブ及び前記仮想カメラを前記移動制御情報に応じて移動させる処理を行うことを特徴とすることを特徴とするプログラム。
an acquisition unit that acquires a group of photographed images obtained by photographing the object from a plurality of photographing directions by the photographing unit;
a storage unit that stores the acquired photographic image group;
a movement processing unit that performs processing to move the primitive in the virtual space based on the movement control information;
A photographed image that is a two-dimensional image is selected from the group of photographed images based on the movement control information of the primitive, and an image of the object appearing in the selected photographed image is generated as a texture to be mapped to the primitive. A texture generation section;
By mapping the texture generated by the captured image selected based on the movement control information to the primitive, the texture that changes according to the movement control information is mapped to the primitive, and the texture is created in the virtual space. As an image generation unit that generates a virtual space image that can be seen from a virtual camera,
make the computer work,
The movement processing section
A program characterized in that the program performs a process of moving the primitive and the virtual camera in accordance with the movement control information while the positional relationship between the primitive and the virtual camera is fixed.
撮影部により対象物を複数の撮影方向から撮影することで得られる撮影画像群を取得する取得部と、
取得された前記撮影画像群を記憶する記憶部と、
移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記プリミティブの前記移動制御情報に基づいて前記撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記プリミティブにマッピングするテクスチャとして生成するテクスチャ生成部と、
記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部として、
コンピュータを機能させ、
前記移動処理部は、
前記移動制御情報に応じて前記プリミティブに対する相対的位置関係が変化する第2のプリミティブの移動処理を行い、
前記画像生成部は、
前記テクスチャがマッピングされた前記プリミティブの画像と、前記第2のプリミティブの画像とを含む画像を、前記仮想空間画像として生成することを特徴とするプログラム。
an acquisition unit that acquires a group of photographed images obtained by photographing the object from a plurality of photographing directions by the photographing unit;
a storage unit that stores the acquired photographic image group;
a movement processing unit that performs processing to move the primitive in the virtual space based on the movement control information;
A photographed image that is a two-dimensional image is selected from the group of photographed images based on the movement control information of the primitive, and an image of the object appearing in the selected photographed image is generated as a texture to be mapped to the primitive. A texture generation section;
By mapping the texture generated by the captured image selected based on the movement control information onto the primitive , the texture that changes according to the movement control information is mapped onto the primitive, and the virtual space As an image generation unit that generates a virtual space image that can be seen from a virtual camera,
make the computer work,
The movement processing section
performing movement processing of a second primitive whose relative positional relationship with respect to the primitive changes according to the movement control information;
The image generation unit includes:
A program for generating, as the virtual space image, an image including an image of the primitive to which the texture has been mapped and an image of the second primitive.
JP2018248126A 2018-12-28 2018-12-28 Image generation system and program Active JP7418956B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018248126A JP7418956B2 (en) 2018-12-28 2018-12-28 Image generation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018248126A JP7418956B2 (en) 2018-12-28 2018-12-28 Image generation system and program

Publications (2)

Publication Number Publication Date
JP2020107251A JP2020107251A (en) 2020-07-09
JP7418956B2 true JP7418956B2 (en) 2024-01-22

Family

ID=71449243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018248126A Active JP7418956B2 (en) 2018-12-28 2018-12-28 Image generation system and program

Country Status (1)

Country Link
JP (1) JP7418956B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023092380A1 (en) * 2021-11-25 2023-06-01 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method of suggesting shooting position and posture for electronic device having camera, electronic device and computer-readable storage medium
JP7291835B1 (en) 2022-09-13 2023-06-15 株式会社バンダイ Image processing method, information processing device, and computer program
JP7442604B1 (en) 2022-11-29 2024-03-04 株式会社バンダイ Image processing method, information processing device, and computer program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002058045A (en) 2000-08-08 2002-02-22 Komatsu Ltd System and method for entering real object into virtual three-dimensional space
US20150163402A1 (en) 2013-12-10 2015-06-11 Google Inc. Method and Apparatus for Centering Swivel Views
JP2017118979A (en) 2015-12-28 2017-07-06 株式会社バンダイナムコエンターテインメント Game device and program
JP6434667B1 (en) 2018-04-19 2018-12-05 株式会社 ディー・エヌ・エー Program, system, and method for providing virtual space

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2938845B1 (en) * 1998-03-13 1999-08-25 三菱電機株式会社 3D CG live-action image fusion device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002058045A (en) 2000-08-08 2002-02-22 Komatsu Ltd System and method for entering real object into virtual three-dimensional space
US20150163402A1 (en) 2013-12-10 2015-06-11 Google Inc. Method and Apparatus for Centering Swivel Views
JP2017118979A (en) 2015-12-28 2017-07-06 株式会社バンダイナムコエンターテインメント Game device and program
JP6434667B1 (en) 2018-04-19 2018-12-05 株式会社 ディー・エヌ・エー Program, system, and method for providing virtual space

Also Published As

Publication number Publication date
JP2020107251A (en) 2020-07-09

Similar Documents

Publication Publication Date Title
US8574071B2 (en) Information storage medium and image generation system
JP6438207B2 (en) Image generation system and program
JP5300777B2 (en) Program and image generation system
JP6362634B2 (en) Image generation system, game device, and program
US11738270B2 (en) Simulation system, processing method, and information storage medium
JP5149337B2 (en) Program, information storage medium, and image generation system
US20090244064A1 (en) Program, information storage medium, and image generation system
JP7418956B2 (en) Image generation system and program
JP2019152899A (en) Simulation system and program
JP2017138915A (en) Image generation system and program
JP7323751B2 (en) game system and program
JP3249955B2 (en) Image generation system and information storage medium
JP4610748B2 (en) Image generation system, program, and information storage medium
JP2020204856A (en) Image generation system and program
JP2006318388A (en) Program, information storage medium, and image forming system
JP6732463B2 (en) Image generation system and program
JP4502678B2 (en) Program, information storage medium, and image generation system
JP7104539B2 (en) Simulation system and program
JP4447000B2 (en) Image generation system, program, and information storage medium
JP2006252426A (en) Program, information storage medium, and image generation system
JP7335695B2 (en) Image generation system and program
JP4632855B2 (en) Program, information storage medium, and image generation system
JP2005209217A (en) Game system and information storage medium
JP5149956B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD
JP3269813B2 (en) Image generation system and information storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R150 Certificate of patent or registration of utility model

Ref document number: 7418956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150